id
stringlengths
9
9
text
stringlengths
8.54k
92.7k
title
stringclasses
1 value
V03N03-01
\section{はじめに} 自然言語処理技術は,単一文の解析等に関しては一定の水準に到達し,文の生成技術を統合して幾つかの機械翻訳システムが商用化されて久しい.このような段階に達した現在においては,従来,問題とされてきた形態素解析や構文解析とは異なる以下のような課題が現れてきている.自然言語処理システムは求められる分析性能が向上するにつれて,そのシステムで用いる言語知識ベース(文法規則や辞書データ)も次第に複雑化,巨大化してきた.ひとたび実働したシステムも,利用者が使い込むことによって既存の分析性能では扱えない言語現象への対応に迫られる.利用者が増えるに従って新たな分析性能が要求される.一方,自然言語処理システムを用いる応用分野はますます多様化することが予想され,応用分野ごとにも新たな分析性能が要求される.言語知識ベースにおいても機能の更新が求められ,追加と修正の作業が発生する.しかし,一般に言語知識ベースの開発には多数の人員と多くの時間を必要とするため,その再構築にも手間を要する.応用分野に適合するシステムを効率的に開発するためには,融通性を持ち容易に修正できる文法規則や辞書データの作成技法と,作成された言語知識ベースの保守性の向上を図る必要がある.この課題は,応用分野の多様化に伴う需要と規模が増大する中でますます重要となっている.言語知識をコンピュータへ実装する過程での技術的な課題を論じた研究~\cite{吉村,神岡,奥}がある.しかし,文法規則の記述の方法やノウハウの開示が見られない.どのようにして規則が見つけだされたのかという言語知識の構成過程の研究は少なかった.前述のように,適用分野の多様化に応じて,文法規則の追加や修正を整然と実現するには,文法規則の開発手続きを整理することから取り組むべきである.具体的には個々の文法規則がどのような言語現象に着目して作成されたのか,そして,その記述の手段,すなわちどのような手続きで規則化されたのかのノウハウを方法論的に明らかにすることである.本稿では,この課題への一解決策として,文法規則の系統だった記述の方法を提案する.さらに,我々が提案した方法に従って作成した文法規則について説明する.まず,形態素と表層形態の概念区分をした上で,日本語の持つ階層構造に注目した.形態素の述部階層位置との関係から,表層での形態の現れ方を構文構造に結び付ける形態構文論的な文法作成のアプローチを採用し,文法規則の開発手続きを確立した.この文法規則は機械処理に適合した文法体系の一つとなっている.その特徴は,(1)系統だった記述法に則り作成されたものであること,(2)そのため,工学上,文法規則の開発作業手順に一般性が備わり,誰がどのように文法規則を作成するにせよ,ある条件を満たすだけの言語の分析能力を持った文法規則を記述することができる.なお,もう一方の言語知識である辞書データについても,その知識構成過程の把握が必要であるが,本稿では,特に文法規則についてのみ着目する.以下の第\ref{文法規則の体系だった記述法}章では,文法体系と文法規則の具体化の方法について述べ,文法規則を体系的に記述してゆくための記述指針を提案する.第\ref{文法規則の記述の手順}章では,提案した手続きに従って記述した文法規則例を示す.新聞テキストを用いた分析実験を通して,文法規則の記述の手続きの一貫性を評価した.第\ref{記述手続きの評価}章では,その詳細を報告する. \section{文法規則の体系だった記述法} \label{文法規則の体系だった記述法}\subsection{文について}文法規則は,言葉に内在すると見られる表現と解釈のためのきまりである.現実に,我々が日々接する言語事実は,多種多様で加えて複雑であるので,言葉のきまりを包括的に且つ網羅的に説明する文法論は現在のところ存在しない.そこでまず取り扱う文の範囲を設定する.{\dg文}は,記述する叙述内容を表す部分とその叙述内容に対する話し手の判断部分が表層の表現形式に現れている言語表現とする.従って,「うそ.」,「文法規則の体系だった記述法」,「そんなこと!」といった例に見るように叙述部分がなく,述語を含まない言語表現は,本稿では文の範中\\に含めない.「彼,そこ行った!(``彼がそこへ行ったのだ''の意味)」,「改革の流れ徐々に.(``改革の流れが徐々に(Φ)''Φがどのような述語をとるのかは文脈からしか判断できない)」のように不完全な叙述表現であるものも除外する\footnote{文章表現は,一般に,描写文,物語文,説明文,説得文に分類することができる.文章内容に基づいた分類である.文の叙述の仕方の見方に立つと,文の形式の整え方で区分できる.この区分によると本稿の扱う{\dg文}以外の種類には,メモ,伝言,掲示,広告,宣伝文などがある.論文などの専門的説明文に限ると,タイトル部分,図表などへの注釈,章立てのための表現,参考文献の記載部分を除いた部分は文字数にして,その9割は本稿で扱う文である.}.\vspace*{-0.5mm}\subsection{文法記述のアプローチ}\vspace*{-0.2mm}文法規則の記述には,背景となる文法論(文法の考え方)が必要である.文法論を,文の構成要素が持つ外形とその結び付きの有様を探究するものであるとした時,その構成法には,二つのアプローチがあるといわれている\cite{森岡2}.一つには,文法論で扱う構文的な機能を単語の語形にまで言及し体系を立てる方法(方法1),もう一つは,単語の語形とはそれほど密な関係を持ち込まずに体系を立てる方法(方法2)である.こうしたアプローチの違いと語のとらえ方の視点によって,その体系がどのような品詞を認め,どのような単語を認定するのかに違いが生じる.品詞の種類や単語の認定基準は文法体系の単語観に依存している.文法規則には,このようなアプローチの違いに関する知識が関与しており,暗黙の知識として働いている.構成法の違いは文法規則の記述法の違いになって現れる.例えば,外国人向けの日本語教育の文法(例えば\cite{吉岡})は,方法1に沿って作られたものである.日本語を母国語とする初学者向けの文法(例えば\cite{渡辺1})は,概ね方法2に沿っている例として挙げることができる.外国人向けの日本語教育の文法\cite{吉岡}では,日常会話の手段として日本語の構造を説明することを主な目的とする.こうした文法体系の特徴は,話し手の意志伝達や応答の仕方に注目していることである.すなわち文体\footnote{叙述の中心となる述語が文法カテゴリーに応じてその形を変えること.例えば,「だ」から「です」「ます」に見られるような通常態から丁寧態への変化,あるいは「〜する」から「〜しない」へのような肯定から否定への変化を指す.}に応じて,どのように文の構成要素が外形と結びつくのか(文体に応じた構文的機能)を重視する.例えば,表\ref{文体による活用形の組織化の例}のような動詞の活用形設定が可能となり,「ます」あるいは「た」といった語は助動詞ではなく動詞の活用形の一部となる.表現上の機能対立が「〜る」「〜た」のような表層の形の現れ方にまで及んでいる.このように日常会話としての機能対立が顕在化している文型を網羅的に調べてゆくことで,文法規則を体系的に記述してゆくことが可能である.\vspace*{-0.3mm}\btb{文体による活用形の組織化の例}\small\bt{|l|l|l|}\hline\mltclm{1}{中核単位}&\mltclm{1}{活用形}&\mltclm{1}{日常会話上の機能}\\\hline食べ&(食べ)\,--\,る&主体の現在の意思表示の通常体\\\cline{2-3}&(食べ)\,--\,ます&主体の現在の意思表示の丁寧体\\\cline{2-3}&(食べ)\,--\,た&主体が確認した意思表示の通常体\\\cline{2-3}&(食べ)\,--\,ました&主体が確認した意思表示の丁寧体\\\hline\et\etb\vspace*{-0.3mm}日本語を母国語とする初学者に対する文法\cite{渡辺1}では,表層の形には比較的無関心に,抽象化した構文単位(例えば文節)を設定して,その要素間の性質に基づいて文としての結び付きを調べる.活用形の組織化(表\ref{助動詞との接続の基準による活用形の組織化の例}を参照)を見ると,語形変化と構文的な機能との関連があまりない.\btb{助動詞との接続の基準による活用形の組織化の例}\small\bt{|l|l|l|}\hline\mltclm{1}{中核単位}&\mltclm{1}{活用形}&\mltclm{1}{助動詞との接続のし方}\\\hline食&(食)\,--\,べ&「ない」「う」「よう」に連なる\\\cline{2-3}&(食)\,--\,べ&「ます」「た」に連なる\\\cline{2-3}&(食)\,--\,べる&言い切るかたち\\\cline{2-3}&(食)\,--\,べる&体言に連なるかたち\\\hline\et\etbこのように,個々の文法論がそれぞれの立場を持ち,その立場の見方によって言葉を分析することから,分析の対象となる言語を一つに限っても幾つかの文法論が存在する.すなわち文法規則の構成過程は文法論の構成法に依存していると考えられる.機械処理を考えた時,高度な推論機構や語彙の意味に,できるだけ依存しないように文法体系を構成することが望ましい.表層の形の違いができるだけ構文に則する方法を採る.日本語では,(1)殊に述部にあって形態素の序列関係と文法属性に関連があること,(2)いわゆる学校文法でいう活用の活用語尾に,「う」「よう」「まい」などの無活用の助動詞を組み入れて再構成すれば,述部末尾の語形変化を構文的な機能に結び付けることができることから,本稿では方法1の作成法を採る.次節では,方法1に従って機械処理に適した文法規則記述のアプローチについて述べる.\subsection{文法規則の形態構文論的な作成法}\label{文法規則の形態構文論的な作成法}次に挙げる点に適うよう文法体系を構成する.\smallskip\begin{itemize}\baselineskip1.2em\item文の内容記述に関連する要素を外形に現れた形態素でとらえる\item叙述の時空間的な位置関係を外形に現れた形態素の中に見つける\item書き手の叙述の意図を形態素でとらえる\end{itemize}\smallskip{\noindent形態素はそれ自身で意味を担うことのできる最小の単位\cite{森岡1}のことであり,語を構成する基本単位となっている.}我々は,この形態素の表層での現れ方を重視し,単語の語形にまで文法規則を関与させる立場で文法体系を構成する.本稿では,この構成法を{\dg形態構文論}と呼ぶ.文の意味を近似する上記三点の特徴が,構文構造に関してどのように具体化されているのかに着目するのである.一般に,文の一部分が,着目する表現内容を維持しながら別の文形に変わる場合,その変化した部分が,文法規則化の対象となる文型特徴を担っている.従って,変化形態に対する形態素と構文構造の直接的な関係の発見と,文型特徴である文法上の働きを抽象化する過程が文法規則の作成過程となる.この章では,以下に,構文構造に関与する形態素について述べたのち,文法記述の手続きを整理するための作成法の詳細を述べる.\subsubsection{形態素の分類}\label{形態素}まず構文的意味を有する単位としての形態素を分類する必要がある.森岡\cite{森岡1}は,語の構成単位を形態素として子細にその語構成法を観察している.我々は,森岡の形態素分類に従いながら,文の意味を近似する上述の三点の特徴について構文構造と形態素の関係を調べた.そして森岡\cite{森岡1}の基本の分類に基づき,鈴木\cite{鈴木}を参考にして言語現象の抽象化に機能的に働く形態素をまとめた.付録の図\ref{形態素の分類一覧}に形態素の基本分類を示し,付録の表\ref{言語現象の抽象化の手段に対応する形態素}に言語現象の抽象化の手段に対応する形態素を示す.\subsubsection{文構造の階層性とその利用}\label{階層}構文構造と形態素の直接的な関係から文法規則の構成上の情報を得ることを基本とする.しかし,文の構成を担う手がかりを,表層の形態特徴ばかりに求められないことが下記の例からわかる.\smallskip\begin{description}\baselineskip1.2em\item[(1)]「学生は英語教育を求めていない」\item[(2)]「学生は英語教育を求めている」\item[(3)]「学生は英語教育を求められている」\item[(4)]「学生は英語教育を求めている」\end{description}\smallskip{\noindent否定文(1)に対応する肯定文(2)と,受動文(3)に対応する能動文(4)のうち(2)と(4)は同じ文形である.}肯定文と能動文の形態上の弁別ができない.次に,(1),(2),(4)例の「学生は」の「は」は格表示機能を有し,主格の語を現している.一方,(3)例の「学生は」では,「(Aが)学生{\dgに}英語教育を求めている」{\noindentという意味で「学生」が対格を示すために,「は」が利用されている.}このように構文的機能を有する形態素は文法機能に関し一対多の対応関係を持つことで多価値となっている.我々は,文法体系の作成に意味知識や推論機構を前提しないことを既に述べている.「求める」「英語教育」「学生」といった語彙毎に意味知識を持ち込まずに,「は」を伴う語が主格になるか,もしくは対格になるのかを表現し分けなければならない.多価値の形態素を,言語現象の抽象化に応じて構文機能に正しく結び付けるには,何らかの表示デバイスが必要になる.その働きは構文構造と形態素の直接的{\dgでない}関係を補完することにある.その対策として,我々は,現代日本語文法の研究成果~\cite{日本語1,日本,渡辺,芳賀,寺村1,山口,南,佐伯}から得られている文の段階性(階層)を利用する.文の段階(層)構造を本稿での文の定義に従って変更した.図\ref{述部の階層構造(分析に用いる構造)}に文の段階(層)構造を示す.\bfg\vspace*{0mm}\epsfile{file=kaisou.eps}\vspace*{-0.1mm}\CAPLA{述部の階層構造(分析に用いる構造)}\vspace*{3mm}\vspace*{-0.3mm}\parbox{100mm}{\small日本語の述部には,図に示す層状構造があるとされる.格の階層は,文の叙述に論理的な関係を設定した際に,その論理関係の関与する要素が含まれる階層である.例えば,「AガBヲ食べ(ル)」という述語があるとする.この場合,「食べる」という述部が中心語となり,「Aが」と「Bを」という2つの格要素が認められる.これらの要素は中心語に依存する.ヴォイスの層は,論理関係として関与する格要素が,どのような見方によって叙述されているかを示す.上の例では,Bに焦点を当てることで「Bが(Aに)食べ{\dgられ}る」という外形の特徴が現れる.依存関係は格関係と変わりはないが,述部の形が形態素によって変わるので特徴抽出が可能となる.アスペクトの層は,叙述の時間の捉え方に関わる部分である.叙述全体を記述するのか,あるいは叙述の時間的な変化のある部分を捉えて記述するのかを表現仕分ける層である.ムードの層は,叙述の時間表現に関わる部分であって,その叙述が完了したことなのか,あるいは未完了の出来事かを表現仕分ける.モダリティの階層は話し手の叙述の意図が示される.}\end{figure}\vspace*{-1mm}\subsubsection{形態素と形態}\label{形態素と形態}\vspace*{-2mm}図\ref{述部の階層構造(分析に用いる構造)}に示す階層で不整合なく文法機能の働きが形態との対応で明示できるように,我々は,層内にあって構文的機能を有する形態素の働きを決めることとした.テンスとかアスペクトなどの構文機能は,抽象的なものであるから常に表層文の形が対応するとは限らない.そこで,構文機能を有する形態素が表層に現れない場合には,形態素のインスタンスとして働くことのできる形態という単位を導入する.形態を持った,表層には直接現れない形態素を認識的な形態素と称する.形態を介して形態素と構文機能を直接的に結び付ける.我々は,必ずしも形態素が表層上に現れなくとも文を形態素連鎖として扱うことができると仮定している.文の意味を近似する構文的意味に結びついて,階層内で配置される位置に応じた文法機能があるものと考え,同じ形態素が複数の構文機能を担うことはないものとした.例文(2)は階層構造表示をすると次の構造となる.\vspace*{-1.5mm}\begin{center}\epsfile{file=rei.eps}\vspace*{-2.5mm}\figcap{例文の階層構造}{例文の階層構造}\end{center}図2において,(る)は,アスペクト表現の(ル:未完了)とムード表現の(ル:叙述)のふたつの構文機能を担っている.表層形態の「る」は,本稿の分析では,一般にいわれる形態素ではなく形態である.多価値とされる従来の形態素は,構文機能を担う認識的な形態素(この例では,アスペクト形態素とムード形態素)が構文機能を実現するために生じた表層の現れ,つまり形態\footnote{例えば,{\emgo}に対してテンス形態素が機能的に働くとその表層の形態は,{\emwent}となる.形態素解析とは表層の文字列を単語に区切るだけはない.構文機能を実現する形態素を見つけることにあり,それが認識的なものであった場合には,形態を見つけることにある.}であるとみる.構文機能が同じであるにもかかわらず形態が違っている場合がある.このように違う形態が,同じ文の階層に属する時,それらは異形態\footnote{形は違うが同じ意味を持つ形態.「食べた」と「読んだ」における「た」と「だ」は異形態と呼ばれる.形は違っていても,動詞で示される叙述内容が同じ過去・完了であるという意味を表している.文の表層の文字の並びは単なる形態素の連鎖ではなく,形態素と形態,もしくは,周りの言語環境によって形態が変動した異形態の並びからなる.}であるという見方をとる.こうした分析により従来,多価値とされた形態素の文内での働きを正しく捉えることができる.この形態構文論的な作成法により,言語現象の抽象化に機能的に働く形態素に曖昧性がなくなり,構文構造と形態素の間に直接的な関係を設定することが可能となる.この直接的な関係の一覧が文法枠組に対応する.線状に並ぶ形態素の,形の違いと相互連鎖の仕方にだけ注目すると曖昧となる言語現象も,文に階層構造を仮定することで,それを分析するための文法規則を作成できる.本章では,構文構造と形態素の直接的な関係を抽象化する構文形態論的な文法の考え方について述べた.次に,この枠組に基づいた文法規則の記述の方法について述べる. \section{文法規則の記述の手順} \label{文法規則の記述の手順}一般に文法規則の記述では,文中で意味を担う形態素に結びついて繰り返し現れる機能形態素を利用する.形態構文論的な作成法では,文法規則を記述する作業は,文に内在するとみられる階層のそれぞれの位置に,言語現象を抽象化するために文に繰り返し現れる形態素を配置することである.我々は,この手続きを整理することで体系的な文法記述の手順を得た.\subsubsection*{構文的機能を有する形態素の認定(P1)}語彙には実質的な内容面と文法的な機能面が備わっている.意味が似通っている語彙の語形の変化の様子を調べる.その様子から内容面が変化しても繰り返し起こる形に着眼する.その形を,集めた語彙に共通する文法面の機能を担う形態素とする.\subsubsection*{文の階層性の利用(P2)}共通する文法面の機能が複数(形態素が多義)の場合には,文の階層構造を利用する.出現する階層の違いに文法機能の違いを対応させることによって同じ形態に異なる文法規則を割り当てる\footnote{例えば,動詞の終止形である「る」は,テンスを表現するとも,もしくはアスペクトを示す機能を有しているともいわれている.P2の手続きはこのような現象に対処するものである.この例では,テンスを示す形態素とアスペクトを担う形態素がそれぞれあり,表層上,不可避的に同じ形態を共有しているとみなす.構文的には両者は違う階層で機能するものとして文法規則を作成する.}.\subsubsection*{認識的な構文的機能を有する形態素の認定(P3)}文法機能上,外形や階層に共通する形態特徴が現れない場合には,文の表層での現れが{\dg見えない}形態素を設ける.次に,この形態素に構文機能を割り当てる.この構文機能は言語現象の抽象化に対応する必要がある.形態素と表層の形態との対応をみいだす.周りの言語環境によって形態が変化した異形態があればそれを見つける.\subsubsection*{依存関係を定める(P4)}依存関係とは,文の構成要素が文階層のどのレベルで,語彙の実質的な内容面と結びついているかによって表現する.基本的に,修飾要素は,被修飾要素に依存する場合,修飾要素の最も外郭の階層と同じ階層位置に依存する.係り受け関係に相当する.例えば,「ので」「のに」などの接続助詞は,アスペクト層までを含む述語の語形変化の中で繰り返し現れる形の形態素である.連用修飾句として,主節に依存する場合,主節のアスペクト層部分に依存する.これを模式的に表したものが図\ref{依存関係の模式図1}$\sim$\ref{依存関係の模式図2}である.\bfg\epsfile{file=izon1.eps}\vspace{0.5mm}\efg{依存関係の模式図1}述語は,それが表現する動きを成り立たせる上で,構文上選択的に必要としている要素がある\cite{仁田}.図\ref{依存関係の模式図1}に示す例では「AガBヲ求め(ル)」である.図\ref{依存関係の模式図1}(a)の名詞句「英語教育を」は,機能形態素「を」でマークされているから,述部の階層構造(図\ref{述部の階層構造(分析に用いる構造)})の格要素を含む階層と依存関係を構成する(図\ref{依存関係の模式図1}の(b)).こうした用言に内在する論理的な関係構成に関わる要素は,叙述に用いる語彙の性質によって決まる.同時にその要素が語形としてどのような形態素を取り得るのかも語彙に依存して決まる.この語彙性質は,予め辞書に記載しておかなければならない.\bfg\epsfile{file=izon2.eps}\vspace{0.3mm}\vspace*{-0.5mm}\efg{依存関係の模式図2}図\ref{依存関係の模式図2}は用言に後接する「い(る)」の依存先を示している.図\ref{依存関係の模式図2}(a)において,「英語教育を求めている」の機能形態素「い(る)」は,用言で示される出来事の時間的な継続状態を示す(表\ref{言語現象の抽象化の手段に対応する形態素}).この形態素は,動詞が示す動作の一局面を表現し,アスペクトという文法機能を表現する形態素である.従って,述部の階層構造(図\ref{述部の階層構造(分析に用いる構造)})のアスペクト部分に依存し,図\ref{依存関係の模式図2}の(b)に示す依存関係が成立する.依存関係は機能形態素に前接する形態素(語基)と文階層の性質から決まる.図\ref{文法規則の記述の流れ}は,上記P1$\sim$P4の手順の,適用する順序と条件を,記述手続きの流れとして示したものである.次節では文法規則の作成例を挙げて記述手順を具体的に説明する.\bfg\vspace{0.3mm}\epsfile{file=flow.eps}\vspace{0.7mm}\vspace{1mm}\efg{文法規則の記述の流れ}\subsection{文法規則の組み立て}\label{文法規則の組み立て}本節では,前節で示した文法規則の記述方法に従って,実際に文法規則を作成した例を示す.\vspace*{-4mm}\subsubsection{文の分析のための規則}\vspace*{-1mm}{\dg文}分析のための規則を作成する.日本語は,主要素が文末に置かれる性質があるので,文末の形態素もしくは形態に着目してみる.\begin{enumerate}\item構文と直接関係を有する形態素を探す(P1)話し手の判断にあたる部分を,文法機能として話し手の意図とする.ヴォイス・アスペクト・ムードなどの文法機能と同様に扱い,意図は文の記述の内容に無関係に,様相の階層で働く構文機能とする.次に様相に対する形態素を設定する.「与える」を言語資料とし,語形変化の様子を調べるため,文末での終止の形を例に挙げる\footnote{上段は比較的話し手の強い意図表現が示される語形で,下段はそれ以外の語形を集めた.}.\vspace{-2mm}\btb{用言の文末終止の型の例}\small\bt{ll|l|l}&(1)&(2)&(3)\\&与える&与えるのだ&与えてほしい\\(上)&与えた&与えたのだ&与えてほしかった\\&与えるだろう&与えるはずだ&与えるべきだ\\&与えただろう&与えたはずだ&与えておくべきだ\\\hline&与えよう&与えますか&与えなさい\\(下)&与えまい&与えましたか&与えねばならない\\&与えろ&与えるのか&与えようじゃないか\\&与えるな&与えたのか&与えるだろうねぇ\\\et\vspace{-0.5mm}\etb様相という構文機能に対応する形態素は,話し手の判断であるので,肯定や否定,過去の認定や推量といった中立的な判断の意味を表すと考える.願望とか疑問,ある根拠に基づくことを示唆する命令調の判断や意志といった意味を示す形態素は,様相に応じないので文の終止の形として認められない.表\ref{用言の文末終止の型の例}で,中立的な判断の意味を表すのは(1)列上段であり,「〜る」「〜るだろう」のような話し手の意図が比較的中立かあるいは根拠の曖昧な推量の表現である.こうした意図表示の希薄な表現は基本の文型としてよいだろう.(2)列は,文内容の叙述に対する話し手の態度が形態に如実に現れていることが分かる.「のだ」「はずだ」といった話し手の強い認定態度を表現した推量と「ますか」「のか」のような意図表示が強固な疑念の表出となっている.(3)列は,直接的な話し手の意志や願望が示されている.(1)の下段の表現は意図の表現と依頼の表現である.その表す意味を見ると記述事態の時間的な把握,意図表現や依頼表現が対で並んでいる.同じ意味を表す他の言い替え表現がないことから,(1)の下段は意図表示の表現の基本の形である.結局,(1)列を基本的な文終止の文型であるとする.\item形態素の働きは?規則記述の手順を示す図\ref{文法規則の記述の流れ}のP1の手続きによって様相という文法機能に対する形態素を仮定した.表の(1)列に挙がる一連の形態は文の終止機能(構文機能との直接関係)を有するものの,「与え」を除いては共通する形態素がみつからない.手順P3に進む.\item認識的な形態素を仮定する(P3)様相を示す形態素を$\varphi$様相(**)\footnote{$\varphi$は``見えない''形態素であることを示し,``**''は,形態素に対する構文機能が未定であることを示す.例えば,テンスが{\dg過去}とか{\dg現在}といった具体的な構文機能を持っているように,構文と直接関係を有する形態素には機能に見合った値を与えることができる.}として,表層文字列との対応をとる(図\ref{様相の分析手順}(a)).\bfg\epsfile{file=izon3.eps}\CAPLA{様相の分析手順}\vspace*{3mm}\parbox{100mm}{\small(a)図は,認識的な形態素を仮定した段階であり,構文機能は未定である.形態との結びつきが明確でない.(b)図は,構文機能を定め,表層の形態との対応をとった状態を示している.}\end{figure}\item構文と直接関係を有する形態素を探す(P1)(1)列で,[与え](述語自身が表現する叙述内容)を除くと,「る(た)」,「るだろう(ただろう)」,「よう(まい)」,「ろ(るな)」が話し手の判断を示す形態である.そこで様相に具体的な構文機能を与える.様相を示す形態素に,それぞれ$\varphi$様相(平叙),$\varphi$様相(推量),$\varphi$様相(意志),$\varphi$様相(依頼)という文法機能を示す値を割り当てる.「た」は「る」の異形態とし,「ただろう」,「まい」,「るな」についても同様とする.\item形態素の働きは?文終止の様相に対する構文機能と形態素を結び付けることができた(図\ref{様相の分析手順}(b)).\item依存関係を求める(P4)階層関係を基に依存構造を求める.様相は階層構造では外郭にあるから文という最上位の階層との直接依存関係を構成することになる.\end{enumerate}図\ref{文法規則の記述の流れ}のP1--P3--P1--P4の手順で文法規則を作成することができる\footnote{簡便のため,様相に関する文法規則の作成事例を挙げた.話し手の意図に関する$\varphi$様相(平叙)形態素は,「る」と「た」という形態に対応している.このいずれの形態も文を終止する要件は満たしているものの,「る」,「た」はテンスを示しているともされ,様相以外の文法機能をこの形態が表している.そこで,文の階層構造である図\ref{述部の階層構造(分析に用いる構造)}を当てはめてみる.その結果,「る」,「た」の形態はムードの文法機能を担って形態として現れていることが分かる.また,ほかの形態,例えば,依頼を示す形態「ろ」,「るな」は,意志否定(認め方)の文法機能も同時に担っている.最終的には,P1--P3--P1--P2--P4の手順に沿って文法規則を作成することになる.その結果を次の図に示す.\begin{center}\epsfile{file=izon4.eps,height=60mm,width=90mm}\end{center}}.\begin{figure}[p]\input{fig2.tex}\bigskip\caption{文法体系構図}\label{文法体系構図}\end{figure}\vspace*{-0.5mm}\subsubsection{文法規則}\vspace*{-0.2mm}紙面の都合上,一例を挙げるに止めるが,我々はすでに中規模の文法規則を作成している.この文法体系の全体構図を図\ref{文法体系構図}に示す.個々の規則を逐一挙げることも紙面の関係から不可能なので,文の階層図を用いて示している.文の階層のそれぞれの位置にどのような構文要素が依存するのかを示した.前章までに示した手続きによって作成された規則は,DCG\cite{fernando}を用いて記述されており,約700余りある.付録の表\ref{文法規則の種類と数(1)},表\ref{文法規則の種類と数(2)}には,文法規則の種類とその数の一覧を示す.実規則の一例として,例で挙げた文分析の規則を付録の図\ref{文法規則例}に示す.文を分析すると構文構造が得られるが,この構造は述部の階層構造を基本として,文の構成要素が文階層のどの位置に属するのか(依存構造)を示す.形態素によって決まる構文機能を依存関係として利用することで係り受け関係と見なすこともできる.構文的な性質のうち述語自身が選択的に要求する要素に関する(格の階層に属する)情報は,語彙ごとに違うので予め辞書に記載しておく必要がある.用言を中心とした規則の他に,体言を中心とした連体句,副詞を扱う連用句に関する規則がある. \section{記述手続きの評価} \label{記述手続きの評価}本章では,文法規則記述の手続きの一貫性を評価する実験とその結果について述べる.\subsection{方法}まず,前章において作成した文法規則を第一版とし,その分析能力について実際の新聞の論説文を用いて分析を行なう\footnote{分析対象の文章は,平成4年11月10日から21日までの朝日新聞社説,ならびにコラム「窓」からそれぞれ8編ずつを選んだ.}.分析できなかった事例を収集し言語現象ごとに分類を試みる.その中からあるカテゴリーを選び,これを仮に応用分野で求められる分析性能の向上要求と定める.次に,この要求を満たすよう,本稿で提案した記述の手続きを用いて文法規則を追加した.これを第二版とし,再び同じテキストを用いて分析を行い規則作成手順の有効性を検討した.\subsection{第一版の文法規則による分析}分析において次の条件を与えた.(1)辞書項目は全て与えられているものとし,(2)曖昧性を考慮せず句点や記号等を含む全文字列を文の構成要素とする,(3)複数の名詞連続からなる複合語はないものとし一つの単語とみなすことで,複合語の分析を文法規則の守備範囲から外した.表\ref{実験結果(1)}の分析実験の結果を得た.\btb{実験結果(1)}\small\bt{|r||r|r|r|r|}\hline&\mltclm{2}{コラム「窓」}&\mltclm{2}{社説}\\\hline文章&\multicolumn{1}{c|}{文数}&解析率(\%)&\multicolumn{1}{c|}{文数}&解析率(\%)\\\hline1&16(17)&6.3&29(29)&24.1\\2&17(19)&41.2&39(40)&43.6\\3&17(22)&41.2&26(28)&26.9\\4&11(15)&45.5&31(32)&29.0\\5&19(21)&47.4&14(18)&14.3\\6&10(13)&10.0&30(31)&30.0\\7&19(27)&57.9&34(34)&32.4\\8&13(14)&15.3&24(27)&29.2\\\hline平均&15.3(18.5)&33.1&28.4(29.9)&28.7\\\hline\et\etb表\ref{実験結果(1)}は,社説とコラムについて,文章中に含まれる文数と解析率を一覧にしたものである.解析率は,曖昧性を考慮しないで解析に成功した文の全文章に対する比率である.なお,我々が定義した文の範囲外にある言語現象を含む文は予め分析対象から外した(表\ref{分析対象外言語現象}).文数を示す欄の括弧内が元の文数である.除外した言語現象として,名詞や記号が連接する説明文章特有の記述,記号の組合せによる慣例的な表現,あるいは簡易表現による指示表示がある.コラム文章では体言止め,副詞句止めなどの修辞用法が使われている.\btb{分析対象外言語現象}\small\bt{|l|r|l|}\hline\mltclm{1}{言語現象}&\mltclm{1}{事例数}&\mltclm{1}{用例}\\\hline形態連接&25&「$\cdots$」「$\cdots$」,「$\cdots$」($\cdots$)\\体言止め&11&``教科書倉庫.'',\\副詞句止め&1&``温泉旅行に.''\\その他&4&``$\cdot\cdot\cdot$.''\\\hline\et\etb8つのコラム文章について解析できない用例を表\ref{第一段階で分析できない言語現象}に示す.事例数は8つの文章を対象とした分析不可の原因数である.一般には一文の中に複数の原因が存在する.引用が高い頻度で現れている.鍵括弧で囲まれた文字列全体(複数文の場合もある)が引用されている例もある.「の」による名詞化現象では,名詞句全体が助詞を伴う場合が25例(「の」による名詞化1)と多い.形式名詞による補文化の例は4件(形式名詞を使う名詞化1)と少ない.逆に形式名詞で名詞化されたものがモダリティ機能を兼ねて働くこと(形式名詞を使う名詞化2)が多いことが特徴となっている.連用化は「ように」「ために」「ほど」などの形式名詞が従属節部分で機能する言語現象である.第一版の文法規則では接続詞を扱っておらず,この規則を欠くことによる解析率の低下も大きい.\btb{第一段階で分析できない言語現象}\small\bt{|l|r|l|}\hline\mltclm{1}{言語現象}&\mltclm{1}{事例数}&\mltclm{1}{用例}\\\hline文の引用&40&告訴すると,「$\cdots$」などと\\名詞句の引用&5&``肝心,という'',\\「の」による名詞化1&25&開いたのが,実現させたのを\\「の」による名詞化2&6&``$\cdots$のだろう'',\\形式名詞を使う名詞化1&4&認めさせたことも,存在するかもしれぬことを\\形式名詞を使う名詞化2&20&薄くなるばかりだ,いうほかない\\連用化&20&指摘したように,住んだ挙げ句\\文末のモダリティ&11&してはならない,``$\cdots$ではいられない''\\接続詞&13&だが,それにしても,しかし\\活用変形&7&あわず,飽きたらず\\述部内派生現象&1&して\underline{もら}う\\[1mm]\hline\et\etb\subsection{適用分野への模擬的拡張}前節で示した幾つかの言語現象を取り上げ,その言語現象を,あるアプリケーションが要求する拡張仕様と見なす.その仕様を満たすように文法規則を拡張する.第\ref{文法規則の記述の手順}章で提案した手順に従って文法規則化を進める.表\ref{第一段階で分析できない言語現象}を参考にすると,「の」による名詞化1と形式名詞の名詞化2,ならびに文末のモダリティに関する文法規則を新たに作成することで分析範囲が広がることが予想される.具体的には,(a)書き手の意図表現と,(b)「の」による名詞化された表現に対応できるように拡張する\footnote{失敗の事例数の点からは「文の引用」の解析規則を追加することで,効率良く解析率を向上させることができる.本節では,本稿が主眼とする文法規則の作成手順(図\ref{文法規則の記述の流れ})の説明の点から,幾分意図的であるが上記2例を取り上げた.}.\subsubsection{文法規則の拡張1}\label{文法規則の拡張1}(a)について文法規則の作成手順(図\ref{文法規則の記述の流れ})を適用してみる.「してはならない」「である」「わけだ」のように,モダリティ\footnote{この場合,叙述内容に対する書き手の判断様相.様相と同じモダリティの階層に属する.}を示す形態が雑多である.そこで認識的な構文機能を有する形態素($\varphi$判断様相(**)\footnote{(**)は判断様相という形態素に対応する具体的な文法機能の名前である.例えば,「である」だと`断定'である.}とする)を仮定する.「わけ」「ばかり」「の」などの形態が,文末のモダリティ表現のみならず,名詞化にも関わっていることから,形態素の多価値の問題を解消する必要がある.そこで文の階層構造を利用し,形態素($\varphi$判断様相)が属する階層をモダリティの階層に設定する.図\ref{文法規則の記述の流れ}のP1--P3--P1--P2--P4の流れに従うことで,$\varphi$判断様相(**)という形態素の出現位置ならびに,文に現れた異形態と構文機能を特定する文法規則が出来上がる.追加される文法規則は,扱おうとする文末の判断様相に関わるモダリティ表現の数に等しい.ここでは,表\ref{第一段階で分析できない言語現象}の文末のモダリティの項目に現れた形式的な名詞の分析をカバーするだけの規則数を追加する(規則数13).\subsubsection{文法規則の拡張2}\label{文法規則の拡張2}(b)については,「の」を形式的な体言に所属する助辞と考え,先に挙げた図\ref{文法体系構図}の中の述部からなる連体修飾句に関する文法規則を応用することで拡張が可能である.図\ref{文法規則の記述の流れ}における,(3)の場合に相当する.名詞化という文法機能は「の」だけでなく「こと」によっても実現されることから,名詞化を担う単一の形態素が見あたらない.$\varphi$名詞化(**)という認識的な構文機能に応じる形態素\footnote{この形態素は階層図ではアスペクトの層に属する.}を設定し,表層で具現した形態を「の」とする.そしてその異形態を「こと」とする.図\ref{文法規則の記述の流れ}においてP1--P3--P1--P4の手順で規則を作ることができる.文法規則は,述部からなる連体修飾句と$\varphi$名詞化(**)の依存関係,実質的には「の」,「こと」との依存関係から構成できる(規則数11).\subsection{第二版の文法規則による分析}\subsubsection{分析の結果}上述の手続きで作成した文法規則を加えた拡張版を第二版の文法規則とし,この文法規則を使って,再び同じ資料に対して分析を行った.その結果を表\ref{実験結果(2)}に示す.表\ref{第一段階で分析できない言語現象}で示した項目の「の」による名詞化1と形式名詞の名詞化2,ならびに文末のモダリティ表現に関わる言語現象の分析が可能になった.それぞれの分析対象の資料について,「拡張後の解析率」が示すように解析率が向上している.第二版の文法規則の分析能力が向上していることを確認した.一連の実験から適用分野の要求仕様に応じて,図\ref{文法規則の記述の流れ}で示した文法規則作成の手続きが繰り返し適用可能であることを確認した.\btb{実験結果(2)}\small\bt{|r||r|r|r|r|}\hline&\mltclm{2}{コラム「窓」}&\mltclm{2}{社説}\\\hline文章&\mltclm{1}{拡張後の}&解析率(\%)&\mltclm{1}{拡張後の}&解析率(\%)\\&解析率(\%)&&解析率(\%)&\\\hline1&18.8&6.3&38.0&24.1\\2&52.9&41.2&56.4&43.6\\3&58.8&41.2&46.2&26.9\\4&54.5&45.5&48.4&29.0\\5&68.4&47.4&42.9&14.3\\6&20.0&10.0&53.3&30.0\\7&57.9&57.9&55.9&32.4\\8&38.5&15.3&45.8&29.2\\\hline平均&46.2&33.1&48.4&28.7\\\hline\et\etb\vspace*{-2mm}形式名詞を使って叙述内容を書き手の判断の様相で締めくくる文章スタイルが論説文の特徴であることから,社説を対象とした資料で解析率の向上が著しいことがわかる.同機能の文法規則を追加しても,文章の性質によって解析率の向上に違いがみられた.このことは分析対象となる文章に対して,その表現上の性質の違いに応じて文法規則を選択的に適用することが,効率的な分析の実現につながることを示唆している.文法規則の分析能力は背景となる文法論に依存している.取り分け拡張の可能性については,分析対象とする文を,文法論がどのように定義するのかにかかわる.また,文法規則を拡張する時,その分析能力の漸増性が問題になる.一般に,文の一部分が,着目する表現内容を維持しながら別の文形に変わる場合,その変化した部分が,文法規則化の対象となる文型特徴を担っている.たとえば,例文(5),(6)は,「それを食べる」という表現内容を維持しつつ,それぞれ違った意味を担っている.「わけ」に導かれて文形が変化している.\begin{itemize}\baselineskip1.2em\item[(5)]「君がそれを食べるわけなのだ」\item[(6)]「君がそれを食べるわけがわかった」\end{itemize}ここで,仮に「わけ」を形態素として,構文構造と形態素の直接的な関係に基づいた抽象化を行い文法規則を作成する.\smallskip\begin{description}\baselineskip1.2em\item[規則]連体修飾構造の主名詞部分に「わけ」は位置する.この場合,「わけ」は,・「…という次第」,・「理由・事情」の意味がある.そして連体修飾構造を構成する述語部分と依存関係を持つ.\end{description}\smallskip{\noindent上記文法規則によれば,形態素「わけ」に対応する構文機能が2つ(それぞれ,・叙述に対する判断,・「わけ」による名詞化)あるので,例文(5)(あるいは例文(6))を解析すると2つの解析候補が得られる.}この曖昧さは,「わけ」によって表される言語現象の抽象化が不十分なために生じたものである.一般に曖昧さの解消は意味解析に委ねられることになるが,構文解析の段階で精度を上げようとして,一方の言語現象に適合させて分析能力を調整すれば,上記規則は基本的に2つの言語現象を分析対象にするから,必然的に他方の言語現象の分析に調整の影響が及ぶ.この意味で他と干渉する文法規則となっている.我々が提案する形態構文論的な作成法では次に示す手続きで規則化する.例文(5)の「わけ」が持つ意味「という次第」が示す構文機能は書き手の意図であることから,前節(\ref{文法規則の拡張1}節)で示した文法規則の拡張にあるように,$\varphi$判断様相という形態素を認め,この形態素と構文機能に直接の関係を持たせる.この言語現象の抽象化に機能的に働いている形態素が具体化した表層の形態は「わけ」となり,その異形態として「ばかり」「はず」がある.形態素($\varphi$判断様相)はモダリティの階層に属するから,例文(5)の「わけ」に前接する「それが食べた」は様相表現までの文法要素を含まなければならない(図\ref{連体修飾構造を構成する文法要素}の(a)).これに対して,例文(6)の「わけ」が持つ意味「理由・事情」が示す構文機能は名詞化であって,\ref{文法規則の拡張2}節で示した規則と同様である.この場合の認識的な形態素($\varphi$名詞化)は,アスペクトの階層にあるので,例文(6)の「わけ」に前接する「それで食べた」はアスペクト表現までの文法要素を含む(図\ref{連体修飾構造を構成する文法要素}の(b)).それぞれの形態素は所属する階層が違い,従って,形態素が機能する時の周囲の文法環境に違いが生じる.この違いがその形態素と直接的な関係を持つ構文構造を解析する規則の適用制限となって,例えば,例文(5)を解析する文法規則は,例文(6)の解析には失敗する.逆の場合も同様である.本作成法では,認識的な形態素の選定の妥当性を支持する表示デバイスに述部の階層構造を利用することで,互いに相反したり矛盾することのない文法規則を作る手続きを確立した.それは構文機能に結び付く形態素が正しく判断できていることが条件である.手続きでは,形態素の選択が正しい判断のもとに行なわれたか否かの指針を与えることはできていない.図\ref{文法規則の記述の流れ}の破線の四角で示す例外処理があるのはこのためである.\bfg\vspace{0.5mm}\epsfile{file=kisoku.eps}\vspace{0.5mm}\CAPLA{連体修飾構造を構成する文法要素}\vspace*{3mm}\parbox{100mm}{\small(a)図は,「君がそれを食べるわけなの(だ)」に対応する階層構造図である.破線は連体修飾句が含む文法要素に関連する階層を示している.(b)図は,同様に「君がそれを食べるわけが(分かった)に対応する階層構造図である.}\end{figure}線状に並ぶ形態素の,形の違いと相互連鎖の仕方にだけ注目すると曖昧となる言語現象も,文に階層構造を仮定することで,それを分析するための文法規則を作成できる.但し,形態素の曖昧性がこれだけに尽きるのではなく,修飾-被修飾の関係や音調の違い等をも基礎にして曖昧さを解消しているようである.個々の言語現象の曖昧性がそれぞれ何に起因しているのかを隅無く押えてゆくことが必要だろう. \section{おわりに} この稿では,文法規則の体系的な記述方法を提示した.まず,形態素と表層形態の概念区分をした上で,日本語の持つ階層構造に注目した.形態素の述部階層位置との関係から,表層での形態の現れ方を構文構造に結び付ける形態構文論的な文法作成のアプローチを採用し,文法規則の開発手続きを確立した.融通性を持ち容易に修正できることを例証するため,試作した文法規則を新聞の論説文の分析に適用し,分析の出来なかった言語現象を検討した.そして,その言語現象を取り上げて,これを新たな分析性能を満たす要求仕様と見なし,同じ手続きを用いて文法規則を拡張した.この結果,拡張した文法規則の分析性能が漸増していることを確認した.これまでにも何らかの設計の指針を使って文法規則の開発は行われてきた.しかし,それは,基本的な文法の枠組みがあるとしても,実際に文法規則を書くものの経験に基づく勘であったり,あるいは,言語現象ごとに規則を演繹する場合も,この言語現象についてはこのような文法規則の書き方,ある言語現象についてはこの規則に類似させる,というような体系性に欠けるものであった.こうした経験的な方法や,言語現象に依存する方法は,手順が明確でなくとも文法規則を記述してゆくことができるという意味で役に立つが,新しい言語現象に対応する文法を記述してゆく一般的な方法とはいい難い.文法規則を記述する際に,経験的な方法や言語現象に依存する方法を使って,適用分野の変化に応じてその都度文法規則を開発してゆくことは,コスト的にも,加えて文法規則の分析能力の不安定さの点からも避けることが望ましい.言葉は,分析対象が認識的なものであるために分析のために客観的な方法論が適用されにくく,アプリケーションの多様化に対応する客観的な文法規則の記述の手続きを求めることは困難な課題である.本稿では一アプローチとして\,(1)\,文法規則の開発手続きを手順化することによって展望を見いだそうとした.さらに,\,(2)\,その手順に従った文法規則の作成の試み,\,(3)\,計算機上への文法規則の実装による動作確認と文法規則の適用実験によって有効であることを確認した.これまで言語データは大学や企業内において収集が進められ,蓄積も進んでいる.国家的なプロジェクトとしてデータの蓄積を進める試みもある\cite{EDR}.しかしながら,そうした資料の資源保全についての取り組みは具体例をみない.ニーズの多様化に伴い,他の分野での言語データベースの有効活用を進めるためには,言語データベースを再利用する技術の開発を推進する必要がある.最後に,本稿で試作した中規模の文法規則は,そのすべてが公開されている.個々の文法規則はDCG\cite{fernando}記述のため,Prologの実行メカニズムをパージングの処理過程とすることができ,機械の種類に依存することがなく,Prologの動作するいかなる計算機においても利用が可能である.DCGについてもLangLAB\cite{徳永}ならびにSAX\cite{松本}といった無償公開ソフトウェアを利用することができる.そのためにパーサーを作る必要はない.\acknowledgment本稿に対してコメントをいただいた査読者に感謝する.\bibliographystyle{jnlpbbl}\newcounter{ichi}\newcounter{ni}\setcounter{ichi}{1}\setcounter{ni}{2}\begin{thebibliography}{[1]}\bibitem[\protect\BCAY{吉村,武内,津田,首藤}{吉村\Jetal}{1989}]{吉村}吉村賢治,武内美津乃,津田健蔵,首藤公昭\BBOP1989\BBCP.\newblock\JBOQ未登録語を含む日本語文の形態素解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf30}(3).\bibitem[\protect\BCAY{神岡,土屋,安西}{神岡\Jetal}{1989}]{神岡}神岡太郎,土屋孝文,安西祐一郎\BBOP1989\BBCP.\newblock\JBOQ述語複合体の生成と表現\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf30}(4).\bibitem[\protect\BCAY{奥}{奥}{1990}]{奥}奥雅博\BBOP1990\BBCP.\newblock\JBOQ日本文解析における述語相当の慣用表現の扱い\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf31}(12).\bibitem[\protect\BCAY{森岡}{森岡}{1984}]{森岡2}森岡健二\BBOP1984\BBCP.\newblock\JBOQ文法論の構想\JBCQ\\newblock「国語学」,136集.\bibitem[\protect\BCAY{吉岡}{吉岡}{1989}]{吉岡}吉岡武時\BBOP1989\BBCP.\newblock日本語文法入門.アルク.\bibitem[\protect\BCAY{渡辺}{渡辺}{1983}]{渡辺1}渡辺正数\BBOP1983\BBCP.\newblock教師のための口語文法.右文書院.\bibitem[\protect\BCAY{森岡}{森岡}{1987}]{森岡1}森岡健二\BBOP1987\BBCP.\newblock語彙の形成.明治書院.\bibitem[\protect\BCAY{鈴木}{鈴木}{1972}]{鈴木}鈴木重幸\BBOP1972\BBCP.\newblock日本語文法・形態論.むぎ書房.\bibitem[\protect\BCAY{宮地}{宮地}{1983}]{日本語1}宮地裕(編)\BBOP1983\BBCP.\newblock\JBOQ特集\意味と構文\JBCQ\\newblock日本語学,12月号,VOL.2,明治書院.\bibitem[\protect\BCAY{北原}{北原}{1981}]{日本}北原保雄(編)\BBOP1981\BBCP.\newblock日本文法事典.有精堂出版株式会社.\bibitem[\protect\BCAY{渡辺}{渡辺}{1974}]{渡辺}渡辺実\BBOP1974\BBCP.\newblock国語文法論.笠間書店.\bibitem[\protect\BCAY{芳賀}{芳賀}{1979}]{芳賀}芳賀やすし\BBOP1979\BBCP.\newblock日本文法教室.教育出版,東京.\bibitem[\protect\BCAY{寺村}{寺村}{1984}]{寺村1}寺村秀夫\BBOP1984\BBCP.\newblock日本語のシンタクスと意味第\Roman{ichi}巻.\newblockpp.202--321,くろしお出版,東京.\bibitem[\protect\BCAY{山口}{山口}{1987}]{山口}山口明穂編集\BBOP1987\BBCP.\newblock国文法講座\6\\時代と文法--現代語.明治書院.\bibitem[\protect\BCAY{南}{南}{1974}]{南}南不二男\BBOP1974\BBCP.\newblock現代日本語の構造.大修館書店.\bibitem[\protect\BCAY{佐伯}{佐伯}{1983}]{佐伯}佐伯哲\BBOP1983\BBCP.\newblock\JBOQ語順と意味\JBCQ\\newblock日本語学,12月号,VOL2.\bibitem[\protect\BCAY{仁田}{仁田}{1988}]{仁田}仁田義雄\BBOP1988\BBCP.\newblock\JBOQ「文の構造」\JBCQ\\newblock講座\日本語と日本語教育\第4巻,pp.25--52,明治書院.\bibitem[\protect\BCAY{EDR}{EDR}{1993}]{EDR}EDR電子化辞書仕様説明書\BBOP1993\BBCP.\newblock(株)日本電子化辞書研究所.\bibitem[\protect\BCAY{Fernando,Pereira,David,Warren}{Fernandoet~al.}{1980}]{fernando}Fernando,C.,Pereira,N.,DavidH.,and\Warren,D.\BBOP1980\BBCP.\newblock\JBOQDefiniteclauseGrammarsforLanguageAnalysis--ASurveyoftheFormalismandaComparisonwithAugmentedTransitionNetworks\JBCQ\\newblockArtificialIntelligence13(3)pp.231--278.\bibitem[\protect\BCAY{徳永}{徳永}{1988}]{徳永}徳永健伸\BBOP1988\BBCP.\newblock\JBOQLangLAB\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf7},(29).\bibitem[\protect\BCAY{松本・杉村}{松本\Jetal}{1986}]{松本}松本・杉村\BBOP1986\BBCP.\newblock\JBOQ論理型言語に基づく構文解析システムSAX\JBCQ\\newblock\Jem{コンピュータソフトウェア},Vol.3,No.4,pp.308--315.\end{thebibliography}\setcounter{figure}{0}\setcounter{table}{0}\appendix\small\subsection*{形態素の分類一覧}\bfg\epsfile{file=goki.eps,height=50mm,width=70mm}\efg{形態素の分類一覧}\subsection*{言語現象の抽象化の手段に対応する形態素}左の欄に代表的な形態素を挙げて,右欄には形態素が担う機能に対する言語現象の説明を簡略に挙げている.他にもいくつかの助辞とその助辞に対応する言語現象がある.\btb{言語現象の抽象化の手段に対応する形態素}\footnotesize\bt{|p{55mm}|p{75mm}|}\hline\mltclm{1}{形態素(助辞)}&\mltclm{1}{言語現象との対応}\\\hlineが,を,に&用言に内在する論理関係の構成に関与する要素を表示する\\\hlineへ,と,で,より,から,によって,にとって,$\cdots$&用言が示す事柄を,制限的に修飾する要素を表示する\\\hlineは&提題要素を表示し,用言が示す事柄を非制限的に修飾する要素を表示する\\\hlineも,こそ,さえ,でも,しか,$\cdots$&対比的な要素を表示し,用言が示す事柄を非制限的に修飾する\\\hlineほど,くらい,ばかり,$\cdots$&前接する体言を制限的に修飾する\\\hlineる,た,るだろう,ただろう,よう,まい,$\cdots$&叙述する表現内容が現在,未来の出来事であるのか,過去,完了の出来事であるのかを区分する.話し手の叙述の内容の確からしさを示す度合いを表示する\\\hlineて,れば,たら,と,ても,たって,だって,$\cdots$&用言で示される出来事間の因果関係を表示する\\\hlineれ(る),させ(る)&用言に内在する論理関係の構成に関わる要素を替える\\\hlineい(る),あ(る),つつあ(る),てやが(る),$\cdots$&用言で示される出来事の時間的な継続状態を示す\\\hlineはじめ(る),おわ(る),つづけ(る),$\cdots$&用言で示される出来事の時間的な変化状態を示す\\\hlineい(く),く(る),み(る),$\cdots$&用言で示される出来事への話し手の関与状態を示す\\\hlineい,かった,いだろう,かっただろう,$\cdots$&叙述する表現内容が現在,未来に認められる属性であるのか,過去,完了に認められる属性であるのかを区分する.話し手の叙述の内容の確からしさを示す度合いを表示する\\\hlineく,しければ,いかったら,と,くても,$\cdots$&用言で示される属性間の関係を表示する\\\hlineだ,だった,だろう,だっただろう,$\cdots$&叙述する表現内容が現在,未来に認められる状態であるのか,過去,完了に認められる状態であるのかを区分する.話し手の叙述の内容の確からしさを示す度合いを表示する\\\hlineな(い),ず,ん&否定的な叙述を構成する\\\hlineま(す),で(す),くださる,なさる,$\cdots$&叙述の表現の文体を変える\\\hlineる,た,い,かった,だった,な,$\cdots$&後接する体言を制限的に修飾する\\\hline\et\etb\subsection*{文法規則の種類とその数}\btb{文法規則の種類と数(1)}\footnotesize\bt{|p{100mm}|p{10mm}|}\hline\mltclm{1}{文法規則のタイプ}&\mltclm{1}{規則数}\\\hline文の認可規則&1\\遂行形式の認可規則-1-&4\\「提題--叙述」構造の分析規則-1-&108\\文境界規則&2\\文法機能の規定値付与規則&41\\事態構造の認可規則&2\\述部構造の構成規則&3\\語基から語への構成規則&1\\「提題--叙述」構造の分析規則-2-&4\\「提題--叙述」構造の分析規則-3-&4\\ムード値付与規則&29\\文境界規則&6\\基本否定辞分析規則&17\\基本アスペクト辞分析規則&2\\二次アスペクト辞分析規則&10\\基本アスペクトの二次相の分析規則&33\\「提題--叙述」構造の分析規則-3-&11\\「提題--叙述」構造の分析規則-4-&4\\文体変化分析規則-1-&8\\意志否定辞分析規則&6\\文体変化分析規則-2-&8\\文体変化派生規則&33\\動作性の体言からの用言構成規則&6\\「提題--叙述」構造の分析規則-5-&8\\一般体言句の構成規則&3\\「格補語--述部」依存構造の分析規則&5\\「提題句--述部」依存構造の分析規則&3\\体言からの述部構成規則&3\\態変化分析規則&22\\状態変化述語「にする」「になる」の構成&10\\接尾辞の付与による体言句構成規則&3\\\hline\et\etb\btb{文法規則の種類と数(2)}\footnotesize\bt{|p{100mm}|p{10mm}|}\hline\mltclm{1}{文法規則のタイプ}&\mltclm{1}{規則数}\\\hline連体修飾句の依存構造の分析規則&7\\連体句の構成規則&53\\連体句の依存関係&7\\「一般補語--述部」依存構造の分析規則&3\\副詞句の述部への依存構造の分析規則&4\\連用修飾句の構成規則&10\\付帯状況を示す連用句の述部への依存構造の分析規則&65\\体言からの連用句の構成規則&1\\「取り立て句--叙述」依存構造の分析規則&3\\「並列句--述部」依存構造の分析規則&6\\「従属句--述部」依存構造の分析規則&36\\「接続助辞でマークされる従属句--述部」の依存構造の分析規則&6\\「条件形の従属句--述部」依存構造の分析規則&49\\「仮定形の従属句--述部」依存構造の分析規則&43\\「並立形の従属句--述部」依存構造の分析規則&24\\「並列形(属性)従属句--述部」依存構造の分析規則&7\\「接続句--述部」依存構造の分析規則&3\\遂行形式の認可規則-2-&6\\\hline\et\etb\bfg{\footnotesize\begin{verbatim}(1)sentence(..,[態度(X,P)|REL],..)-->用言_5(..,[態度(X,P)|REL],..).(2)用言_5(..,[態度(X,中立),様相(X,平叙)|REL],..)-->用言_5(..,[様相(X,平叙)|REL],..).(3)用言_5(..,[態度(X,中立),様相(X,推量)|REL],..)-->用言_5(..,[様相(X,推量)|REL],..).(4)用言_5(..,[態度(X,表明),様相(X,意志)|REL],..)-->用言_5(..,[様相(X,意志)|REL],..).(5)用言_5(..,[態度(X,表明),様相(X,依頼)|REL],..)-->用言_5(..,[様相(X,依頼)|REL],..).(6)用言_5(..,[様相(Y,平叙),認め方(Y,肯定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,未完了)|REL],..).(7)用言_5(..,[様相(Y,平叙),認め方(Y,肯定),content(..,[ムード(X,完了)|REL],..),..)-->用言_4(..,[ムード(X,完了)|REL],..).(8)用言_5(..,[様相(Y,推量),認め方(Y,肯定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,未完了推量)|REL],..).(9)用言_5(..,[様相(Y,推量),認め方(Y,肯定),content(..,[ムード(X,完了)|REL],..),..)-->用言_4(..,[ムード(X,完了推量)|REL],..).(``様相''は,文法機能を示し,``平叙'',``推量''は認識的な形態素を示す``content''は文の叙述部分の構文情報と依存構造が含まれる.``REL''はいわゆるProlog変数で,情報が単一化されることを表している.)(10)用言_4(..,[ムード(X,未完了)|REL],..)-->用言_4(..,[ムード(X,-)|REL],..),[る].(11)用言_4(..,[ムード(X,完了)|REL],..)-->用言_4(..,[ムード(X,-)|REL],..),[た].(12)用言_4(..,[ムード(X,未完了推量)|REL],..)-->用言_4(..,[ムード(X,-)|REL],..),[るだろう].(13)用言_4(..,[ムード(X,完了推量)|REL],F,PRO)-->用言_4(..,[ムード(X,-)|REL],..),[ただろう].(14)用言_5(..,[様相(Y,意志),認め方(Y,肯定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,-)|REL],..),[よう].(15)用言_5(..,[様相(Y,意志),認め方(Y,否定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,-)|REL],..),[まい].(16)用言_5(..,[様相(Y,依頼),認め方(Y,肯定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,-)|REL],..),[ろ].(17)用言_5(..,[様相(Y,依頼),認め方(Y,否定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,-)|REL],..),[るな].\end{verbatim}}\CAPLA{文法規則例}\vspace*{3mm}\parbox{100mm}{\smallこの文法規則の例は,文の分析に対応する.説明のために規則の番号を書き入れている.さらに説明に関係しない部分は省略(``..'')してある.様相形態素を認識する規則は,(6)$\sim$(9)である.(10)$\sim$(13)は,「る」「た」「るだろう」「ただろう」の形態を処理する規則で,ムード形態素が示す文法特徴を反映している.(14)$\sim$(17)は「よう」$\sim$「るな」の形態に対する分析規則である.(1)は文の認可規則で,話し手の判断が現れている述部を文として認可している.なお,規則名(用言\_5,用言\_4など)に見られる添え字は,階層位置を数字で示している.}\end{figure}\normalsize\begin{figure}[tb]\begin{biography}\biotitle{略歴}\bioauthor{佐野洋}{1985年豊橋技術科学大学大学院情報工学専攻修了.同年(株)東芝入社.総合研究所に勤務.1988年6月より(財)新世代コンピュータ技術開発機構へ出向.1992年10月より(株)東芝関西研究所に勤務.1996年4月より東京外国語大学外国語学部人文系講師,現在に至る.自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{福本文代}{1986年学習院大学理学部数学科卒業.同年沖電気工業(株)入社.総合システム研究所に勤務.1988年10月より(財)新世代コンピュータ技術開発機構へ出向.1992年よりマンチェスタ工科大学計算言語学部修士課程入学,翌年終了.同大学客員研究員を経て,1994年4月より山梨大学工学部電子情報工学科助手,現在に至る.自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\vspace*{130mm}\end{figure}\end{document}
V14N03-11
\section{はじめに} テキスト対話における対話者の情緒\footnote{心理学ではemotionの訳語に「情緒」や「情動」を用いる.emotionは,feeling(訳語は「感情」)より狭い意味である.本稿では,機械処理の立場から\cite{徳久&岡田98}にならい,「情緒」という用語を用いる.}を分析する上で,情緒タグ付きテキスト対話コーパスが必要とされている.通常,言語表現と話者の情緒との間には,必ずしも直接的な対応関係が存在するとは限らず,多義が存在する場合が多いため,対話文に内包された情緒を言語表現のみによって正しく判定することは難しい.したがって,音声や表情などの言語外情報が欠けているテキスト対話に対して,情緒のタグを付与しようとすると,付与するタグの種類やタイミングが付与作業者によって異なってしまうという「タグ付与の不安定さ」が問題となる.そのため,情緒タグの付与には可能な限り言語外情報の付随する対話を対象とすることが望まれる.音声の持つ言語外情報を活用する方法は,既に多くの研究で試みられており,音声対話においては安定性の高いタグ付与が可能であることが示されている.たとえばLitmanらは,チュータリングの対話における感情予測を実現する際に,音声対話コーパスにPositive,Neutral,Negativeの3分類の感情タグを付与したところ,2人の付与者間の感情タグの一致率は81.75\%($\kappa=0.624$)であったと報告している\cite{Litman03}.音声以外の言語外情報として表情に注目すると,漫画における対話シーンの利用可能性が考えられる.漫画は漫画家により創作された対話であるので,人間同士の対話を直接記録した対話データではない.しかし,研究目的に依っては漫画の対話が研究対象として受け入れられる場合がある.漫画家は人間同士の対話,表情,心境などについての観察能力に秀でており,読者に自然に受け入れられるように漫画に描き込むことができるので,漫画内での出来事は空想ではあるがそれ以外の部分,すなわち,登場人物の口調,人物間の交渉などの談話展開は常識的であるし,その間の人物の喜怒哀楽といった心境は読者にとって納得のいくように描かれている.口調や談話展開,心境については,現実の対話を日記として記述した場合と同じような現実味があるといえるだろう\footnote{ただし,漫画の表情は読者に登場人物の心境を伝えるために誇張して描かれている可能性があるので,表情そのものを研究の対象とする場合は注意が必要である.なお,口調も特殊な表現が使われるが,登場人物の個性を表すものの場合,その人物について区別すれば,分析全体への影響は大きくならない.}.ゆえに,漫画は,情緒と言語表現の関係を分析する上で有効な言語資源となりうる可能性がある.漫画の表現や理解に関する研究として,中澤は,幼児から中学生までが漫画における「人物絵」,「表情」,「形喩」,「吹き出し表現」,「音喩」,「コマの感情」についてを読み取る能力を調査したところ,表情理解とコマの感情理解に関して,相対的に複雑な「心配,不安」については正答率は低いが,相対的に明確な「嬉しさ,怒り,悲しさ,悔しさ,楽しさ,寂しさ」については正答率が70\%を超えていたと報告している\cite{中澤05}.また,遠藤らは,漫画の修辞的技法について認知科学的な立場からの分析の枠組みを示すために,「時間」,「叙法」,「態」,「描写の焦点」,「コマの言説」に着目し,ハイパーコミックを構築した\cite{遠藤&小方03}.中澤により漫画から安定して感情を読み取ることの可能性は示された.しかし,資源の構築という面からは,遠藤らのような全般的な資源としての蓄積例はあるものの,感情に特化した言語資源として構築した例はなく,漫画を対象に構築した言語資源にどれだけの信頼性があるのかは明確ではない.そこで,本稿では,漫画を対象とした情緒タグ付きテキスト対話コーパスを構築し,その信頼性を評価することを目的とする.コーパスの信頼性として,本稿で注目する点は次の通りである.\begin{itemize}\item{\bf安定性:}主観的な判断で付与されるタグであるが,作業者に依存する揺らぎが抑えられているか.\begin{description}\item{\bf(1)一致率:}コーパス構築の途中段階で一時的に付与される情緒タグにおける作業者間の一致の割合\item{\bf(2)同意率:}コーパス構築の最終段階で決定される情緒タグについて,作業者以外の者から得られる同意の割合\end{description}\item{\bf有効性:}構築したコーパスは言語分析に使用する価値があるか.\end{itemize}これらを評価することを念頭に,本稿は次のことを行う.1)漫画の表情を参照しながら,1話につき2人の作業者が一時的な情緒タグを付与する.その結果より一致率を評価する.その結果は関連研究と比較し,そして,表情を参照しない場合と比較する.2)一時的な情緒タグを作業者の協議により選別・修正し,正解とする情緒タグを決定する.その結果を別の者が検査して,同意率を評価する.3)台詞と情緒タグの共起に基づき「情緒表現性のある文末表現」をコーパスから抽出するという試行的な実験を行う.漫画を対象としたコーパスであっても,自然で情緒的な文末表現が得られるかどうかによって,有効性を判断する.これらの評価を通じて,漫画に登場する人物の表情を情緒の判定に用いることの可能性と,それを利用した情緒タグ付与方法の信頼性を確認する. \section{情緒の位置づけ} 漫画の読者は,漫画から登場人物の情緒を読み取ることができる.漫画を読む過程で,幾つかの観点から情緒を捉えることができる(図\ref{fig1}).それぞれを以下で説明し,本稿で扱う情緒の位置づけを明確にする.\begin{figure}[b]\begin{center}\includegraphics{14-3ia11f1.eps}\caption{漫画から情緒を読み取る過程}\label{fig1}\end{center}\end{figure}\subsection{内在する情緒}情緒は,情緒主の内部に存在し,情緒主しか知り得ない.本稿では,この情緒を「真の内在する情緒」と呼ぶことにする.一方,第三者は,情緒主に関する様々な情報を元に,真の内在する情緒に向かって情緒を推定することができる.本稿ではこの推定される情緒を「推定上の内在する情緒」と呼ぶことにする.漫画においては,登場人物の「真の内在する情緒」は,基本的には漫画の作者しか知り得ないが,時折ナレーションや登場人物の独り言に表現されることがある.読者は,漫画のシリーズ全体からそうした表現を捉えて登場人物の性格を理解し,さらに,漫画に含まれる総合的な描写(絵,表情,台詞,独り言,効果音,ナレーション),および,その前後の振る舞いを把握することができるので,「真の内在する情緒」に近いものとして「推定上の内在する情緒」を読み取ることができる.\subsection{表出する情緒}音声,表情,言語表現は,音素,顔の形状,文字の並びなどの物理的特徴により識別される.それらの識別に対して,人々の間で共通した解釈があるとき,音声,表情,言語表現は情報を伝達する役割を果たすことができる.言語表現は,国語辞典に見られるように文字列の解釈の仕方が約束されている.言語表現から話し手の考えが理解できるのは,第一に言語表現に対する約束を用いて聞き手が話し手の考えを聞き手の中に再構築できるからである.一方,表情の解釈は,社会的な約束付けが先に与えられるものではないが,生得的な情緒の反応として,あるいは,経験的なものとして,人々の間で共通点がある.このように,言語表現や表情には解釈の共通性があるので,話し手が言語表現や表情を用いて他者に情緒を伝えることができる.本稿では,言語表現の解釈として得られる情緒のことを「言語表現に表出する情緒」,そして,表情の解釈として得られる情緒のことを「表情に表出する情緒」と呼ぶことにする.「表情に表出する情緒」について,表情は,意識下では情緒的な反応が直結しているが,他者による解釈を見越して表情を作ることもできる.従って,情緒主の表情は,その者の「真の内在する情緒」と必ずしも一致するとは限らない.現実の表情では情緒を正確に把握することは容易ではないが,漫画の表情では漫画家が区別のつきやすいように表情を描くので,「表情に表出する情緒」は「推定上の内在する情緒」よりも区別が容易である.一方,「言語表現に表出する情緒」とは,繰り返しになるが,言語表現の規範としての意味的約束に対応している情緒である.たとえば,「雨に降ら\underline{れてしまった}」の下線部には,「雨が降る」という事態に対する「話者のネガティブな気持ち」が対応している.典型例については情緒的な判断が容易にみえるが,直感的ではなしにその判断を説明しようとすると,実際には深い分析が伴う(たとえば,\cite{金子06})ため,「推定上の内在する情緒」や「表情に表出する情緒」と比較すると判断が容易ではない.\subsection{本稿のタグ付与のねらい}「真の内在する情緒」を求めることは,心理学的・認知科学的な要求として存在する.しかし,本稿は,言語処理の立場から,言語理解として人々が共通に推定する情緒を,計算機処理により推定することを狙うため,「推定上の内在する情緒」を情緒タグとして付与する.ここで,試行的に漫画を読みながら情緒のタグを付与してみると,「表情に表出する情緒」に強く影響を受けることに気がつく.たとえば,「顔で笑って心で泣いて」という状況のとき,笑顔に対する情緒のタグを付与してしまう.ところが,「表情に表出する情緒」をタグとして付与してみると,「推定上の内在する情緒」を素直に付与しやすいことが分かる.そこで,本稿では補助として「表情に表出する情緒」を表情タグとして付与することにする.「言語表現に表出する情緒」を厳密にとらえることは,上述のとおり容易ではないので,「言語表現に表出する情緒」をタグとして付与することは,本稿では直接的には狙わない.情緒を表出することが約束されている言語表現ならば,ある程度の大きさのコーパスにおいて対応する情緒とともに繰り返し出現することが予想される.したがって,「言語表現に表出する情緒」は,本コーパスの「推定上の内在する情緒」のタグから分析的に求めることにする. \section{コーパスの構築} \subsection{コーパスに収録するタグ}\subsubsection{タグの種類}本稿のコーパスには,「推定上の内在する情緒」と「表情に表出する情緒」に対応するタグを付与する.前者に対応するタグを「情緒タグ」,後者に対応するタグを「表情タグ」と呼ぶ.詳細を以下で説明する.\noindent{\bf(1)情緒タグ}情緒タグは,以下に示すような9分類系と3分類系の2系統とする.\noindent{\bf(9分類系)}9分類系の情緒タグは,次の9種類とする:\begin{quote}《喜び》,《悲しみ》,《好ましい》,《嫌だ》,《驚き》,《期待》,《恐れ》,《怒り》,《なし》\end{quote}プルチックの基本情緒\cite{Plutchik60}を参考にした8種類と,情緒の無い状態《なし》である.プルチックの分類を用いる理由は,複雑な情緒を,複数の基本情緒の組み合わせで表現できるためである.ただし,本稿のコーパスに複雑な情緒に対するタグとして複数のタグを付与する際,プルチックの示す組み合わせ方に必ずしも従う必要はなく,作業者の直感に任せることとする.それは日本語と英語での感情表現語の概念に差があるためである.また,9分類系の情緒の日本語名は\cite{徳久&岡田98}に従った.情緒タグの付与において,判断に悩む場合,情緒の生起する原因を参考にすることを意図している.\noindent{\bf(3分類系)}3分類系の情緒タグは,次の3種類とする:\begin{quote}《Positive》,《Negative》,《なし》\end{quote}《Positive》は,《喜び》,《好ましい》,《期待》に対応し,《Negative》は,《悲しみ》,《嫌だ》,《恐れ》,《怒り》に対応する.9分類系の《驚き》は3分類系の《なし》に含める.このように,作業者は,9分類系でタグを付与することとし,3分類系は9分類系からの自動変換で得るものとする.3分類系は,情緒の分解能としては荒い.しかし,\cite{Litman03}や\cite{Craggs&Wood04}などに示されるように,感情に関するタギングではよく使用される分類である.3分類系は,関連研究とコーパスの精度を比較するために用いる.\noindent{\bf(2)表情タグ}表情タグは,次の7種類とする:\begin{quote}〈幸福〉,〈嫌悪〉,〈悲しみ〉,〈驚き〉,〈恐れ〉,〈怒り〉,〈背後〉\end{quote}はじめの6種類はエクマンらの分類\cite{エクマン&フリーセン90}に基づく表情である.残りの1種類の〈背後〉は,本稿が漫画の特徴を加味して定めた「みなしの表情」である.つまり,「青ざめ」,「冷や汗」,「震え」などの描写が伴うと人物の情緒的な様子が読者に伝わることに配慮して定めたタグである.表情タグと9分類系の情緒タグでは,ラベル名に不一致の箇所があるが,次のように対応する:〈幸福〉は《喜び》,《好ましい》,《期待》と対応する.〈嫌悪〉は《嫌だ》と対応する.〈悲しみ〉,〈驚き〉,〈恐れ〉,〈怒り〉は,文字通りに9分類系の情緒タグと対応する.エクマンらが表情を大別したときに区別されていないことから分かるとおり,顔の形状の違いにより,《喜び》,《好ましい》,《期待》を見分けることは困難であるため,本稿でも無理に細分類することを避けた.また,〈嫌悪〉と《嫌だ》は,背景研究で使われていたラベルに従うため統一したラベル名にはしなかった.\subsubsection{付与手順}本稿で行うタグ付与の手順は次の通りである:\begin{description}\item{\bf手順1:}1つの話に対して2人の作業者が独立に漫画を読みながら,漫画の登場人物に対して表情タグを一時的に付与する.表情タグは,コマ内の人物に対して付与する.\item{\bf手順2:}同じく2人の作業者が独立に,表情タグの付与されたところに,前後の文脈などを考慮しながら,情緒タグを一時的に付与する.情緒タグも表情タグと同じくコマ内の人物に対して付与する.\item{\bf手順3:}手順1・2で一時的なタグを付与した2人の作業者が,互いにその一時的なタグを見比べて,協議により,「正解」といえる表情タグと情緒タグを決定する.\end{description}手順1・2に2名しか作業者を割り当てていないため,単純に両者の一致するタグを「正解のタグ」と決定するのでは,信頼性が得られないと考えて,手順3を設けている.以降の説明で,付与手順に関してタグを区別するために,手順1・2で付与したタグを「一時タグ」,手順3で決定したタグを「正解タグ」と呼ぶ.一時タグ,正解タグともに,複数の情緒が推定される際,複数の情緒タグを付与する.情緒主が葛藤している状況では,相反する情緒が交互に生じていると考えられるが,タグの対応する漫画のコマの時間幅においては同時に生じると見なして,両方の情緒タグを付与する.ただし,タグ付与者が単に決めかねていることと,情緒主が葛藤していることは区別し,前者の場合はいずれかのタグに決定する.なお,表情タグの付与されたところに,情緒タグを付与するのは,本稿の着眼点として表情という言語外情報を利用することを掲げているためである.実践的に情緒タグ付きコーパスを構築する際,表情タグのない部分に情緒タグを付与することを制限するものではない.また,台詞のないところでも表情タグがあれば情緒タグを付与するのは,対話の聞き手の情緒を分析する上で必要になると考えたからである.\subsection{コーパスに収録する言語表現}本稿では,言語表現の分析用のコーパスの構築を目指しているので,漫画の絵はコーパスに収録せず,言語表現をコーパスに収録する.コーパスに収録する言語表現は,ナレーション,登場人物の台詞(吹き出しの内と外),および,登場人物の発するオノマトペである.コーパスには,それらの言語表現に話者名を添えて収録する.その際,吹き出しの外の台詞は,登場人物の内心の気持ちを言語表現したものである可能性があるので,話者名に括弧を付け,吹き出し内の台詞と区別をする.コーパス中の言語表現の形態素・構文解析において,句読点が無かったり平仮名書きが多いと支障をきたすため,言語表現をコーパスに収録する際,句読点の追加と仮名漢字変換を行った.判断基準はタイピストに示したものの,判断に揺れが生じるので,後に表現の統一をとる\footnote{漫画のありのままの表現を分析することが目的ならば,こうした加工は必要でない.本稿では,平仮名表記のレベルで表現を区別して分析することが目的ではないので,加工を行った.}.\subsection{実施}本稿では,漫画「ちびまる子ちゃん」の第1巻から第10巻までの10冊\cite{さくら87-93}を対象とした.採用の理由は,小学生の女の子の出来事を描いており,比較的常識的な場面設定と日常的な会話が多くみられるためである.作業者の体制について,漫画本の言語表現をコーパスとして収録する作業を2人のタイピストが行い,タグの付与作業を本研究室の学生6名が行った(以後,この6名の作業者をA者〜F者と呼ぶ).作業時間について,タイピストによる全文の収録には約2ヶ月,タグの付与全般には約1ヶ月をそれぞれ要した.タグ付与の実働時間について,手順1から3までを実施するには1話あたり約2時間であった.一時タグの決定と両者の協議ともに時間を費やした.コーパスの一部を表\ref{tab1}に示す.台詞を構成する文が基本単位であり,通番が与えられる.ここには表示していないが,巻番号,話番号などの整理番号を備えている.一時タグは,2人の作業者が別々に付与作業を行った後,ここに示すように1つのファイルに統合する.各者に見落としがあるのだが,正解タグにおいては,それらが修正されていることがわかる.\begin{table}[b]\begin{center}\caption{コーパスの一部(\protect\cite{さくら87-93}第5巻より)}\label{tab1}\footnotesize\setlength{\tabcolsep}{1.5pt}\begin{tabular}{|c|c|c|p{3zw}|p{4cm}||c|c|c|c|c|c|}\hline\hline\#&頁&コ&\multicolumn{1}{|c|}{話者}&\multicolumn{1}{|c||}{台詞}&\multicolumn{2}{|c|}{正解タグ}&\multicolumn{4}{|c|}{一時タグ}\\\cline{8-11}&&マ&&&\multicolumn{2}{c}{}&\multicolumn{2}{|c|}{X者}&\multicolumn{2}{|c|}{Y者}\\\cline{6-11}&&&&&表情&情緒&表情&情緒&表情&情緒\\\hline\hline1&22&3&まる子&うちのもみの木は小さいね.&〈悲しみ〉&《悲しみ》&〈嫌悪〉&《嫌だ》&〈悲しみ〉&《悲しみ》\\\cline{1-1}\cline{4-11}2&&&お姉&仕方ないじゃん.&〈幸福〉&《悲しみ》&〈幸福〉&《悲しみ》&〈幸福〉&《悲しみ》\\&&&ちゃん&&&&&&&\\\cline{1-1}\cline{3-11}3&&4&お姉&ぎゃあっ!&〈驚き〉&《驚き》&〈驚き〉&《驚き》&〈驚き〉&《驚き》\\&&&ちゃん&&〈恐れ〉&《恐れ》&(青)&&〈恐れ〉&《恐れ》\\&&&&&(青)&&&&(青)&\\\cline{1-1}\cline{4-11}4&&&まる子&&〈驚き〉&《驚き》&〈驚き〉&《驚き》&&\\\hline5&23&1&お姉ちゃん&まる子,あんたもみの木の鉢に金魚の死骸埋めたでしょ.&&&&&&\\\cline{1-1}\cline{3-11}6&&2&まる子&そうだよ.&&&&&&\\\cline{1-1}\cline{5-5}7&&&&だって肥料になると思って.&&&&&&\\\cline{1-1}\cline{4-11}8&&&お姉&やめてよ.&〈嫌悪〉&《嫌だ》&〈嫌悪〉&《嫌だ》&〈嫌悪〉&《嫌だ》\\\cline{1-1}\cline{5-5}9&&&ちゃん&気持ち悪い.&(汗)&&(汗)&&(汗)&\\\hline\end{tabular}\vspace{\baselineskip}\caption{コーパスの規模}\label{tab2}\begin{tabular}{llrr}\hline\hline\multicolumn{2}{c}{項目}&\multicolumn{2}{c}{規模}\\\hline\multicolumn{2}{l}{冊子,話}&\multicolumn{2}{l}{第1巻〜第10巻,104話}\\\multicolumn{2}{l}{コマ}&\multicolumn{2}{l}{10,213(コマ)}\\\multicolumn{2}{l}{文,文字}&\multicolumn{2}{l}{29,538(文),388,809(文字)}\\\multicolumn{2}{l}{タグ付与箇所}&\multicolumn{2}{l}{12,345(のべ人)}\\\hline\multicolumn{2}{l}{表情タグ}&14,040(個)&100.0\%~~~\\(内訳)&〈幸福〉&6,018(個)&42.9\%~~~\\&〈嫌悪〉&2,608(個)&18.6\%~~~\\&〈驚き〉&1,787(個)&12.7\%~~~\\&〈悲しみ〉&1,360(個)&9.7\%~~~\\&〈怒り〉&1,200(個)&8.5\%~~~\\&〈恐れ〉&870(個)&6.2\%~~~\\&〈背後〉&197(個)&1.4\%~~~\\\hline\multicolumn{2}{l}{情緒タグ}&16,635(個)&100.0\%~~~\\(内訳)&《喜び》&4,469(個)&26.9\%~~~\\&《嫌だ》&2,990(個)&18.0\%~~~\\&《期待》&2,237(個)&13.4\%~~~\\&《驚き》&2,010(個)&12.1\%~~~\\&《恐れ》&1,757(個)&10.6\%~~~\\&《悲しみ》&1,428(個)&8.6\%~~~\\&《怒り》&1,347(個)&8.1\%~~~\\&《なし》&207(個)&1.2\%~~~\\&《好ましい》&190(個)&1.1\%~~~\\\hline\end{tabular}\end{center}\end{table}台詞と正解タグの関係は次の特徴がある:\begin{itemize}\item表情タグと情緒タグは,同一コマ内の同一話者の台詞全てに対応するものであり,台詞中の特定の文に対応するものではない(たとえば,\#8,\#9).\item複数のタグは同時に生じていることを表すために付与された場合もあれば,複雑な情緒を表すために付与された場合もある(たとえば\#3).\item台詞が無くてもタグは付与されることがある(たとえば\#4).\item\#5のように叱責と思われる台詞であっても,漫画において表情の描かれていないコマには情緒タグを付与しない.\end{itemize}\subsection{結果}構築したコーパスの規模を表\ref{tab2}にまとめる.10冊の漫画に104話が収録されていた.言語表現の規模としてコマ数,文数,文字数を示し,タグの規模として,正解タグの付与箇所数,表情タグ数,情緒タグ数を示す.「タグ付与箇所数」とは,コマ毎の登場人物のうち表情が平静でなかった者の数である.本コーパスではそのような者にタグが付与される.たとえば,表\ref{tab1}でタグが付与された話者数はのべ5人である. \section{安定性の評価} 既に述べたとおり,本コーパスはタグ付与の安定性に関して次の配慮を行った:\begin{description}\item{\bf(1)}表情を参照しながら情緒タグを付与した.\item{\bf(2)}2者による協議により正解の情緒タグを決定した.\end{description}(1)に関して,第\ref{sec4.2}節では,まず,2者間の一時タグの一致率を求め,コーパス全体の安定性を評価する.関連研究と比較して,本コーパスの安定性の水準を考察する.次に,一部の話について表情参照のない場合の一致率を求め,表情参照のある場合と比較することで,表情が安定性を高める効果を調べる.(2)に関して,第\ref{sec4.3}節では,作業者以外の者が正解タグに同意した数を調べて,コーパス全体の正解タグの正確さ(同意率)を評価する.次に,一時タグと正解タグの比較により作業者の精度を調べ,精度の悪かった部分の正解タグについての同意率を評価する.2者による協議が,最終的に決定されるタグの「正確さ」の確保に有効であることを確認する.\subsection{評価方法}主観的なタグ付与の安定性を評価するために,2人の付与作業者間での一致するタグの割合をカッパ値($\kappa$値)で評価する方法が,用いられている\cite{Narayanan02}:\[\kappa=(P(A)-P(E))/(1-P(E))\]$P(A)$は2人の付与者によるタグの一致数の割合である.$P(E)$は偶然の一致の期待値の割合である.タグ付与の1つの対象に,複数のタグの付与を認めるタスクにおいて,単純に$\kappa$値を用いた評価ができないことから\footnote{複数の注釈の組が1つの複雑な意味を表す注釈とみなして求めた$\kappa$値を,本稿では$\kappa_{\mbox{複合}}$と呼ぶ.$P(E)$を求める際に独立性が保証できないことから,正確な方法とは言えないが,参考値として求める.また,単一の注釈の付与されたところのみを対象に求めた$\kappa$値を,本稿では$\kappa_{\mbox{単独}}$と呼び,参考値として求める.},2人の作業者の付与タグ総数を基準とした一致率が評価値として用いられることがある\cite{徳久R&寺嶌06}:\[\mbox{〈一致率〉}=\frac{\mbox{〈2者間の一致タグ数〉}*2}{\mbox{〈2者の総付与タグ数〉}}*100(\%)\]次に,正解の存在する場合の評価方法を示す.2人の作業者間の協議で正解タグを付与したが,協議とは無関係な人物が正解タグを見たときに同意できるタグの数の割合(本稿では〈同意率〉と呼ぶ)によって,正解タグの「正確さ」を評価する:\[\mbox{〈同意率〉}=\frac{\mbox{〈同意を得た正解タグの数〉}}{\mbox{〈検査された正解タグの数〉}}*100(\%)\]正解タグが決まっているならば,正解タグに対する一時タグの再現率と適合率から評価することができる:\[\mbox{〈再現率〉}=\frac{\mbox{〈正解タグと一致した一時タグ数〉}}{\mbox{〈正解タグ数〉}}\]\[\mbox{〈適合率〉}=\frac{\mbox{〈正解タグと一致した一時タグ数〉}}{\mbox{〈一時タグ数〉}}\]\subsection{情緒の一時タグの評価}\label{sec4.2}\begin{table}[b]\begin{center}\caption{表情参照時の9分類系情緒の一時タグの一致率}\label{tab3}\begin{tabular}{cccccc}\hline\hline巻&作業者&一致率&(一致数)&$\kappa_{\mbox{複合}}$&$\kappa_{\mbox{単独}}$\\\hline1〜2&A者-B者&74.0\%&(3,667)&0.532&0.607\\3〜4&C者-B者&71.9\%&(3,148)&0.513&0.600\\5〜6&C者-D者&68.6\%&(2,904)&0.497&0.597\\7〜8&E者-D者&52.7\%&(2,625)&0.313&0.408\\9〜10&E者-F者&60.1\%&(2,808)&0.363&0.496\\\hline1〜10&総合&65.2\%&(15,152)&0.444&0.546\\\hline\end{tabular}\end{center}\end{table}\subsubsection{表情参照時の情緒タグの一致率}2人の作業者間で情緒の一時タグの一致率および$\kappa$値(参考値)を求めた.表\ref{tab3}にその結果をまとめる.表\ref{tab3}より以下のことが分かる.\begin{itemize}\item総合の一致率は65.2\%であった\footnote{総合とは,A,C,E者側とB,D,F者側をそれぞれ束ねて比較することである.}.\item作業者対ごとに一致率をみると,52.7\%〜74.0\%であった.\itemE-D者間とE-F者間の一致率が相対的に低い.\end{itemize}漫画「ちびまる子ちゃん」は易しく理解できる漫画であることから,7巻から10巻の話の内容が難しいというよりは,E者による情緒の判断に問題があった可能性がある.関連研究において,9分類系情緒のタグを付与して一致率を示した例がないため,ここに示した一致率は,今後のタグ付与における参考値となる.\subsubsection{関連研究との比較}感情タグに関する研究では,感情の種類として,Positive,Neutral,Negativeを用いることが多い.\cite{Litman03}や\cite{Narayanan02}に見られるように,音声対話においては,Positive/Negativeの2種類の感情の識別の$\kappa$値は0.465〜0.624であり,一致率は最高で81.75\%というレベルである.それらと比較のできるように,本コーパスの3分類系の情緒タグの一致率を求めた.表\ref{tab4}に結果をまとめる.表\ref{tab4}より以下のことが分かる.\begin{itemize}\item一致率は総合で78.0\%であり,作業者対ごとにみると72.5\%から82.9\%までの範囲にある.\item$\kappa$値について$\kappa_{\mbox{複合}}$は総合で0.640であり,作業者対ごとにみると0.589から0.668までの範囲にある.\end{itemize}関連研究と比較すると,本稿の結果は最高値についていえば関連研究の結果を上回っている.そして,総合の評価値をみると,最高値よりやや劣る程度である.ゆえに,本稿で提案したタグ付与の方法は安定性が高いといえる.\begin{table}[b]\begin{center}\caption{表情参照時の3分類系情緒の一時タグの一致率}\label{tab4}\begin{tabular}{cccccc}\hline\hline巻&作業者対&一致率&(一致数)&$\kappa_{\mbox{複合}}$&$\kappa_{\mbox{単独}}$\\\hline1〜2&A者-B者&82.9\%&(3,849)&0.668&0.682\\3〜4&C者-B者&81.5\%&(3,286)&0.657&0.671\\5〜6&C者-D者&81.8\%&(3,155)&0.702&0.717\\7〜8&E者-D者&72.5\%&(3,117)&0.572&0.594\\9〜10&E者-F者&74.3\%&(2,818)&0.589&0.612\\\hline全て&総合&78.0\%&(19,043)&0.640&0.658\\\hline\end{tabular}\end{center}\end{table}\subsubsection{表情参照しない時の一致率}表情を参照することの効果を調査するために,表情参照をせずにタグを付与し,一致率を求めた.対象は,第2巻,第6巻の各第1話,第2話の合計4話(1,217文)とした.表\ref{tab5}に,表情参照のある場合の一致率と表情参照のない場合の一致率を比較して示す.表情参照のある場合は,前述の結果から該当話を抽出した値である.表\ref{tab5}より以下のことが分かる.\begin{itemize}\item一致率は,表情参照のない場合が60.5\%であり,表情参照のある場合は67.7\%であることから,表情参照のある方が安定している.\end{itemize}\begin{table}[t]\begin{center}\caption{表情参照の有無による情緒タグの一致率の違い}\label{tab5}\begin{tabular}{cccc}\hline\hline表情参照&一致率&$\kappa_{\mbox{複合}}$&$\kappa_{\mbox{単独}}$\\\hlineあり&67.7\%&0.485&0.575\\なし&60.5\%&0.382&0.472\\\hline\end{tabular}\end{center}\end{table}表情タグの付与されていない箇所に,情緒タグを付与しなかったが,実践的なコーパス構築においては,その部分にも情緒タグを付与することがあるだろう.その際の一致率は,表情参照のありとなしの各場合の間になると思われる.表情タグの無い部分でも前後の表情タグから補間的に様子がとらえられるためである.\subsection{情緒の正解タグの評価}\label{sec4.3}\subsubsection{正解タグのサンプル検査}\label{sec4.3.1}本コーパスからランダムに対話部分を抽出し,計414個の正解情緒タグを対象に検査した〈同意率〉は97\%(414/425)であった.したがって,正解タグの正確さは高い.\begin{table}[b]\begin{center}\caption{正解タグと一時タグの間の一致の割合}\label{tab6}\begin{tabular}{ccccc}\hline\hline作業者&再現率&適合率&一致率&(一致数)\\\hlineA者&0.876&0.931&90.3\%&(4,578)\\B者&0.848&0.889&86.8\%&(8,432)\\C者&0.766&0.832&79.8\%&(7,068)\\D者&0.822&0.901&86.0\%&(8,049)\\E者&0.670&0.690&68.0\%&(6,862)\\F者&0.798&0.843&82.0\%&(3,958)\\\hline総合&0.788&0.838&81.3\%&(38,947)\\\hline\end{tabular}\end{center}\end{table}\subsubsection{一時タグと正解タグの比較}一時タグと正解タグの〈適合率〉と〈再現率〉を求めると,表\ref{tab6}のようになった.表\ref{tab6}から以下のことが分かる.\begin{itemize}\item総合では,再現率と適合率が,0.788と0.838である.\item作業者ごとにみると,再現率と適合率は,C者とE者が総合よりも低い.\end{itemize}そこで,最も評価の悪かったE者が関わった部分の正解タグの正確さを評価した.第7巻から第10巻までがE者の担当であったので,その範囲について正解タグの同意率を求めたところ,97\%(158/163)であった.全体の同意率と同等であったことから,手順3による協議は,作業者の判断誤りを補うことができていたといえる. \section{有効性の評価} 本コーパスは漫画を題材として作成した.漫画における発話文であっても言語分析の目的によっては有効であることを,試行的な実験を通じて示す.本稿はコーパスの構築が目的であるので,コーパスに分析する価値があるかどうかの目途がたてば有効性の評価は十分である.\subsection{情緒の共起する文末表現の抽出}日本語の文末には,助詞・助動詞のみならず形式的な語の組み合わせを加えると,多くの表現形式が存在し,その中には話者の後悔や非難などの主観を表すものがある.そこで,本コーパスにおいて,情緒タグとの共起から,情緒的なニュアンスのある文末表現を抽出することを試みる.文末表現を抽出する方法について述べる.形式的な語も加えると文末表現と判断する根拠が曖昧であるため,繰り返し情緒と共起する文末文字列を機械的に抽出する方法を本稿では用いる.その手順は次のとおりである:(1)10分割したコーパスの1つをテストデータ,残りをトレーニングデータとする.(2)10通りのテストデータとトレーニングデータの組において,テストデータ中の各文について,トレーニングデータから最長一致となる文末の文字列を抽出する.(3)コーパス全体から文末表現の一致する文を検索し,その文に付与されている情緒タグの数を集計することで,抽出した文末表現と情緒タグの共起する頻度を求める.\subsection{抽出結果}台詞のあるタグ付与箇所11,027から3,164種類の文末表現を得た.その中より,情緒を表現すると思われる文末表現を図\ref{fig2}に幾つか紹介する.「かも,のに,うよ,もん,てしまう」を含む文末表現の一部である.情緒の共起割合とは,その文末表現に共起した情緒タグの総数を100\%としたときの各情緒タグの割合である.\begin{figure}[t]\begin{center}\includegraphics{14-3ia11f2.eps}\caption{情緒表現性のある文末表現の例}\label{fig2}\end{center}\end{figure}ここに挙げた例は,わかりやすい例である.しかし,他の文末表現をみると確率的には情緒との関連性があるものの,人の目でみたときには関連性が感じられないものもある\footnote{参考として,得られた文末表現をそのまま用いて本コーパスの台詞から情緒を推定する実験(文末表現に対応し割合の最も高い情緒を台詞から推定される情緒とし,その台詞に対応する情緒タグを少なくとも1つを求める)を行ったところ,43.8\%(4,832/11,027)の正解率であった.}.文末表現を見て感じられる情緒は「言語表現に表出する情緒」であるが,確率的に関連付けられている情緒が「推定上の内在する情緒」であるため,こうした差異が生じたものと思われる.さらに,情緒的な文末表現についての知識ベースを構築する場合を考えてみると,文末表現に対応する「言語表現に表出する情緒」の妥当性の問題の他に,文末表現の知識ベースとしての表記の問題が生じる.たとえば,言語表現の意味をとらえる知識の記述形式として,機械翻訳の分野では文型パターンが提案されている\cite{池原04}ので,その表記法を参考にして,図\ref{fig2}の文末表現は次のようにパターン化できる:\begin{description}\itemP0100:$CL1.te$みようよ.期待50\%,喜び50\%\itemP0101:$CL1$ましょうよ.期待40\%,喜び60\%\end{description}P0100について,図\ref{fig2}では「てみようよ.」だが,助詞「て」は先行する動詞に依存して「で」であってもよいため,洗練の際にその揺れを吸収する関数である``$.te$''に書き換える.P0101について,同図では「りましょうよ.」となっており,活用語尾の「り」が余分であるため洗練の際に修正が必要である.以上のように,本実験は,単純なものであるが,漫画を題材としていても分析価値のあるコーパスであることが確認できた. \section{考察} 第\ref{sec6.1}節では,今後の情緒タグ付与に備え,情緒タグ付与の誤り例を示す.第\ref{sec6.2}節では,複数の情緒タグの付与される場面と複雑な情緒の関係を分析し,複雑な情緒を扱う上での未解決の問題を示す.\subsection{情緒タグ付与の誤り分析}\label{sec6.1}第\ref{sec4.3}項での同意率の調査において,同意の得られなかった箇所について分析する.\subsubsection{類似の情緒を区別する問題}タグ付与者によると,「《喜び》,《期待》,および,《好ましい》の3つの区別に戸惑った」という意見があった.同意率の検査では,下記の例の2コマ目のお姉ちゃんの情緒が《喜び》であることに対して同意が得られなかった.検査者によると,《喜び》は,まだノートを所有していないので不適切であり,「ノートに対する《好ましい》」と,「ノートがもらえるという《期待》」の2つの情緒タグが適切であるという.このように,区別の決め手になるのは,情緒の生じる原因および情緒の反応を前後の文脈から読み取ることである.\vspace{\baselineskip}\begin{center}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&1&お姉ちゃん&あーっ,このノートいいなー.&&\\\hline2&2&お姉ちゃん&どうしたの?&〈幸福〉&\underline{《喜び》}\\\cline{1-1}\cline{4-4}3&&&コレ.&&\\\hline4&&お母さん&シーチキンを買ったら,&〈幸福〉&《喜び》\\&&&もらったのよ.&&\\\hline5&3&お姉ちゃん&私に頂戴.&〈幸福〉&《期待》\\\cline{1-1}\cline{4-4}6&&&算数のノートにするの.&&\\\hline\multicolumn{6}{r}{※3巻24ページより引用}\end{tabular}\end{center}\subsubsection{対人的な情緒のタグを選択する問題}9分類系の情緒は,基本行動との対応関係を考察する上でわかりやすいが,対人感情への対応関係が不明確である.下記の例では,\#3のナレーションのとおり,たまちゃんの真の内在する情緒は「心配」である.タグ付与者は「心配」に対して《嫌だ》を選択したが,同意率の検査者は《恐れ》の方がよいという意見であった.対話では対人感情に敏感であるので,典型的な対人感情と9分類系のタグとの対応関係をタグ付与作業者にあらかじめ示しておくことが必要であった.\vspace{\baselineskip}\begin{center}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&7&まる子&今日もお父さんとお風呂に入る約&〈幸福〉&《喜び》\\&&&束してるんだ.&&《期待》\\\cline{1-1}\cline{3-6}2&&たまちゃん&またのぼせないようにね.&〈幸福〉&\underline{《嫌だ》}\\\cline{1-1}\cline{3-6}3&&ナレータ&色々と心配なたまちゃんであった.&&\\\hline\multicolumn{6}{r}{※10巻62ページより引用}\end{tabular}\end{center}\subsubsection{表情に依存する問題}本稿で対象としている漫画「ちびまる子ちゃん」では,タグ付与過程での印象として,登場人物に内在する情緒と表情がよく対応しているように思われ,また,愛想笑いのように内在する情緒と表情が対応しないときは,「汗」が描かれるようである.下記の例では,検査者は\#14〜\#16で「ももこ」が愛想笑いをしているとして,《喜び》の情緒タグは不適切であると判断したため,相違が生じた.\vspace{\baselineskip}\begin{center}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&2&お母さん&…てな具合にさあ,私も若いころには&〈喜び〉&《喜び》\\&&&色々あった訳よ.&&\\\cline{1-1}\cline{3-6}2&&ももこ&ふうん…失恋…ねェ….&&\\\hline3&3&お母さん&アンタ失恋ってのは悲しいもんよォ.&〈嫌悪〉&《喜び》\\\cline{1-1}\cline{4-4}4&&&も〜〜お母さんはネェ.&&《悲しみ》\\\cline{1-1}\cline{3-6}5&&ももこ&分かったよ.&〈幸福〉&《嫌だ》\\\cline{1-1}\cline{4-4}6&&&辛いんでしょ.&〈嫌悪(汗)〉&\\\cline{1-1}\cline{4-4}7&&&ハイハイ.&&\\\cline{1-1}\cline{4-4}8&&&もういい?&&\\\cline{1-1}\cline{4-4}9&&&私眠いから.&&\\\hline10&4&お母さん&ダメッ,ももこっ!&〈幸福〉&《喜び》\\\cline{1-1}\cline{4-4}11&&&ここから先が面白いのよ.&&\\\cline{1-1}\cline{4-4}12&&&いよいよお父さんが登場するのよ.&&\\\cline{1-1}\cline{4-4}13&&&寝ちゃダメッ.&&\\\cline{1-1}\cline{3-6}14&&ももこ&ふーん….&〈幸福(汗)〉&\underline{《喜び》}\\\cline{1-1}\cline{4-4}15&&&あー,ワクワクするなあ.&&《嫌だ》\\\cline{1-1}\cline{4-4}16&&&楽しみだなあ.&&\\\hline\multicolumn{6}{r}{※4巻155ページより引用}\end{tabular}\end{center}\subsubsection{ナレーションを見落とす問題}ナレーションや非直接的な吹き出し(吹き出しと人物の間を複数の丸で結ぶもの)は,人物の心境を表し,真の内在する情緒が記述されているといえる.下記の例では,ナレータのいうとおり,まる子が〈幸福〉の表情でお母さんに話しかけているのはお母さんの心境に探りをいれているのであって,《喜び》をもって話をしているのではない.\#2の台詞は非直接的な吹き出しの部分であるが,その台詞は「不安」な気持ちを直接的に述べており,情緒タグとしては《恐れ》が適当である.\vspace{\baselineskip}\begin{center}\setlength{\tabcolsep}{3pt}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&3&まる子&はっ,お父さんとお母さん,&〈幸福〉&《恐れ》\\&&&ケンカしてるらしいね.&〈恐れ(青)〉&\\\cline{1-1}\cline{4-4}2&&&たいしたことなきゃいいけど.&&\\\cline{1-1}\cline{3-6}3&&お父さん&&〈怒り〉&《怒り》\\\cline{1-1}\cline{3-6}4&&お母さん&&〈怒り〉&《怒り》\\\hline5&4&まる子&ねえお母さん,今日の夕食お寿司にしてえ.&〈幸福〉&\underline{《喜び》}\\\cline{1-1}\cline{4-4}6&&&お願いー.&&《期待》\\\cline{1-1}\cline{3-6}7&&ナレータ&このように子供は自らリトマス紙となり,&&\\&&&親のケンカの深刻さを調べるのだ.&&\\\hline\multicolumn{6}{r}{※7巻127ページより引用}\end{tabular}\end{center}\subsection{複雑な情緒の扱い}\label{sec6.2}複雑な情緒に対するタグの付与について考察する.\subsubsection{複雑な情緒の例}本稿は,プルチックの8つの基本的な情緒を参考に情緒タグを定めた.その利点として,複雑な情緒を基本的な情緒の組み合わせで扱うことが挙げられる.その利点を活かすために,本コーパスでは,1つのコマ・1人の人物において,複数の情緒が同時に推定できるとき,それらの付与を認めている.たとえば,下記の例では,\#5,6,7のたまちゃんの台詞には,たまちゃんの情緒として,《喜び》と《好ましい》を同時に付与する.ここで,プルチックの分類に従うと,《喜び》と《好ましい》に対しては,《愛》という複雑な情緒が対応する.\vspace{\baselineskip}\begin{center}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&1&たまちゃん&ねえ,まるちゃん.&〈幸福〉&《期待》\\\cline{1-1}\cline{4-4}2&&&母の日には,何あげる?&&\\\cline{1-1}\cline{3-6}3&&まる子&え?&〈驚き〉&《驚き》\\\cline{1-1}\cline{4-4}4&&&何かあげるの?&&\\\hline5&2&たまちゃん&そりゃそうよ.&〈幸福〉&《喜び》\\\cline{1-1}\cline{4-4}6&&&いつも,お世話になっているお母さんだ&&《好ましい》\\&&&もん.&&→《愛》\\\cline{1-1}\cline{4-4}7&&&母の日くらいお礼しなきゃ.&&\\\cline{1-1}\cline{3-6}8&&まる子&あんた子供の癖に義理がたいわねェ.&&\\\hline\multicolumn{6}{r}{※6巻4ページより引用}\end{tabular}\end{center}\subsubsection{複雑な情緒へのタグ付与}プルチックは,2つの基本的な情緒の組により複雑な情緒として23種類を示した.そこで,その組に従い,本コーパスの基本的な情緒の2つ組に対して,複雑な情緒を表すタグを付与し,そのタグに対する同意率を求めた.同意率は,各情緒について最大30件のランダムサンプリングにより検査した.同意の判定には,複雑な情緒の英語側の語義を考慮に入れた.表\ref{tab7}にその結果を示す.全体で,同意率は63\%となったが,複雑な情緒ごとに見ると同意率の開きが大きい.\begin{table}[t]\begin{center}\caption{複雑な情緒のタグ付与と同意率}\label{tab7}\begin{tabular}{rccrrc}\hline\hline\#&複雑な情緒&情緒の組み合わせ&件数&同意率&(同意数/サンプル数)\\\hline1&楽観&喜び+期待&1,231&100\%&(30/30)\\2&好戦的&期待+怒り&11&100\%&(11/11)\\3&懸念&期待+恐れ&70&97\%&(29/30)\\4&歓喜&喜び+驚き&110&93\%&(28/30)\\5&みじめ&嫌だ+悲しみ&234&87\%&(26/30)\\6&憂鬱&喜び+嫌だ&71&83\%&(25/30)\\7&嫉妬&怒り+悲しみ&27&81\%&(22/27)\\8&憤慨&驚き+怒り&22&77\%&(17/22)\\9&警戒&恐れ+驚き&252&77\%&(23/30)\\10&絶望&恐れ+悲しみ&81&73\%&(22/30)\\11&失望&驚き+悲しみ&38&73\%&(22/30)\\12&軽蔑&嫌だ+怒り&239&63\%&(19/30)\\13&運命&期待+好ましい&19&53\%&(10/19)\\14&愛&喜び+好ましい&62&47\%&(14/30)\\15&自慢&喜び+怒り&10&30\%&(3/10)\\16&恥&恐れ+嫌だ&452&27\%&(8/30)\\17&悲観&期待+悲しみ&37&17\%&(5/30)\\18&罪悪感&喜び+恐れ&25&16\%&(4/25)\\19&皮肉&期待+嫌だ&35&7\%&(2/30)\\20&服従&恐れ+好ましい&4&0\%&(0/4)\\21&好奇心&驚き+好ましい&3&0\%&(0/3)\\22&-&驚き+嫌だ&178&&\\23&-&喜び+悲しみ&51&&\\24&-&期待+驚き&42&&\\25&-&恐れ+怒り&18&&\\26&-&嫌だ+好ましい&2&&\\27&支配&好ましい+怒り&0&&\\28&感傷的&好ましい+悲しみ&0&&\\\hline&&&3,324&63\%&(320/511)\\\hline\end{tabular}\end{center}\end{table}\subsubsection{複雑な情緒の対応関係の誤り分析}同意のできなかった理由について考察する.\begin{itemize}\item「cynicism(皮肉・冷笑)」について,「期待+嫌だ」の対象が人間である必要がある.下記の正例では,まる子は,丸尾の態度に《嫌だ》と思いつつ丸尾がツチノコ探しを続けることに《期待》をしているので,冷笑の様子と言える.しかし,下記の負例では,まる子が今の洋服が気に入らないこととして《嫌だ》が付与されているが,同時にお母さんが要求に応えてくれることの《期待》が付与されている.\begin{description}\item(正例)\begin{description}\item[丸尾:]スタモツチノコ株式会社さえ成功すれば世界は我々のものなのです.\item[まる子:]そうかなァ….《期待》,《嫌だ》\item[ナレータ:]世界がツチノコごときに従うとは思えない.\end{description}\begin{flushright}(4巻,48ページより引用)\end{flushright}\item(負例)\begin{description}\item[まる子:]お母さん,お母さん.\itemもっと夜会服って感じのないかね.\itemロングスカートでさあ.《嫌だ》,《期待》\item[お母さん:]ないわよ.\end{description}\begin{flushright}(7巻,117ページより引用)\end{flushright}\end{description}\item「罪悪感」について,「喜び+恐れ」は《喜び》の対象や原因と,《恐れ》の原因とが一致しなければならない.たとえば,下記の正例では,お母さんは,お父さんの発言を原因として,《喜び》を感じつつ,《恐れ》も感じているので,「罪悪感」がある.しかし,下記の負例では,おじいちゃんは,《恐れ》の余韻が残っているだけで,「罪悪感」はない.\begin{description}\item(正例)\begin{description}\item[お父さん:]どれどれまる子と噂になってるはまじってどれだ?\item[お姉ちゃん:]この子よ,この子.\item[お父さん:]おー,おもしれー顔してるなァ.\itemまる子と結婚したら夫婦で漫才やらせよう.\item[お母さん:]お父さん,まる子が聞いたら怒るわよ.《喜び》,《恐れ》\end{description}\begin{flushright}(8巻,26ページより引用)\end{flushright}\item(負例)\begin{description}\item[まる子:]おじいちゃん,火事だよ.\item[おじいちゃん:]たっ,大変じゃ.早く逃げろっ.\itemまる子っ,こっちに来るんじゃ.\item[まる子:]違う,違う,うちじゃないよ.よその火事!!\item[おじいちゃん:]…そうかい….よそかい……《喜び》,《恐れ》\end{description}\begin{flushright}(10巻,27ページより引用)\end{flushright}\end{description}\item「悲観」を構成する「期待+悲しみ」のうち《期待》について,本稿は「予期」とせずポジティブな解釈を認めているため「悲観」の語感にそぐわなくなった.《悲しみ》の中で何かに《期待》を持ちつつ行動する様子は「悲観」というより「辛抱強い」あるいは「意地」といえる.\begin{description}\item(負例)\begin{description}\item[お父さん:]こりゃ祭も中止だな.\item[まる子:]嫌だっ.\item夕方までに止むもん….\itemお祭に行けるもん….《悲しみ》,《期待》\end{description}\begin{flushright}(6巻,61ページより引用)\end{flushright}\end{description}\item「恥」は「恐れ+嫌だ」であるが,情緒主の評価を下げることに関連しなければならない.しかし,下記の例では,まる子が酷く恐れているのであって「恥」にはならない.\begin{description}\item(負例)\begin{description}\item[まる子:]あー神様神様,大地震なんて絶対絶対来ませんように….\item《恐れ》,《嫌だ》\end{description}\begin{flushright}(2巻,97ページより引用)\end{flushright}\end{description}\end{itemize}上述の分析によると,9分類系の情緒タグだけでは,複雑な情緒をそのまま扱うことは難しい.複雑な情緒を扱う上で,コーパスにはさらなる情報の付与が必要である.\subsubsection{複雑な情緒への対処に向けて}複雑な情緒を扱うために必要な情報とは,情緒の原因・対象についての情報である.特に次の点が重要である:\begin{itemize}\item対人性:情緒の生じる原因・対象として関わる人物を明確にすること.\item他の情緒との関連性:注目している情緒の原因・対象が,組となるもう一方の情緒の原因・対象と同一であるかどうか.\item情緒主への評判:情緒の原因・対象,および,その影響が,情緒主の評判に関わるかどうか.\end{itemize}たとえば,次のように情緒タグに情報を付加することが考えられる.\begin{description}\item(例)\begin{description}\item[u1:]お父さん:おー,おもしれー顔してるなァ.\item[u2:]お父さん:まる子と結婚したら夫婦で漫才やらせよう.\item[u3:]お母さん:おとうさん,まる子が聞いたら怒るわよ.\end{description}\begin{description}\item《喜び,原因:u2,対人性:0,評判:0》,\item《恐れ,原因:u2,対人性:+,評判:0》\end{description}\end{description}ここまでタグが付与されているならば,「罪悪感」のタグの付与は,同一の原因である《喜び》と《恐れ,対人性:+》の存在を基に自動で行うことができる.さらに,より厳密に情緒をタグで表そうとすると,上記の情報の他に,OCCモデルでEvent,Agent,Objectで体系的に示されるような情報やゴール・プランや選好等に関する情報も必要になる\cite{Ortony88}.また,心的状態を表すタグを付与する方法がある\cite{徳久&中野&山下&岡田01}.しかし,こうした豊富な情報をコーパスに付与しようとすると,言語表現されていない背景事情を表すためのタグが非常に多くなる.たとえば,上述の{\bfu2}という原因の表示は,ここでは幸いにも適当なラベルとして使用できたが,常にこの程度の粒度のラベルで原因がカバーできるとは限らない.そのような目に見えない情報に対するタグは,表記が複雑になり分析者の負担が非常に重い\cite{古塩&徳久04}. \section{おわりに} 本稿は,信頼性の高い情緒タグ付き対話コーパスを実現することを狙い,漫画の対話文を対象に,登場人物の表情を参照する方法によって情緒タグを付与した.また,得られた対話コーパスの信頼性を評価した.具体的には,漫画「ちびまる子ちゃん」(10冊)を対象に,1話につき2人のタグ付与作業者が「表情タグ(7種類)」と「情緒タグ(9種類)」を一時的に付与した後に,正解とする表情タグと情緒タグを両者が協議により決定した.その結果,コーパスの規模は,29,538文(388,809文字),表情タグ14,040個,情緒タグ16,635個となった.また,漫画本の言語表現の電子化とタグの付与は約3ヶ月で完了した.次に,コーパスの信頼性を次の3点から評価した:\begin{description}\item(1)一致率:コーパス構築の途中段階で一時的に付与される情緒タグにおける作業者間の一致の割合\item(2)同意率:コーパス構築の最終段階で決定される情緒タグについて,作業者以外の者から得られる同意の割合\item(3)有効性:構築したコーパスは言語分析に使用する価値があるか.\end{description}(1)について,2者の一時的な情緒タグの一致率は,9分類系の情緒タグにおいて65.2\%($\kappa$=0.444),3分類系の情緒タグにおいて78.0\%($\kappa$=0.640)であった.関連研究\cite{Litman03}における3分類系の情緒の一致率が81.75\%($\kappa$=0.465〜0.624)であったことに対し,本稿は近い結果を得たことから,本稿のタグの安定性は良好な部類に属することがわかった.また,表情を参照しない場合の9分類系情緒タグの一致率が60.5\%($\kappa$=0.382)であったことより,表情を参照することにより安定性が向上することが確認できた.(2)について,サンプリング検査によると,同意率は97\%(414/425)となった.コーパスにおいて一時的なタグの一致率の低かった部分において,最終的に正解として決定した情緒タグの同意率を求めたところ97\%(158/163)となったことより,正確さが確保できていることが確認できた.(3)について,得られたコーパスを「情緒表現性のある文末表現の抽出」に使用したところ,11,027件の情緒タグ付きの台詞から3,164件の文末表現が情緒の共起割合とともに抽出された.漫画から作成したコーパスであるが,自然で情緒的な文末表現が見られたことから,本コーパスは言語表現と情緒の関係を分析する上で有効であることの一例が示された.以上から,情緒判定において,漫画に登場する人物の表情は,音声に匹敵する言語外情報を持つことが分かり,それを利用したタグ付与方法の信頼性が確認された.今後の課題として,異なる漫画を対象にコーパスを構築すること,漫画以外の言語表現(たとえば,blogなど)との共通性を調査することが挙げられる.\acknowledgment本研究は科学技術研究費補助金(若手研究(B):課題番号17700151)の下で行いました.コーパスへの言語表現の収録作業にご協力頂きました田中勝弘氏・東弘之氏(鳥取シルバー人材センター),そして,タグ付与にご協力頂きました研究室メンバーに深く感謝します.漫画「ちびまる子ちゃん」の著者さくらももこ氏に敬意を表します.\begin{thebibliography}{}\bibitem[\protect\BCAY{Craggs\BBA\Wood}{Craggs\BBA\Wood}{2004}]{Craggs&Wood04}Craggs,R.\BBACOMMA\\BBA\Wood,M.~M.\BBOP2004\BBCP.\newblock\BBOQAtwodimensionalannotationschemeforemotionindialogue\BBCQ\\newblockIn{\BemExploringAttitudeandAffectinText:TheoriesandApplications},\BPGS\44--49.AAAIPress.\bibitem[\protect\BCAY{Ekman\BBA\Friesen}{Ekman\BBA\Friesen}{1990}]{エクマン&フリーセン90}Ekman,P.\BBACOMMA\\BBA\Friesen,W.~V.\BBOP1990\BBCP.\newblock工藤力\hspace*{-0.5zw}(訳編)\hspace*{-0.5zw},\Jem{表情分析入門}.\newblock誠心書房.\bibitem[\protect\BCAY{Litman\BBA\Forbes}{Litman\BBA\Forbes}{2003}]{Litman03}Litman,D.\BBACOMMA\\BBA\Forbes,K.\BBOP2003\BBCP.\newblock\BBOQRecognizingemotionsfromstudentspeechintutoringdialogues\BBCQ\\newblockIn{\BemAutomaticSpeechRecognitionandUnderstandingWorkshop}.\bibitem[\protect\BCAY{Narayanan}{Narayanan}{2002}]{Narayanan02}Narayanan,S.\BBOP2002\BBCP.\newblock\BBOQTowardsmodelinguserbehaviorinhuman-machineinteractions:EffectofErrorsandEmotions\BBCQ\\newblockIn{\BemISLEWorkshoponTaggingformultimodaldialogsWorkshop}.\bibitem[\protect\BCAY{Ortony,Clore,\BBA\Collins}{Ortonyet~al.}{1988}]{Ortony88}Ortony,A.,Clore,G.~L.,\BBA\Collins,A.\BBOP1988\BBCP.\newblock{\BemTheCognitiveStructureofEmotions}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1960}]{Plutchik60}Plutchik,R.\BBOP1960\BBCP.\newblock\BBOQTheMultifactor-AnalyticTheoryofEmotion\BBCQ\\newblock{\BemTheJournalofPsychology},{\Bbf50},pp.~153--171.\bibitem[\protect\BCAY{池原,阿部,徳久,村上}{池原\Jetal}{2004}]{池原04}池原悟,阿部さつき,徳久雅人,村上仁一\BBOP2004\BBCP.\newblock\JBOQ非線形な表現構造に着目した重文と複文の日英文型パターン化\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(3),pp.~69--95.\bibitem[\protect\BCAY{遠藤,小方}{遠藤\JBA小方}{2003}]{遠藤&小方03}遠藤泰弘,小方孝\BBOP2003\BBCP.\newblock\JBOQマンガの言説技法を統合する枠組みとしてのハイパーコミック\JBCQ\\newblock\Jem{マンガ研究},{\Bbf4},pp.~113--132.\bibitem[\protect\BCAY{金子}{金子}{2006}]{金子06}金子真\BBOP2006\BBCP.\newblock\JBOQ焦点化副詞「ナンカ」が表わす否定的評価の派生について\JBCQ\\newblock\Jem{言語処理学会第12回年次大会ワークショップ「感情・評価・態度と言語」論文集},pp.~33--36.\bibitem[\protect\BCAY{古塩,徳久,村上,池原}{古塩\Jetal}{2004}]{古塩&徳久04}古塩貴行,徳久雅人,村上仁一,池原悟\BBOP2004\BBCP.\newblock\JBOQ情緒注釈付きコーパスの誤り分析\JBCQ\\newblock\Jem{人工知能学会全国大会},2G3--02.\bibitem[\protect\BCAY{さくらももこ}{さくらももこ}{1987--1993}]{さくら87-93}さくらももこ\BBOP1987--1993\BBCP.\newblock\Jem{ちびまる子ちゃん},1〜10\JVOL.\newblock集英社.\bibitem[\protect\BCAY{徳久,中野,山下,岡田}{徳久\Jetal}{2001}]{徳久&中野&山下&岡田01}徳久雅人,中野育恵,山下智之,岡田直之\BBOP2001\BBCP.\newblock\JBOQ情緒を加味した深いタスク指向の対話理解のためのルールベースの構築\JBCQ\\newblock\Jem{信学技報},{\BbfTL2001-25},pp.~21--28.\bibitem[\protect\BCAY{徳久,岡田}{徳久,岡田}{1998}]{徳久&岡田98}徳久雅人,岡田直之\BBOP1998\BBCP.\newblock\JBOQパターン理解的手法に基づく知能エージェントの情緒生起\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(8),pp.~2440--2451.\bibitem[\protect\BCAY{徳久,寺嶌}{徳久,寺嶌}{2006}]{徳久R&寺嶌06}徳久良子,寺嶌立太\BBOP2006\BBCP.\newblock\JBOQ雑談における発話のやりとりと盛り上がりの関連\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf21}(2),pp.~133--142.\bibitem[\protect\BCAY{中澤}{中澤}{2005}]{中澤05}中澤潤\BBOP2005\BBCP.\newblock\JBOQマンガのコマの読みリテラシーの発達\JBCQ\\newblock\Jem{マンガ研究},{\Bbf7},pp.~6--21.\end{thebibliography}\begin{biography}\bioauthor{徳久雅人}{1995年九州工業大学大学院情報工学研究科博士前期課程修了.同年同大学情報工学部助手.統合的知能エージェントの開発に従事.2002年より鳥取大学工学部助手.自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会各会員.}\bioauthor{村上仁一}{1984年筑波大学第3学群基礎工学類卒業.1986年同大学修士課程理工学研究科理工学専攻修了.同年NTT情報通信処理研究所に勤務.1991年国際通信基礎研究所(ATR)自動翻訳電話研究所に出向.1998年より鳥取大学工学部助教授.主に音声認識のための言語処理の研究に従事.電子情報通信学会,日本音響学会,言語処理学会各会員.}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学大学院修士課程修了.同年日本電信電話公社に入社.数式処理,トラフィック理論,自然言語処理の研究に従事.1996年スタンフォード大学客員教授.1996年より鳥取大学工学部教授.工学博士.1982年情報処理学会論文賞,1993年同学会研究賞,1995年日本科学技術情報センター賞(学術賞),同年人工知能学会論文賞,2002年電気通信普及財団賞(テレコム・システム技術賞),2006年人工知能学会業績賞受賞.電子情報通信学会,人工知能学会,言語処理学会,機械翻訳協会各会員.}\end{biography}\biodate\end{document}
V23N01-05
\section{はじめに} \begin{table}[b]\caption{2014年度代ゼミセンター模試(第1回)に対する得点と偏差値}\label{tab:intro:2014}\input{05table01.txt}\end{table}「ロボットは東大に入れるか」(以下,「東ロボ」)は国立情報学研究所を中心とする長期プロジェクトである.同プロジェクトは,AI技術の総合的ベンチマークとして大学入試試験問題に挑戦することを通じ,自然言語処理を含む種々の知的情報処理技術の再統合および新たな課題の発見と解決を目指している.プロジェクトの公式目標は2016年度に大学入試センター試験において高得点を挙げ,2021年度に東大2次試験合格レベルに達することである.プロジェクトでは,2016年度のセンター試験「受験」に至るまでの中間評価の一つとして,2013年度,2014年度の2回に渡り代々木ゼミナール主催の全国センター模試(以下,代ゼミセンター模試)を用いた各科目の解答システムの評価を行い,その結果を公表した.\TABREF{tab:intro:2014}に2014年度の各科目の得点と偏差値を示す\footnote{数学・物理に関しては他の科目と異なり付加情報を含む入力に対する結果である.詳細はそれぞれに関する節を参照のこと.国語は,未着手の漢文を除いた現代文・古文の計150点に関する偏差値を示す.}.2013年度の結果については文献\cite{arai}を参照されたい.大学入試試験問題は志願者の知的能力を客観的に測定することを目的として設計されたデータであり,通常ただ1回の試験によって,かつ,受験者間での公平性を担保しながら測定を行うために入念な検討が加えられている.この点で,入試試験問題は言語処理を含む知的情報処理技術の総合的ベンチマークとして恰好の素材であるといえる.特に,その大部分が選択式問題からなるセンター試験形式のテストは,ごく単純な表層的手がかりのみでは正解できないように設計されていると考えられ,現在70\%から90\%の精度に留まっている種々の言語処理技術をより信頼性高く頑健なものへと導くためのガイドラインとして好適である.さらに,模試・入試によるシステムの性能測定結果は人間の受験生の正答率や誤りの傾向と直接比較することが可能である.センター試験は毎年約50万人が受験し,予備校によるセンター試験模試も数千から数万人規模の参加者を集める.このような大規模なサンプルから得られた「普通の人」「典型的な人」の像とシステムとの比較は,人によるアノテーションに対する再現率に基づく通常の性能測定とは異なる達成度の指標となっている.代ゼミセンター模試による2014年度の評価では,英語・国語・世界史Bで受験者平均を上回る得点を獲得するなど,大きな成果があった一方で,その得点に端的に現れているように,残された課題も大きい.本稿では,代ゼミセンター模試およびその過去問を主たる評価データとして各科目の解答システムのエラーを分析し,各科目における今後の課題を明らかにするとともに,「普通の人」と比較した際の各科目・問題タイプにおける達成度に関してひとつの見取り図を与えることを目指す.「東ロボ」プロジェクトのひとつの特徴は,多様な科目・課題に並行的に取り組むことであり,様々な課題に対する結果を通じて,現在のNLP/AI諸技術の達成度を可能な限り通覧することはプロジェクト全体の目的でもある.このため,本稿では問題タイプ毎のエラーに対する分析は主として解決への糸口となる傾向の分析までにとどめ,多数の科目・問題タイプについてそのエラー傾向と今後の課題を示すことを主眼とした.以下では,まず知的情報処理課題としてのセンター模試タスクの概要をまとめたのち,英語,国語,数学,物理,日本史・世界史の各科目について分析結果を述べる. \section{センター試験タスクの概要} \TABREF{tab:overview:risha},\TABREF{tab:overview:eikoku}に,2014年度代ゼミセンター模試(第1回)の世界史B・日本史B・数学(I+A,II+Bの合計)・物理,国語・英語を対象とした問題分類の結果を示す.表内の各数字は,各カテゴリに分類された問題数およびその割合(カッコ内)である.ここでは,一つの問題が複数のカテゴリに属する場合も許している.これらの分類は解答タイプ(解答形式および解答内容の意味的カテゴリ)と解答に必要となる知識のタイプに関するアノテーション\cite{MiyaoKawazoe2013IJCNLP}から得られたものであるが,読みやすくするために,表中では各カテゴリにそれらのアノテーションを要約・再解釈したラベルを与えている.\begin{table}[t]\caption{問題分類(社会科目・理数系科目)}\label{tab:overview:risha}\input{05table02.txt}\end{table}\begin{table}[t]\caption{問題分類(国語・英語)}\label{tab:overview:eikoku}\input{05table03.txt}\end{table}\TABREF{tab:overview:risha}に示されるように,社会科目ではほとんどの問題が教科書内の知識を正しく記憶しているかどうかを問う問題であり,形式は真偽判定型とfactoid質問型が多い.問題中で与えられた資料文に関する読解問題や一般常識の関わる問題の割合は低いことから,大多数の問題に対しては外部の知識源を適切に参照し,要求される解答形式に合わせた出力へ加工することで解答できる可能性が示唆される.すなわち,現行の質問応答および検索をベースとした方法によって解ける可能性がある.他方,数学・物理に関しては,問題のすべてが「分野固有の推論」に分類されている.すなわち,単に知識源を参照するだけでは解答できず,数理的演繹やオントロジーに基づく推論などが必要となることが示唆される.特に,数学・物理の問題のほとんどが数値ないし数式を答える問題であるため,数値計算ないし数式処理は必須である.言語処理と数値・数式処理の統合は,分野横断型の研究として興味深い.数学・物理の間の違いとして,画像・図表の理解を必要とする問題の割合の差が見て取れる.数学では数表および箱ひげ図の理解を要する大問が1題あったが,それ以外の図に関しては必要な情報が全て問題文で与えられており,解答する上で図を理解する必要はない.いっぽう物理では,問題文のみでは物理的状況を理解するのが困難で,画像の理解を必要とすると思われる問題がおよそ7割を占める.このため,物理の解答システムでは将来的に画像理解と言語理解の融合が必要であると考えられる.英語と国語の問題分類は,他科目とは大きく異なっている.英語に関する節で述べるように,語彙知識,文法的知識を問う問題は,現在の言語処理技術の射程内のものが多数ある.しかし,英語・国語で大きな割合を占める読解問題は,これを研究課題とする取り組みが近年開始されたものの\cite{Penas2011a,Penas2011b},言語処理・知的情報処理課題としての定式化を含め,未解決の部分が多いタイプの問題である.さらに,英語問題には一般常識を問う問題,新聞広告や手書きの問診票など独特の形式をもつ文書の理解を問う問題,画像理解(絵の説明として適切なものを選ぶ問題など)などが含まれるが,これらは一部に研究課題として非常に難しいものを含んでいる.この点で,少なくとも現時点では,英語で満点に近い高得点を得ることは困難であると考えられる. \section{英語問題のエラー分析} \subsection{はじめに}\label{sec:eigo:introduction}本節では,東ロボ英語チームの開発によるいくつかの解答システムのエラーを分析した結果について述べる.特に,代ゼミセンター模試の6回分(2012第1回,2013第1回〜第4回,2014第1回)を中心に分析を行った.\begin{table}[b]\caption{代ゼミセンター模試2014英語の問題構成}\label{tab:eigo:mondai}\input{05table04.txt}\end{table}\TABREF{tab:eigo:mondai}に代ゼミセンター模試2014第1回の問題構成を示す.今回の分析は現状一定の精度で解けている短文問題(すなわち,大問1から大問3)のみについて行っている.また,短文問題の中で文脈に合わない文を選ぶという問題(3B)については,過去問に例が少なかったため未着手であり,分析対象としては触れていない.また,意見要旨把握問題については,会話文完成問題と同じ解き方で解いているため,会話文完成問題の分析をもって,この問題の分析とする.点数にして約半分を占める読解問題に対しては,現在のシステム正答率がチャンスレベルに近いため,エラー分析の対象とはしなかった.読解問題に関する見通しについては本節の最後で述べる.なお,2014年度の代ゼミセンター模試の英語問題を解いた手法については,文献\cite{eigo}に詳述されているので参照されたい.\subsection{発音・アクセント問題}\label{sec:eigo:1ab}ここ数年の発音・アクセント問題は発音箇所が異なる・同じ箇所や,アクセント位置が異なる・同じ箇所を選択する問題であり,音声認識用の辞書を用いることですべて解くことが出来ている.しかし,1987年から2009年までのセンター試験の発音アクセント問題は28/85(約32\%)しか解くことができていない.これらの問題は,文中で強勢される単語を問うものが多く,文脈を理解しないと解くことができない.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f1.eps}\end{center}\caption{強勢問題の例}\label{fig:eigo:1ab}\end{figure}\begin{table}[b]\caption{発音・アクセント問題の分類}\label{tab:eigo:1ab}\input{05table05.txt}\end{table}\FIGREF{fig:eigo:1ab}は強勢の問題の例である.下線部の単語のうち,強勢が置かれるものをそれぞれ選択する.(1)の下線部では,worseが正解となるが,worseを強く読むかどうかは文脈に依存する.1999年までの発音・アクセント問題で解けていない問題を分析したものを\TABREF{tab:eigo:1ab}に示す.辞書やプログラムの整備などにより対応できるものを短期に対応できる問題(18問),それ以外を長期間必要な問題(33問)と分類した.また,例年であれば発音・アクセント問題が出現する箇所にそれ以外の問題が出題されるケースがあり,これらは6問あった.強勢の問題は近年コーパスベースの手法で取り組んでいる文献\cite{kyosei}もあるが,まだ取り組みが少ないのが現状である.\subsection{文法・語法・語彙問題}\label{sec:eigo:2a}文法・語法・語彙問題とは,文中の空欄に最もふさわしい語句を4つの候補の中から選ぶ問題である.代ゼミセンター模試の過去6回分には,このタイプの問題が合わせて60問出題されている.英語チームでは,単語N-gramを用いて,最も確率が高くなる候補を選ぶ方法を用いた.本手法では,47問解くことができた.解くことが出来なかった問題の要因は\TABREF{tab:eigo:grammar}の通りであった.\begin{table}[b]\caption{文法・語法・語彙問題のエラー要因\label{tab:eigo:grammar}}\input{05table06.txt}\end{table}反実仮想のように,条件文に呼応する場合はそれを踏まえる必要があるが,N-gramではそれが捉えられていなかった.また,複数文で前半部分を受けて後半の単語を選ぶ問題についても同様に答えられていない.遠い依存関係はN-gramによって捉えにくいものであるが,今回の代ゼミセンター模試2014-1の2問については,DependencyLanguageModel~\cite{deplm}に基づく手法で答えられることを確認した.成句に関する問題は入試で頻出するが,新聞記事の出力分布からずれるために答えられていないと思われる.関係代名詞の用法については,解くためには文法的な観点が必要と思われる.今回の分析対象である60問で人間(受験生)とシステムの正答傾向に違いがあるかを分析した.ここで,「人間の解答」として,受験生の選択した割合が最も高かったものを用いている.なお,人間は48問(80\%)正解している.クロス表を作成したところ\TABREF{tab:eigo:bunpou:cross}の様になった.\begin{table}[t]\caption{人とシステムの正答傾向の比較(文法・語法・語彙問題)}\label{tab:eigo:bunpou:cross}\input{05table07.txt}\end{table}\begin{table}[t]\caption{システムが正解し人間が不正解であった文法・語法・語彙問題の内容}\label{tab:eigo:syshumcompare}\input{05table08.txt}\end{table}システムと人間の両方が解けるものはある程度共通しているものの,それぞれ得意・不得意があることも分かる.システムが正解することと,人間が正解することが独立であるか,本クロス表についてFisherの正確確率検定を行ったところ$p=1$であり人間・システムの正答の分布が独立であることは棄却されなかった.人間とシステムは異なる解き方をしており,正答・誤答の分布は独立であることが示唆される.さらに60問の各設問について人間とシステムの選択肢の順序を求め,代表的な順位相関係数であるSpearmanの$\rho$およびKendallの$\tau$の平均値を求めた.ここで,人間の選択肢の順位とは選択した受験生の割合の順位であり,システムの順序とは,N-gram確率によって得られる確率値の大きい順に並べたものである.その結果,$\rho$と$\tau$の平均はそれぞれ0.07,0.06となり,ほぼ無相関であった.ここからも,人間とシステムは異なった解き方で問題を解いていることが示唆される.システムが正解し人間が不正解であった問題は10問であり,この内訳は\TABREF{tab:eigo:syshumcompare}の通りである.人間は英語の典型的用法を知らないことで不正解になっているケースがほとんどであった.これらはシステムがデータ中心の解法により正解できるものである.また前置詞の用法も英語に慣れていないと難しく,受験生には解けなかったようである.人間が正解しシステムが不正解であった11問,および,どちらも不正解だった2問(2013-1-A12,2014-1-A14)は,システムが解けなかった問題として前掲した13問である.\TABREF{tab:eigo:syshumcompare}と比較すると,システムが正解・人が不正解であった問題は単語や成句・連語あるいは前置詞の選択など,語彙的知識に関するものが多く,システムが不正解・人が正解であった問題は意味的・文法的な整合性が関わるものが多いという傾向が見て取れる.\subsection{語句整序完成問題}\label{sec:eigo:2c}語句整序完成問題とは,与えられた数個の単語を適切に並べ替えて,文法・意味的に正しい文を完成させる問題である.我々は,文法・語法・語彙問題と同様にN-gram言語モデルを用いてこの問題に取り組んだ.具体的には,単語列のすべての並びを列挙し,もっとも文としての確率が高いものを選ぶ手法を用いた.分析対象とした代ゼミセンター模試過去問ではこのタイプの問題が18問あり,このうち,15問(83\%)に対しシステムは正答することができた.正解できなかった3問についてはエラーの要因は\TABREF{tab:eigo:error:sort}の通りであった.ここでの要因は,文法・語法・語彙問題とほぼ同様である.システムの正解率もほぼ同じであることから,N-gramによって解くことのできる問題はおおよそ80\%であることが確認できる.今回の分析対象である18問について,人間とシステムの正答傾向に違いがあるか分析した.\TABREF{tab:eigo:cross:sort}はそのクロス表である.\begin{table}[t]\caption{語句整除完成問題のエラー要因}\label{tab:eigo:error:sort}\input{05table09.txt}\end{table}\begin{table}[t]\caption{人とシステムの正答傾向の比較(語句整除完成問題)}\label{tab:eigo:cross:sort}\input{05table10.txt}\end{table}本クロス表についてFisherの正確確率検定を行ったところp値は0.06であり有意傾向にあった.これは,文法・語法・語彙問題と異なるところであり,システムと人間はより近い解き方をしているのではないかと考察される.人間が不正解でありシステムが正解したものは1問(2012-1-A25-26)だった.``allIcouldthinkabout''という構文が受験生にとっては難しいながら,典型的なフレーズであり,システムにとってはN-gramで解ける問題だったことによる.\subsection{会話文完成問題}\label{sec:eigo:2b}会話文完成問題は,二人の話者の会話の空所に適切な文を4つの選択肢から選び,会話文を完成させる問題である.この問題を解くため,4つの選択肢の各場合について会話文の流れの自然さを推定し,最も自然な流れとなる選択肢を選ぶという方法を用いた.会話文の流れの自然さは(a)発話意図(表明,評価など)の流れの自然さと(b)感情極性(ポジティブかネガティブ)の流れの自然さから成る.(a)はSwitchboardDialogActCorpus\cite{Jurafsky:97}から発話意図列の識別モデルをCRFによって学習し,発話意図列の生起確率に基づいてスコアを計算した.(b)は感情極性コーパス\cite{Pang+Lee:05a}からSVMにより識別モデルを学習し,感情極性がポジティブあるいはネガティブであるスコアを計算した.それぞれのスコアの重み付き和を最終的なスコアとした.エラー分析のため,代ゼミセンター6回分の問題について,会話中のすべての発話および選択肢に対し,1名の評価者がアノテーションを行い,発話意図のラベルと感情極性の度合を付与した.アノテーションに基づき,(a),(b)のスコアを計算した.(a)は付与された発話意図列のN-gram確率をコーパスから計算したものをスコアとした.(b)は付与された感情極性の度合に基づいてスコアを計算した.コーパスから学習したモデルに基づいてスコアを算出する場合(アノテーション無し)とアノテーションに基づいてスコアを算出する場合(アノテーション有り)を比較し,正解率がどう変わるかを検証した.その結果を\TABREF{tab:eigo:2b}に示す.\begin{table}[b]\caption{アノテーションの有無による会話文完成問題の正解率の変化}\label{tab:eigo:2b}\input{05table11.txt}\end{table}表において,発話意図のスコアと感情極性のスコアの両方を使う場合は,正解率が最大となるように重みを調整した.表から分かるように,感情極性に関して,アノテーション無しの方がアノテーション有りの場合よりも正解率が若干高い.アノテーション無しの場合は,感情極性コーパスを使うことにより,ポジティブ/ネガティブな文に現れる単語の出現確率を考慮してスコアを計算していることに対して,アノテーション有りの場合は,そのような単語の出現確率を精密に考慮できないことが性能低下につながった可能性がある.本質的にアノテーション無しの方が性能が良いかどうかはより多くのデータを使って判断することが必要である.本手法は発話意図のスコアと感情極性のスコアの重み付き和で最終的なスコアを計算しているが,どちらのスコアを優先すべきかは問題による.実際,発話意図のスコアと感情極性のスコアのいずれかが最大となる選択肢を選ぶことができたすると,アノテーション無しでは18問中13問,アノテーション有りでは18問中10問が正解となる.発話意図と感情極性のスコアのいずれを使って問題を解くべきかを適切に判断することは今後の課題の一つである.分析に用いた18問に対する受験生の平均正答率は62.2\%であった.システムの正答率8/18(=44.4\%)はそれより低いものの,チャンスレベルである25\%との差はほぼ有意であった($p=0.06$,二項検定).\subsection{未知語(句)語義推測問題}\label{sec:eigo:3a}この問題は,出現頻度が低く一般にはあまり知られていないような文章中の単語またはフレーズについて語義を推定し,与えられた選択肢の中から最も意味の近い語義を選択する問題である.今回,word2vec\cite{Mikolov13}を用い,未知の語句と選択肢のベクトルをそれぞれ求め,コサイン類似度の高いものを選択する手法を用いた.なお,未知の単語が慣用句の場合は,イディオム辞書によって事前に語釈文に置き換えた上でベクトルを算出している.過去5回の代ゼミセンター模試の全12問について,9問(75\%)解くことができた.これは同じ問題に対する受験生の平均正答率48\%を上回っている.正解できなかった3つの問題の内訳を表\ref{tab:eigo:3a}に示す.二つはイディオム辞書の不備に依る.今回は,Wiktionaryから作成したイディオム辞書を用いたが,そのカバレッジが低かった.これらはよりカバレッジの大きいOxfordEnglishDictionaryを用いることで解決できることが分かった.もう一つは単語``cognate''であるが,単語であっても,辞書の語釈文によって置き換えてベクトルを算出することでこちらも解けることが分かった.すなわち,単語,イディオムについて,置き換える・置き換えないという操作が正しくできれば,本問題については解くことができると言える.\begin{table}[b]\caption{未知語(句)語彙推測問題のエラー内訳}\label{tab:eigo:3a}\input{05table12.txt}\end{table}\subsection{英語:まとめと今後の課題}\label{sec:eigo:summary}本稿では,東ロボプロジェクトにおいて英語チームが英語問題を解いたときのエラーを分析した結果について述べた.長文読解問題はまだチャンスレベルに近い正答率であるため,今回は分析対象としなかったが,今後解答できるようになっていくにつれ,エラーを分析していく予定である.今回の分析対象とした短文問題に比べて,長文読解問題ソルバー開発の進行が遅れている理由としては,問題内容自体の複雑さに加え以下のような理由が挙げられる.まず,長文読解問題の約半数は,図表ないしイラストを含む問題,あるいは広告・カルテなど特殊なレイアウトを含む実用文書を題材とする問題である.これらの問題に対しては,テキスト処理に加えて画像理解や文書構造の理解が必要とされる.特に自然画像ではないイラストの理解はそれ自体が未開拓の研究領域である.これらの付加要素のうち表に関しては,情報抽出源として多くの研究があるものの,テキスト理解と表の意味理解が複合した課題に関する取組は近年始まったばかりである\cite{pasupat2015compositional}.多くの長文読解問題は,形式的には本文と選択肢の間の含意関係認識課題として捉えることが可能である.しかし,Bag-of-words/phrases/dependenciesなど,表層に近い表現によるテキスト間類似性を用いた手法とstate-of-the-artとの差が比較的小さい現在の含意関係認識手法の技術水準では,英語読解問題で前提とされる種々の常識的知識を深い意味構造のレベルで取り扱うような手法がすぐに実現するとは考えにくく,表層に近い表現によるテキスト間類似性定義をベースとして,英語読解問題の特性に見合った改良を加えていく方向が有効であると思われる.これに対し,図・表・イラストなどを含む問題は,数量の取扱いを始め,単純なテキスト間類似性を超える推論を要することが多い点でも難しい課題であると言える.なお,図などの付加要素を含まないタイプの長文読解問題において,特に問題だと考えている課題は3つある.意味を反転させるような表現の扱い,共参照解析,メタ言語(文章自体への言及)である.また,過去の代ゼミセンター模試の長文(特に大問6の論述に関する問題)を分析したところ,選択肢に関連のある一文を長文から抽出できれば解ける問題が25問中11問あったが,その他は複数の文の統合が必要なものであった.選択肢に関連する一文を長文から抽出する課題はそれ自体が今後の研究課題である\cite{CLEF13Li}が,それに加え,要約技術の適用や文の統合といった技術が必要になってくると思われる.\vspace{0.5\Cvs} \section{国語評論問題のエラー分析} \vspace{0.5\Cvs}\subsection{センター試験『国語』評論傍線部問題}本節では,主に大学入試センター試験『国語』評論の{\bf傍線部問題}と呼ばれる問題を取り扱う.傍線部問題の具体例を\FIGREF{fig:kokugo:up_example}に示す.この図に示すように,傍線部問題は,何らかの評論から抜き出された文章(本文)を読んだ上で設問文を読み,5つの選択肢のうちから正解の選択肢を1つ選ぶという選択式の問題である(紙面の都合上,\FIGREF{fig:kokugo:up_example}には2つしか選択肢を記載していない).表13に示すように,傍線部問題は,センター試験『国語』評論の配点の約2/3を占めている.紙幅の都合で取り上げなかったこれ以外の問題に関しては本節の最後で述べる.\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f2.eps}\end{center}\caption{評論傍線部問題の例(2007年本試験第1問の問2)}\label{fig:kokugo:up_example}\end{figure}\subsection{傍線部問題の解法}東ロボ国語チームは,傍線部問題の自動解法として,これまでに{\bf本文照合法}\cite{BaseMethod},およびその一部を拡張した{\bf節境界法}\cite{CLMethod}を提案,実装した.本節ではこれらの解法について概説する.\subsubsection{本文照合法}本文照合法は,\begin{itemize}\item正解選択肢を選ぶ根拠は,本文中に存在する\cite{Funaguchi,Itano}\item意味的に似ているテキストは,表層的にも似ていることが多い\end{itemize}という考え方(仮説)に基づく解法である.具体的には,次のような方法で傍線部問題を解く.\begin{enumerate}\item{\bf入力:}本文,設問,選択肢集合を入力する.\item{\bf照合領域の決定:}選択肢と照合する本文の一部(照合領域)を定める.照合領域は,本文中の傍線部を中心とした連続領域とする.\item{\bf選択肢の事前選抜:}考慮の対象外とする選択肢を除外する.具体的には,ある選択肢について,自分以外の選択肢との文字の一致率の平均値が最も小さい選択肢を除外する.\item{\bf照合:}考慮の対象とする選択肢をそれぞれ照合領域と比較し,照合スコアを求める.照合スコアには,照合領域とその選択肢との間の共通する要素の割合(オーバーラップ率\cite{Hattori2013})を用いる.\item{\bf出力:}照合スコアの最も高い選択肢を解答として出力する.\end{enumerate}この本文照合法には,以下の3つのパラメータが存在する.\begin{itemize}\item照合領域として本文のどの範囲を選ぶか\item照合スコアをどのような単位で計算するか(何のオーバーラップ率をスコアとするか)\item選択肢の事前選抜を行うか\end{itemize}これらのパラメータは,以降で述べる節境界法にも共通する.\subsubsection{節境界法}節境界法は,長い文を複数のまとまりに区切るという戦略に基づき,本文照合法の一部を拡張した解法である.具体的には,本文照合法の照合ステップにおいて,照合領域と選択肢に節境界検出に基づいた節分割を行い,その結果を照合スコアの計算に利用する.節は「述語を中心としたまとまり」\cite{KisoNihongo}と定義される文法単位であり,おおよそ述語項構造に対応する.節境界検出には,節境界検出プログラムRainbow\cite{Rainbow}を用いる.Rainbowは,文の節境界の位置を検出し,節の種類のラベル(節ラベル)を付与するプログラムである.Rainbowによって付与された節境界で区切られた部分を節とみなして,節分割を行う\footnote{厳密には本来の節の定義からは外れる場合がある.}.節境界法では,照合スコアを以下のような方法で計算する.\begin{description}\item[\textmd{Step1}]照合領域$t$と選択肢$x$に節境界検出を行い,それぞれ節の集合$T$,$X$に変換する.\item[\textmd{Step2}]$T$と$X$を用いて選択肢$x$の照合スコアを計算する.具体的には,$X$内の各節$c_x\inX$のスコアの平均値を,選択肢$x$のスコアとする.節$c_x$のスコアは,$c_x$と,$T$内の各節$c_t\inT$との類似度の最大値とする.\end{description}節同士の類似度は,節同士の共通する要素の割合(オーバーラップ率\cite{Hattori2013})と,2つの節の節ラベルが一致する場合のボーナスの和と定義する.\subsection{評価実験}センター試験の過去問および代ゼミセンター模試過去問(以下,代ゼミ模試とよぶ)を用いて,本文照合法および節境界法の評価を行った.センター過去問は10回分,代ゼミ模試は5回分の試験データを使用した.傍線部問題の総数は,センター過去問が40問,代ゼミ模試が20問である.\subsubsection{実験結果}本文照合法ソルバーと節境界法ソルバーを,センター過去問,および代ゼミ模試に適用した結果(正解数)を\TABREF{tab:kokugo:result}に示す.この表のP-$m$-$n$は,照合領域(本文の傍線部の前後何段落を照合領域とするか)を表し,$C^1$や$L$などは,オーバーラップ率として何の一致率を用いるかの単位を表す(たとえば$C^1$は文字unigramを用いることを表す).また,選択肢の事前選抜を行う場合をps,行わない場合をnonで表す.これらのパラメータの組み合わせ56通りについて,正解数を調査した.\begin{table}[b]\caption{代ゼミセンター試験2014国語の問題構成}\label{tab:kokugo:mondai}\input{05table13.txt}\end{table}\begin{table}[b]\hangcaption{センター過去問と代ゼミ模試に対する正解数(本文照合法/節境界法,上段がセンター40問,下段が代ゼミ模試20問に対する結果)}\label{tab:kokugo:result}\input{05table14.txt}\end{table}\TABREF{tab:kokugo:result}では,本文照合法ソルバー,節境界法ソルバーの正解数を,この順に斜線で区切って示している.また,上段にはセンター過去問の正解数,下段には代ゼミ模試の正解数を示している.半数以上の問題に正解した場合の正解数は,ボールド体で示している.\TABREF{tab:kokugo:result}を見ると,センター試験と代ゼミ模試の問題は,性質が異なるということがわかる.センター過去問に関しては,多くのパラメータ(45/56)において,節境界法の正解数が本文照合法の正解数以上となったのに対し,代ゼミ模試に関しては,56通りすべてのパラメータにおいて,本文照合法の正解数が節境界法の正解数以上となった.また,本文照合法では2つの問題データ間で正解率があまり変わらないのに対し,節境界法では全体的にセンター過去問よりも代ゼミ模試の正解率の方が低い.ソルバーは,解答を出力する際,照合スコアの高い順に選択肢番号を出力するが,このとき,スコア上位に正解が含まれた設問数を表\ref{tab:kokugo:rank_in}に示す.パラメータは,センター過去問または代ゼミ模試で,比較的成績のよいものを3つ選んだ.R@$n$は,スコア順位で$n$位までに正解が含まれたことを表す.(節),(本)はそれぞれ節境界法,本文照合法を表す.\begin{table}[t]\caption{ソルバー出力の上位に正解が含まれる設問数}\label{tab:kokugo:rank_in}\input{05table15.txt}\end{table}\TABREF{tab:kokugo:rank_in}を見ると,ほとんどの問題で正解選択肢が選択肢5つのうちの上位3位までには入ることがわかる.スコア上位の選択肢に対して,本文と合致しない部分の検出ができれば,より正解数が向上することが期待できる.\subsubsection{典型的な難問例}本文照合法,および節境界法は,いずれも文字列の表層的類似度を照合スコアに用いているため,本文の解答根拠部分と選択肢との間で表層的に全く異なる言い回しが用いられているような問題には正解できない.センター過去問の40問の傍線部問題を調査したところ,そのような問題は多く存在した.その中でも,以下の3つのタイプの問題は,ソルバーにとって特に難問であると考えられる.\begin{itemize}\item[A]本文で抽象的に述べている内容を具体的に述べた選択肢を選ぶ設問(40問中2問)\item[B]本文で具体的に述べている内容を抽象的に述べた選択肢を選ぶ設問(40問中4問)\item[C]本文と選択肢の抽象度は同じだが,選択肢が本文の内容を,句以上の大きな単位で全面的に言い換えている設問(40問中16問)\end{itemize}タイプAの設問の例を\FIGREF{fig:kokugo:difficultA}に,タイプCの設問の例を\FIGREF{fig:kokugo:difficult}に示す.\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f3.eps}\end{center}\caption{タイプAの難問の例(2001年本試験第1問の問2)}\label{fig:kokugo:difficultA}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f4.eps}\end{center}\caption{タイプCの難問の例(2005年本試験第1問の問4)}\label{fig:kokugo:difficult}\end{figure}タイプAおよびBの設問で求められる抽象と具体を結びつける能力は,抽象語と具体例を結びつける辞書的なデータの作成や,多数の抽象-具体テキストペアの蓄積が可能であるような,ごく限定的な主題を除き,現在の言語処理・人工知能技術の射程外であろう.タイプCの設問は,形式的には言い換え認識あるいは含意関係認識に近い問題であるものの,最先端の手法と表層的類似度に基づく手法との差が小さい現在の技術水準\cite{RITE2}では,やはり解決不可能な問題が多いと考えられる.\subsubsection{人間の解答との比較}代ゼミから提供されたデータを用いて,ソルバーの解答傾向が人間(受験生)のそれと似ているかの比較を行った.代ゼミ模試20問において,ソルバーの解答結果と,受験生の解答番号別マーク率を比較した.受験生の選んだ選択肢$n$位までにソルバーの選んだ選択肢が含まれる設問数を\TABREF{tab:kokugo:human1}に示す.この表のR@$n$は,受験生のマーク率順位の$n$位までにソルバー出力が含まれたことを表す.\TABREF{tab:kokugo:human1}を見ると,節境界法に比べて,本文照合法の解答傾向の方が受験生と似ている.代ゼミ模試において節境界法より本文照合法の方が好成績であったことを考慮すると,代ゼミ模試においては,受験生と解答傾向が似ているソルバーの方が,正解率が高くなると考えられる.\begin{table}[t]\caption{受験生の選んだ選択肢上位にソルバー出力が含まれる設問数}\label{tab:kokugo:human1}\input{05table16.txt}\end{table}\begin{table}[t]\caption{人とシステムの正答傾向の比較(国語評論傍線部問題)}\label{tab:kokugo:cross}\input{05table17.txt}\end{table}代ゼミ模試20問に対する,ソルバー(本文照合法P-0-0,$C^1$,ps)と受験生のマーク率1位の解答のクロス表は\TABREF{tab:kokugo:cross}のようになった:クロス表では,ソルバーが正解した問題では受験生も正解が多い傾向があるように見える.しかし,Fisherの正確確率検定の結果は$p=0.34$で,ソルバーと受験生の正答の分布が独立であることは棄却できなかった.\subsection{国語:まとめと今後の課題}本節では,東ロボ国語チームが提案,実装した評論傍線部問題の自動解法とその成績,および解答結果の分析について述べた.実装した本文照合法,節境界法は,いずれも文字列の表層的類似度を用いる解法であり,本質的に正解できない難問もあるものの,ソルバーは,適切なパラメータさえ選べば,多くの問題に対してスコア順位で上位に正解選択肢を出力できた.現在のソルバーは,全ての傍線部問題に対して同じパラメータ,同じ解法で解答するが,今後は,問題を換言型,理由型などいくつかの型に分類し,より適したパラメータ,特徴を用いて解く必要があると考えられる.たとえば,傍線部の理由を問う理由型の問題の場合,本文傍線部周辺の比較的狭い領域の,因果関係を表す表現などが手がかりとなるであろう.また,評論には例示や引用がしばしば用いられるため,本文および選択肢を,本質的に重要な部分とそうでない部分に分け,重要な部分のみで照合を行うようなアプローチも有用であると考えられる.傍線部問題は小説を本文とする第2問でも大きなウェイトを占める.小説の傍線部問題は形式的には評論のそれと類似しているものの,本文には直接記述されない登場人物の感情・思考などが問われる問題が多く,評論と同様の表層的類似度を用いた手法ではチャンスレベルと大差ない正解率となることが分かっている\cite{BaseMethod}.テキストから書き手の感情(極性)を推定する研究はこれまで非常に多くあるが,小説の読解問題として問われるような細かな感情タイプを表層的手がかりから得る技術の実現可能性は今のところ明らかでない.漢字(評論)の問題は辞書を用いた手法で概ね十分な精度が出ている(2013年度,2014年度とも代ゼミセンター模試で全問正解).語句の意味(小説)に関する問題に関しては,通常の語義を問う問題では国語辞書を用いた手法で高い精度が得られている.しかし,語句の意味に関する問題では,本文で比喩的に使われている語句の意味を文脈に即して選ばせるタイプの問題がしばしば出題され,これらに対する正解率が低い.このタイプの問題の解決には,語句が比喩的に用いられているか否かの識別とともに比喩の内容を本文に即して解釈することが必要であり,特に後者は難しい課題である.古文(第3問)の解釈問題に対しては,古文-現代語対訳コーパスから学習した統計的機械翻訳モデルを利用し,本文を現代語訳した上で評論の傍線部問題と同様の本文と選択肢の間の表層的類似度を用いた手法で50\%程度の正解率を得ている.BLEUによる訳質評価および目視による主観評価の結果から,古文-現代文翻訳の品質には向上の余地が認められる.しかし一方で,機械翻訳の代わりに人手による参照訳を用いた比較実験では正答率の向上が見られず,通常の意味での翻訳品質の向上は正解率の向上に寄与しないことが示唆される.翻訳品質が直接正答率に結び付かない要因としては,小説の傍線部問題と同様に,直接記述されない心情を問う問題が多いことに加え,現在用いている単純な表層的類似度では,例えば重要語句「をかし」の解釈などといった,問題のポイントとなる部分がすくい取れていないことが考えられる.評論・小説および古文の各大問の最後では,表現の特徴・効果や議論の構成について問うタイプの問題が出題されるのが通例である.しかし,これらの問題に関しては,文章ジャンルを問わず,ほぼ手つかずの状態にある.表現の特徴・効果の理解は,現在の言語処理の主要な目標である文章の意味そのものの理解を超える課題であり,当面,解決の見込みはないだろう.議論の構成に関する問題は,自動要約や修辞構造解析など現在の言語処理における取組みと重なり合う部分もあるものの,抽出的でなく抽象度の高い要約を選択する,あるいは,修辞構造の効果を内容に即して説明する選択肢を選ぶ,など,既存の要素技術の組み合わせではカバーできない課題が多い.最後に,漢文の解釈問題に関しては古文と同様に現代日本語訳を経由して,翻訳された本文と選択肢との類似度に基づき解答する手法が考えられるが,入手可能な対訳リソースが無いため手つかずの状態になっている.\def\typename#1{} \section{数学問題のエラー分析} \label{sec:suugaku}数学では,問題文からの情報抽出やデータベースからの情報検索のみで解答が得られる問題は例外的であり,一般には計算や推論などの数理的操作によって解を導く必要がある.このため,問題文を分析し,数理的操作の入力となる何らかの形式表現を得るステップが不可欠となる.この中間的な形式表現としては,答えを直接導く計算式から論理式による問題全体の意味表現まで様々なものが考えられ,言語処理部分でのアプローチも,ターゲットとなる形式表現の枠組みに応じ種々の手法があり得る.適切な形式表現の枠組みを選ぶにあたって,まず考慮すべき点として,想定する問題の定型性が挙げられる.例えば,Kushmanら\cite{Kushman2014}は対象とする問題を連立一次方程式で表現される代数の文章題に限定することで,言語処理部分を問題テキスト中の名詞および数量と方程式中の変数および係数とを対応付ける学習問題に帰着している.我々は多様な問題を同一のシステムでカバーすることを目的として論理式による表現を採用し,文法主導の翻訳によって問題文から形式表現を得るアプローチを選択した.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f5.eps}\end{center}\caption{数学解答システムの概要\label{fig:mathoverview}}\end{figure}\FIGREF{fig:mathoverview}に示すように,解答システムは言語理解部と自動演繹部,および両者をつなぐ意味表現の書き換え処理部からなる.言語理解部の中心は組合せ範疇文法(CombinatoryCategorialGrammar,CCG)\cite{steedman2001syntactic,Bekki2010}による構文・意味解析である.CCGによって導出された各文に対する意味表現は,共参照解析および文間関係の解析を経て,問題テキスト全体に対応する意味表現へと合成される.言語理解部の各処理コンポーネントは現在開発中の段階にある.このため,代ゼミ模試による中間評価では,(1)問題文中の数式部分に対する意味表現,(2)文節間係り受け関係,(3)共参照関係,(4)文間の論理的関係,および(5)評価時点のCCG辞書に含まれていなかった単語・語義,の5種のアノテーションを施した問題文を入力とした.問題の意味表示は,これらのアノテーションを制約としてCCG導出木を探索し,導出木と文間の論理関係に沿って辞書中の単語の意味表示を合成することで半自動的に得た.よって,模試による評価結果は,曖昧性解消処理および辞書の被覆率に関し理想化した場合の性能の上限値として解釈すべきものである.手法および入力アノテーションの詳細については,文献\cite{Matsuzaki2013IJCNLP,Matsuzaki2014AAAI}を参照されたい.今回,入力アノテーションで代替した処理に関する考察および見通しについては本節末で述べる.\begin{table}[t]\caption{数学(I+A,II+B)の失点要因}\label{tab:suugaku:errortype}\input{05table18.txt}\end{table}\TABREF{tab:suugaku:errortype}は,2014年度代ゼミ模試の「数学I+A」および「数学II+B」における失点105点の原因の内訳である.以下では,アノテーションによって理想化された条件でも残るエラーのうち最も多くを占める2要因である,「表現の冗長性による計算量の爆発」と「行為・操作結果の表現」に関する問題について主として述べる.これら以外で,言語処理に関係する主要な要因としては,確率・統計に関する問題に対して,意味表現の設計を含め言語処理部分が未着手の状態であったことが挙げられる.これは,確率・統計の問題では「ボールを取り出す/戻す/テーブルに置く」「サイコロを用いてゲームをする」等々,あらかじめ形式的な定義を与えることが難しい要素が頻出するため,本節で示した問題の論理表示を経由する形式的なアプローチはなじまないと考えたためである.これとは異なるアプローチによる確率問題への取り組みについては別稿\cite{Kamiya2015}を参照されたい.\subsection{意味表現の冗長性}文法主導の方法で構成的に導出した意味表現は,非常に冗長になる傾向がある.例として,「線分」という一般名詞を考えてみる.「線分」に対応する意味表現は,あるモノが線分であることを表す一項述語($\text{segment}(\cdot)$とする)であると考えるのが一般的である.このとき,単語「線分」の一般的な用例に従い,述語$\text{segment}(\cdot)$は,縮退したケースすなわち両端が一致した線分(つまり一点)を除外するよう定義されるべきである.この非縮退条件は,どのような文脈においても単語「線分」の翻訳が妥当なものとなるために必要である.しかし,例えば「点(0,0)と点(1,1)を両端とする線分$L$」といったフレーズのように,非縮退条件は非常にしばしば文脈によって含意される.左記のフレーズの場合,その形式表現は述語$\text{segment}(\cdot)$の定義から,おおむね「$L$は(0,0)と(1,1)を通る直線上で(0,0)と(1,1)の間にある点の集合で,かつ点(0,0)と点(1,1)は異なる点である」という内容となり,「かつ」以下の部分が冗長である.この例では,冗長な部分はそれ自体で自明に真であるが,一般には問題文中に現れるいくつかの条件を総合したときにはじめて非縮退条件が満たされていることが分かる.このため,自動演繹の過程では,問題を解く上で本質的な演繹と,冗長な非縮退条件が実際に成立していることの証明にあたる非本質的な演繹が入り混じった形で行われることになり,演繹の計算コストが増大する.ここまでは非縮退条件を例として説明したが,その他にも等号関係の伝播による冗長な表現($a=c\Leftrightarrow\existsb(a=b\wedgeb=c)$)や一般性を失う事なく除去できる対称性など,意味表現の冗長化の原因は複数ある.これらはいずれも語彙の意味定義の文脈独立性および意味合成の構成性に起因するもので,本手法における意味解析の原理の副作用というべきものである.2014年度の代ゼミセンター模試で正解できなかった問題の内,得点にして27\%(28点)が,冗長かつ複雑な意味表現を対象とする演繹処理が制限時間内に終了しなかったことによるものであった.ここで計算量が問題となっているのは実閉体の式に対する限量子除去と呼ばれる処理\cite{qebook-e,IwaneYAY13}であり,用いているアルゴリズムの最悪計算量は式中の変数の数の2重指数のオーダーである.このため,言語処理の結果出力される式から不要な変数を除去することは極めて重要となるが,一方で,数式処理によってこれを実現する一般的な手法は存在しない(であろう)ことが分かる.よって,式の冗長性の解決へ向けては,条件の対称性など問題の数理的特徴を利用した発見的手法とともに,文法および意味合成手続きの特徴を考慮した,言語解析からの出力に特有の冗長性を除去する手法の開発が必要であろう.\subsection{行為結果の表現}現在の我々の意味表現体系で扱えない例として,行為や操作の結果を表す表現を取り上げる.2014年度センター模試数学I・Aでは\begin{center}104を素因数分解すると{\setlength{\fboxsep}{0cm}\fbox{ア}}$^3$$\cdot${\setlength{\fboxsep}{0cm}\fbox{イウ}}である.\end{center}という文を含む出題があったが,現在の我々の文法体系ではこの文に対する意味合成ができない.同様の「XをVするとYとなる」という構造を持つ文(以下,「行為結果文」と呼ぶ)は他にも\begin{itemize}\item$n$を2乗すると4の倍数となる.\item放物線$C$を$y$軸方向に1だけ平行移動すると放物線Dとなる.\item円の半径を2倍にすると面積は4倍になる.\item方程式$x^2+2x+1=0$の左辺を因数分解すると$(x+1)^2=0$となる.\end{itemize}など種々あり,数学テキストでは比較的よく現れるタイプの文である.2014年度の代ゼミ模試では,数に対する操作の表現を含む問題で上記の理由によって正解しなかったものが20点分,類似の理由で,数式に対する操作の表現を含む問題で正解しなかったものが18点分あり,合わせて失点全体の36\%を占めていた.動詞「なる」および接続助詞「と」の通常の用法も考慮すると,行為結果文「XをVするとYとなる」の意味表現としてもっとも表層構造に忠実なのは以下のような内容のものだろう:\begin{enumerate}\item行為Vの前の世界$W_1$と行為後の世界$W_2$には,ともにモノXが存在する.そして,\item行為Vの結果モノXの性質は変化し,行為後の世界$W_2$ではモノXとモノYは一致する,あるいはモノXは$W_2$では性質Yを満たす.\end{enumerate}ここでは行為Vの前・後における世界の変化を捉えるために,ある種の時間の概念(ないし複数世界間の推移)が意味表示の体系に持ち込まれている.しかし,実際に問題を解くために上記のような行為結果文から読み取る必要がある意味内容は,通常の述語論理の枠組みで十分表現可能である.例えば,上の箇条書きの最初に例に対しては「$n^2$は4で割り切れる」という表現で十分である.また,明示的に時間の推移を表す「点$P$は速度$v$で動き,時刻$t$に点$Q$に到達する」といった表現を含む問題は比較的少数であることも考えあわせると,システムの現在の開発段階で意味表現に時間の概念を持ち込む利得は意味表現・言語解析および推論の複雑化に見合わないと考える.幸い,これまでに観察された行為結果文は定型的なものが多く,時間の概念を含まない現在の枠組みでも,必要な意味表現を合成することは多くの場合に可能であると思われる.特に「XをVするとYとなる」という形の文については,下記の2つの方針が考えられる:\begin{description}\item[方針1]主節「Yとなる」はガ格のゼロ代名詞を持ち,そのゼロ代名詞は間接照応で「XをVした結果」を指すと考える.この方針では節「XをVすると」は意味表現に直接は寄与せず(翻訳されず),「XをVした結果がYとなる」に相当する意味表現が作られる.\item[方針2]句「Vすると」は右にガ格を欠いた一項述語を項として取り,左にヲ格名詞句を項として取ると考える(即ち,「Vすると」は範疇\typename{S{\backslash}NP_{o}/(S{\backslash}NP_{ga}})を持つ).\end{description}方針1のゼロ照応の解決は,行為結果文の定型性を利用することで比較的容易に実現できると予想される.方針2の利点としては,ゼロ照応解決に依らず,CCGによる解析の枠組み内で全ての意味合成が行えることに加え,例えば「2乗すると10を超える奇数」のような連体修飾の形も上記の範疇を持つ「Vすると」の語彙項目によって同時に扱える点が挙げられる(\FIGREF{fig:suugaku:action:relative}).\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f6.eps}\end{center}\caption{連体修飾の形の行為結果文の解析\label{fig:suugaku:action:relative}}\end{figure}\subsection{数学:まとめと今後の課題}本節では,入力アノテーションによって言語処理とくに曖昧性解消処理の大部分を代替した理想化された状況でもなお残る数学解答システムのエラーに関して解説を行った.意味表現の冗長性に起因する計算量の増大は,言語処理と自動演繹の両者にまたがるタスク設定に特有の課題であり,解決に向けては,文法・意味合成の特性を踏まえた数式処理技術など分野融合的な研究が必要となる.行為結果文の分析に関する課題では,いわゆる``generalizationtotheworstcase''の問題をどう回避するか,という点が本質的である.これは,大多数の文の構造は典型的ないくつかの文法・意味現象の組み合わせとして分析可能であるにもかかわらず,多様な言語現象をカバーするための分析枠組みの下では,具体的な分析対象がどのような文であっても,その意味表現が一様に(かつ,枠組みが対象とする現象の数に関して組合せ的に)増大するという問題である.本稿では,数学テキストでの行為結果文の定型性を利用した分析の単純化を一つの解として提示した.言語系・社会系の科目に比べ数学解答システムの言語処理部の開発は遅れている.数学解答システムの開発では,これまで,自然言語から構成的に導出が可能で,かつ数理処理部への入力として適した意味表現の設計に注力してきたことが,言語処理部の開発の遅れの主たる理由である.これを裏返して言えば,数学のように形式的な意味表示のための体系がほぼ確立した分野に対しても,言語から意味表示を導出するための中間的な意味表示体系として直接利用できるような枠組みは存在しなかったということであり,言語処理と自動演繹という人工知能の2つの下位分野をつなぐ領域は大きく欠落していたと言ってよいだろう.言語処理部分の自動化に向けた主要な課題は,(i)既存技術の数学テキストへの分野適応,(ii)既存技術・コーパスでは対象とされていない現象の解析,(iii)文法の被覆率の向上,に分けられる.(i)に関しては,例えば,係り受け解析器cabocha\cite{cabocha}に対して,数学問題テキスト約10,000文に対する係り受けアノテーションを用いた追加訓練を行うことで数学問題テキストに対する解析精度を追加訓練前の87〜90\%から94\%程度まで向上できることが分かっている.このように,分野適応によって,新聞テキスト等に比べ高い解析精度が得られる処理ステップが存在する一方で,数学問題を解くという目的に向けては,さらに残る解析エラーをゼロに近づけることが必要である.上記の係り受け解析に関する結果からも示唆されるように,エラーをゼロに近づける段階では,「汎用」の分野適応手法ではなく,分野特有の知識や数理処理の結果のフィードバック等を用いた手法が必要となることが予想される.(ii)に関しては,例えば,命題を指す参照表現(「このとき」「そのとき」)や,不飽和名詞・関係名詞に係る「ノ格」のゼロ照応解決(例「平面上に直角三角形ABCがある.斜辺BCは…」)など,日本語共参照・照応解決のための学習・評価データとして近年ひろく用いられているNAISTテキストコーパス\cite{NTC2015}ではアノテーションの対象となっていない現象の解析が必要であり,既存のツール・データをそのまま利用した解決は事実上不可能である.また,文間の論理関係の解析に関しては,修辞構造解析・談話構造解析など,形式的には類似のタスクに関する研究があるが,変数のスコープ解決を含め,文間の詳細な論理的関係の解析を対象とする研究は我々の知る限り存在しない.これらの課題に関しては,まず,分野知識を前提としたルールベースの手法による達成率を調査し,その後,必要であればテキストアノテーションを介した統計手法との組み合わせを検討することが目標の実現へ向けた戦略としては妥当であろう.(iii)の文法の被覆率の向上に関しては,現在のところ見通し不明であると言わざるを得ない.名詞・動詞など内容語に関しては,辞書見出し語による文表層形の被覆率を測定することで,必要な語彙のうち辞書に未収録なものの概数が分かる.しかし,機能語は同一表層形のものが多数の異なる統語的特性および意味をもつため,被覆率の測定のためには,文が解析可能であるか否かに加え,得られた意味表示が正しいことを確認する必要がある.このため,構文解析すら自動化されていない現段階では,少数のサンプルを超えて大規模な被覆率の測定を行うことは難しい.今後は,言語解析の結果から得た解答のチェックを通じて,間接的に被覆率の測定や機能語の未知の用法の検出を行うといった工夫が必要になると考えている. \section{物理問題のエラー分析} 大学入試における物理の問題の多くは,問題に記述された状況において,ある物理現象が起きたときの物理量についてのもの(e.g.``物体が停止した時間'')や,物理現象が起きるための条件となる物理量についてのもの(e.g.``棒がすべり出さないための静止摩擦力'')である.本研究ではこの種の問題解答に向けて,物理シミュレーションによって問題に書かれている状況を再現し,得られた結果を用いて解答を行うアプローチで取り組んでいる\cite{yokno2014}.解答器は自然言語で記述された問題を入力として受け取り,まず意味解析を行い,状況の記述と解答形式の記述からなる形式表現を生成する.次に形式表現を元に物理シミュレーションを行い,得られた結果から問題に記述されている物理現象が起きた時刻における物理量を特定し,解答形式にあわせて出力することで問題に解答する.2014年度の代ゼミセンター模試による評価では形式表現からシミュレーション結果の取得に焦点を当て,人手で記述した問題の形式表現を入力とし,得られたシミュレーション結果から解答が導けるかどうかを人が判断するという設定とした.この設定においても正解が得られなかった問題とは,シミュレーション自体が行えなかった問題であり,大別すると(i)形式表現による記述が困難な状況設定を含む問題(ii)電磁誘導などシミュレーションが困難な物理現象を含む問題,の2種類がある.本稿では(i)に焦点を当て,その詳細について述べる.\subsection{形式表現}本手法で用いている形式表現は一階述語論理の形式で記述している.定義している述語は物体,物理量,物体に対する操作,物理現象を表す4種類のものである.このうち物体に対する操作と物理現象を表す述語に関しては,事象が起きた時間関係を明示するためにイベント変数を導入している.形式表現に用いる述語セットは過去のセンター試験問題を対象とした調査結果を基に人手で定義した.現時点における形式表現の定義でどの程度の問題が記述できるかを2013,2014年度の代ゼミセンター模試5回分を用いて評価した.結果を\TABREF{fig:butsuri:mondaibunrui}に示す.状況記述の項は実際に形式表現で記述できた小問の数を示している.状況記述の項の``+''以降の値は新しく述語を定義することで状況の記述が可能となった問題の数を示す.\begin{table}[b]\caption{形式記述の分析(試験5回分)}\label{fig:butsuri:mondaibunrui}\input{05table19.txt}\end{table}状況の記述ができないと判断された問題は全部で25問あり,その理由の内訳は,シミュレーションモデルの不足によるものが12問,画像で形状が指定されるオブジェクトをシミュレータに入力できないことによるものが8問,その他の理由によるものが5問であった.以下では,上位2つの原因について詳細を述べる.\subsection{シミュレーションモデルの不足}\label{sec:butsuri:complicated}物理問題の形式表現では,数学における集合論のように,全ての問題を記述しうる表現の枠組みを考えることは現実的でない.このことは,例えば力学,電磁気,波動(音波,光,弦の振動)といった多様な分野の問題を一様に「原子レベル」で記述することの非現実性から明らかだろう.すなわち,物理では各分野および問題タイプごとに適切な抽象度の物理モデルを用いる必要がある.これらのモデルには,力学や電気回路など,比較的多様な問題をひとつのモデルでカバーするものから,「両端が固定された弦の振動」といった単一の現象のみを対象とするものまで様々な抽象度のものが含まれる.ゆえに,物理問題に対する形式表現の記述とシミュレータでの実行は,(i)適切な物理モデルの選択と(ii)選ばれた物理モデルの枠組みの中での問題の解釈,という2つの側面を含む.この2つの側面は不可分であり,問題に対して適切な抽象度の物理モデルが事前に存在しない場合は,問題に対する形式的記述がそもそもできない.定性推論\cite{forbus1984}などのように,基礎的なレベルの状況記述から,より抽象的で演繹に適したモデルを自動的に生成することを目指す研究は存在するものの,広範囲の物理問題に適用可能な解答プログラムの開発を5〜10年のスパンで目指す本研究ではスコープ外の目標と見なすべきであろう.\TABREF{tab:butsuri:riyuu}の「シミュレーションモデルの不足」は,上記の意味で適切な物理モデルが評価時に存在しなかった問題である.ここに分類された問題のうち半分以上(12問中9問)は,例えば,「一定の風速および方向の風が吹く中で伝わる音波のドップラー効果」や「質量$2~m$の重りをつるすと切れる糸を用いた円錐振り子」のように,現在の音波の伝達モデルや力学モデルを拡張することで表現が可能になる問題である.しかし,そもそもどのような抽象化をすべきか現段階では明らかでない「伏せたコップを水中に沈め,水圧によってコップの下端から$x$cmの高さまで水が入りこんだ状態」のような問題も含まれている.\begin{table}[b]\caption{状況記述ができない理由}\label{tab:butsuri:riyuu}\input{05table20.txt}\end{table}本研究では力学に関係したモデルから開発を始めたため,力学に関しては記述可能な問題の割合が相対的に大きい.今後は,「切れる糸」など力学モデルの中で例外的な扱いが必要な現象を洗い出し,モデルに取り込むとともに,現象に対し個別的なモデルが必要な問題が多い波動などの分野に関して,どの程度のモデル数が必要か,現実的に実現可能なモデル数に収まるのかを見定める必要がある.\subsection{自由形状の入力}問題には「平らな床の上に置かれた立方形の台」のように基本的な小数の要素で構成可能な状況だけでなく,\FIGREF{fig:butsuri:fig1}のように画像によって与えられた複雑な形状の要素が出現するものがある.これらは原理的には力学モデル内で扱うことが可能であるが,シミュレータへと状況を入力するために画像処理を必要とし,さらに自由形状のオブジェクトを取り扱うためのシミュレータ機能の実現コストが大きいため,現在は未着手の状態にある.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f7.eps}\end{center}\caption{複雑な形状の例}\label{fig:butsuri:fig1}\end{figure}\subsection{物理:まとめと今後の課題}物理問題の多くは問題で与えられた状況に対して起きた物理現象について,その時の物理量やその物理現象が成立するための条件を問うものである.このような問題に対して,我々は問題に書かれている状況を認識し,その状況を起点とする物理シミュレーションを行い,得られた物理量をもとに解答するというアプローチで取り組んでいる.これまで,十分な範囲の問題を記述することができ,かつ,その情報から物理シミュレーションが可能となるような形式表現の定義を行ってきた.\TABREF{fig:butsuri:mondaibunrui}に示すように,まだ記述できない問題は残っているため,今後も定義を改良する必要があるが,同時に自然文として記述されたテキストからこの形式表現への変換にも取り組む予定である.問題テキストから形式表現への変換は,現在さかんに研究が進められているsemanticparsingの一例と見なすことも可能ではある.しかし,これまでのsemanticparsingのタスク設定では,翻訳の目的言語となる形式表現のセマンティクスがあらかじめ固定されているのに対し,物理問題の状況理解では目的言語を定める物理モデルの選択が形式表現への翻訳と一体になっている点が大きく異なる.これによって,物理問題の意味解析には,例えば「鉄球」という語に対し「質点」を表す表現を割り当てるのか,あるいは大きさを持つ剛体を表す表現を割り当てるのか,という訳語選択に当たるレベルの曖昧性解消だけでなく,「時刻$t$に車のサイレンが発した音波」といった表現から「気圧の周期変動の伝播」としての音波ではなく,音源から音波があたかも「物質のように」放出される音波モデルを選択すべきことを識別する,といったテキスト解析に基づく物理モデルの選択の問題が含まれる.また,現時点では,数値データとして出力されるシミュレーション結果を人手で解釈して解答しているが,最終的にはこの部分も自動化する必要がある.この部分は,センター試験形式の物理問題では,選択肢として与えられる式やグラフ,あるいは選択肢および本文における自然言語による状況記述と,物理的状況を表す数値データとの整合性ないし含意関係を判定する問題である.このうち,自然言語による記述と数値データを比較判定する問題は,問題の状況理解とほぼ裏表の関係にあり,例えば「止まる」「離れる」等々といった状況を表す語に対し数値(時系列)データに対する条件を結びつけた辞書を用いて,数値データと言語記述の整合性を判定する手法の開発を進めている\cite{YokonoNLP2013}.また,物理の問題には問題文とともに状況を示した図が添付されていることが多い.この中には,\ref{sec:butsuri:complicated}節で挙げたように,物体の形状が図でのみ与えられるなど,図の解釈が必須となる問題も存在するが,テキストで与えられた状況記述の曖昧性を除去する目的で図が添えられた問題も多数存在する.後者のタイプの問題に対しては,画像理解とテキスト理解を融合した状況理解の手法の開発とともに,言語理解に基づくシミュレーション結果がテキストでの記述と合致するか,など画像理解以外の手段でテキスト解釈を補う技術を開発することを試みている. \section{世界史・日本史のエラー分析} 本節では,2014年度の代ゼミセンター模試に対し,狩野\cite{kano2014jsai}のシステムが出力した解答のエラー分析について報告する.本システムは,山川出版社の世界史または日本史の用語集を知識源とし,設問から抽出したキーワードが知識源の中でどのように分布しているかをスコアとして算出し,解答を選択する.具体的には,設問および知識源に対して以下の各処理を行い,解答の選択を行う\footnote{本システムは図表の処理は行っておらず,図表に対して人手でアノテーションされたテキストを利用して解答を行う.}.\begin{enumerate}\item問題文解析:問題文のテキストを前処理し,キーワード抽出を行う対象テキストを切り出す.一般に,設問は背景説明のテキストや導入文,実際に正誤判定の対象となる文など,複数のテキストから構成される.そこで,これらのテキストから後段の処理で必要となるテキスト箇所を抽出する必要がある.\itemキーワード抽出:前処理した問題文テキストから,スコア付けに用いるキーワードを抽出する.キーワードリストとして,Wikipediaの見出し語から自動抽出した語句を人手でクリーニングしたものを用い,単純なマッチングでキーワード抽出を行った.\item知識源検索:抽出したキーワードで知識源を検索し,キーワードに合致するテキストを得る.\itemスコア付け:キーワードと検索結果テキストとの一致度をスコア付けする.後述するように,センター試験では文の正誤を判定する問題が多い.誤りを含む文では,知識源のまとまった範囲内にキーワードが出現せず,別の場所に出現すると考えられる.したがって,検索結果テキストにキーワードが含まれない場合は,ペナルティとして負のスコアを与える.\item解答選択:文の正誤を判定するタイプの問題に対しては,スコアが大きいものを正しい文として解答を選択する.語句を解答するタイプの問題(いわゆるfactoid型質問応答に相当)に対しては,選択肢に挙げられた語句を問題文テキストに埋め込み,文の正誤判定問題に帰着して解答を行う.年代を解答する問題については,検索結果テキスト中の年代表現を抽出することで解答を行う.\end{enumerate}このシステムは,2013年度および2014年度の代ゼミ模試「世界史」・「日本史」において最も高い性能を示したものである.また,同システムは,センター試験の世界史過去問を用いた競争型ワークショップであるNTCIR-11QA-LabTask\cite{Shibuki2014}にも参加している\footnote{ただし,NTCIR-11QA-LabTaskでは用語集ではなく教科書を知識源として用いている.}.同ワークショップに参加した他のシステムにも本システムと同様にキーワードないし係り受け関係をクエリとした検索を基礎とするシステムが多数あった.これらのことから,本節で分析対象とするシステムは,分野特有の処理に依存しない,検索をベースとした汎用的なシステムとしては比較的高性能なものであると考えてよいだろう.\TABREF{tab:sekaishi:errors}に世界史,\TABREF{tab:nihonshi:errors}に日本史の問題タイプとエラー分析結果を示す.センター試験の世界史・日本史では,選択肢として与えられた文に対して正誤を判定するタイプの問題が大きな割合を占める(例えば図\ref{fig:problem_analysis_error}).語句や年代を解答するタイプの問題(例えば図\ref{fig:ontology_error})はいわゆるfactoid型質問応答に見えるが,知識源中の解答に関連する記述は多くの場合一つしか無く,大規模テキストを利用した解答のaggregationといった技術は利用できない.したがって,語句・年代と問題文との組合せの正誤を判定するタスクに帰着される.このように,知識源を的確に参照しつつ,文の正誤を判定するという処理は,上記のようにテキストの前処理,キーワード抽出,検索,スコア付け等,複合的な処理が必要であり,また各処理で高い精度が要求される.各処理は当然不完全なものであり,必ずしも排他的な関係にあるわけでもない.よって,最終的に誤答が出力された要因を単一の原因に帰着することは難しいため,\TABREF{tab:sekaishi:errors},\TABREF{tab:nihonshi:errors}では,複数の要因は別個にカウントしてエラーの分類を行った.\begin{table}[t]\caption{世界史の問題タイプと誤答の要因}\label{tab:sekaishi:errors}\input{05table21.txt}\end{table}\begin{table}[t]\caption{日本史の問題タイプと誤答の要因}\label{tab:nihonshi:errors}\input{05table22.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f8.eps}\end{center}\caption{問題文解析の誤りの例}\label{fig:problem_analysis_error}\end{figure}「問題文解析」は,問題に解答するための情報が書かれた問題文テキストを切り出す処理に起因するエラーである.図\ref{fig:problem_analysis_error}に例を示す\footnote{問題例を挙げる際には,紙面の都合上,選択肢の一部のみ抜粋する.}.この問題では,問題文中に「ノモス」「王国」「古代エジプト」といったキーワードが現れるが,実はこれらの情報は選択肢の正誤判定には無関係である.つまり,選択肢の文のみを用いて正誤の判定を行うことができる.一方,問題によっては問題文中のキーワードが正誤判定に必要な場合や,さらに背景説明のテキストも参照する必要があることもある.次のエラー要因とも関連するが,どこまでのテキストをキーワード抽出の対象とすべきかは単純には決定できない.「キーワード抽出」は,当該問題を解くのに必要・不必要なキーワードを分別できていないことに起因するエラーである.図\ref{fig:keyword_extraction_error}に例を示す.この例では,2は誤った文であるが,「君」「直」などがキーワードとして認識されず,これらの語が知識源に現れなかったにも関わらずペナルティがかからなかったため,正しい文と判定されてしまった.これ以外にも,例えば「法制」「編集」といった一般語がその問題文中では重要なキーワードとなっているような場合や,逆に「アジア系」のような専門用語らしい語が知識源には明示的に書かれていないため,ペナルティがかかってしまった例がある.世界史・日本史の知識がある程度ある人間が読めば,重要なキーワードと重要ではない(知識源に明示的に書かれていなくても正誤判定には影響しない)キーワードがある程度区別できるが,これを実現するのは容易ではない.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f9.eps}\end{center}\caption{キーワード抽出の誤りの例}\label{fig:keyword_extraction_error}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f10.eps}\end{center}\caption{データベース・オントロジー的知識が利用できる例}\label{fig:ontology_error}\end{figure}「一般知識」は,解答のために必要な知識が明示的に知識源に記述されていないことに起因するエラーである.世界や日本の地理・時代に関する知識,一般常識に照らした判断,等が必要とされる.単純な例としては,図\ref{fig:ontology_error}のように,「岩宿遺跡」がどの時代の遺跡か,という知識を予め用意しておけば解答できるような問題もある.このような知識は必ずしも教科書・用語集に明示されているわけではないが,データベースなどの形式で整理しておくことは可能である.より困難な例を図\ref{fig:knowledge_error}に示す.この場合,知識源の文章を読めば,「北海道に水稲耕作は及ばず」が妥当であることが分かるが,この判断のためには農耕,狩猟,水稲といった概念の知識と,それらを対比して判定を行う処理が必要である.このように知識源の記述と設問の記述が直接一致しないケースは特に日本史の問題に多い.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f11.eps}\end{center}\caption{一般知識が必要な例}\label{fig:knowledge_error}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f12.eps}\end{center}\caption{言語知識が必要な例}\label{fig:linguistic_knowledge_error}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f13.eps}\end{center}\caption{言語構造が必要な例}\label{fig:linguistic_structure_error}\end{figure}「言語知識」および「言語構造」は,自然言語処理技術の利用・高精度化により解決できる可能性のあるエラーである.前者は,例えば「解読」と「未解読」が反義語であるといった語彙知識や,「収穫した稲の脱穀」と「精穀具」のパラフレーズ関係など,言語知識を利用することで正答が得られる可能性があるものである.「解読」「未解読」のような例であれば,言語リソースの整備により解決できる可能性が高い.しかし,図\ref{fig:linguistic_knowledge_error}に示すような例はパラフレーズ認識あるいはテキスト間含意関係認識に相当するものもあり,必ずしも容易に解決できるものではない.後者は,係り受け解析,述語項構造解析,否定の解析などによって,文の意味の違いを認識することが必要とされるものである.典型的には,文章中に複数の命題が記述されている場合がある.図\ref{fig:linguistic_structure_error}に示す例では,正解は2であるが,4のキーワードも同一文章中に含まれているため,スコアが同率となり,最終的に誤った解答を選択してしまっている.この例は係り受けあるいは述語項構造が正確に得られれば正しい解答が得られると期待される.また,図\ref{fig:linguistic_knowledge_error}の例では,システムは2を選択したが,これは知識源には「田植えをした可能性も高まった.」と記述されており,否定やモダリティの正確な解析によって正答が得られる可能性がある.ただし,このような言語知識・言語解析は新たなエラー要因を持ち込むため,単純にこれらの技術を導入することでは全体の正答率が下がる可能性が高い.必要な場面で適切かつ正確に言語処理技術を利用する必要がある.最後に,2014年度代ゼミセンター模試「世界史B」36問について,システム出力と受験生の選択率一位の解答(「人間」)とを比較したクロス表を\TABREF{tab:shakai:cross:sekaishi}に示す.全体の問題数は少ないが,人間が正解・不正解だった問題グループそれぞれに対するシステムの解答は正解・不正解がおよそ半数ずつになっており,人間とシステムの正解分布は独立であることがうかがわれる.実際に,Fisherの正確確率検定を適用した結果は$p=0.68$であり,人間・システムの正解・不正解が独立であることは棄却されなかった.また,人間が不正解かつシステムが正解した3問(受験生の正答率はそれぞれ22.5\%,35.3\%,14.9\%)では,いずれもシステムは知識源から妥当なテキストを取得しており,単なる偶然ではなくシステムの性能が発揮された形で大多数の受験生が誤った問題に正解している.\begin{table}[t]\caption{人とシステムの正答傾向の比較(世界史)}\label{tab:shakai:cross:sekaishi}\input{05table23.txt}\end{table}\subsection{世界史・日本史:まとめと今後の課題}本節では,世界史・日本史の試験問題を対象に,狩野\cite{kano2014jsai}のシステムのエラー分析を行った.本システムは構文解析,意味解析等の自然言語処理を行わず,設問と知識源とのキーワードの一致をスコア付けする方式をとっている.自然言語処理の立場からは,より深い言語処理技術を利用することで正答率を上げるというアプローチが考えられるが,エラー分析の結果からは,それにより正答できる問題はそれほど多くなく,また精度が不十分な言語リソース・言語解析を導入することによる副作用も懸念される.一方,問題文の前処理やキーワード抽出に起因するエラーはまだ一定数残っており,これらは改善の余地があると考えられる.また,特に日本史では一般知識・常識や,知識源に直接記述されていない知識を統合的に利用する必要がある問題が見られる.これを解決することは容易ではないが,自然言語理解の興味深い未解決問題の一つと見ることもできる. \section{おわりに} 本稿では大学入試センター試験形式の模試問題データを主たる対象として,英語・国語(現代文評論)・数学・物理・日本史・世界史の各科目に対する解答システムのエラーを分析した.本稿でエラー分析を行った問題タイプのうち,現時点でもっとも解答精度が高いのは,英語の「発音・アクセント」「文法・語法・語彙」「語句整除完成」「未知語(句)語義推測」であった.これらの問題タイプでは,辞書ベースの手法が非常に有効であった「発音・アクセント」を例外として,いずれも巨大なテキストデータを利用した手法(N-gram,word2vec)によって高い正答率を得ている.また,「発音・アクセント」の強勢の予測に関する問題を例外として,他3つの問題タイプでは,マルコフ仮定から大きく外れる文法的な依存関係に起因するエラーを構文解析を利用して解消する,低頻度語(句)は辞書の語釈文で置き換えた上で類似度を算出する,など,エラー傾向の分析によって,ある程度まで解決へ向けた方針が明らかになっている.これに対し,国語現代文(評論)の読解問題では,50\%程度の解答精度は実現できており,現在の技術レベルを大きく超えると思われるいくつかの問題タイプを特定することまではできているものの,解決可能性のあるエラータイプを言語現象と結びつけた形で類型化することは現在できていない.そのひとつの原因は,シンプルではあるが挙動の直観的把握が難しい,表層類似度に基づく手法を用いていることにある.予備校による模試と実際のセンター試験で,相性のよい手法が異なるといった発見もあったが,同様の理由でその原因の特定には至っていない.今後,本文の修辞構造の解析などと組み合わせ,手法を改善するにつれ,より詳細なエラー分析が可能になることが期待される.数学および物理では,これまで主として中間表現の設計および言語処理と数理的演繹システムとの接続部分に注力して研究を進めており,システム全体の自動化に関しては他科目に比べ遅れている.他のテキストドメインに比べ,はるかに明確な意味表示を持つと考えられる数学や物理においても,言語からの翻訳を考慮した中間的な意味表示の体系が,再利用可能な形で存在しなかったことは,これまでのNLP/AIにおける欠落といってよいだろう.中間表現の設計が物理に比べやや進んでいる数学に関しては,言語処理と演繹処理の接続に由来するエラーとして,表現の冗長性による計算量の爆発の問題があることを示し,分野融合的な解決が必要であることを述べた.日本史・世界史のエラー分析では,問題文および知識源テキストの言語解析や,分野知識・言語知識・一般的な知識など種々のタイプの知識の利用など,エラー要因あるいは改善へ向けた要素が多岐に渡ることを示した.また分析の結果から,現在のシステムで最も改善が有効であろうポイントとして,選択肢からのキーワード抽出および問題文の前処理を挙げた.いずれも本質的には歴史分野に関する一定の知識・理解を要する処理であり,ノイズを含む知識リソースの導入などによる新たなエラーの発生に関する懸念はあるものの,知識リソースや要素技術自体の改良と,それらの追加要素の,解答システムへの取捨選択的な導入が改良へ向けた唯一の方策だろう.いくつかの科目・問題タイプの解答システムの分析では,最も多数の受験生が選択した解答(以下,単に「人の解答」とよぶ)とシステムの出力との比較を行った.統計的検定の結果,システムと人の解答の正答・誤答の分布が独立であるという帰無仮説がほぼ棄却($p=0.06$)されたのは英語の語句整除完成問題に対してのみであった.予備調査として,自動的な解答システムの完成には至っていない数学・物理に関しても,演繹部の能力と中間表現の複雑さと正答率との関係を見るためにシステムの正解率と受験生の正答率の関係を調べた.しかし,現在のところ両者に特に顕著な関係は無いようであった.「人のように考える」システムあるいは「人のように間違える」システムはもとより我々の目標ではない.しかし,人とシステムにとっての難易の差について今後より詳細な分析を行うことで,システムの改良に関して,更なる知見が得られることが期待される.本稿で主として取り上げた問題タイプ,また今後の課題などとして簡単に触れた科目・問題タイプを通覧すると,まず,大きな傾向として漢字やアクセント・発音,文法問題など,個別的な言語知識に関する問題については人間の平均あるいはそれ以上の精度を達成しているものが多数ある一方で,英語・国語の長文読解に代表される総合的な能力を要する問題では良くても人間の平均レベルにとどまっていることが指摘できる.また,個別的な言語知識に関する問題以外では,数学・物理など,解答システムの開発スピードは遅いが,少なくとも現状問題となっている点について現象レベルの説明が可能である科目と,国語現代文(評論),世界史・日本史など,自動システムの完成までの開発は速かったが,エラー要因の類型化が難しい,あるいはエラー要因が多岐に渡る科目との対照が明らかである.これは科目ごとに各開発チームが最も有効であると判断した手法を選択した結果であり,形式的な演繹に基づく手法と表層的手がかりによる手法の比較にみられる一般的な傾向である.しかし,例えば行為結果文についての分析から示唆されるように,数学においても出現する構文パターンに大きな偏りがあるなど,表層的な手がかりに基づく手法が有効であろう側面も確かに存在する.逆に,分析結果から示されたように,世界史・日本史にも詳細な言語解析が有効に働くであろう設問も一定数存在する.今後,各科目ともより多角的なエラー分析と総合的な問題の把握を進める上では,点数・開発スピードでは最適といえずとも,現状のアプローチとは異なる手法による結果との比較分析が有効であることが示唆される.\acknowledgment本研究を推進するにあたって,大学入試センター試験問題のデータをご提供下さった独立行政法人大学入試センターおよび株式会社ジェイシー教育研究所に感謝いたします.また,模擬試験データおよび解答分布データをご提供下さった学校法人高宮学園に感謝いたします.また,日本史および世界史用語集の電子データをご提供くださった山川出版社に感謝いたします.\bibliographystyle{jnlpbbl_1.5}\newcommand{\bibsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{新井}{新井}{2014}]{arai}新井紀子\BBOP2014\BBCP.\newblock\Jem{ロボットは東大に入れるか}.\newblockイースト・プレス.\bibitem[\protect\BCAY{戸次}{戸次}{2010}]{Bekki2010}戸次大介\BBOP2010\BBCP.\newblock\Jem{日本語文法の形式理論}.\newblockくろしお出版.\bibitem[\protect\BCAY{Caviness\BBA\Johnson}{Caviness\BBA\Johnson}{1998}]{qebook-e}Caviness,B.\BBACOMMA\\BBA\Johnson,J.\BEDS\\BBOP1998\BBCP.\newblock{\BemQuantifierEliminationandCylindricalAlgebraicDecomposition}.\newblockTextsandMonographsinSymbolicComputation.Springer-Verlag.\bibitem[\protect\BCAY{Forbus}{Forbus}{1984}]{forbus1984}Forbus,K.~D.\BBOP1984\BBCP.\newblock\BBOQQualitativeProcessTheory.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf24}(1-3),\mbox{\BPGS\85--168}.\bibitem[\protect\BCAY{船口}{船口}{1997}]{Funaguchi}船口明\BBOP1997\BBCP.\newblock\Jem{きめる!センター国語現代文}.\newblock学研教育出版.\bibitem[\protect\BCAY{Gubbins\BBA\Vlachos}{Gubbins\BBA\Vlachos}{2013}]{deplm}Gubbins,J.\BBACOMMA\\BBA\Vlachos,A.\BBOP2013\BBCP.\newblock\BBOQDependencyLanguageMmodelsforSentenceCompletion.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1405--1410}.\bibitem[\protect\BCAY{服部\JBA佐藤}{服部\JBA佐藤}{2013}]{Hattori2013}服部昇平\JBA佐藤理史\BBOP2013\BBCP.\newblock多段階戦略に基づくテキストの意味関係認識:RITE2タスクへの適用.\\newblock情報処理学会研究報告\2013-NL-211No.4/2013-SLP-96No.4,情報処理学会.\bibitem[\protect\BCAY{加納\JBA佐藤}{加納\JBA佐藤}{2014}]{Rainbow}加納隼人\JBA佐藤理史\BBOP2014\BBCP.\newblock日本語節境界検出プログラムRainbowの作成と評価.\\newblock\Jem{FIT2014講演論文集第2分冊},\mbox{\BPGS\215--216}.\bibitem[\protect\BCAY{東中\JBA杉山\JBA磯崎\JBA菊井\JBA堂坂\JBA平\JBA南}{東中\Jetal}{2015}]{eigo}東中竜一郎\JBA杉山弘晃\JBA磯崎秀樹\JBA菊井玄一郎\JBA堂坂浩二\JBA平博順\JBA南泰浩\BBOP2015\BBCP.\newblockセンター試験における英語問題の回答手法.\\newblock\Jem{言語処理学会第21回年次大会(NLP2015)}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{NTC2015}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{板野}{板野}{2010}]{Itano}板野博行\BBOP2010\BBCP.\newblock\Jem{ゴロゴ板野のセンター現代文解法パターン集}.\newblock星雲社.\bibitem[\protect\BCAY{Iwane,Yanami,Anai,\BBA\Yokoyama}{Iwaneet~al.}{2013}]{IwaneYAY13}Iwane,H.,Yanami,H.,Anai,H.,\BBA\Yokoyama,K.\BBOP2013\BBCP.\newblock\BBOQAnEffectiveImplementationofSymbolic-numericCylindricalAlgebraicDecompositionforQuantifierElimination.\BBCQ\\newblock{\BemTheoreticalComputerScience},{\Bbf479},\mbox{\BPGS\43--69}.\bibitem[\protect\BCAY{Jurafsky,Shriberg,\BBA\Biasca}{Jurafskyet~al.}{1997}]{Jurafsky:97}Jurafsky,D.,Shriberg,E.,\BBA\Biasca,D.\BBOP1997\BBCP.\newblock\BBOQSwitchboardSWBD-DAMSLShallow-Discourse-FunctionAnnotationCodersManual,Draft13.\BBCQ\\newblock\BTR\TechnicalReport97-02,UniversityofColorado,Boulder.InstituteofCognitiveScience.\bibitem[\protect\BCAY{神谷\JBA松崎\JBA佐藤}{神谷\Jetal}{2015}]{Kamiya2015}神谷翼\JBA松崎拓也\JBA佐藤理史\BBOP2015\BBCP.\newblock数学確率文章題の自動解答システムの開発.\\newblock\Jem{言語処理学会第21回年次大会(NLP2015)}.\bibitem[\protect\BCAY{狩野}{狩野}{2014}]{kano2014jsai}狩野芳伸\BBOP2014\BBCP.\newblock大学入試センター試験歴史科目の自動解答.\\newblock\Jem{2014年度人工知能学会全国大会(第28回)}.\bibitem[\protect\BCAY{加納\JBA佐藤\JBA松崎}{加納\Jetal}{2015}]{CLMethod}加納隼人\JBA佐藤理史\JBA松崎拓也\BBOP2015\BBCP.\newblock節境界検出を用いたセンター試験『国語』評論傍線部問題ソルバー.\\newblock情報処理学会研究報告\2015-NLP-220,情報処理学会.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{cabocha}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblockチャンキングの段階適用による日本語係り受け解析.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{Kushman,Artzi,Zettlemoyer,\BBA\Barzilay}{Kushmanet~al.}{2014}]{Kushman2014}Kushman,N.,Artzi,Y.,Zettlemoyer,L.,\BBA\Barzilay,R.\BBOP2014\BBCP.\newblock\BBOQLearningtoAutomaticallySolveAlgebraWordProblems.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\271--281}.\bibitem[\protect\BCAY{Li,Ran,Nguyen,Miyao,\BBA\Aizawa}{Liet~al.}{2013}]{CLEF13Li}Li,X.,Ran,T.,Nguyen,N.~L.,Miyao,Y.,\BBA\Aizawa,A.\BBOP2013\BBCP.\newblock\BBOQQuestionAnsweringSystemforEntranceExamsinQA4MRE.\BBCQ\\newblockIn{\BemCEURWorkshopProceedings:WorkingNotesforCLEF2013Conference},\lowercase{\BVOL}\1179.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{KisoNihongo}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法—改訂版—}.\newblockくろしお出版.\bibitem[\protect\BCAY{Matsuzaki,Iwane,Anai,\BBA\Arai}{Matsuzakiet~al.}{2013}]{Matsuzaki2013IJCNLP}Matsuzaki,T.,Iwane,H.,Anai,H.,\BBA\Arai,N.\BBOP2013\BBCP.\newblock\BBOQTheComplexityofMathProblems--Linguistic,orComputational?\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\73--81}.\bibitem[\protect\BCAY{Matsuzaki,Iwane,Anai,\BBA\Arai}{Matsuzakiet~al.}{2014}]{Matsuzaki2014AAAI}Matsuzaki,T.,Iwane,H.,Anai,H.,\BBA\Arai,N.~H.\BBOP2014\BBCP.\newblock\BBOQTheMostUncreativeExaminee:AFirstSteptowardWideCoverageNaturalLanguageMathProblemSolving.\BBCQ\\newblockIn{\BemProceedingsofthe28thAAAIConferenceonArtificialIntelligence},\mbox{\BPGS\1098--1104}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{Mikolov13}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems26},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Miyao\BBA\Kawazoe}{Miyao\BBA\Kawazoe}{2013}]{MiyaoKawazoe2013IJCNLP}Miyao,Y.\BBACOMMA\\BBA\Kawazoe,A.\BBOP2013\BBCP.\newblock\BBOQUniversityEntranceExaminationsasaBenchmarkResourceforNLP-basedProblemSolving.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1357--1365}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2005}]{Pang+Lee:05a}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2005\BBCP.\newblock\BBOQSeeingStars:ExploitingClassRelationshipsForSentimentCategorizationWithRespectToRatingScales.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\115--124}.\bibitem[\protect\BCAY{Pasupat\BBA\Liang}{Pasupat\BBA\Liang}{2015}]{pasupat2015compositional}Pasupat,P.\BBACOMMA\\BBA\Liang,P.\BBOP2015\BBCP.\newblock\BBOQCompositionalSemanticParsingonSemi-StructuredTables.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1470--1480}.\bibitem[\protect\BCAY{Pe{\~n}as,Hovy,Forner,Rodrigo,Sutcliffe,Forascu,\BBA\Sporleder}{Pe{\~n}aset~al.}{2011a}]{Penas2011a}Pe{\~n}as,A.,Hovy,E.,Forner,P.,Rodrigo,{\'A}.,Sutcliffe,R.,Forascu,C.,\BBA\Sporleder,C.\BBOP2011a\BBCP.\newblock\BBOQOverviewofQA4MREatCLEF2011:QuestionAnsweringforMachineReadingEvaluation.\BBCQ\\newblockIn{\BemCLEF2011LabsandWorkshopNotebookPapers},\mbox{\BPGS\19--22}.\bibitem[\protect\BCAY{Pe{\~n}as,Hovy,Forner,Rodrigo,Sutcliffe,Sporleder,Forascu,Benajiba,\BBA\Osenova}{Pe{\~n}aset~al.}{2011b}]{Penas2011b}Pe{\~n}as,A.,Hovy,E.,Forner,P.,Rodrigo,{\'A}.,Sutcliffe,R.,Sporleder,C.,Forascu,C.,Benajiba,Y.,\BBA\Osenova,P.\BBOP2011b\BBCP.\newblock\BBOQOverviewofQA4MREatCLEF2012:QuestionAnsweringforMachineReadingEvaluation.\BBCQ\\newblockIn{\BemCLEF2011LabsandWorkshopNotebookPapers},\mbox{\BPGS\303--320}.\bibitem[\protect\BCAY{佐藤\JBA加納\JBA西村\JBA駒谷}{佐藤\Jetal}{2014}]{BaseMethod}佐藤理史\JBA加納隼人\JBA西村翔平\JBA駒谷和範\BBOP2014\BBCP.\newblock表層類似度に基づくセンター試験『国語』現代文傍線部問題ソルバー.\\newblock\Jem{自然言語処理},{\Bbf21}(3),\mbox{\BPGS\465--483}.\bibitem[\protect\BCAY{Shibuki,Sakamoto,Kano,Mitamura,Ishioroshi,Itakura,Wang,Mori,\BBA\Kando}{Shibukiet~al.}{2014}]{Shibuki2014}Shibuki,H.,Sakamoto,K.,Kano,Y.,Mitamura,T.,Ishioroshi,M.,Itakura,K.~Y.,Wang,D.,Mori,T.,\BBA\Kando,N.\BBOP2014\BBCP.\newblock\BBOQOverviewoftheNTCIR-11QA-LabTask.\BBCQ\\newblockIn{\BemProceedingsofthe11thNTCIRConference},\mbox{\BPGS\518--529}.\bibitem[\protect\BCAY{Steedman}{Steedman}{2001}]{steedman2001syntactic}Steedman,M.\BBOP2001\BBCP.\newblock{\BemTheSyntacticProcess}.\newblockBradfordBooks.MitPress.\bibitem[\protect\BCAY{Watanabe,Miyao,Mizuno,Shibata,Kanayama,Lee,Lin,Shi,Mitamura,Kando,Shima,\BBA\Takeda}{Watanabeet~al.}{2013}]{RITE2}Watanabe,Y.,Miyao,Y.,Mizuno,J.,Shibata,T.,Kanayama,H.,Lee,C.-W.,Lin,C.-J.,Shi,S.,Mitamura,T.,Kando,N.,Shima,H.,\BBA\Takeda,K.\BBOP2013\BBCP.\newblock\BBOQOverviewoftheRecognizingInferenceinText(RITE-2)atNTCIR-10.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\385--404}.\bibitem[\protect\BCAY{横野\JBA稲邑}{横野\JBA稲邑}{2013}]{YokonoNLP2013}横野光\JBA稲邑哲也\BBOP2013\BBCP.\newblock物理問題解答に向けた物理量の変化に着目した動作表現の解釈.\\newblock\Jem{言語処理学会第19回年次大会発表論文集}.\bibitem[\protect\BCAY{横野\JBA稲邑}{横野\JBA稲邑}{2014}]{yokno2014}横野光\JBA稲邑哲也\BBOP2014\BBCP.\newblock論理演算と物理シミュレーションの結合による物理問題解答.\\newblock\Jem{2014年度人工知能学会全国大会}.\bibitem[\protect\BCAY{Zang,Wu,Meng,Jia,\BBA\Cai}{Zanget~al.}{2014}]{kyosei}Zang,X.,Wu,Z.,Meng,H.,Jia,J.,\BBA\Cai,L.\BBOP2014\BBCP.\newblock\BBOQUsingConditionalRandomFieldstoPredictFocusWordPairinSpontaneousSpokenEnglish.\BBCQ\\newblockIn{\Bem15thAnnualConferenceoftheInternationalSpeechCommunicationAssociation},\mbox{\BPGS\756--760}.\end{thebibliography}\begin{biography}\bioauthor{松崎拓也}{2002年東京大学工学部システム創成学科卒業.2007年同大大学院情報理工学系研究科にて博士号(情報理工学)取得.同大学助教,国立情報学研究所特任准教授を経て,2014年より名古屋大学大学院工学研究科准教授.言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{横野光}{2003年岡山大学工学部情報工学科卒業.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.同年東京工業大学精密工学研究所研究員,2011年国立情報学研究所特任研究員,2014年同研究所特任助教,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{宮尾祐介}{1998年東京大学理学部情報科学科卒業.2006年同大学大学院にて博士号(情報理工学)取得.2001年より同大学にて助手,のち助教.2010年より国立情報学研究所准教授.構文解析とその応用の研究に従事.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{川添愛}{1996年九州大学文学部文学科卒(言語学専攻).2002年九州大学大学院文学研究科博士課程単位取得退学,2005年同大学より博士(文学)取得.2002年より2008年まで国立情報学研究所研究員,2008年から2011年まで津田塾大学女性研究者支援センター特任准教授を経て,2012年より国立情報学研究所社会共有知研究センター特任准教授.人工知能学会会員.}\bioauthor{狩野芳伸}{2001年東京大学理学部物理学科卒業,2007年東京大学情報理工学系研究科博士課程単位取得退学.同研究科にて博士(情報理工学).同研究科特任研究員,科学技術振興機構さきがけ研究者等を経て,2014年より静岡大学情報学部准教授.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{加納隼人}{2010年名古屋大学工学部電気電子・情報工学科入学.2014年同学科卒業.現在,名古屋大学大学院工学研究科電子情報システム専攻在学中.}\bioauthor{佐藤理史}{1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.現在,本学会理事.}\bioauthor{東中竜一郎}{1999年慶應義塾大学環境情報学部卒業,2001年同大学大学院政策・メディア研究科修士課程,2008年博士課程修了.2001年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所に所属.質問応答システム・音声対話システムの研究開発に従事.博士(学術).言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{杉山弘晃}{2007年東京大学工学部機械情報工学科卒業.2009年同大学院情報理工学系研究科知能機械情報学専攻修士課程修了.同年日本電信電話株式会社入社.現在,奈良先端科学技術大学院大学情報科学研究科博士後期課程在学中.人と自然な対話を行う雑談対話システムの研究に従事.}\bioauthor{磯崎秀樹}{1983年東京大学工学部計数工学科卒業.1986年同大学院修士課程修了.同年日本電信電話株式会社入社.2011年より岡山県立大学情報工学部教授.博士(工学).言語処理学会,ACM,情報処理学会,人工知能学会,電子情報通信学会各会員.}\bioauthor{菊井玄一郎}{1984年京都大学工学部電気工学科卒.1986年同大学大学院工学研究科修士課程電気工学第二専攻修了.同年日本電信電話株式会社入社,2011年より岡山県立大学情報工学部情報システム工学科教授.博士(情報学).現在,本学会理事.}\bioauthor{堂坂浩二}{1984年大阪大学基礎工学部情報工学科卒業.1986年同大大学院修士課程修了.同年日本電信電話株式会社入社.2012年より秋田県立大学システム科学技術学部教授.博士(情報科学).言語処理学会,人工知能学会,情報処理学会,ACM各会員.}\bioauthor{平博順}{1994年東京大学理学部卒業.1996年同大学院修士課程修了.同年日本電信電話株式会社入社.1996年NTTコミュニケーション科学研究所,2005年NTTデータ技術開発本部,2007年NTTコミュニケーション科学基礎研究所,2014年大阪工業大学情報科学部准教授.博士(工学).2013年言語処理学会優秀論文賞受賞.言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{南泰浩}{1986年慶應大学理工学部電気工学科卒業.1991年同大学院博士課程修了.同年日本電信電話株式会社入社.2014年より電気通信大学大学院情報システム学研究科教授.博士(工学).言語処理学会,IEEE,情報処理学会,電子情報通信学会,音響学会各会員.}\bioauthor{新井紀子}{1984年イリノイ大学数学科卒業.1990年同大学院博士課程修了.1994年広島市立大学情報科学部助手.2001年国立情報学研究所情報基礎研究系助教授.2006年同情報社会相関系教授.2008年同社会共有知研究センター長.博士(理学),2010年文部科学省科学技術分野の文部科学大臣表彰.日本数学会,人工知能学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
V06N01-01
\section{はじめに} 日本語対話文における格要素の省略補完について述べる。主語や目的語などの表示が義務的でない日本語の言語処理においては、これら省略される\footnote{そもそも省略ではなく非存在とする解釈もあるが、ここでは格要素が明示されていないものすべてを「省略」と呼び、本論文の研究対象とする。}格要素を補う処理が重要である。格要素の省略は日本語に特有の現象ではなく、例えば韓国語、中国語などにも認められる。これら省略のある言語から英語やドイツ語など必須格を持つ言語への翻訳処理を行なう際には、補完処理(省略内容の推定処理)は重要な処理となる。また情報検索など、自然言語処理に関係する他の問題においても、省略補完処理は必要となる。省略された内容は、言語内、つまり省略位置以前のテキスト中に存在する場合と言語外に存在する場合に大きく分かれる。本論文では前者を文脈省略(endophoricellipsis)、後者を外界省略(exophoricellipsis)と呼ぶ。日本語の文脈省略補完に関しては従来から様々な研究がなされてきている。センタリング理論(centeringtheory)と呼ばれる一連の手法はこの一つである(最近の論文としては、例えば\cite{Strube}、\cite{Byron}、\cite{Walker}などを参照)。この理論では、`center'(談話のある時点において最も顕著な談話要素)という概念を導入することによって照応や省略の解決を行なう。また{}\cite{Dohsaka}は、日本語において発話から語用論的制約を抽出し、制約充足プロセスに基づいて文脈の下で解釈することによる文脈省略の補完手法を提案している。一方、外界省略も含めた補完手法に対しては、ヒューリスティックスなどによる経験的な解決手法を中心にいくつか提案されている。このうち日本語を対象にしたものとしては、村田ら\cite{村田}、江原ら\cite{江原}、Nakaiwaetal.\cite{Nakaiwa}の研究などがある。\cite{村田}は補完に関係する表層的な言語現象をヒューリスティックスで得点を付与し、それらの合計によって最尤の省略内容を補完している。この手法は多くの言語情報を利用した省略補完手法であるが、対話文に対しては十分な考慮がされておらず(\ref{節:比較}節を参照)、また得点の調整には困難を伴うことが予想される。また\cite{江原}は複文を単文に分割した際に生じる省略主語を補完するという問題に対して、経験的に8項目の特徴パラメータを設定して、確率モデルによる手法を提案している。一般の省略に対して有効であるか現時点では不明であり、少なくとも本研究の対象とは問題が異なるために確率モデルや特徴パラメータを再検討する必要がある。{}\cite{Nakaiwa}では用言意味属性と語用論的、意味論的制約を用いて外界省略の解消を行なっている。必要とする知識量が膨大であり、保守コストや他言語への適用を考えた場合に課題が残る。本論文の目的は、(1)対話における省略という現象の分析、問題設定(2)決定木と決定木学習による問題解決手法の提案(3)提案手法の特性の議論、の三点である。後述するように、対話においては外界省略の割合が高いが、このような状況下で我々はすべての省略を同一の枠組みで補完することは現実的でないと考える。また対話においてどのような問題設定が適当かはこれまで十分に議論されていない。そこでまず、対話における現象を分析し本論文における問題設定を{}\ref{節:現象}節において行なう。次に、{}\ref{節:手法}節で提案手法の説明を行なう。本論文では、省略補完知識の決定木(decisiontree)による表現、及び省略情報の正解付きコーパスから言語現象と補完すべき省略の関係を帰納的に機械学習し、これによって日本語対話文の格省略を補完する手法を提案する。本研究は機械学習手法の提案が目的ではないので一般的に知られている機械学習手法を利用し、どのような情報をどのように使用し、いかに機械学習させるべきかを提案する。論文の後半では、提案手法の特性を議論する。{}\ref{節:実験}節においては、提案手法の有効性を議論するために行なった実験について述べる。\ref{節:議論}節では決定木を観察することによって使用属性などに対する議論を行なう。両節での議論によって、提案手法がどのような特徴を持ち、またどのような限界があるのかを明確にする。最後に本論文の結論を{}\ref{節:結論}節で述べる。近年多くのテキストやシソーラスが機械可読化されてきており、多くの場合これらの言語資源は入手が可能となっている。本研究では、他の話題への適用性を考慮して、形態素分割されて品詞と省略情報が付与されたコーパス、及びシソーラスのみを用いて行なう手法を試みる。提案手法は、特定のコーパス、品詞体系、シソーラスをいずれも仮定しないため、大量の知識を作成、保守する必要性がなく、手作業による補完規則やパラメータの調整を行なう必要もない。また本手法では、構文解析も仮定しないため、構文解析の手法や精度とは独立である。本論文は、日本語対話文を英語やドイツ語に翻訳する際に必要となる処理を想定しており、省略内容の人称と数を補完するという問題設定を行なっている。また、省略の検出処理は他の処理部によって格要素の省略が正しく検出されると仮定する。なお、本論文は以前報告した文献\cite{NLPRS97}及び文献{}\cite{Coling-ACL98}の内容を基本にして議論、検討を行ない、新たにまとめたものである。 \section{日本語における格要素の省略現象} \label{節:現象}本節では格要素の省略という現象の考察を行なう。対話と文章、格による相違という二つの視点から格要素がどのように省略されるのかを議論することによって、本研究で解くべき問題の設定を明確にする。\subsection{対話と格要素省略}前述したように、格要素の省略には文脈省略と外界省略の二種類ある{}\footnote{さらに、文脈省略を二つに分ける分類方法もある。例えば{}\cite{Nakaiwa}では、補完要素が省略された格要素を持つ文中にある場合(文内照応)とその文以前にある場合(文間照応)とに分けている。}。この二種類の省略の出現割合はテキストの種類によって、つまりそのテキストが対話(音声言語)か文章(新聞や小説などの文字言語)かによって大きく異なることが想像できる。この関係を表にしたものを表\ref{文章と対話}に示す。\begin{table}\begin{center}\caption{文章と対話の性質}\label{文章と対話}\begin{tabular}{l|cc}\hline\hline&文章&対話\\\hline文脈省略&多い&ヲ格では多い\\外界省略&少ない&非常に多い\\\hline省略の頻度&比較的少ない&比較的多い\\\hline\end{tabular}\end{center}\end{table}本研究の対象となる対話について考えると、文章とは省略の様子が大きく異なることがわかる\footnote{ここでは、演説などの不特定の相手への対話、及び日記や手紙などの特定の相手への文章などは考えない。}。文章は多くの場合、それ自体で完結していることが必要であり、読者を明確に特定できない場合が多いため読者との共有知識を明確に定義できず、それ故省略もそれほど多く起こらない。また省略された場合の補完内容は、その文章内にある場合が多いと考えられる。これに対し対話(特に二者対話などの少数聴者に対する対話)では、相手に情報を伝えることが目的であり、双方向でコミュニケーションをとりながら進行するため共有知識も次第に増え、その結果省略も多用される。また、コミュニケーションをとる必要上、対話参加者に関する省略、つまり外界省略が比較的多いと考えられる。以上のような理由により、省略の補完処理についてもどのようなテキストを対象にするかによってどの省略を中心に取り扱うかが自ずと決まる。\subsection{表層格による格要素省略の差異}省略された格要素が外界省略か文脈省略かは格によっても大きく傾向が異なる。以下では、日本語の主たる表層格要素であるガ格、ヲ格、ニ格について考える。ガ格は、動作や状態の主体または対象を表す場合に使用される。これらを観察すると、動作の主体または対象が省略される場合と、状態の主体または対象が省略される場合で、省略及び補完に必要な情報の傾向が大きく異なることが予想される。以下の[\ref{乗る}]は動作を表す文であり、[\ref{冷たい}]は状態を表す文である。前者のガ格は人である場合が多いが後者ではガ格が人になる割合はそれほど多くない。\begin{example}\item早く電車に乗ってください。\label{乗る}\itemとても冷たいですね。\label{冷たい}\end{example}以上の検討より、本論文では省略された文の述部によってガ格を二つに分離し、別個のものとして取り扱った。すなわち、一つは述部が動詞の場合、もう一つは述部が形容詞、形容動詞、あるいは「名詞+判定詞(だ/です)」の場合である。以下では、前者をガ格(動)、後者をガ格(形)と表記する。なお、ガ格分離の妥当性は後で考察する。ヲ格は、動作や感情を向ける対象や移動の場所、起点を示す。このため、動作や感情の対象が対話参加者となる可能性のある一部の動詞(「紹介する」など)を除いて、多くの場合が照応的な省略、文脈省略となることが予想される。ニ格は、動作を向ける相手(「彼\underline{に}見せる」)、移動の着点(「京都\underline{に}着く」)などいろいろな用法がある。ニ格となる名詞には様々な種類が考えられるが、大別すると、人、場所、抽象物(時間を含む)、具体物に分けられるが、多くは人であると予想される。以上の考察の妥当性を確認するために、対話コーパス(\ref{節:コーパス}節を参照)499対話(18385文、省略総数\footnote{表に示す格以外の格、並びに特殊な用法の省略を除く。}15397)における省略された格の補完内容を実際に調査した。その結果を表\ref{調査}に示す。これより、ガ格(動)とガ格(形)ではその省略の傾向が異なること、ヲ格はほとんどが文脈省略であること、ニ格の89.1\%が外界省略であることなどがわかる。\begin{table}\begin{center}\caption{対話文における各表層格別の省略頻度}\label{調査}\begin{tabular}{c|rrrrrr|r}\hline\hline&一人称(単&複)&二人称(単&複)&一般\footnotemark&文脈省略&合計\\\hlineガ(動)&3864&962&1879&284&361&1359&8709\\&44.4\%&11.0\%&21.6\%&3.3\%&4.1\%&15.6\%&\\ガ(形)&576&442&306&52&14&1365&2755\\&20.9\%&16.0\%&11.1\%&1.9\%&0.5\%&49.5\%&\\ヲ&47&4&4&3&0&1137&1195\\&3.9\%&0.3\%&0.3\%&0.3\%&0\%&95.1\%&\\ニ&1163&53&1156&61&8&297&2738\\&42.5\%&1.9\%&42.2\%&2.2\%&8.3\%&10.8\%&\\\hline合計&5650&1461&3345&400&383&4158&15397\\&36.7\%&9.5\%&21.7\%&2.6\%&2.5\%&27.0\%&\\\hline\end{tabular}\end{center}\end{table}\footnotetext{「一般」については\ref{節:補完情報}節で述べる。}\subsection{対話文の問題設定と補完戦略}本研究の目的は、日本語から必須格を持つ目的言語への機械翻訳において、省略されている必須格要素の人称と数を補完することである。しかし前述したように、文章と対話によって省略の傾向が異なり、これらすべてを対象にして統一的な処理を行なうことは適当ではないと考える。そこで、対話において比較的重要な外界省略を主たる対象にして、本論文では以下のように問題を設定した。\begin{itemize}\item外界省略の人称と数の補完\item文脈省略の認知\end{itemize}これまで、照応的な省略に対しての研究はいくつか行なわれている。これらの研究は以上の問題設定とは相補的になる。すなわち、本論文の手法によって文脈省略と認知することができれば、省略内容の補完処理はこれらの従来研究、例えばセンタリング理論によって解くことが可能となり、対話におけるすべての格要素省略の問題を解くことができる。\subsection{コーパスと話題}\label{節:コーパス}本研究で使用したコーパスは、チケット予約、観光案内などにおける二者の対話を収録したATR旅行会話コーパス\cite{ATRCorpus}(以下、「コーパス」と呼ぶ)である。おおよそ1対話は20文から40文で構成され、平均は26文である。コーパスは全部で618対話からなるが、本研究ではそのうち499対話を調査、決定木学習及び実験に使用した。コーパスは、ホテルにおける旅行客とフロントの対話を中心に、広範な範囲の対話を収録している。本論文ではこれを大きく表\ref{話題}に示す4つの話題に分類した。この分類は\ref{節:話題依存性}節での話題依存性での議論の際に使用する。\begin{table}\begin{center}\caption{コーパスの話題分類}\label{話題}\begin{tabular}{ll}\hline\hline記号&話題\\\hline$H_1$&ホテルにおける部屋の予約、変更、キャンセル\\$H_2$&ホテル利用に関する問い合わせ、苦情\\$H_R$&その他のホテル関連の話題:ホテル選択やホテル設備案内など\\$R$&ホテル関係以外の旅行対話:出入国、観光、買い物など\\\hline$H$&$H=H_1+H_2+H_R$:コーパス中のホテルに関する全話題\\$T$&$T=H_1+H_2+H_R+R$:旅行対話の全話題\\\hline\end{tabular}\end{center}\end{table} \section{決定木を用いた省略補完} \label{節:手法}本節では、省略の補完に必要な二つの側面、多要素性と相互依存性について検討を行なった後、提案する手法について述べる。\subsection{多要素性}日本語における格要素の省略内容の補完には、非常に多種多様な要素が関係していることは、以前から知られている。従来文献においても、例えばDohsaka{}\cite{Dohsaka}は、待遇関係、視点関係、制御関係、情報のなわばりに関する語用論的制約によって補完を試みている。また、工藤ら{}\cite{工藤}は、謙譲、丁寧、可能、完了などの意味を持つ機能語と、動詞の語彙的な特性による省略補完手法を提案している。省略補完に必要な情報の例を、以下に示す。\begin{itemize}\item待遇表現\\対話において尊敬語や謙譲語などが使用された場合には、誰の動作か述べる必要がなくなり、ガ格が省略される。すなわち、ガ格の補完にはこれら敬語は重要な情報を果たす。\begin{example}\itemそちらに参ります。(ガ格は一人称)\end{example}\item平叙/疑問/命令\\以下の例では、疑問文かどうかでガ格が異なる。\begin{example}\itemわかりました。(ガ格は一人称)\itemわかりましたか。(ガ格は二人称)\end{example}\item動詞の持つ意味\\例えば、以下の発話がホテルのフロントと客との対話と仮定すると、どちらの発話かに関係なく、当該動詞のガ格の内容が決まる。\begin{example}\itemキャンセル待ちを調べて$\cdots$(ガ格はフロント)\label{キャンセル}\itemJRに乗って$\cdots$(ガ格は客)\end{example}\item前文以前の情報(文脈情報)\\対話におけるこれまでの話の流れ。\item言語外情報\\その文が、どこで、誰が誰に対して発話されたか、など。例えば、[\ref{キャンセル}]で、ガ格の人称を決定するには、話者がフロントと客のどちらか、という情報が必要となる。\end{itemize}このように、対話文において省略を補完するためには多くの情報が必要と考えられる。さらに用言の持つ意味は省略の補完にとって重要な情報であると思われるが、その重要性は個々の用言によって異なると考えられる。このように非常に多くの要素が考えられるが、このうち個々の補完事例に本当に必要な要素のみを選択することが可能な補完手法が必要とされる。人手による補完規則作成によるアプローチは、このような言語現象に対して個々に考察を行なう必要があり、一般的には困難が伴う。\subsection{相互依存性}例として、以下の発話において「忘れる」のガ格を補完することを考える。\begin{example}\item部屋/に/カメラ/を/\underline{忘れ}/てき/てしまっ/た/ような/んです/が。\end{example}この例では、動詞「忘れる」の持つ意味属性や「てくる」「てしまう」「た」「ようだ」「んです」「が」といった文末表現など、多くの要素が省略補完に関係する可能性があり、このうちどの要素がどの程度省略補完に影響しているかを明確に記述することは難しい。また、影響の範囲は文末表現間のみ、あるいは用言と文末表現の組み合わせに限らず、例えば以下のように接頭辞と文末表現の組み合わせで考慮すべき例もあり、その関係は多種、複雑である。\begin{example}\item近鉄に\underline{お}乗り\underline{になっ}てください。\label{近鉄}\end{example}このように、格要素の省略補完に必要な情報は独立ではなく、相互に影響しながら省略が可能になることに注意しなければならない。つまり、[\ref{近鉄}]で言えば、「お$\cdots$」と「$\cdots$になる」の出現に対して、個別に補完内容の補完をすることはできない。あるいは、ホテルのフロントにおける受付と客の対話で、一般的に「宿泊する」の動作主は客もしくは「一般的な人」であるが、ある特殊な文脈によってはそれ以外の可能性も考えられ、一概に「宿泊する」という動詞のみでは決定できない。格要素の補完では、多種多様な言語現象からどの2要素(あるいはそれ以上)に対して、同時に考慮する必要があるのかを検討する必要がある。\subsection{決定木を用いた省略補完}以上の考察から、格要素の省略補完には、多要素性と相互依存性を同時に考慮することが可能な枠組みが必要であることがわかる。これに対し我々は、決定木を補完知識表現として使用し、統計を利用した決定木学習を省略補完の知識獲得に使用することを提案する。近年、大量のコーパスが機械可読になってきていることから、機械学習による問題解決は自然言語処理のいくつかの問題に適用されている。例えば、田中は動詞の訳語選択に決定木学習を導入し、有効性を確認している{}\cite{田中}。さらに、談話処理や文脈処理にもこれらの手法が使用されつつあり、例えば談話分割や手がかり語などに関する談話処理にも適用されるようになってきている{}\cite{Summary}。\subsection{補完情報の付与}\label{節:補完情報}決定木学習による学習、並びにテストを行なうことを目的に、対話コーパスに補完内容の情報を付与した。今回付与したタグの種類を表\ref{タグ}に示す。本論文では、表に示すように6種類のタグを設定した。タグの付与に関して、これらの補完内容は日本語のみを考慮して付与した。\begin{example}\item財布を盗まれた。\label{例:財布}\itemMywalletisstolen.\label{例:wallet}\itemMeinGeldbeutelistgestohlenworden.\label{例:Geldbeutel}\end{example}例えば以上の例文において、[\ref{例:財布}]におけるガ格は「私」であるが、その英語訳である[\ref{例:wallet}]の主格は`mywallet'、ドイツ語訳である[\ref{例:Geldbeutel}]の主格は`meinGeldbeutel'である。このように翻訳先の言語によって人称が変わる場合があるが、英語などへの翻訳時に人称がどうなるかという観点では付与しなかった。つまり上記の例では用言「盗む」に対して<1sg>(=一人称単数)のタグを付与した。これは、一般に訳し方は一通りでないこと、翻訳の目的言語が英語のみではないこと、などの理由による。\begin{example}\item右へ曲がると交番です。\label{例:交番}\end{example}日本語においては、[\ref{例:交番}]などのように、特定されない人称を省略要素とする文、つまり一般的な「人」を念頭において発話していると考えられる文がしばしば見受けられる\footnote{日本語のみならず、韓国語や中国語にも見受けられる。}。このような場合、例えば英語への翻訳の場合には人称代名詞`you'を、ドイツ語への翻訳の場合には不定代名詞`man'を主格にすることが多い。しかし、それぞれ二人称、三人称の省略などとは異なる現象であること、想定する翻訳目的言語が英語、ドイツ語などと複数であることを理由に、一人称や二人称とは別のタグ<g>を設定した。以下便宜上、このタグを「一般(人称)」と呼ぶ。以上は外界省略として扱える。省略位置以前の要素に照応先がある場合、つまり文脈照応の場合は、一括して<a>のタグを付与した。本論文では、対話文に頻出する外界省略の補完に主眼を置き、文脈省略に関しては当該省略が文脈省略であることの認知のみを行ない、具体的な先行詞の補完は別処理で行なうと仮定した。\begin{table}\begin{center}\caption{付与したタグの種類}\label{タグ}\begin{tabular}{cll}\hline\hlineタグ&意味&備考\\\hline<1sg>&一人称単数&話者が個人としての立場から発言している場合\\<1pl>&一人称複数&話者が代表している機関、グループの場合を含む\\<2sg>&二人称単数&聞き手を個人としてとらえている場合\\<2pl>&二人称複数&聞き手が代表している機関、グループを含む\\\hline<g>&一般&特定されない人物(一般的な「人」を念頭に置いた発話)\\<a>&照応的&前文以前の発話に先行詞がある場合\\\hline\end{tabular}\end{center}\end{table}\subsection{決定木と決定木学習}多岐にわたる情報を統一的に、かつ自動的で一意に省略を補完する手法として、本研究では決定木を用いる。決定木は、根付き有向木で表現される知識表現構造であり、以下の利点を持つ。\begin{enumerate}\item木という単純な構造の組み合わせによって多要素が複雑に関係した概念が表現できる\item透明性が高いため、要素間の影響が明確に記述され、手作業による変更が十分に可能である\item処理が高速で、多くの場合処理時間は実用上無視できる程短い\end{enumerate}決定木の各分岐節点はある属性\footnote{特徴あるいは質問と呼ぶこともあるが、本論文では属性に用語を統一する。}に対応してその属性値によって枝分かれしていき、それぞれの葉で意志決定が行なわれる。決定木は分岐節点における分岐数によって大きく二分木と多分木とに分かれるが、本論文では前者を使用した。これによって、属性値は`Y'または`N'の二値になる。決定木の例を付録の\ref{節:決定木}に示す。コーパスからの帰納的学習により決定木の作成を行なう。本研究ではID3\cite{Quinlan}のアルゴリズムと同様、エントロピー規準による貪欲法(greedyalgorithm)によって決定木学習を行なった。また、枝刈り(pruning)は行なっていない。\subsection{使用属性}\label{使用属性}省略された格要素を補完するためには、種々の情報を考慮して行なわなければならない。本研究では計367の属性を使用した。その内訳を表\ref{属性}に示す。表に示すように、属性は内容語、機能語、言語外情報に大きく分類できる。以下ではそれぞれについて説明する。\begin{description}\item[内容語の意味属性]省略の対象となる文において、どのような内容語が含まれているかに関する情報。内容語は大きく、用言に関する情報と格要素(体言)に関する情報に分かれる。内容語の意味属性としては角川類語新辞典\cite{角川類語}における中分類(100属性)を使用した。\item[機能語の出現]用言に後接する付属語群、及び助詞などの機能語の出現に関する情報。付属語群の中には、受動/尊敬/可能/自発「れる」使役「せる」アスペクト「ている」などの助動詞などのほか、当為を表す準体助動詞「べき」などが含まれる。また、尊敬(召し上がる)、謙譲(伺う)、可能(飲める)などを示す動詞の集合をそれぞれ一つの属性とし、「尊敬」などを示す機能語として取り扱った。また、受給表現「やる」や動詞「する」「なる」なども特殊な機能語と見なした。その他の機能語には、格助詞、接続助詞、終助詞、「\underline{お}考えですか」「\underline{ご}用意できます」の例に見られる動詞直前の敬意を表す接頭辞がある。この他、禁止を表す形容名詞「だめ」意志を表す形式名詞「つもり」、疑問詞集合(「どこ」「なぜ」など)なども機能語に含めた。\item[言語外情報]言語外情報としては、発話された文の話者が情報提供者か情報享受者か、という属性を使用した。\end{description}\begin{table}\begin{center}\caption{使用属性とその要素数}\label{属性}\y{3}\begin{tabular}{llr}\hline\hline対象&属性&属性数\\\hline内容語(用言)&意味属性&100\\内容語(格要素)&意味属性&100\\\hline機能語(格助詞)&が、に、を&9\\機能語(接続助詞)&ので、たら&21\\機能語(助動詞群)&れる、ている&132\\機能語(その他)&お、敬語動詞&4\\\hline言語外情報&話者情報&1\\\hline合計&&367\\\hline\end{tabular}\end{center}\end{table}すべての属性は(照合方法,照合位置,属性値)の三つ組によって表現される。照合方法は、\verb+:speaker+(話者の照合)、\verb+:regexp+(正規形による形態素の照合)、\verb+:semcode+(意味属性の照合)の3種類である。照合位置は、補完の対象となる用言の位置を基準として以下に示す5種類を設定した。\smallskip\begin{tabular}{ll}\verb+:before+&文頭から用言の直前までの間の形態素\\\verb+:latest+&用言の直前の形態素\\\verb+:here+&用言\\\verb+:next+&用言の直後の形態素\\\verb+:after+&用言の直後から文末までの間の形態素\\\end{tabular}\medskip\noindent例えば、照合位置として補完対象用言に関しては\verb+:here+、格助詞に対しては\verb+:before+、接頭辞に対しては\verb+:latest+を与える。話者の照合\verb+:speaker+の対象は常に省略された文であり、位置情報は一意に決まるため不要であるが、他の属性との整合性をとるため便宜上\verb+:here+を与える。照合対象が複数の形態素となる\verb+:before+と\verb+:after+に関しては、照合範囲にある形態素のいずれかが属性の条件を満たすかどうかによって照合を行なった。具体的な属性の例と、その意味を以下に示す。\smallskip\begin{enumerate}\item{\tt(:speaker:here情報提供者)}\\文の話者が情報提供者である。\item{\tt(:regexp:after("たい""助動詞"))}\\用言の後に助動詞「たい」を含む。\item{\tt(:semcode:here30)}\\用言の意味属性が30である。\item{\tt(:semcode:before81)}\\用言の前に意味属性81の内容語を含む。\item{\tt\begin{tabular}[t]{@{}ll}(or&(:regexp:latest("お""接頭辞"))\\&(:regexp:latest("ご""接頭辞"))\\&(:regexp:latest("御""接頭辞")))\\[2mm]\end{tabular}}用言の直前の語が接頭辞の「お/ご/御」である。\end{enumerate}\y{3}複文や重文などの、文が複数の単文からなる場合には、近似的に単文に分割した。分割手法は、接続助詞\footnote{「$\cdots$たら/ば」のように、複数の接続助詞が連続する場合は最後方の接続助詞。}を分割位置にしてその前後を分割した。 \section{実験} \label{節:実験}本節では、学習された決定木による省略補完の有効性を検証する。まず、ガ格(動)に対して検証を行ない、続いてガ格(形)、ヲ格、ニ格に対しての有効性を議論する。さらに、学習量、決定木学習の話題依存性、使用属性による相違の三点から検討を行なう。本論文では、性能評価尺度としてF値(F-measure)を用いる。F値は、再現率(recall)と適合率(precision)を一つの尺度として表現するために使用される尺度で、$R$を再現率、$P$を適合率としたとき、以下の式で定義する。\y{3}\begin{equation}F=\frac{(\beta^2+1)\timesP\timesR}{\beta^2\timesP+R}\end{equation}\y{3}ここで、パラメータ$\beta$は適合率の再現率に対する相対的な重要性である。本論文ではこのパラメータを$\beta=1$とした。\subsection{基本条件による実験}まず、以下の条件により実験を行なった。\begin{itemize}\item実験対象はガ格(動)の省略\item属性集合は表\ref{属性}に示した367属性\item学習文はコーパスから100対話を無作為に抽出した集合\itemテスト文は学習文と同一の話題の100対話\end{itemize}表\ref{標準}に、以上の条件による結果を示す。単位はF値である。表の「学習文」の欄は、学習文とテスト文を同一にして行なったテスト(closedtest)の結果である。3種類の話題$H_1$、$H$、$T$の中から各100対話を無作為に選択して実験を行なった。「未知文」の欄は、未学習文に対するテスト(opentest)を意味する。学習文テスト$T$で用意した100対話と同一の集合をテスト文にして、それに含まれない100対話をコーパスより無作為に抽出した集合で決定木学習を行なった。また同表には比較対象として、補完内容を無作為に選択した場合の精度を(比較A)に、補完内容をすべて最多事例の人称(<1sg>)に一意に決定した場合の精度を(比較B)に示した。また表の最下段に、未知文テストにおける学習文およびテスト文の人称別省略事例数を示した。また、未知文テストを行なうためにコーパス100対話から作成した決定木の一部を付録の\ref{節:決定木}に示す。\begin{table}\begin{center}\caption{基本条件による補完精度}\label{標準}\x{-10}\begin{tabular}{cc|*{6}{r}|r}\hline\hline&&<1sg>&<1pl>&<2sg>&<2pl>&<g>&<a>&全体\\\hline学習文&$H_1$&99.7\%&99.2\%&100.0\%&100.0\%&100.0\%&100.0\%&99.8\%\\&$H$&99.9\%&99.8\%&100.0\%&100.0\%&100.0\%&99.6\%&99.8\%\\&$T$&100.0\%&100.0\%&100.0\%&100.0\%&99.4\%&99.4\%&99.8\%\\\hline未知文&$T$&82.1\%&59.5\%&76.4\%&15.8\%&27.8\%&77.0\%&73.2\%\\\hline(比較A)&&44.2\%&10.0\%&21.1\%&3.7\%&5.3\%&15.7\%&27.9\%\\(比較B)&&61.3\%&---&---&---&---&---&44.2\%\\\hline\hline(未知文)&学習&733&197&380&53&57&290&1710\\(未知文)&テスト&745&168&356&62&89&265&1685\\\hline\end{tabular}\end{center}\end{table}決定木の再現性、弁別性を確認することを目的に行なった学習文テストでは、決定木の枝刈りを行なっていないため、話題の広さに関係なくほぼ100\%の再現性を示した。未知文に対するテストでは、(比較A)、(比較B)のいずれよりも高い値を示し、本手法の有効性が確認された。なお、表はF値のみであるが、再現率と適合率は共にF値とほぼ同一の値となっている。人称別では、ほぼ学習事例の多い順に精度が良くなっていることがわかる。<1sg>、<2sg>、<a>に関しては比較的良好な性能を得ることができたが、<1pl>、<2pl>、<g>については低い精度しか得ることができなかった。これは学習事例数の不足が一つの原因と考えられる。誤りの主な傾向を以下に分類する。\begin{enumerate}\item複文の単文分割に関係する誤り\item照合範囲の誤り\item単複の弁別性に関係する誤り\item文脈省略に関係する誤り\itemタグ付与のゆれ\end{enumerate}これらのうち、単文分割に関係する誤りと照合範囲の誤りが最も多かった。前述したように、本研究では接続助詞によって擬似的に単文分割しているが、例えば以下の例文のような場合には、「行けば」だけに対して補完処理を行なってしまい、提案手法が有効に機能しない(例文の下線は補完対象用言、`/'は形態素区切り、`//'は設定した文区切りを示す)。\begin{example}\itemどう/やっ/て//\underline{行け}/ば//いい/か/分から/ない/ん/です。\end{example}また単文であっても、以下の文で「予約」の補完を行なう場合のように、補完対象の用言(「予約」)の補完に、これとは関係のない付属語(「いたす」「ます」)によって判断してしまい、その結果失敗する。\begin{example}\item現在/ご/\underline{予約}/の/フライト日/と/便名/を/お/願い/いたし/ます。\end{example}以上は本手法の問題点であるが、文分割と属性照合を共に厳密にすればよいので、今後十分に対処可能な課題である。一方、単複の誤りと文脈省略に関係する誤りは本質的に難しい問題であり、現在用意した属性のみによるこれ以上の精度向上は難しいと考えられる。より一層の精度向上には別の情報が必要である。\subsection{他手法との比較}\label{節:比較}日本語格要素の省略補完を行なう手法はこれまでにもいくつか提案されている。ここでは、このうちのいくつかの手法と定性的な比較を行なう。補完の手がかりとなる現象を人手で得点化した{}\cite{村田}では対話文章中の省略のための規則も作成し、物語文を対象にした実験の結果、学習文(204文)で86\%、未知文(184文)で76\%の省略が補完できたと報告している。同論文と本論文との差異を以下に示す。\begin{description}\item[対象テキスト]同論文では物語文中の対話文章のみを対象にしている。本論文では、これらを含む対話テキストを対象としている。\item[使用属性]同論文では一人称と二人称に入りやすい用言として各3語を列挙している。また命令表現と疑問表現は二人称に、ガ格の省略は一人称になりやすいと指摘している。本論文では、命令や疑問以外の付属語や言語外情報も考慮にいれた補完手法を提案している。\item[パラメータ調整]同論文ではパラメータ(各規則に付与する得点)を人手で付与している。本論文ではパラメータ(どの属性がどの順で使用されるか)を統計情報により自動的に決定している。\end{description}AoneandBennettは文献\cite{Aone}において、本論文と同様に機械学習による省略補完処理を行なっている。ここでは、照応の先行詞補完の一部として省略補完処理を行ない、合弁事業に関するテキストにおいて先行詞が組織名である省略の補完実験を行なった結果、最高で再現率が40.8\%、適合率が73.0\%の補完精度が得られたと報告している。同論文では先行詞の種類が所与(組織)で組織名を推定することが目的であり、先行詞の種類(人称)補完を目的とする本論文とは問題の性質が異なる。また対話文を対象にした補完処理ではないために文脈省略の補完のみを考慮していることから、本論文と直接比較することはできない。日本語対話文を対象に省略補完を行なっている研究として、文献\cite{工藤}がある。工藤らの実験は本論文と同一のコーパスに対しても行なっており、補完規則作成に使用した文に対する省略補完精度として93.2\%\footnote{複数の対話コーパスに対する合計の精度。ATR旅行会話コーパスに対しては92.9\%と報告している。}の補完精度が得られたと述べている。また文献{}\cite{Nakaiwa}は日英機械翻訳システム評価用例文の175事例に対して実験を行ない、情報抽出に使用した文に対してテストを行ない、100\%の精度を得たと報告している。これら両論文はどちらも未知文に対しての報告がない。これらを比べた時、本論文には以下の優位性があると考える。\begin{description}\item[規則作成の困難性]例えば工藤らは14種類の動詞に対して人手で補完すべき値を分類しているが、これを多くの動詞\footnote{例えば本実験で使用したコーパスには262種類の動詞が出現した。}に対して作成するのは容易ではない。\item[情報利用の局所性]両論文では、ある文末表現の出現のみで、もしくは用言と文末表現の組み合わせのみで省略の多くを補完している。しかしながら、このような少数の要素のみで正確に補完できるものばかりではないことが予想される。本提案手法では、多数の属性の組み合わせを考慮できる枠組みとなっており、複雑な組み合わせによる省略にも対応できる。\end{description}\subsection{表層格との関係}\label{節:格}ここでは、日本語の主たる表層格であるガ格、ヲ格、ニ格に対する補完精度の比較を行なうことによって、格との関係を考察する。本来ならば、補完に必要な属性は格によって異なると考えるのが自然である。しかし本論文では、手法の有効性を議論し、格による差異を明確化することを目的とするため、網羅的に属性を用意し、すべての格で学習時に同一の属性集合を用意した。学習時に用意した属性集合は、これまでと同様、表\ref{属性}の367属性である。実験は、それぞれの格について300対話を学習対話とし、それらに含まれない100対話をテスト対話として未知文テストを行なった。その結果を表\ref{格}に示す。なお、表でガ格(動)として示した値は、表\ref{学習量}の`400(対話)'の項と同一の実験である。\begin{table}\begin{center}\caption{格による補完精度の比較}\label{格}\begin{tabular}{c|*{4}{c}}\hline\hline格&<1sg>&<2sg>&<a>\hfill&全体\\\hlineガ格(形)&58.3\%&68.1\%&85.9\%&79.7\%\\ヲ格&66.7\%&---&97.7\%&95.6\%\\ニ格&95.2\%&95.7\%&81.9\%&91.7\%\\\hlineガ格(動)&84.7\%&81.1\%&82.0\%&78.7\%\\\hline\end{tabular}\end{center}\end{table}表からわかるように、ガ格(動)とガ格(形)との比較では全体としての補完精度に大きな差異はないが、個別の人称に対する精度では両者に明確な差異が現れている。表には現れていないが、ガ格(形)の補完人称に比較的多くの<a>が含まれているため、<1sg>あるいは<2sg>に対する学習が十分に行なわれず、比較的低い精度になったと推察される。一方ヲ格については、90\%以上の省略が照応的(<a>)であり、外界省略がほとんどないことから非常に高い数字となった。本手法によってヲ格の文脈省略の認知は高精度で可能であるので、認知された文脈省略に対し従来から知られている照応解決の諸手法を導入することによって解決できるものと考えられる。ニ格に関しては十分な性能が得られた。このように高い性能が得られた背景には、二者対話を対象にしたテキストであること、話題が旅行対話に限定されているために使用される述語がある程度限定されることなどが考えられる。ニ格の多くは間接目的語で外界省略が多かった\footnote{表\ref{調査}に示すように、実験で使用したコーパスではニ格の省略の約9割が外界省略で、文脈省略<a>は1割前後であった。}ため、少数候補からの択一問題に有効な本手法が有利に機能したものと考えられる。\subsection{学習量との関係}\label{節:学習量}学習量との関係を見るために以下の実験を行なった。学習量として、25、50、100、200、400対話の5種類の集合を作成した。ここで、これらの集合は包含関係となるように作成した。テスト集合はこれらのいずれにも含まれない100対話(ガ格(動)の省略数:1685)を用意した。また、学習属性は表\ref{属性}のものを使用した。主な人称に対する実験の結果をF値で表\ref{学習量}に示す。なお、表の「100(対話)」の欄は表\ref{標準}の「未知文」の欄と同一である。\begin{table}\caption{学習量と補完精度}\label{学習量}\begin{center}\begin{tabular}{rr|*{4}{r}}\hline\hline対話&事例&<1sg>&<2sg>&<a>&全省略\\\hline25&463&71.0\%&55.6\%&66.2\%&59.0\%\\50&863&76.4\%&69.7\%&71.5\%&67.2\%\\100&1710&82.1\%&76.4\%&77.0\%&73.2\%\\200&3448&85.1\%&79.8\%&79.7\%&76.7\%\\400&6906&84.7\%&81.1\%&82.0\%&78.7\%\\\hline\end{tabular}\end{center}\end{table}表\ref{学習量}によれば、ほぼすべての人称に関して学習量の増加と共に性能が単調に向上している。また、表には示されていないが、再現率、適合率共に単調増加の傾向を示している。ただし、その増加の割合は徐々に鈍化し、<1sg>に関しては400対話で精度がわずかに減少していることがわかる。補完内容と学習量の差をグラフにしたものを片対数グラフで図\ref{図:学習量}に示す。グラフが示すように、比較的学習事例数の少なかった<2pl>や<g>が、学習量増加に伴い大きく精度が向上していることがわかる。その様子から、<1pl>を含めたこれらの人称に関しては学習量の増加によって一層の精度向上が予想される。一方、その他の人称並びに全体的な精度に関しては、全体として400対話(6806事例)でほぼ横ばいになっていることから、$10^4\sim10^5$事例の学習量で十分であると言える。またグラフより、人称に関わらずほぼ一定の精度を示していることから、この時の補完精度(本手法による補完精度の上限)は$80\%\sim85\%$となると予想する。\begin{figure}\vspace{-6mm}\begin{center}\epsfile{file=19.eps,height=88mm}\caption{学習量と補完性能}\label{図:学習量}\end{center}\end{figure}\subsection{話題依存性}\label{節:話題依存性}ここでは、実験の結果と共に、決定木学習の話題依存性を議論する。学習用のテキストとして、四つの話題$H_1$、$H_2$、$R$、$T$に属する対話を50対話無作為に抽出し、これによって決定木学習を行なった。テスト用の対話は前節と同一の未学習100対話を使用し、未知文テストを行なった。このとき、属性は表\ref{属性}の367属性を使用した。表\ref{話題依存性}に、テスト対話(=コーパス全体)の話題別構成比、並びに話題依存性を示す。表の縦は学習対話の話題、横はテスト対話の話題を示し、値はF値で表現した。\begin{table}\begin{center}\caption{決定木の話題依存性}\label{話題依存性}\begin{tabular}{c|*{4}{r}|r}\hline\hline学習/テスト&/$H_1$\hfil&/$H_2$\hfil&/$H_R$\hfil&/$R$\hfil&合計\\構成比&20.1\%&27.7\%&11.2\%&40.9\%&100.0\%\\\hline$H_1$/&78.1\%&55.9\%&65.3\%&61.6\%&63.7\%\\$H_2$/&71.3\%&67.0\%&62.6\%&62.6\%&65.6\%\\$R$/&75.1\%&61.7\%&61.1\%&75.4\%&69.9\%\\$T$/&73.4\%&62.5\%&62.6\%&66.2\%&66.2\%\\\hline$T-H_R$/&73.7\%&61.9\%&59.5\%&63.9\%&64.8\%\\\hline\end{tabular}\end{center}\end{table}表に示すように、学習対話とテスト対話が一致している時に、$H_2$を除いて最も良好な性能となった。また$H_2$においてもかなり高い性能を示した。この傾向は話題に関係なく言えることから、あらかじめテスト対話の話題がある程度限定される、もしくは予測できる問題に対しては、できるだけ同一の話題のみによって学習することが望ましく、その際にテスト対話以外の話題を含めて学習しないことが重要であると考えられる。学習文の話題別性能では、話題$R$が最も高い性能を示した。この理由は、話題$R$が何か特殊な情報を持っているためではなく、話題$R$の構成比が最も高かったためである。また表によると、広範な話題で学習を行なった場合($T/$)に、全体としても平均以上の補完精度を示した。学習文とテスト文の話題が同一の場合を除くと、$T/$はすべての話題に対して良好な性能を示していることが観察される。このことから、テスト文の話題が未知の場合は、広範な話題に対して学習を行なうことが最も有効であることが示唆される。ただし表\ref{話題依存性}の最下段に示すように、全く未知の話題($H_R$)に対しては若干精度が低下する。たとえ少量の学習であっても、未学習よりはかなり優位であることがわかる。\subsection{属性との関係}本節では、格要素の省略補完の問題解決にどの程度使用属性が関係するかを議論する。これまでに述べてきた諸実験は、比較のため、すべて同一の属性集合を使用して行なってきた。ここではこの使用属性を変化させることによって補完精度がどうなるかを観察する。ここでは、以下に示す4種類の属性集合を用意した。これらはいずれも表\ref{属性}に示した属性の部分集合である。\begin{enumerate}\item言語情報のみ(366属性)\item機能語のみ(166属性)\item内容語のみ(200属性)\item用言情報のみ(100属性)\end{enumerate}実験は100対話の学習、未学習100対話のテストにより行なった。この対話集合はどちらも、表\ref{標準}の未知文テスト、あるいは表\ref{学習量}の`100'の実験と同一である。実験結果を表\ref{結果:属性}に示す。比較対象として、全属性に実験の結果を表の「全属性」欄に示す。\begin{table}\begin{center}\caption{属性と補完率との関係}\label{結果:属性}\begin{tabular}{c|*{4}{c}}\hline\hline&<1sg>&<2sg>&<a>\hfill&全省略\\\hline全属性&82.1\%&76.4\%&77.0\%&73.2\%\\\hline言語情報のみ&81.9\%&76.9\%&77.4\%&73.2\%\\機能語のみ&75.4\%&68.0\%&67.2\%&65.3\%\\内容語のみ&75.1\%&58.1\%&74.5\%&65.0\%\\用言情報のみ&72.3\%&55.6\%&71.1\%&61.9\%\\\hline\end{tabular}\end{center}\end{table}表より、言語情報のみを使用した学習では、言語外情報を加えた場合とほとんど同程度の精度が得られた。これは、言語外情報(特に実験で用意した話者情報)がそれほど省略補完に重要でないことを示す。この結果は我々の予想に反するが、おそらく旅行対話という限られた分野での実験であったため、用言の情報が話者情報を包含するような関係になったことが理由として考えられる。つまり用言によって話者が推測できたため、話者情報の必要性が低下した可能性がある。これらを確認するには、両者が対等な関係にある状況での対話、例えば自由対話に対して省略補完実験を行なうことが必要であろう。機能語のみで決定木学習を行なった場合、全体で8\%程度の精度低下が観察された。この結果は、話題に依存しない機能語のみで決定木学習した場合に、その精度に限界があることを示している。また、機能語のみの結果は文脈省略(<a>)認知に対して大きな精度低下が見られることから、内容語は比較的照応関係の維持に寄与していることが予想される。内容語のみの場合はさらに低い精度となった。日本語対話文においては、内容語よりも一部の機能語の存在によって省略が可能となる場合が多いということをこの結果は示している。さらに用言情報のみを使用した場合は最も悪い精度を示したが、これは対話文の省略補完が書き言葉のそれと異なる大きな特徴の一つと考えられる。すなわち、用言情報などの内容語は対話文での省略補完においては相対的に重要性は低いが、文脈省略の先行詞補完など、照応処理に関しては逆に重要性が増すと予想する。 \section{議論} \label{節:議論}決定木はある問題に対しては非常に便利な知識表現手段であるが、可読性もその特徴の一つである\cite{田中}。本節では、これまでに述べた諸実験において作成された決定木を観察することによって、属性の充足性、個々の属性の重要性などを議論する。\subsection{決定木の形状}学習数と決定木の節数との関係を両対数グラフにしたものを図\ref{節数}に示す。また各決定木の最深節と最大幅を表\ref{深さ}に示す。この図より、学習量を変化させて作成したガ格(動)の決定木において、学習量と節数はほぼ対数的に線形であることがわかる。本研究では決定木学習に際し枝刈りを行なっていないため、このような関係になったものと推察される。ガ格(形)に関してはほぼガ格(動)と同様の節数となった。ニ格に関しては、ガ格(動)よりはいくぶん小さな木となっていることがグラフよりわかる。またヲ格はほとんどが<a>であるため、ほとんど事例分割の必要性がなく、最も小さな木となった。\begin{figure}\begin{center}\epsfile{file=22.eps,height=71mm}\caption{節数と学習数との関係}\label{節数}\end{center}\end{figure}\begin{table}\begin{center}\caption{各決定木の最深節と最大幅}\label{深さ}\begin{tabular}{l|*{6}{c}}\hline\hline&ガ/25&ガ/100&ガ/400&ガ(形)&ヲ&ニ\\\hline最深節までの節数&27&34&49&28&10&18\\同一深さでの最大幅&26&58&146&52&10&28\\\hline\end{tabular}\end{center}\end{table}\subsection{事例被覆率}補完内容の決定に対する各属性の重要性を見る一つの尺度として、「事例被覆率」を定義する。ある属性の事例被覆率は、その属性が決定木の意志決定に使用されている事例数の、全事例数に対する割合である。例えば決定木の根で使用されている属性の事例被覆率は、すべての事例がこの属性を(最初に)検査することから、100\%となる。この尺度から、各属性の意志決定に対する寄与度が数値化できる。まず、学習量との関係を議論した{}\ref{節:学習量}節での実験における主な属性の事例被覆率を表{}\ref{事例被覆率/が}に示す\footnote{以後の表及び説明では、煩雑のため\verb+:semcode+及び\verb+:regexp+の表記は省略する。}。表の上部に示した通り、事例被覆率が100\%である属性(=最上部で検査される属性)は「\verb+:here43+」つまり対象となる用言の意味コードが43(意向)であるかどうか、であった。この属性や「\verb+:here41+」(思考)には共に「思う/考える/願う」などの語が含まれており、話者の意図や希望を表現している。これらの動詞は旅行対話に限らず広く使用されるため、この両属性はその他の内容語とは異なる一種の機能語のような役割を果たしていると考えられる。ただ、この両属性のように学習量に関係なく事例被覆率の高い属性はむしろ少数で、同一の格、同一の話題であっても学習量の増加と共に多くの属性の事例被覆率が変化していることが観察できる。表によると、学習量が少ない時は{}\verb+:before+、つまり対象となる用言以前にどのような内容語が存在したかに関して多くの注意が注がれ、学習量の増加に伴って機能語、特に尊敬を示す「$\cdots$てくださる」「召し上がる」などの語の存在によって人称を判断するようになることがわかる。\begin{table}\begin{center}\caption{学習量による事例被覆率の変化}\label{事例被覆率/が}\begin{tabular}{c|*{3}{r}}\hline\hline&ガ/25&ガ/100&ガ/400\\\hline\verb+:here43+(意向)&100.0\%&100.0\%&100.0\%\\\verb+:here41+(思考)&72.8\%&84.8\%&86.5\%\\\verb+:after+か(終助詞)&53.1\%&83.2\%&66.3\%\\\hline\verb+:after+てくださる&9.1\%&49.1\%&49.8\%\\(尊敬語)&---&39.9\%&36.8\%\\\verb+:after+ていただく&---&33.2\%&33.9\%\\\verb+:after+する&4.1\%&22.0\%&26.1\%\\\hline\verb+:before72+(施設)&55.1\%&0.5\%&3.8\%\\\verb+:before94+(建物)&28.5\%&9.8\%&7.7\%\\\verb+:before83+(言語)&25.1\%&1.1\%&1.3\%\\\hline\verb+:speaker+&11.7\%&9.1\%&20.5\%\\\hline\end{tabular}\end{center}\end{table}次に、格要素別の事例被覆率を表\ref{事例被覆率/格}に示す。ここでも、ガ格(動)とガ格(形)の明確な差異が見受けられる。ガ格(形)の決定木は他の各要素の内容、例えば「で」などの格の存在とその格要素に関する属性が多いのに対して、一方ガ格(動)は述語と一部の重要な機能語に関する属性が多い。またニ格補完に作成した決定木は、一部の相違はあるもののガ格(動)と類似の傾向を示した。なお事例被覆率による結果では、話者の役割は我々が事前に予想したほどの重要性を持っていないとの結果となった。これは、用言と話者役割の情報を共に使用することによって補完内容が特定される場合を想定していたが、このような例があまり多数存在しなかったため、もしくは旅行対話における二者対話という制約が強く働き、話者を知る必要がないため、などの理由が考えられる。\begin{table}\begin{center}\caption{格による事例被覆率の変化}\label{事例被覆率/格}\begin{tabular}{c|*{3}{r}}\hline\hline&ガ/400&ガ(形)&ニ\hfill\\\hline\verb+:after+ございます&---&100.0\%&---\\\verb+:before16+(状態)&5.1\%&68.5\%&0.5\%\\\verb+:before34+(陳述)&5.3\%&59.0\%&11.2\%\\\verb+:before+で(格助詞)&5.2\%&23.9\%&1.9\%\\\hline\verb+:latest+お/ご&46.4\%&7.0\%&100.0\%\\\verb+:here43+(意向)&100.0\%&---&49.8\%\\\verb+:here41+(思考)&86.5\%&---&43.5\%\\\hline\verb+:speaker+&20.5\%&33.1\%&28.0\%\\\hline\end{tabular}\end{center}\end{table} \section{結論} \label{節:結論}日本語対話文の格要素省略に対して、決定木による補完処理の表現および機械学習によって補完知識を獲得する手法を提案した。補完に必要な知識として、内容語の意味属性、機能語の存在、話者知識の三種類を使用した。本論文で提案した手法は入力として品詞付き形態素列のみを使用しており、構文解析を必要としない。本手法により獲得した決定木で未学習文に対してテストを行なった結果、ガ格とニ格に対しては十分な精度で省略された人称を補完することを確認した。ヲ格に関しては、その補完内容が照応的であるという認知を行なうのに有効であることを確認し、本手法の有効性を確認することができた。また提案手法に関して、処理の有効性を学習量、話題依存性、使用属性との関係の3点から議論した。本研究で得られた主な知見を以下にまとめる。\begin{itemize}\itemガ格(動)やニ格は、尊敬を示す機能語などを重要視する。ガ格(形)は他の格要素の情報によって補完を試みる傾向がある。\item当該問題に対する学習量は全体として$10^4\sim10^5$事例で十分である。この時の補完精度の上限は$80\%\sim85\%$と予想される。\item対話の話題が既知もしくは予測可能な時は、その話題のみによる学習が最高の性能を示す。話題が未知の場合は、可能な限り広範な話題に対して学習するのが最も効果的である。\item学習量増加に伴い、決定木は話題に依存しない機能語などの属性を採用する。\end{itemize}本論文では日本語対話文における格要素の補完処理に限定して述べてきたが、提案手法の有効性はこれだけにとどまらない。例えば韓国語は日本語などと同様に格要素の省略が観察される。韓国語などにおける省略補完処理も本手法の応用によって可能になると考えられる。本論文で述べた手法を今後、多言語話し言葉翻訳システムTDMT{}\cite{TDMTmulti}の日英翻訳/日独翻訳部に組み込み、本処理が翻訳結果に与える有効性について検討を行なう。\vspace*{-10mm}\y{10}\subsection*{謝辞}本研究を進めるにあたって、省略に関する正解データを提供していただいたATR音声翻訳通信研究所の荒川直哉氏、及びプログラミング、実験を担当していただいた同研究所の西村仁志氏に感謝する。\begin{thebibliography}{}\bibitem[\protect\BCAY{Aone\BBA\Bennett}{Aone\BBA\Bennett}{1995}]{Aone}Aone,C.\BBACOMMA\\BBA\Bennett,S.~W.\BBOP1995\BBCP.\newblock\BBOQEvaluatingAutomatedandManualAcquisitionofAnaphoraResolutionStrategies\BBCQ\\newblockIn{\BemProc.of33rdAnnualMeetingoftheACL},\BPGS\122--129.\bibitem[\protect\BCAY{Byron\BBA\Stent}{Byron\BBA\Stent}{1998}]{Byron}Byron,D.\BBACOMMA\\BBA\Stent,A.\BBOP1998\BBCP.\newblock\BBOQAPreliminaryModelofCenteringinDialog\BBCQ\\newblockIn{\BemProc.ofCOLING-ACL'98},\BPGS\1475--1477.\bibitem[\protect\BCAY{Dohsaka}{Dohsaka}{1990}]{Dohsaka}Dohsaka,K.\BBOP1990\BBCP.\newblock\BBOQIdentifyingtheReferentsofZero-PronounsinJapanesebasedonPragmaticConstraintInterpretation\BBCQ\\newblockIn{\BemProc.ofEuropeanConferenceonArtificialIntelligence(ECAI)}.\bibitem[\protect\BCAY{江原,金}{江原,金}{1996}]{江原}江原暉将,金淵培\BBOP1996\BBCP.\newblock\JBOQ確率モデルによるゼロ主語の補完\JBCQ\\newblock\Jem{自然言語処理},{\Bbf3}(4),67--86.\bibitem[\protect\BCAY{Furuse,Kawai,Iida,Akamine,\BBA\Kim}{Furuseet~al.}{1995}]{TDMTmulti}Furuse,O.,Kawai,J.,Iida,H.,Akamine,S.,\BBA\Kim,D.-B.\BBOP1995\BBCP.\newblock\BBOQMulti-lingualSpoken-LanguageTranslationUtilizingTranslationExamples\BBCQ\\newblockIn{\BemProc.ofNaturalLanguageProcessingPacific-RimSymposium(NLPRS'95)},\BPGS\544--549.\bibitem[\protect\BCAY{Furuse,Sobashima,Takezawa,\BBA\Uratani}{Furuseet~al.}{1994}]{ATRCorpus}Furuse,O.,Sobashima,Y.,Takezawa,T.,\BBA\Uratani,N.\BBOP1994\BBCP.\newblock\BBOQBilingualCorpusforSpeechTranslation\BBCQ\\newblockIn{\BemProc.ofAAAI'94WorkshopontheIntegrationofNaturalLanguageandSpeechProcessing},\BPGS\84--91.\bibitem[\protect\BCAY{工藤,友清}{工藤,友清}{1993}]{工藤}工藤育男,友清睦子\BBOP1993\BBCP.\newblock\JBOQ日本語の述部の特性を用いた省略の補完機構について\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ76-D-II}(3),624--635.\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1997}]{村田}村田真樹,長尾眞\BBOP1997\BBCP.\newblock\JBOQ用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf4}(1),87--109.\bibitem[\protect\BCAY{Nakaiwa\BBA\Shirai}{Nakaiwa\BBA\Shirai}{1996}]{Nakaiwa}Nakaiwa,H.\BBACOMMA\\BBA\Shirai,S.\BBOP1996\BBCP.\newblock\BBOQAnaphoraResolutionofJapaneseZeroPronounswithDeicticReference\BBCQ\\newblockIn{\BemProc.ofCOLING-96},\BPGS\812--817.\bibitem[\protect\BCAY{大野,浜西}{大野,浜西}{1981}]{角川類語}大野晋,浜西正人\BBOP1981\BBCP.\newblock\Jem{角川類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{Quinlan}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5:ProgramsforMachineLearning}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Strube}{Strube}{1998}]{Strube}Strube,M.\BBOP1998\BBCP.\newblock\BBOQNeverLookBack:AnAlternativetoCentering\BBCQ\\newblockIn{\BemProc.ofCOLING-ACL'98},\BPGS\1251--1257.\bibitem[\protect\BCAY{田中}{田中}{1995}]{田中}田中英輝\BBOP1995\BBCP.\newblock\JBOQ動詞訳語選択のための「格フレーム木」の統計的な学習\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(3),49--72.\bibitem[\protect\BCAY{Walker\BBA\Moore}{Walker\BBA\Moore}{1997}]{Summary}Walker,M.\BBACOMMA\\BBA\Moore,J.~D.\BBOP1997\BBCP.\newblock\BBOQEmpiricalStudiesinDiscourse\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(1),1--12.\bibitem[\protect\BCAY{Walker,Iida,\BBA\Cote}{Walkeret~al.}{1994}]{Walker}Walker,M.~A.,Iida,M.,\BBA\Cote,S.\BBOP1994\BBCP.\newblock\BBOQJapaneseDiscourseandtheProcessofCentering\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(2),193--232.\bibitem[\protect\BCAY{Yamamoto,Sumita,Furuse,\BBA\Iida}{Yamamotoet~al.}{1997}]{NLPRS97}Yamamoto,K.,Sumita,E.,Furuse,O.,\BBA\Iida,H.\BBOP1997\BBCP.\newblock\BBOQEllipsisResolutioninDialoguesviaDecision-TreeLearning\BBCQ\\newblockIn{\BemProc.ofNaturalLanguageProcessingPacific-RimSymposium(NLPRS'97)},\BPGS\423--428.\bibitem[\protect\BCAY{Yamamoto\BBA\Sumita}{Yamamoto\BBA\Sumita}{1998}]{Coling-ACL98}Yamamoto,K.\BBACOMMA\\BBA\Sumita,E.\BBOP1998\BBCP.\newblock\BBOQFeasibilityStudyforEllipsisResolutioninDialoguesbyMachine-LearningTechnique\BBCQ\\newblockIn{\BemProc.ofCOLING-ACL'98},\BPGS\1428--1435.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了。博士(工学)。同年よりATR音声翻訳通信研究所客員研究員、現在に至る。1998年中国科学院自動化研究所国外訪問学者。要約処理、機械翻訳、韓国語及び中国語処理の研究に従事。1995年NLPRS'95BestPaperAwards。情報処理学会、ACL各会員。}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了。ATR音声翻訳通信研究所主任研究員。自然言語処理、並列処理、機械翻訳、情報検索の研究に従事。情報処理学会、電子情報通信学会各会員。}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\appendix \section{決定木の例} \label{節:決定木}本提案手法で作成される決定木の例を図\ref{決定木の例}に示す。この決定木は、\ref{節:実験}節の表\ref{標準}における「未知文」の欄の実験(補完対象:ガ格(動)、使用属性数:367、話題:$T$、学習対話数:100、省略数:1710)により実際に作成されたものの一部である。例えば(1)に示す葉には128事例が学習で集まり、最多要素(=補完人称)が<1sg>であったことを示す。また、この意志決定が行なわれるまでに、\begin{enumerate}\item\verb+:here43+(意向)-->[Y]\item\verb+:here78+(社交)-->[N]\item\verb+:after+か(終助詞)-->[N]\item\verb+:after+できる-->[N]\item\verb+:here40+(感覚)-->[Y]\end{enumerate}\noindentという五つの属性に対して検査されてきていることを示す。ここで、属性の条件を満たすときは[Y]、満たさない時は[N]と表記している。形態素に関する属性にはすべて品詞情報も付与してあるが、以下に示す例では省略した。ただし、多品詞語に対しては品詞名も表記した。また便宜のため、内容語の意味属性に対してはそのラベル名も記した。\begin{figure}[p]\renewcommand{\baselinestretch}{}\large\normalsize\centerline{\rule{140mm}{.3mm}}\begin{verbatim}:here43(意向)|[Y]:here78(社交)||[Y]:afterておる|||[Y]:afterので||||[N]:after申し上げる||||[Y]:speaker情報提供者|||||[Y]---<1pl>(4)||||[N]---<1pl>(19)|||[N]:before75(報道)|||[Y]:before16(状態)||||[N]---<1sg>(3)|||[N]:afterている|||[N]:beforeを|||[N]---<2sg>(58)----------------(3)||[N]:afterか(終助詞)||[Y]:here44(要求)|||[Y]:latestお/ご/御||||[Y]---<1sg>(9)|||[N]:before(疑問詞)|||[Y]---<2sg>(9)|||[N]:afterでしょう|||[N]---<1pl>(5)||[N]:afterできる||[Y]:before15(時間)|||[N]---<1pl>(9)||[N]:here40(感覚)||[Y]---<1sg>(128)----------------(1)|[N]:here41(思考)|[Y]:afterた||[Y]:here37(授受)|||[N]:beforeが(格助詞)|||[N]:afterできる|||[Y]---<a>(120)----------------(2)||[N]:afterます||[N]:latestお/ご/御||[Y]:afterたら||[N]---<2sg>(7)|[N]:afterか(終助詞)|[Y]:here37(授受)||[Y]:afterできる||[Y]---<1sg>(5)|[N]:afterてくださる|[N]:latestお/ご/御|[N]:here(尊敬語)|[Y]---<2sg>(15)\end{verbatim}\centerline{\rule{140mm}{.3mm}}\caption{決定木の例}\label{決定木の例}\end{figure} \section{決定木学習に使用した発話の例} \label{節:例文}{}\ref{節:決定木}節の例において、主な終端節点での発話の例を示す。以下では、`/'は形態素区切りを、下線は補完対象となる用言を示す。また、すべての形態素は正規形で表記する。\subsection{節点(1):一人称単数128事例}\begin{itemize}\itemケーブルカー/が/おもしろい/と/\underline{思う}/ます/ね/。\item予約/の/必要/は/ない/か/と/\underline{思う}/ます/。\itemバス/の/中/で/ご/ゆっくり/お/休む/いただける/と/\underline{思う}/ます/が/。\item一/泊/する/たい/と/\underline{思う}/ている/ます/。\itemその際/に/はっきり/する/た/お/答え/が/できる/か/と/\underline{思う}/ます/が/。\itemええ/そう/だ/と/\underline{思う}/ます/。\item二/時間/で/終わる/と/\underline{思う}/ます/。\itemそれでしたら/当ホテル/の/桔梗の間/が/ちょうど/大きい/さ/よろしい/か/と/\underline{思う}/ます/。\itemわたくし/ども/の/要望/する/会場/使用料/の/限度/を/分かる/ていただける/た/と/\underline{思う}/ます/。\item使いで/は/より/よい/なる/と/\underline{思う}/ます/けれども/。\end{itemize}\subsection{節点(2):文脈省略120事例}\begin{itemize}\itemはい/\underline{分かる}/ます/た/。\item\underline{分かる}/ます/た/。\itemはい/\underline{分かる}/ます/た/鈴木/様/。\item\underline{わかる}/ます/た/。\item\underline{分かる}/ます/た/どうも/ありがとう/。\itemなるほど/\underline{分かる}/ます/た/。\itemそう/です/か/\underline{分かる}/ます/た/。\item\underline{分かる}/ます/た/では/お/願う/いたす/ます/。\item\underline{わかる}/ます/た/お/調べる/いたす/ます/。\itemだいたい/\underline{分かる}/ます/た/。\end{itemize}\subsection{節点(3):二人称単数58事例}\begin{itemize}\item少々/そのまま/で/お/\underline{待つ}/くださる/ます/。\item少々/お/\underline{待つ}/くださる/。\item少々/お/\underline{待つ}/くださる/ます/。\itemはい/少々/お/\underline{待つ}/くださる/ます/。\itemしばらく/お/\underline{待つ}/くださる/ます/。\itemそれで/こちら/の/番号/が/ちょっと/\underline{待つ}/て\itemどうも/ありがとう/ちょっと/\underline{待つ}/てくださる/。\itemもう/少々/そのまま/で/お/\underline{待つ}/いただける/ます/か/。\itemお/部屋/の/ほう/で/少々/お/\underline{待つ}/くださる/ます/。\itemもう/少々/お/\underline{待つ}/いただける/ます/でしょう/か/。\end{itemize}\end{document}
V24N01-04
\section{はじめに} インターネットを通じたサービス利用はスマートフォンの普及を背景に近年ますます増加している\cite{ictbook2014}.スマートフォンでの各種サービスの利用はこれまでのPCを経由して利用するインターネットサービスに比べて,画面の大きさや操作性という面で大きく制限されており,サービス提供者はスマートフォンに合わせたユーザ体験を新たに構築する必要に迫られている.このような背景の中で推薦システムに注目が集まっている.推薦システムはユーザの興味関心に合わせて商品などを提示することを目的としたシステムであり,Amazon\footnote{http://www.amazon.com/}での商品推薦や,Facebook\footnote{https://www.facebook.com/}での友人推薦をはじめとして幅広く利用されている.画面の大きさや操作性が制限されているスマートフォンにおいて,推薦システムを用いてユーザに合わせて最適な選択肢を提示することでユーザ体験を大きく改善することが期待されており,今後様々な場面での利用が進んでいくと考えられる.このような背景から推薦システムのユーザ体験に関する研究が近年注目を集めており,その中で重要だと言われている指標の1つに多様性(Diversity)がある.推薦システムが悪いとそのサービスが悪いとみなされると指摘されており\cite{cosley2003},推薦システムのユーザ体験を考慮することはそのサービス設計のためにも重要である.多様性がユーザにもたらす影響についてはZieglerらの研究がよく知られており\cite{ziegler2005},多様性を含んだリストをユーザに提示するとユーザは自分に最適化されていないものが含まれていることは認識するが,多様性が含まれたものを好むという結果が報告されている.また推薦システムについてはFilterBubbleという問題が指摘されているが,その問題への対応のためにも推薦リストの多様性が重要であると言われている\cite{Pariser2011}.ジャーナリストであるイーライ・パリサーは検索エンジンやSNS(SocialNetworkService)が推薦システムの技術を用いてパーソナライズ化されていくことに対して,情報のタコツボ化が起こることを懸念し,人々が正しい意思決定をすることを阻害していると警鐘を鳴らした.その動きに対応して推薦システムに関する国際会議であるRecsys\footnote{https://recsys.acm.org/}では,2011年にFilterBubbleに関するワークショップを開催し,FilterBubble問題に関する見解を示した\cite{filterbubble}.その中でFilterBubbleとパーソナライズはトレードオフであること,すべての情報を人が網羅することは不可能なのでフィルタリング技術は必要であることを指摘した上で,推薦システムを作る過程において,そのシステムの説明性,透明性を担保すること,推薦される個々のアイテムだけでなくリスト全体を評価し,多様性も考慮して設計することが必要であるとした.このような背景から近年推薦システムを構築する上で多様性を考慮することは一般的になったが,推薦結果の多様性がユーザやサービスにどのような影響をあたえるかについては分かっていない点が多い.多様性に関する研究の多くは多様性がユーザ体験を向上させるという前提に立っているが,その根拠はユーザへのアンケートによるものであり,サービスにどのような形で利益をもたらすかについては明らかになっていない.これは推薦システム研究の多くが過去のデータを用いたオフラインテストで行われており,実際にサービス上でシステムを提供して比較した例が少ないことが要因である.本研究の目的は推薦システムを用いて提供されているサービスに対して多様性を導入し,推薦結果の多様性がユーザに与える影響について明らかにすることである.本研究ではウェブページ推薦システムを提供しているグノシー\footnote{http://gunosy.com}というサービスにおいて,推薦システムに多様性を導入しそのユーザ行動への影響について報告する.まず多様性がない既存システムにおけるユーザの行動を分析し,どのような特性をもったシステムであるかを示した.その上で多様性を導入したユーザ減衰モデルを構築した上で実際にサービス上でユーザに対して提供し,既存システムとの比較を行った.その結果多様性がサービスの継続率の改善や利用日数の増加という形でユーザの満足度を高めていることを示した.これはユーザは多様性を含むリストの方を好むという従来研究で指摘されていた点がサービス上においても有用に働くことを示したといえる.また利用日数が浅い段階ではユーザがクリックするウェブページの数は既存システムと同程度であるが,利用日数が増えるにしたがって多様性をもったユーザ減衰モデルのほうがクリックするウェブページの数が増えていくことを明らかにした.そして多様性のない既存システムでは,利用日数が増えるに従って推薦リスト下部のクリック率が下がっていくのに対して,多様性を取り入れたユーザ減衰モデルでは,推薦リスト下部のクリック率が向上していくことを示した.これは従来研究は確認できなかった多様性の中長期における影響を示したものである.本研究では実際に事業として開発・運用されているウェブサービスを利用しているため,ビジネス上の制約により用いている手法をすべて公開することはできない.既存システムのユーザ行動の分析によって推薦システムとして有効に作用していることを示すことによってその代わりとしたい.本研究の目的は多様性がユーザ体験にどのような影響を与えるかについて論じることであり,手法が非公開であることが本研究の結果に与える影響は軽微であると考える.以下に本論文の構成を示す.\ref{sec:related}章に関連研究と本研究の位置付けを示す.\ref{sec:gunosy}章において本研究で利用するグノシーというサービスと,そこで用いられている推薦システムについて紹介し,そのシステムのユーザ行動とその課題について分析する.\ref{sec:purpose}章で前章で述べた課題を元に推薦システムに多様性を導入する方法について述べる.\ref{sec:experience}章で既存システムと比較手法の比較実験を行い,推薦システムの多様性がサービスにもたらす影響について考察し,\ref{sec:conclusion}章で本研究のまとめを行う. \section{関連研究} \label{sec:related}本章では本研究の関連研究についてまとめる.推薦システムの初期の研究では検索エンジンと同様に結果の適合度によって推薦システムが評価されていた\cite{Jannach2010}.しかしHerlockerらの研究によって多様性,意外性,新規性などが推薦システムのユーザ満足度を高める可能性があると指摘され\cite{herlocker2004},現在ではKonstanらが推薦システムとユーザ体験に関する研究についてまとめたように様々な試みがなされている\cite{Konstan2012}.多様性に関する研究としてはZieglerらの研究がよく知られている\cite{ziegler2005}.Zieglerらはリスト内の多様性を表すintra-list-similarityという多様性に関係する指標を提案し,通常の類似度による推薦との重み付け和によって推薦を行う推薦システムを提案した.本の推薦システムによって多様性を持つシステムのユーザへのアンケートを行い,ユーザは自分に最適化されていないことは認識するものの,多様性が含まれている推薦リストのほうが好ましいと答えた.この結果が多様性が推薦システムにおいて重要だとされる根拠となり,推薦システムにおいて多様性を考慮する研究が数多く生まれているが,多様性がユーザに与える影響についてより踏み込んだ分析は我々の知る限りでは行われていない\cite{murakami2009,zhang2008avoiding,lathia2010temporal}.本研究は実サービスでの推薦システムの比較を行うことで,多様性がユーザに与える影響について新たな示唆を与えるものである.推薦システムのユーザ行動に関する知見が少ない理由として実際にサービス上で行われた実験が少ないことが挙げられる.ここではサービス上で行われた実験をいくつか紹介する.DavidsonらはYoutubeにおいて推薦システムを導入した際の効果について報告した\cite{davidson2010youtube}.そのシステムはco-viewを用いた単純なものであるとされており,手法の詳細については公開されていないが,単純な人気ランキングを表示するのと比べて207\%クリック率が向上したと報告されている.BellufらはブラジルのECサイトを対象に5\%のユーザに対して推薦システムを適用しユーザ行動の差を分析する研究を行い,結果として8--20\%の売上の向上が見込めることを報告している\cite{belluf2012case}.なおこちらの研究においても推薦システムの手法の詳細は公開されていない.サービス上での評価とは少し異なるが,Flederらは推薦システムを経済シミュレーションにより分析し\cite{fleder2007recommender},経路依存性が存在すること,推薦システムによってその特性が様々に変わることを指摘している.このように推薦システムがサービスにどのような影響を与えるかを調べた研究はまだ少ない.本研究ではウェブページ推薦を行うサービスであるグノシー上において提供する推薦システムを対象に実験を行い,推薦システムがどのように利用されており,多様性がサービスにどのような影響を与えているかを実データを分析することで示す. \section{グノシーの推薦システム} \label{sec:gunosy}本研究は株式会社Gunosyが提供している情報キュレーションサービスであるグノシー内において行われている.本章ではグノシーがどのようなサービスなのかを述べ,サービス内で用いられている推薦システムの概要を説明し,本システムがどのような特性を持っているのかをいくつかの実験の結果を元に説明する.その上で本システムの課題について分析を行い,多様性がどのような影響を与えるかを考察する.\subsection{グノシーについて}グノシーは株式会社Gunosyが運営する情報キュレーションサービスである.2011年9月にサービスを開始し,翌年11月に法人化された.スマートフォンアプリケーションを中心にサービスを展開しており,アプリケーションのダウンロード数は2016年10月で1600万を超えている国内最大級の情報キュレーションサービスである\footnote{https://gunosy.co.jp/news/75}.情報キュレーションサービスはウェブ上の様々なコンテンツを取捨選択し,サービス上でユーザに提示するサービスである.国内ではグノシーの他にSmartnews\footnote{https://www.smartnews.com},Anntena\footnote{https://antenna.jp},NewsPicks\footnote{https://newspicks.com/}等がよく知られている.情報キュレーションサービスで扱うコンテンツはニュースが中心ではあるが,コラムやブログ,まとめサイトなど様々なコンテンツを扱っていることが多い.2014年に矢野経済研究所が行った調査ではキュレーションサービスの市場規模は2012年は60億円程度であったが,2014年には178億円,2017年には395億円と急成長していくとしている\cite{yano2014}.本研究は2011年9月のサービスリリース時から2012年末までの期間を対象に行われたものである.その期間においてグノシーはTwitter\footnote{https://twitter.com/},Facebook,はてなブックマーク\footnote{http://b.hatena.ne.jp/}のアカウントを連携することにより,登録したユーザのそれぞれのサービス内での行動から1日25件のウェブページをユーザに提示するサービスを提供していた.提示されたコンテンツはウェブブラウザでログインして見ることができる他,登録したメールアドレスに指定した時間に送ることもできる.現在のグノシーではこの機能は‘マイニュース’というサービス上の一部の機能として提供されている.\subsection{グノシーの推薦システムの概要}本節ではグノシーで利用されている推薦システムがどのようなものかについて述べる.システムの詳細についてはビジネス上の制約により紹介することはできないが,本研究の目的は多様性がもたらすユーザ体験の変化を明らかにすることであり,システムの詳細が明らかでなくても問題はないと考える.グノシーの推薦システムは内容ベースフィルタリングをベースにしたシンプルなものである\cite{Jannach2010}.推薦対象となるウェブページ集合$W$とユーザ集合$U$を考える.ここであるウェブページ$w\inW$がユーザ$u\inU$にどれだけ好まれるかの予測値を$r$として表す.この予測値は正の値をとり,正規化されておらず値域は$[0,\infty)$となる.この評価値を元にユーザ$u$に対して$r$が大きい順にウェブページを$w_1,w_2,...,w_{|W|}$と並べると,$w_1,...,w_K$のウェブページがユーザに提示するウェブページのリストとなる.$K$はユーザに提示するウェブページの個数で,Gunosyの場合は$K=25$となる.多くの内容ベースフィルタリングによる推薦システムがそうであるように,ユーザ$u$の興味関心とウェブページ$w$の特徴量を共通の$N$次元ベクトル空間で表現し,評価値$r$はベクトルの類似度により求められる.ウェブページ特徴量$\vec{w}$とユーザ特徴量$\vec{u}$は単語によって構築される共通の次元空間を持っており,評価関数はウェブページの特徴量$\vec{w}$とユーザ特徴量$\vec{u}$との内積をベースに重み付けや正規化にいくつかのヒューリスティクスを用いている.ウェブページの特徴量$\vec{w}$の構築にはウェブページ内のテキストにおける単語のTF-IDF値を出現位置によって重み付けした値をベースに,そのウェブページが誰によって書かれたかによって幾つかの単語に値が追加されるルールや,そのウェブページについてSNS,ソーシャルブックマークサービス,ブログなどの外部のウェブサイトに投稿された内容を解析した結果なども用いている.ユーザの特徴量$\vec{u}$にはサービス登録時は連携したサービスでのプロフィール文などから構築した特徴量と,連携したサービスに投稿したウェブページとグノシー内でクリックしたウェブページの特徴量$\vec{w}$の重み付け和を組み合わせたものを利用している.このように手法は様々なルールやヒューリスティクスを含む形で構築されている.ウェブページの特徴量を生成するための詳細や連携サービスからの特徴量抽出,重み付けの詳細などは事業上の理由により公開することができない.しかし本研究の目的は多様性を導入した際のユーザ行動の変化を明らかにすることであるため,多様性を導入した手法と既存システムで非公開にしているウェブページの特徴量$\vec{w}$,ユーザの特徴量$\vec{u}$,評価値関数$f$は共通であることと,既存システムにおけるユーザ行動の分析が十分に行われていることで,本研究の目的と結果の有効性に対する影響は軽微であると我々は考えている.まず本システムが推薦システムとして有効に作用しているのかを検証する.本システムはユーザ$u$がウェブページ$w$に興味の持つ度合い$r$を求めている.$r$が適切に求められているのであれば,$r$が高ければ高いほどユーザ$u$がウェブページ$w$を閲覧する確率は高くなると考えられる.2012年5月から9月にサービスを利用した全ユーザに対して,推薦された記事の$r$とその記事のクリック率を比較し相関関係を求めた.各ウェブページの$r$を0$\sim$9.9まで0.1刻みとそれ以上に分け,各区分でのクリック率を$\frac{クリックしたユーザ数}{推薦されたユーザ数}$として求める.\begin{figure}[t]\begin{center}\includegraphics{24-1ia5f1.eps}\end{center}\caption{$r$とクリック率の関係}\label{fig:r_vs_ctr}\end{figure}クリック率と$r$の関係を図\ref{fig:r_vs_ctr}に示す.相関係数は0.958となり,この結果からクリック率と$r$には強い正の相関があることが示された.このことからウェブページのクリック率がユーザの興味関心の度合いを示すと仮定すれば,$r$はそのウェブページに対するユーザの興味関心の度合いを示すことができていると考えられる.\subsection{表示位置とクリック率}本節では記事の表示順位がクリック率にどのような影響を及ぼしているのかについて述べ,多様性の導入が本システムにどのような影響をもたらすのかについて考察する.本システムではユーザごとに$r$の大きい順に25件のウェブページを縦に並べて提示している.これは一般的な検索エンジンが検索結果を表示するのと似ており,検索エンジンのクリック率は順位によって変動することが知られている\cite{manning2008introduction}.前節では$r$とクリック率に強い相関があることを示したが,$r$が高ければ本システムでは高い位置に表示されることになる.本システムにおいてリスト内での表示位置がウェブページのクリック率にどのような影響を与えているのかを調べるために2つの実験を行った.\begin{figure}[b]\begin{center}\includegraphics{24-1ia5f2.eps}\end{center}\caption{順表示と逆順表示の際のクリック率の比較}\label{fig:reversed}\end{figure}第1の実験として一部のユーザに対して推薦結果のリストを逆順に表示し比較を行った.本システムでは通常25件のウェブページを$r$の大きい順に表示しているが,この実験では$k$番目のウェブページを$26-k$番目に表示するようにした.つまり元々1番目に表示されていたウェブページが25件目に表示され,25番目に表示されていたウェブページが1番目に表示されることになる.対象ユーザとしてアクティブなユーザの中から2,000人のユーザをランダムに抽出し,一定期間実施した.この実験の目的はウェブページのクリック率が表示位置によってどの程度変わるのかを知ることである.もし前節で示した$r$とクリック率の相関関係が,$r$が高いウェブページが上位に表示されることによるのであれば,逆表示であっても最上位に表示されたウェブページのクリック率は高くなり,最下位に表示された$r$の高いウェブページのクリック率は低くなる.図\ref{fig:reversed}に順表示と逆表示での位置ごとのクリック率を比較したグラフを示す.ここでクリック率は前節とは異なり,そのリスト内のウェブページを1つ以上クリックしたユーザを母数として求めている.まず順表示のほうのクリック率を見ると,順位が高いほどクリック率が高くなることがわかる.またリストの最下部で若干の上昇がみられるが,これはリストの最下部はスクロールが止まるため若干クリック率が上がるためであると考えられる.次に逆順表示のクリック率をみると,最上部は少し高いものの順表示と比べてると大幅に低く,その後5番目からゆるやかに上昇しだし,最下部では最上部と同じようなクリック率を計測した.逆表示において最上部以外は順位が下がるにつれてクリック率が上昇すること,最上部のクリック率は順表示と逆表示で大きな差があることから,$r$とクリック率の相関関係が表示位置のみによるものではなく,$r$がユーザの興味関心度合いをある程度表していることが明らかとなった.第2の実験として人手で選択したウェブページを25件のランダムな位置に挿入し,システムによって推薦されたウェブページとのクリック率の差分を調べた.ウェブページの選択に際しては外部のメディア運営者に協力を依頼し,運営するメディアの記事から日1件選択されたものを利用した.選択されたウェブページは対象となったユーザのウェブページリストのランダムな位置に挿入される.本実験は一定期間すべてのユーザを対象に行われた.\begin{figure}[b]\begin{center}\includegraphics{24-1ia5f3.eps}\end{center}\caption{人為的に選んだウェブページと推薦結果の比較}\label{fig:logic_vs_manual}\end{figure}この実験の目的は$r$の値にしたがってウェブページのリストを構築することがどれだけユーザのクリック率に寄与しているのかを確認することである.$r$の値に関係なく人手で選んだウェブページのクリック率が高くなるような表示位置があるのであれば,推薦システムのウェブページの選び方に課題があると考えられる.図\ref{fig:logic_vs_manual}に比較結果を示す.リストの上位の記事は人手で挿入された記事と比較して高いクリック率を有しているが,リストの中位の記事は手動で挿入された記事と比較し同程度のクリック率をもち,下位では人手で挿入した記事のほうが高いクリック率を持つようになっている.この結果は本システムが中位以降については$r$に従って推薦することがユーザのクリック率を高めることに寄与しない可能性があることを示唆している.2つの実験によって以下の事柄が明らかとなった.\begin{itemize}\item$r$の大きさとウェブページのクリック率の相関は表示順位のみによるものではないため,$r$の値はある程度ユーザの興味関心度合いを反映しているといえる.\item$r$の大きさにしたがってリストを構築した場合,上位においては高いクリック率を得ることができるが,中位以降では無作為に挿入した記事と同等のクリック率であり,下位では無作為に挿入した記事のほうが高いクリック率をもつ.\end{itemize}つまり本システムは興味関心をある程度表現できてはいるものの,推薦リストの構築として考えた際に中位以降の表示に対して課題があることが明らかになった.本システムではユーザの特徴量$\vec{u}$とウェブページの特徴量$\vec{w}$の類似度が高いものから順に並べてリストを構築している.ここでユーザの特徴量$\vec{u}$において$i$番目の次元の$u_i$の値が他の次元の値と比べ非常に大きいとする($u_i\ggu_{\backslashi}$).その時$i$次元が高い特徴量を持つウェブページの$r$が高くなるため,推薦リスト内のウェブページがそのようなウェブページばかりになってしまう.特徴量の各次元はユーザの興味関心の方向を表しているため,結果として推薦リスト内が同じようなウェブページばかりで構成されてしまうことになる.上記の例は極端ではあるが,上部で既に提示された記事と同じような内容になるため中位以降では飽きが生じてしまい,結果として人手で挿入した記事のほうが新鮮さがあるためクリック率が同程度かそれ以上になるのではないかと考える.このような結果から本システムに多様性を導入することにより,中位以降のクリック率を改善することができ,ユーザ満足度を向上させることに繋がるのではないかと考えた. \section{推薦システムへの多様性の導入} \label{sec:purpose}本章では既存の推薦システムに多様性を導入する方法について述べる.まず多様性の手法としてよく知られているZieglerらのTopicDiversificationAlgorithm(TDA)を紹介する\cite{ziegler2005}.そしてTDAをベースにグノシーの推薦システムに多様性を導入するためのユーザ減衰モデルについて述べ,TDAとの関連について議論する.そしてユーザ減衰モデルがどのように多様性を向上させているのかを比較実験によって示す.\subsection{TopicDiversificationAlgorithm}本節では推薦リストの多様性に関する手法としてよく知られているZieglerらの手法を紹介する\cite{ziegler2005}.Zieglerらは多様性を表す指標Intra-ListSimilarityと,関連度順に与えられた推薦リストから多様性を持った推薦リストを生成するTopicDiversificationAlgorithm(TDA)を提案している.TDAは既に関連度順に並んでいるアイテムリスト$L$があるときに,そのリストを多様性を持つように並び替えたリスト$L_{diver}$を構築することを目的としている.ここで多様性リスト$L_{diver}$はもともとのリスト$L$と同じ長さかそれより短いものとする.ここでアイテムリスト$l$とアイテム$p$の類似度を表す関数を$c(l,p)$と,アイテム$p$のリスト$l$内での位置を表す関数を$rank(p,l)$とする.またリスト$L$の$i$番目のアイテムを$L(i)$とすることにする.つまり$rank(L(i),L)=i$と書ける.TDAではまず$L_{diver}(0)=L(0)$として,その後$L_{diver}$に含まれない$L$内のアイテムリスト$L_{\backslashdiver}$から$L_{diver}$にアイテムを1つずつ追加する.まず$L_{\backslashdiver}$内のアイテム$p$とリスト$L_{diver}$との類似度$c(L_{diver},p)$の昇順になるようにソートしたリスト$L_{similar}$を構築し,以下の条件を満たす$p$を$L_{diver}$の末尾に加える.\begin{equation}\label{eq:tda}\min_{p}\bigl\{(1-\alpha)\timesrank(p,L)+\alpha\timesrank(p,L_{similar})\bigr\}\end{equation}式\ref{eq:tda}では既に作られているリストとの類似度の少なさの順位と,推薦システムとしての関連度の順位を平均した順位が最も高いアイテムを選ぶ.このようにして選ばれたアイテムをリストに加えることを繰り返し,多様性のあるリストを作る.この手法によって構築した推薦リストは$\alpha$を高めるとPresicionやRecallは低下するが多様性は高まっていき,アンケートによる実験の結果ユーザは$\alpha$が0.3〜0.4のリストを最も好むと報告された.特に内容ベースフィルタリングを用いた推薦リストにおいて著しいユーザ満足度の向上が見られたことが示されている.\subsection{多様性の導入}本節では\ref{sec:gunosy}章で述べた手法に多様性を導入する方法について述べる.前節で紹介したTDAは既に推薦されたリスト内のアイテムと類似度が高いアイテムが推薦されにくくなることを目的とした手法である.この考え方を元に既存システムに多様性を組み込むために,本研究では推薦されたアイテムの特徴量を,ユーザの特徴量から減衰することによって同様の多様性効果を得ることを目指す.以降本手法をユーザ減衰モデルと呼ぶ.このユーザ減衰モデルはTDAの考えをグノシーのシステムで実現するための手法であり,本論文の貢献としてユーザ減衰モデルの提案は含まない.まず推薦リストをいくつかのブロックに分割する.$K$個のウェブページを推薦する場合それを$N<K$となる$N$個のリストに分割する.ここで$i$番目のリスト内のウェブページの個数を$k_i$とすると$K=\sum_{i=0}^Nk_i$と書ける.また$i$番目のブロックまでに推薦されているウェブページの数を$n_i$とすると,$n_0=0$,$i$が1以上のときは$n_i=\sum_{j=0}^{i}k_j$と書ける.このようにリストを$N$個に分割した上で,各ブロックごとに推薦を行いながらユーザの特徴量を減衰させていく.$i$番目のリストを生成するためのユーザの特徴量を$\vec{u_i}$とすると,以下のように書ける.\pagebreak\begin{gather}\vec{u_0}=\vec{u}\nonumber\\\vec{u_{i+1}}=\vec{u_{i}}-\alpha\sum_{j=n_i}^{n_{i+1}}\vec{w_j}(i\geq0)\label{eq:descrease}\end{gather}ここで$\alpha$は定数である.このユーザ減衰モデルがTDAと同じような性質を持つことを示す.ユーザ減衰モデルにおいて$k_0=3$であり,$\vec{u_0}$を用いて$w_0,w_1,w_2$を推薦したとする.ここで次の推薦のための減衰されたユーザの特徴量$\vec{u_1}$は式\ref{eq:descrease}から以下のように求められる.\[\vec{u_1}=\vec{u_0}-\alpha*(\vec{w_0}+\vec{w_1}+\vec{w_2})\]ここで次に推薦されるアイテム$w_4$は以下のように書ける.\[w_4=max_{w\inW_{\backslashw_0,w_1,w_2}}f(\vec{u_1},\vec{w})\]ここで$f(\vec{u},\vec{w})$は同じベクトル空間上のユーザ特徴量とウェブページ特徴量の類似度をベースに表現されることから$f$では以下が成立すると仮定する.\begin{gather*}f(\vec{u_1}+\vec{u_2},w)\proptof(\vec{u_1},\vec{w})+f(\vec{u_2},\vec{w})\\f(\alpha\vec{u},\vec{w})\propto\alphaf(\vec{u},\vec{w})\end{gather*}これを利用すると$f(u_1,w)$は以下のように展開できる.\begin{equation}\label{eq:tda_vs_purpose}f(u_1,w)\proptof(u_0,w)+f(-\alpha(w_1+w_2+w_3),w)\proptof(u_0,w)-\alphaf(w_1+w_2+w_3,w)\end{equation}ここで第一項の$f(\vec{u_0},w)$は減衰前のユーザ特徴量と$w$の類似度を返すものであり,第二項目は既に構築された推薦リストと$w$の類似度を返すものである.つまりユーザ減衰モデルでは元々のユーザ特徴量の評価値から,既に構築された記事リストとの評価値に一定の値を乗じた値を引いた値が最大になるウェブページを推薦しているといえる.ここで式\ref{eq:tda}と式\ref{eq:tda_vs_purpose}を比較すると,TDAにおける順位を返す関数を評価値を返す関数と考えれば,ユーザ減衰モデルとTDAは一致するといえる.ユーザ減衰モデルとTDAの違いを以下にまとめる.\begin{itemize}\itemTDAではリストとの類似度を順位として重み付け平均で計算しているが,本研究では評価値の重み付け平均とすることでユーザ特徴量の減衰によって実現している.\itemTDAでは構築したリストにアイテムを1つずつ追加しているが,ユーザ減衰モデルではブロックにわけて複数個ずつ追加している.\end{itemize}このように細部の違いはあるもののユーザ減衰モデルの基本的な考え方はTDAと一致している.\subsection{既存システムとの比較実験}本節ではユーザ減衰モデルがどれだけ多様性を向上させているのかを既存システムと比較することによって示す.2012年11月の1週間の記事データを用いて1日ずつ当該期間にアクティブであったユーザから無作為に抽出した1,000人のユーザに対して,既存システムとユーザ減衰モデルを用いてそれぞれ25件の記事リスト生成し比較を行う.このとき推薦リストの分割数$N=5$とし,各ブロックの大きさは$k_1=3,k_2=4,k_3=5,k_4=6,k_5=7$とした.比較のためにZiegerらの研究でも用いられていたIntra-List-Similarity(ILS)とoverlapの2つの指標を用いる\cite{ziegler2005}.ILSはZieglerらが提案した多様性を評価するための指標であり,多様性を評価する上で代表的な手法である\cite{Konstan2012}.定義を以下に示す.\[ILS(P_{w_i})=\frac{\sum_{b_k\inP_{w_i}}\sum_{b_e\inP_{w_i},b_k\neqb_e}c_o(b_k,b_e)}{2}\]このようにILSはリスト内のすべてのアイテムの組み合わせの類似度の総和である.本節では各記事の特徴量のコサイン類似度によってILSを求めることとする.overlapは元の推薦リストと多様性のある記事リストが何件一致しているかによって求められる.これによって多様性によってどれだけ推薦結果が変化するのかを知ることができる.まず7日間全体での各指標の平均値を表\ref{tbl:diversity}に示す.\begin{table}[t]\caption{多様性指標の比較}\label{tbl:diversity}\input{05table01.txt}\end{table}ユーザ減衰モデルでは既存システムに比べてILSが下がっていることが分かる.これはユーザ特徴量を減衰しながら推薦することで,既存システムでは推薦されていたリスト上位で既に推薦された記事と類似している$r$が高い値をもつ記事が推薦されにくくなったためである.overlapは8.06であり既存システムと提案手法では約8件と約2/3の記事が変化していることが分かる.最上位ブロックは両方の手法で変化しない.$k_1=3$であるため今回の実験では3件の記事は必ず一致する.そのため残りの22件のうち17件が多様性によって変化したと言える.このようにユーザ減衰モデルがリスト内の類似度を低下させ,記事リストを変化させていることが明らかになった. \section{多様性の導入によるユーザ行動の変化} \label{sec:experience}本章ではユーザ減衰モデルを実際にサービスに適用することでユーザ行動におこった変化について述べ,推薦システムの多様性がユーザ体験に与える影響について考察する.\subsection{実験方法}本節では実験方法について述べる.本研究ではグノシーのサービス上で\ref{sec:gunosy}章で述べた既存システムと\ref{sec:purpose}章で述べたユーザ減衰モデルの比較を行った.実験は2012年の8月から12月において行われた.既存システムによってサービスを提供する期間と,ユーザ減衰モデルによってサービスを提供する期間に分け,それぞれの期間における新規登録ユーザのサービス内でのユーザ行動を比較した.また本サービスでは各種ウェブサービスとの連携によって初期のユーザ特徴量を構築しているが,連携したウェブサービス上での行動が少ない場合は初期のユーザの特徴量を構築することができない.本サービスではそのようなユーザに対してランダムな記事リストの生成を初期段階で行い,クリックしたウェブページのみによってユーザ特徴量を生成している.このようなユーザは継続率やウェブページのクリック率がそうでないユーザに比べて低いことが経験的に知られており,期間中のそのようなユーザの登録人数の比率が実験結果に影響を及ぼすと予想されることから,今回登録時にユーザ特徴量が生成できなかったユーザは比較実験の対象外とした.このようにして実験対象となるユーザ群を定義した.既存システムによるサービスを受けたユーザは3,465人,ユーザ減衰モデルによるサービスを受けたユーザは3,482人であり比較実験として同程度のユーザ数となった,各手法でユーザの登録期間は異なるが,実験期間において手法の変更以外のサービスのアップデートはデザインなども含めて行われてはいないため,実験として期間の違いは問題にならないと考えている.\subsection{評価方法}本節では行った実験の評価方法について述べる.ユーザ減衰モデルでは多様性の導入により,サービスを利用しているユーザの満足度が向上することが期待されている.それを測るために,週次でのユーザの継続率を比較する.登録してから7日目以内にウェブページを1つでもクリックした場合はそのユーザは1週目継続したとする.そして8日目以降14日目以内にウェブページを1つでもクリックした場合はそのユーザは2週目に継続したとする.このようにユーザが登録日から7日毎に推薦されたウェブページをクリックしたかを対象期間の登録ユーザ数を母数とした週次の継続率として評価に用いる.継続率はウェブサービスの改善の指標としてよく用いられる指標であり,これが高いとユーザがサービスに満足していると評価することができる.その上で各週に継続しているユーザがその週次内で何日間サービスを利用したかを比較する.この数値が高いとサービスを利用している日数が多いといえるため,ユーザがよりサービスに定着していると考えられる.そして順位ごとのクリック率を\ref{sec:gunosy}章と同様に比較し,ユーザが推薦リストをどのように利用しているか,それが利用日数が増えるごとにどのように変化していくかを評価する.\subsection{サービス利用の比較}本節では既存システムとユーザ減衰モデルの継続率の比較結果について述べる.既存システムとユーザ減衰モデルのそれぞれの週次継続率を表\ref{tbl:retention}に示す.ユーザ減衰モデルのほうがすべての週次で良い継続率を記録していることがわかる.この継続率が同等であるという仮説は1週目から4週目まですべてカイ二乗検定において有意水準1\%で棄却することができるため,ユーザ減衰モデルがユーザの継続率を有意に改善しているといえる.\begin{table}[b]\caption{週次継続率の比較}\label{tbl:retention}\input{05table02.txt}\end{table}次に各週内でのサービスの利用日数を調べる.ユーザ減衰モデルがユーザの満足度を向上させているのであれば,利用日数も高くなっていることが期待される.表\ref{tbl:weekly_active}に既存システム,ユーザ減衰モデルそれぞれの週次での平均利用日数とその分散を示す.ユーザ減衰モデルのほうが平均利用日数が高いことがわかる.2つの手法の平均利用日数は差がないという仮説は平均利用日数が正規分布に従うとするとt検定によって有意水準1\%で棄却されるため,この平均利用日数の差は統計的に有意であるといえる.\begin{table}[b]\caption{週次の利用日数の比較}\label{tbl:weekly_active}\input{05table03.txt}\end{table}このようにユーザ減衰モデルによって推薦リストに多様性を導入した結果,ユーザのサービス利用の満足度が向上したことが示唆された.\subsection{表示順位ごとのクリック率の変化}本節では多様性の導入がユーザのリスト内のクリック率に対してどのような変化を与えたのかを分析する.ユーザ減衰モデルでは上位で推薦したウェブページに関係するユーザの特徴量が減衰され,既存システムでは推薦されなかったウェブページが推薦されるようになっている.その結果として順位ごとのクリック率がどのように変化しているのかを調べる.ユーザ減衰モデルによって新たに推薦されるようになったウェブページは,既存システムでは$r$が低いためにより低い位置で推薦されるウェブページであるため,$r$とクリック率の相関関係のみを考えればクリック率が低下する恐れがある.ユーザ減衰モデルではリスト内の多様性が生まれることによって既存システムと同等かそれ以上のクリック率が生まれることを期待している.\begin{table}[b]\vspace{-0.5\Cvs}\caption{リスト内の一人あたりクリック数}\label{tbl:weekly_click}\input{05table04.txt}\end{table}表\ref{tbl:weekly_click}に週次のリスト内での平均クリック数と10段目までと11段目以降の平均クリック数を示す.平均クリック数はユーザ減衰モデルが既存システムをすべての期間で上回っており,登録から日数が経つごとにその差は拡大していく.平均クリック数が正規分布に従うと仮定しt検定を行った結果,3週目と4週目においてリスト全体の平均クリック数と11段目以降の平均クリック数,4週目において10段目までの平均クリック数においてそれらが等しいという仮説が有意水準1\%で棄却された.以上のことからユーザ減衰モデルによって平均クリック数,特にリスト下部での平均クリック数が3週目以降で改善していることが示される.特に11段目以降のクリック数は既存システムは低下していくのに対してユーザ減衰モデルでは中位以降のクリック数が上昇していっており,既存システムの課題が改善していることが分かる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia5f4.eps}\end{center}\caption{1週目の表示位置ごとのクリック率}\label{fig:purposed_rank_1week}\end{figure}図\ref{fig:purposed_rank_1week}に登録1週目の表示位置によるクリック率の既存システムとユーザ減衰モデルの比較を示す.ばらつきはあるものの各表示位置においてクリック率はほぼ同等の傾向を示しており,多様性を導入することによってクリック率に対して悪影響が出ていないことが確認された.2週目も1週目と同等に既存システムとユーザ減衰モデルには大きな差は見られなかった.しかし図\ref{fig:purposed_rank_3week}に示す3週目には,中位以降でユーザ減衰モデルのほうがわずかではあるがクリック率が高い傾向になる.そして図\ref{fig:purposed_rank_4week}に示す4週目にはリスト全体でユーザ減衰モデルのほうがクリック率が上回る傾向にある.このように登録してから日が浅い段階ではユーザ減衰モデルと既存システムは同等であったが,利用日数が伸びるにしたがってユーザ減衰モデルの方がよりクリック数が多くなることが明らかになった.\begin{figure}[t]\begin{center}\includegraphics{24-1ia5f5.eps}\end{center}\caption{3週目の表示位置ごとのクリック率}\label{fig:purposed_rank_3week}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{24-1ia5f6.eps}\end{center}\caption{4週目の表示位置ごとのクリック率}\label{fig:purposed_rank_4week}\end{figure}\subsection{考察}本章では多様性を持たない既存システムと多様性を導入したユーザ減衰モデルを実際のサービス上で提供し,ユーザに与える影響を比較した.その結果多様性によってユーザのサービス利用の継続率と利用日数が有意に向上することが示された.また利用開始から日が浅い段階では記事リストのクリック率に変化はないが,利用日数が増えるにつれて記事リスト全体でクリック率が高くなる.特にリスト下部のクリック率が既存システムでは低下していくが,ユーザ減衰モデルでは上昇していくことが示された.既存システムでリスト下部のクリック率が利用日数が増えていく中で低下していく理由を考察する.本システムでは初期段階ではユーザが連携しているウェブサービスから得られるデータを用いてユーザの特徴量を構築し,その後システム内でクリックしたウェブページの特徴量を元にユーザ特徴量を更新していく.リストに多様性がある場合には個々のユーザがクリックしたウェブページ集合にも多様性が生まれると考えられることから,ユーザ減衰モデルにおけるユーザの特徴量$\vec{u}$は既存システムでは得られなかった多種多様な興味関心を内包したものとなり,ユーザ特徴量減衰後のウェブページがより興味に即したものになっていく.既存システムではリストに多様性がないためユーザのクリックするウェブページが同じような特徴量をもったウェブページに集中するため,ユーザ特徴量がそのようなウェブページにより更新されることから,利用日数が増えるほどに一層推薦されるウェブページリストに偏りが生まれる.その結果リスト下部のクリック数が既存システムではサービスへの飽きから徐々に下がっていくのに対し,ユーザ減衰モデルではリスト下部のコンテンツのユーザとのマッチング精度が向上していくことにより,リスト全体のクリック率がユーザ減衰モデルにおいて長期で高い値になっていることが考えられる.推薦リストの多様性については,評価者にリストを見せてどちらかを選ばせるような実験の結果をもって有効であるとされていたが,本研究ではその結果が実際にサービスの利用頻度という点で現れることを示した.その上でリスト全体のクリック率は初期段階では差がないが,利用日数が増えるにしたがって向上していくことが示され,特にリスト下部でのクリック率が多様性がある場合とない場合で大きな差になっていくことが明らかとなった.サービスにおけるユーザの継続率はユーザの満足度を表す重要な指標であると言われている\cite{RUST1993}.週次の継続率と利用日数が向上したことにより推薦システムの多様性がサービスのユーザ満足度の向上をもたらすことを示したと我々は考えている.そして利用日数が増えるに従ってクリック率の差が大きくなっていく点については,推薦システムのオンラインでの評価を行う上で短期的な評価だけでなく中長期的な評価も行う必要性があることを示した.以上のように本実験では推薦システムの多様性によって利用ユーザのクリック率,週次継続率,週次利用日数の向上が確認でき,多様性が推薦システムのユーザ満足度を改善することを示した.そしてその影響が継続的な利用によって観測されることを明らかにし,オンライン評価における中長期的な評価の必要性を示した. \section{まとめ} \label{sec:conclusion}本研究では推薦システムに多様性を導入することによるサービス上のユーザ行動の変化について比較実験を行い,多様性がユーザ体験を改善したことを示した.まずサービスのユーザ体験を改善することを目的に推薦システムの分析を行い,多様性がユーザの満足度を高める可能性があることを示した.その上でユーザ特徴量を減衰していく形で推薦システムに多様性もたらす手法との比較実験によってユーザ行動の変化を分析した.結果として継続率やサービス利用日数が有意に改善していることを示し,従来研究で言われていた多様性を含む推薦リストのほうがユーザに好まれるということを実サービス上で示した.そして利用日数が増えるにしたがってリスト全体のクリック率が改善していくこと,特にリスト下部のクリック率が多様性のない手法では下がっていくのに対して,多様性のある手法では向上していくことを示した.これは従来研究で示されていなかった多様性の中長期における影響を示したものである.推薦システムを実サービスに適用した際の効果については不明な点が多い.本研究ではリストの多様性が中長期的な視点でみたときにユーザ体験の改善に貢献することを示唆しており,今後推薦システムにおいて多様性を考慮する上で重要な知見を示すことができたと考えている.また中長期でよりよい影響が生まれていることから推薦システムを評価する上で実サービス上で,なおかつある程度期間を設けて実験を行う重要性を示したものであると言える.推薦システムのユーザ体験を考慮する上で多様性と並んで説明性や透明性が重要であると言われている\cite{Konstan2012}.今後はこれらの指標の有効性についても実サービス上で考察をしていきたい.また推薦システムにかぎらず本稿のように言語処理技術を実サービスに適用する上での課題や改善の手法について,サービス運営者としての視点から知見の共有や検証を行っていきたい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Belluf,Xavier,\BBA\Giglio}{Bellufet~al.}{2012}]{belluf2012case}Belluf,T.,Xavier,L.,\BBA\Giglio,R.\BBOP2012\BBCP.\newblock\BBOQCaseStudyontheBusinessValueImpactofPersonalizedRecommendationsonaLargeOnlineRetailer.\BBCQ\\newblockIn{\BemProceedingsofthe6thACMConferenceonRecommenderSystems},\mbox{\BPGS\277--280}.ACM.\bibitem[\protect\BCAY{Cosley,Lam,Albert,Konstan,\BBA\Riedl}{Cosleyet~al.}{2003}]{cosley2003}Cosley,D.,Lam,S.~K.,Albert,I.,Konstan,J.~A.,\BBA\Riedl,J.\BBOP2003\BBCP.\newblock\BBOQIsSeeingBelieving?:HowRecommenderSystemInterfacesAffectUsers'Opinions.\BBCQ\\newblockIn{\BemProceedingsoftheSIGCHIConferenceonHumanFactorsinComputingSystems},\mbox{\BPGS\585--592}.ACM.\bibitem[\protect\BCAY{Davidson,Liebald,Liu,Nandy,Van~Vleet,Gargi,Gupta,He,Lambert,Livingston,\BBA\Sampath}{Davidsonet~al.}{2010}]{davidson2010youtube}Davidson,J.,Liebald,B.,Liu,J.,Nandy,P.,Van~Vleet,T.,Gargi,U.,Gupta,S.,He,Y.,Lambert,M.,Livingston,B.,\BBA\Sampath,D.\BBOP2010\BBCP.\newblock\BBOQTheYouTubeVideoRecommendationSystem.\BBCQ\\newblockIn{\BemProceedingsofthe4thACMConferenceonRecommenderSystems},\mbox{\BPGS\293--296}.ACM.\bibitem[\protect\BCAY{Fleder\BBA\Hosanagar}{Fleder\BBA\Hosanagar}{2007}]{fleder2007recommender}Fleder,D.~M.\BBACOMMA\\BBA\Hosanagar,K.\BBOP2007\BBCP.\newblock\BBOQRecommenderSystemsandTheirImpactonSalesDiversity.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMConferenceonElectronicCommerce},\mbox{\BPGS\192--199}.ACM.\bibitem[\protect\BCAY{Herlocker,Konstan,Terveen,\BBA\Riedl}{Herlockeret~al.}{2004}]{herlocker2004}Herlocker,J.~L.,Konstan,J.~A.,Terveen,L.~G.,\BBA\Riedl,J.~T.\BBOP2004\BBCP.\newblock\BBOQEvaluatingCollaborativeFilteringRecommenderSystems.\BBCQ\\newblock{\BemACMTransactionsonInformationSystems(TOIS)},{\Bbf22}(1),\mbox{\BPGS\5--53}.\bibitem[\protect\BCAY{Jannach,Zanker,Felfernig,\BBA\Friedrich}{Jannachet~al.}{2010}]{Jannach2010}Jannach,D.,Zanker,M.,Felfernig,A.,\BBA\Friedrich,G.\BBOP2010\BBCP.\newblock{\BemRecommenderSystems:AnIntroduction\/}(1st\BEd).\newblockCambridgeUniversityPress,NewYork,NY,USA.\bibitem[\protect\BCAY{Konstan\BBA\Riedl}{Konstan\BBA\Riedl}{2012}]{Konstan2012}Konstan,J.~A.\BBACOMMA\\BBA\Riedl,J.\BBOP2012\BBCP.\newblock\BBOQRecommenderSystems:fromAlgorithmstoUserExperience.\BBCQ\\newblock{\BemUserModelingandUser-AdaptedInteraction},{\Bbf22}(1),\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Lathia,Hailes,Capra,\BBA\Amatriain}{Lathiaet~al.}{2010}]{lathia2010temporal}Lathia,N.,Hailes,S.,Capra,L.,\BBA\Amatriain,X.\BBOP2010\BBCP.\newblock\BBOQTemporalDiversityinRecommenderSystems.\BBCQ\\newblockIn{\BemProceedingsofthe33rdInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\210--217}.ACM.\bibitem[\protect\BCAY{Manning,Raghavan,\BBA\Sch{\"u}tze}{Manninget~al.}{2008}]{manning2008introduction}Manning,C.~D.,Raghavan,P.,\BBA\Sch{\"u}tze,H.\BBOP2008\BBCP.\newblock{\BemIntroductiontoInformationRetrieval},\lowercase{\BVOL}~1.\newblockCambridgeUniversityPress,Cambridge.\bibitem[\protect\BCAY{村上\JBA森\JBA折原}{村上\Jetal}{2009}]{murakami2009}村上知子\JBA森紘一郎\JBA折原良平\BBOP2009\BBCP.\newblock推薦の意外性向上のための手法とその評価.\\newblock\Jem{人工知能学会論文誌},{\Bbf24}(5),\mbox{\BPGS\428--436}.\bibitem[\protect\BCAY{Pariser}{Pariser}{2011}]{Pariser2011}Pariser,E.\BBOP2011\BBCP.\newblock{\BemTheFilterBubble:WhattheInternetisHidingfromYou}.\newblockThePenguinGroup.\bibitem[\protect\BCAY{Resnick,Konstan,\BBA\Jameson}{Resnicket~al.}{2011}]{filterbubble}Resnick,P.,Konstan,J.,\BBA\Jameson,A.\BBOP2011\BBCP.\newblock\BBOQPanelonTheFilterBubble.\BBCQ\\newblockIn{\BemProceedingsofthe5thACMConferenceonRecommenderSystems}.\newblock\url{https://acmrecsys.wordpress.com/2011/10/25/panel-on-the-filter-bubble/}2016年5月3日閲覧.\bibitem[\protect\BCAY{Rust\BBA\Zahorik}{Rust\BBA\Zahorik}{1993}]{RUST1993}Rust,R.~T.\BBACOMMA\\BBA\Zahorik,A.~J.\BBOP1993\BBCP.\newblock\BBOQCustomerSatisfaction,CustomerRetention,andMarketShare.\BBCQ\\newblock{\BemJournalofRetailing},{\Bbf69}(2),\mbox{\BPGS\193--215}.\bibitem[\protect\BCAY{総務省}{総務省}{2014}]{ictbook2014}総務省\BBOP2014\BBCP.\newblock\Jem{平成26年度版情報通信白書}.\bibitem[\protect\BCAY{矢野経済研究所}{矢野経済研究所}{2014}]{yano2014}矢野経済研究所\BBOP2014\BBCP.\newblock\Jem{キュレーションサービス市場に関する調査結果}.\bibitem[\protect\BCAY{Zhang\BBA\Hurley}{Zhang\BBA\Hurley}{2008}]{zhang2008avoiding}Zhang,M.\BBACOMMA\\BBA\Hurley,N.\BBOP2008\BBCP.\newblock\BBOQAvoidingMonotony:ImprovingtheDiversityofRecommendationLists.\BBCQ\\newblockIn{\BemProceedingsofthe2008ACMConferenceonRecommenderSystems},\mbox{\BPGS\123--130}.ACM.\bibitem[\protect\BCAY{Ziegler,McNee,Konstan,\BBA\Lausen}{Ziegleret~al.}{2005}]{ziegler2005}Ziegler,C.-N.,McNee,S.~M.,Konstan,J.~A.,\BBA\Lausen,G.\BBOP2005\BBCP.\newblock\BBOQImprovingRecommendationListsthroughTopicDiversification.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\22--32}.ACM.\end{thebibliography}\begin{biography}\bioauthor{関喜史}{2008年富山商船高等専門学校情報工学科卒業.2011年東京大学工学部システム創成学科卒業.2013年東京大学大学院工学系研究科技術経営戦略学専攻修士課程修了.同大学院博士課程後期課程在学中.2012年に株式会社Gunosyを創業し,研究開発業務に従事.}\bioauthor{福島良典}{2011年東京大学工学部卒業.2013年同大学院工学系研究科修了.大学院在籍中にGunosyを共同開発し,2012年株式会社Gunosyを創業し代表取締役社長に就任.2012年度未踏スーパークリエイター.}\bioauthor{吉田宏司}{2011年東京大学工学部卒業.2013年同大学院工学系研究科修了.大学院在籍中にGunosyを共同開発し,2012年株式会社Gunosyを創業し現在データ分析部の部長を勤め,データ分析,アルゴリズム構築.Webの開発等を担当.2012年度未踏スーパークリエイター.}\bioauthor{松尾豊}{1997年東京大学工学部卒業.2002年同大学院博士課程修了.博士(工学).産業技術総合研究所,スタンフォード大学を経て,2007年より,東京大学大学院工学系研究科技術経営戦略学専攻准教授.2012年より人工知能学会理事・編集委員長,2014年より倫理委員長.人工知能学会論文賞,情報処理学会長尾真記念特別賞,ドコモモバイルサイエンス賞など受賞.専門は,Web工学,DeepLearning,人工知能.}\end{biography}\biodate\end{document}
V23N02-01
\section{はじめに} \textbf{系列アラインメント}とは,2つの系列が与えられたときに,その構成要素間の対応関係を求めることをいう.系列アラインメントは特にバイオインフォマティクスにおいてDNAやRNAの解析のために広く用いられているが,自然言語処理においてもさまざまな課題が系列アラインメントに帰着することで解かれている.代表的な課題として\textbf{対訳文アラインメント}\cite{moore02:_fast,braune10:_improv,quan-kit-song:2013:ACL2013}があげられる.対訳文アラインメントは対訳関係にある文書対が与えられたときに,文書対の中から対訳関係にある文のペアをすべて見つけるタスクである.統計的機械翻訳においては,対訳コーパスにおいてどの文がどの文と対訳関係にあるかという文対文での対応関係が与えられているという前提のもとで学習処理が実行されるが,実際の対訳コーパスでは文書対文書での対応付けは得られていても文対文の対応付けは不明なものも多い.そのため,対訳文書間での正しい対訳文アラインメントを求めることは精度のよいモデルを推定するための重要な前処理として位置づけられる.統計的機械翻訳以外の,例えば言語横断的な情報検索~\cite{nie1999cross}などの課題においても対訳文書間の正しい文アラインメントを求めることは重要な前処理として位置づけられる.また,対訳文アラインメントのほかにも,対訳文書に限定されない文書間の対応付けタスクも系列アラインメントとして解かれている~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}.自然言語処理のタスクにおける系列アラインメント問題を解く手法は,対応付けの\textbf{単調性}を仮定する方法とそうでない方法とに大別される.単調性を仮定する系列アラインメント法は特に対訳文アラインメントにおいて広く用いられる方法であり,対訳関係にある二つの文章における対応する文の出現順序が大きく違わないことを前提として対応付けを行う.すなわち,対訳関係にある文書のペア$F$,$E$に対し,$F$の$i$番目の文$f_i$に$E$の$j$番目の文$e_j$が対応するとしたら,$F$の$i+1$番目の文に対応する$E$の文は,(存在するならば)$j+1$番目以降であるという前提のもとで対応付けを行っていた.この前提は,例えば小説のように文の順序が大きく変動すると内容が損なわれてしまうような文書に対しては妥当なものである.一方で単調性を仮定しない方法は~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}などで用いられており,文間の対応付けの順序に特に制約を課さずに系列アラインメントを求める.図~\ref{fig:prevwork}は,それぞれ単調性を仮定した系列アラインメント,仮定しない系列アラインメントの例を表している.白丸が系列中のある要素を表現しており,要素の列として系列が表現されている.図では2つの系列の要素間で対応付けがとられていることを線で示している.単調性を仮定した対応付け手法では,対応関係を表す線は交差しない.一方で仮定しない手法では交差することが分かる.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f1.eps}\end{center}\caption{既存の系列アラインメント法によるアラインメント例}\label{fig:prevwork}\end{figure}系列アラインメントにおいて単調性を仮定することは,可能なアラインメントの種類数を大きく減少させる一方で,動的計画法による効率的な対応付けを可能とする.先述したように,対訳文アラインメントを行う際に単調性を仮定することは多くの対訳文書に対しては妥当な仮定である.しかし,単調性を仮定することが妥当でない対訳文書も存在する.例えば文献~\cite{quan-kit-song:2013:ACL2013}では,単調性が成り立たない文書の例として法令文書を挙げている.そのほかにも例えば百科事典やWikipediaの記事のように一つの文書が独立な複数の文のまとまりからなる場合には,文のまとまりの出現順序が大きく変動しても内容が損なわれないことがある.このような文書においては,文の順序が大きく変動しないという前提は必ずしも正しいものではないため,既存の単調性を仮定した系列アラインメント法では正しい対訳文アラインメントが行えない可能性が高い.一方で,単調性を仮定しない既存のアラインメント法では非単調な対応付けを実現できるものの,対応付けの\textbf{連続性}を考慮することが難しいという問題がある.対応付けの連続性とは,$f_i$が$e_j$と対応付けられているならば,$f_{i+1}$は$e_j$の近傍の要素と対応付けられる可能性が高いとする性質のことである\footnote{\ref{sec:setpart}節以降の提案手法の説明では,説明を簡単にするために,対応付けに順方向の連続性がある場合,すなわち$f_i$と$e_j$が対応付けられているならば$f_{i+1}$は$e_{j}$より後ろにある近傍の要素と対応付けられやすい場合のみを扱っている.しかし,実際には提案法は順方向に連続性がある場合と同様に逆方向の連続性がある場合の対応付けを行うこともできる.逆方向の連続性とは,$f_i$と$e_j$が対応付けられているならば,$f_{i+1}$は$e_{j}$以前の近傍の要素と対応付けられる可能性が高いとする性質のことである.}.もし対応付けにおいて連続性を考慮しないとすると,系列$F$中のある要素$f_i$とそれに隣接する要素$f_{i+1}$とが,それぞれ$E$中で離れた要素と対応付けられてもよいとすることに相当する.対応付けの単調性を仮定できるような対訳文書の対訳文アラインメントについては,明らかに対応付けの連続性を考慮する必要がある.さらに,単調性が仮定できないような文書のペアに対する対訳文アラインメントにおいても,ある文とその近傍の文が常に無関係であるとは考えにくい.以上より,文アラインメントにおいては連続性を考慮することが不可欠である.また,対訳文アラインメント以外の系列アラインメントを用いるタスクにおいても,対応付けの対象となる系列は時系列に並んだ文書等,何らかの前後のつながりを仮定できるものが多いことから,連続性を考慮する必要がある.単調性を仮定できない文アラインメントの例を示す.図\ref{fig:hourei}は,文献~\cite{quan-kit-song:2013:ACL2013}の検証で用いられているBilingualLawsInformationSystem(BLIS)\footnote{http://www.legistlation.gov.hk}コーパスに含まれる対訳文書における文アラインメントの例である.BLISは香港の法令文書の電子データベースであり,対訳関係にある英語・中国語の文書を保持している.図に示す対訳文は用語の定義を行っている箇所である.両言語の文を比べると,定義する用語の順番が英語と中国語とで異なっており,結果として,局所的には連続なアラインメントが非単調に出現する対訳文書となっている.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f2.eps}\end{center}\caption{法令文書における非単調な対訳文アラインメントの例}\label{fig:hourei}\end{figure}本論文では系列の連続性を考慮しつつ,かつ非単調な系列アラインメントを求めるための手法を提案する.このような系列アラインメント法は,単調性を仮定できない文書対の対訳文アラインメントを求める際に特に有効であると考える.仮に文書$F$の文が$E$の任意の文と対応してもよいとすれば,ある文のペアの良さを評価するスコアを適切に設定することによって,問題を二部グラフにおける最大重みマッチング問題\cite{korte08:_combin_optim}として定式化して解くことができる.しかし,$F$のある文が$E$の任意の文と対応してもよいという前提では,近傍の文間のつながりを無視して対応付けを行うことになる.実際の文書ではすべての文がその近傍の文と無関係であるとは考えにくいため,正しい対応付けが行えない可能性が高い.そこで,提案手法では対訳文アラインメントを組合せ最適化の問題の一つである\textbf{集合分割問題}として定式化して解く.集合分割問題は,ある集合$S$とその部分集合族$S_1,\ldots,S_N$が与えられたときに,スコアの和が最大となるような$S$の分割$\mathcal{D}\subseteq\{S_1,\ldots,S_N\}$を見つける問題である.ここで$\mathcal{D}$が$S$の分割であるとは,$S=\cup_{S_i\in\mathcal{D}}S_i$かつ$i\neqj$ならば任意の$S_i,S_j\in\mathcal{D}$について$S_i\capS_j=\emptyset$となることをいう.2つの系列$F$,$E$のある部分列に対する単調な系列アラインメントの集合を$S_1,\ldots,S_N$として表現することで,部分列に対するアラインメントの集合$S_1,\ldots,S_N$から系列全体の分割となるような部分集合を選択する問題として$F$,$E$全体に対する系列アラインメントを求めることができる.また,本論文では集合分割問題としての系列アラインメントの定式化とともに,その高速な求解法も同時に示す.提案する集合分割問題に基づく定式化を用いると,系列$F$,$E$に含まれる要素の数が増加するに伴い,急激に厳密解の求解に時間がかかるようになるという課題がある.これは,それぞれの系列に含まれる要素の総数を$|F|$,$|E|$とすると,集合分割問題に出現する変数の数\footnote{集合分割問題における変数の数は,可能な$F$,$E$の部分系列のペアの総数と等しい.詳細は\ref{sec:setpart}章を参照.}が$O(|F|^{2}|E|^{2})$となるためである.集合分割問題はNP困難であり,変数の数が増加すると各変数に対応する重みの計算および整数線形計画法ソルバを用いた求解に時間がかかるようになる.本論文ではこの課題に対処するために,多くの変数が問題中に出現する大規模な線形計画問題を解く際に用いられる,\textbf{列生成法}\cite{lubbecke05:_selec_topic_colum_gener}を用いることで高速な系列アラインメントを実現する近似解法も同時に提案する.列生成法は大規模な問題の解を,出現する変数の個数を制限した小さな問題を繰り返し解くことによって求める手法である.列生成法を用いることによって,そのままでは変数の数が膨大となり解くことができなかった問題を解くことができる.なお,列生成法を用いることで線形計画問題の最適解を得られることは保証されているが,整数線形計画問題については解を得られることは必ずしも保証されていない.そこで本論文では列生成法で得られた近似解を実験によって最適解と比較し,よい近似解が得られていることを確認する.なお,以下では説明を簡単にするために特に対訳文書の対訳文アラインメントに話題を限定して説明を進める.ただし,系列の要素間のスコアさえ定まれば提案法を用いて任意の系列のペアに対する系列アラインメントを行うことが可能である. \section{関連研究} 対訳文アラインメントに関しては,これまで,文の長さを対応付けに利用する方法\cite{gale93:_progr_align_senten_bilin_corpor},語の翻訳確率と文の長さを利用する方法\cite{moore02:_fast,braune10:_improv}などが提案されてきているが,ほとんどの方法でアラインメントの単調性を仮定している.単調性を仮定することによって動的計画法によって効率的に対訳文アラインメントを求めることができるという利点はあるが,序章で述べたように単調性が成り立たない文書対に対しては正しいアラインメントを求めることができないという欠点がある.Dengらは系列マッチングとクラスタリングをあわせて利用することで,文の順序が入れ替わる場合でも対訳文アラインメントを行える手法を提案している\cite{deng07:_segmen}.しかし,Dengらの手法は,ある隣接する二つの文の順序が入れ替わるなど,順序の入れ替わりが小さい範囲で起きることを想定した手法であり,より大きな範囲での順序の入れ替わりには対処できない.対訳文間の単調性を仮定しない,非単調な対訳文アラインメントを求めるための手法として,近年Quanらは半教師あり学習の枠組みに基づく文対応付け手法を提案している\cite{quan-kit-song:2013:ACL2013}.彼らの手法は基本的には二部グラフマッチングに基づくアラインメント法であるが,各文書における文間の類似度合いを対応付けのための目的関数に用いている点が特徴的である.Quanらの手法と比較すると,提案法は文のまとまり単位のアラインメントをより明示的に意識した手法となっていることが異なる.Quanらの手法は隣り合う文間の関係を明示的には考慮しないため,対訳文書間で文の出現順序が全く異なる文書により適している.また,Quanらの手法は二部グラフマッチングに基づく手法のため多対多のアラインメントには対応できないが,提案法は内部で呼び出す既存の単調性を仮定した対訳文アラインメント法を多対多のマッチングを考慮するものに変更することによって,容易に多対多の対訳文アラインメントを行うように拡張できる点も異なる.対訳文アラインメント以外にも,さまざまな自然言語処理のタスクが系列アラインメント問題として定式化され解かれている.例えば質問応答ウェブサイトにおける質問と回答との対応付け~\cite{qu-liu:2012:ACL2012}や,ウェブサイトにおけるレビュー文とそれに対する返答のペア~\cite{孝昭15},条例文~\cite{要一12}の対応付けといったタスクなどがある.対訳文アラインメント以外の自然言語処理における重要な系列アラインメント問題の適用先として,単語アラインメントが挙げられる.単語アラインメント問題に関しては非単調なアラインメントを求めるための手法が数多く提案されてきている.Brownらは,原言語の各単語は必ず目的言語のある単語に対応付けられるなどの制約のもとで,生成モデルに基づいた単語の非単調なアラインメントを行っている\cite{brown93}.また,Wuは反転トランスダクション文法に基づいた非単調な単語アラインメント法を提案している\cite{Wu:1997:SIT:972705.972707}.これらのうち,\cite{brown93}は単語アラインメントに固有の性質を扱っており,本論文で扱っている対訳文アラインメントに直接適用するのは難しい.また,反転トランスダクション文法に基づく手法は,提案法に類似の非単調な対訳文アラインメントを実現可能な文法規則を設計できる.しかし,反転トランスダクション文法では連続な文間の非単調なアラインメントの形態が制限される点が提案手法と異なる. \section{単調性を仮定した対訳文アラインメント法} \label{sec:monotone}提案法の説明の準備として,単調性を仮定した動的計画法に基づく既存の対訳文アラインメント法について説明する.単調性を仮定した対訳文アラインメント法では,対訳文書$F$,$E$のある文のペア$s\inF$,$t\inE$が対応付けられた時のスコア$S(s,t)$が与えられたときに\footnote{なお,対訳文アラインメントの手法によっては多対多の対応付けのスコアも加味することによって,多対多の対応付けが可能なものも存在する.},スコアの総和が最大となるような単調な対訳文アラインメントを求める.アラインメントの単調性を仮定すると,最適な系列アラインメントは動的計画法を用いることで高速に求めることができる.これまでにさまざまなスコア$S(s,t)$の定義が提案されてきているが,代表的な対訳文アラインメント法であるMooreによる手法\cite{moore02:_fast}では,文の長さと文中の語の翻訳確率とを用いることでペアのスコアを定義し,対訳文アラインメントに含まれるペアのスコアが最大となるようにアラインメントを求める.具体的には,$s\inF$である文$s$と$t\inE$である文$t$とのペアのスコア$S(s,t)$を\begin{equation}S(s,t)=\frac{P(m_s,m_t)}{(m_s+1)^{m_t}}\Biggl(\prod_{j=1}^{m_t}\sum_{i=1}^{m_s}tr(t_j|s_i)\Biggr)\Biggl(\prod_{i=1}^{m_s}u(s_i)\Biggr)\label{eq:moore}\end{equation}として定める.ここで,$m_s$,$m_t$はそれぞれ文$s$,$t$に含まれる単語の総数である.また,$s_i$,$t_j$はそれぞれ$s$の$i$番目の語,$t$の$j$番目の語を表す.$tr(t_j|s_i)$は語$s_i$が$t_j$に翻訳される確率である.$u(s_i)$は語$s_i$の文書中での相対頻度を表す.$P(m_s,m_t)$は,文の長さ(語の数)に応じてスコアを定める関数であり,ポアソン分布を用いて\begin{equation}P(m_s,m_t)=\frac{\exp{(-m_sr)}(m_sr)^{m_t}}{m_t!}\end{equation}として定義される.$r$はパラメータである.各確率分布は~\cite{brown93}にある手法によってデータから推定できる. \section{集合分割問題に基づく対訳文アラインメントのモデル化} \label{sec:setpart}本論文で提案する対訳文アラインメント法の概観を示す.提案法のポイントは,文書を連続する文のまとまりに分割してアラインメントを求める点にある.すなわち,対訳文書のそれぞれを同数の文のまとまりに分割したのち,\begin{enumerate}\itemどの文のまとまり同士が対応付けられるか\item対応付けられた文のまとまりのペアの中で,どの文のペアが対応付けられるか\end{enumerate}を同時に求めることで対応付けを行う.このときに(1)について非単調な対応付け,(2)については単調な対応付けを行うことによって,連続性を考慮した非単調な対応付けを実現する.それぞれの文書を3つのまとまりに分割したときの提案法による対訳文アラインメントの様子を図\ref{fig:align_example}に示す.図中の白い丸がひとつの文に対応している.また,複数の丸を囲む四角が文のまとまりを表す.図より,文のまとまり同士の対応付けにおいては非単調な対応付けを行っていることと,文のまとまりに含まれている文同士の対応付けにおいては単調な対応付けを行っていることが分かる.文のまとまりに含まれる文同士の対応付けは,既存の単調な対訳文アラインメント法によって行われる.つまり,対応付けられる各文書を1つのまとまりだとみなした場合は,文書全体で単調な対応付けを行うことになるため,提案手法は既存の対訳文アラインメント法と同等である.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f3.eps}\end{center}\hangcaption{提案法による対訳文アラインメントの概観.各文書を3つの連続する文のまとまりに分割し,文のまとまり間で非単調な対応付けを行っている.対応付けられた文のまとまりのペアに含まれる文間では,単調な対応付けを行っている.結果として文書全体に対する対訳文アラインメントが得られている.}\label{fig:align_example}\end{figure}以下で用いる記法について述べる.対応付けをとる対象の2つの文書を$F$,$E$とし,それぞれ$|F|$,$|E|$個の文からなるとする.$f_i$を$F$に含まれる$i$番目の文,$e_k$を$E$に含まれる$k$番目の文とする.$F$の$i$番目から$j$番目までの連続する文の集合を$f_{ij}\subseteqF$とする.ただし$1\leqi\leqj\leq|F|$である.同様に,$e_{kl}\subseteqE$は$E$の$k$番目から$l$番目までの連続する文の集合とする.ただし$1\leqk\leql\leq|E|$である.また,$a_{ijkl}$を文のまとまりのペア$(f_{ij},e_{kl})$を表現するために用い,$f(a_{ijkl})=f_{ij}$,$e(a_{ijkl})=e_{kl}$と定義する.文のまとまり$f_{ij}$と$e_{kl}$のペアに対して,既存の単調性を仮定した対訳文アラインメント法を適用することによって得られる文アラインメントのスコアを$\mathrm{seqMatch}(f_{ij},e_{kl})$とする.すなわち,$f_{ij}$,$e_{kl}$間のある単調なアラインメントを$X$,すべての単調な対訳文アラインメントの集合を$\mathcal{A}_{ijkl}$とすると,$\mathrm{seqMatch}(f_{ij},e_{kl})$は\begin{equation}\mathrm{seqMatch}(f_{ij},e_{kl})=\max_{X\in\mathcal{A}_{ijkl}}\sum_{(s,t)\inX}S(s,t)\end{equation}として定義される.\subsection{集合分割問題に基づく定式化}前節で定義した$\mathrm{seqMatch}(f_{ij},e_{kl})$は,文のまとまり$f_{ij}$と$e_{kl}$のペアに対する対応付けスコアであるとみなすことができる.このスコアを用いて文のまとまり同士の一対一の対応付けを求める.文のまとまり同士の対応付けを求めることができれば,それに含まれる文間の対応付けは$\mathrm{seqMatch}(f_{ij},e_{kl})$を求める際に既に求めてあるため,結果として対訳文アラインメントが得られる.可能なすべての文のまとまりのペア$a_{ijkl}$の集合を$\mathcal{M}$とすると,ある文アラインメントは,$\mathcal{M}$の部分集合であり,かつ文書対の分割となっているような文のまとまりのペアの集合$A\subseteq\mathcal{M}$として表現できる.ただし,$A$に含まれる任意の文のまとまりのペア$a,a^{\prime}\inA$について$f(a)\capf(a^{\prime})=\emptyset$かつ$e(a)\cape(a^{\prime})=\emptyset$であり,$\cup_{a\inA}f(a)=F$かつ$\cup_{a\inA}e(a)=E$を満たすものとする.上記の条件を満たす$A$の集合を$\mathcal{A}$とすると,対訳文アラインメントを求める問題は,\begin{equation}\hat{A}=\mathop{\rmargmax}_{A\in\mathcal{A}}\left\{\mathrm{score}(A)\right\}\label{eq:ast}\end{equation}として,マッチングのスコアを最大とする$\hat{A}$を求める問題として定式化することができる.ここで$\mathrm{score}(A)$は,$F$と$E$に対する分割$A$を定めたときのスコアであり,以下のように定義する.\begin{equation}\mathrm{score}(A)=\lambda^{K}\prod_{a\inA}\mathrm{seqMatch}(f(a),e(a))\label{eq:sub}\end{equation}ここで$K$は$A$中に含まれる文のまとまりのペアの総数,$\lambda$はペアの個数に応じて課されるペナルティを表すパラメタであり,$0<\lambda\leq1$を満たすように設定する.$\lambda=1$とすると解に出現する文のまとまりのペアの個数に制限をつけないことに相当するため,文の連続性を考慮しないアラインメントが得られる.一方で$\lambda$に小さな値を設定することは,解に出現する文のまとまりの個数に対して大きなペナルティを与えることに相当するため,できるだけ小ない個数の文のまとまりが解に含まれるようになる.$\lambda$をある程度以上小さな値に設定すると常に1つの文のまとまりのペアに分割されるようになる.これは既存の単調な対訳文アラインメントと等しい.式(\ref{eq:sub})の対数をとると,$\mathrm{score}(A)$は文のまとまりのペア$a$に対する線形式に置き換えることができる.よって,ここでの対訳文アラインメント問題は整数線形計画問題(ILP)として定式化することができる.ILPによる定式化は,\begin{align}\mbox{maximize}&\sum_{ijkl}(w_{ijkl}+\log\lambda)y_{ijkl}\label{eq:obj}\\\mbox{subjectto}&\sum_{i,j:i\leqx\leqj}\sum_{kl}y_{ijkl}=1~~~~~\forallx:1\leqx\leq|F|\label{eq:cond1}\\&\sum_{ij}\sum_{k,l:k\leqx\leql}y_{ijkl}=1~~~~~\forallx:1\leqx\leq|E|\label{eq:cond2}\\&y_{ijkl}\in\{0,1\}~~~~~~~~~~~~\foralli,j,k,l\label{eq:lasteq}\end{align}となる.ここで,$w_{ijkl}$は$\log{\mathrm{seqMatch}(f_{ij},e_{kl})}$の値である.$y_{ijkl}$は文のまとまりのペア$a_{ijkl}$をアラインメントに含むことを表す変数であり,$y_{ijkl}=1$のときは$a_{ijkl}$が対訳文アラインメントに含まれるとする.制約(\ref{eq:cond1})は,$F$中の$x$番目の文を含むすべての文のまとまりのペア$a_{ijkl}$のうち,必ず1つだけが解に選択されることを保証するものである.(\ref{eq:cond2})は同様の制約を$E$に課したものであり,これら2つの制約を併せて$F$と$E$に含まれる各文が最終的に得られた文のまとまり同士の対応付けのいずれか1つに必ず含まれることを保証する.今回用いた定式化は,任意のペア$(f_{ij},e_{kl})$に対応する集合の集まりである集合族に対する\textbf{集合分割問題}となっている.なお,提案法は既存の単調な文アラインメント法として,多対多のアラインメントを求めることができる手法を用いることによって,非単調な多対多のアラインメントを実現することができる\footnote{多対多のアラインメントのほかには,例えば$f_1$-$e_4$,$f_2$-$e_3$,$f_3$-$e_2$,$f_4$-$e_1$といったような逆順で単調なアラインメントを解の一部として含むようにすることも可能である.具体的には式(3)においてseqMatch($f_{ij},e_{kl}$)を通常順,逆順の全ての可能な対応付けからスコアを最大にするものを選択するように修正すればよい.逆順の単調なアラインメントは,片方の系列を逆順にしたうえで,単調性を仮定した動的計画法によるアラインメント法を実行することで求めることができる.}. \section{列生成法} \label{sec:colgen}式~(\ref{eq:obj})から~(\ref{eq:lasteq})からなる整数線形計画問題はすべての文のまとまりのペア数に対応する数の変数を含む.このようなペアは$|F||E|(|F|+1)(|E|+1)/4$種類存在するため,文の数が増加すると整数線形計画問題に含まれる変数の数が急増し,解を求めるのに時間がかかるという問題がある.本論文では列生成法~\cite{lubbecke05:_selec_topic_colum_gener}を用いた近似解法を導入することでこの問題に対応する.一般的な整数線形計画問題の解法では,すべての変数を求解時に明示的に扱って解を求めるが,列生成法では目的関数の増加に寄与する可能性がある変数を逐次的に追加しながら問題を解くことで解を求める.最適解において非ゼロとなる変数の数が問題全体で扱う変数の数に対して非常に小さい場合,最適解においてゼロとなる変数を考慮せずに解が得られる可能性が高いことから,列生成法によって高速に解を得られることが期待できる.以下,列生成法に基づく解法の詳細を述べる.列生成法を導入するにあたり,いくつかの概念を定義する.まず,式~(\ref{eq:obj})から~(\ref{eq:lasteq})からなる整数線形計画問題を線形緩和した問題,つまり制約$a_{ijkl}\in\{0,1\}$を$0\leqa_{ijkl}\leq1$へと緩和した問題を主問題(Masterproblem:MP)とよぶ.主問題に含まれるすべての変数の集合を$\mathcal{M}$とする.MPからいくつかの変数を取り除いた問題を\textbf{制限された主問題}(Restrictedmasterproblem:RMP)とよぶ.RMPに出現する変数の集合を$\mathcal{M}^{\prime}\subseteq\mathcal{M}$と表す.ある線形計画問題の双対問題とは,もとの問題の各変数にそれぞれ対応する制約条件と,もとの問題の各制約条件に対応する変数からなる線形計画問題のことである.RMPに対しても双対問題を考えることができる.双対問題においてRMPにおける文$f_n$に関する制約に対応する変数を$u_n$,$e_m$に関する制約に対応する変数を$v_m$とする.線形計画問題が最適解を持つのであれば,最適解の値はそれは双対問題の最適解の値と一致することが知られており,RMPの最適解を単体法を用いて得ることができたならば,双対問題の最適解も容易に計算可能である.列生成法はRMPの求解とRMPに追加する変数を求める問題とを繰り返し解くことでMPを解く.追加する変数を求める問題は\textbf{列生成部分問題}とよばれ,具体的には$a_{ijkl}\in\mathcal{M}\setminus\mathcal{M}^{\prime}$であるような$a_{ijkl}$の\pagebreakうち,\begin{equation}\label{eq:1}\overline{w}_{ijkl}=w_{ijkl}+\log\lambda-\sum_{n=i}^{j}\hat{u}_{n}-\sum_{m=k}^{l}\hat{v}_{m}\end{equation}を最大とするものを一つ求める問題である.ここで,$\hat{u}_n$はRMPの双対問題の最適解における変数$u_n$の値,$\hat{v}_m$は変数$v_m$の値とする.以下では$\overline{w}_{ijkl}$のことを\textbf{被約費用}とよぶ.あるRMPを解いた後に各変数に対する被約費用がすべて負となるとき,RMPの最適解はMPの最適解となることが知られている.最適解において多くの変数の値がゼロとなるような問題においては,出現する変数の数がMPよりも大幅に少ないRMPを解くことでMPの最適解が得られることが期待できるため,列生成法は大規模な最適化問題を高速に解くことができる.列生成部分問題を解くことを考える.前述のとおり,変数は$|F||E|(|F|+1)(|E|+1)/4$個あるため,その全てについて被約費用を求めるのは困難である.しかし,スコア$w_{ijkl}$が\ref{sec:monotone}章で述べたように動的計画法によって求められること,および被約費用の式~(\ref{eq:1})において$\hat{u}_n$,$\hat{v}_m$が対応する文ごとにそれぞれ独立に作用していることを利用すると,最大の被約費用をSmith-Waterman法~\cite{smith81:_ident_common_molec_subseq}に類似した動的計画法によって求めることができる.Smith-Waterman法はバイオインフォマティクスの分野で提案された,配列の局所アラインメントを求めるためのアルゴリズムであり,動的計画法に基づいて長さ$N$,$M$の二本の配列に対する局所アラインメントを$O(NM)$時間で求めることができる.ここで局所アラインメントとは,二本の配列の可能な部分配列間の系列アラインメントのうち,スコアを最大とするもののことである.動的計画法は以下の局所アラインメントの再帰的な定義に沿って計算する.なお,以下では説明を簡単にするため,提案法内で利用する単調なアラインメントを求める手法が一対一のアラインメントのみを求めると仮定している.しかし,多対多のアラインメントを求めることができる手法を利用した場合であっても,下記の再帰式を容易に拡張することが可能である\footnote{逆順の単調なアラインメントを含むときも同様に,列生成法に対応する事が可能である.}.$q[j,l]$をその末尾の要素がそれぞれ$f_j,e_l$であるような文のまとまりのペアの被約費用$\overline{w}_{ijkl}$($1\leqi\leqj$,$1\leqk\leql$)の最大値とすると,$q[j,l]$は\begin{equation}\label{eq:recursion}q[j,l]=\max\left\{\begin{array}{l}\log\lambda\\q[j-1,l-1]+S(f_j,e_l)-\hat{u}_j-\hat{v}_l\\q[j-1,l]+S(f_j)-\hat{u}_j\\q[j,l-1]+S(e_l)-\hat{v}_l\end{array}\right.\end{equation}として再帰的に計算することができる.なお$q[0,0]=\log\lambda$とする.ここで$S(f_j,e_l)$,$S(f_j)$,$S(e_l)$は,既存の単調性を仮定した(例えば\cite{moore02:_fast}など)対訳文アラインメント法において利用されるスコアであり,それぞれ文$f_j$と文$e_l$とを対応付けたときのスコア,$f_j$を$E$のどの文とも対応させなかったときのスコア,$e_l$を$F$のどの文とも対応させなかったときのスコアである.最上段の選択肢$\log\lambda$は,$f_{j+1}$,$e_{l+1}$を開始位置とする文のまとまりのペアの被約費用が,$f_{j}$,$e_{l}$を含む文のまとまりのペアの被約費用よりも必ず大きくなるときに選択される.すべての$1\leqj\leq|F|$,$1\leql\leq|E|$について動的計画法によって$q[j,l]$を計算したのちに,それらのうち最大値をとることで被約費用の最大値を求めることができる.さらに,$q[j,l]$を計算する際に(\ref{eq:recursion})のどの式をもとに計算したかを記憶しておけば,最大値をとる$q[j,l]$からバックトラッキングを実行することによって被約費用を最大とする$x_{ijkl}$を求めることができる.すなわち,(\ref{eq:recursion})の4種類の選択肢のうち,下3種類の選択肢のいずれかが利用されたのであればそれぞれの式中に出現している$q[j-1,l-1]$,$q[j-1,l]$,$q[j,l-1]$のいずれかに遷移し,バックトラッキングを続ける.もし最上段の選択肢$\log\lambda$が利用されたのであれば,そこでバックトラッキングを終了する.バックトラッキングを終了したときの状態を$q[j^\prime,l^\prime]$とすると,$i=j^{\prime}+1$,$k=l^{\prime}+1$,として$i$と$k$が求まる.すべての$q[j,l]$を計算する動的計画法は$O(|F||E|)$,バックトラッキングは高々$O(|F|+|E|)$時間で実行できるため,Smith-Waterman法によって被約費用を最大とするアイテムを効率的に選択できる.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{23-2ia1f4.eps}\end{center}\caption{列生成法を用いた近似アルゴリズム}\label{fig:colgen}\vspace{-0.5\Cvs}\end{figure}列生成法の手順を図~\ref{fig:colgen}に示す.まずRMPに含まれる変数の集合を$\mathcal{M}^{\prime}=\{x_{1|F|,1|E|}\}$として初期化する(line1).$x_{1|F|,1|E|}$はすべての文からなる文のまとまりであり,実行可能解であることから,以降のRMPは必ず実行可能解をもつことが保証される.以降,RMPの求解\footnote{RMPは線形計画問題であるため効率的に解ける.また,各繰り返しにおいて前回RMPを解いたときの解を初期解とすることで高速に解を求めることができることが知られている.}(line3)とSmith-Waterman法による列生成部分問題の求解(line4)とを繰り返す.もしすべての変数で被約費用が負となったら(line5),その時点でMPの最適解が得られていることになるので,最後に現在のRMPに整数制約を追加したうえで整数線形計画問題を解いて得られた解を出力する(line8).ここで,RMPに整数制約を追加して得られた解が必ずしも元のMPに整数制約を追加して得られた解と一致するわけではないことに注意する必要がある.すなわち,提案法はヒューリスティクスであり,必ずしも厳密な最適解を得られるわけではない.そこで検証によって厳密解との差を評価する. \section{検証} \subsection{検証設定}提案手法の有効性を検証する.非単調な系列アラインメントはいくつかの研究で検証されているが,正解の対応付けが公開されていないことから,今回は検証のためのデータとして文対応が既知である日本語と英語の対訳文書から生成した人工データを用いた.対訳文書はそれぞれ約25,000文からなる.この文書から取り出した2,500文から文の長さが一定以上に長いものと短いものとを除いたものをテストデータを生成する元データ,残りを翻訳確率等を推定するための訓練データとして用いた.テストデータの生成手順は以下のとおりとする.まず,元データのそれぞれの文書集合から,$K$個の対応関係にある連続する文のまとまりをランダムに取り出す.なお,対応関係にある文のまとまりには,対訳関係になっていない文も含まれる.その後,取り出した文のまとまりをランダムに並べなおしたのちに,各まとまりに含まれる文を順に並べることで文のまとまり単位での移動があるデータセットを作成した.テストデータの文の数は日本語,英語ともに60文とし,まとまりの数は$K=1,3,6,12,20$とした.このデータセットを以下では対称データセットとよぶ.$K=1$のときは単調な対訳文アラインメントを求める問題となっている.次に,日本語と英語の文の数が異なるデータセットも同様に作成した.こちらでは日本語の文数を60文,英語の文数を40文とし,日本語の20文は対応する文が存在しないようにした.日本語のまとまりの数は$K=3,6,12$とし,英語のまとまりの数は日本語のまとまりの数の$2/3$とした.このデータセットを以下では非対称データセットとよぶ.最後に,日本語と英語からそれぞれ60文選ぶが,そのうち対応関係にあるのは40文であり,残りの日本語・英語の20文は対応する文が存在しないようなデータも作成した.以下では対応なしデータセットとよぶ.文のまとまりの数は$K=3,6,12$とし,そのうち$1/3$については対応する文が存在しないものとした.比較対象として,Mooreらによる系列マッチングに基づく手法(Moore)と,二部グラフの重み最大マッチングとして解いた方法(BM)とを用いた.なお,重み最大マッチングにおける対応付けの重みは式(\ref{eq:moore})を用いた.評価はMoore\cite{moore02:_fast}にならって,文の対応付けの再現率(recall),適合率(precision),F値(F-measure)を算出した.対称,非対称の各データセットについて,異なる$K$ごとに5つのデータセットを生成し,その平均値を最終的な評価値とした.翻訳確率の算出にはGIZA++\cite{och03}を用いた.整数線形計画問題のソルバとしてILOGCPLEXを用いた.文のまとまりの個数に対するペナルティ$\lambda$は,$\lambda=0.1$と$\lambda=0.01$の2種類を試した.\subsection{結果}\begin{table}[b]\caption{再現率,適合率,F値の比較(対称データ)}\label{tab:result1}\input{01table01.txt}\end{table}\begin{table}[b]\caption{再現率,適合率,F値の比較(非対称データ)}\label{tab:result2}\input{01table02.txt}\end{table}実験結果を表\ref{tab:result1},\ref{tab:result2},\ref{tab:result3}に示す.表中のSP+ILPは集合分割問題を整数線形計画問題ソルバで解いた結果,SP+CGは集合分割問題を列生成法で解いた結果を表す.また,BMは二部グラフマッチングによって対訳文アラインメントを行った結果,MooreはMooreらの手法~\cite{moore02:_fast}を適用した結果をそれぞれ表す.表より,対称データセットで$K=1$の場合を除く,いずれのデータセット,および$K$の値においても,$\lambda=0.1$としたときの提案手法(厳密解)が2種類のベースラインよりも高いF値を示していることが分かる.対称データセットで$K=1$の場合は単調な対訳文アラインメントとなることから,単調性を仮定するMooreの手法の方がやや高いF値を示している.しかし,提案法との差分は0.003ポイントと小さい.次に$\lambda$の値の違いによる影響を厳密解同士で比較すると,いずれのデータセットにおいても$K=1,3$のときは$\lambda=0.01$の方が$\lambda=0.1$のときよりもやや高いF値を示し,一方で$K=6,12,20$のときには$\lambda=0.1$の方が高い値を示していることが分かる.これは,$\lambda$が文のまとまりの個数に対するペナルティであり,$\lambda$が小さいほど大きなペナルティを与えていることによって説明できる.つまり,$K$が小さいときは文のまとまりの個数が小さくなりがちな$\lambda=0.01$の方がよい結果を出力し,$K$が大きいときはより多くのまとまりが出現することを許容する$\lambda=0.1$の方がよい結果を出力していると考えられる.Mooreによる対応付け手法は単調性を仮定した手法であるため,他の方法と比べると極端にF値が悪くなっているのが確認できる.\begin{table}[t]\caption{再現率,適合率,F値の比較(対応なしデータ)}\label{tab:result3}\input{01table03.txt}\end{table}次に提案手法で厳密解を求めたときと,列生成法による近似解を求めたときとの結果を比較する.再現率,適合率,F値の低下度合いは,今回の検証では最大で$0.08$ポイント程度の低下におさまっていることが確認できた.特に$\lambda=0.1$のときはいずれのデータに対しても$0.03$ポイント程度の低下におさまっている.なお,表\ref{tab:result1}では列生成法のほうが厳密解法よりも再現率,適合率,F値が大きくなる結果が得られているが,これは目的関数と評価指標とが必ずしも一致するわけではないことに起因すると考えられる.厳密解法と列生成法との平均計算時間の比較を表~\ref{tab:time}に示す.表より,CPLEXで数十秒から数百秒かかっていた問題が列生成法によって数秒で解けていることが確認できる.すべてのデータで30倍から400倍程度の高速化が達成できたが,特に変数の総数が多い対称データ,対応なしデータではほぼすべての設定で100倍以上の高速化が確認できた.表~\ref{tab:numval}に利用された変数の数を示す.集合分割問題をそのまま整数線形計画問題ソルバによって解くと,今回扱ったような数十文程度の対応付けであっても$10^{6}$個程度の変数を明示的に扱う必要がある.扱う変数の個数が多いほどソルバによる求解には時間がかかるため,文の数が増加するとさらに求解に時間がかかる可能性が高い.一方で列生成法を用いた場合は,最適解において非零になる可能性がある変数しか扱わないため,最終的に利用された変数は$10^{3}$個程度となり,問題をソルバで素朴に解いた場合と比較して利用される変数の数が大幅に少ないことが分かる.問題中に出現する変数の個数が少ないとソルバによって高速に解を求めることが可能であるため,列生成法は高速に動作したと考えられる.\begin{table}[t]\caption{実行時間の比較}\label{tab:time}\input{01table04.txt}\end{table}提案法はNP困難問題である集合分割問題を解いているため,厳密解法の実行時間は問題サイズに対して指数的に増加する.一方で,既存の単調性を仮定した動的計画法に基づく対訳文アラインメント法は,問題サイズに対して多項式時間で動作する.そのため,提案法は列生成法による近似解法を用いたとしても実行時間的には既存手法に対する優位性はない.一方で,対訳文アラインメントはおもに対訳文コーパスを作成するために用いられる技術であり,コーパス生成に用いるために問題とならない速度で動作することが重要である.実験結果が示すように,列生成法による対訳文アラインメント法は数十文からなる対訳文書の文アラインメントを数秒で行うことができるため,提案法は十分に実用に足る技術であるといえる.\begin{table}[p]\caption{出現した変数の数の比較}\label{tab:numval}\input{01table05.txt}\end{table}\begin{figure}[p]\vspace{1\Cvs}\begin{center}\includegraphics{23-2ia1f5.eps}\end{center}\caption{入力サイズを変化させたときの実行時間の変化}\label{fig:runtime}\end{figure}最後に,対称データにおいて入力文のサイズを変化させたときの,厳密解法と列生成法の実行時間の変化を図~\ref{fig:runtime}に示す.図の横軸が入力のサイズであり,縦軸が実行時間を表す.なお,実行時間が3,600秒を超えたら実験を打ち切りとしている.入力サイズが大きくなるほど,列生成法と厳密解法の差が広がる傾向があることが分かる. \section{おわりに} 本論文では,対応付けの連続性を考慮しつつ非単調な系列アラインメントを求めるための方法を提案した.集合分割問題として定式化し,整数線形計画法を用いて解くことによって,既存手法では対応付けをとるのが難しい状況でも対応付けができることを示した.このような方法は,特に単調性を仮定できないような文書対に対する対訳文アラインメントにおいて効果的である.さらに,数理計画法の分野で大規模な問題を解く際に利用される技法である列生成法を適用することによって,最適化問題を解くときに扱わなければならない変数の数および各変数のスコアの計算に必要となる動的計画法の実行回数を劇的に減らすことができ,結果として高速な求解を可能とした.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Braune\BBA\Fraser}{Braune\BBA\Fraser}{2010}]{braune10:_improv}Braune,F.\BBACOMMA\\BBA\Fraser,A.\BBOP2010\BBCP.\newblock\BBOQImprovedUnsupervisedSentenceAlignmentforSymmetricalandAsymmetricalParallelCorpora.\BBCQ\\newblockIn{\BemProceedingsofCOLING2010},\mbox{\BPGS\81--89}.\bibitem[\protect\BCAY{Brown,Petra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown93}Brown,P.~F.,Petra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Deng,Kumar,\BBA\Byrne}{Denget~al.}{2007}]{deng07:_segmen}Deng,Y.,Kumar,S.,\BBA\Byrne,W.\BBOP2007\BBCP.\newblock\BBOQSegmentationandAlignmentofParallelTextforStatisticalMachineTranslation.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf13}(3),\mbox{\BPGS\235--260}.\bibitem[\protect\BCAY{Gale\BBA\Church}{Gale\BBA\Church}{1993}]{gale93:_progr_align_senten_bilin_corpor}Gale,W.~A.\BBACOMMA\\BBA\Church,K.~W.\BBOP1993\BBCP.\newblock\BBOQAProgramforAligningSentencesinBilingualCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\75--102}.\bibitem[\protect\BCAY{Korte\BBA\Vygen}{Korte\BBA\Vygen}{2008}]{korte08:_combin_optim}Korte,B.~H.\BBACOMMA\\BBA\Vygen,J.\BBOP2008\BBCP.\newblock{\BemCombinatorialOptimization:TheoryandAlgorithms}.\newblockSpringerVerlag.\bibitem[\protect\BCAY{L{\"{u}}bbecke\BBA\Desrosiers}{L{\"{u}}bbecke\BBA\Desrosiers}{2005}]{lubbecke05:_selec_topic_colum_gener}L{\"{u}}bbecke,M.~E.\BBACOMMA\\BBA\Desrosiers,J.\BBOP2005\BBCP.\newblock\BBOQSelectedTopicsinColumnGeneration.\BBCQ\\newblock{\BemOperationsResearch},{\Bbf53}(6),\mbox{\BPGS\1007--1023}.\bibitem[\protect\BCAY{Moore}{Moore}{2002}]{moore02:_fast}Moore,R.~C.\BBOP2002\BBCP.\newblock\BBOQFastandAccurateSentenceAlignmentofBilingualCorpora.\BBCQ\\newblockIn{\BemProceedingsofAMTA'02},\mbox{\BPGS\135--144}.\bibitem[\protect\BCAY{Nie,Simard,Isabelle,\BBA\Durand}{Nieet~al.}{1999}]{nie1999cross}Nie,J.-Y.,Simard,M.,Isabelle,P.,\BBA\Durand,R.\BBOP1999\BBCP.\newblock\BBOQCross-languageInformationRetrievalBasedonParallelTextsandAutomaticMiningofParallelTextsfromtheWeb.\BBCQ\\newblockIn{\BemProceedingsofthe22ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\74--81}.ACM.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Qu\BBA\Liu}{Qu\BBA\Liu}{2012}]{qu-liu:2012:ACL2012}Qu,Z.\BBACOMMA\\BBA\Liu,Y.\BBOP2012\BBCP.\newblock\BBOQSentenceDependencyTagginginOnlineQuestionAnsweringForums.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\554--562},JejuIsland,Korea.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Quan,Kit,\BBA\Song}{Quanet~al.}{2013}]{quan-kit-song:2013:ACL2013}Quan,X.,Kit,C.,\BBA\Song,Y.\BBOP2013\BBCP.\newblock\BBOQNon-MonotonicSentenceAlignmentviaSemisupervisedLearning.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\622--630},Sofia,Bulgaria.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Smith\BBA\Waterman}{Smith\BBA\Waterman}{1981}]{smith81:_ident_common_molec_subseq}Smith,T.~F.\BBACOMMA\\BBA\Waterman,M.~S.\BBOP1981\BBCP.\newblock\BBOQIdentificationofCommonMolecularSubsequences.\BBCQ\\newblock{\BemJournalofMolecularBiology},{\Bbf147},\mbox{\BPGS\195--197}.\bibitem[\protect\BCAY{竹中\JBA若尾}{竹中\JBA若尾}{2012}]{要一12}竹中要一\JBA若尾岳志\BBOP2012\BBCP.\newblock地方自治体の例規比較に用いる条文対応表の作成支援.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\193--212}.\bibitem[\protect\BCAY{角田\JBA乾\JBA山本}{角田\Jetal}{2015}]{孝昭15}角田孝昭\JBA乾孝司\JBA山本幹雄\BBOP2015\BBCP.\newblock対をなす二文書間における文対応関係の推定.\\newblock\Jem{自然言語処理},{\Bbf22}(1),\mbox{\BPGS\27--58}.\bibitem[\protect\BCAY{Wu}{Wu}{1997}]{Wu:1997:SIT:972705.972707}Wu,D.\BBOP1997\BBCP.\newblock\BBOQStochasticInversionTransductionGrammarsandBilingualParsingofParallelCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(3),\mbox{\BPGS\377--403}.\end{thebibliography}\begin{biography}\bioauthor{西野正彬}{2008年京都大学大学院情報学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所研究員.自然言語処理,アルゴリズムの研究に従事.博士(情報学).情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{鈴木潤}{1999年慶應義塾大学理工学部数理科学科卒業.2001年同大学院理工学研究科計算機科学専攻修士課程修了.同年,日本電信電話株式会社入社.2005年奈良先端大学院大学博士後期課程修了.2008--2009年MITCSAIL客員研究員.現在,NTTコミュニケーション科学基礎研究所に所属.博士(工学).主として自然言語処理,機械学習に関する研究に従事.ACL,情報処理学会,言語処理学会各会員.}\bioauthor{梅谷俊治}{1998年大阪大学大学院基礎工学研究科博士前期課程修了.2002年京都大学大学院情報学研究科博士後期課程指導認定退学.博士(情報学).豊田工業大学助手,電気通信大学助教を経て,現在,大阪大学大学院情報科学研究科准教授.組合せ最適化の研究に従事.日本オペレーションズ・リサーチ学会,情報処理学会,人工知能学会,INFORMS,MOS,AAAI各会員.}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年株式会社NTTデータ入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所主幹研究員(上席特別研究員).工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V21N02-01
\section{はじめに} \label{sec:Introduction}近年,コーパスアノテーションはますます多様化し,多層アノテーションを統合的に利用する仕組みが欠かせない.たとえば,話し言葉の言語学的・工学的研究で広く用いられている『日本語話し言葉コーパス』\cite{前川_2004_日本語}のコアデータでは,音韻・単語・韻律単位・文節・節を含む10種類あまりの単位に関してさまざまなアノテーションがなされている.また,最近では視線・頷きやジェスチャーなどの非言語情報を含むマルチモーダルコーパスの開発が進んでおり\cite<たとえば>{Carletta_2007_UTK,Chen_2006_VMM,Den_2007_SAT,角_2011_マルチ,Waibel_2009_CIT},これらのコーパスでは複数のモダリティに関して多種のアノテーションがなされている.コーパスアノテーションに基づく研究では,このような多層的なアノテーションを統合し,「文末形式を持つ節の先頭の文節の末尾の語が係助詞「は」であるものを抽出し,その語の継続長を算出する」といった,複数の単位を組み合わせた複雑な検索を可能にする必要がある.これまで,多層アノテーションを表現するさまざまなスキーマが提案され,それらに基づくアノテーションツールやコーパス検索ツールが開発されている\cite{Bird_2000_FFF,Bird_2001_FFF,Calhoun_2010_NSC,Carletta_2005_NXT,Kaplan_2012_STF,Kaplan_2010_APM,Matsumoto_2006_ACM,Muller_2001_MTF,Muller_2006_MAO,Noguchi_2008_MPA}.しかし,これらのツールは開発主体内部での利用にとどまっている場合がほとんどであり,外部にはあまり普及していない.これらの統合開発環境では提案スキーマに基づいて種々のツール群を提供することを目指しているが,実際に提供されているのは一部のツールのみであり,個別のアノテーションツールのほうが広く使われている場合が多い.とくに話し言葉においては,Praat\cite{Boersma_2013_PDP}やELAN\cite{Brugman_2004_AMM}といった音声や映像を扱う高機能なアノテーションツールが広く普及しており,これらのツールと同等の機能を持つツールを自前で開発するのはコストが高くつくうえ,コーパス開発者の側でも使い慣れたツールにとどまって新たなツールに乗り換えたくないという者が多い.本研究の目的は,話し言葉で広く使われている既存のアノテーションツールを有効に利用しつつ,種々のアノテーションを統合利用できる環境を構築することである(図\ref{fig:overview}).具体的には以下のことを行なう.\begin{enumerate}\itemマルチチャネル・マルチモーダルの話し言葉コーパスを表現できる汎用的なデータベーススキーマを設計する.\item以下の入出力を持つデータベース構築ツールを開発する.\begin{description}\item[入力]既存のアノテーションツールで作成された,種々の書式を持つアノテーション\item[出力]設定ファイルを基にして,汎用的なデータベーススキーマから具現化されたデータベース\end{description}\itemサーバを必要としないスタンドアロンのデータベースソフトとして広く用いられているSQLiteによって実装し,既存のコーパス検索ツールと接続可能にする.\end{enumerate}本研究は,既存のアノテーションツールやコーパス検索ツールと結合したコーパス利用環境を構築することに主眼があり,アノテーションツールやコーパス検索ツールの開発そのものを目的とするものではない.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f1.eps}\end{center}\caption{本研究の枠組み}\label{fig:overview}\end{figure}以下,\ref{sec:DB}節では話し言葉を表現できる汎用的なデータベーススキーマの設計について述べ,\ref{sec:Tools}節ではデータベース構築ツールの開発について述べる.\ref{sec:CaseStudies}節では提案するコーパス利用環境を用いて実際に運用している2つの事例について述べる.\ref{sec:Discussion}節では関連研究やアノテーション管理・実用性に関する議論を行ない,\ref{sec:Conclusion}節ではまとめと今後の課題について述べる. \section{話し言葉を表現できる汎用的なデータベーススキーマの設計} \label{sec:DB}本節では,マルチチャネル・マルチモーダルの話し言葉コーパスを表現できる汎用的なデータベーススキーマを提案する.本スキーマは,基本的には,\citeA{Noguchi_2008_MPA}と\citeA{Kaplan_2010_APM}が提案したセグメントとリンクに基づくスキーマに依拠している.しかし,彼らのスキーマは書き言葉を想定しており,話し言葉に適用するためにはいくつかの拡張が必要である.以下,拡張・改良点について順に述べ,我々のスキーマを提案する.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f2.eps}\end{center}\caption{セグメントとリンクに基づくスキーマ(\protect\cite{Kaplan_2010_APM}のFigure3を改変)}\label{fig:SLAT}\end{figure}\subsection{セグメントとリンクに基づくスキーマ}セグメントとリンクに基づくスキーマでは以下の2種類のオブジェクトを用いる.\begin{description}\item[セグメント(Segment)]文書中の特定の開始位置(start)と終了位置(end)で指定される区間に存在する,特定の型(type)の要素.単語・句・節など.\item[リンク(Link)]参照元セグメント(source)と参照先セグメント(destination)の間に設定される,特定の型(type)の依存関係.係り受け関係・照応関係など.\end{description}いずれのオブジェクトも型ごとに定まった属性(name)と値(value)の対の集合を持つ.たとえば,単語型セグメントは品詞・活用型・活用形などの属性を持ちうるし,係り受け関係型リンクは係り受けの種類(従属と並列の区別)などの属性を持ちうる.これらの属性値が付随したセグメントとリンクの集合によって文書を表現する.セグメントとリンクに基づくスキーマのクラス図を図\ref{fig:SLAT}に示す\footnote{DocumentとTagをつなぐ線は1つの文書が0個以上のタグの集合からなることを示し,SegmentやLinkとTagをつなぐ線はセグメントやリンクがタグの一種であることを示す.また,矢印は,リンクが2つのセグメント(sourceとdestination)に依存することや,各属性・値対がrefで示されたセグメントやリンクに付随することを表す.}.\subsection{話し言葉への拡張}\label{sec:DB:spoken}セグメントとリンクに基づくスキーマはもともと書き言葉を想定して作られており,話し言葉に適用するためにはいくつかの拡張が必要である.\paragraph{開始・終了位置:}開始・終了位置としては文書中での文字位置(文書の先頭から数えて何文字目か)が想定されている.しかし,話し言葉で対象となる要素(アクセント・音調や視線・頷きなど)は必ずしもテキスト情報に基づいていない.そこで,開始・終了位置として文書(音声・映像ファイル)中での時刻(文書の先頭からの経過時間)を用いる.\paragraph{単位の融合:}話し言葉ではしばしば隣接する単位間での融合が生じる.たとえば,「私は」が融合して「ワタシャ」のように発音されたりする.\pagebreakこの場合,「私」と「は」の境界は実際の音声中には存在しないので,個々の単語を時刻に依拠したセグメントとしては表せない.そこで,セグメントとしては融合した「わたしゃ」全体を一つの単位とし,個々の形態論情報を担う単位を「時間的に整列されないセグメント」(非整列セグメント)として別途表現する(図\ref{fig:subseg}){\kern-0.5zw}\footnote{別の表現方法として,融合された境界に対して(隣接時刻間に存在する)架空の時刻(たとえば図\ref{fig:subseg}では1.2など)を設定し,何らかのフラグによってそれが架空の時刻であることを表現するという方法が考えられる.この方法を取れば,非整列セグメントを導入する必要はない.しかし,話し言葉コーパスの分析では,単位の継続長や発話速度を算出する機会が多く,その都度,架空の時刻をスキップするといった処理を行なうのはかえって非効率的である.}.これらのセグメントと非整列セグメントの間の依存関係は後述する階層関係を用いて表現し,各非整列セグメントが「何個の非整列セグメントからなる(長さlenの)セグメント中の何番目の要素であるか(nth)」という情報を与える(図\ref{fig:subseg}ではnth/lenで表記).\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f3.eps}\end{center}\caption{非整列セグメントの例}\label{fig:subseg}\end{figure}\paragraph{マルチチャネルへの対応:}書き言葉の文書は通常,単一のストリームからなる.しかし,話し言葉の対話データでは,複数話者によるマルチチャネルのストリームに対応しなければならない.これはチャネルごとに時刻を相対化することで解決できる.そのために,セグメントの表現にチャネル識別子(話者ラベルなど)を追加する.\paragraph{マルチモーダルへの対応:}書き言葉の文書にはテキストという単一のモダリティしかない.しかし,話し言葉のマルチモーダルデータでは,音声言語に加えて,視線・頷きやジェスチャーなどのモダリティに対応しなければならない.セグメントとリンクに基づくスキーマはスタンドオフ形式\footnote{文書中の要素間の入れ子構造によって階層関係を表すのではなく,外部文書中で各要素が占める区間を開始・終了位置で示すことにより,さまざまな要素間の関係を表す形式.}のため,このような単一の根ノードにまとまらない単位階層にも自然に対応できる.一方で,区間の包含関係で階層関係を表すスタンドオフ形式では,不適切な階層関係が認定されることがある.たとえば,「うん,そうだね」という発話が頷きを伴ってなされた場合,「うん」という単語はこの発話の適切な下位単位であるが,頷きは発話の適切な下位単位とは言えない.どの型のセグメント間に階層関係が設定されるかは,各セグメント型の認識論的な位置づけによってアプリオリに定まっているべきである.そこで,本スキーマでは,セグメント間の階層関係を明示的に表現する.これは,下位セグメントを参照元,上位セグメントを参照先とした特別な型のリンクととらえることができる.\subsection{スキーマの具体化}\label{sec:DB:practical}セグメントとリンクに基づくスキーマは,さまざまな属性集合を持ちうるさまざまな型のセグメントやリンクを扱うために,極めて抽象度の高いスキーマになっている(セグメントとリンクという2種類のオブジェクトしかない).\citeA{Noguchi_2008_MPA}や\citeA{Kaplan_2010_APM}は,「述語」や「項」といったより具体性の高いオブジェクトを操作できるアノテーションツールやコーパス検索ツールをインターフェースとして提供することで,ユーザの利便性を図っている.しかし,既存のアノテーションツールやコーパス検索ツールを用いてコーパス利用環境を実現しようという本研究においては,このような利便を図ることはできず,スキーマ中のオブジェクトがそのままユーザが操作する対象となる.そこでは,語やアクセント句や節といったオブジェクトがそのまま操作できたほうがユーザの了解度は高いと思われる.そこで,(非整列)セグメントや(階層関係を含む)リンクを型ごとに別々のオブジェクトとして表現し,属性は各オブジェクトに直接表現する.属性集合は型ごとに定まるため,型ごとにオブジェクトを別にすれば,このような表現が可能となる.また,階層関係については,「何個の下位セグメントからなる(長さlenの)上位セグメント中の何番目の要素であるか(nth)」という情報を付与する.この情報は時刻の情報から導出できるため,表現としては冗長である.しかし,話し言葉では,隣接するセグメント間で先行要素の終了位置と後続要素の開始位置が一致するという制約が必ずしも成り立たない(間に休止が介在しうる)ため,SQL言語を用いると,たとえば隣接語対を抽出するのに煩雑な検索を行なわなければならない.上述の情報があれば,この検索は簡単に行なえる(付録\ref{sec:bigram}参照).\subsection{提案するデータベーススキーマ}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA1f4.eps}\end{center}\caption{本研究で提案するスキーマ}\label{fig:model}\end{figure}\ref{sec:DB:spoken}と\ref{sec:DB:practical}の議論を踏まえ,図\ref{fig:model}のスキーマを設計した.\pagebreak本スキーマでは以下の4種類のオブジェクトを用いる\footnote{実際には,これら以外に,(1)トーン情報など,区間幅を持たない要素に対するオブジェクト($\RM{point}\IT{Type}_i$),(2)あいづち表現など,あるセグメントの一部のインスタンスに対して追加的に与えられた属性を表現するオブジェクト($\RM{add}\IT{Type}_i$),(3)話者情報などのメタ情報を記述するオブジェクト($\RM{info}\IT{Type}_i$)の3種類のオブジェクトがある.}.\begin{description}\item[セグメント($\RM{seg}\IT{Type}_i$)]文書中の特定のチャネル(channel)上の特定の開始位置(start)と終了位置(end)で指定される区間に存在する要素.型($\IT{Type}_i$)ごとに別のオブジェクトとして表現され,それぞれ特定の属性集合($\RM{attr}_1$,\ldots,$\RM{attr}_{n_i}$)を持つ.\item[非整列セグメント($\RM{useg}\IT{Type}_i$)]時間的に分節化されない,セグメントの下位要素.型($\IT{Type}_i$)ごとに別のオブジェクトとして表現され,特定の属性集合($\RM{attr}_1$,\ldots,$\RM{attr}_{n_i}$)を持つ.\item[リンク($\RM{link}\IT{Type}_i$)]参照元セグメント(source)と参照先セグメント(destination)の間に設定される依存関係.型($\IT{Type}_i$)ごとに別のオブジェクトとして表現され,それぞれ特定の属性集合($\RM{attr}_1$,\ldots,$\RM{attr}_{n_i}$)を持つ.\item[階層関係($\RM{rel}\IT{Type}_i\RM{2}\IT{Type}_j$)]下位セグメント(descendant)と上位セグメント(ancestor)の間に設定される階層関係.上位・下位セグメントの型の組み合わせ($\IT{Type}_j$と$\IT{Type}_i$)ごとに別のオブジェクトとして表現され,同一の上位セグメントに帰属する下位セグメントの総数(len)とそれらのうち何番目の要素であるか(nth)を属性として持つ.\end{description}オブジェクトの種類としては限られているが,型ごとに別々のオブジェクトとして表現されるため,実際のオブジェクトの数はしばしば十数個にもなる.元のセグメントとリンクに基づくスキーマ(図\ref{fig:SLAT})と比べると,以下の違いがある.\begin{enumerate}\item非整列セグメントが導入された.\item階層関係が陽に表現された.\item(非整列)セグメントやリンクが型ごとに別々のオブジェクトとして表現され,属性を内包するようになった.\end{enumerate} \section{データベース構築ツールの開発} \label{sec:Tools}本節では,既存のアノテーションツールで作成された種々の書式を持つアノテーションから,\ref{sec:DB}節で提案したスキーマに基づくデータベースを自動的に構築するツールについて述べる.\subsection{ツールの概要}本ツールは現在のところ,CSVベースのツール,Praat\cite{Boersma_2013_PDP},ELAN\cite{Brugman_2004_AMM},Anvil\cite{Kipp_2001_AGA}の4種類のアノテーションツールに対応している.これらのアノテーションファイルから提案スキーマに基づくデータベースを生成することが本ツールの目的である.構築するデータベースは可搬性に優れたSQLiteを採用した.SQLiteは,すべてのテーブルやインデックスを単一のファイルで実装するスタンドアローンの関係データベースであり,『茶器』\cite{Matsumoto_2006_ACM}などのコーパス管理環境でも利用されている.4種類のアノテーションの書式は大きく異なるが,ある一定の規約を設けることにより,データベースに直接インポートできる表形式ファイルに容易に変換できる.この規約に従ったアノテーションを「正規形」と呼ぶ.ELANやAnvilは本研究と類似のスキーマを用いており,はじめからこの規約に従っている.一方,CSVやPraatでは前もって正規形に変換する必要がある.したがって,データベースの構築過程は以下のようになる.\begin{center}(アノテーションファイル$\Rightarrow$)正規形ファイル$\Rightarrow$表形式ファイル$\Rightarrow$データベース\end{center}\subsection{利用できるアノテーションツール}本ツールでは以下の4種類のアノテーションツールを利用できる.\paragraph{CSVベースのツール:}形態論情報や談話行為など,テキスト情報に基づくアノテーションには,コンマで区切られたCSV形式の入出力を持つツールを用いることが多い.たとえば,MicrosoftExcelは人文系・理工系を問わず,広く用いられているCSVベースのツールであり,形態素解析システムなどの言語処理ツールの出力もCSV形式にできるものが多い.\paragraph{Praat:}Praatは高機能な音声アノテーションツールであり,話し言葉の音声学的アノテーションで標準的なツールとなっている.分節音・単語境界や韻律情報のアノテーションで広く利用されている.出力書式は独自のものであるが,基本的にスタンドオフ形式である.\paragraph{ELAN:}ELANは高機能な映像アノテーションツールであり,ジェスチャー研究などで広く利用されている.本研究と類似のスキーマを用いており,出力書式はスタンドオフ形式のXMLである.\paragraph{Anvil:}Anvilも映像アノテーションツールである.ELANにはないリンクアノテーションの機能があり,発話間の関係づけやあいづち表現の反応先などのアノテーションで利用できる.Anvilの出力書式もスタンドオフ形式のXMLである.\subsection{正規形ファイル}\label{sec:Tools:normal}以上のアノテーションからデータベースを構築するためには,スキーマを具現化する上で必須の情報がアノテーションファイルから取得できないといけない.これらは,セグメントでは開始・終了位置であり,リンクでは参照元・参照先セグメント(を一意に同定する情報)である.これらの情報の取得を保証するアノテーションを「正規形」と呼ぶ.以下,アノテーションファイルの書式ごとに順に述べる.\paragraph{CSV:}CSV形式の正規形ファイルの例として,形態論情報アノテーションの例を図\ref{fig:CSV}に示す.CSV形式の正規形では,各行に開始・終了時刻が記されているものとする.たとえば,形態論情報アノテーションでは,Praatなどを用いて別途ラベリングした単語境界の情報から単語ごとの開始・終了時刻が転写されているものとする.ただし,\ref{sec:DB:spoken}で述べた単位の融合などにより時刻を定められない箇所は「不定」(``NA''で示す)としてよい\footnote{したがって,発話ごとにしか時間情報が与えられていないコーパスの場合は,発話の先頭の単語の開始時刻と末尾の単語の終了時刻以外はすべて「不定」となる.}.「不定」でない開始・終了時刻を持つ最小の範囲(図\ref{fig:CSV}の冒頭の例では「第一」)がセグメントとして認定され,各行はその下位に位置する非整列セグメントとして認定される.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f5.eps}\end{center}\caption{CSV形式の正規形ファイルの例}\label{fig:CSV}\end{figure}1つのCSVファイルで複数の単位をアノテーションする場合がしばしばある.たとえば,図\ref{fig:CSV}では,短単位(SUW)と長単位(LUW)という複数の粒度で語が認定されている(「第一母音」は長単位では1つの語であり,短単位では「第」「一」「母音」という3つの語である).このような場合には,IOB2ラベル\cite{TjongKimSang_1999_RTC}によって上位単位の区間を示す(図\ref{fig:CSV}のluwLabel列){\kern-0.5zw}\footnote{`B'は上位単位の開始位置を示し,`I'は開始された上位単位の内部(末尾を含む)にあることを示す.また,`O'は「笑い」など上位単位に含まれない要素であることを示す.}.CSV形式でリンクを表すには,ローカルに定義されたid(文内での文節の通し番号など)を用いて参照元と参照先を示す.たとえば,係り受け解析器CaboCha\cite{Kudo_2002_JDA}の出力はこのような情報を含んでいる.データベース構築ツールはこれらのidをデータベース内で利用するグローバルなidに自動的に変換する.\paragraph{Praat:}Praatの正規形ファイルの例として,韻律情報アノテーションの例を図\ref{fig:Praat}に示す.Praatは多層アノテーションツールであり,複数階層のセグメントを同時に表すことができる.図\ref{fig:Praat}では上段の3層,単語(Word)・アクセント句(AP)・イントネーション句(IP)がそれらに対応する.韻律情報のアノテーションスキーマとして広く用いられているX--JToBI\cite{五十嵐_2006_韻律情}では,アクセント句やイントネーション句など単語より上位のセグメントを直接認定することはなく,これらは単語に対するBreakIndexの情報を用いて派生される.しかし,X--JToBI自体はこれらの上位セグメントの定義を与えておらず,上位セグメントをどのように派生するかはコーパス開発機関ごとに微妙に異なりうる.データベース構築ツールがこれらの上位セグメントを取得するためには,上位セグメントが陽に表現されている必要があり,そのため,Praatの正規形ファイルでは,すべての上位セグメントが陽に表現されていることを規約とした.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f6.eps}\end{center}\caption{Praatの正規形ファイルの例(層は上から順に,Word,AP,IP,break,fbt,tone,pronLabel)}\label{fig:Praat}\end{figure}\paragraph{ELAN/Anvil:}ELANやAnvilを用いたアノテーションでは,複数階層のセグメントを陽に表すのが通常である.たとえば,ジェスチャーのアノテーションでは,ジェスチャー句とジェスチャーフェーズという複数の階層が用いられるが\cite{細馬_2009_ジェス},それらは異なる層に明示的に表される.よって,これらのアノテーションははじめから正規形と考えてよい.なお,Anvilのリンクアノテーションはツール内部で生成されたidを用いて表現されているが,データベース構築ツールはこれらのidをデータベース内で利用するグローバルなidに自動的に変換する.\subsection{正規形ファイルから表形式ファイルへの変換}\label{sec:Tools:table}\ref{sec:Tools:normal}のように正規形ファイルを規約化することにより,データベースに直接インポートできる表形式ファイルへの変換を汎用のツールによって実行できる.このツールは,変換時に用いる諸設定を記述した設定ファイルを読み込み,各書式の正規形ファイルから表形式ファイルに変換する.ツールは,シェルスクリプトとPerl,Praatスクリプト,XSLTによって実装した.設定ファイルでは,どの正規形ファイルからどの属性を抽出し,どのオブジェクト(セグメントやリンク)の表形式ファイルに変換するかを記述する.おもな設定項目を表\ref{tab:config1}に示す.たとえば,図\ref{fig:CSV}のような形態論情報のCSV形式正規形ファイルから長単位型セグメントの表形式ファイルを生成するための設定は図\ref{fig:config1}(左)のようになる.ここでは,入出力ファイル名がワイルドカードを用いて記述され,文書id(\TT{doc-id})がそこからどのように作られるかが指定される\footnote{``\TT{\%$n$@input-file}''は\TT{input-file}変数中の$n$番目の`\TT{\%}'にマッチする文字列を示す.}.オブジェクトに含める属性集合は\TT{label-names}にコンマ区切りで指定する.長単位のように正規形ファイル中で上位階層に相当するセグメントの場合は,セグメント区間を示すIOB2ラベルが記された列名を\TT{unit-tag-column}で指定する.さらに,属性集合の値が正規形ファイル中のセグメント区間の先頭行(\TT{first})に記述されているか,最終行(\TT{last})に記述されているかを\TT{label-position}で指定する.\begin{table}[t]\caption{正規形ファイルから表形式ファイルへの変換で用いる設定項目(抜粋)}\label{tab:config1}\input{ca01table01.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f7.eps}\end{center}\caption{正規形ファイルから表形式ファイルに変換するための設定の例}\label{fig:config1}\end{figure}図\ref{fig:Praat}のような韻律情報のPraat形式正規形ファイルからアクセント句型セグメントの表形式ファイルを生成するための設定を図\ref{fig:config1}(中央)に示す.CSV形式の場合とほぼ同様であるが,セグメント区間は特定の層に陽に表現されているため,その層の名前を\TT{primary-tier}で指定する.また,Praatではセグメント外の要素(休止区間)も含めてラベルが付与されているため,セグメント外要素であることを示すラベル値を\TT{skip-label}で指定する.最後に,Anvilファイルからあいづち反応先型リンクの表形式ファイルを生成するための設定を図\ref{fig:config1}(右)に示す.Anvilのリンクアノテーションは,あるトラックの要素(たとえばあいづち表現)からあるトラックの要素(たとえば単語)への参照を,参照先要素の内部idを用いて属性値として表現している.そこで,参照元・参照先トラックの名前をそれぞれ\TT{source-track},\TT{destination-track}に指定し,参照先を記述した属性の名前を\TT{link-attribute}で指定する\footnote{対話ではトラックは話者ごとに別個に記述されるため,実際のトラック名は\TT{A.rt}のようにチャネル名が前置(または後置)したものになる.このトラック名の形式は\TT{channel-name-type}と\TT{channel-name-delimiter}で指定する.}.\subsection{表形式ファイルからデータベースへの変換}\label{sec:Tools:DB}\ref{sec:Tools:table}で得られた表形式ファイルからデータベースを構築するには,まずオブジェクトごとにテーブルスキーマ(\TT{CREATETABLE}文)を定義しなければならない.これには,各テーブルの名前や,持っている属性の一覧およびそれらの型などが含まれる.この過程には,テーブルスキーマを簡易表現で定義した設定ファイルを利用する.汎用のツールによって,設定ファイルからテーブルスキーマを定義し,表形式ファイルからデータをインポートする.設定ファイル中では,(1)テーブルの名前,(2)インポートする表形式ファイルの名前(ワイルドカードで複数指定可能),(3)主キーの名前と型,(4)属性の名前と型(のリスト)などを指定する.属性の型としては,テキスト型(\TT{t})・整数型(\TT{i})・実数型(\TT{r})が利用できる.テーブルスキーマの定義は一般に以下の形式である.\begin{screen}\begin{verbatim}テーブル名=表形式ファイル一覧/主キーの名前:型/属性1の名前:型,属性2の名前:型,...\end{verbatim}\end{screen}たとえば,図\ref{fig:config1}(中央)の設定を用いて生成したアクセント句型セグメント用の表形式ファイルからデータベースのテーブルを生成するための設定は図\ref{fig:config2}の\TT{segAP}のようになる.同様に,図\ref{fig:config1}(右)の設定を用いて生成したあいづち反応先型リンク用の表形式ファイルからデータベースのテーブルを生成するための設定は図\ref{fig:config2}の\TT{linkRTTarget}のようになる.セグメント間の階層関係は,階層をなしうるセグメント型の名前を下位のものから順に並べて指定する.たとえば,図\ref{fig:Praat}の単語・アクセント句・イントネーション句間の階層関係を表現するには,図\ref{fig:config2}の\TT{groupProsodic}のように指定する.データベース構築ツールは,階層関係にあるセグメント対を自動的に導出し,テーブルを作成する.階層関係は隣接する型の間(relWord2APやrelAP2IP)だけでなく,離れた型の間(relWord2IP)でも導出される.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f8.eps}\end{center}\caption{表形式ファイルからデータベースを生成するための設定の例}\label{fig:config2}\end{figure} \section{適用事例} \label{sec:CaseStudies}『日本語話し言葉コーパス』と『千葉大学3人会話コーパス』を対象に,本稿で提案した手法によりデータベースを構築し運用している.本節ではその概要について紹介する.\subsection{『日本語話し言葉コーパス』}『日本語話し言葉コーパス』(CSJ)は,2004年に一般公開された661時間の日本語自発音声からなるデータベースである\cite{前川_2004_日本語}.このうち「コア」と呼ばれるデータ範囲(44時間)には,おもに表\ref{tab:csjAnno}に示す研究用付加情報が付与されており\cite{国語研_2006_日本語},これらを対象に本手法によりデータベースを構築した(以下CSJ-RDB)\cite{小磯_2012_日本語}\footnote{CSJでは,各種情報を統合して階層的に表現したXML文書が提供されている.しかし,この階層から逸脱する情報を無理やり特定の単位に埋め込んだり,別の階層で記述したXML文書が別途提供され,両者にまたがった検索が困難であったりして使いづらかった.本手法ではスタンドオフ形式でデータを表現するため,これらの問題は解消される.}.各研究用付加情報はそれぞれ,表\ref{tab:csjAnno}の「ツール」欄に示す書式(CSJ構築時(1999〜2003年)とは異なる)で記述されており,ここから各種中間ファイルを経てデータベースに変換した.CSJ-RDBの(非整列)セグメントとリンクを図\ref{fig:csjRdb}に示す.談話中の要素を記述したセグメントは,次の3種類の階層関係からなる系列に分類される.\begin{itemize}\item形態統語論系列:短単位$<$長単位$<$文節$<$節単位\item音声系列:分節音$<$音素$<$モーラ$<$短単位$<$間休止単位\item韻律系列:短単位$<$アクセント句$<$イントネーション句\end{itemize}このうち短単位と長単位については,時間的に分節化できる部分をセグメントで表し,時間的に分節化できない部分は非整列セグメントとして表している.韻律情報のうちアクセント核や句末音調などのトーン情報は,どのアクセント句に帰属するかがリンク(linkTone2AP)によって表される.また文節係り受け関係は,係り元と係り先の依存関係がリンク(linkDepBunsetsu)によって表される.\begin{table}[t]\caption{CSJの研究用付加情報}\label{tab:csjAnno}\input{ca01table02.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f9.eps}\end{center}\caption{CSJ-RDBの(非整列)セグメントとリンク}\label{fig:csjRdb}\end{figure}\subsection{『千葉大学3人会話コーパス』}『千葉大学3人会話コーパス』は,大学キャンパスにおける3人の友達同士の会話を集めた約6時間からなる対話コーパスである\cite{Den_2007_SAT}.このうち12会話約2時間のデータには,表\ref{tab:chibaAnno}に示す研究用付加情報が付与されており\cite{Den_2007_SAT,Den_2010_TAO,Den_2011_AOJ,Den_2012_AOR},これらを対象にデータベースを構築した(以下Chiba-RDB).各研究用付加情報はそれぞれ表\ref{tab:chibaAnno}の「ツール」欄に示す書式のアノテーションファイルで記述されており,ここから各種中間ファイルを経てデータベースに変換した.\begin{table}[b]\caption{『千葉大学3人会話コーパス』の研究用付加情報}\label{tab:chibaAnno}\input{ca01table03.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA1f10.eps}\end{center}\caption{Chiba-RDBの(非整列)セグメントとリンク}\label{fig:chibaRdb}\end{figure}Chiba-RDBの(非整列)セグメントとリンクを図\ref{fig:chibaRdb}に示す.セグメントは,次の4種類の階層関係からなる系列に分類される.\begin{itemize}\item形態統語語用論系列:短単位$<$文節$<$節$<$長い発話単位\item韻律系列:短単位$<$アクセント句$<$イントネーション句\item視線系列:視線フェーズ$<$視線句\item頭部動作系列:頭部動作フェーズ$<$頭部動作句\end{itemize}CSJ-RDBと異なる部分を中心に見る.まず,長い発話単位間の連接関係(話者交替)を表す話者移行関係がリンク(linkLUUTrans)によって表される.また長い発話単位のうち,あいづち表現については,あいづちが打たれるきっかけとなった表現(反応先)との関係がリンク(linkRTTarget)によって表される.頷きについても同様に,そのきっかけとなった表現(反応先)との関係がリンク(linkNodTarget)によって表される. \section{議論} \label{sec:Discussion}\subsection{関連研究}\label{sec:Discussion:RelatedResearch}本節では関連研究との違いについて述べる.\ref{sec:Introduction}節で述べたように,本研究は,既存のアノテーションツールやコーパス検索ツールを用いてコーパス利用環境を実現することに主眼があり,アノテーションツールやコーパス検索ツールの開発そのものを目的とするものではない.\citeA{Noguchi_2008_MPA}や\citeA{Kaplan_2010_APM}をはじめとする関連研究とは,この点がまず大きく異なる.さまざまなアノテーションを統合開発環境で行なうアプローチは魅力的ではあるが,マルチモーダルデータを含む話し言葉コーパスではその実現に多くの困難が伴い,本研究のアプローチのほうがより現実的な解を提示している.他のツールで作成されたアノテーションを統合し利用するという点では,\citeA{Matsumoto_2006_ACM}や\citeA{Calhoun_2010_NSC}がむしろ本研究に近い.\citeA{Matsumoto_2006_ACM}は,形態素解析・係り受け解析済みのテキストを読み込んで,コーパス検索・修正などをGUIで行なうための汎用的なツール『茶器』を開発している.もともと書き言葉を想定していたが,最近,話し言葉も扱えるよう拡張がなされている\cite{浅原_2013_コーパ}.しかし,『茶器』にインポートできるデータは決められた書式のものに限られており,\ref{sec:Tools}節で示したような柔軟性はない.また,扱える単位も単語・文節あたりに限られており,\ref{sec:CaseStudies}節で見た事例のような多岐にわたる単位を扱うことはできない.\citeA{Calhoun_2010_NSC}は,長年にわたってさまざまな研究機関でなされてきた,Switchboardコーパス\cite{Godfrey_1992_STS}に対するさまざまな種類のアノテーションを統合し,多層にわたる検索を可能にした.電話会話のためマルチモーダル情報は含まないが,音素から統語構造・韻律情報,さらには非流暢性・情報構造・共参照に至るまで,15種類以上ものアノテーションを含み,\ref{sec:CaseStudies}節で見た本研究の事例に十分匹敵する.彼らはさまざまな書式を持つ既存のアノテーションを変換してこの統合をなしているが,本研究のようにそのための汎用的なツールを開発したわけではない.\subsection{アノテーション管理について}本研究では,話し言葉コーパスの統合利用に焦点を当てて述べてきたが,アノテーション過程の管理もまたコーパスアノテーションの重要な課題である.\citeA{Kaplan_2010_APM}は,作業者管理,並行・分散アノテーション,バージョン管理,バージョンの併合といったマクロレベルの要件を考慮した統合開発環境を提案している.これに対して,本研究では,話し言葉で広く使われている既存のアノテーションツールを有効に利用することを最大の要件としてきた.そのため,統合開発環境に基づいて種々のツール群を開発するという方向性とは異なる立場に立ってきた.このことのデメリットについて検討する必要があろう.統合開発環境に基づくアノテーションツールを使わないことの最大のデメリットは,異なるツール間で共有される部分(たとえば『日本語話し言葉コーパス』の短単位)をあるアノテーションで修正したときに,その影響を他のアノテーションに簡単に波及できないという点である.統合開発環境に基づくツール群では,アノテーションデータ自身を共有しているため,このような波及は作業者が意識しなくても暗黙的になされる.しかし,個別のアノテーションツールを用いる本手法では,波及的な修正は自動的には行なえない.本手法においても,構築したデータベースから各種アノテーションを再生成することは可能であり,\ref{sec:CaseStudies}節で紹介した事例では,実際にそのようなツールを作成し運用している.このようなツールによって,あるアノテーションで生じた修正を別のアノテーションに波及すること自体は可能である.しかし,現状では,この種の波及的修正は,作業者が能動的に実行しない限り,行なえない.今後,アノテーションファイルへのアクセス方法などを工夫する(たとえば常にデータベースから再生成するなど)ことで,より効果的にアノテーション過程を管理する方策を考える必要がある.また,バージョン管理の問題についても,本研究では,汎用のバージョン管理システムSubversionを用いてアノテーションファイルを管理しているが,これで十分というわけではない.アノテーション過程の管理については,既存のアノテーションツールやバージョン管理システムを含むシステム全体の中で,よりよい手段を模索する必要があろう.\subsection{実用性について}\ref{sec:DB}節で述べたように,提案スキーマでは,語やアクセント句や節といった言語学的な概念とスキーマ内のオブジェクトとが直接対応しており,ユーザの了解度は高いと思われる.しかし,検索速度の面ではどうであろうか.この点を調べるために,コーパス言語学でよく用いられる,以下のような標準的なクエリに対する検索速度を計測した(付録\ref{sec:ex}参照).\begin{description}\item[クエリ1]イントネーション句の末尾のアクセント句の先頭のモーラの継続長を算出\item[クエリ2]イントネーション句の次末(末尾から2番目)のアクセント句の末尾のモーラの継続長を算出\item[クエリ3]文末形式を持つ節単位の先頭の文節の末尾の短単位が係助詞「は」であるものを抽出し,その短単位の継続長を算出\end{description}(1)セグメントとリンクに基づくスキーマのように抽象度の高い単一のセグメントを用いる場合と(2)本手法のように型ごとに個別化されたセグメントを用いる場合とで比較を行なった.なお,これ以外の条件を対等にするため,いずれも階層関係を陽に表現した.実験は,人文系研究者がよく用いている,SQLiteのGUIであるNavicatforSQLite(ver.~11.0.10)を用いてノートPC(SonyVPCZ22AJ,Corei7-2640M2.80~GHz)上で行ない,CSJ-RDBを検索対象とした.\begin{table}[t]\caption{検索速度の比較(5回の平均.単位は秒)}\label{tab:speed}\input{ca01table04.txt}\end{table}結果を表\ref{tab:speed}に示す.「個別」は総じて「単一」の倍程度の速さであり,個別化されたセグメントを用いることで検索速度も若干改善されることがわかる.この程度の違いがどれだけの意味を持つかはわからないが,少なくとも提案スキーマが実用性で劣るということはない. \section{おわりに} \label{sec:Conclusion}本研究では,(1)マルチチャネル・マルチモーダルの話し言葉コーパスを表現できる,汎用的なデータベーススキーマを設計し,(2)既存のアノテーションツールで作成された,種々の書式を持つアノテーションを入力とし,汎用的なデータベーススキーマから具現化されたデータベースを構築するツールを開発した.また,『日本語話し言葉コーパス』と『千葉大学3人会話コーパス』を対象に,本手法によりデータベースを構築した事例を紹介した.構築したデータベースは,コーパス言語学的な研究に有効に利用されている.今後の課題としてまず,使いやすいユーザインターフェースを備えた,本研究のスキーマに対応したコーパス検索ツールの開発が挙げられる.本研究では,SQL言語やそのGUIのような既存のツールを用いた検索を想定していた.実際,人文系研究者をおもな対象として,CSJ-RDBをSQL言語やGUIで検索する技法に関する講習会を何度か開いている.しかし,本スキーマに特化したより使いやすい検索ツールがあれば,利用者はますます広がると期待できる.さらに,本研究のデータベース構築ツールはLinux環境で実装されており,この点も人文系研究者が利用するうえで障害となるであろう.PraatやELANなどの既存のアノテーションツールを用いたコーパス開発は,むしろ人文系研究者の間で広く行なわれており,それらのアノテーションを統合利用する必要性もまた人文系研究者において高いかもしれない.今後,より身近な環境で使えるようなツールに変更していきたい.\acknowledgmentCSJ-RDBの構築に際し西川賢哉氏(理化学研究所)の協力を得た.記して感謝する.本研究は,科研費補助金基盤研究(B)「発話単位アノテーションに基づく対話の認知・伝達融合モデルの構築」(課題番号:23320081,研究代表者:伝康晴),国立国語研究所独創・発展型共同研究「多様な様式を網羅した会話コーパスの共有化」(リーダー:伝康晴),萌芽・発掘型共同研究「会話の韻律機能に関する実証的研究」(リーダー:小磯花絵)による成果である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA森田}{浅原\JBA森田}{2013}]{浅原_2013_コーパ}浅原正幸\JBA森田敏生\BBOP2013\BBCP.\newblockコーパスコンコーダンサ『{ChaKi.NET}』の連続値データ型.\newblock\Jem{第4回コーパス日本語学ワークショップ},pp.~249--256.\bibitem[\protect\BCAY{Bird,Day,Garofolo,Henderson,Laprun,\BBA\Liberman}{Birdet~al.}{2000}]{Bird_2000_FFF}Bird,S.,Day,D.,Garofolo,J.,Henderson,J.,Laprun,C.,\BBA\Liberman,M.\BBOP2000\BBCP.\newblock\BBOQ\mbox{ATLAS:}AFlexibleandExtensibleArchitectureforLinguisticAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonLanguageResourcesandEvaluation({LREC}2000)},\mbox{\BPGS\1699--1706}.Athens,Greece.\bibitem[\protect\BCAY{Bird\BBA\Liberman}{Bird\BBA\Liberman}{2001}]{Bird_2001_FFF}Bird,S.\BBACOMMA\\BBA\Liberman,M.\BBOP2001\BBCP.\newblock\BBOQAFormalFrameworkforLinguisticAnnotation.\BBCQ\\newblock{\BemSpeechCommunication},{\Bbf33},\mbox{\BPGS\23--60}.\bibitem[\protect\BCAY{Boersma\BBA\Weenink}{Boersma\BBA\Weenink}{2013}]{Boersma_2013_PDP}Boersma,P.\BBACOMMA\\BBA\Weenink,D.\BBOP2013\BBCP.\newblock\BBOQPraat:DoingPhoneticsbyComputer.\BBCQ\\newblockComputerProgram,Version5.3.56,retrieved15September2013from\url{http://www.praat.org/}.\bibitem[\protect\BCAY{Brugman\BBA\Russel}{Brugman\BBA\Russel}{2004}]{Brugman_2004_AMM}Brugman,H.\BBACOMMA\\BBA\Russel,A.\BBOP2004\BBCP.\newblock\BBOQAnnotatingMulti-media/Multi-modalResourceswith{ELAN}.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation({LREC}2004)},\mbox{\BPGS\2065--2068}.Lisbon,Portugal.\newblock\url{http://tla.mpi.nl/tools/tla-tools/elan/}.\bibitem[\protect\BCAY{Calhoun,Carletta,Brenier,Mayo,Jurafsky,Steedman,\BBA\Beaver}{Calhounet~al.}{2010}]{Calhoun_2010_NSC}Calhoun,S.,Carletta,J.,Brenier,J.,Mayo,N.,Jurafsky,D.,Steedman,M.,\BBA\Beaver,D.\BBOP2010\BBCP.\newblock\BBOQThe{NXT}-format{Switchboard}Corpus:ARichResourceforInvestigatingtheSyntax,Semantics,PragmaticsandProsodyofDialogue.\BBCQ\\newblock{\BemLanguageResourcesandEvaluationJournal},{\Bbf44},\mbox{\BPGS\387--419}.\bibitem[\protect\BCAY{Carletta}{Carletta}{2007}]{Carletta_2007_UTK}Carletta,J.\BBOP2007\BBCP.\newblock\BBOQUnleashingtheKillerCorpus:ExperiencesinCreatingtheMulti-everything{AMI}MeetingCorpus.\BBCQ\\newblock{\BemLanguageResourcesandEvaluationJournal},{\Bbf41},\mbox{\BPGS\181--190}.\bibitem[\protect\BCAY{Carletta,Evert,Heid,\BBA\Kilgour}{Carlettaet~al.}{2005}]{Carletta_2005_NXT}Carletta,J.,Evert,S.,Heid,U.,\BBA\Kilgour,J.\BBOP2005\BBCP.\newblock\BBOQThe{NITE}{XML}Toolkit:DataModelandQuery.\BBCQ\\newblock{\BemLanguageResourcesandEvaluationJournal},{\Bbf39},\mbox{\BPGS\313--334}.\bibitem[\protect\BCAY{Chen,Rose,Qiao,Kimbara,Parrill,Welji,Han,Tu,Huang,Harper,Quek,Xiong,McNeill,Tuttle,\BBA\Huang}{Chenet~al.}{2006}]{Chen_2006_VMM}Chen,L.,Rose,R.~T.,Qiao,Y.,Kimbara,I.,Parrill,F.,Welji,H.,Han,T.~X.,Tu,J.,Huang,Z.,Harper,M.,Quek,F.,Xiong,Y.,McNeill,D.,Tuttle,R.,\BBA\Huang,T.\BBOP2006\BBCP.\newblock\BBOQ{VACE}MultimodalMeetingCorpus.\BBCQ\\newblockInRenals,S.\BBACOMMA\\BBA\Bengio,S.\BEDS,{\BemMachineLearningforMultimodalInteraction},\lowercase{\BVOL}\3869of{\BemLectureNotesinComputerScience},\mbox{\BPGS\40--51}.Springer,Berlin/Heidelberg.\bibitem[\protect\BCAY{Den\BBA\Enomoto}{Den\BBA\Enomoto}{2007}]{Den_2007_SAT}Den,Y.\BBACOMMA\\BBA\Enomoto,M.\BBOP2007\BBCP.\newblock\BBOQAScientificApproachtoConversationalInformatics:Description,Analysis,andModelingofHumanConversation.\BBCQ\\newblockInNishida,T.\BED,{\BemConversationalInformatics:AnEngineeringApproach},\mbox{\BPGS\307--330}.JohnWiley\&Sons,Hoboken,NJ.\bibitem[\protect\BCAY{Den,Koiso,Maruyama,Maekawa,Takanashi,Enomoto,\BBA\Yoshida}{Denet~al.}{2010}]{Den_2010_TAO}Den,Y.,Koiso,H.,Maruyama,T.,Maekawa,K.,Takanashi,K.,Enomoto,M.,\BBA\Yoshida,N.\BBOP2010\BBCP.\newblock\BBOQTwo-levelAnnotationofUtterance-unitsin{Japanese}Dialogs:AnEmpiricallyEmergedScheme.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonLanguageResourcesandEvaluation({LREC}2010)},\mbox{\BPGS\1483--1486}.Valletta,Malta.\bibitem[\protect\BCAY{Den,Koiso,Takanashi,\BBA\Yoshida}{Denet~al.}{2012}]{Den_2012_AOR}Den,Y.,Koiso,H.,Takanashi,K.,\BBA\Yoshida,N.\BBOP2012\BBCP.\newblock\BBOQAnnotationofResponseTokensandtheirTriggeringExpressionsin{Japanese}Multi-partyConversations.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonLanguageResourcesandEvaluation({LREC}2012)},pp.~1332--1337.Istanbul,Turkey.\bibitem[\protect\BCAY{Den,Yoshida,Takanashi,\BBA\Koiso}{Denet~al.}{2011}]{Den_2011_AOJ}Den,Y.,Yoshida,N.,Takanashi,K.,\BBA\Koiso,H.\BBOP2011\BBCP.\newblock\BBOQAnnotationof{Japanese}ResponseTokensandPreliminaryAnalysisontheirDistributioninThree-partyConversations.\BBCQ\\newblockIn{\BemProceedingsofthe14thOriental{COCOSDA}({O--COCOSDA}2011)},\mbox{\BPGS\168--173}.Hsinchu,Taiwan.\bibitem[\protect\BCAY{Godfrey,Holliman,\BBA\McDaniel}{Godfreyet~al.}{1992}]{Godfrey_1992_STS}Godfrey,J.~J.,Holliman,E.~C.,\BBA\McDaniel,J.\BBOP1992\BBCP.\newblock\BBOQ{SWITCHBOARD}:TelephoneSpeechCorpusforResearchandDevelopment.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonAcoustics,Speech,andSignalProcessing(ICASSP-92)},\mbox{\BPGS\517--520}.SanFrancisco,CA.\bibitem[\protect\BCAY{細馬}{細馬}{2009}]{細馬_2009_ジェス}細馬宏通\BBOP2009\BBCP.\newblockジェスチャー単位.\newblock坊農真弓\JBA高梨克也\JEDS,\Jem{多人数インタラクションの分析手法},\mbox{\BPGS\119--137}.オーム社.\bibitem[\protect\BCAY{五十嵐\JBA菊池\JBA前川}{五十嵐\Jetal}{2006}]{五十嵐_2006_韻律情}五十嵐陽介\JBA菊池英明\JBA前川喜久雄\BBOP2006\BBCP.\newblock韻律情報.\newblock\Jem{国立国語研究所報告124:日本語話し言葉コーパスの構築法},\mbox{\BPGS\347--453}.\bibitem[\protect\BCAY{Kaplan,Iida,Nishina,\BBA\Tokunaga}{Kaplanet~al.}{2012}]{Kaplan_2012_STF}Kaplan,D.,Iida,R.,Nishina,K.,\BBA\Tokunaga,T.\BBOP2012\BBCP.\newblock\BBOQSlate---AToolforCreatingandMaintainingAnnotatedCorpora.\BBCQ\\newblock{\BemJournalforLanuageTechnologyandComputationalLinguistics},{\Bbf26}(2),\mbox{\BPGS\91--103}.\bibitem[\protect\BCAY{Kaplan,Iida,\BBA\Tokunaga}{Kaplanet~al.}{2010}]{Kaplan_2010_APM}Kaplan,D.,Iida,R.,\BBA\Tokunaga,T.\BBOP2010\BBCP.\newblock\BBOQAnnotationProcessManagementRevisited.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalLanguageResourcesandEvaluationConference({LREC}2010)},\mbox{\BPGS\3654--3661}.Valletta,Malta.\bibitem[\protect\BCAY{Kipp}{Kipp}{2001}]{Kipp_2001_AGA}Kipp,M.\BBOP2001\BBCP.\newblock\BBOQAnvil---AGenericAnnotationToolforMultimodalDialogue.\BBCQ\\newblockIn{\BemProceedingsofthe7thEuropeanConferenceonSpeechCommunicationandTechnology(Eurospeech2001)},\mbox{\BPGS\1367--1370}.Aalborg,Denmark.\newblock\url{http://www.anvil-software.org/}.\bibitem[\protect\BCAY{小磯\JBA伝\JBA前川}{小磯\Jetal}{2012}]{小磯_2012_日本語}小磯花絵\JBA伝康晴\JBA前川喜久雄\BBOP2012\BBCP.\newblock『日本語話し言葉コーパス』RDBの構築.\newblock\Jem{第1回コーパス日本語学ワークショップ},\mbox{\BPGS\393--400}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2006}]{国語研_2006_日本語}国立国語研究所\BBOP2006\BBCP.\newblock\Jem{国立国語研究所報告124:日本語話し言葉コーパスの構築法}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo_2002_JDA}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQ{Japanese}DependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonComputationalNaturalLanguageLearning({CoNLL-2002})},\mbox{\BPGS\63--69}.Taipei,Taiwan.\newblock\url{https://code.google.com/p/cabocha/}.\bibitem[\protect\BCAY{前川}{前川}{2004}]{前川_2004_日本語}前川喜久雄\BBOP2004\BBCP.\newblock『日本語話し言葉コーパス』の概要.\newblock\Jem{日本語科学},{\Bbf15},\mbox{\BPGS\111--133}.\bibitem[\protect\BCAY{Matsumoto,Asahara,Hashimoto,Tono,Ohtani,\BBA\Morita}{Matsumotoet~al.}{2006}]{Matsumoto_2006_ACM}Matsumoto,Y.,Asahara,M.,Hashimoto,K.,Tono,Y.,Ohtani,A.,\BBA\Morita,T.\BBOP2006\BBCP.\newblock\BBOQAnAnnotatedCorpusManagementTool:{ChaKi}.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation({LREC}2006)},\mbox{\BPGS\1418--1421}.Genoa,Italy.\bibitem[\protect\BCAY{M\"uller\BBA\Strube}{M\"uller\BBA\Strube}{2001}]{Muller_2001_MTF}M\"uller,C.\BBACOMMA\\BBA\Strube,M.\BBOP2001\BBCP.\newblock\BBOQ{MMAX}:AToolfortheAnnotationofMulti-modalCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe2ndIJCAIWorkshoponKnowledgeandReasoninginPracticalDialogueSystems},\mbox{\BPGS\45--50}.Seattle,WA.\bibitem[\protect\BCAY{M\"uller\BBA\Strube}{M\"uller\BBA\Strube}{2006}]{Muller_2006_MAO}M\"uller,C.\BBACOMMA\\BBA\Strube,M.\BBOP2006\BBCP.\newblock\BBOQMulti-levelAnnotationofLinguisticDatawith{MMAX2}.\BBCQ\\newblockInBraun,S.,Kohn,K.,\BBA\Mukherjee,J.\BEDS,{\BemCorpusTechnologyandLanguagePedagogy:NewResources,NewTools,NewMethods},\mbox{\BPGS\197--214}.PeterLang,FrankfurtamMain,Germany.\bibitem[\protect\BCAY{Noguchi,Miyoshi,Tokunaga,Iida,Komachi,\BBA\Inui}{Noguchiet~al.}{2008}]{Noguchi_2008_MPA}Noguchi,M.,Miyoshi,K.,Tokunaga,T.,Iida,R.,Komachi,M.,\BBA\Inui,K.\BBOP2008\BBCP.\newblock``MultiplePurposeAnnotationusing{SLAT}---SegmentandLink-basedAnnotationTool---.''\newblockIn{\BemProceedingsofthe2ndLinguisticAnnotationWorkshop},\mbox{\BPGS\61--64}.Marrakech,Morocco.\bibitem[\protect\BCAY{角\JBA矢野\JBA西田}{角\Jetal}{2011}]{角_2011_マルチ}角康之\JBA矢野正治\JBA西田豊明\BBOP2011\BBCP.\newblockマルチモーダルデータに基づいた多人数会話の構造理解.\newblock\Jem{社会言語科学},{\Bbf14}(1),\mbox{\BPGS\82--96}.\bibitem[\protect\BCAY{{TjongKimSang}\BBA\Veenstra}{{TjongKimSang}\BBA\Veenstra}{1999}]{TjongKimSang_1999_RTC}{TjongKimSang},E.~F.\BBACOMMA\\BBA\Veenstra,J.\BBOP1999\BBCP.\newblock\BBOQRepresentingTextChunks.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL'99)},\mbox{\BPGS\173--179}.Bergen,Norway.\bibitem[\protect\BCAY{Waibel\BBA\Stiefelhagen}{Waibel\BBA\Stiefelhagen}{2009}]{Waibel_2009_CIT}Waibel,A.\BBACOMMA\\BBA\Stiefelhagen,R.\BBOP2009\BBCP.\newblock{\BemComputersintheHumanInteractionLoop}.\newblockSpringer,Berlin/Heidelberg.\end{thebibliography}\appendix \section{隣接語対を抽出するクエリ} \label{sec:bigram}同一節(segClause)内で隣接する単語(segWord)の対を抽出するクエリ.階層関係テーブル(relWord2Clause)を用いない場合は,サブクエリを用いた煩雑なクエリとなる.\begin{query}--階層関係を用いない場合SELECTW1.idAScurrent,W2.idASnextFROMsegClauseASCINNERJOINsegWordASW1ONW1.docID=C.docIDANDW1.channel=C.channelANDW1.start>=C.startANDW1.start<C.endINNERJOINsegWordASW2ONW2.docID=W1.docIDANDW2.channel=W1.channelWHEREW2.start=(SELECTMIN(W3.start)FROMsegWordASW3WHEREW3.docID=W1.docIDANDW3.channel=W1.channelANDW3.start>W1.startANDW3.start<C.end);\end{query}\begin{query}--階層関係を用いた場合SELECTW1.idAScurrent,W2.idASnextFROMsegWordASW1INNERJOINrelWord2ClauseASR1ONR1.descendant=W1.idINNERJOINrelWord2ClauseASR2ONR2.ancestor=R1.ancestorINNERJOINsegWordASW2ONW2.id=R2.descendantWHERER2.nth=R1.nth+1;\end{query} \section{実用性評価で用いたクエリ} \label{sec:ex}\paragraph{クエリ1:}イントネーション句の末尾のアクセント句の先頭のモーラの継続長を算出\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--抽象度の高い単一のセグメントを用いた場合SELECTI.id,MATTR.valueASMoraEntity,M.end-M.startASDurationFROMsegASIINNERJOINrelASAIONAI.ancestor=I.idINNERJOINsegASAONA.id=AI.descendantINNERJOINrelASMAONMA.ancestor=A.idINNERJOINsegASMONM.id=MA.descendantINNERJOINattrASMATTRONMATTR.ref=M.idWHEREAI.nth=AI.lenANDMA.nth=1ANDI.type="IP"ANDAI.type="AP2IP"ANDA.type="AP"ANDMA.type="Mora2AP"ANDM.type="Mora"ANDMATTR.name="MoraEntity";\end{verbatim}\end{screen}\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--型ごとに個別化されたセグメントを用いた場合SELECTI.id,M.MoraEntity,M.end-M.startASDurationFROMsegIPASIINNERJOINrelAP2IPASAIONAI.ancestor=I.idINNERJOINsegAPASAONA.id=AI.descendantINNERJOINrelMora2APASMAONMA.ancestor=A.idINNERJOINsegMoraASMONM.id=MA.descendantWHEREAI.nth=AI.lenANDMA.nth=1;\end{verbatim}\end{screen}\vspace{.5\baselineskip}\paragraph{クエリ2:}イントネーション句の次末のアクセント句の末尾のモーラの継続長を算出\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--抽象度の高い単一のセグメントを用いた場合SELECTI.id,MATTR.valueASMoraEntity,M.end-M.startASDurationFROMsegASIINNERJOINrelASAIONAI.ancestor=I.idINNERJOINsegASAONA.id=AI.descendantINNERJOINrelASMAONMA.ancestor=A.idINNERJOINsegASMONM.id=MA.descendantINNERJOINattrASMATTRONMATTR.ref=M.idWHEREAI.nth=AI.len-1ANDMA.nth=MA.lenANDI.type="IP"ANDAI.type="AP2IP"ANDA.type="AP"ANDMA.type="Mora2AP"ANDM.type="Mora"ANDMATTR.name="MoraEntity";\end{verbatim}\end{screen}\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--型ごとに個別化されたセグメントを用いた場合SELECTI.id,M.MoraEntity,M.end-M.startASDurationFROMsegIPASIINNERJOINrelAP2IPASAIONAI.ancestor=I.idINNERJOINsegAPASAONA.id=AI.descendantINNERJOINrelMora2APASMAONMA.ancestor=A.idINNERJOINsegMoraASMONM.id=MA.descendantWHEREAI.nth=AI.len-1ANDMA.nth=MA.len;\end{verbatim}\end{screen}\vspace{.5\baselineskip}\clearpage\paragraph{クエリ3:}文末形式を持つ節単位の先頭の文節の末尾の短単位が係助詞「は」であるものを抽出し,その短単位の継続長を算出\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--抽象度の高い単一のセグメントを用いた場合SELECTC.id,S.end-S.startASDurationFROMsegASCINNERJOINrelASBCONBC.ancestor=C.idINNERJOINsegASBONB.id=BC.descendantINNERJOINrelASSBONSB.ancestor=B.idINNERJOINsegASSONS.id=SB.descendantINNERJOINrelASSMSONSMS.ancestor=S.idINNERJOINusegASSMONSM.id=SMS.descendantINNERJOINattrASCATTRONCATTR.ref=C.idINNERJOINattrASSMATTR1ONSMATTR1.ref=SM.idINNERJOINattrASSMATTR2ONSMATTR2.ref=SM.idWHEREBC.nth=1ANDSB.nth=SB.lenANDSMS.nth=SMS.lenANDC.type="Clause"ANDBC.type="Bunsetsu2Clause"ANDB.type="Bunsetsu"ANDSB.type="SUW2Bunsetsu"ANDS.type="SUW"ANDSMS.type="SUWMorph2SUW"ANDSM.type="SUWMorph"ANDCATTR.name="ClauseBoundaryLabel"ANDCATTR.valueLIKE"[ANDSMATTR1.name="SUWLemma"ANDSMATTR1.value="は"ANDSMATTR2.name="SUWMiscPOSInfo1"ANDSMATTR2.value="係助詞";\end{verbatim}\end{screen}\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--型ごとに個別化されたセグメントを用いた場合SELECTC.id,S.end-S.startASDurationFROMsegClauseASCINNERJOINrelBunsetsu2ClauseASBCONBC.ancestor=C.idINNERJOINsegBunsetsuASBONB.id=BC.descendantINNERJOINrelSUW2BunsetsuASSBONSB.ancestor=B.idINNERJOINsegSUWASSONS.id=SB.descendantINNERJOINrelSUWMorph2SUWASSMSONSMS.ancestor=S.idINNERJOINusegSUWMorphASSMONSM.id=SMS.descendantWHEREBC.nth=1ANDSB.nth=SB.lenANDSMS.nth=SMS.lenANDC.ClauseBoundaryLabelLIKE"[ANDSM.SUWLemma="は"ANDSM.SUWMiscPOSInfo1="係助詞";\end{verbatim}\end{screen}\begin{biography}\bioauthor{伝康晴}{1993年京都大学大学院工学研究科博士後期課程研究指導認定退学.博士(工学).ATR音声翻訳通信研究所研究員,奈良先端科学技術大学院大学情報科学研究科助教授,千葉大学文学部助教授・准教授を経て,現在,千葉大学文学部教授.国立国語研究所客員教授.専門はコーパス言語学・心理言語学・計算言語学.とくに日常的な会話の分析・モデル化.社会言語科学会・日本認知科学会・人工知能学会・日本心理学会・日本認知心理学会各会員.}\bioauthor{小磯花絵}{1998年10月奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(理学).ATR知能映像通信研究所研修研究員,国立国語研究所研究員を経て,現在,人間文化研究機構国立国語研究所准教授.専門は談話分析・コーパス言語学・音声科学.言語処理学会・社会言語科学会・日本認知科学会・日本音声学会・人工知能学会各会員.}\end{biography}\biodate\end{document}
V31N04-12
\section{はじめに} BERT\cite{devlin-etal-2019-bert}に代表される\emph{事前学習済みモデル(Pre-trainedModels)}の躍進は,自然言語処理領域に大規模なコーパスでの事前学習と下流タスクでのファインチューニングからなる新しい枠組みをもたらしている\cite{Zhou2023-en,Zhao2023-hy}.BERTの後続として,異なるアーキテクチャ(GPT-2\cite{Radford2019LanguageMA}やT5\cite{JMLR:v21:20-074})や事前学習手法の改善({RoBERTa}\cite{Liu2019-vu}や{DeBERTa}\cite{he2021deberta})などが次々と提案された.{GPT-3}\cite{NEURIPS2020_1457c0d6}など,より大規模に事前学習された言語モデルは大規模言語モデル(LargeLanguageModels;LLMs)とも呼ばれ,パラメータ更新なしでも多種多様なタスクに対応できると報告されている.ChatGPT\footnote{\url{https://openai.com/blog/chatgpt}}の登場を一つの契機に,社会的な認知や実応用の拡大も急速に進んでいる.事前学習済みモデルの重要性にもかかわらず,産業応用で重要となる個別ドメインへの特化に関する議論は未成熟である.既存の文献\cite{araci2019finbert,kim-etal-2021-changes,Wu2023-mb,SUZUKI2023103194}では,ドメイン特化事前学習済みモデルの構築方法と,時に大規模な一般モデルを凌駕する固有タスクでの性能向上が報告されている.しかしこれらの研究は,実際の産業応用の事例を十分に提示しておらず,ドメイン特化事前学習済みモデルに対する研究者・実務家の見積もりや期待を曖昧にしてしまう.本稿ではドメイン特化事前学習済みモデルの産業応用として,日本語金融ニュース記事を要約する編集支援システムの開発事例を報告する.ここでは日本語金融ニュース記事をドメインとして定義した.日本語金融ニュース記事の要約の自動生成は,ニュースメディアにおける編集者の労働負荷の軽減に寄与する.ニュースメディアには独自の表記規定が数多く存在するため,汎用的なモデルによる出力では不十分な場合がある.ドメイン特化事前学習済みモデルを構築し利用することで,より用途に適したシステムを実現できる可能性があると考えた.この編集支援システムは日本語の文章(記事の本文)を入力とし,20文字程度の\emph{見出し}と,3文からなる\textbf{3行まとめ}の2種類の要約を出力する.要約を生成するのは日本語金融ニュース記事で事前学習されたT5で,2種類の要約それぞれに対してファインチューニングされている.事前学習とファインチューニングには,日本語金融ニュース記事が掲載されている「日経電子版」\footnote{\url{https://www.nikkei.com/}}のデータセットを用いた.表\ref{tab:example}に示す通り,このデータセットの一部の記事には本文・見出し・3行まとめが含まれている\footnote{\ref{tab:example}に示す例は\url{https://www.nikkei.com/article/DGXMZO55567600T10C20A2TL1000/}から引用した.}.編集支援システムでは,入力に忠実ではない出力が生成される\emph{幻覚}\cite{10.1145/3571730}への対応として,編集者による選択や後処理を想定している\cite{Ishihara2021-tw}.複数候補の生成も可能で,それぞれの生成結果のクリック率を予測する機能を備えている.クリック率予測のためには,日経電子版のデータセットで事前学習・ファインチューニングされたBERTを構築した\cite{ishihara2022ctr}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{21table01.tex}%\caption{日本語金融ニュース記事の例.本文から,見出しと3行まとめの2種類の要約を生成する.}\label{tab:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{21table02.tex}%\caption{本研究におけるシステム要件,実装と有用性を評価するための検証項目,検証方法の対応表.}\label{tab:implementation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿の主要な貢献の一つは,日本語金融ニュース記事の要約に焦点を当て,ドメイン特化事前学習済みモデルが優れた価値を発揮する具体的な事例を提示することである.最初に,実際の編集現場の要請に基づくシステム要件を整理した上で,既存技術を組み合わせて開発した編集支援システムの全体像と4つの検証項目を示す(\ref{sec:implementation}節).続く4~6節では,表\ref{tab:implementation}に示す通り,システム要件に紐づく検証項目を調査する.第1に,日本語金融ニュース記事で事前学習・ファインチューニングされたT5が,事前学習コーパスのサイズが小さいにもかかわらず,2種類の要約で一般的な日本語T5より優れた性能を発揮すると報告する(\ref{sec:experiments}節).第2に,3行まとめ生成にファインチューニングしたT5の出力を定性・定量的に分析し,発生する幻覚の特徴を明らかにする(\ref{sec:discussion}節).第3に,開発した編集支援システム全体の有用性の一端を示すため,クリック率予測の定量評価と,後編集を含む機能への定性評価について述べる(\ref{sec:overall}節).なおクリック率予測に向けたBERTの開発については\cite{石原2022,ishihara2022ctr}の内容を含んでいる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related}本節では関連研究を概観し,本研究の立ち位置を明確化する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{編集支援システム}ニュース要約は伝統的に広く研究されており\cite{Allahyari2017-tu,El-Kassas2021-js},編集支援に貢献する可能性を秘めている.例えば\citeA{Wu2020-ey}は,編集者特有の文体で見出しを生成するモデルの学習方法を提案した.\cite{akash-etal-2023-shironaam}は,ベンガル語の見出し生成において,画像・トピック・カテゴリなどの補助情報が役立つと報告した.\citeA{10.1145/3543507.3583375}は,生成された見出しの幻覚を検出する枠組みを提示した.しかし,編集支援システムという文脈での議論は限定的である.\citeA{murao-etal-2019-case}は,ニューラルネットワークによるニュース要約を編集支援の枠組みで報告した初めての事例である.彼らは,日本語のニュース記事プラットフォーム「Yahoo!JAPAN」\footnote{\url{https://www.yahoo.co.jp/}}のデータセットを用いてencoder-decoderモデル\cite{Bahdanau2014-sp}を学習した.我々の研究は,ニューラルネットワークの中でも事前学習済みモデルの枠組みを導入したものである.\citeA{Shi2022-dc}はドメイン特化事前学習済みモデルを開発し編集支援システムに組み込んだ事例だが,ニュース要約は扱っていない.日本経済新聞社による要約技術の産業応用に,上場企業が発表する決算データから業績発表記事を自動生成する「決算サマリー」\footnote{\url{https://www.nikkei.com/promotion/collaboration/qreports-ai/}}があるが,ニューラルネットワークを用いない抽出型要約を採用している\cite{isonuma-etal-2017-extractive}ため,生成の流暢性に課題が残る.具体的には,入力の決算短信に含まれる各文に付与した重要度が高い文を出力に用いる仕組みとなっており,日本語金融ニュース記事特有の文体とは異なる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ドメイン特化事前学習済みモデル}事前学習済みモデルの高い汎用性が認知される中,ドメイン特化事前学習済みモデルの開発も進んでいる.例えば,金融\cite{araci2019finbert,Wu2023-mb,SUZUKI2023103194}・医療\cite{shin-etal-2020-biomegatron,10.1093/bioinformatics/btz682,10.1093/bib/bbac409}・学術\cite{Taylor2022-ep}・法律\cite{chalkidis-etal-2020-legal,10.1145/3462757.3466088}・非英語\cite{Zeng2021-il,kim-etal-2021-changes,Su2022-nd,ishihara-etal-2022-semantic}を題材にした文献が報告されている.特に我々の研究と関連度の高い例として,FinBERT\cite{araci2019finbert}は少ない事前事前学習コーパスでも,2つの金融センチメント分析タスクで優れた結果を示した.500億パラメータのBloombergGPT\cite{Wu2023-mb}は,一般的なタスクで性能を低下させることなく,金融固有のタスクで良好な結果を得た.\citeA{SUZUKI2023103194}は様々な設定で金融関連文書を用いたドメイン特化事前学習済みモデルを構築・評価した.金融関連文書には,日本語の決算短信や有価証券報告書に加えて,金融ニュース記事が含まれている.しかし,既存のドメイン特化事前学習済みモデルに関する研究報告には,具体的な産業応用の事例はほとんど含まれていない.本研究では,日本語金融ニュース記事に特化した事前学習済みモデルを開発するだけでなく,具体的な要件を持つ編集支援システムに組み込み,定量的な分析結果や知見を報告する.ドメインが異なる類似の研究として,韓国語の事前学習済みモデルを開発した\citeA{kim-etal-2021-changes}や,医療ノート作成支援システムを構築した\citeA{knoll-etal-2022-user}があり,両者とも具体的な洞察を提供している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{編集支援システムの開発} \label{sec:implementation}本節ではドメイン特化事前学習済みモデルを用いた編集支援システムについて述べる.具体的には,最初にシステム要件を説明した後,2種類の要約を生成するT5とクリック率を予測するBERTの構築方法,そしてこれらを組み込んだシステム全体の実装を報告する.最後に表\ref{tab:implementation}に示す通り,システムの要件と実装を踏まえ,有用性を評価するための検証項目と検証方法を提示する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{システム要件}\label{subsec:Problem}本研究のタスクは,日本語金融ニュース記事の要約である.日本経済新聞社のような伝統的なニュースメディアでは,本文を書く記者と,内容に応じて見出しや3行まとめを作成する編集者との役割分担が存在する.ニュースの要約には,読解力・背景の理解・独特の文体への対応など高度な能力が求められる.日本経済新聞社には約1,500人のジャーナリスト(記者と編集者)が在籍し,日経電子版に1日1,000本の記事を配信している.編集支援システムが貢献できる余地は大きい.本研究は,要約候補の自動生成による編集支援を目的としている.この編集支援システムには,いくつかの重要な要件が挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{特有の文体の再現}編集作業の負荷は,生成された要約を修正せずに使用できるかに依存する.要約には,抽出的要約と抽象的要約の2つの方式がある.前者は日本語でも伝統的に研究されてきたが,不自然な生成になると指摘されている\cite{hirao-etal-2009-syntax,harashima-kurohashi-2012-flexible,hasegawa-etal-2017-japanese}.本研究ではより流暢な生成を期待し,ニューラルネットワークによる抽象的要約を採用し,さらにドメイン特化事前学習済みモデルを用いた文体の獲得を試みた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{性能と運用コスト}現実世界の産業応用では,性能と運用コストの両面が重要視される.アーキテクチャや学習に用いるコーパスのサイズは,ストレージや推論などの運用コストに影響する.そのため,より小規模の事前学習コーパスで優れた性能が得られることは実用上の価値を持つ.ドメイン特化事前学習済みモデルは特定のドメインに絞るため,一般的なモデルに比べて事前学習コーパスが小規模になる.\citeA{ishihara-etal-2022-semantic}は,時系列での事前学習コーパス内の単語の意味変化と,構築した{RoBERTa}の性能変化に相関があると分析した.事前学習コーパスの分析から事前学習済みモデルの時系列性能変化を監視する目的でも,事前学習コーパスが小規模であることは利点となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{忠実性}ニュースは入力に忠実な要約が要求される領域で,幻覚の問題は注意深く監視する必要がある.編集支援システムで用いるドメイン特化事前学習済みモデルでどの程度の幻覚が発生するか,発生する幻覚にどのような特徴があるかを把握することは,重要な論点となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{システム全体の有用性}編集支援システム全体の有用性の検証も必要である.自動生成された要約は幻覚を含む可能性があるため,編集者が出力を確認する過程を想定するのが望ましい.編集者はたとえ幻覚が存在しなくとも,常に生成された要約を受け入れるわけではない.例えばニュースがより多くの読者に届くよう,見出しを魅力的にするための後編集の需要もある.本研究では見出しの魅力度を測る一つの機能として,クリック率予測のためのBERTを組み込んだ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{T5の事前学習・ファインチューニング}\label{subsec:t5}2種類の要約を生成するT5を独自に事前学習・ファインチューニングした.システム要件のうち,特有の文体の再現と低い運用コストの実現を見込んでいる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{事前学習}日経電子版のデータセットから,創刊日の2010年3月23日から2021年12月31日までに公開された記事の本文を事前学習に利用した.記事の性質や権利の問題で一部は対象外とし,コーパスのサイズはCSV形式で3.37~GBだった.事前学習のライブラリにはHuggingFaceのTransformers\cite{wolf-etal-2020-transformers}を利用し\footnote{TransformersとTensorFlowのバージョンはそれぞれ4.11と2.5である},ドキュメント\footnote{\url{https://github.com/huggingface/transformers/tree/v4.11.0/examples/flax/language-modeling}}に従ってハイパーパラメータを設定した.具体的にはエポック数を20,学習率を0.005,バッチサイズを64,重み減衰\cite{loshchilov2018decoupled}を0,01とし,最適化アルゴリズムにはAdafactor\cite{Shazeer2018-tu}を用いた.トークナイザは,ユニグラム言語モデル\cite{kudo-2018-subword}を採用した.このトークナイザはコーパスから直接語彙を生成できるため,日本語や中国語のように単語間に明示的な空白を持たない言語で特に有用である.語彙サイズは32,000とした.計算資源には8つのA100GPUsを備えるAmazonEC2P4インスタンスを用いた.このT5は\texttt{t5-base-japanese-nikkei}と命名した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{見出し生成へのファインチューニング}日経電子版のデータセットから,2021年に発行された記事の本文・見出しの対を抽出した.日本語のニュース要約に関する先行研究\cite{yamada-etal-2021-transformer}を参考に,本文と見出しの名詞が1つ以上一致する記事のみを採用した.加えて,箇条書きやインタビュー形式の記事など,要約に不適切な記事を除外するなどの絞り込みを実施した.期間は事前学習に用いたデータセットと一部重なるが,事前学習では正解となる見出しは用いていない.データセットは,訓練(1~10月)・検証(11月)・評価(12月)のそれぞれの用途に分割した.サイズはそれぞれ,118,807・11,439・11,599だった.ファインチューニングでは,Transformersライブラリで用意されているスクリプト\footnote{\url{https://github.com/huggingface/transformers/tree/v4.11.0/examples/pytorch/summarization}}を学習率0.00005の設定で利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{3行まとめ生成へのファインチューニング}日経電子版のデータセットから,記事の本文・3行まとめの対を抽出した.データセットは,訓練(~2022年7月)・検証(2022年8月~12月)・評価(2023年1~9月)で分割し,サイズはそれぞれ1,319・446・685だった.日経電子版のデータセットには十分な量の3行まとめが含まれていなかったため,ドメイン外の一般的な日本語ニュース要約コーパスとして「livedoorニュース」から構築したデータセット\footnote{\url{https://github.com/KodairaTomonori/ThreeLineSummaryDataset}}も用意した.2014~2016年の間に公開された約10万の本文・3行まとめの対が含まれている.訓練・検証・評価セットのサイズはそれぞれ101,448・667・685だった.ファインチューニングの設定は見出し生成と同様とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BERTの事前学習・ファインチューニング}\label{subsec:bert}先行研究\cite{ishihara2022ctr}に従い,クリック率を予測するBERTを事前学習・ファインチューニングした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{事前学習}日経電子版のデータセットから,\pagebreak2013年9月21日~2019年9月20日に公開された記事の本文を事前学習に利用した.T5と同様に,記事の性質や権利の問題で一部は対象外とした.学習率は0.00005,バッチサイズは32で,トークナイザには語彙サイズ32,000のByte-PairEncoding\cite{sennrich-etal-2016-neural}を採用した.このBERTは\texttt{bert-base-japanese-nikkei}と命名した.\texttt{bert-base-japanese-nikkei}の有用性は,日経電子版とlivedoorニュースの記事を対象にしたカテゴリ分類の性能で確認した.日経電子版のデータセットでは,2010年3月23日~2021年12月31日に公開された記事を対象にカテゴリを予測した.データセットは次の2通りに分割し,それぞれ正答率を計測した.livedoorニュースのデータセットでは,層化分割の正答率を測った.\begin{description}\setlength{\parskip}{0cm}%段落間\setlength{\itemsep}{0cm}%項目間\item[層化分割]カテゴリの比率が同様になるように訓練・開発・評価セットを6:2:2で分割\item[時系列分割]訓練・開発・評価セットを2017年以前・2018~2019年・2020年以降で分割\end{description}一般的な日本語ウェブコーパスで事前学習された2つのBERT\footnote{\url{tohoku-nlp/bert-base-japanese-v2}}$^{,}$\footnote{\url{nlp-waseda/roberta-base-japanese}}と比較した結果,日経電子版のデータセットに対しては\texttt{bert-base-japanese-nikkei}でファインチューニングしたモデルが最良の結果を示した(表\ref{tab:category-classification}).livedoorニュースのデータセットでも,優れた結果となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{21table03.tex}%\hangcaption{日経電子版のデータセットを用いたカテゴリ分類の正答率の比較.太字は最良の値を示す.一般的な日本語モデルと比べて,\texttt{bert-base-japanese-nikkei}と\texttt{t5-base-japanese-nikkei}が優れた結果を示した.}\label{tab:category-classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{クリック率予測へのファインチューニング}クリック率のデータは日経電子版のアクセスログから取得できるが,個々の記事のクリック率は一般的に記事の表示位置の影響を大きく受けている\cite{10.1145/1076034.1076063}ため,訓練セットの構築には工夫が必要である.単純にクリック率のデータをそのまま用いると,見出しやサムネイル画像など記事本体の情報よりも,表示位置を重視する予測モデルが作成される懸念がある.この位置バイアスの影響を含むデータからクリック率を予測するモデルを構築する方法として,ランク学習の枠組みが研究されている\cite{10.1145/3018661.3018699,10.1145/3159652.3159732}.\citeA{ishihara2022ctr}では,ランク学習の中でも2つ組のデータで損失を計算するペアワイズ学習の枠組みを用いて,\texttt{bert-base-japanese-nikkei}をファインチューニングした.日経電子版のデータセットのうち,2020年9月1日~2021年8月31日に公開された記事から抜粋した19,842記事を訓練セット構築に利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-4ia21f1.pdf}\end{center}\hangcaption{位置バイアスを考慮したペアワイズの訓練セットの構築方法.クラスタリングで記事の本文の埋め込み表現からクラスタ番号を付与し,表示位置とクラスタ番号で記事の集合の候補を作成する.最後に,それぞれの集合内で重複を許容して2組を抽出する.}\label{fig:ctr}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%具体的な訓練セットの構築方法を図\ref{fig:ctr}に示す.最初にデータの類似性を測るため各記事をベクトル化し,クラスタリングでそれぞれの記事にクラスタ番号を付与する.各記事はそれぞれの見出しを文書とみなした上でTF-IDF\cite{Ramos03}でベクトル化し,クラスタリングにはk-means++\cite{10.5555/1283383.1283494}を用いた.次に表示位置とクラスタ番号を用いて,2つ組として取り出すための記事の集合の候補を絞り込む.表示位置とクラスタ番号を軸に全ての記事を集合に分割し,記事数が2個以上かつ最大集合サイズ未満の集合のみを候補とする.ここでハイパーパラメータとして最大集合サイズを設定しているのは,記事数が過度に多い集合が存在すると学習用データセット全体の多様性が損なわれると考えたためである.最後に,それぞれの集合内で重複を許容して2つ組を抽出し,訓練セットとして利用した.2つ組の正答率の大小を当てる問題に取り組むため,モデル構築時の損失関数として,次の式で表されるマージン損失(MarginRankingLoss)\footnote{\url{https://pytorch.org/docs/1.6.0/generated/torch.nn.MarginRankingLoss.html}}を利用する.$$L(x,y)=\max(0,−y(x_1−x_2)+\rm{margin})$$ここで$x$は二つの入力($x_1,x_2$)であり,$y$は$x_1>x_2$の場合に1,$x_1<x_2$の場合に$-1$を取る.マージン損失では,入力の片方がもう片方よりも少なくともあるmarginの分だけ大きくなるようにモデルを学習する.marginはハイパーパラメータである.ファインチューニングされたBERTは,単体の文章に対してクリック率を予測する.この予測の相対値を用いることで,よりクリックされやすい文章を選ぶための判断材料となると期待される.表\ref{tab:attention}のように,参考情報としてBERTの注意機構の重みを可視化する仕組みも用意した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{21table04.tex}%\hangcaption{BERTの注意機構の重みが大きい箇所を太字で示した結果.ペアワイズの予測クリック率と共に示すことで,編集者の後編集を補助する狙いがある.}\label{tab:attention}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{システムの全体像}\label{subsec:system}2種類の要約を生成するT5とクリック率を予測するBERTを組み込み,図\ref{fig:demo}に示す編集支援システムを実装した.文章を入力し,生成時のハイパーパラメータ\footnote{\url{https://huggingface.co/docs/transformers/v4.42.0/en/main_classes/text_generation}}や,含める・含めない単語\footnote{\url{https://huggingface.co/blog/constrained-beam-search}}を設定できる.編集者は複数の候補を予測クリック率と共に確認でき,必要に応じて修正して最終的な成果物を決定する.編集支援システムのインタフェース開発には,Streamlit\footnote{\url{https://streamlit.io/}}を用いた.編集支援システムはAmazonWebServices(AWS)上にデプロイし,日本経済新聞社のメールアドレスでログインできる認証・認可の仕組みを導入し2022年6月に公開した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-4ia21f2.pdf}\end{center}\hangcaption{開発された見出し生成のための編集支援システムのスクリーンショット.モード(Mode)を切り替えることで3行まとめを生成できる.利用者は生成時に左サイドバーのハイパーパラメータを調整できる.入力は要約対象の文章(必須)と,生成に含める単語と除外する単語(任意)である.補助機能として,クリック率を予測するBERTが組み込まれている.編集支援システムは常に更新されており,本稿で言及された全ての機能を常に備えているわけではない.}\label{fig:demo}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{検証項目と検証方法}本稿では表\ref{tab:implementation}の通り,システム要件に紐づく形で,次の4つの検証項目を調査する.ドメイン特化T5による要約生成とドメイン特化BERTによるクリック率予測は,それぞれ独立に性能を検証する.理想的にはシステム全体の評価として両者を利用した検証も重要と考えられるが,編集者を介す操作になるため定量評価に十分なデータを収集するのが難しく,今後の展望となる.ニュース記事要約で編集者の後処理に関する先行研究\cite{Ishihara2021-tw}では,要約候補を単純に選択するだけでなく,候補の加筆修正や複数候補の組み合わせが想定されている.これらの多様な編集者の操作を考慮する場合,クリック率予測を要約生成の評価に組み込む方法は自明ではない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{特有の文体の再現:ドメイン特化事前学習済みモデルによる要約生成で特有の文体が再現されるか?}本研究では特有の文体の再現を目的に,ドメイン特化事前学習済みモデルを構築した.ドメイン特化事前学習済みモデルが一般的なモデルと比べて特有の文体を再現するか確認するため,出力と編集者による要約との文字列の一致率を計測・比較する(\ref{sec:experiments}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{性能と運用コスト:ドメイン特化事前学習済みモデルによる要約生成は性能と運用コストのバランスが良いか?}本研究ではドメイン特化事前学習済みモデルを用いることで,小規模の事前学習コーパスで高い性能が得られると期待した.上述の文字列の一致率の計測に際し,事前学習コーパスのサイズによる運用コストも確認する(\ref{sec:experiments}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{忠実性:ドメイン特化事前学習済みモデルによる要約生成で発生する幻覚はどの程度か,特徴はあるか?}編集支援システムで用いるドメイン特化事前学習済みモデルで発生する幻覚の特徴を把握しておく必要がある.本研究ではドメイン特化事前学習済みモデルによる生成結果を人手でアノテーションし,幻覚の特徴を定性・定量的に分析する(\ref{sec:discussion}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{システム全体の有用性:クリック率予測や後編集などの機能を含め,システム全体は有用性があるか?}編集支援システム全体の有用性の検証も重要である.本研究では,システムの一機能であるクリック率予測の性能を実データを用いて定量評価し,さらにシステム展開後の反響・動向から後編集を含む機能への定性評価を実施する(\ref{sec:overall}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{検証1:見出し・3行まとめの要約生成} \label{sec:experiments}本節では2種類の要約生成という固有タスクで,ドメイン特化事前学習済みモデルが優れた性能を発揮することを示す.比較対象の事前学習済みモデルには,一般的な日本語の事前学習済みT5(\texttt{sonoisa/t5-base-japanese}\footnote{\url{https://huggingface.co/sonoisa/t5-base-japanese}}および\texttt{megagonlabs/t5-base-japanese-web}\footnote{\url{https://huggingface.co/megagonlabs/t5-base-japanese-web}})を選んだ.どちらも,一般的な日本語ウェブコーパスで事前学習されている.さらに,事前学習済みモデルを活用した外部APIとしてAzureOpenAIServiceモデルの\texttt{gpt-3.5-turbo}(\texttt{2023-07-01-preview}版)も利用した.外部APIではファインチューニングは実施せず,推論のみに用いた.外部APIに与えるプロンプトはJPLanguageModelEvaluationHarnessを参考\footnote{\url{https://github.com/Stability-AI/lm-evaluation-harness/blob/effdbeaf742e74ea1787871e99272c12146ba346/lm_eval/tasks/ja/xlsum_ja.py}}に「与えられたニュース記事を要約してください。」とした.要約例を与えない設定(ゼロショット)と,3例与える設定(3ショット)および6例与える設定(6ショット)の計3通りの性能を報告する\footnote{なお日経電子版を対象に大規模言語モデルの性能を評価した研究\cite{白井2024}では,例の数を変えた場合にも大きな性能の違いは確認されなかった.}.主要な評価指標は,文字列の一致度で計算されるROUGE\cite{lin-2004-rouge}を用いた.比較条件を揃えるため,計算時には全ての文を文字単位に分割した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{見出し生成}\texttt{t5-base-japanese-nikkei}を見出し生成にファインチューニングして構築したモデルは,より大きなコーパスで事前学習された一般的なT5よりも優れた結果を示した(表\ref{tab:headline}).さらに,文章生成で人手評価と高い相関を持つ指標であるMAUVE\cite{pillutla2021mauve}でも,T5の中で最良の結果となった.\texttt{gpt-3.5-turbo}と比べても,高い性能が確認された.ただし\texttt{gpt-3.5-turbo}の実験では,推論時間の都合で評価セット11,599記事から1,000記事を抜粋した.プロンプトを「与えられたニュース記事の見出しを付けてください。」や「与えられたニュース記事を1文で20文字以下に要約してください。」に変更した場合も,性能の大きな変化はなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{21table05.tex}%\hangcaption{日経電子版のデータセットを用いた見出し生成の性能.太字は最良の値を示す.事前学習コーパスのサイズが小さいもかかわらず,\texttt{t5-base-japanese-nikkei}からファインチューニングしたモデルは全てのROUGE指標で最良だった.\texttt{gpt-3.5-turbo}と比べても優れた値となっている.}\label{tab:headline}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{21table06.tex}%\hangcaption{日本経済新聞記事オープンコーパスを用いた見出し生成の性能.太字は最良の値を示す.\texttt{t5-base-japanese-nikkei}からファインチューニングしたモデルが全てのROUGE指標で最良だった.}\label{tab:headline-open}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%「日本経済新聞記事オープンコーパス」\cite{浅原2023}を用いた場合も,\texttt{t5-base-japanese-\linebreaknikkei}からファインチューニングしたモデルが全てのROUGE指標で\texttt{gpt-3.5-turbo}を上回った(表\ref{tab:headline-open}).日本経済新聞記事オープンコーパスは,「日本経済新聞」の朝夕刊に2013年1~2月に掲載された96記事で構成され,見出しと本文の情報を含む.データセット冒頭の6件を要約例に用いる訓練セットとして除外し,残りの90件を評価セットとした.実験設定は表\ref{tab:headline}と同様,要約例を与えないゼロショットと,データセット冒頭3件を与える3ショット,6件を与える6ショットの計3種類を試した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{21table07.tex}%\hangcaption{日経電子版とlivedoorニュースのデータセットを用いた3行まとめ生成の性能.太字は最良の値を示す.学習と評価の両者に日経電子版由来の3行まとめを用いた場合,事前学習コーパスのサイズが小さいもかかわらず,\texttt{t5-base-japanese-nikkei}から日経電子版のデータセットでファインチューニングしたモデルが全てのROUGE指標で最良であった.エポック数は検証セットに対する損失を観測しながら決定し,学習セットが日経電子版由来の場合は15,liverdoorニュース由来の場合は2となった.}\label{tab:three-line}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{3行まとめ生成}\texttt{t5-base-japanese-nikkei}を3行まとめ生成にファインチューニングして構築したモデルを,他のモデルと比較した結果を表\ref{tab:three-line}に示す.{T5での比較では,詳細な分析のため2種類の訓練データを用意した.}第1に,日経電子版由来の3行まとめを用いてファインチューニングと評価の両者を実施した.第2に,よりサイズの大きいlivedoorニュース由来の3行まとめでファインチューニングし,日経電子版由来の3行まとめで評価した.{livedoorニュースは,本研究でドメイン外に当たる一般的な日本語ニュース記事で構成される.}第1の設定では,\texttt{t5-base-japanese-nikkei}からファインチューニングしたモデルが全てのROUGE指標で最良であった.事前学習とファインチューニングの両者で,最終的な評価と同一のドメインのデータセットを用いたためだと推察できる.一方で第2の設定では,\texttt{t5-base-japanese-nikkei}からファインチューニングしたモデルは,その他の2モデルに劣る性能を示した.要因として,評価とドメインが異なるlivedoorニュース由来の3行まとめでT5をファインチューニングしていることが挙げられる.第2の設定では全てのモデルで,第1の設定と比べてROUGE指標の値が悪かった.3行まとめのデータセットのサイズは,livedoorニュース由来で101,448,日経電子版由来で1,319である.たとえ少量でも,ドメインが一致したデータセットを用いてファインチューニングする重要性が確認された.{\texttt{gpt-3.5-turbo}と比べても,\texttt{t5-base-japanese-nikkei}から日経電子版のデータセットでファインチューニングしたモデルの性能が上回った.\texttt{gpt-3.5-turbo}(3ショット)の結果は,livedoorニュースのデータセットでファインチューニングしたモデルよりも高い結果だった.プロンプトを「与えられたニュース記事を3文で要約してください。」に変更した場合も,性能の大きな変化はなかった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{検証2:幻覚の分析} \label{sec:discussion}本節では,\texttt{t5-base-japanese-nikkei}をファインチューニングして構築したモデルにおける幻覚について分析した結果を報告する.幻覚が生じやすい長い文章を生成する3行まとめ生成を対象とし,ファインチューニングには十分な量があるlivedoorニュース由来の3行まとめを用いた.表\ref{tab:three-line}で示した通り,ファインチューニングにlivedoorニュース,評価に日経電子版を用いた設定ではROUGE指標の値が悪化している.すなわち,より幻覚が発生しやすい設定で出力を分析した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{幻覚の傾向}具体的には,日経電子版のデータセットから2023年4月10日の「日本経済新聞」の朝刊に掲載された97本の記事を抽出し,各記事に対して3つの異なる要約を生成し分析した.幻覚の種類を区別するため,次に示す\citeA{cao-etal-2022-hallucinated}の4分類を採用した.\begin{description}\setlength{\parskip}{0cm}%\setlength{\itemsep}{0cm}\item[non-hallucination]入力に対して矛盾がない生成.\item[intrinsichallucination]入力に対して矛盾がある生成.\item[extrinsicnon-factualhallucination]入力のみでは矛盾か否か判断できない情報があり,その情報が事実ではない生成.\item[extrinsicfactualhallucination]入力のみでは矛盾か否か判断できない情報があり,その情報が事実である生成.\end{description}図\ref{fig:hallucination}に示す通り,297件中116件で何らかの幻覚が確認された.表\ref{tab:hallucination}に,intrinsichallucination(上)とextrinsicnon-factualhallucination(下)の幻覚を含む要約例を示す.上の例では入力に対して忠実ではない主語「グーグル日本法人」が,下の例では入力にない情報として事実とは異なる黒田東彦氏の名前が生成された.黒田東彦氏の名前が生成されたのは,事前学習に用いたコーパスの大半の期間で日本銀行の総裁を務めていたためだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\begin{center}\includegraphics{31-4ia21f3.pdf}\end{center}\hangcaption{97の記事からそれぞれ生成された3つの要約に対する幻覚の分析.297件中116件に何らかの幻覚が確認された.一つの記事の複数箇所で幻覚が発生している場合もある.}\label{fig:hallucination}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[p]\vspace{-0.5\Cvs}\input{21table08.tex}%\hangcaption{intrinsichallucination(上)とextrinsicnon-factualhallucination(下)の幻覚を含む要約の例.上の例では,入力に対して忠実ではない主語「グーグル日本法人」が生成された.下の例では入力にない情報として,事前学習に用いたコーパスの大半の期間で日本銀行の総裁を務めていた黒田東彦氏の名前が生成されたが,これは事実とは異なる.}\label{tab:hallucination}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\vspace{-0.5\Cvs}\begin{center}\includegraphics{31-4ia21f4.pdf}\end{center}\hangcaption{幻覚の有無(1,0)ごとの箱ひげ図.幻覚を含む場合,含まない場合と比較して,生成時の平均情報量が有意に大きかった.}\label{fig:hallucination_boxplot}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%幻覚を含む場合,含まない場合と比較して,生成時の平均情報量(エントロピー)が有意に大きいことも分かった(図\ref{fig:hallucination_boxplot}).平均情報量の平均値は,幻覚を含む116件で1.36,含まない181件で0.999だった.等分散性を仮定したスチューデントのt検定を実施したところ,p値は$1.93E-6$,自由度は289でt値は4.85だった.ここで入力$\mathcal{X}$に対して出力トークン列$\hat{\mathcal{Y}}=\langlew_1,...,w_i,...,w_m\rangle$が得られる際の平均情報量$H$を,次の式で定義した.\begin{align*}H(\hat{\mathcal{Y}}|\mathcal{X})&=\mathbb{E}[-\log\text{Pr}(\hat{\mathcal{Y}}|\mathcal{X})]\\&=\mathbb{E}\left[-\sum_{w_i\in\hat{\mathcal{Y}}}\log\text{Pr}(w_i|\mathcal{X},w_{<i})\right],\nonumber\end{align*}同様の現象は先行研究\cite{xiao-wang-2021-hallucination,Kadavath2022-sf,li-etal-2023-web}でも報告されており,次に生成するべき情報が曖昧な際に幻覚が起きやすいことを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{カテゴリ別のファインチューニング・評価}幻覚が起きる条件をより詳細に分析するため,図\ref{fig:hallucination2}のようにファインチューニングと評価のためのデータセットをカテゴリ別に分割した.最初に,\ref{subsec:t5}節と同様にlivedoorニュースのデータセットから本文・3行まとめの対を取得し,カテゴリが経済・スポーツ・ITに該当する対をそれぞれ4,283個ずつ取り出した.次に日経電子版のデータセットで事前学習された\texttt{t5-base-japanese-nikkei}をファインチューニングして,3種類のモデルを得た.最後に,日経電子版のデータセットからカテゴリが経済・スポーツ・ITに該当する記事を50本ずつ用いて,それぞれのモデルの出力における幻覚を分類した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{31-4ia21f5.pdf}\end{center}\hangcaption{カテゴリ別のデータセットを用いた幻覚の分析.3種類のモデルを3行まとめ生成のためにファインチューニングし,3種類の日経電子版のデータセットで評価した.}\label{fig:hallucination2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%全体的な傾向として,学習と評価のカテゴリが一致している場合に,幻覚が少なかった(表\ref{tab:hallucination_cat}).non-hallucinationの割合は,カテゴリ一致で0.700に対しカテゴリ不一致で0.611と減少している.intrinsic-hallucinationの割合は,カテゴリ一致で0.220に対しカテゴリ不一致で0.259と増加した.これはカテゴリが一致している方が,語彙やパターンへの慣れが多く,次に生成するべき情報が曖昧になりづらいためだと考えられる.ただしスポーツのカテゴリの記事を用いたモデルでは,全体的な傾向とは異なる結果が得られた.この要因として,日経電子版のデータセットという経済中心の記事で事前学習をしている点が挙げられる.事前学習の時点からカテゴリ分けしたデータセットを用いることで,より詳細に傾向を分析できる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{21table09.tex}%\hangcaption{カテゴリ別にファインチューニング(学習)・評価したモデルにおける幻覚の分類割合.ファインチューニングと評価のカテゴリが一致している場合,不一致の場合に比べて幻覚を含まない(non-hallucination)割合が多かった.}\label{tab:hallucination_cat}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{21table10.tex}%\hangcaption{カテゴリ別にファインチューニングしたモデルにおけるextrinsicnon-factualhallucinationを含む要約例.スポーツの記事でファインチューニングしたモデルでは,ハンドボールの話題にもかかわらず,サッカーのリーグ名称である「Jリーグ」という単語が生成された.}\label{tab:hallucination2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方でカテゴリが一致する記事では,ファインチューニングの影響で,入力のみでは矛盾か否か判断できない情報(extrinsicnon-factualhallucinationまたはextrinsicfactualhallucination)が生成される例も確認された.表\ref{tab:hallucination2}に示した要約例では,スポーツのカテゴリの記事でファインチューニングしたモデルでextrinsicnon-factualhallucinationが発生した.これはスポーツのカテゴリの記事にハンドボールと比較してサッカーの話題が多かったためと推察できる.ファインチューニング時にカテゴリ分けをしていないモデルでは,同様の幻覚は現れなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{検証3:システム全体の有用性} \label{sec:overall}本節では,編集支援システム全体の有用性を検証する.具体的には,まずシステムの一機能であるクリック率予測の性能を実データを用いて{定量}評価し,さらにシステム展開後の反響・動向{から後編集を含む機能への定性評価を実施する}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クリック率予測の{定量評価}}{最初に,ファインチューニングする事前学習済みモデルの違いによる性能を調査した.具体的には\texttt{bert-base-japanese-nikkei}と,一般的な日本語ウェブコーパスで事前学習されたBERT\footnote{\url{https://huggingface.co/tohoku-nlp/bert-base-japanese}}を比較した.ここでは訓練セット用に準備した19,842記事のクリック率を目的変数として,回帰モデルを構築した.訓練セットから半分を検証セットとして切り出し,4エポック学習した際の二乗平均平方根誤差(RMSE)を計測したところ,\texttt{bert-base-japanese-nikkei}で優れた結果が得られた(表\ref{tab:ctr-prediction}).}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{21table11.tex}%\hangcaption{クリック率予測の性能の比較.個別の記事のクリック率への回帰では,一般的な日本語モデルと比べて\texttt{bert-base-japanese-nikkei}で優れた結果となった.さらにペアワイズ学習での訓練で,個別の記事のクリック率への回帰と比べて高い正答率が得られた.}\label{tab:ctr-prediction}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に事前学習済みモデルを\texttt{bert-base-japanese-nikkei}で固定し,\ref{subsec:bert}節で述べたペアワイズ学習の有用性を調査した.ここでは,実際のアクセスログのペアワイズ比較結果を用いて評価{セットを構築}した.具体的には,複数の見出しを読者に出し分け,多腕バンディット\cite{Katehakis1987-fj}を用いてクリック率の大きい選択肢を多く表示しながら,統計的に有意に差がついた段階で検証を打ち切る仕組みを導入した\cite{Sawa20}.{2020年9月~2021年9月にこの仕組みが実施された記事のうち,見出しを対象とする50記事(25対)を利用した.}{\texttt{bert-base-japanese-nikkei}を用いて個別の記事のクリック率への回帰でファインチューニングしたモデルは,25対のうち14対のクリック率の大小を予測でき,正答率は0.560となった.ペアワイズ学習では\texttt{margin}を0.5に固定し,最大集合サイズは\{10,20,30,40,50\},クラスタサイズは\{1000,1500,2000,2500,3000,3500\}の$5\times6$通りの組み合わせで性能を評価した.ハイパーパラメータごとの正答率を表\ref{tab:hyperparam}に示す.ペアワイズ学習でファインチューニングしたモデルは,正答率の平均が0.590(標準偏差0.074)で,多くの組み合わせで回帰よりも高い値となった.}ハイパーパラメータの組み合わせのうち,正答率が0.72と最も高かった設定を最終的に編集支援システムに採用した.このとき最大集合サイズは30で,クラスタサイズは2500だった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{21table12.tex}%\hangcaption{\texttt{bert-base-japanese-nikkei}をペアワイズ学習でファインチューニングしたモデルのハイパーパラメータごとの正答率.}\label{tab:hyperparam}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{システム展開後の反響・動向}構築した編集支援システムは\ref{subsec:system}節で述べた通り,2022年6月に日本経済新聞社向けに公開し{,}編集者・記者・ソフトウェアエンジニア・データサイエンティスト・役員など幅広い属性の社員に利用された.システム展開後の主要な反響として,要約品質の高さへの驚きと,その上での後編集の必要性が挙げられる.抽出型要約と比べて抽象型要約では流暢な生成が可能であると伝わった他,一定割合で幻覚が発生するため出力を編集者が確認{し後編集}する必要があるといった意見が寄せられた.{本稿で述べた編集支援システムの有用性の一端を示す事例として,2023年11月に日本経済新聞社から,記事の要約に事前学習済みモデルを活用\footnote{本稿で述べた編集支援システムがそのまま利用されているわけではない.なおシステム全体の有用性を測る手法の一つに利用者へのアンケート調査などがあるが,既に本稿で述べた編集支援システムそのものとは異なるシステムが導入されているため,展開当時を想定した適切な評価の収集が難しいと判断した.}する際には出力が事実に即さない記述・誇張・誤解を招く表現がないかなどを編集者が確認し,必要に応じて修正する運用になっていると示された\footnote{\url{https://www.nikkei.com/article/DGXZQOFM105AK0Q3A011C2000000/}}.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} \label{sec:conclusion}本研究ではドメイン特化事前学習済みモデルの産業応用として,日本語金融ニュース記事を要約する編集支援システムの開発事例を紹介した.既存研究がドメイン特化事前学習済みモデルによる性能改善を報告している中,本研究の主張な貢献は,現実世界の具体的なシステム要件や実装と共に,ドメイン特化事前学習済みモデルが優れた価値を発揮するユースケースを提示した点である.具体的には,ドメイン特化事前学習済みモデルの事前学習・ファインチューニングの詳細と共に,編集支援システムの全体像を紹介し,\ref{subsec:Problem}節で述べたシステム要件に関して次の知見を報告した.\begin{description}\setlength{\parskip}{0cm}%\setlength{\itemsep}{0cm}\item[\S1特有の文体の再現]ドメイン特化事前学習済みモデルを用いることで,編集者による要約との文字列の一致度合いが高くなった(\ref{sec:experiments}節).\item[\S2性能と運用コスト]ドメイン特化事前学習済みモデルは,事前学習コーパスのサイズが小さくとも高い性能を発揮した(\ref{sec:experiments}節).\item[\S3忠実性]3行まとめ生成にファインチューニングしたT5は,297件中116件の割合で幻覚を含む文章を生成し,編集者による確認を前提としたシステムの必要性が示唆された.幻覚を含む場合は生成時の平均情報量が有意に大きいという特徴も分かった(\ref{sec:discussion}節).\item[\S4システム全体の有用性]一機能であるクリック率予測のためのBERTは,実データと照らし合わせて平均0.59の正答率でクリック率の大小を予測できた.システム展開後の反響・動向からは,後編集も含めたシステム全体の有効性が示唆された(\ref{sec:overall}節).\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{今後の展望}モデルやデータセットの拡充は,今後の展望の一つである.T5やBERTよりも大規模なモデルを用いることで,より高性能な処理が実現できる可能性がある.編集者による出力の改訂履歴を記録することも,今後のシステムの改良に有益である\cite{laban-etal-2020-summary,10.5555/3495724.3495977}.近年はLLMsのファインチューニングにおいて,人間のフィードバックの価値が注目されている\cite{Ouyang2022-lr}.将来的には\citeA{murao-etal-2019-case}のように編集支援システムによる編集者の行動変容も明らかにしたいと考えている.幻覚の分類を考慮した検知の仕組みの導入も想定している.単に幻覚か否かにとどまらず,発生要因を詳細に分析することで,より高性能な検知を実現できる可能性がある.幻覚を含む場合は生成時の平均情報量が有意に大きいという特徴も,検知に活用できると考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{倫理的注釈}本研究で使用した日経電子版のデータセットは,日本経済新聞社内で適切な手段で入手した.アクセスログのデータも,利用規約や社内規定に基づき利用した\footnote{\url{https://www.nikkei.com/lounge/privacy/}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の推進に当たり,日本経済新聞社の多くの方々にご協力いただきました.\pagebreakT5の事前学習やファインチューニングでは,AWSJapanによる技術的な支援をいただきました.お礼申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\begingroup\addtolength{\baselineskip}{0.25pt}\bibliography{21refs}\endgroup%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石原祥太郎}{%日本経済新聞社日経イノベーション・ラボ上席研究員.2017年東京大学工学部システム創成学科卒業.2017年より株式会社日本経済新聞社に入社し,現在は自然言語処理や機械学習の研究開発に従事.}\bioauthor{村田栄樹}{%2023年早稲田大学基幹理工学部情報通信学科卒業.現在は同大学院修士課程学生として自然言語処理の研究を行う.2023年に株式会社日本経済新聞社にてインターンシップを実施.}\bioauthor{中間康文}{%2021年慶應義塾大学大学院理工学研究科開放環境科学専攻修士課程修了.2021年より株式会社リクルートに入社,業務の傍ら独立研究者として自然言語処理等に関する研究開発を行っている.}\bioauthor{高橋寛武}{%2021年名古屋大学情報学部自然情報学科卒業.2021年より株式会社リクルートに入社,業務の傍ら独立研究者として自然言語処理に関する研究開発を行っている.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V06N02-07
\section{はじめに} \vspace{-2mm}テキスト音声合成システムの言語処理部における重要な課題の一つに,ポーズ挿入処理が挙げられる.ポーズ挿入処理は,音声化され,出力されたテキストの内容を人間が感覚的,意味的に捉えやすくするために,テキスト中の適当な位置に適当な長さのポーズを与える,テキスト音声合成に必須の技術であり,入力テキストの書き手が意識して挿入した句読点以外にも構文構造とポーズ挿入位置の関係が研究されてきた.従来の研究から,ポーズは構文的区切りと一致する\cite{杉藤1988},また特定の句構造\mbox{において}ポーズが挿入され易い\cite{海木1996}という知見が得られている.この他にも,文節間の係り受け距離と文節の長さが,ポーズ挿入の有効な手がかりになるという知見\cite{箱田1980},さらに,係り受け関係,句読点,文中における位置情報を加えることで精度が高まると期待できるとの報告\cite{箱田1989}もある.しかし,これらは係り受け距離や係り受け関係\mbox{などのテキ}スト情報が既に得られているとの前提に立った報告であり,実際にそれらのテキスト情報を求めるためには構文解析処理が別途必要となる.一般に構文解析処理は,大量の言語知識データを要する,テキストから精度の高い統語構造の自動抽出が困難,処理が重くなる,などといった問題から,実働するシステムにおいては,簡易なテキスト解析で得られる単語の品詞やモーラ数など,形態素解析レベルで得られる情報や,局所的な数文節に着目した簡易な係り受け解析が広く用いられている\cite[など]{宮崎1986,浅野1995,鈴木1995,澗潟1996,塚田1996,Tsukada1996,海木1996}.係り受けの範囲については,隣接する数文節の範囲内に限定できるとの報告\cite{箱田1989,鈴木1995},実際の文章において,隣り合う2文節の係り受けが\mbox{連続する場合が多いという}\mbox{報告\cite{丸山1992,張1997}があり},隣接2文節,もしくは局所的\mbox{な数文節間の係り受}け解析結果を用いた方法でかなり高精度のポーズ挿入が実現できることが明らかになっている.しかしながら,人間が聞いて理解しやすい構文的まとまりは,複数の文節によって様々なパタンで構成されており,上記方法でも限界はある.例えば,小説や随筆など,一文がある程度長く,文の構造が複雑なものになると,係り受けが3文節以上に跨る文の存在は少なくない.予め係り受けの範囲を3文節に限定してしまうことで,構文的まとまりの一節中にポーズが挿入されるなど不自然な読み上げを頻出する場合がある.一方,別のアプローチの一つに,コーパスを利用した統計的なポーズ挿入位置の予測方法が報告されている.文献\cite{Iwata1990}では,隣接2単語の接続のしやすさを\mbox{コーパスを用い}てスコア化し,それを用いたポーズ挿入方法を提案している.また,文献\cite{Doi1994}では,副助詞や接続助詞などの文法的役割に着目し,コーパスを用いてそれらの語彙の後に来るポーズの長さをレベル化し,それを用いたポーズ挿入方法を提案している.さらに文献\cite{藤尾1997}では係り受け情報付きコーパスの学習とポーズ情報付きコーパスの再学習によりフレーズ境界前後の形態情報とポーズ長の関係を統計的に得る方法を提案している.しかし,これらの方法は予め大量の学習用データを要し,さらにデータの分野依存が大きいと考えられる.本稿では,大量の学習用データに頼らず,長距離の係り受け解析をする,軽量・高速な構文解析処理を用いたポーズ挿入手法について報告する.本手法では,解析の範囲を文の長さや文節数で限定せず,一文を単位とした係り受け解析の情報を利用する.また,本手法をPC上で実動するレベルのテキスト音声合成システムに実装して,その効果を確認した. \section{構文解析処理の導入} \subsection{利用する構文解析処理系}本手法では,日本語解析系QuickJapaneseParser(以下,QJP)\cite[など]{亀田1996,Kameda1996}をテキスト音声合成システムの構文解析に利用する.先に述べたように,一般的な構文解析で,実用レベルの開発を難しくしている要因に,詳細かつ膨大な(場合によっては意味まで踏み込んだ)規則を要する,生成される候補が多い,計算量も多い,などの問題がある.また,その解析精度も形態素解析技術に比べると処理が複雑であるため,なかなか実用レベルになりにくい.しかし,QJPは,日本語解析を要する応用系システムへの組み込みが容易な言語処理ライブラリであり,効率的な処理が実現可能である.QJPは字種の特徴を利用した小規模辞書ベースの形態素解析系と,形態素情報ベースの規則による構文解析系の2つの処理系で構成されている.主に形態素情報による規則を用いて解析処理を行なうため,シソーラスや意味情報など,構築およびメインテナンスに労力を要する膨大な言語知識データは不要であることを大きな特徴としている.構文解析系は,一文毎に単語列を文節にまとめる際,文節にはその構成単語の品詞情報を利用して文節属性が設定される.その文節属性や品詞情報に基づき係り受け可能文節対を検出し,非交差規則,再近接文節選択をベースに,様々なヒューリスティックを用いた例外処理も用いて,尤もらしい係り受け文節対を確定する.品詞情報とその組み合わせで構文解析処理を行なうため,解析規則等のデータ開発コストが抑えられ,軽量さ,高速さを実現できている.また,長文に対しての頑健さも兼ね備えているため音声合成向けのテキスト解析に導入しやすい.さらに,係り受け処理の単位が一文であり,文節数が限定されないため,対象となった文中の本来の文法的区切り位置を得ることが可能である.\subsection{ポーズ挿入のための利用可能情報}構文解析処理を導入することで,利用可能なテキスト情報が大幅に増える.これらの情報をどのように利用するかで様々な手法が考えられ得る.まず,形態素解析結果から得られるポーズ挿入処理に有益なテキスト情報は,以下の通りである.\begin{itemize}\item句読点位置情報\item語彙レベルの定性的情報感動詞,接続詞,提題の意味の「は」の直後にはポーズが入りやすい,などの品詞や語特有の性質\item文節モーラ長\item局所的な連続文節間の関係隣接を含む局所的な連続した数文節間における係り受け関係の有無\end{itemize}\vspace{0.2cm}さらに,QJPの構文解析系の解析結果から得られるポーズ挿入処理に有益なテキスト情報は以下の通りである.\begin{itemize}\item文節の属性\item係り受け文節対\item係り受け文節間の距離隣接文節間の係り受け距離を1としてカウントする(一文中の文節数>距離>0)\item係り受けの関係係り受け文節対の各属性に基づく\end{itemize}\vspace{0.2cm}そこで,まず予備調査として,先行研究\cite[など]{箱田1980,箱田1989}で取り扱われている,係り受け文節間の距離を用いてポーズ挿入実験を行ない,その評価結果に基づいて実際のポーズ挿入処理アルゴリズムの設計を行なうことにした.\subsection{予備実験}本手法の予備調査のために,係り受け文節間の距離のみを用いたポーズ挿入実験を行なった\cite{佐藤1997}.以下,予備実験について述べる.\subsubsection{2.3.1\hspace{5mm}実験方法}\label{yobichosa}実験は下記の手順で行なった.使用したサンプルテキストは日本電子工業振興協会の報告\mbox{書\cite{日本電子工業振興協会1995}の付録の}評価文の抜粋および小説\cite{村上1995}\mbox{の抜粋を用いた.}また,比較対象は形態素解析と隣接間係り受け処理を用いたポーズ挿入処理を実装している既製のテキスト音声合成ソフトウェアパッケージ\footnote{(株)リコー製テキスト音声合成ソフトウェア「雄弁家V2」を使用}の出力である.\begin{enumerate}\itemサンプルテキストを比較対象のテキスト音声合成ソフトに入力し,ポーズ記号,アクセント句区切り記号を含む発音記号列を自動的に作成する\item同ソフトにおいて同じサンプルテキストを発音記号列に自動的に変換した後,挿入されたポーズ記号,アクセント句区切り記号を取り除き,「読み」のみの記号列を作成する\itemQJPに同じサンプルテキストを入力し,形態素解析&構文解析結果を得る\itemQJPの出力結果から係り受け文節を抽出し,係り文節から受け文節までの距離を表\ref{tab:ypau}の通り各ポーズレベルへ対応づける\item予め作成しておいた(2)の読み記号列に(4)の結果を反映させ(対応ポーズレベルをポーズ記号に変換して手入力),文節間距離情報を反映した発音記号列を作成する\item比較対象のテキスト音声合成ソフトが自動作成した(1)の発音記号列と,\mbox{文節間距離}情報を反映した(5)の発音記号列を比較・評価する\end{enumerate}\vspace{0.2cm}\begin{table}[hbtp]\caption[文節間距離--対応ポーズレベル]{文節間距離--対応ポーズレベル}\label{tab:ypau}\begin{center}\begin{tabular}{|ll|}\hline{\gt距離}&{\gtポーズレベル}\\距離1(直後に係る)&アクセント句区切り\\距離2&小ポーズ\\距離3&中ポーズ\\距離4以上&大ポーズ\\\hline\end{tabular}\end{center}\end{table}\vspace{0.2cm}\subsubsection{2.3.2\hspace{5mm}結果}評価はポーズ挿入正解率,ポーズ挿入精度向上率,ポーズ挿入精度降下率という3つの観点で行なった.ここで言うポーズ挿入正解率とは,期待ポーズ位置数に対して期待通りのポーズが挿入された割合,ポーズ挿入精度向上率とは,比較対象のテキスト音声合成ソフトで失敗した箇所が文節間距離情報を反映した方法で成功している割合,ポーズ挿入精度降下率とは,比較対象のテキスト音声合成ソフトで成功していた箇所が文節間距離情報を反映した方法で失敗した割合と定義している.評価結果を表\ref{tab:yhyoka}に示す.\vspace{0.2cm}\begin{table}[hbtp]\caption[評価結果]{評価結果}\label{tab:yhyoka}\begin{center}\begin{tabular}{|l|r|}\hlineポーズ挿入正解率(比較対象のテキスト音声合成ソフト)&92.0%\\\hlineポーズ挿入正解率(文節間距離情報を反映した方法)&97.6%\\\hlineポーズ挿入精度向上率&94.8%\\\hlineポーズ挿入精度降下率&2.2%\\\hline\end{tabular}\end{center}\end{table}\vspace{0.2cm}\subsubsection{2.3.3\hspace{5mm}予備実験における考察}評価結果より,係り受け文節間の距離だけでも形態素解析と隣接間係り受け処理を用いたポーズ挿入処理を実装したシステムのポーズ挿入誤りを大幅にカバーできるということが明らかになった.一方,ポーズ挿入精度降下の原因を調査すると,多くはQJPの形態素解析誤りのため,構文解析処理に失敗し,正確な係り受け文節間の距離が得られなかったことに起因していた.しかし,正確な係り受け文節間の距離が得られても,以下のような問題点が明らかになった.\vspace{0.2cm}\hspace*{0.5cm}●入力テキスト\hspace*{1cm}「複雑な技術だけが生み出すことのできる種類の優美さだった.」\vspace{0.2cm}\hspace*{0.5cm}●実験結果出力された発音記号列\footnote{発音記号列における「/」はアクセント句境界またはポーズ挿入位置を示す.また,ここでは「/」の数が1のときはアクセント句境界を表し,2以上のときはポーズを表す.2以上の場合,数が多いほどポーズの長さが長いことを示す.}\hspace*{1.1cm}フクザツナ/ギ’ジュツダケガ/ウミダ’ス/コト’ノ/デキ’ル/\hspace*{1cm}シュ’ルイノ/ユービ’サダッタ.\vspace{0.4cm}上記例文では,各文節が直後に係る(距離=1)係り受け関係が連続しており,各アクセント句境界に同じアクセント句区切りが挿入されてしまった.このような場合,読み上げが単調になるため,聞き手側には構文的区切り位置がどこにあるのか分からないなど,不自然さが残る.構文解析により構文的区切り位置の情報を得ることができても,実際には上記例文のように,距離=1の係り受けが連続する場合が多い\cite{丸山1992,張1997}ため,係り受け文節間の距離を単純にポーズ長へマッピングするだけでは,実装上まだ不足であり,ポーズ長の制御のための何らかのテキスト情報を取り入れる必要がある.そこで,次に,文献\cite{箱田1989}を受けて,テキスト情報として係り受け文節間の距離に加えて,係り受けの関係を利用することにした.さらに,語句や呼気段落における定性的な規則も用いることにした.\subsection{ポーズ挿入規則}\label{kisokupose}本稿で提案するポーズ挿入手法では,基本的にテキスト中の各文節末には何らかの韻律句境界があると定義する.そして,各韻律句境界にポーズ挿入規則に基づき,ポーズ挿入が生じ易いかどうかの指標をポーズ挿入尤度として設定する.規則により全ての韻律句境界にポーズ挿入尤度が設定されたら,ポーズ挿入尤度の高い境界から順に,適当なレベルのポーズを挿入する.ポーズ挿入規則は,文献\cite{箱田1989}に基づき,係り受け文節間の距離に基づく規則と係り受けの関係に基づく規則と,語句や呼気段落における定性的な規則の3規則にまとめた.\begin{enumerate}\item{\gt係り受け文節間距離(d)に基づく規則}係り受け文節間距離(d)とは,着目している文節位置直後から,その係り先文節まで\mbox{に含まれる文節の数}(係り先文節を含む)とする.従って,\mbox{隣接文節はd=1となる}.dはそのままポーズ挿入尤度とする(表\ref{tab:pau1}).テキスト中にポーズを挿入する際は,尤度に対応したポーズ長レベルを予め設定しておく必要がある.ポーズ長レベルはシステムの用途によって変更可能である.\begin{table}[hbtp]\caption[規則1]{規則1}\label{tab:pau1}\begin{center}\begin{tabular}{|c|l|}\hline{\gt文節間距離(d)=ポーズ挿入尤度}&{\gtポーズ長レベル設定の一例}\\\hlined=1&アクセント句区切りレベル\\\hlined=2&声だて(立て直し)レベル\\\hlined=3&小ポーズレベル\\\hlined=4&中ポーズレベル\\\hlined$>$4&大ポーズレベル\\\hline\end{tabular}\end{center}\end{table}\item{\gt係り受けの関係による規則}予備調査の結果,上記規則1だけでは,ポーズ長が一定で単調,構文のまとまりがわかりにくい読み上げとなる場合があることが明らかになった.そこで,本手法では規則1でd=1の場合に限り,更に係り受けの関係に基づくポーズ挿入尤度を設定することにした.QJP構文解析系の係り受けの関係はかなり多くのバリエーションがあるが,本手法ではこれらを文法に即して大まかに6種に大分類し,対応するポーズ挿入尤度を持たせた(表\ref{tab:pau2}).\begin{table}[hbtp]\caption[規則2]{規則2}\label{tab:pau2}\begin{center}\begin{tabular}{|l|c|}\hline{\gt係り受け関係(大分類)}&{\gtポーズ挿入尤度}\\\hline係り先が文末文節&Q\\\hline隣接関係&N\\\hline複合関係(アクセント結合の可能性あり)&D\\\hline連体関係&T\\\hline並列関係&H\\\hline連用関係&Y\\\hline\end{tabular}\end{center}\end{table}\vspace{0.3cm}ポーズ挿入尤度の高低は隣接文節関係の知見より以下のように設定した.\begin{center}D−T−H−Y−N−Q尤度(低)\qquad$\longrightarrow$\qquad尤度(高)\end{center}規則2ではポーズ挿入尤度はアルファベット1文字のフラグで表記しており,規則1同様,テキスト中にポーズを挿入する際は,尤度に対応した基準のポーズ長レベルを予め設定しておく必要がある.\item{\gt語句や呼気段落における定性的な規則}句点の位置には文末相当のポーズを挿入する,読点の位置にはそれ相応のポーズを挿入する,など従来研究の知見や形態情報から得られる定性的な規則も併用する.これらは文献\cite{箱田1989}で挙げられているテキスト情報「句読点」「文節位置」の他,文節を構成する単語の語彙情報も含んでいる.また,テキスト中にポーズ挿入尤度の高い境界から順に,実際に適当なレベルのポーズを挿入した際,同レベルのポーズに挟まれた発話区分のモーラ数が呼気段落を考慮して予め任意に設定した一定のモーラ長を超過した場合は,その間にある各文節境界のポーズ挿入尤度を参照し,最もポーズ挿入尤度が高い境界位置のポーズ長レベルを格上げし,同レベルのポーズを挿入する.\end{enumerate}\subsection{ポーズ挿入処理のアルゴリズム}\label{algopose}\ref{kisokupose}節で述べたポーズ挿入規則に基づき,入力テキストに以下の手順でポーズ位置とポーズ長を設定する.\vspace{0.3cm}\begin{enumerate}\item文節間距離の算出係り受け成立が確定した文節間のdを算出する\itemdに対応するポーズ挿入尤度設定規則1に基づき,各文節末(=アクセント句末)へdに応じたポーズ挿入尤度を設定する\item係り受けの関係によるポーズ挿入尤度設定d=1の係り受け文節間にのみ,規則2に基づき,係り受けの関係によるポーズ挿入尤度(基準値)を設定する\item句読点位置へのポーズ挿入尤度設定句点の位置に文末相当の尤度を,読点の位置に適当な尤度を挿入する\item各境界へのポーズ長の設定各文節末にポーズ挿入尤度が設定されたら,アクセント結合処理などを経て,ポーズ挿入尤度の高い境界から順に予め設定しておいた尤度に対応した適当なレベルの長さのポーズを挿入する\item発話区分のモーラ長限界によるポーズ長レベルの格上げ同レベルのポーズに挟まれた発話区分のモーラ長が呼気段落を考慮して予め任意に設定した一定のモーラ長を超過した場合は,その間にある各文節境界のポーズ挿入尤度を参照し,最もポーズ挿入尤度が高い境界位置のポーズ長レベルを格上げして,同レベルのポーズを挿入する\end{enumerate} \section{システムへの実装} label{sec:coding}前節で述べたポーズ挿入処理を,実際にPC上で実動するテキスト音声合成システムへ実装した.\subsection{システム構成}QJPの形態素解析系では,単語辞書を利用せず,字種の特徴を利用して単語切りをしており,音声合成に必要な読み・アクセント情報を得る手段が無い.また,漢字複合語列を各単語に分割しないため,後処理にアクセント結合処理が控えている音声合成の言語処理では問題になる.そこで,本システムへの実装にあたり,形態素解析には読みやアクセント情報記載の単語辞書を利用する形態素解析モジュールを用い,その出力をQJPの構文解析モジュールへ入力できるようなシステム構成を考えることにした.形態素解析処理に用いる品詞の体系と構文解析処理に用いる品詞の体系が異なる場合,形態素解析処理の出力結果をそのまま構文解析処理の入力とできないことがしばしばある.そのような場合には,間に品詞変換処理が必要となるが,本システムでも同様に,QJP構文解析系を利用するために,品詞変換モジュールを併せて開発した\cite{望主1998}.本システムでは構成上,品詞変換モジュールとQJP構文解析モジュールを合わせて,拡張QJP構文解析系と呼ぶ.また,後続処理である,アクセント結合モジュールとポーズ挿入モジュールを合わせてフレージング処理系と呼ぶ.本システム構成を図\ref{fig:sys}に示す.\vspace{2.2mm}\begin{figure}\begin{center}\epsfile{file=msg80fig.eps,width=10.75cm}\vspace{5mm}\caption{システム構成}\label{fig:sys}\end{center}\end{figure}\newpage \section{発音記号生成実験} label{sec:test}本手法の効果を確認するために,簡単な評価実験を行なった.以下,実験内容について述べる.\subsection{サンプルテキストと比較対象}評価実験にはポーズの正確さを評価するため,一文がある程度長く,文の構造が複雑である小説\cite{村上1995}から引用した文を入力用サンプルテキストとして用いた\footnote{予備調査の実験サンプルと出典は同じであるが,引用文に重複はない}.一文の平均文節数は21.5,平均モーラ数は146.5である.比較対象は2.3.1節の予備調査の実験と同様のテキスト音声合成\mbox{ソフトウェアパッケージ(以}下,従来システムと呼ぶ)の出力した発音記号列である.\subsection{実験方法}実験は以下の手順で行なった.\begin{enumerate}\item形態素解析誤りが構文解析処理に影響しないように,必要に応じて従来システム,および本手法を実装したシステムへの単語登録,解析誤り訂正を予め行なっておく\itemサンプルテキストに対し,最も自然に聞こえるように人手でチューニングした発音記号列(A)を作成する\footnote{2人の人間がチューニングし,意見が分かれた箇所は一緒に実際に出力音声を聞き比べて検討し,一意に意見をまとめた}\itemサンプルテキストを従来システムに入力し,発音記号列(B)を得る\itemサンプルテキストを本手法を実装したシステムに入力し,発音記号列(C)を得る\item得られた発音記号列(B),(C)のポーズ挿入位置を,発音記号列(A)のポーズ挿入位置と比較する\end{enumerate}\subsection{評価方法}評価は,予備調査時の評価方法と同様に,ポーズ挿入正解率,ポーズ挿入精度向上率,ポーズ挿入精度降下率という3つの観点で行なった.\subsection{評価結果}評価結果を表\ref{tab:kekka}に,更に,ポーズ挿入精度向上例を発音記号サンプルを挙げて示す.\vspace{0.3cm}\begin{table}[hbtp]\caption[評価結果]{評価結果}\label{tab:kekka}\begin{center}\begin{tabular}{|l|r|}\hlineポーズ挿入正解率(従来システム)&80.7%\\\hlineポーズ挿入正解率(本手法実装システム)&95.5%\\\hlineポーズ挿入精度向上率&77.8%\\\hlineポーズ挿入精度降下率&7.7%\\\hline\end{tabular}\end{center}\end{table}\vspace{0.2cm}\begin{itemize}{\item\smallひとまとまりの意味を成す連文節中に目立ったポーズが挿入されるなどの致命的なポーズ誤りに対するポーズ挿入精度向上率は100%}{\item\smallポーズ挿入精度降下率は係り受け解析誤りを含む}{\item\smallQJPの評価文に対する構文解析精度(係り受け正解率)は86.6%}\end{itemize}\vspace{0.3cm}【ポーズ挿入精度向上例】\footnote{発音記号列における「/」はアクセント句境界またはポーズ挿入位置を示す.また,「/」の数が1のときはアクセント句境界を表し,2以上のときはポーズを表す.2以上の場合,数が多いほどポーズ挿入尤度が高い(=ポーズの長さが長い)ことを示す.以降の例についても同様である.}\vspace{0.3cm}\hspace*{0.5cm}●入力テキスト\hspace*{1cm}「その女性は赤い長めのオーヴァーコートを着て,・・・」\vspace{0.3cm}\hspace*{0.5cm}●従来システムが出力した発音記号列\hspace*{1.1cm}ソノ/ジョセーワ/アカイ////ナガメノ/オーバーコ’−トオ//キテ////\vspace{0.4cm}「赤い」と「長め」の間に長いポーズが挿入されているが,この発音記号を音声出力すると,文意と異なった意味にとれるほど不自然である.隣接文節との係り受けの可否で検査するため,「女性は」と「赤い」の係り受けの関係が強く,「赤い」と「長め」の係り受けの関係が弱いことにより,こういった失敗が生じていた.\vspace{0.4cm}\hspace*{0.5cm}●本システムが出力した発音記号列\hspace*{1.1cm}ソノ/ジョセーワ////アカイ//ナガメノ/オーバーコ’−トオ/キテ////\vspace{0.4cm}本手法による発音記号では,文意に即した自然な音声出力が得られた.遠い係り先まで検査するため,「女性は」の係り先可能性として,「赤い」と「着て,」を検出する.QJPにより「着て」との係り受けが尤もらしいと判断され,係り受け文節間の距離4で「女性は」の後に長いポーズが挿入される.一方,「赤い」は「オーヴァーコートを」に係るので,係り受け文節間の距離2で「赤い」の後には「女性は」の直後のポーズより短いポーズが挿入される(図2参照).{\setlength{\baselineskip}{3.5mm}\begin{verbatim}【係り受け木構造】【係り受け関係】[1]:┏その<連体詞連体:体言句>[2]:┏女性は<主格主題:動詞句>[3]:┃┏赤い<連体形連体:体言句>[4]:┃┣長めの<の連体:体言句>[5]:┣オーヴァーコートを<を連用:動詞句>[6]:┏着て,<て連用:動詞句>:::図2QJPの出力した係り受け\end{verbatim}}\vspace{0.3cm}\subsection{考察}評価結果より,文節数に制限のない係り受け文節間の距離,および係り受け関係をポーズ挿入処理に利用することが,ポーズ挿入精度の向上に寄与することが確認された.一方,適切なポーズが挿入できない原因を調査すると,約54%が構文解析処理の誤りに起因するものであった.その他,係り先が遠い文節が続いた場合のポーズ長の調整不足によるもの,規則2の係り受け関係の分類の甘さによりポーズ挿入尤度が効いていないものがあった.\subsubsection{4.5.1\hspace{5mm}構文解析精度との関係}本システムにおいては,規則1により,係り先文節への距離5以上の場合,挿入尤度が同じ(大ポーズレベル)になるため,距離5の係り受けを,距離10の係り受けと誤っても,係り受け誤りは吸収されるため,構文解析誤り全てがポーズ挿入処理に悪影響を及ぼすものではない.逆に距離4以下の係り受けに対しては精度の高さが求められる.構文解析処理の誤りに起因するポーズ挿入誤りは,QJPの係り受け解析規則をより高精度にすることで,減少することが期待できる.\subsubsection{4.5.2\hspace{5mm}ポーズ長の調整}接続詞句や副詞句など,係り先が遠く独立性の高い文節の直後には,規則に基づくと長いポーズが挿入されるが,これらの句が連続して続く場合には短いモーラ長の句の間に長いポーズが続けて挿入される.構文的区切り位置であることは明らかに分かるが,自然な読み上げには聞こえない.下記の例では,「しかし」,「仮に」,「それが」の係り先文節への距離(d)が4以上であるため,各文節末に長いレベルのポーズが挿入され,音声出力した場合,不自然に聞こえてしまう.\vspace{0.3cm}【長いポーズ連続挿入例】\vspace{0.3cm}\hspace*{0.5cm}●入力テキスト\hspace*{1cm}「しかし,仮にそれが実証に一番都合のいい方法であるにしても・・・」\vspace{0.3cm}\hspace*{0.5cm}●本システムで出力される発音記号列\hspace*{1.1cm}シカ’シ////カリニ////ソレガ////ジッショーニ///イチバン//ツゴーノ/\hspace*{1cm}イ’ー/ホーホーデ/ア’ルニ/シテ’モ・・・\vspace{0.4cm}文法的要因の他に境界前後の句のモーラ長がポーズ位置やポーズ長に影響を与えるということは言及があり\cite[など]{箱田1980,Tsukada1996},モーラ長も無視できない要因である.上記例のように3モーラ程度と短く,独立性の高い文節間に長いポーズが連続して挿入される場合には,ポーズ挿入尤度の低い境界におけるポーズのポーズ長レベルの格下げなど,\ref{algopose}節のポーズ挿入処理のアルゴリズムの6の逆を実施するなど,呼気段落に基づくモーラ長の最短閾値の設定で対処していくことが考えられる.\subsubsection{4.5.3\hspace{5mm}係り受け関係の分類}本手法ではQJP構文解析系の係り受けの関係を大まかに6種に大分類してポーズ挿入尤度を持たせたが,尤度が効いていない事例があった.ガ格やヲ格など格関係を別分類にする,また,係り受け関係の出現順を考慮するなど,まだ再考の余地があると考えられる. \section{おわりに} label{sec:musubi}テキスト音声合成のポーズ挿入処理に軽量・高速な構文解析処理を導入し,一文全体の係り受け情報を利用して構文的区切り位置の同定,同位置へのポーズ挿入,最適なポーズ長の実現を実システム上で試みた.その結果,以下の2点を確認することが出来た.\begin{itemize}\item一文全体の係り受け解析処理を導入した本手法のポーズ挿入処理方法の方が,隣接間係り受け処理を用いたポーズ挿入処理よりも挿入精度が高く有効である\item係り受け文節間の距離と係り受け関係の情報以外に,同レベルポーズ間のモーラ長閾値の調整が必要である.さらに,係り受け関係の細分や規則としての適用順を考慮することでポーズ挿入精度の向上が期待できる\end{itemize}本稿では,文節数に制限のない係り受け処理をテキスト音声合成システムの言語処理部に実装して,ポーズ挿入精度の向上効果を確認した.今後は,この結果を反映した規則音声合成システムを実用レベルにするために,さらに大量のテキストを利用してデータやシステムのチューニングを進める予定である.また,構文解析処理の精度を高めると共に,その導入により得られる情報をもっと有効活用し,テキスト読み上げだけでなく,ユーザの任意な出力形態要求に対応できる出力形式について検討していく予定である.\vspace{1.5cm}\acknowledgment本稿作成の過程で適切な助言をくださった(株)リコー情報通信研究室第34研究室の藤本潤一郎室長に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n2_02}\begin{biography}\biotitle{略歴}\bioauthor{佐藤奈穂子}{1990年東京女子大学文理学部日本文学科卒業.同年,(株)リコー入社.日本語処理,音声言語情報処理の研究開発に従事.言語処理学会会員}\bioauthor{小島裕一}{1989年早稲田大学大学院理工学研究科修士課程卒業.同年,(株)リコー入社.音声言語情報処理の研究開発に従事.}\bioauthor{望主雅子}{1986年東京女子大学文理学部日本文学科卒業.同年,(株)リコー入社.日本語処理,音声言語情報処理の研究開発に従事.計量国語学会,情報処理学会,言語処理学会各会員.}\bioauthor{亀田雅之}{1977年東京大学教養学部基礎科学科卒業.79年同大学院理学系研究科相関理化学専門課程[化学物理]修士修了.同年,富士通(株)入社後,FHL出向を経て,82年より富士通研究所にて自然言語理解,知識表現,機械翻訳の研究開発に従事.87年本田技術研究所入社,和光研究センター勤務.88年リコー入社,現在に至る.自然言語処理(特に日本語解析とその応用)の研究開発に従事.情報処理学会,言語処理学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V17N04-06
\section{はじめに} 近年の音声合成技術の進歩により合成音声によるカーナビのガイダンスやパソコンによるテキストの読み上げなど様々な場面で合成音声が聞かれるようになった.また,Webを読み上げるための取り組みが進められており,Webコンテンツを音声に変換するための議論がなされている\cite{SOUMU,Guidance,Dialogue}.音声合成の分野においては従来からTTS(Text-to-Speech)\cite{MITalk,TTS}により電子化されたテキストを音声に変換する試みがなされてきた.メール,電子図書,Webページに至るまで様々なテキストを合成音声によって流暢に朗読する仕組みが検討されている.そして近年では,テキストに制御タグを挿入して音声合成の韻律パラメータを制御するアプローチ(VoiceXML;RamanandGries1997;SSML)がなされている.\nocite{VoiceXML,Raman,SSML}韻律パラメータの制御により,従来の朗読調をベースとした合成音声をより表情豊かな音声に変えられることが分かっている.合成音声を音声対話など様々な分野で利用するためには音声に含まれる表現力を高めることが重要であり,そのために韻律パラメータの制御を行うための仕組みづくりが重要になってきている.我々は,韻律パラメータの制御を行うための記述言語MSCL(Multi-layeredSpeech/SoundSynthesisControlLanguage)\cite{MSCL}を開発し,記述による柔軟な韻律制御を実現した.読み上げ用の電子テキストに直接韻律制御コマンドを記述することで韻律制御が可能となった.本研究では,MSCLをより効果的に利用するための韻律制御コマンドの作成方法について述べ,専門的な知識がなくとも新たな韻律制御規則を作成可能にするアプローチについて1つの方向性を提案する.\subsection{記述言語による韻律制御}PML\cite{Ramming}から発展したVoiceXML\citeauthor{VoiceXML}は記述というスタイルにより,音声対話システムの制御を行うフレームワークであり,音声合成から音声認識に至るまでの制御を一元的に行うことで,電話の音声ガイダンスや自動応答を可能にしている.VoiceXMLのように制御タグにより音声合成の制御を行うことの利点は,テキスト処理の範疇で編集作業や情報の伝送が可能になることである.また,Webコンテンツなどの豊富な電子テキスト情報に制御コマンドを付与し読み上げを行うことが容易になる.インターネット上の豊富なテキスト情報を取り込み,テキスト処理と制御タグの挿入により柔軟な音声ガイダンスシステムが可能になる.しかし,従来の音声合成の記述言語では音声合成で用いる韻律パラメータの制御(以下,韻律制御)をするための制御タグを新たに定義することはできず,利用できるタグの数も限られている.例えば,SSMLなどでは\begin{verbatim}<voicegender="female">天気は晴れです</voice><prosodyrate="-10\end{verbatim}のように,声質の変更(gender)や話速(rate)などのパラメータの変更を行うことは可能であるが,複数のパラメータを同時に変更する場合は,タグの記述が膨大になり可読性が損なわれる可能性もある.韻律パラメータを直接指定する制御タグが主体であるためにタグの名称から韻律制御によって期待しうる効果(印象)を予測することができない.このように,従来法ではきめ細かな韻律制御や直感的な制御ができないといった問題があった.MSCLはきめ細かな韻律制御を行うコマンド群の層と直感的な韻律制御が可能になるコマンド群の層に分離し,韻律制御の自由度や使いやすさを高めている.次節においてMSCLについて述べる.\subsection{MSCLによるアプローチ}利用者が簡単に制作を行えるインタフェースの原則として以下の3点\cite{Stgif}にまとめられている.\begin{itemize}\item[ア.]初心者保護の原則:レポートとは何か\item[イ.]熟練者優遇の原則:レポートの必要十分条件\item[ウ.]上級利用移行支援の原則:利用者に対して特化手段を用意し利用を促進する枠組み\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{17-4ia7f1.eps}\end{center}\caption{MSCLの階層構造}\end{figure}MSCLは,音声合成で必要となるピッチやパワーなどの韻律パラメータ群であるP層と,その韻律パラメータを制御するためのコマンド群であるI層と韻律パラメータに1つの解釈を与えるコマンド群であるS層の3つの階層(図1)がある.I層のコマンドは韻律パラメータを直接指定可能であるため,熟練者はより詳細な音声合成の韻律制御が可能になる.S層のコマンドは効果を直感的に理解した上での韻律制御が可能になり,初学者でも利用可能になる.MSCLの利点をまとめると以下の通りである.\begin{itemize}\item記述というスタイルで合成音声に様々な表現力を与える\item階層構造の記述体系を持つことで,初学者から専門的知識を持つ利用者までの様々なレベルへの対応が可能になる\item新たなコマンドを定義し,利用者独自の韻律制御方法を生み出せる\end{itemize}図1中の韻律制御のための記述がそのまま制御コマンド名になっている.特にS層コマンドであれば直感的な利用が可能となり,I層のコマンドの組み合わせにより利用者が定義した新たな制御コマンドを作成することが可能になる.例えば,以下のように記述できる.\begin{verbatim}[duration](0.8){[〜\](20Hz){はい}}@define:相槌=duration,〜\(0.8,20Hz){}@相槌{はい}\end{verbatim}1行目は,I層コマンド“〜\”により最終母音「い」のピッチを20~Hz降下させており,さらに,``duration''より継続時間長を0.8倍して話速を上げている.この韻律制御をまとめて,「相槌」というS層のコマンド名に置き換えているのが2行目である.そして,3行目からは「相槌」というコマンド名を使うことで韻律制御可能となる.これらの利点により,MSCLはロボットを使った対話システム\cite{Yamato},メール読み上げシステム\cite{Nakayama},など多種多様な音声表現が必要な場面で利用されている.\subsection{MSCLにおける課題}これらの利点に対しMSCLの課題は,新たな韻律制御コマンドの作成が容易ではないことにある.韻律制御という営みは,Sesign\cite{Sesign}が示すように韻律パラメータの操作により合成音声の音程を上げたり,継続時間長を伸縮させたりすることである.例えば“疑問”であれば,最終母音のイントネーションを上昇パターンにさせることは良く知られている.また,文中のある単語について“目立たせる”合成音声を生成するためには,対象となる単語のピッチパターンのダイナミックレンジを広くすることが1つの方法\cite{Iwata}とされる.このようにSesignでは合成音声から目的とする印象を想起できるようになるまで韻律パラメータの操作を繰り返した後に韻律制御方法が決定されるため,利用者が効率的に編集作業を行うには韻律制御による効果を習熟する必要がある.MSCLにおいても韻律制御を行うには,韻律パラメータをどのように制御すれば良いか予め知る必要がある.韻律制御と印象の変化に関する知識を容易に獲得できれば編集の時間を短縮することが可能になる.特に制御コマンド名として効果が表現されていれば便利である.これまで韻律制御と印象の関連性については,感情音声と呼ばれる喜怒哀楽をイメージしながらサンプルテキストを読み上げた音声と平常時に読み上げた音声との韻律パラメータの違いを比較するものが多い\cite{Hirose,Arimoto}.しかし,韻律制御を行った合成音声に対しどのような印象が得られるかを検討した報告はあまりない.そこで,合成音声の韻律制御によって音声の印象がどのように変化するかを調べ,MSCLのS層のコマンドとして利用者に提供する.本研究では,韻律制御方法の提案と韻律制御と印象との関係を明らかにするとともに,効果的に韻律制御を行うための方法について述べる.\subsection{本研究のアプローチ}本研究は,韻律制御と印象との関係について明らかにすることで,音声学的な知識をあまり有さない利用者でもMSCLのコマンド作成が可能になるための1つの方向性を与えるものである.音声合成のための韻律制御という観点で言えば,大きく2つのアプローチが考えられる.\begin{itemize}\item[ア.]コーパスベースのアプローチ:コーパス毎に韻律パターンを保持し,適切なパターンを選択する\cite{Corpus}\item[イ.]韻律生成規則ベースのアプローチ:朗読調の韻律生成規則をベースに,新たな規則を加えることで物理パラメータを制御する\end{itemize}ア.はプリミティブな韻律制御規則を組み合わせて新たな制御コマンドを作るというMSCLのアプローチに適用することが困難である.イ.は物理パラメータの制御規則を制御コマンドとして置き換えることで,値の変更や組み合わせが可能になる.従って,ここではイ.のアプローチで進めていくことにする.まず,従来の音声合成の韻律生成規則によって生成された韻律パラメータに対し,一定の変化を与える制御規則を規定することで新たな韻律制御規則を作成する.次に韻律制御と印象の関係について聴取実験を行う.韻律パラメータを変化させることによって,聴取者が合成音声に対しどのような印象を持つかを連想法により分析する.また,韻律制御と言葉の意味の影響により印象がどのように変化するかを調べる. \section{韻律制御に基づく印象の抽出} \subsection{韻律制御規則}音声合成の韻律生成規則をベースにしてさらに韻律制御を行うための制御規則を決める.ベースとなる合成音声の韻律生成規則はFluet\cite{Hakoda,FLUET}で利用されているものである.このモデルでは,話調成分,アクセント情報,音調結合情報などが考慮されており,藤崎モデル\cite{Fujisaki}などのモデルとの共通点がある.これに対し,図2に示す8つの韻律制御規則を提案する.\begin{figure}[t]\begin{center}\includegraphics{17-4ia7f2.eps}\end{center}\caption{8つの韻律制御規則}\end{figure}\begin{itemize}\itemPattern1:最終母音のピッチパターンを上昇\itemPattern2:最終母音のピッチパターンを降下\itemPattern3:音声全体の継続時間長を一律に伸長\itemPattern4:音声全体の継続時間長を一律に縮小\itemPattern5:ピッチパターンの振幅値を収縮\itemPattern6:ピッチパターンの振幅値を拡大\itemPattern7:ピークまでのピッチパターンを下に凸に変形\itemPattern8:ピークまでのピッチパターンを上に凸に変形\end{itemize}ここでは,文節を制御範囲(スコープ)とした制御方法を検討した.対話ロボットの音声や電話での応答を合成音声によって実現する場合,「そうです!」「本当?」などのワンフレーズで返す場面が多いことと,このようなワンフレーズでの音声の韻律パターンは多様に変化することによるためである.そこで,文節を制御単位とした韻律制御を行うこととした.対象とする韻律パラメータはピッチと継続時間長のみである.パワーについては,合成方式が音声素片接続型を用いているため,大声小声のための制御というよりは制御結果が音量の大小として聴取されることから用いていない.ピッチパターンの韻律制御については,ピッチパターンのピーク位置から最終母音の始点までの変形を行うとアクセント位置がずれたように聞こえることがあり,異なった言語情報として聴取される可能性が高い.つまり,「雨」が「飴」として聞こえてしまうようにアクセント型が変化したように聴取されることがある.そこで,この区間を除いて適用できる制御規則を用いた.始端からピーク位置の区間,最終母音の区間,全体の抑揚の強さ,の制御についてはパターンを変化させてもアクセント型が変化しないことから,この区間を対象とした6つの韻律制御規則を選択した.特にPattern1は疑問文,Pattern5は単語の強調に関係するといわれており,Patetern7,8について印象になんらかの変化を与える\cite{Kawakami}との報告がある.継続時間長については音韻毎の伸縮も考えられるが,ここでは話速に関係するPattern3,4を用いている.この8つのパターンはMSCLのI層のコマンドに相当する.これらのコマンドを用いて合成音声を作成し,その音声から感じ取れる印象を抽出する.\subsection{連想法による印象の抽出}韻律制御と印象の関係を調べるには,事前に対象にしたい言葉を選択しておき,その中から適切なものを被験者に選択させる方法がよく使われている.例えば,感性工学においてはSD法(SemanticDifferentialMethod)が多く利用されている.相対する意味の言葉の対(明るい—暗い,暑い—寒い,等)を事前に用意しておき,被験者が印象に近いものを選択するという方法であり,効率的に統計的なデータを導くことができる.しかし,まず事前の知識(タスク,対象分野,条件などの情報)に基づき言葉の対がどの種類の言葉であるかを予測しておく必要があり,さらにはいくつかの言葉の候補から統計的に絞り込むという作業を繰り返さなくてはならない.本研究では事前の知識が用意されないため,SD法で調査を実施するには無数の実験を繰り返さなくてはならない.そこで,最初に連想法を用いて韻律制御と印象の関係を導くことにした.連想法を使えば被験者が自由に想起した印象を述べることができる.その想起された言葉の傾向を分析し,事前の知識とすることで,どのような印象が最も適するかを調べることが可能である.今回の実験では,提案した8つのパターンにより韻律制御した合成音声を刺激音とし,被験者に想起する印象(連想表現)を全て述べさせた.そこから得られた連想表現の頻度を求めクラスター分析によりパターンを最も要約する印象を求めた.\subsection{連想法による実験}Fluetの生成する韻律パラメータをベースに8つのパターンにより韻律制御したものを音声資料とした.被験者はヘッドフォンによって音声資料を聴取した.合成音声はサンプリング周波数12\,kHz,男性音声を用いている.被験者は関東圏内に在住する25歳から35歳までの男性3名,女性2名の計5名である.音声資料が数百msecといった短いものでありこれを聞き取り判断しなくてはならないため,音声ラベリング作業などに従事し合成音声に慣れた者を被験者とした.音声合成を行う際の入力テキストは“本当(1型アクセント)”“大丈夫(0型アクセント)”“分からない(2型アクセント)”の3単語を用いた.最初にFluetにより生成された朗読調の合成音声を基準音として被験者に聴取させた上で,韻律パラメータを変化させた音声資料を聴取し,連想する言葉やシチュエーションなどを述べさせた.実験中,音声資料は何度聞いても良く,回答のための制限時間も設けなかった.実験中の様子は録音され,試験終了後に被験者の回答を全て書き起こした.被験者あたりの実験の平均時間は約61分となった.書き起こした被験者の回答の中には,名詞句,形容詞句,擬態語,固有名詞(○○さん風など),長文などがあった.これらの回答から韻律制御を最もよく表す連想表現を調べるために次の処理を行った.\begin{itemize}\item長文など複数の印象を示す表現が含まれる回答は,印象を的確に表すと考えられる表現ごとに分割を行う\item同義語などは,国語辞典などを参考に1つの単語に統一する\end{itemize}この処理の結果,各被験者が1つの音声資料を聴取した場合に回答された連想表現の数は,異なり語数として平均で約6.5語となった.8つのパターンから想起される印象の傾向については,上記の連想表現の出現頻度を求めることで可能である.しかし,3つの単語に共通に得られる印象を調べるためにクラスター分析\cite{Cluster}を用いた.クラスター分析を行うにあたり,3つの単語“本当”“大丈夫”“分からない”のそれぞれの単語に出現した連想表現の出現頻度を用い,分析の項目として実験で現れた連想表現を用いた.クラスター間の距離計算はウォード法を用いた.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f3.eps}\end{center}\hangcaption{Pattern1の連想表現のクラスター分析結果}\label{fig:one}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f4.eps}\end{center}\hangcaption{Pattern2の連想表現のクラスター分析結果}\label{fig:two}\end{minipage}\end{figure}Pattern1の実験結果を図3に示す.樹状図の下の葉の部分が連想表現とその出現頻度である.実験では5名が3つの単語に対しそれぞれ印象を述べるため,連想表現の出現頻度の最大値は15となる.また,分析対象とする最小頻度は3とした.例えば,連想表現「問いかけ」については14回の回答があったことになり最大値に近い結果が得られた.「意外」については,被験者が連想した回数が少なく3回となっている.葉から延びた線の高さがクラスター分析による連想表現間の距離を示しており,仮に出現頻度が同じでも出現する単語に偏りがあれば,連想表現間の距離は遠くなるため,高さが異なったり枝分かれすることがある.さらに,高い位置で分岐している連想表現がそのクラスターを要約するものであるといえる.図3では,「問いかけ」が連想表現としての出現頻度が高く,3つの単語に共通に現れた連想表現であった.樹状図においても最も高い位置で分岐しており,これらのことからPattern1の与える印象の1つであるといえる.図の右側「驚き」「意外」「疑問」「確認」については,“本当”の連想表現として多く出現した.“本当”という真実を表す言葉と共に情報がうまく処理できていないことを表していると考えられる.「気遣う」は“大丈夫”の連想表現として多く出現した.“大丈夫”という状態がしっかりしている様を表す言葉と共に状態が安定していないということを表していると考えられる.「軽い」も“大丈夫”の連想表現として現れたが,落ち着いた状態でないことを表していることに関係していると考えられる.そして頻度の高かった「問いかけ」により,Pattern1の韻律制御によって,情報の信頼性やシチュエーションに対して不安定な状況にあることを伝える効果を持つことが分かる.Pattern2の結果を図4に示す.「了解」が連想表現としての出現頻度も高く,Pattern2の与える印象の1つであるといえる.中央「相槌」「冷静」は“本当”の連想表現として多く出現しており,落ち着いた状態を示していることが分かる.「答える」は“大丈夫”の連想表現として多く出現し,右側の「納得」は“分からない”の連想表現として多く出現したが,何れも落ち着いている状態を示しているといえる.そして頻度の高かった「了解」により,Pattern2の韻律制御によって,真意をみとめた落ち着いた状態を示す効果を持つことが分かる.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f5.eps}\end{center}\hangcaption{Pattern3の連想表現のクラスター分析結果}\label{fig:three}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f6.eps}\end{center}\hangcaption{Pattern4の連想表現のクラスター分析結果}\label{fig:four}\end{minipage}\end{figure}Pattern3の結果を図5に示す.「ゆっくり」が連想表現としての出現頻度も高く,Pattern3の与える印象の1つであるといえる.右側の「考えている」「内容を整理する」は出現頻度が少ないが3つの単語に対して共通に得られた印象であった.中央の「思い返す」「確かめる」は“本当”の連想表現として多く出現した.左側「念を押す」は“大丈夫”“本当”の連想表現として多く出現した.そして頻度の高かった「ゆっくり」により,Pattern3の韻律制御によって,情報処理や動作について時間を要すること・要していることを示す効果を持つことが分かる.Pattern4の結果を図6に示す.「せかす」そして「早口」が連想表現としての出現頻度が高く,Pattern4の与える印象の1つであるといえる.右側の「軽い」「テンポ良く」「遮る」は“本当”の連想表現として多く出現した.左側「大丈夫」は“大丈夫”の意味そのままに連想表現として出現した.そして頻度の高かった「せかす」により,Pattern4の韻律制御によって,情報処理や動作について短い時間で対応することを示す効果を持つことが分かる.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f7.eps}\end{center}\hangcaption{Pattern5の連想表現のクラスター分析結果}\label{fig:five}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f8.eps}\end{center}\hangcaption{Pattern6の連想表現のクラスター分析結果}\label{fig:six}\end{minipage}\end{figure}Pattern5の結果を図7に示す.「消極的」「沈んでいる」が連想表現としての出現頻度も高く,Pattern5の与える印象の1つであるといえる.右側「冷静」は出現頻度が少ないが3つの単語に対して共通に得られた印象であった.中央「我慢」は“大丈夫”の連想表現として多く出現した.左側「考え込む」「困る」は“分からない”の連想表現として多く出現した.そして頻度の高かった「消極的」「沈んでいる」により,Pattern5の韻律制御によって,興奮を抑えた状態(沈静)を示す効果を持つことが分かる.Pattern6の結果を図8に示す.「テンションの高い」が連想表現としての出現頻度も高く,Pattern6の与える印象の1つであるといえる.中央の「驚き」は“本当”の連想表現として多く出現した.左側「怒り」「いらいら」は“大丈夫”“分からない”の連想表現として多く出現した.右側「うれしそう」は“本当”の連想表現として多く出現した.そして頻度の高かった「テンションの高い」により,Pattern6の韻律制御によって,気持ちの高ぶっている様子を示す効果を持つことが分かる.Pattern7の結果を図9に示す.「様子を伺う」が連想表現としての出現頻度も高く,Pattern7の与える印象の1つであるといえる.右側「低く構える」「心のこもらない」は“本当”の連想表現として多く出現した.中央の「冷静」は“本当”“大丈夫”の連想表現として多く出現した.左側の「威圧的」「困惑」は“分からない”の連想表現として多く出現した.そして頻度の高かった「様子を伺う」により,Pattern7の韻律制御によって相手に慎重な態度を示す効果を持つことが分かる.Pattern8の結果を図10に示す.「あきれる」と「緊張感の無い」が連想表現として出現頻度が高く,Pattern8の与える印象の1つであるといえる.左側の「なだめる」は“大丈夫”に多く出現した.右側の「弱々しい」は“分からない”に多く出現した.そして頻度の高かった「あきれる」と「緊張感の無い」により,Pattern8の韻律制御によって相手に対し緊張感が無いことを示す効果を持つことが分かる.\begin{figure}[t]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f9.eps}\end{center}\hangcaption{Pattern7の連想表現のクラスター分析結果}\label{fig:seven}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f10.eps}\end{center}\hangcaption{Pattern8の連想表現のクラスター分析結果}\label{fig:eight}\end{minipage}\end{figure}\begin{table}[t]\caption{制御パターン毎の主要な連想表現とその頻度}\input{07table01.txt}\end{table}以上より,単語の意味の影響を受けながらも韻律制御によって与える印象について傾向があることがわかった.表1には,最も頻度の高かった印象(連想表現)をまとめている.各印象をMSCLのS層のコマンド名として付与することで韻律制御の結果のイメージがつき易くなり作業が格段に早くなるものと考えられる.但し,Pattern6の「うれしそう」と「怒り」(図8)のように同一の韻律制御規則の中でも対照的な印象が現れる場合もある.「うれしそう」と「怒り」は共に興奮している状態に起因していると考えられるが,様々な情報をそぎ落として1つの印象でコマンド名を表現する場合には十分な注意が必要であることが分かる.さらには,Pattern6とPattern1においては異なる制御方法であるにも関わらず「驚き」という連想表現が表れている.3章でも述べるが韻律制御と印象の関係が多対多の関係になる場合がある.しかし,記述言語というフレームワークにおいて1つのコマンド名に対し複数の効果のうちどれかを選択する方法を提供することは記述をより複雑にする可能性があり,S層のコマンドの持つ容易さを失うことになる.多対多の関係ではなく,一対多の関係であることが望ましい.このため,MSCLでは「驚き」に対して,「驚愕」や「びっくり」等の同義語や「驚き1」「驚き2」などの番号を付与し,その中で利用者が適した「驚き」を選択する,という方法で一対多の関係を維持することとした.コマンド名は,韻律制御のための1つのヒントを与えるものであるといえる.しかし,本実験により平易な言葉でコマンド名を付与していくということについては限界があることが分かった.より専門的な表現を使ったり,ユニークな番号を付与したりすることで対応可能であるが,初学者に対してはコマンドが持つ効果を解説する必要がある.今回の実験のように概念を構造化する手法などを用いて,利用者に分かりやすく説明する仕組みが必要であると考える.さらには,韻律制御において音声合成をしたいテキストに含まれる意味なども考慮しなくてはならないことがわかる. \section{韻律制御に基づく印象の変化の実験} 次に表1の連想表現を印象語として用いて多数の被験者を対象に聴取評価実験を行う.被験者は前回と同様に8パターンによる韻律制御を行った合成音声を聴取し,8種類の印象語すべてに対して{“1.あてはまらない”,“2.どちらでもない”,“3.あてはまる”}の3件法で回答を行う.被験者は関東圏内に在住する25歳から35歳までの男性6名,女性9名の計15名である.最初に基準音として朗読調の合成音声を聞き,次に韻律制御を行った合成音声を一定間隔で6回提示する.その間に8つの項目全てを対象に印象として適切であるか回答を行う.前回と同様に音声合成には“本当”“大丈夫”“分からない”の3つの単語を用いている.表2は評価結果の平均値を混同対照表(ConfusionMatrix)によって表したものである.左側に表1の8パターンの韻律制御によって期待される連想表現を列記しており,それぞれがコマンド名に相当すると考えられる.上段には評価に用いた全ての印象語を記している.高い値を示している連想表現がより適切な合成音声に対する印象を表していることになる.例えばPattern1によって生成された「問いかけ」の合成音声については,印象語「問いかけ」の評価が2.9となっており最も高い値となっている.その他の印象語については2を下回る値となっている.このことから,Pattern1によって生成された音声は「問いかけ」以外の7つの印象とは混同しにくいことが分かる.表の左上から右下にかけての値が全て高い値を示していることから,表1で得られた結果が概ね良好であることが分かる.但し,Pattern7によって生成された「様子を伺う」の合成音声については,「問いかけ」の印象が最も強く,その次に「様子を伺う」についての評価が高いという結果となった.Pattern7によって相手に慎重な態度を表すことを示したが,単一の言葉で表したときは「様子を伺う」に加えてさらに「問いかけ」という表現が受け入れやすいことが分かった.\begin{table}[t]\caption{聴取実験結果の混同対照表}\input{07table02.txt}\end{table}次に表2の結果を箱ヒゲ図で用いて表したのが図11である.図の下に書かれた印象語に対し,評価値の分布がどのようになるかを示したものである.箱の中の太実線が平均値であり,コマンドに対する全印象語の評価平均を示す.例えば,「問いかけ」については,約1.6が平均値となっている.また,箱の両端が標準偏差を示している.図中の黒丸はコマンドが表す印象語の評価値であり,表2より2.9であることが分かる.各評価値の分布に対し,黒丸の位置は箱の上端より外に位置していることが分かる.この結果から,MSCLで表1の8つのコマンドを設定した場合,他の7つのコマンドに対して生成される合成音声の印象の違いを利用者が受け入れやすいものと考えられる.但し,表2の結果にもあるようにPattern7が「問いかけ」と「様子を伺う」の両方の印象として感じられる可能性が高いと考えられる.また,黒丸の平均値が2付近にあることから,コマンド名としてさらに適切なものも存在する可能性があると考えられる.\begin{figure}[t]\begin{center}\includegraphics{17-4ia7f11.eps}\end{center}\caption{箱ヒゲ図による回答の分布(3単語)}\end{figure} \section{言葉の意味による影響} 2章で述べたように,音声合成を行う単語などの持つ意味によって印象が変わる可能性がある.そこで,単語の意味による印象の変化について調べた.ここでは,“問いかけ”に着目し,問いかけ時に使われる単語“もしもし”“どうする”を用いて3章と同様の実験を行った.被験者は3章と同じ15名であり,2つの単語について8パターンの韻律制御を行った合成音声を生成し聴取させた.但し,問いかけ時に使う言葉ではあるが,デフォルトの韻律生成規則に対し最終母音が上昇パターンになる指定は行っていない.図12が実験結果である.黒丸の位置は全て分布の上端に来ていることから,8つの連想表現の中でそれぞれ韻律規則と関連の深いものが「あてはまる」と回答されやすいことを示している.\begin{figure}[t]\begin{center}\includegraphics{17-4ia7f12.eps}\end{center}\caption{単語の意味による評価結果の変化}\end{figure}図11とは異なり,“問いかけ”の平均値が2を超えている.“了解”全体の分布は1.5を下回っている.また,“様子を伺う”の平均値が2を超えている.つまり,“問いかけ”“様子を伺う”は全ての制御規則において当該の印象を感じやすくなっており,逆に“了解”の印象を感じにくくしていることが分かる.この結果から,韻律制御がもたらす印象の傾向はあるものの,言葉の意味が印象に影響を与えることも分かった.MSCLにおける韻律制御においては,韻律制御規則とその主な印象,そして音声合成する言葉の意味の3つを考慮して行うことが必要であることがわかった. \section{制御規則の組み合わせによる印象の強調} これまでの結果から,“様子を伺う”は連想法では強い傾向が得られたものの,聴取実験ではコンテクストなどを排除した単体の言葉による被験者の解釈によって,傾向として弱められた結果となった.つまり,2章の連想法での被験者の回答は,緊張した面持ちで相手を注視するようなイメージに基づいた“様子を伺う”であった.しかし,連想表現としてまとめあげた段階で“様子を伺う”に関する語幹に多様性が生まれ,例えば“問いかけ”よりもスコアが低くなってしまったものと考えられる.そこで,連想法で得られた結果のように,“様子を伺う”について評価値を上げる方法を検討した.これまでの先行研究(白井,岩田1987;有本,大野,飯田2007)では,1つの印象を表現するためにいくつかの韻律制御を組み合わせることを行っている.継続時間長,抑揚,文末最終母音のピッチパターンなどのそれぞれの特徴的な傾向を複合的に用いることで,1つの印象を表現している.言い換えれば,韻律制御を因子とした線形結合で表されていると考えることができる.そこで我々は,“様子を伺う”について印象を補い合う(因子負荷が正となる)韻律制御を組み合わせて,評価値を上げることができるか実験を行った.図13は,3章で得られた評価値と各項目の関係についてクラスター分析を行った結果である.図に示すように8つの韻律制御をパラメータとして用いた場合“様子を伺う”は“問いかけ”と近いクラスに属することが分かった.そこで,“問いかけ”で最も高い評価値を持つPattern1を用いて,Pattern7とPattern1を組み合わせた時の“様子を伺う”の評価値を調べる.\begin{figure}[t]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f13.eps}\end{center}\caption{クラスター分析による類似度の分析}\label{fig:ten}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\makeatletter\def\@captype{}\makeatother\hangcaption{制御規則の組み合わせによる“様子を伺う”の評価結果}\input{07table03.txt}\end{minipage}\end{figure}評価は,より詳細に印象の強さを調べるために「非常に含んでいる($+3$)」から「非常に含んでいない($-3$)までの7件法\cite{Psychology}を用いた.被験者は関東圏内に在住する25歳から35歳までの女性6名である.音声は“本当”の合成音声を用いている.“本当”の音声を選択した理由は3章の実験を行った際に,例えばPattern7の評価値が“様子を伺う”で2.5,“問いかけ”で2.3と連想表現と韻律制御が2章で行った連想法の実験に比較的似ていることが分かったためである.表2に結果を示す.Pattern7のみの場合では評価の平均値が1.67(「やや含んでいる」と「かなり含んでいる」の中間)であった.これに対し2つの規則を組み合わせることで被験者の平均が3.0(「非常に含んでいる」)になった.この結果,Pattern7+Pattern1という組み合わせにより,S層の新たなコマンドである,“(より強い印象を与える)様子を伺う”が定義できることが分かった.本実験は組み合わせることの効果の一例ではあるが,このようにいくつかの組み合わせの手法を導き,それらを記述によって表現できる仕組みを検討していく予定である. \section{まとめ} 本研究はMSCLを様々な利用者が利用するための韻律制御の1つの考え方やコマンドの作成方法について述べた.文節という制御単位ではあるが韻律制御規則の規定を行い,韻律制御規則と印象の関係を導くことで利用者がより直感的に編集可能になった.また,留意点としては,制御規則と印象が1対1の関係ではなく1対多の関係にあり,1つの制御規則に対して得られる印象をいくつか知っておく必要がある.MSCLで編集作業を行う際は,制御規則,印象,言葉の意味をセットで考慮することで,より高い効果での韻律制御が可能であることが分かった.さらには,MSCLの特徴である制御規則を組み合わせることで印象を強めることが可能であることが分かった.MSCLを利用する上で重要な要素のいくつかを確認できたが,より便利に使うためには,文節単位以上に,文単位あるいは文章単位での制御を可能にする制御規則が必要になってくると考えられる.また,8つの時系列変化パターンだけでなく,韻律制御規則を増やし,様々な印象が表現できるコマンドを用意していく必要がある.さらには,利用者がMSCLで編集作業を行うためのノウハウを体系的にまとめていきたいと考えている.その1つとして,韻律制御による効果をクラスター分析などにより構造化し,効果的に説明することを課題としている.今回は,物理パラメータの制御と印象の関係について分析を行ったが,被験者の所在地や年齢の範囲が限定的であるため,地域差や年齢差等による影響についても検討が必要であると考える.また,このレベルの検討を行いながら新たな制御規則を創出することは一般の利用者が行うことは難しいと考える.その労力を軽減するために,今回の韻律制御規則をテンプレートとして,実音声の韻律パターンを抽象化し,新しい制御規則の手がかりにする方法などがあり,これらが今後の課題であるといえる.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{阿部\Jetal}{阿部\Jetal}{2001}]{Sesign}阿部匡伸\Jetal\BBOP2001\BBCP.\newblock音声デザインツールSesign.\\newblock\Jem{信学会論文誌D--II},{\BbfJ84--D--II}(6),\mbox{\BPGS\927--935}.\bibitem[\protect\BCAY{Allen,Hunnicutt,\BBA\Klatt}{Allenet~al.}{1987}]{MITalk}Allen,J.,Hunnicutt,M.,\BBA\Klatt,D.\BBOP1987\BBCP.\newblock{\BemFromtexttospeech:TheMITalksystem}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2007}]{Arimoto}有本\JBA大野\JBA飯田\BBOP2007\BBCP.\newblock「怒り」の発話を対象とした話者の感情の程度推定法.\\newblock\Jem{自然言語処理},{\Bbf14}(3),\mbox{\BPGS\149--163}.\bibitem[\protect\BCAY{箱田\JBA佐藤}{箱田\JBA佐藤}{1980}]{Hakoda}箱田\JBA佐藤\BBOP1980\BBCP.\newblock文音声合成における音調規則.\\newblock\Jem{信学会論文誌D--II},{\BbfJ63--D}(9),\mbox{\BPGS\715--722}.\bibitem[\protect\BCAY{箱田\JBA塚田\JBA吉田\JBA広川\JBA水野}{箱田\Jetal}{1996}]{FLUET}箱田\JBA塚田\JBA吉田\JBA広川\JBA水野\BBOP1996\BBCP.\newblock波形合成法を用いたテキスト音声合成ソフトウェア(FLUET).\\newblock\Jem{信学会ISソサイエティ大会}.\bibitem[\protect\BCAY{Hartigan}{Hartigan}{1983}]{Cluster}Hartigan,J.~A.\BBOP1983\BBCP.\newblock\Jem{クラスター分析}.\newblockマイクロソフトウェア株式会社.\bibitem[\protect\BCAY{広瀬\JBA高橋\JBA藤崎\JBA大野}{広瀬\Jetal}{1994}]{Hirose}広瀬\JBA高橋\JBA藤崎\JBA大野\BBOP1994\BBCP.\newblock音声の基本周波数パターンにおける話者の意図・感情の表現.\\newblock\JTR,信学技法HC94-41,pp.~33--40.\bibitem[\protect\BCAY{川上}{川上}{1956}]{Kawakami}川上秦\BBOP1956\BBCP.\newblock文頭のイントネーション.\\newblock\JTR,国語学,24,pp.~21-30.\bibitem[\protect\BCAY{Klatt}{Klatt}{1987}]{TTS}Klatt,D.\BBOP1987\BBCP.\newblock\BBOQReaviewoftext-to-speechconversionforEnglish.\BBCQ\\newblock{\BemJ.Acoust.Soc.Am},{\Bbf82}(3),\mbox{\BPGS\737--793}.\bibitem[\protect\BCAY{水野}{水野}{2005}]{Corpus}水野秀之\BBOP2005\BBCP.\newblockコーパスベース音声合成における音声合成単位とコーパスの設計方法.\\newblock\Jem{信学技報},{\BbfSP2005}(10),\mbox{\BPGS\25--30}.\bibitem[\protect\BCAY{Mizuno\BBA\Nakajima}{Mizuno\BBA\Nakajima}{1998}]{MSCL}Mizuno,O.\BBACOMMA\\BBA\Nakajima,S.\BBOP1998\BBCP.\newblock\BBOQSyntheticSpeech/SoundControlLanguage:MSCL.\BBCQ\\newblockIn{\BemThirdESCA/COCOSDAWorkshoponSpeechSynthesis},\mbox{\BPGS\21--26}.\bibitem[\protect\BCAY{中山\JBA町野\JBA北岸\JBA岩城\JBA奥平}{中山\Jetal}{2005}]{Nakayama}中山\JBA町野\JBA北岸\JBA岩城\JBA奥平\BBOP2005\BBCP.\newblock音を用いたモーションメディアコンテンツ流通方式の提案とそのネットワークコミュニケーションサービスへの応用.\\newblock\Jem{日本ロボット学会誌},{\Bbf23}(5),\mbox{\BPGS\602--611}.\bibitem[\protect\BCAY{成澤\JBA峯松\JBA広瀬\JBA藤崎}{成澤\Jetal}{2007}]{Fujisaki}成澤\JBA峯松\JBA広瀬\JBA藤崎\BBOP2007\BBCP.\newblock音声の基本周波数パターン生成過程モデルのパラメータ自動抽出法の評価.\\newblock\JTR,信学技法,SP2002-27.\bibitem[\protect\BCAY{西本\JBA志田\JBA小林\JBA白井}{西本\Jetal}{1996}]{Stgif}西本\JBA志田\JBA小林\JBA白井\BBOP1996\BBCP.\newblockマルチモーダル入力環境下における音声の協調的利用—音声作図システムS-tgifの設計と評価.\\newblock\Jem{信学会論文誌D--II},{\BbfJ79--D--II}(12),\mbox{\BPGS\2176--2183}.\bibitem[\protect\BCAY{大山\Jetal}{大山\Jetal}{1973}]{Psychology}大山\Jetal\BBOP1973\BBCP.\newblock\Jem{心理学研究法4実験III}.\newblock東京大学出版.\bibitem[\protect\BCAY{Raman\BBA\Gries}{Raman\BBA\Gries}{1997}]{Raman}Raman,T.~V.\BBACOMMA\\BBA\Gries,D.\BBOP1997\BBCP.\newblock\BBOQAudioformatting?Makingspokentextandmathcomprehensible.\BBCQ\\newblock{\BemInternationalJournalofSpeechTechnology},{\Bbf2}(1),\mbox{\BPGS\21--31}.\bibitem[\protect\BCAY{Ramming}{Ramming}{1998}]{Ramming}Ramming,J.~C.\BBOP1998\BBCP.\newblock\BBOQPML:ALanguageInterfacetoNetworkedVoiceResponseUnits.\BBCQ\\newblockIn{\BemWorkshoponInternetProgrammingLanguages,ICCL'98}.\bibitem[\protect\BCAY{Sasajima,Yano,\BBA\Kono}{Sasajimaet~al.}{1999}]{Dialogue}Sasajima,M.,Yano,T.,\BBA\Kono,Y.\BBOP1999\BBCP.\newblock\BBOQEUROPA:AGenericFrameworkforDevelopingSpokenDialogueSystems.\BBCQ\\newblockIn{\BemEUROSPEECH99},\mbox{\BPGS\1163--1166}.\bibitem[\protect\BCAY{白井\JBA岩田}{白井\JBA岩田}{1987}]{Iwata}白井克彦\JBA岩田和彦\BBOP1987\BBCP.\newblock音声合成のための単語の強調表現の規則化.\\newblock\Jem{信学論文誌},{\BbfJ70--A}(5),\mbox{\BPGS\816--821}.\bibitem[\protect\BCAY{総務省報告資料}{総務省報告資料}{2007}]{SOUMU}総務省報告資料\BBOP2007\BBCP.\newblock電気通信アクセシビリティガイドラインの国際標準化.\\newblock\JTR,総務省.\bibitem[\protect\BCAY{SSML}{SSML}{}]{SSML}SSML.\newblock\BBOQSSML.\BBCQ\\newblock\Turl{http://www.w3.org/TR/2007/WD-speech-synthesis11-20070110/}.\bibitem[\protect\BCAY{翠\JBA河原\Jetal}{翠\Jetal}{2007}]{Guidance}翠\JBA河原\Jetal\BBOP2007\BBCP.\newblock質問応答・情報推薦機能を備えた音声による情報案内システム.\\newblock\Jem{情報処理学会},{\Bbf48}(12),\mbox{\BPGS\3602--3611}.\bibitem[\protect\BCAY{VoiceXML}{VoiceXML}{}]{VoiceXML}VoiceXML.\newblock\BBOQVoiceXML.\BBCQ\\newblock\Turl{http://www.voicexml.org/}.\bibitem[\protect\BCAY{Yamato,Shinozawa,Naya,\BBA\Kogure}{Yamatoet~al.}{2001}]{Yamato}Yamato,J.,Shinozawa,K.,Naya,F.,\BBA\Kogure,K.\BBOP2001\BBCP.\newblock\BBOQEffectsofConversationalAgentandRobotonUserDecision.\BBCQ\\newblock\BTR,IJCAI-01Workshop.\end{thebibliography}\begin{biography}\bioauthor{水野理}{1994年早大理工電気工学科大学院修了.同年日本電信電話株式会社入社.NTTサイバースペース研究所勤務.言語処理学会,日本音響学会各会員.}\bioauthor{阿部匡伸}{1982年早大・理工・電気卒.1984年同大大学院修了.博士(工学).同年日本電信電話公社入社.1987年から1991年までATR自動翻訳電話研究所出向.1989年MIT滞在研究員.1991年日本音響学会第8回粟屋潔学術奨励賞,1996年日本音響学会第36回佐藤論文賞各章受賞.現在,NTTサイバーソリューション研究所勤務主幹研究員.著書「RecentprogressinJapaneseSpeechSynthesis」.日本音響学会,電子情報通信学会,IEEE各会員.}\end{biography}\biodate\end{document}
V29N02-05
\section{はじめに} \label{sec:intro}日本語文は,通常,漢字や平仮名,片仮名,算用数字などの文字種により構成されるが,幼児向け書籍や外国人日本語初学者による作文などにおいて,平仮名のみで書かれる文も多々存在する.本論文では,平仮名のみで書かれた日本語文(以下,平仮名文)に対する形態素解析について述べる.これまでに,日本語形態素解析器として,JUMAN\cite{juman},ChaSen\cite{chasen},MeCab\footnote{\url{https://taku910.github.io/mecab/}}\cite{kudo-etal-2004-applying},KyTea\footnote{\url{http://www.phontron.com/kytea/}}\cite{neubig-etal-2011-pointwise}などが開発されており,新聞記事文など,様々な文字種で書かれた漢字仮名まじり文に対して高い解析精度が達成されている.しかし,平仮名文は,漢字仮名まじり文と比べて,考えられる単語候補が増大するなど,はるかに曖昧性が多いため\cite{nagao-nlp},例え,これら従来の解析器を平仮名文だけからなるコーパスで学習し直したとしても,これらによる平仮名文の解析精度は大きく低下することが報告されている\cite{moriyama-2018}.一方,平仮名を主な対象とした形態素解析に関する研究もいくつか存在する\cite{kudo-etal-hiragana-2018,picturebook,moriyama-2018,izutsu-komiya-2021}.その一つとして,我々の先行研究\cite{moriyama-2018}では,Kudoらの日本語形態素解析\cite{kudo-etal-2004-applying}を拡張し,RNNLM(ReccurentNeuralNetworkLanguageModel)との統合を行うことにより,平仮名文に対して高い解析精度を実現しており,その精度は従来の形態素解析器が漢字仮名まじり文に対して達成している精度に匹敵している.しかし,この手法の解析時間は一般的な計算機において平均7秒/文を超えており,前述した従来の著名な形態素解析器と比べて桁違いに遅い.応用システムに依存して必要な解析速度は決まるため一概には言えないが,外国人日本語初学者の独習支援システムなどにおいて,1文ごとに処理結果を出力することが想定される場合,我々の先行研究の手法には解析速度に関して実用上の問題が存在しているといえる.この手法では,Kudoらの手法\cite{kudo-etal-2004-applying}の枠組みを採用しており,ラティス上の最適経路を推定する必要があるが,各ノードに対してRNNLMが与えるスコアは,どの経路を通ったかによって異なるため,ビタビアルゴリズムを単純に適用することはできない.すなわち,経路ごとにRNNLMによるスコアを繰り返し計算する必要があり,漢字仮名まじり文よりも一般に長くなる平仮名文では特に,多くの解析時間がかかると考えられる.また,その多くが平仮名で構成されている絵本のテキストを対象とした研究\cite{picturebook}では,対象ドメインのデータでNeubigらの点予測による形態素解析手法(KyTea)\cite{neubig-etal-2011-pointwise}を学習し直すことの有効性が報告されている.Neubigらの手法\cite{neubig-etal-2011-pointwise}は,形態素解析を単語分割と品詞推定に分けて段階的に処理し,各処理において,文字境界あるいは単語ごとに点予測を文頭から順に繰り返すため,1文の文字数や単語数に対する線形時間で処理できると考えられる.実際,我々の先行研究\cite{moriyama-2018}において,Neubigらの手法の平仮名文に対する解析時間は一般的な計算機上で平均4.30ミリ秒/文であることを確認しており,従来の形態素解析器の漢字仮名まじり文に対する解析時間と同程度である.また,我々の先行研究において,Neubigらの手法の平仮名文に対する解析精度は,我々の先行研究における提案手法に次いで高いことを確認しており\cite{moriyama-2018},平仮名文に対する形態素解析手法としてNeubigらの手法は有力視できる.しかし,Neubigらの手法による平仮名文の形態素解析精度は,単語境界のみの判定基準で95.62\%,すべての形態素情報が一致するという判定基準で93.28\%であったのに対して,我々の先行研究の手法はそれぞれ順に98.68\%,95.52\%であり,大きな差がある\cite{moriyama-2018}.Neubigらの手法(KyTea)は,推定箇所の前後の情報を用いて線形SVMあるいはロジスティック回帰により推定するが,ある一定の窓幅内に存在する局所的な情報しか利用できていない.Neubigらの手法は,漢字仮名まじり文に対しては高精度で解析できるのに対して,平仮名文に対してはその解析精度が大きく減少していた\cite{moriyama-2018}.それに対し,我々の先行研究の手法\cite{moriyama-2018}では,RNNLMから得られるスコアを取り入れることにより,大域的な情報を活用することができており,平仮名文に対する解析精度の向上に寄与したものと考えられる.このことは,平仮名文の曖昧性解消には大域的な情報が効果的であることを示唆している.そこで本論文では,平仮名文に対する高精度かつ実用的な速度での解析を目指し,RNN(ReccurentNeuralNetwork)とロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案する.提案手法では,平仮名文に対する形態素解析の高速化を図るため,Neubigらの手法\cite{neubig-etal-2011-pointwise}の枠組みを採用し,単語境界の推定は文字境界ごとに,形態素情報の推定は単語ごとに,文頭から逐次的に実行する.また,平仮名文に対する逐次的な形態素解析の高精度化を図るため,Neubigらの手法\cite{neubig-etal-2011-pointwise}の枠組みにおいて,局所的な情報だけでなく,大域的な情報を加味し,平仮名文独特の高い曖昧性の解消を試みる.具体例には,各時点において,Neubigらの手法においてロジスティック回帰が局所的な情報のみを用いて推定した結果と,RNNが大域的な情報を考慮して推定した結果とを組み合わせることが,平仮名文の逐次的な形態素解析の高精度化において有効であることを示す.さらに,漢字仮名まじり文の形態素解析と比べて,平仮名文の形態素解析では特に,大域的な情報を考慮することが効果的であることを示す.RNNを日本語形態素解析に用いた関連研究として,KitagawaとKomachiの日本語単語分割\cite{kitagawa-komachi-2018-long}がある.KitagawaとKomachiの手法は,RNNを用いて逐次的に単語境界か否かを判定するものであり,Neubigらの手法に比肩する解析精度を達成している.しかし,解析対象は漢字仮名まじり文であり,平仮名文ではない.また,単語分割のみを行っており,品詞などの形態素情報の推定には取り組んでいない.それに対し,Tolmachevらは,単語分割と形態素情報推定をRNNを用いて逐次的に行う手法を提案している\cite{tolmachev-etal-2019-shrinking}.しかし,この手法の解析対象も漢字仮名まじり文であり,平仮名文ではない.その他,Moritaらは,RNNLMを用いたラティスに基づく日本語形態素解析手法を提案している\cite{morita-etal-2015-morphological}.この手法(JUMAN++ver.~1)は,我々の先行研究の手法と同様に,多くの解析時間がかかるという問題があったが,Tolmachevらによって新たなビームサーチ法が施され,JUMAN++ver.~2では解析時間の短縮化が図られている\cite{tolmachev-etal-2018-juman}.しかしながら,この研究の解析対象も漢字仮名まじり文であり平仮名文ではない.また,公開中のJUMAN++では,ユーザが形態素定義を変更し平仮名文で学習し直すことは容易ではないと考えられる.一方,平仮名文の形態素解析にRNNを用いた研究として,井筒らはBi-LSTMCRFに基づく手法を提案しているが,その解析精度は,MeCabと比べて低く,改善の余地が残されている\cite{izutsu-komiya-2021}.なお,日本語以外の言語として中国語に対しても,RNNなどの深層学習を用いた形態素解析手法が様々提案されており,その有効性が報告されているが\cite{chen-etal-2015-long,ma-hovy-2016-end,ma-etal-2018},日本語に対する有効性は明らかではない.以下,2章では提案手法の詳細を紹介する.3章では,平仮名文を対象とした形態素解析実験を実施し,提案手法の有効性を示す.4章では,3章の実験結果の分析や,漢字仮名まじり文に対する形態素解析実験に基づいて,提案手法の特徴を考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{RNNとロジスティック回帰を用いた平仮名文の逐次的な形態素解析} 本研究では,平仮名文に対する高精度かつ実用的な速度での解析を実現するために,RNNとロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案する.具体的には,Neubigらの点予測による手法\cite{neubig-etal-2011-pointwise}においてロジスティック回帰\footnote{Neubigらの点予測による手法\cite{neubig-etal-2011-pointwise}を実装したKyTeaでは,分類器として線形SVMとロジスティック回帰を選択可能だが,ロジスティック回帰が与える確率を提案手法では用いる.}が与える確率と,新たに構築したRNNが与える確率とを線形結合したスコアを用いて,文頭から逐次的に解析する.また,提案手法は,Neubigらの手法\cite{neubig-etal-2011-pointwise}と同様に,形態素解析を単語境界の推定と形態素情報の推定とに分けて段階的に処理する(図1参照).なお,形態素情報の推定では,品詞(大分類),品詞(細分類),活用型,活用形,見出し語の漢字仮名表記,読み,の6種類の情報を独立に推定する\footnote{本研究の実装では,これら6種類の形態素情報の推定を逐次的に行っているが,並列処理することも考えられる.}.ここで,本研究では,平仮名文を対象とするため,見出し語の漢字仮名表記を原形の代わりに推定している.これは,我々の先行研究\cite{moriyama-2018}と同様に,平仮名文の同音異義語の識別を考慮するためである.以下では,提案手法における単語境界の推定と形態素情報の推定をそれぞれ順に説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-2ia4f1.pdf}\end{center}\caption{提案手法の処理手順}\label{flow}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語境界の推定}\label{ws}単語境界の推定では,Neubigらの手法\cite{neubig-etal-2011-pointwise}と同様に,1文を構成する文字列$\mbox{\boldmath$x$}=c_1c_2\cdotsc_n$を入力とし,各文字間に単語境界の有無を示す単語境界タグ$\mbox{\boldmath$t$}=t_1t_2\cdotst_{n-1}$を出力する.ここで,単語境界タグ$t_i$は,文字$c_i$と$c_{i+1}$の間に単語境界が存在するとき1,存在しないとき0をとる.また,提案手法では,各文字間に単語境界が存在するか否かを文頭から順に判定し,その判定をすべての文字境界について繰り返す.提案手法ではまず,ロジスティック回帰とRNNとをそれぞれ用いて,各文字間に単語境界が存在する確率と存在しない確率を推定する.その後,両者が推定した2つの確率を線形結合し,その値に基づいて,単語境界の有無を判定する.すなわち,文字$c_i$と$c_{i+1}$の単語境界の有無$t_i$を式(\ref{wb-eq})により推定する.\begin{eqnarray}\label{wb-eq}t_i=\argmax_{v\in\{0,1\}}\left((1-\alpha)P_{lr}(t_i=v)+\alphaP_{rnn}(t_i=v)\right)\end{eqnarray}ここで,$P_{lr}(t_i=v)$はタグ$t_i$が$v$である確率をロジスティック回帰により推定した値,同様に,$P_{rnn}(t_i=v)$はRNNにより推定した値を表す.また,$\alpha(0\le\alpha\le1)$は補完係数であり,パラメータ調整用の開発データを用いて実験的に決定する.以下では,ロジスティック回帰とRNNの各々による単語境界の推定について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ロジスティック回帰による単語境界の推定}\label{ws-lr}確率$P_{lr}(t_i)$を算出する際にロジスティック回帰で用いる素性は,タグ位置$i$の前後$m$文字からなる長さ$2m$の文字列中から得られる,文字n-gramと文字種n-gramである.これらの素性はNeubigらの手法\cite{neubig-etal-2011-pointwise}の単語分割にて用いられている素性と同様であるが,本研究では平仮名文を扱っているため,文字種は,平仮名(H),数字(N),その他(O)の3種とする.例えば,図\ref{flow}の入力文「しかし、はってんとじょうこくからのひはんがつよい。」において,$i=3,m=3$とし,1-gramから3-gramまで使用するとすると,$P_{lr}(t_3)$を算出する際の素性は以下となる.\begin{itemize}\item文字1-gram:し$|$か$|$し$|$、$|$は$|$っ\item文字2-gram:しか$|$かし$|$し、$|$、は$|$はっ\item文字3-gram:しかし$|$かし、$|$し、は$|$、はっ\item文字種1-gram:H$|$H$|$H$|$O$|$H$|$H\item文字種2-gram:HH$|$HH$|$HO$|$OH$|$HH\item文字種3-gram:HHH$|$HHO$|$HOH$|$OHH\end{itemize}なお,Neubigらの手法では辞書素性を用いることも可能であり,提案手法においても原理的には使用可能であるが,簡単化のため本研究では使用していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{RNNによる単語境界の推定}\label{ws-rnn}確率$P_{rnn}(t_i)$を算出する際に用いるRNNの概要を図\ref{ws-RNN}に示す.まず,\ref{ws-lr}節で述べた文字n-gramや文字種n-gramのすべての素性の各々をEmbeddingを通し分散表現とする.次に,各素性のEmbeddingを連結したベクトルをRNNの入力とし,順方向のLSTM(LongShort-TermMemory)\cite{LSTM}により変換する.最後に,線形変換とSoftmax関数を適用し,2次元の出力を得る.この出力は単語境界の有無の確率分布を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-2ia4f2.pdf}\end{center}\caption{単語境界推定のためのRNNの概要}\label{ws-RNN}\vspace{-1\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,Embeddingの事前学習は実施しておらず,学習開始時点ではEmbeddingは乱数により無作為に初期化し,Embeddingを含むモデル全体をend-to-endで学習させている.提案手法と同様に,RNNを用いた日本語分割手法としてKitagawaとKomachiの手法\cite{kitagawa-komachi-2018-long}があるが,提案手法とは,タグを付与する対象とタグの種類数(出力層の次元数)に違いがある.KitagawaとKomachiの研究では,各文字に対して,'B','I','E','S'(順に,「単語の先頭」,「単語の内部」,「単語の末尾」,「一文字からなる単語」)の4種類のタグを付与すべく,RNNが設計されている.それに対し,提案手法では,ロジスティック回帰が与える確率$P_{lr}(t_i)$との線形結合を行うため,各文字境界に対して,単語境界の有無の2種類のタグを付与するべく,RNNを設計している.また,両手法とも,Neubigらの手法\cite{neubig-etal-2011-pointwise}を参考として,文字n-gramや文字種n-gramをRNNの入力に利用するが,タグを付与する対象が異なっているため,その取り方は完全に一致しているわけではない.提案手法では,ロジスティック回帰が与える確率$P_{lr}(t_i)$との線形結合を行うため,Neubigらの手法\cite{neubig-etal-2011-pointwise}と同一の素性としている.なお,\ref{ws-lr}節と同様に,提案手法においても辞書素性を使用可能であるが,本研究では簡単化のため使用していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{形態素情報の推定}形態素情報の推定では,\ref{ws}節の単語境界の推定によって単語に分割された1文を入力とし,各単語の6種類の形態素情報(品詞(大分類),品詞(細分類),活用型,活用形,見出し語の漢字仮名表記,読み)をそれぞれ推定する(図\ref{flow}参照).6種類の各形態素情報を推定する枠組みは同一であり,それぞれ独立に実行される.そのため以下では,品詞(大分類)の推定方法のみを取り上げ説明する.また,本節では品詞(大分類)を品詞と略称する.品詞の推定では,1文を構成する単語列$\mbox{\boldmath$w$}=w_1w_2\cdotsw_k$を入力とし,各単語の品詞ラベル$\mbox{\boldmath$l$}=l_1l_2\cdotsl_k$を出力する.ここで,$l_j$は,単語$w_j$の品詞ラベルである.また,本手法では,各単語の品詞ラベルを文頭から順に判定し,その判定を文末まで繰り返す.品詞の推定においても,単語境界推定と同様に,まず,ロジスティック回帰とRNNとをそれぞれ用いて,各単語が各品詞ラベルを持つ確率を推定する.その後,両者が推定した2つの確率を線形結合し,その値に基づいて,各単語の品詞ラベルを判定する.品詞の推定は多値分類問題となるが,各単語に対して品詞を推定する際,各単語が取り得る品詞ラベルの種類数をどのように考えるかによって,多値分類器の構成方法には2つの方法が考えられる\cite{mori-etal-2011-nlp}.一つは,品詞ラベルをすべて集めた集合を$L$とするとき,すべての語彙に対して,$|L|$値分類問題を解く1つのモデルを作る方法であり,全体モデルと呼ばれる.もう一つは,ある単語$w_j$が実際に取り得るラベルは$L$の部分集合$L_j$であることを考慮し,各語彙に対してその語彙だけのためのモデルを作る方法であり,個別モデルと呼ばれる\footnote{\url{http://www.phontron.com/kytea/train-ja.html}}.本研究では,ロジスティック回帰による推定とRNNによる推定とで異なるモデルを採用する.すなわち,ロジスティック回帰による推定ではNeubigらの手法\cite{neubig-etal-2011-pointwise,mori-etal-2011-nlp}と同様に個別モデルを採用し,RNNによる推定では訓練データ量がスパースとなることを考慮し全体モデルを採用する.個別モデルが語彙ごとにモデルを使い分けるのに対し,全体モデルはすべての単語で共通のモデルを使用することから,多くの場合,個別モデルにより分類するクラス数は,全体モデルにより分類するクラス数より小さくなる.そのため,両者が推定した確率値を線形結合する際には,ロジスティック回帰(個別モデル)により分類するクラス数に基づき,RNN(全体モデル)が推定した確率値を補正する.具体的には,単語$w_j$の品詞ラベル$l_j$を式(\ref{ma-ketugou})により推定する.\begin{eqnarray}\label{ma-ketugou}l_j=\argmax_{v\inL_j}\left((1-\beta)P^{個}_{lr}(l_j=v)+\beta\frac{P^{全}_{rnn}(l_j=v)}{\Sigma_{v\inL_j}P^{全}_{rnn}(l_j=v)}\right)\end{eqnarray}ここで,$P^{個}_{lr}(l_j=v)$は単語$w_j$の品詞ラベルが$v$である確率をロジスティック回帰(個別モデル)により推定した値を,同様に,$P^{全}_{rnn}(l_j=v)$はRNN(全体モデル)により推定した値をそれぞれ表す.$L_j$は,単語$w_j$が取り得る品詞ラベルを集めた集合を表し\footnote{実際には訓練データにおいて各単語に付与されているラベルを集めている.},$\Sigma_{v\inL_j}P^{個}_{lr}(l_j=v)=1$となる.なお,品詞ラベルをすべて集めた集合$L$に関しては,$\Sigma_{v\inL}P^{全}_{rnn}(l_j=v)=1$が成り立つ.ここで,$|L_j|\le|L|$であるため,式(\ref{ma-ketugou})では,$P^{全}_{rnn}(l_j=v)$を補正した上で,$P^{個}_{lr}(l_j=v)$との線形結合を行っている.なお,$\beta(0\le\beta\le1)$は補完係数であり,パラメータ調整用の開発データを用いて実験的に決定する.$\beta$は,図\ref{flow}に示す6種類の各形態素情報で個別に設定できるが,本研究では予備実験により同一の値を設定している(\ref{comparison-method}節参照).以下では,ロジスティック回帰とRNNの各々による品詞の推定を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ロジスティック回帰による品詞の推定}\label{ma-lr}確率$P^{個}_{lr}(l_j)$を算出する際にロジスティック回帰で用いる素性は,Neubigらの手法\cite{neubig-etal-2011-pointwise}の品詞推定にて用いられている素性と同様である.具体的には,推定する単語$w_j$の直前の$m$文字からなる文字列$\mbox{\boldmath$c_-$}$と直後の$m$文字からなる文字列$\mbox{\boldmath$c_+$}$の連結$\mbox{\boldmath$c_-c_+$}$に含まれる,文字n-gramと文字種n-gramである.ただし,本研究では平仮名文を扱っているため,文字種は,平仮名(H),数字(N),その他(O)の3種である.例えば,図\ref{flow}における単語境界推定の出力文「しかし/、/はってん/とじょう/こく/から/の/ひはん/が/つよい/。」において,$j=3,m=3$とし,1-gramから3-gramまで使用するとすると,$P^{個}_{lr}(l_3)$を算出する際の素性は,文字列「かし、とじょ」から得られ,以下となる.\begin{itemize}\item文字1-gram:か$|$し$|$、$|$と$|$じ$|$ょ\item文字2-gram:かし$|$し、$|$、と$|$とじ$|$じょ\item文字3-gram:かし、$|$し、と$|$、とじ$|$とじょ\item文字種1-gram:H$|$H$|$O$|$H$|$H$|$H\item文字種2-gram:HH$|$HO$|$OH$|$HH$|$HH\item文字種3-gram:HHO$|$HOH$|$OHH$|$HHH\end{itemize}ロジスティック回帰による品詞推定モデルは,個別モデルに基づくため語彙ごとに作る.なお,Neubigらの手法では,推定対象の単語が訓練データに出現せず,辞書に出現する場合は,その単語の辞書情報をそのまま出力するという形で辞書を利用しているが,簡単化のため本研究では使用していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{29-2ia4f3.pdf}\end{center}\caption{形態素情報推定のためのRNNの概要}\label{ma-RNN}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{RNNによる品詞の推定}確率$P^{全}_{rnn}(l_j)$を算出する際に用いるRNNの概要を図\ref{ma-RNN}に示す.\pagebreakまず,\ref{ma-lr}節で述べた文字n-gramと文字種n-gramのすべての素性に加えて,推定対象の単語を抽出し,その各々をEmbeddingを通し分散表現とする.本研究では,Neubigらの手法\cite{neubig-etal-2011-pointwise}の全体モデルの場合と同様に,推定対象の単語そのものを分類器の素性として利用する.次に,\ref{ma-lr}節で述べた文字n-gramと文字種n-gramのすべてと推定対象の単語の各Embeddingを連結したベクトルをRNNの入力とし,順方向のLSTMにより変換する.最後に,線形変換とSoftmax関数を適用し,$|L|$次元の出力を得る.この出力は品詞ラベルの確率分布を表す.なお,\ref{ws-rnn}節と同様に,Embeddingの事前学習は実施しておらず,学習開始時点ではEmbeddingは乱数により無作為に初期化し,訓練データの正解の単語境界情報を用いて,Embeddingを含むモデル全体をend-to-endで学習させている.また,前述したように,RNNによる品詞推定は全体モデルに基づくため,各単語に対して適用されるモデルは共通である.また,\ref{ma-lr}節と同様に,簡単化のため本研究では辞書を使用していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} \label{sec:experiment}平仮名文の形態素解析における提案手法の有効性を確認するため,従来手法との比較実験を実施した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{04table01.tex}\caption{実験データ}\label{experimental-data}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験データ}\label{ex-data}実験では,京都大学テキストコーパスVersion4.0の各見出し語を平仮名に置換したものを利用する\footnote{京都大学テキストコーパスの読みは,その作成マニュアル\cite{kcmanual}において基本的に修正されていないことが言及されており,その一部に誤りが含まれている.例えば,「1994」の読みが「いちきゅうきゅうよん」となっている誤りが確認されている\cite{moriyama-2018}.}.コーパスは38,400文,972,894単語,2,320,340文字からなり,これを訓練データ,開発データ及びテストデータに分割して使用する.詳細を表\ref{experimental-data}に示す.1月17日の一般記事(社説以外の記事)を開発データとし,1月12日から1月16日の5日分の一般記事のうち,1日分をテストデータとする実験を5回実施する.各回における訓練データは,当該テストデータと開発データを除くすべてを使用することとした.例えば,1月16日の一般記事をテストデータとする場合,訓練データは1月1日から1月15日の一般記事と1月から12月の社説記事となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}\label{comparison-method}提案手法(以下,[LR+RNN]と記す)との比較のため,以下7つの比較手法を設けた.\begin{itemize}\item{[MeCab]}:形態素解析器MeCab(ver.~0.996)を用いる手法.MeCabのモデルの学習にはseed辞書,設定ファイル及びコーパスを用意する必要がある\footnote{\url{https://taku910.github.io/mecab/learn.html}}.seed辞書は\ref{ex-data}節で述べた訓練データの語彙から作成した.素性抽出テンプレート等の設定ファイルは,MeCabの配布辞書のひとつであり,京都大学テキストコーパスの品詞体系に従うJUMAN辞書のものと同一とした.ただし,JUMAN辞書の設定では学習時に正解を判定する条件を形態素情報のうち活用形までの一致としているため,ひらがな文の解析に則すよう形態素情報すべての一致を正解とするよう設定を変更している.コーパスは\ref{ex-data}節で述べた訓練データをMeCabのフォーマットに修正して作成した.ハイパーパラメータCは1.0を指定し,コーパス中に出現する素性は,頻度によるフィルタをかけず,すべて使用した.\item{[KyTea]}:形態素解析器KyTea(ver.~0.4.6)を用いる手法.本実験の訓練データを使い,一から学習したモデルを用いる.訓練時のオプションは``-full''と``-model''のみを指定し,辞書を使用せず,分類器はデフォルトの線形SVMとしている.また,解析時のオプションは``-model''のみを指定している.\item{[CRFs+RNNLM]}:我々の先行研究手法\cite{moriyama-2018}.なお,使用されている訓練データは本実験の訓練データと同一である.\item{[CRFs]}:[CRFs+RNNLM]において,補間係数$\alpha$を0とし,CRFsが与える確率のみを用いて推定する手法.\item{[RNNLM]}:[CRFs+RNNLM]において,補間係数$\alpha$を1とし,RNNLMが与える確率のみを用いて推定する手法.\item{[LR]}:提案手法[LR+RNN]において,補間係数$\alpha,\beta$をともに0とする手法.\item{[RNN]}:提案手法[LR+RNN]において,補間係数$\alpha,\beta$をともに1とする手法.\end{itemize}これら7つの比較手法と提案手法の違いを表\ref{method-feature}に整理して示す.これらの手法は,判定アルゴリズムが逐次的であるか,ラティスベースであるかの違い,また,スコア算出器や分類器として,局所情報を素性とする機械学習のみを用いるのか,大域情報を考慮できるRNNのみを用いるのか,両者を用いるのかという違いの2つの観点で整理できる.[LR+RNN]における単語分割推定と形態素情報推定の際に使用したRNNのハイパーパラメータを表\ref{hyperparameters}に示す.このうち,対象単語のEmbedding次元数は形態素情報推定のためのRNNのみに関わるハイパーパラメータであり,その他は,単語分割推定と形態素情報推定の両方でともに同じ値を用いた.なお,Adamの各パラメータは推奨値とした.また,エポック数は,開発データ上でのF値が収束するまでとした.提案手法及び上記7つの比較手法のモデルの学習は,\ref{ex-data}節で述べた訓練データのみを用いて行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{04table02.tex}\caption{提案手法と比較手法の特徴}\label{method-feature}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{04table03.tex}\caption{RNNのハイパーパラメータ}\label{hyperparameters}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法における補完係数$\alpha$と$\beta$は,表\ref{experimental-data}のテストデータごとに訓練データが変わるため,それぞれの訓練データごとに,開発データにおいてF値を最も高くする$\alpha$と$\beta$を0から1まで0.1刻みで探索し,それらを採用した.ただし,$\beta$の探索は正解の単語分割を与えた上で実施し,また,$\beta$は6種類の形態素情報共通とした.表\ref{tab:weight}の上2行に,本実験において採用した補完係数$\alpha$と$\beta$を示す.また,単語境界推定と形態素情報推定のいずれにおいても,提案手法で用いる素性を決定する際の窓幅は$m=3$とし,n-gramは1-gramから3-gramまで使用した.提案手法はscikit-learn\cite{scikit-learn},及び,PyTorch\cite{NEURIPS2019_9015},PyTorch-lgnite\cite{pytorch-ignite}を使いPythonで実装した.なお,我々の先行研究手法[CRFs+RNNLM]もPythonで実装している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{04table04.tex}\caption{3章と4.4節の各実験における[LR+RNN]の補完係数$\alpha$と$\beta$}\label{tab:weight}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}解析時間の評価では,プログラムの実行時間をbashのtimeにより計測し,1文あたりの平均解析時間を算出した.なお,推論時のプログラムはすべて,CPU:IntelCorei5-6500,RAM:8.0GBを搭載したマシン上で実行し,GPUは使用していない.また,解析精度の評価には適合率,再現率及びF値を使用する.それぞれの計算式は以下の通りである.\[Precision=\frac{\mbox{Numberofcorrectmorphemes}}{\mbox{Numberofpredictedmorphemes}}\]\[Recall=\frac{\mbox{Numberofcorrectmorphemes}}{\mbox{Numberofgroundtruthmorphemes}}\]\[F=\frac{2*Precision*Recall}{Precision+Recall}\]我々の先行研究\cite{moriyama-2018}と同じく,評価基準は次の5つを設けた.\begin{itemize}\itemlevel0:単語分割が正解.\itemlevel1:level0に加え品詞(大分類)が正解.\itemlevel2:level1に加え品詞(細分類)が正解.\itemlevel3:level2に加え活用型と活用形が正解.\itemlevel4:level3に加え見出し語の漢字仮名表記と読みが正解.\end{itemize}level4の正解は同音異義語の識別の成功に相当する.なお,上述の各評価指標の値は5回の実験結果の平均をとったものとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{04table05.tex}\caption{実験結果}\label{experimental-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec:experimental-result}実験結果を表\ref{experimental-result}に示す\footnote{[RNNLM]が[CRFs+RNNLM]より遅いのは単語数がより多い経路を[RNNLM]が選択する傾向が強かったためである.}.提案手法[LR+RNN]は,我々の先行研究手法[CRFs+RNNLM]と比較して,100倍以上高速になっている.表\ref{method-feature}に両者の違いを示した通り,[CRFs+RNNLM]はラティス上の経路ごとにRNNLMによるスコア計算を繰り返し計算する必要があるのに対し,[LR+RNN]は,文字列長あるいは単語長だけRNNを適用すればよく,計算量を大きく抑えることができる.この点が提案手法の高速化を実現できた主要因と考えられる.その他の要因として,[CRFs+RNNLM]はLSTMの各層の隠れ状態の次元数が1500であるの対して,[LR+RNN]は約1/8の200であり,RNNのモデルサイズを小さくすることができた点も考えられる.一方,提案手法[LR+RNN]の解析時間は,[MeCab]や[KyTea]には及ばなかった.ただし,提案手法がPythonで実装されているのに対し,[MeCab]や[KyTea]はC++で実装されており,同一言語で各手法を実装すれば,各手法の解析時間の差は表\ref{experimental-result}の結果より縮まると考えられる.また,本実験では図\ref{flow}の6種類の形態素情報の推定を逐次的に行っているが,これらを並列処理することにより,更なる高速化が期待できる.いずれにしろ,提案手法の更なる高速化は今後の課題である.次に,解析精度に目を向けると,提案手法[LR+RNN]は,単語分割性能を示すlevel0と,最も厳しい評価基準であるlevel4のF値において,最高値を達成しており,level4のF値において2番目に高い値を示した[CRFs+RNNLM]を有意に上回った($p<0.05$)\footnote{1月12日から1月16日の5つのテストデータに対する結果に基づき,対応のあるt検定を実施し確認した.なお,本実験結果の検定はすべて同じ方法で実施した.}.提案手法[LR+RNN]は,我々の先行研究手法[CRFs+RNNLM]と比較し,同程度以上の高い解析精度を達成しつつ,解析時間を大幅に削減できていることを確認した.また,[KyTea]や[MeCab]とそれぞれ比較した場合,提案手法[LR+RNN]は全levelにおいて有意に上回った(いずれも$p<0.01$).提案手法は,平仮名文を対象とする場合において,代表的な日本語形態素解析器を上回る高い解析精度を達成していることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} 本章では,前章の実験結果に基づき,平仮名文の形態素解析における提案手法の特徴を考察する.具体的には,[CRFs+RNNLM]や[KyTea],[LR],[RNN]による各解析精度との比較を通じて,提案手法の利点や誤り傾向について述べる.また,漢字仮名まじり文に対して提案手法を適用し,平仮名文に対する解析との違いについて考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法と[CRFs+RNNLM]の比較}\label{subsec:comparison-cfrs_rnnlm}本節では,提案手法[LR+RNN]と我々の先行研究手法[CRFs+RNNLM]の解析結果に基づき,表\ref{method-feature}に示す両者の違いが解析精度に及ぼす影響を考察する.まず,単語分割を意味するlevel0や,最も厳しい評価基準であるlevel4のF値において,提案手法[LR+RNN]が[CRFs+RNNLM]を有意に上回った原因を考察する.表\ref{experimental-result}の適合率に着目すると,level0やlevel4において,[CRFs+RNNLM]が提案手法を著しく下回っていることがわかる.図\ref{crfs+rnnlm_failure}に,[CRFs+RNNLM]の適合率を著しく低下させている例を示す.平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい.いずれの例も訓練データに出現しない未知語が入力文に含まれており,提案手法と[CRFs+RNNLM]がいずれも形態素解析に失敗した例となっているが,[CRFs+RNNLM]は未知語を構成する文字列を細かく刻み単語分割していることがわかる.そのため,適合率の分母が増加し,適合率を押し下げたものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\resizebox{\textwidth}{!}{%\begin{tabular}{l|l}\thlineAnnotation&開会/式/の/後/、/アイス/ダンス/の/コンパルソリー/の/2/課題/を/行い/、\\&/都築/奈加子/・/ユーリス/・/ラズグリャエフ/組/が/首位/に/立った/。\\\hline[LR+RNN]&開会/式/の/後/、/UNK/の/UNK/の/に/課題/を/行い/、\\&/UNK/過去/・/UNK/・/UNK/含み/が/首位/に/立った/。\\\hline[CRFs+RNNLM]&開会/式/の/あと/、/愛す/ダンス/の/今/パ/る/そり/UNK/の/二/過大/を/行い/、\\&/都筑/中/コ/・/ユー/利/ス/・/裸/図/具/李/UNK/含み/が/首位/に/立った/。\\\hline\hlineAnnotation&今季/から/ガンバ/大阪/の/指揮/を/執る/ジークフリート/・/ヘルト/\\&新/監督/が/13/日/、/ヨシップ/・/クゼ/、/フリードリッヒ/・/コンシリア/\\&両/新/コーチ/と/新/加入/の/FW/ハンス/・/ヒルハウス/、/MF/\\&スクリーニャ/・/ビエツコスラブ/と/ともに/来/日/した/。\\\hline[LR+RNN]&今季/から/ガンバ/大阪/の/式/を/UNK/UNK/・/減る/と/新/監督/が/\\&13/日/、/UNK/・/UNK/、/UNK/UNK/・/UNK/両親/コーチ/と/\\&新/加入/の/FW/ハンス/・/UNK/薄/、/UNK/・/UNK/と/ともに/来/日/した/。\\\hline[CRFs+RNNLM]&今/季/から/ガンバ/大阪/の/指揮/を/取る/児/UNK/区/フリー/と/・/経る/と/\\&新/感得/が/13/日/、/よし/UNK/・/区/是/、/フリー/取り/UNK/・/今/シリア/\\&良心/コーチ/と/新/加入/の/FW/ハンス/・/昼/ハウス/、/MF/\\&ス/繰り/UNK/に/UNK/・/微/越/古/スラブ/と/ともに/来/日/した/。\\\hline\hlineAnnotation&後半/は/オロチ/の/七/つ/の/分身/が/現れる/スペクタクルで/、\\&/橋之助/が/スサノオ/を/豪快に/、/丑之助/が/稲田姫/を/かれんに/演じた/。\\\hline[LR+RNN]&後半/は/UNK/の/七/つ/の/分身/が/現れる/UNK/で/、\\&/UNK/が/UNK/を/UNK/に/、/牛/の/UNK/姫/を/UNK/に/演じた/。\\\hline[CRFs+RNNLM]&後半/は/お/ろ/地/の/七/つ/の/分身/が/現れる/す/UNK/他/くる/で/、/\\&波斯/の/す/けが/す/さ/の/尾/を/格/階/に/、/牛/の/す/気/が/維/灘/姫/を/\\&課/連/に/演じた/。\\\hline\hlineAnnotation&文章/の/端正/、/物語/上手/、/時代/考証/の/確か/さ/、/下級/武士/や/市井/\\&の/人々/へ/の/優しい/視点/、/英雄/嫌い/など/藤沢/周平/の/魅力/を/\\&次々/に/解き明かして/いく/。\\\hline[LR+RNN]&文章/の/UNK/、/物語/上手/、/時代/交渉/の/確か/さ/、/UNK/や/姿勢/\\&の/人々/へ/の/やさしい/視点/、/英雄/嫌い/など/藤沢/UNK/の/魅力/を/\\&次々/に/UNK/いく/。\\\hline[CRFs+RNNLM]&文/相/の/短/製/、/物語/上手/、/時代/公傷/の/確か/さ/、/加/休部/市/や/市井/\\&の/人々/へ/の/やさしい/支店/、/英雄/嫌い/など/藤沢/臭/塀/の/魅力/を/\\&次々/に/とき/あかし/テイク/。\\\hline\hline\multicolumn{2}{l}{※平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい.}\\\multicolumn{2}{l}{※UNKは未知語を意味する.}\\\end{tabular}}%\caption{未知語が含まれる文に対する提案手法と[CRFs+RNNLM]の解析例}\label{crfs+rnnlm_failure}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%[CRFs+RNNLM]は,言語モデルによって算出される次の単語の生起確率を用いているため,ラティス上において,未知語が含まれるパスはスコアが著しく低くなり選択されにくくなる.そのため,未知語を構成する文字列を細かく刻み,訓練データに存在した単語に分割したパスが選択されることになると考えられる.なお,ラティスベースの形態素解析を行う[MeCab]や[CRFs],[RNNLM]も同様に,level0の適合率が低く,その中でも言語モデルを利用する[RNNLM]の低下は著しいことが確認できるが,これらも同様の理由が考えられる.一方,提案手法[LR+RNN]は,逐次的に判定するため,未知語を構成する文字列を未知語1語として判定する傾向が強いと考えられる.また,提案手法は,表層形を元にRNNにより推定を行うため,入力文の一部に未知語があった場合でも他の箇所へ影響は少なく,未知語に対してある程度頑健と考えられる.\ref{sec:experiment}章の実験では,\ref{ex-data}節で述べた通り,新聞記事を日付ごとに分割して実験データを作成しており,テストデータには訓練データに出現しない未知語が比較的多く含まれる形となっている.そのことも提案手法[LR+RNN]に有利に働いたものと考えられる.なお,本研究では,新聞記事全体から文単位でランダムにサンプリングして別の実験データを作成し,未知語が含まれる割合が低下したテストデータに対しても評価実験を実施しており,\ref{sec:experiment}章の実験結果との比較からも,提案手法[LR+RNN]の未知語に対する頑健性を確認している(詳細は付録\ref{appendixA}を参照されたい).次に,level0やlevel4の解析において,[CRFs+RNNLM]は成功しているものの,提案手法が失敗した例を考察する.そのような例を図\ref{ws-failure}に示す.%上の2例がlevel0での失敗例,その下2例がlevel4での失敗例である.平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい.最初の例では,「三/党(さん/とう)」が正解であるのに対し,提案手法は「山刀(さんとう)」と解析誤りを犯しているが,[CRFs+RNNLM]は正解と同一の単語分割及び漢字仮名表記の推定に成功している.[CRFs+RNNLM]はビームサーチを用いているものの,RNNLMをラティス上の経路ごとに適用するため,一部の後方文脈を考慮できる.そのため,後方の「政局」を考慮して,「三/党(さん/とう)」の解析に成功したものと考えられる.それに対して,提案手法は逐次的に単語境界を判定しているため,順方向LSTMにより前方の大域的な情報を考慮しているといえども,後方の「政局」を考慮できず,この解析に失敗している.上から2例目も同様に考察できる.また,上から3例目と4例目では,提案手法は単語分割に成功しているものの,漢字仮名表記の推定,すなわち,同音異義語の識別に失敗している.これらの例でも,後方文脈を考慮できないことにより,提案手法が失敗しているものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\resizebox{\textwidth}{!}{%\begin{tabular}{l|l}\thlineAnnotation&三/党/が/こういう/状況/なら/政局/は/安定/できる/。\\\hline[CRFs+RNNLM]&三/党/が/こういう/状況/なら/政局/は/安定/できる/。\\\hline[LR+RNN]&山刀/が/こういう/状況/なら/政局/は/安定/できる/。\\\hline\hlineAnnotation&第/三/巻/「/ヨーロッパ/文明/と/の/対話/」/は/五/月/に/刊行/さ/れる/予定/。\\\hline[CRFs+RNNLM]&第/三/巻/「/ヨーロッパ/文明/と/の/対話/」/は/五/月/に/刊行/さ/れる/予定/。\\\hline[LR+RNN]&第/山間/「/ヨーロッパ/文明/と/の/対話/」/は/五/月/に/刊行/さ/れる/予定/。\\\hline\hlineAnnotation&この/日/は/別の/校舎/で/通常/の/授業/が/行わ/れて/いた/が/、/学生/に/\\&混乱/は/なかった/。\\\hline[CRFs+RNNLM]&この/日/は/別の/校舎/で/通常/の/授業/が/行わ/れて/いた/が/、/学生/に/\\&混乱/は/なかった/。\\\hline[LR+RNN]&この/日/は/別の/公社/で/通常/の/授業/が/行わ/れて/いた/が/、/学生/に/\\&混乱/は/なかった/。\\\hline\hlineAnnotation&正解/は/大学/入試/センター/発表/。\\\hline[CRFs+RNNLM]&正解/は/大学/入試/センター/発表/。\\\hline[LR+RNN]&政界/は/大学/入試/センター/発表/。\\\hline\hline\multicolumn{2}{l}{※平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい.}\\\end{tabular}}%\caption{提案手法が失敗し,[CRFs+RNNLM]が成功した例}\label{ws-failure}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法は,高速化を図るために逐次的な単語分割手法を採用しており,高速性を犠牲にしないためには,逐次的に判定を行う枠組みにおいて単語分割精度を向上させる方策を考える必要がある.例えば,大域的な情報をより強く考慮するため,双方向LSTM\cite{BLSTM}やAttention\cite{NIPS2017_attention}などの活用が考えられるが,その改善策については今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法と[KyTea]の比較}本節では,提案手法[LR+RNN]と,[KyTea]の解析結果に基づき,表\ref{method-feature}に示す両者の違いが解析精度に及ぼす影響を考察する.表\ref{experimental-result}における提案手法[LR+RNN]と[KyTea]の各levelのF値を詳細に見ると,level0において2.44ポイントの差が生じ,その差がlevel1~4においてそのまま引き継がれ2.09~2.35ポイント差となっている.このことから,提案手法が全levelのF値において[KyTea]より有意に上回ったのは,単語分割によって生じた精度差が主な原因であり,その差が形態素情報の推定まで引きずられたためと考えられ,形態素情報の推定では両手法に精度差はほとんどないという仮説が考えられる.そこで,この仮説を検証するため,正解の単語分割に基づいて,提案手法と[KyTea]で形態素情報を推定するという追加実験を実施した.実験設定は,\ref{sec:experiment}章と同様であり,提案手法と[KyTea]の形態素情報推定機構の入力に,正解の単語分割を与えている点のみが異なる.表\ref{additional-experimental-result}に追加実験の結果を示す.なお,正解の単語分割結果を与えているため,正解率で評価している(適合率・再現率・F値はいずれも正解率と同値となる).両者を比較すると,各levelでその差はほとんどなく,この結果は上記の仮説を支持するものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{04table06.tex}\caption{正解の単語分割に基づく提案手法と[KyTea]の形態素情報推定結果}\label{additional-experimental-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方,単語分割level0のF値において,提案手法と[KyTea]との間に有意差が生じた原因は,大域的な情報を考慮しているか否かにあると考えられる.図\ref{ws-correct}に,単語分割において,提案手法は成功し,[KyTea]は失敗した例を示す.平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい.1つ目の例では,「しょうちく(松竹)」が正解であるのに対し,[KyTea]は「しょう/ちく(小/地区)」と解析誤りを犯しているが,提案手法は正解と同一の解析に成功している.提案手法と[KyTea]はいずれも逐次的に単語境界の判定を行うが,提案手法は,「えんげき(演劇)」や「げきじょう(劇場)」といった前方に位置する大域的な情報をRNNにより考慮することができ,「しょうちく(松竹)」の解析に成功したものと考えられる.その他の例についても,同様の考察ができる.提案手法は,逐次的な手法を採用しているため,1文全体の最適経路を求める[CRFs+RNNLM]と比べると大域的な判断を一部犠牲にしていることになるものの,RNNを組み合わせることにより,大域的な情報を考慮することに成功していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\begin{tabular}{l|l}\thlineAnnotation&-/-/早大/の/演劇/博物/館/、/国立/劇場/の/資料/室/、/松竹/の/大谷/図書/\\&館/程度/で/、/民間/の/劇場/併設/は/全国/で/例/が/ない/、/と/思い/ます/。\\\hline[LR+RNN]&-/-/早大/の/演劇/博物/館/、/国立/劇場/の/資料/室/、/松竹/の/大谷/図書/\\&館/程度/で/、/民間/の/劇場/併設/は/全国/で/例/が/ない/、/と/思い/ます/。\\\hline[KyTea]&-/-/早大/の/演劇/博物/館/、/国立/劇場/の/資料/室/、/小/地区/の/大谷/と/署/\\&館/程度/で/、/民間/の/UNK/は/全国/で/例/が/ない/、/と/思い/ます/。\\\hline\hlineAnnotation&この/日/の/五百/メートル/は/宮部/保範/、/行範/の/兄弟/が/36/秒/台/を/\\&マーク/した/後/の/滑走/。\\\hline[LR+RNN]&この/日/の/五百/メートル/は/宮部/保範/、/行範/の/兄弟/が/36/秒/台/を/\\&マーク/した/後/の/滑走/。\\\hline[KyTea]&この/日/の/五百/メートル/は/宮部/保範/、/行範/の/強/大/が/36/秒/台/を/\\&マーク/した/後/の/滑走/。\\\hline\hlineAnnotation&国際/線/は/、/福岡/―/ホノルル/、/札幌/―/ホノルル/、/\\&成田/―/アムステルダム/線/を/増便/し/、/それぞれ/一/日/一/便/に/する/。\\\hline[LR+RNN]&国際/線/は/、/福岡/―/ホノルル/、/札幌/―/ホノルル/、/\\&成田/―/アムステルダム/線/を/増便/し/、/それぞれ/一/日/一/便/に/する/。\\\hline[KyTea]&国際/線/は/、/福岡/―/補/UNK/、/札幌/―/捕/UNK/、/\\&UNK/アムステルダム/線/を/増便/し/、/それぞれ/一/日/一/便/に/する/。\\\hline\hlineAnnotation&党/幹部/の/新党/準備/会/参加/者/は/「/除名/すれば/党/分裂/が/鮮明に/なり/\\&村山/政権/の/基盤/が/揺らぐ/。/除名/さ/れれば/新/会派/は/野党/に/回ら/ざる/\\&を/得/ない/」/と/けん制/する/。\\\hline[LR+RNN]&党/幹部/の/新党/準備/会/参加/者/は/「/除名/すれば/党/分裂/が/鮮明に/なり/\\&村山/政権/の/基盤/が/揺らぐ/。/除名/さ/れれば/新/会派/は/野党/に/回ら/ざる/\\&を/得/ない/」/と/けん制/する/。\\\hline[KyTea]&党/幹部/の/新党/準備/会/参加/者/は/「/除名/すれば/党/分裂/が/鮮明に/なり/\\&村山/政権/の/基盤/が/揺らぐ/。/除名/さ/れれば/新/会/は/UNK/に/\\&回ら/ざる/を/得/ない/」/と/けん制/する/。\\\hline\hline\multicolumn{2}{l}{※平仮名文の解析を便宜上,漢字仮名表記で記載していることに注意されたい.}\\\multicolumn{2}{l}{※UNKは未知語を意味する.}\end{tabular}\end{center}\caption{単語分割において,[KyTea]が失敗し,提案手法が成功した例}\label{ws-correct}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法と[LR]及び[RNN]の比較}本節では,提案手法[LR+RNN]と,提案手法を構成する[LR]及び[RNN]の3つの手法による推定結果を比較し,提案手法の誤り傾向と,その誤りの削減可能性について考察する.表\ref{error-overlapping}に,推定対象箇所のうち,各手法が各levelの評価基準に照らして誤った箇所の数と,その誤り箇所の重なり数を示す.ここで,単語境界推定の評価は,\ref{sec:experiment}章の実験結果に基づいたものであるが,形態素情報推定の評価は,各手法の間で推定対象箇所をそろえるため,正解の単語境界を各手法の入力として再実験\footnote{入力以外の実験設定は\ref{sec:experiment}章の実験と同一である.}した結果に基づいたものである.そのため,単語境界推定時と形態素情報推定時の推定対象箇所の総数は,各手法で同数であり,それぞれ,表\ref{experimental-data}に示す5つのテストデータの合計文字数421,760と合計単語数175,981である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{04table07.tex}\caption{提案手法[LR+RNN]と[LR],[RNN]の各手法が誤った箇所の数と,その誤り箇所の重複}\label{error-overlapping}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%どのlevelにおいても,{[LR]}と{[RNN]}の共通の誤り数と,{[LR+RNN]}と[LR]と[RNN]の共通の誤り数に差はほとんどなく,[LR]と[RNN]がいずれも誤った箇所は,[LR+RNN]でも誤っていることが分かる.[LR]と[RNN]のどちらもが誤っていたとしても,どちらかの手法において下位候補が第1位候補と大差なく高い確率値を持ってる場合などにおいて,式(1)の$\alpha$や式(2)の$\beta$の選び方によっては原理的に正解できる可能性はある.しかし,[LR]と[RNN]のいずれもが誤るような箇所は,\ref{subsec:comparison-cfrs_rnnlm}節で述べた通り,後方文脈などの大域的な情報を考慮する必要のある場合が多いと考えられ,線形結合の補完係数を変更するだけで正解に導くことは難しいと考えられる.一方,[LR+RNN]の誤りのうち,[LR]と[RNN]のどちらか一方が正解しているものについては,推定対象箇所ごとに$\alpha$や$\beta$を適切に選ぶことができれば正解できる可能性があると言える.例えば,単語境界推定において,[LR]と[RNN]のどちらか一方が正解していたものを[LR+RNN]で正解できたとすると,level0のF値は94.37から96.37まで改善することができる.より適切な$\alpha$や$\beta$の設定方法の検討は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{漢字仮名まじり文に対する解析精度との比較}\label{sec:mix-kanji-experiment}\ref{sec:intro}章で述べたように,平仮名文の形態素解析は,漢字仮名まじり文と比べて,一般に難しいタスクであり,その解析精度が大きく低下することが知られている.本節では,その解析精度の低下を提案手法がどの程度,抑制できているかを確認するため,我々の先行研究\cite{moriyama-2018}と同様に,漢字仮名まじり文に対する形態素解析実験を実施し,平仮名文に対する実験結果と比較する.漢字仮名まじり文に対する実験の設定を述べる.実験データには,平仮名文コーパスに変換する前のオリジナルの京都大学テキストコーパスを,表\ref{experimental-data}と同様に,訓練データ,開発データ,テストデータに分割したものを用い,\ref{sec:experiment}章と同様の実験を5回実施した.\ref{sec:experiment}章の実験との違いは,実験データが平仮名文コーパスに変換されているか否かのみである.また,我々の先行研究\cite{moriyama-2018}と同様に,{[KyTea]}や{[MeCab]},{[CRFs+RNNLM]}のほか,JUMAN++(ver.1.02)を用いる手法(以下,{[JUMAN++]})\footnote{JUMAN++は,形態素定義を変更したデータで学習し直すことは難しく,提案手法との公平な比較ができないため,平仮名文での比較は断念したが,参考のため,漢字仮名まじり文に対しては解析実験を実施した.}でも形態素解析を実行し,提案手法と比較した.なお,提案手法{[LR+RNN]},{[KyTea]},{[MeCab]},{[CRFs+RNNLM]}は,表\ref{experimental-data}の訓練データ(ただし,当該箇所のオリジナルの京都大学テキストコーパス)により学習し直したものを利用し,{[JUMAN++]}はJUMAN++(ver.1.02)をデフォルトのまま利用した.また,提案手法の補完係数については,\ref{comparison-method}節と同様の方法で,開発データを用いて新たに決定した.表\ref{tab:weight}の下2行に,本実験において採用した補完係数$\alpha$と$\beta$を示す.その他の実験設定は,\ref{sec:experiment}章と同一とした.表\ref{tab:comparison}に漢字仮名まじり文と平仮名文の形態素解析結果(F値)を示す.下4行の平仮名文の形態素解析精度は,比較の簡単化のために,表\ref{experimental-result}の値を再掲載したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{04table08.tex}\caption{漢字仮名まじり文と平仮名文の形態素解析結果(F値)の比較}\label{tab:comparison}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%解析対象が漢字仮名まじり文から平仮名文に変わった時の各手法の解析精度の低下に着目すると,提案手法の落ち込みは,{[CRFs+RNNLM]}と比べると大きいものの,提案手法と同様に逐次的な解析を行う{[KyTea]}と比べると小さいことがわかる.提案手法は,RNNにより大域的な情報を考慮することによって,平仮名文における曖昧性の一部を解消することに成功し,解析精度の低下を抑制できているものと考えられる.ここで,提案手法における,式(1)の補完係数$\alpha$に着目する.表\ref{tab:weight}を見ると,平仮名文を対象とした場合の最適な補完係数の値は,特に$\alpha$において,漢字仮名まじり文を対象とした場合より,大きくなる傾向が読み取れる.図\ref{fig:hiragana-kanji-alpha-plots}に,\ref{sec:experiment}章や本節の実験において,$\alpha$を0から1まで0.1刻みで変化させたときの,開発データにおけるlevel0のF値をプロットしたグラフを示す.「$\alpha\_112$」は1月12日をテストデータとするときの訓練データで学習したモデルにおいて$\alpha$を探索した結果を示す.平仮名文を対象とした場合のグラフのピークが漢字仮名まじり文を対象とした場合と比べて右に寄っていることが分かる.このことは,漢字仮名まじり文と比べて,平仮名文の曖昧性解消には,RNNによる大域的な情報をより強く考慮することが重要であることを示唆している.提案手法は,RNNによる大域的な情報を考慮する度合いを強めることにより,平仮名文に対する解析精度の低下を抑制しているものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{29-2ia4f4.pdf}\end{center}\caption{\ref{sec:experiment}章(左図:平仮名文対象)と本節(右図:漢字仮名まじり文対象)の実験における$\alpha$の探索}\label{fig:hiragana-kanji-alpha-plots}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方,漢字仮名まじり文に対する解析精度は,参考までに実施した[JUMAN++]を除き\footnote{[JUMAN++]はJUMAN++(ver.1.02)を再学習することなく,デフォルトのまま使用しており,テストデータ部分を含む形で京都大学テキストコーパス全体を訓練データとして用いていると考えられ,単純に比較することはできない.},すべてのlevelにおいて,提案手法{[LR+RNN]}と[KyTea]が拮抗し,どちらかが最も高いF値を達成している.どのlevelにおいても,提案手法{[LR+RNN]}と[KyTea]との有意差は認められなかった(いずれのlevelも$p>0.05$).上述したように,漢字仮名まじり文を解析する際の補完係数の値は0に近づいており,その分だけ,{[LR+RNN]}が手法として,{[LR]}に近づいているといえる.{[LR]}と{[KyTea]}は,用いた機械学習手法に違いがあるだけであり,提案手法と{[KyTea]}の間の差も小さくなっているものと思われる.漢字仮名まじり文に対する提案手法の有効性に関する検証は今後の課題としたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,RNNとロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案した.平仮名文に対する形態素解析実験の結果,単語分割と形態素情報のすべての一致を正解として測定したF値において,提案手法は88.22となり,従来手法{[CRFs+RNNLM]}の87.70を上回る解析精度を達成した.また提案手法は,従来手法{[CRFs+RNNLM]}と比べて100倍以上の高速化を実現していることを確認した.さらに,漢字仮名まじり文に対する解析実験との比較の結果,漢字仮名まじり文と比べて,平仮名文の解析では,大域的な情報がより効果を発揮することを確認した.今後は,双方向LSTM\cite{BLSTM}やAttention\cite{NIPS2017_attention}などの導入を検討し,平仮名文に対する形態素解析精度の向上を図る予定である.また,更なる高速化についても検討したい.さらに,漢字仮名まじり文に対する提案手法の効果について検証を進め,漢字仮名まじり文に対する形態素解析精度の向上にも取り組みたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の提案手法の実装には,scikit-learn及びPyTorch,PyTorch-lgniteを利用した.評価には京都大学テキストコーパス,KyTea,MeCab,JUMAN++を利用した.これらの開発に携わった方々に感謝する.本研究は,一部,科学研究費補助金基盤研究(C)No.19K12127により実施した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{ランダムサンプリングデータを用いた評価実験} label{appendixA}本付録では,新聞記事全体から文単位でランダムにサンプリングすることにより,\ref{ex-data}節とは別の実験データを作成し,その実験データを用いて,\ref{sec:experiment}章と同様の評価実験を実施した結果を示す.ランダムサンプリングして実験データを作成した場合は,日付ごとに分割して作成した場合と比べて,テストデータに未知語が含まれる割合は低下することになる.\ref{sec:experiment}章の実験結果との比較を行うことにより,未知語割合が提案手法や比較手法に与える影響を考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験概要}実験データは,\ref{ex-data}節と同じく,京都大学テキストコーパスVersion4.0の各見出し語を平仮名に置換したものを利用し作成した.コーパス全体に含まれる38,400文(972,894単語,2,320,340文字)から,文単位でランダムに各1,000文をサンプリングしてテストデータおよび開発データを作成し,残りの36,400文を訓練データとする実験を5回実施する.各回の訓練データ,開発データおよびテストデータの詳細を表\ref{experimental-data2}に示す.また,表\ref{tab:oov}に,本付録,及び,\ref{sec:experiment}章の実験における各テストデータに含まれる未知語(各訓練データに出現しない単語)の割合を示す.その他の実験環境や比較手法,評価指標については\ref{sec:experiment}章の実験と同じである.ただし,本実験における提案手法[LR+RNN]の補完係数$\alpha,\beta$は表\ref{tab:weight2}の通りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{04table09.tex}\caption{ランダムサンプリングにより作成した実験データ}\label{experimental-data2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{04table10.tex}\caption{ランダムサンプリングデータ及び日付に基づく分割データの各テストデータにおける未知語の割合}\label{tab:oov}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{04table11.tex}\caption{ランダムサンプリングデータを用いた実験における[LR+RNN]の補完係数$\alpha$と$\beta$}\label{tab:weight2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{04table12.tex}\caption{ランダムサンプリングデータに対する実験結果}\label{experimental-result2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}実験結果を表\ref{experimental-result2}に示す.\ref{sec:experiment}章の実験結果の適合率,再現率,F値(表\ref{experimental-result})は,本付録の実験結果(表\ref{experimental-result2})と比べると,全ての手法で全てのlevelにおいて低い値となっている.上述した通り,\ref{sec:experiment}章の実験データは,本付録の実験データと比べて,テストデータに未知語が含まれる割合が増加しており(表\ref{tab:oov}参照),全体的に精度が低下したものと考えられる.特に,ラティスベースの[MeCab]や[CRFs],[RNNLM],[CRFs+RNNLM]のlevel0の適合率に着目すると,表\ref{experimental-result2}と比べて表\ref{experimental-result}の値は著しく低下しており,テストデータに未知語が含まれる割合が増えると,ラティスベースの形態素解析手法の適合率が低下するという,\ref{subsec:comparison-cfrs_rnnlm}節で述べた考察を確認できる.同様に,[CRFs+RNNLM]と提案手法[LR+RNN]のlevel0のF値に着目すると,[CRFs+RNNLM]では95.89から93.37へと大きく低下するのに対して,[LR+RNN]は95.98から94.37へと低下するものの,その下げ幅が小さくなっており,提案手法の未知語への頑健性を確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{森山柊平}{%2016年東京電機大学工学部第二部情報通信工学科卒業.2018年同大学大学院未来科学研究科情報メディア学専攻修士課程修了.ヴイエムウェア株式会社を経て,現在,Idein株式会社に在職.自然言語処理に関する研究,エッジデバイス向けの画像認識システムの開発に従事.}\bioauthor{大野誠寛}{%2003年名古屋大学工学部電気電子・情報工学科卒業.2007年名古屋大学大学院情報科学研究科博士後期課程修了.博士(情報科学).同年同大大学院国際開発研究科助教.2011年同大情報基盤センター助教.2017年より東京電機大学未来科学部情報メディア学科准教授.この間,日本学術振興会特別研究員.自然言語処理,音声言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V22N05-04
\section{はじめに} 述語項構造は,文章内の述語とその項の間の関係を規定する構造である.例えば次の文,\eenumsentence{\item[][太郎]は[手紙]を{書い}た。}では,「書く」という表現が述語であり,「太郎」と「手紙」という表現がこの述語の項である.述語と項の間の関係は,それぞれの項に,述語に対する役割を表すラベルを付与することで表現される.役割のラベルは解析に用いる意味論に応じて異なるが,例えば表層格を用いた解析では,上記の「太郎」には「ガ格」,「手紙」には「ヲ格」のラベルが与えられる.このように,文章中の要素を述語との関係によって構造的に整理する事で,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解に重要な情報を抽出することができる.このため,述語項構造の解析は機械翻訳,情報抽出,言い換え,含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている\cite{shen2007using,liu2010semantic}.\begin{table}[b]\caption{NAISTテキストコーパス1.4b上での精度比較(F値)}\label{tb:system-accracy-comparison}\input{04table01.txt}\par\vspace{4pt}\smallただし,既存研究のデータセットはそれぞれ訓練,評価に用いた事例数が異なっており,厳密な比較を行うことは難しい.\end{table}述語項構造解析の研究は,英語に関するコーパス主導の研究に追随する形で,日本語においても2005年以降に統計的機械学習を用いた手法が盛んに研究され,これまでに様々な解析モデルが提案されてきた.表\ref{tb:system-accracy-comparison}は,今日までの日本語の述語項構造解析に関する研究報告における主要な解析器の精度をまとめたものである.表には,新聞記事に対する解析精度(F値)を,(1)述語(もしくはイベント性名詞.以下,これらを併せて述語と呼ぶ)の項となる文字列が述語と同一文節内にある事例(文節内事例と呼ぶ),(2)述語の項となる文字列と述語の間に直接的な統語係り受け関係が認められる事例(係り有り事例と呼ぶ),(3)述語の項となる文字列が文内に現れるものの,述語との間に直接的な統語係り受け関係が認められない事例(文内ゼロ照応事例と呼ぶ),(4)述語の項となる文字列が文の外に現れている事例(文間ゼロ照応事例と呼ぶ)の別に記した.なお,「文節単位」は項として適切な文字列表現の最右の形態素が含まれる文節を正解の範囲として評価したものであり,「形態素単位」はその最右の形態素を正解の範囲として評価したものである.既存の解析器では直接係り受け関係がある比較的容易な事例においては$90\%$弱と高い精度が得られているものの,統語的な手がかりがより希薄となるゼロ照応の事例においては,文内ゼロ照応で$50\%$弱,文間ゼロ照応で$20\%$前後\footnote{いずれも正解の述語位置と統語係り受け構造を与えた場合}と精度が低い水準にとどまっており,解析の質に大きな開きがあることが認められる.この結果は,日本語ゼロ照応解析の高い難易度を物語っているが,一方で,ゼロ照応の問題がタスク全体に占める割合は十分に大きく無視できない.表~\ref{tbl:instances-ntc1.5}には,標準的な訓練・評価用コーパスであるNAISTテキストコーパス(NTC)1.5版における項の数\footnote{言語処理学会第21回年次大会ワークショップ「自然言語処理におけるエラー分析」\cite{eaws-2015}の述語項構造解析班報告~\cite{eaws-pas-2015}において提案された評価手法と同様の前処理を施した後の数.外界照応は,何らかの要素を指していることは明らかだが,その要素が文章中に出てきていない事例を表す.}を示したが,ここから項構造解析全体の約$40\%$はゼロ照応に関わる問題であることが分かる.したがって,述語項構造解析の研究ではこれら省略された項の解析精度をいかに向上させるかが課題となる.\begin{table}[b]\caption{NAISTテキストコーパス1.5内の各ラベルの事例数}\label{tbl:instances-ntc1.5}\input{04table02.txt}\end{table}しかし,「ゼロ照応の問題」と一括りに言っても,並列構造や制御動詞構文など比較的統語的な現象として説明可能なものから,文脈や談話構造を読み解かなければならないもの,基本的な世界知識を手がかりに推論しなければならないものなど様々であるにもかかわらず,現状では既存のシステムがどのような種類の問題を解くことができ,あるいは解くことができないのかについて明確な知見が得られていないばかりでなく,現象の分布すら知られていない.そこで,我々はこの難解な項の省略解析へ適切にアプローチするために,現象の特徴を出来る限り詳細に分析し把握することを試みる.本稿では,ゼロ照応に関する事例のうち,手始めに探索のスコープが比較的短く,様々な統語的パターンが観測できる文内ゼロ照応の問題に的を絞り,各事例が持つ特徴を構文構造分析と人手による手がかり分析という二つの観点から類型化し,カテゴリごとの分布と最先端システムによる解析精度を示す.具体的には以下の二つの方法で分析を進め,今後の研究で注力すべき課題を考慮する際の参考となるべく努めた.本研究の成果は次のとおりである.(1)文内ゼロ照応の事例において,既存の解析モデルがモデル化している述語間の項の共有関係・機能動詞構文・並列構造といった特徴が,実際の問題にどの程度影響があるかを確かめるために,NTCや京都大学テキストコーパス(KTC)の正解アノテーション情報を利用してこれらの特徴を持つ事例を機械的に分類し,各カテゴリの事例数や現状の解析精度,各カテゴリが理想的に正答できた場合の精度上昇幅等を示した.結果として,特に,対象述語Pと,項と直接係り受け関係にある述語Oとの間で項を共有している事例の割合が文内ゼロ照応全体の$58\%$存在することが分かったほか,これらの中には,PとOが直接的な並列構造や機能動詞構文の形になっているものばかりでなく,局所的な構造の組み合わせによって解が導かれる事例が一定数存在することが分かった.(2)同様に,文内ゼロ照応の事例についてコーパスより抽出した少量のサンプルを用いて,人間が正解を導き出す場合にどのような手がかりを用いるかについてアノテータの内省をもとに分析し,考えられうる手がかりの種類を列挙するとともに,その分布を示した.手がかりの種類を幅広く調査するため,従来より解析器の学習・評価に用いられているNTCに加えて,多様なジャンルの文章を含む日本語書き言葉均衡コーパス(BCCWJ)に対する述語項構造アノテーションデータからもサンプルを収集した.この結果,手がかりの種類とその組み合わせに関する分布が大きな広がりを持っていることが明らかとなった.また,手がかりの組み合わせに関する性質として,それぞれの手がかりが独立に項候補の確信度を上げるように働くものに加えて,(1)の分析で得られた知見と同様に,機能動詞や述語間の意味的なつながりを考慮すべきものなど,局所的な解析結果を順を追って重ねていくことで初めて項候補の推定に寄与する種類の事例も多く存在することが明らかとなった.加えて,それぞれの手がかりを用いる事例に対する既存システムの解析精度より,既存のモデルは統語構造や選択選好を用いる事例に関しては相対的に高い解析精度を示すものの,世界知識や文脈を読み解く必要がある事例や,その他未だ一般化されていない雑多な手がかりを用いる事例に関しては低い精度にとどまっていることが分かり,これらの現象に対する解析の糸口を模索していく必要があることを明らかにした. \section{関連研究} ゼロ照応問題に対して解析の手がかりとするための情報は,これまでにも様々考えられてきた.具体的に推定モデルに組み込まれた例としては,一般的な統語係り受けパス情報の他に,(1)各述語がどのような語を項として取りやすいかという選択選好の情報として,名詞,格助詞,述語の共起に関する統計値を用いる手法~\cite{iida2006exploiting,iida2011cross,imamura2009discriminative,sasano2008fully,sasano2011discriminative}や,(2)語が提題化された場合など,文章中のそれぞれの位置における,特定の語の顕現性を表すスコアを用いる手法\cite{sasano2008fully,sasano2011discriminative,imamura2009discriminative,iida2011cross}などがある.また,複数述語間の項の共有に関する情報として,(3)支援動詞辞書を用いる手法~\cite{komachi2006noun}や,(4)スクリプト的な知識を学習する手法(飯田,徳永2010;大内,進藤,Kevin,松本2015)\nocite{iida2010jnlp}\nocite{ouchi2015nl},(5)それぞれの述語の格スロットに出現する項の類似度を用いる手法~\cite{hayashibe2011japanese},(6)直前の述語に対する項構造の解析結果を直後に出現する述語の解析に利用する手法\cite{imamura2009discriminative,hayashibe2014position}などが存在する.そのほか,技術資料としては示されていないものの,述語項構造解析器ChaPASの0.74版\cite{chapas2013}やKNP\cite{knp2013}は,(7)項構造解析の前段の処理として並列構造解析を行っている.しかし一方で,そもそもゼロ照応問題にどのような現象がどの程度あらわれるのか,あるいは,特定の解析モデルが焦点をあてている課題について,どの程度の割合を解くことが出来たかといった定量的な分析はこれまでになされておらず,今後具体的にどのような種類の問題を中心に取り組めばよいか不明瞭な状態となっている. \section{分析対象} \subsection{分析用データ}本稿では,分析用データとしてNAISTテキストコーパス(NTC)および日本語書き言葉均衡コーパスに対する述語項構造アノテーションデータ(BCCWJ-PAS)の二種類のデータを利用する.NAISTテキストコーパスは,約四万文の新聞記事に対して項構造アノテーションがなされているコーパスであり,従来より述語項構造解析の研究において統計的機械学習における訓練や解析モデルの評価に利用されてきたものである.このコーパスは分析に十分なデータ量を含んでいるため,\ref{sec:pattern-analysis}~節の構造パターンを利用した分析においてはこのデータを中心に分析を進める.一方で,項構造のうち特にゼロ照応の関係については,新聞のような多数の読者を想定して客観的に事実を述べる場合と,主観的に意見を述べる場合,レビュー記事や歴史書のように前提となる主題が存在する場合,対話文やQAなどの話者が入れ替わる場合などのように,文章のドメインや構造に応じて本質的に異なった情報が手がかりとされることが想定されるため,このような異質な文章ジャンルをバランスよく含むBCCWJに対して分析を行うことで,出来る限り多様な手がかりの種類を明らかにすることを目指すほか,新聞記事データにおける手がかり分布との対比により,ドメイン依存性の問題も議論する.BCCWJ-PASについては,国語研究所・NAIST・東京工業大学で開発が進められている日本語書き言葉均衡コーパスに対する述語項構造アノテーションデータの2014年7月時点の版のうち,BCCWJのCore-Aセクションにおける以下の22文書1,625文からなる部分を評価・分析用データとして利用する.\begin{itemize}\itemOW:OW6X\_00000OW6X\_00010の2記事\itemOY:OY01\_00082OY04\_00001OY04\_00017OY04\_00027OY10\_00067OY12\_00005の6記事\itemPB:PB12\_00001PB2n\_00003PB40\_00003PB42\_00003PB50\_00003PB59\_00001の6記事\itemPM:M12\_00006PM24\_00003PM25\_00001PM26\_00004の4記事\itemPN:PN1b\_00002PN1c\_00001PN1d\_00001PN3b\_00001の4記事\end{itemize}BCCWJ-PASにおけるアノテーションは,NTCとおよそ同等の形式で行われている.ただし,この時点で作業者一名によるアノテーションしか行われていなかったため,同一データに対して第二者によるアノテーションを再度行い,両者のずれを修正したものを利用する\footnote{ただし,共参照情報の修正は対象外とした.}.\subsection{分析対象システムと評価方法}本稿では,現状の最先端システムにおける事例カテゴリ,手がかりカテゴリごとの解析精度を測る目的で,松林\&乾の解析器~\cite{matsubayashi2014}を例に取り,文内ゼロ照応解析について分析を行う.述語項構造解析の既存研究においては,利用しているデータの違いもあり,正確に精度を比較することが難しいが,表\ref{tb:system-accracy-comparison}の概算値比較に基づけば,松林\&乾のシステムは文内ゼロ照応の問題において現状での最高精度を達成するシステムの一つであるといえる.松林\&乾の解析器は,文内の項のみを対象に解析を行うモデルである.入力として文と解析対象の述語位置を受け取り,文中の各形態素について,ガ・ヲ・ニである尤度を点推定の線形分類モデルで推定し,文中で最大の尤度を取る形態素を項として出力する.より具体的には,以下のアルゴリズムで出力を決定する.\begin{enumerate}\item訓練データ内の統計により,項となることが稀な品詞を持つ項候補を枝刈りする.具体的には,IPA品詞体系において「名詞」「動詞」「助動詞」「終助詞」「副助詞」「未知語(未定義語)」の品詞をもつ形態素のみを項候補とする.この枝刈りは,訓練データの$99\%$以上の正解項を保持しつつ,候補を$36\%$削減する.\itemL2-正則化L2-lossのSVMを用いて,項候補に対して\{ガ,ヲ,ニ,NONE\}の多値分類を行うモデルを学習し,各候補について述語毎にそれぞれのラベルに対するスコアを求める.\item述語毎に,文内候補から\{ガ,ヲ,ニ\}の各ラベルについて最もスコアの高いものを一つずつ選ぶ.\{ガ,ヲ,ニ\}のそれぞれについて個別の閾値を定めておき,選出した最尤候補が閾値を超えていれば,その形態素を対象述語の項として認定し,格ラベルと共に出力する.閾値は訓練データでのF値が最大となるように調整する.\end{enumerate}利用している素性についての詳細は松林\&乾~\cite{matsubayashi2014}を参照されたいが,主要なものとして,統語係り受けパス(係り受け方向のみのもの,品詞や主辞,助詞等で語彙化したもの),大規模データより取得された(項,格助詞,述語)の共起情報,見出し語を名詞クラスタにより汎化した素性等が含まれている.注意すべき点として,松林\&乾の実験では学習・推定に正解の統語係り受け木を与えたのに対して,本稿では,KTCと同形式の正解統語係り受け関係データを利用できないBCCWJと設定を合わせるために,公開されているCaboCha0.66モデルの出力結果を用いて学習・推定した結果を用いる.このため,本稿で報告する精度は,元論文で報告されたものより解析精度が低い.また,日本語述語項構造解析の分野では,一般に利用するデータや問題設定の違い,データフォーマットに対する前処理の違いにより,既存研究との正確な精度の比較が困難な状況にある.この状況を改善する目的で,本稿におけるシステムの解析精度評価については,言語処理学会第21回年次大会ワークショップ「自然言語処理におけるエラー分析」\cite{eaws-2015}の述語項構造解析班報告\cite{eaws-pas-2015}において提案された評価手法にもとづいて算出したF値を用いる.この評価手法は,(項,格,述語相当語)のタプルに関して,システムが出力した項の位置が正解データと文節単位で一致しているかを,適合率,再現率,F値によって評価するものであるが,各システムの形態素区切りや文節区切りの差異を緩和するよう工夫されたものである(詳細は\cite{eaws-pas-2015}の2.1節を参照されたい).ただし,京大形式とNAIST形式の二つの異なる格ラベル形式で解析するシステム同士を比較するために導入された,システム出力と正解の項とのアラインメントを取る処理については,今回はNAIST形式の格ラベルを用いた解析システムである松林\&乾のシステムのみを分析対象とするため,ラベルアラインメント無しの方法を選択した.また,以降の分析において,正解の構文構造を必要とする分析手法においては,システムの述語項構造出力を正解の係り受け構造がアノテーションされたNTC(京大コーパス形式)の形態素・文節区切りと対応が取れるよう変換し,正解の統語係り受け木を用いて分析を行う.本節以降,解析精度とは松林\&乾のシステムの精度のことを指す.評価データにおける文内ゼロ照応事例の統計値と解析精度は表~\ref{tb:ntc_zero}のとおりである.\begin{table}[t]\caption{NTC1.5評価データにおける文内ゼロ照応事例数及び解析精度}\label{tb:ntc_zero}\input{04table03.txt}\end{table} \section{構造パターンの自動分類による事例カテゴリ分析} \label{sec:pattern-analysis}本節では,既存の解析モデルがモデル化している述語間の項の共有関係・項の類似度,機能動詞構文,並列構造といった特徴が,実際の問題にどの程度影響があるかを確かめるために,特に文内ゼロ照応の事例に焦点を当て,NTCや京都大学テキストコーパス(KTC)の正解アノテーション情報を利用して上記の特徴を持つ事例を機械的に分類し,各カテゴリの事例数や現状の解析精度,各カテゴリが理想的に正答できた場合の精度上昇幅等を示す.既存研究において,複数の述語間の構造的・意味的な関係を解析に用いる場合の一般的な方法は,述語間の何らかの関係を通して,関係が比較的簡単に求まる述語—項ペアの情報を難易度の高い述語—項ペアの解析の手がかりに利用するというものである.このような情報を用いることができる事例を近似的に抽出するために,次の方法を用いて事例を分類する.例えば,図~\ref{fig:ex1}の文において,述語相当の名詞「勉強」(Pで表記)に対するガ格の項(Aで表記)は「太郎」であるが,これらは直接係り受け関係にない.そこで,対象の述語Pと項Aだけではなく,Aと直接係り受け関係にある語Oを考える.もし,語Oも項構造を持っており,かつ,AがOの項でもあるならば,PとOは項を共有しているということになり,直接的に項を推定しやすいAとOの関係を,より間接的な関係となっているAとPの関係推定に利用できる可能性がある.したがって,このような(A,O,P)の組を取り出すことで,複数の述語間の構造的・意味的な関係を利用する手法が被覆する事例の数や,そのような事例における既存システムの現状の精度を分析することができる.ただし,事例によっては文中にAとして適切な複数個の共参照関係にある語が存在する場合がある\footnote{「太郎,太郎,太郎と繰り返し手を振り呼ぶ次郎。」という文における「呼ぶ」のヲ格「太郎」のような場合.}.そのような場合,(i)「Pよりも前にある語を優先する」(ii)「Pに単語位置がより近い語を優先する」の二つのルールを順に適用することでAを一意に定める.また一般に,Aには直接係り受け関係が認められる語の候補として,係り先文節の中にある語および複数の直接係り元文節の中にある語が考えられるため,Oを一意に定めるための方法が必要である.本稿では,AとPの関係において最も関わりが深いと思われる語Oを以下の方法で選択する.\noindent(手順1)Aに対する係り元文節,係り先文節の主辞をOの候補として抽出する.\noindent\hboxto8zw{(手順2)(手順1)\hfil}で抽出した候補のうち,Pとの統語係り受け距離がもっとも近いものを残す.\noindent\hboxto8zw{(手順3)(手順2)\hfil}までで得られた候補のうち,Pに単語位置が最も近いものを一つだけ選ぶ.\noindentこの方法を用いれば,例えば次のような文について,${\rmO}_2$より${\rmO}_1$を優先して選択することが出来る.\eenumsentence{\item[a.][豊か$_{{\rmP}}$]で[興味深い$_{{\rmO}_1}$][世界$_{\rmA}$]が[広がって$_{{\rmO}_2}$]いる。\hspace{0.1truecm}\item[b.]手品を[した$_{{\rmO}_2}$][人$_{\rmA}$]が周りに[驚き$_{{\rmP}}$]を[与える$_{{\rmO}_1}$]。}このように定めたA,O,Pを利用して,分析対象コーパス中に現れる文内ゼロ照応の事例を詳細に分析するために,以下の7つの指標で事例を分類した.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item対象述語(P)の品詞(動詞,サ変名詞,その他)\itemPに対する項(A)の格(ガ,ヲ,ニ)\itemAと直接的に統語係り受け関係がある語(O)の種類(動詞述語,名詞述語,その他の述語,述語ではない)\itemA,O,Pの出現順序\itemOが述語相当語の場合,OとPがAを項として共有しているか\itemOとPがAを項として共有している場合,\begin{itemize}\item二つの格ラベルが一致しているか\itemPとOが並列構造で繋がっているか,PがOの項であるか,それ以外\end{itemize}\itemOとPの間の係り受け距離\end{itemize}Oが述語相当語,つまり項構造を持つ場合については,PとOがAを共有しているかに加えて,さらにPとOが並列関係かどうか,広義の機能動詞構文に典型的なPがOの項となる形になっているかといった観点で分類する.また,OとPでAに対する格関係ラベルが異なる場合は,二つの述語間で主題や動作主が保存される場合に比べてより難易度の高い問題であると想定して区別して分類する.\begin{figure}[t]\begin{center}\includegraphics{22-5ia4f1.eps}\end{center}\caption{文内の直接係り受け関係にない述語と項の例\label{fig:ex1}}\vspace{-1\Cvs}\end{figure}A,O,Pの出現順序は,連体修飾などの構造的な特徴を簡潔にとらえるのに役立つ.\{A,O,P\}の置換として6通りの順序組がありうるが,これらを統語係り受け関係・述語—項関係と併記して示すと,図~\ref{fig:seq}のようになる.このうちOAPとOPAは上述のOを選択するアルゴリズムに従えば出現することはない.AOP,APOは最も一般的な構造であり,並列構造や機能動詞構文(APOの一部)などの構造を含む.POAはOがAを連体修飾する形であり,この一部にはPとOの間に構造的な関係が認められる可能性がある.PAOはPの項がPよりも後ろのOに関連して出現する形である.\begin{figure}[t]\begin{center}\includegraphics{22-5ia4f2.eps}\end{center}\caption{A,O,Pの出現順序と統語係り受け関係・述語—項関係の概観}\label{fig:seq}\par\small実線は直接統語係り受け関係,破線は述語—項関係.OAPとOPAはOを選択するアルゴリズム上,出現することはない.\par\vspace{-1\Cvs}\end{figure}分析対象のデータとして,KTCによる正解統語係り受け情報,並列構造情報が利用できるNTC1.5版を利用する.コーパスは,述語項構造解析の研究で一般的に利用されているTairaetal.\cite{taira2008japanese}の分割に基づいて,訓練,開発,評価用データの区分に分割し,評価データにおいて事例カテゴリ別に出現頻度と既存システムの解析精度を測定する.また,各事例カテゴリにおける具体的な例文の提示や,事例ベースの分析には開発データを利用する.\subsection{分析結果にもとづく考察}\label{sec:discussion}表~\ref{tb:categ1}に分析の結果を示した.まず,格助詞ごとの分布を見ると,文内ゼロ照応の事例はガ格$81\%$,ヲ格$14\%$,ニ格$4\%$と,殆どの事例がガ格の省略である.解析精度はガ格で最も高く,ヲ格,ニ格は殆ど正答が難しい状況となっている.述語側の品詞の分布は動詞$48\%$,サ変名詞$38\%$,その他$13\%$であり,主に動詞とサ変名詞がその大半を占める.品詞別の精度は,動詞が最も高く$45\%$弱,形容詞が最も低く$31\%$,その他は概ね$40\%$前後となっている.次に,Aの直接係り先であるOとの関係を見ると,まずOの品詞は動詞が$60\%$と強い偏りを見せており,また,全体の$74\%$で項構造を持っていることが分かる.さらにこれらの項構造を持つOのうち,Pと項を共有しているものの割合は約$78\%$と高く,文内ゼロ照応全体でみてもOとPの間に項の共有がある事例が$58\%$と半数以上存在することが分かった.これは,並列構造解析や,機能動詞構文,スクリプト知識などを代表とした,項構造間の何らかの関係を利用して解ける可能性のある事例が比較的多数存在することを示している.\begin{table}[p]\centering\rotatebox{90}{\begin{minipage}{571pt}\caption{事例カテゴリ毎の事例数と解析精度}\label{tb:categ1}\input{04table04.txt}\end{minipage}}\end{table}システムの精度をみると,項共有の有無によって解析精度に約$20\%$の大きな開きが見られる.これは,松林\&乾のシステムは述語構造間の高次の関係を明示的にモデル化していないものの,機能語や主辞情報を含む係り受けパスが項共有の情報をある程度とらえているためと考えられる.次に,OとPが項を共有している場合のより詳細な分析として,「二つの述語間で格ラベルが一致しているか」,「PとOが並列構造で繋がっているか,あるいはPがOの項であるか,それ以外か」という二つの指標で事例を分類した結果を述べる.まず,二つの述語で格ラベルが一致しているものは項を共有している事例の$80\%$を占めており,更に,格ラベルが異なる場合と比べて$30\%$弱ほど精度が良いことが分かった.次に,PとOが並列構造で繋がっているものは項を共有する事例の$15\%$,PがOの項である事例(機能動詞構文や制御動詞構文などの事例を含む)は$10\%$と比較的少量に留まっており,その他の事例が$75\%$と大多数であることが分かった.一方,より明確な手がかりがある並列構造や,O,Pが述語—項関係になっているものは,解析精度が65〜67.5\%とそれ以外の事例に比べて高い数値を示す結果となった.これも,前述のとおり松林\&乾のシステムでは解析モデルとして項構造の関係を明示的に扱ってはいないながらも,少なからずこれらの現象の特徴をとらえているためと考えられる.また,並列構造や機能動詞構文の形の事例に関して相対的に高精度が得られていることは,これらの事例がゼロ照応解析の有望な手がかりとなっていることを示す証拠であり,明示的な並列構造解析や機能動詞・制御動詞の辞書的な取り扱いによって精度が更に向上する可能性を示唆していると言える.\begin{table}[b]\vspace{-0.5\Cvs}\caption{A,O,Pの語順,PO間の係り受け距離別の解析精度}\label{tb:aop}\input{04table05.txt}\end{table}表~\ref{tb:aop}にA,O,Pの位置ごとの事例数と解析精度を示した.主要部終端型である日本語ではAPO,AOPの割合が多く,この形が全体の$77\%$を占めている.続いて,OがAを連体修飾する形のPOA,述語PとAの係り先Oが項Aを挟む形のPAOの順となっている.解析精度はAPOの語順で最も高く,F値で$58\%$を達成している.これは前述の並列構造や機能動詞構文のほとんどがAPOの語順を取っているためと考えられるが,一方で,二番目に多く,同様にOとPの並列構造を含むと考えられるAOPの語順では,F値$27\%$と解析精度に大きな開きが見られるのが興味深い.PとOの間の係り受け距離と事例数の関係を見ると1が$50\%$,2が$24\%$,3が$13\%$とおよそ距離に線形に分布している.一般に係り受け距離が遠くなるほど解析精度は低下していくが,PとOの間に直接係り受け関係が見られる事例では$53\%$,特にこのうちAPOの語順を取るものについては$65\%$と比較的高い精度で解析出来ていることが分かった.\subsection{項共有を伴う事例のエラー分析}\label{sec:shared-arg-err-analysis}\ref{sec:discussion}節の分析から,文内ゼロ照応の半数以上が,項と直接係り関係にある述語との項共有を伴うことがわかった.項共有を伴うケースは,それを伴わないケースに比べて手がかりを求めやすく,今後の性能向上の糸口となる可能性が高い.一方で,解析対象述語Pのゼロ照応の項Aが,Aと直接係り受け関係にある述語Oと項共有を伴う事例のうち,PとOが直接的に並列構造となっている,もしくは機能動詞構文に典型的な述語Oが項としてPをとっているものの割合は合わせて$25\%$程度にとどまっていた.そこで,我々は項共有を伴う残り$75\%$の事例のうち,松林\&乾のシステムで解析エラーとなったものを分析し,どのような情報を用いて複数の述語にまたがる項の関連性をとらえることができるかを分析した.具体的には,文内ゼロ照応にあたる述語—項ペアについて,\ref{sec:discussion}節の分析カテゴリのうち,PとOが項Aを共有しており,PとOが並列関係でなく,PがOの項となっていない事例について,開発データ上で松林\&乾のシステムが正しい項の位置を当てられなかった事例(偽陰性の事例)を無作為に$50$事例抽出し,これらを人手で分析した.表~\ref{tb:err-ctg}には,分析した事例をカテゴリ化し,その分布を示した.以下では,それぞれのカテゴリについて簡単に説明する.なお,例文は実際に分析した開発セット中の事例であるが,必要に応じて文構造を簡略化してある.\begin{table}[t]\hangcaption{PとOが項Aを共有するもののうち,PとOが並列関係でなく,PがOの項ではない事例の\mbox{エラー}カテゴリ分布}\label{tb:err-ctg}\input{04table06.txt}\end{table}\begin{description}\item[述語の並列構造・広義の機能動詞構文・モダリティ表現の組み合わせ]\mbox{}\\\ref{sec:discussion}節の分析では,PとOが直接的に並列構造となっている,もしくは機能動詞構文に典型的な述語Oが項としてPをとっているもののみを扱ったが,実際にはこれらの局所的な問題の組み合わせによって,長距離の述語項関係が導き出せる事例が存在する.例えば,次の文では「行政改革委員会」は直接的には「開き」にかかっており,この「開き」と文末尾の「決めた」が並列関係となっていることから,この二つの述語が主語を共有していることが分かる.さらに,この「決めた」という述語と解析対象の述語「意見具申する」が機能動詞構文の形をとっていることから,「決める」と「意見具申する」の主語が同一であると推定でき,結果として「具申する」のガ格が「行政改革委員会」であることが導かれる.\begin{screen}行政改革委員[会$_\text{ガ}$]は第二回会合を[\ul{開き}$_\mathrm{O}$]、行革推進方策について政府に意見具申[する$_\mathrm{P}$]ことを決めた。\end{screen}また,モダリティ相当表現が複合する形もよく見られた.以下の例では,「強めており」と「方針(だ)」が並列関係であるが,「求める方針だ」は「求めるつもりだ」相当の表現であり,このことから,「強めており」と「求める」の主語が同一であることが導かれる.\begin{screen}批判している[グループ$_\text{ガ}$]は危機感を強めて[\ul{おり}$_\mathrm{O}$]、除名処分を強く[求める$_\mathrm{P}$]方針。\end{screen}\item[係り受けで連鎖する述語・名詞間の意味的関係]\mbox{}\\統語的・機能的な構造だけからは項の共有が導けないが,PとAの係り受けパスの内側にある述語や名詞の間に,その意味的な関係により項構造の伝播が認められる事例.例えば,次の例では「訪ね」と「要請した」が並列構造であり,その統語関係から主語を共有していることが判断できるが,「訪ね」の目的語である「党首」と「要請した」の述語—項関係は統語的には導けない.しかし,常識的なスクリプト的知識に基づけば,「Aを訪ね、要請した」は,「Aに要請するためにAを訪ねた」と類推できる.その結果を受けて,さらに機能動詞構文の構造により「Aに協力を要請する」は「Aが協力する」へ,「Aが推進へ協力する」は「Aが推進する」へと読み替えられ,最終的に解析対象述語「推進」のガ格として「党首」を取りうることが導かれる.\begin{screen}飯田会長は、新進党の海部[党首$_\text{ガ}$]を事務所に[\ul{訪ね}$_\mathrm{O}$]、行政改革[推進$_\mathrm{P}$]への協力を要請した。\end{screen}\item[発言者の認識]\mbox{}\\文中に発話の引用が含まれ,発話文中の動作主が,発話者であるような事例.このような事例では,発話内容の範囲,および発話者の特定が解析の手がかりとなる.\begin{screen}研究[グループ$_\text{ガ}$]は、中心に存在する天体はブラックホール以外に[考え$_\mathrm{P}$]られないと[\ul{結論づけた}$_\mathrm{O}$]。\end{screen}\item[機能語相当表現の認識]\mbox{}\\複数の形態素をひとまとまりとして一つの文法的機能を持つ複合辞を認識することで,解析の手がかりとして適切な単位を得ることができる場合がある.例えば,以下の例では「の場合」が提題化の機能相当の表現であり,この部分を一つの副助詞相当とみなせば,「佐藤氏」と「競合する」は直接係り受け関係にある.\begin{screen}佐藤[氏$_\text{ガ}$]の[\ul{場合}$_\mathrm{O}$]、現状では新進党の海部俊樹党首と競合[する$_\mathrm{P}$]が(後略)\end{screen}\item[世界知識を用いた推論が必要]\mbox{}\\文内の情報から述語項関係が読み解けるが,その推定に知識推論が必要と思われる事例.例えば,下の例で「支持する」のガ格とされている「自治労」は,直接的には「中執見解を了承した」という事実だけが言及されており,特段の知識がない場合は「支持する」と「自治労」は結びつかない.ただし,ここで中執とは中央執行部のことで,自治労は基本的に中央執行部の意見を会議で承認し,組合全体としてそれに従うという知識があれば,「支持しないとの中執見解を了承した」という表現から,中央執行部の「支持しない」という意思決定を了承するならば,自治労は支持しない,という関係が読み解ける.\begin{screen}$[自治労_\text{ガ}]$は十一日、東京都内のホテルで全国委員長会議を[\ul{開き}$_\mathrm{O}$]、社会党の山花貞夫・新民主連合会長らによる新党準備会は支持[し$_\mathrm{P}$]ないとの中執見解を了承した。\end{screen}\item[文脈・背景知識が必要で一文からは判断不可能]\mbox{}\\下記の例では,解析対象述語「除名」の選択選好からヲ格は人であることがわかり,また文中に出現する人物は「山花氏ら」しかいないが,除名されるのが山花氏らであるかどうかを判断するための十分な情報が文中には存在しない.\begin{screen}山花氏[ら$_\text{ヲ}$]は[除名$_\mathrm{P}$]処分を行わないよう執行部に[\ul{働きかけて}$_\mathrm{O}$]いる。\end{screen}\end{description}カテゴリは,既存研究で扱っている現象の延長上にあり比較的取り扱いが明瞭な統語的・機能的な現象および単純な共起関係から推定できる選択選好をまとめた「統語的・機能的・選好的」と,現状では取り扱いが難しい知識を用いた推論や談話構造解析を含む「知識・談話的」,「その他」の三つに大別した.表~\ref{tb:err-ctg}から,従来研究で扱う現象の延長として説明できる「統語的・機能的・選好的」の割合が全体の$46\%$程度,知識推論や談話構造理解などのより高度な知識処理が必要と思われる事例の割合が$32\%$程度存在することがわかった.特徴的な点としては,\ref{sec:discussion}節の分析では,PとOが直接的に並列構造となっている,もしくは機能動詞構文に典型的な述語Oが項としてPをとっているものなど,特定の現象が単独で出現する場合のみを区別して扱っていたが,実際にはこれらが部分問題として出現している例が多く見られた.特に,動詞や名詞の項構造が,係り受けの鎖の中で連鎖的に関連しているケースにおいては,これらの部分的な手がかり同士は,相補的に確信度を高め合っているのではなく,統語的関係として隣り合う項構造どうしの関係の連鎖を順に解析することで目的の解にたどり着く事例が多く見られた.このような事例は特に「述語の並列構造・広義の機能動詞構文・モダリティ表現の組み合わせ」,「係り受けで連鎖する述語・名詞間の意味的関係」,および「世界知識を用いた推論が必要」のカテゴリによく見られた.この結果を受けて,次に,分析対象事例中に「解析対象述語Pと項を共有し,かつ並列構造にある述語が存在する」「解析対象述語Pと項を共有し,かつPを項に取る述語が存在する」事例を調べることで,これらの現象の解析が正答に直接的にあるいは部分問題として間接的に寄与するであろう事例の数を調べた.また,この際,エラー分析中に顕著に出現した現象である「提題化表現」「発話引用」の事例についても分析に含めた.\begin{table}[b]\caption{事例カテゴリ毎の事例数と解析精度}\label{tb:instance-gategory2}\input{04table07.txt}\end{table}表~\ref{tb:instance-gategory2}より,第一に,項が文内で「は」「について」「の場合」などの機能語相当表現で提題化されている事例はゼロ照応全体の$39\%$存在しており,文外での提題化とあわせて全体で約半数が提題化の標識を手がかりとできる事例であることが分かる.提題化されている事例では提題化されていない事例に比べて相対的に高い解析精度を示しているが,一方で,文内ゼロ照応の問題のほとんどがガ格を推定する問題であることを鑑みれば,提題化の情報は強い手がかりと想像されるにもかかわらず,現状では提題化されながらも必ずしも正答できない事例が少なからず存在しており,ゼロ照応解析の問題の中に,複雑な現象が絡み合っていることを容易に想像させる.第二に,項を共有している述語との並列構造が項特定の部分的な手がかりとして含まれる事例がゼロ照応問題全体の$13\%$弱を占め,機能動詞構文などに典型的な「Pと項を共有し,かつPを項に取る述語が存在する」事例が$19\%$弱を占めることがわかった.特に後者の事例は,PがAと直接係り受け関係にあるOの項となっている場合の事例数に比べて$3$倍強となっており,異なる述語間の項構造に関する2次以上の特徴量を解析モデルに組み込むことの重要性を示唆している.表~\ref{tb:err-ctg}で示した具体的なエラー事例の分類からも,「係り受けで連鎖する述語・名詞間の意味的関係」「述語の並列構造・広義の機能動詞構文の組み合わせ」など,少なくともPとOが項を共有する事例の$26\%$程度がこのような複数の述語間の項構造の組み合わせを考慮しなければならない問題であった.発話文の引用に典型的な「述語が鉤括弧の中にある」事例も全体の$16\%$弱と無視できない割合を占めており,特別の解析を行う必要性を示唆している.\subsection{解析精度の理想値}\begin{table}[b]\caption{解析精度の理想値}\label{tb:acc-oracle}\input{04table08.txt}\end{table}表~\ref{tb:acc-oracle}には,分析対象のカテゴリのうち,今回の分析で特に焦点を当ててきた項の共有が手がかりとなりうる事例について,各々が理想的に正答できた場合の精度上昇幅を参考値として示す.この数値は,解析対象のシステムについて,偽陽性の結果はそのままに,偽陰性の結果を過不足なく正答出来たとした時の精度を示したものである.ただし,「項共有(並列構造)」「項共有(PがOの項)」以外の項目については,\ref{sec:shared-arg-err-analysis}~節で示したサンプリングによるエラーの分布推定に基づいた概算値である.並列構造や広義の機能動詞構文について,それぞれを局所的に解いた場合にゼロ照応全体に与えるインパクトはF値で$5$ポイント程度であるのに対して,局所的な構造の組み合わせを通じて解を得られる種類の事例まで正答した場合,F値で$13$ポイント程度の上昇を見込めることが分かる.また,これに加えて発言者や提題化された実体・概念,機能語相当表現の正確な認識が達成された場合でF値が$60\%$程度となる.精度$60\%$以上を実現するためには,現状で述語項構造解析の文脈ではあまり取り組まれていない,世界知識を用いた推論や,談話解析などの技術を取り込むか,もしくはそのような後段の処理につなげるための適切な問題設定やインターフェースを用意する必要がある.OとPが項を共有する事例について,その適合率が$100\%$近くに達した場合でも,文内ゼロ照応全体のF値は$70\%$強である.文内ゼロ照応の$42\%$は項の共有がない,より手がかりの少ない事例であり,この部分でどのような特徴が手がかりとなりうるかについては今後の分析課題である. \section{人間の直感にもとづく手がかりアノテーションによる分析} 前節では,既存研究において焦点が当てられた項の共有関係を背景に,特定の構造を持つ事例を機械的に分類することで文内ゼロ照応における現象の分布を明らかにした.本節では,特定の事前知識に依存せずにゼロ照応解析に対する手がかりを幅広く調査することを目的として,コーパスよりランダムに抽出した少量のサンプルに対して,人間が正解を導き出す際に根拠とする手がかりの種類を分析する.\begin{table}[b]\caption{手がかりアノテーションの例}\label{tbl:clue-example1}\input{04table09.txt}\end{table}具体的な手続きとして,述語項構造アノテーションデータの一部に,人手により表~\ref{tbl:clue-example1}のような,正解分析結果を導き出すための根拠となる手がかりのカテゴリラベルを付与し,次の項目を調査する.\begin{itemize}\item解析に必要な手がかりの種類とその組み合わせの種類\item各手がかりを必要とする事例の分布\item各手がかりを必要とする事例に対する既存システムの解析精度\end{itemize}以降では,まず,分析に利用するデータのサンプリング方法について説明し,次に,具体的なアノテーションの方法について述べる.その後,アノテーション結果を利用した手がかりカテゴリの分布に関する分析やシステムの解析精度について詳しく議論する.\subsection{データのサンプリング方法}手がかりアノテーションの対象データとして,述語項構造がアノテートされたコーパスより,文内ゼロ照応の事例と判断される(述語,項,格)の三つ組を一事例として,少量のデータを無作為にサンプルする.本節における分析では,手がかりの種類を幅広く調査するために,\ref{sec:pattern-analysis}~節で利用したNTCに加えて,BCCWJに対する述語項構造アノテーションデータからも手がかりアノテーションを行う事例をサンプルした.抽出対象となるNTCの仕様では,一般に項は共参照クラスタとして表現されているが,ここでも\ref{sec:pattern-analysis}~節と同様の方法で対象の形態素を一意に定める.一般に,コーパス中の格の出現頻度はガ格に強い偏りがあり,小規模のサンプリングではヲ・ニ格の数が極端に少なくなるという問題がある.述語—項の関係においては,格毎に起こりうる現象の分布が異なると考えられるため,手がかりの種類や組み合わせを俯瞰するためには,ガ・ヲ・ニ格それぞれについて一定数分析を行うのが適切と考えられる.しかしながら,前節までの分析においては,NTCについてガ・ヲ・ニ格全体に対する解析精度を中心に議論を進めていることから,NTCについてはコーパス中のガ・ヲ・ニ格の分布に従い事例をサンプルし,一方で,BCCWJについては文書ジャンル毎に格ごとのサンプル数を固定してサンプリングを行うこととした.具体的に,NTCではデータ全体を\citeA{taira2008japanese}と同様の方法で訓練・開発・評価のデータ区分に分け,開発データから文内ゼロ照応に関する$100$事例を無作為にサンプルした.BCCWJでは,評価データとして用意したBCCWJCore-AセクションにおけるOW(白書),OY(ブログ),PB(書籍),PM(雑誌),PN(新聞)から,ジャンルごとにガ・ヲ・ニそれぞれの格を$20$事例ずつランダムサンプルすることを試みた.ただし,実際には,特定の文書ジャンルに関して文内ゼロ照応に関する十分な事例数がない場合があり\footnote{新聞が$41$事例,ブログが$19$事例となった.},合計では$240$事例となった.NTCおよびBCCWJコーパスからサンプルした事例における格の分布は表\ref{tb:numcase}に示す.\begin{table}[t]\caption{サンプルデータにおける格の分布}\label{tb:numcase}\input{04table10.txt}\end{table}\subsection{手がかりアノテーションの方法}アノテータには,サンプルされた(述語,項,格)の三つ組,及び,当該の述語と項が含まれる文が表~\ref{tbl:clue-example1}の例文の欄に表記されているような形式で与えられる.アノテータはこれに対して,あらかじめ定められている手がかりのカテゴリラベルを付与することを試みる.格関係を判断するにあたって複数の手がかりが必要な場合は,判断に最低限必要となるラベルをすべて列挙し,ラベルの組み合わせとして表現する\footnote{実際のアノテーションでは,補助的に判断の確信度を上げる手がかりについても表記を別にして併せて付与を行ったが,説明と表記の簡略化のため,この情報は省略した.}.アノテーションの際には,カテゴリラベルを付与するだけでなく,アノテータがどのようにして解を導いたかについても注釈を加える.このようにすることで,カテゴリラベルだけでは説明が難しい複雑な現象に対する内省の結果を残し,後の精緻な分析を補助できるほか,アノテーション修正時にアノテータの意図を確認しながら議論ができるため,適切な反復修正作業が可能となる.手がかりのカテゴリラベルは,あらかじめ著者らが列挙したものから始め,アノテーションの過程で新たに必要となったものを順次追加する方法をとった.アノテータはこれまでに列挙された手がかりラベルでは説明できない事例に遭遇した場合,簡潔な説明と共に「その他」のラベルに分類する.その他のラベルに分類された手がかりのうち,著者らとの協議において一定数の事例を類型化できるものについては,適切な名称を付けて「その他」から分離した.このようにして最終的に得られた手がかりカテゴリラベルは,以下のとおりである.\begin{itemize}\item統語関係:統語的な構造が手がかりとなる.\begin{itemize}\item統語パス:述語と項の間の係り受け鎖構造が手がかりとなる.\begin{itemize}\item語彙化パス:統語パスとその内部の語の語彙知識が手がかりとなる.\begin{itemize}\item相互作用(意味):統語パス内の述語の項構造同士が「意味的」に特定の項を共有する.\item機能語相当表現:機能語の特定が手がかりとなる.\item連体修飾:連体修飾における格関係の特定が重要な手がかりとなる.\item受身:受け身による格交替を判定することが重要な手がかりとなる.\end{itemize}\item相互作用(形式):統語パス内の述語の項構造同士が「形式的」に特定の項を共有する.\begin{itemize}\item機能動詞:機能動詞の特定が手がかりとなる.\item制御構文:制御構文が手がかりとなる.\end{itemize}\item並列:並列構造の特定が手がかりとなる.\end{itemize}\end{itemize}\item談話関係:何らかの談話的関係が手がかりとなる.\begin{itemize}\item発話者:発話者・著者の特定が手がかりとなる.\end{itemize}\item文脈:文脈が手がかりとなる.\item知識:何らかの世界知識が必要.\begin{itemize}\item選択選好:述語と項の間に強い選択選好がある.\item語義:語の意味が手がかりとなる.\item複合語:複合語内の形態素間の意味的関係が手がかりとなる.\item常識:常識的知識が必要.\end{itemize}\itemその他:その他の手がかりが必要.\itemアノテーションエラー:格ラベルのアノテーションエラー.\end{itemize}カテゴリラベルは「統語関係」「談話関係」「文脈」「知識」「その他」「アノテーションエラー」のカテゴリをトップノードとして階層構造を成しており,下層へ行くほど詳細化されたカテゴリラベルとなっている.アノテーションの際は,現象を詳細化して説明できる場合は,より下層のラベルを優先して付与する.実際のアノテーションは,著者らとは別の,$4,000$〜$5,000$文規模の述語項構造アノテーションの経験を持つ日本語母語話者のアノテータ一名によって行われた.必要に応じて著者らとの協議を行いながら一周目のアノテーションを行った後,最終的な著者らとの協議の結果を踏まえ,再修正を行ったものを最終的な分析対象のデータとした.\subsection{文内ゼロ照応事例における手がかりの分布}本節のアノテーションにおいては,各事例に付与されているラベルの組は,その全てが解析に必要な要素であるという前提であるため,事例ごとの手がかりラベルの組を一つのパターン(ラベルパターンと呼ぶ)とみなして分析を行う.まず,それぞれの手がかりがどの程度使われたかを示すために,ラベルパターン中に現れる個別のラベルの出現数を表~\ref{tbl:nakayama-ntc-label-freq},\ref{tbl:nakayama-bccwj-label-freq}に示した.それぞれのコーパスを比較すると,NTCでは「選択選好」「語義」など知識に関するラベルの他に,「機能語相当表現」や「並列」「機能動詞」など統語関係のラベルも上位に含まれている一方で,BCCWJでは,「選択選好」「その他」の他に,「文脈」「常識」など知識や談話に関するラベルが上位のほとんどを占める.\begin{table}[b]\begin{minipage}[t]{0.45\hsize}\caption{NTCにおける各ラベルの出現数}\label{tbl:nakayama-ntc-label-freq}\input{04table11.txt}\end{minipage}\hfill\begin{minipage}[t]{0.45\hsize}\caption{BCCWJにおける各ラベルの出現数}\label{tbl:nakayama-bccwj-label-freq}\input{04table12.txt}\end{minipage}\end{table}\begin{table}[b]\caption{NTC・BCCWJにおけるトップノードカテゴリの出現数}\label{tb:topnode}\input{04table13.txt}\end{table}ただし,表~\ref{tb:numcase}に挙げているとおり,NTCとBCCWJではサンプリング方法の違いにより,分析事例における格の分布が異なる.したがって,これらの手がかりカテゴリの分布の特徴がドメインの違いによるものであるか,あるいは格の分布の違いによってもたらされるものであるかを確かめる必要がある.そこで,表~\ref{tb:topnode}には,NTC・BCCWJそれぞれについて,各ラベルを手がかりカテゴリの階層構造におけるトップノードによって置き換え,その出現数を格ごとに集計したものを示す.結果として,格ごとの手がかりラベルの分布を見ても,BCCWJではNTCに比べて「知識」や「文脈」のラベルの比率が上昇していることが分かる.ここから,新聞記事以外のより一般的なドメインの文章を処理するにあたっては,より知識や文脈を重視した解析手法が重要となってくるであろうことがうかがえる.また,格ごとに観察すると,ガ格に比べてヲ・ニ格ではより知識のラベルに分類される手がかりが必要となる傾向にあることも分かる.次に,ラベルパターンごとの事例数をコーパスごとにそれぞれ表~\ref{tbl:nakayama-ntc-label-pattern-freq},表~\ref{tbl:nakayama-bccwj-label-pattern-freq}に示す.パターンの分布を俯瞰すると,組み合わせの分布が非常に広いことがわかる.ラベルパターンの種類は,単体のもの,複数のラベル組み合わせによるものを含め$90$種類存在した.90種類あるラベルパターンのうち事例数が5以上の高頻出ラベルパターンは,「機能動詞」や「並列相互作用(意味)」など1つや2つのラベルで構成される単純なラベルパターンであるが,そのようなラベルパターンの数は14種類と多くない.これらの事例のうち,代表的な事例を表~\ref{tbl:clue-example}に挙げる.一方で,残り76種類の事例数5未満のラベルパターンは,「その他並列相互作用(意味)」や「常識機能語相当表現統語関係連体修飾」など,複数のラベルを組み合わせた複雑な構成になっているのもが多い.表~\ref{tbl:nakayama-complex-example}に複数ラベルの組み合わせによる事例をいくつか挙げるが,このような複雑なラベル構造を成す事例は決して少数ではない.我々が特に注目すべき点として挙げたいのは,複数のラベルを組み合わせる場合に,それぞれの手がかりが個々に項の確信度を上げる種類のパターンと,全ての手がかりがそろって初めて正しく解が導かれる種類のパターンの二つの種類が見られた点である.例えば,表~\ref{tbl:nakayama-complex-example}の(3)の事例においては,選択選好,発話者情報,といった手がかりが,個別に項候補の確信度を上げているのに対して,表~\ref{tbl:nakayama-complex-example}の(5)の事例においては,「教える」のニ格に「子」を埋めるための手がかりと,「勉強を教える」のニ格が「勉強する」のガ格と一致するという知識の双方がそろわなければ,正しい解析が難しい例となっている.したがって,ゼロ照応問題へのアプローチを考える際には,これらの複雑な手がかりの組み合わせ事例を個々に観察し,少なくとも,手がかりの組み合わせが重要な意味を持つパターンに対して大域的な構造解析のアプローチを取る必要があると言える.\begin{table}[p]\caption{NTCにおける各ラベルパターンの事例数}\label{tbl:nakayama-ntc-label-pattern-freq}\input{04table14.txt}\end{table}\begin{table}[p]\caption{BCCWJにおける各ラベルパターンの事例数}\label{tbl:nakayama-bccwj-label-pattern-freq}\input{04table15.txt}\end{table}\begin{table}[t]\caption{代表的なラベルパターンの例}\label{tbl:clue-example}\input{04table16.txt}\par\vspace{4pt}\small[P]:述語,[ガ,ヲ,ニ]:格\end{table}\begin{table}[p]\addtolength{\normalbaselineskip}{-2pt}\caption{複雑なラベルパターンの事例}\label{tbl:nakayama-complex-example}\input{04table17.txt}\par\vspace{4pt}\small[P]:述語,[ガ,ヲ,ニ]:格\end{table}\subsection{システム解析結果との比較}前節の手がかりラベルパターンについて,各ラベルパターンの解析精度を分析することで,現状の解析システムがどの種の問題に正答しているかを分析する.ただし,前節での分類結果より,NTCからのサンプル数$100$とBCCWJからのサンプル数$240$に対して,ラベルパターンの種類が$90$あることがわかっており,個々のラベルパターンに対する精度を求めるための十分な事例数がない.そこで,今回は以下の4種類の大分類によってラベルパターンを集約し分析を行った.{\makeatletter\renewcommand{\theenumi}{}\begin{enumerate}\item統語関係以下のラベルまたは選択選好ラベルのみの組み合わせで表せられるラベルパターン\item知識や文脈,談話関係以下のラベルを含むラベルパターン(ただし,その他を含むラベルパターンを除く)\itemその他を含むラベルパターン\itemアノテーションエラー\end{enumerate}\makeatother}(a)は,「機能動詞」や「選択選好機能語相当表現」などのラベルパターンであり,従来の解析システムの素性として用いられる手がかりに該当する.(b)のラベルパターンに該当する事例は「知識」や「文脈」,「談話」に関する手がかりが必要であり,解析器としてはより高度な処理が要求されるラベルパターンである.(c)の「その他」ラベルに分類される現象は,事前に想定されていなかった手がかりで,かつ現状で簡潔に一般化できるほどの出現頻度がなかった現象であり,既存の解析器では該当の手がかりを適切に捉えにくい事例と考えられるものである.表~\ref{tbl:ntc-clue-再現率},表~\ref{tbl:bccwj-clue-再現率}はNTCとBCCWJにおける手がかりラベルパターンと解析精度である.ここでの分析はサンプルされた特定の(述語,項,格)の正解三つ組事例に対する正誤を分析するものであるため,正解事例に対する再現率を評価の基準とした.なお,BCCWJは文書ジャンルごとに事例数を揃えてアノテーションを行ったが,定量的な分析を行うにはジャンルごとのアノテーション事例数が不十分であったため,全ての文書ジャンルを統合して分析を行った.(d)のアノテーションエラーについては,真の正解ではないため,再現率の評価からは除外した.\begin{table}[t]\caption{NTCにおける手がかりラベルパターンと解析器の再現率}\label{tbl:ntc-clue-再現率}\input{04table18.txt}\end{table}\begin{table}[t]\caption{BCCWJにおける手がかりラベルパターンと解析器の再現率}\label{tbl:bccwj-clue-再現率}\input{04table19.txt}\end{table}表~\ref{tbl:ntc-clue-再現率}のNTCにおける結果を見ると,統語関係以下のラベルまたは選択選好ラベルのみの組み合わせで表されるラベルパターンの再現率は$0.57$と比較的高く,知識や文脈,談話関係以下のラベルを含むラベルパターンは$0.3$程度となっている.松林\&乾のシステムでは統語関係の情報として項候補や述語の位置,係り受けの情報を使用し,選択選好の情報として格フレーム\footnote{京大格フレームVer.~1.0}を使用しているため,これらの手がかりの組み合わせのみで表すことのできる事例に対しては比較的高い解析精度となったと考えられる.また,表~\ref{tbl:bccwj-clue-再現率}の結果から,BCCWJではNTCと比べて再現率が落ちる傾向が見られる.解析器はNTCの学習データを用いて学習しており,必ずしもBCCWJの各ドメインに対する適切な学習がされているわけではないため,特に統語関係または選択選好のみで表せるラベルパターンの精度に関しては,NTCでは比較的高い精度となっているものの,BCCWJでは他のラベルパターンと同程度の精度となった.松林\&乾のシステムは選択選好に対する対応として,Web16億文から獲得された格フレーム情報を使用していることから,このラベルパターンで精度が下がった原因は,各ドメイン特有の選択選好性によるものではなく,新聞ドメインと他のドメインで統語現象の性質が異なっていることに起因すると考えられる.また,その他を含むラベルパターンの再現率は,知識や文脈,談話関係以下のラベルを含むラベルパターンと同程度の低い再現率にとどまった.「その他」ラベルに分類される現象は一般化できるほど頻出する現象ではなく,それらの現象を汎化してシステムに組み込むことは簡単ではないが,NTC及びBCCWJコーパス内の文内ゼロ照応問題の3割弱を占めており,ゼロ照応問題全体の解析精度向上のためには無視できない程度の割合で存在しているため,今後,サンプル事例の規模を増やし,より詳細な分析を行っていく必要があると考える. \section{結論} 本稿では,述語項構造解析における中心的な課題である項のゼロ照応問題へ適切にアプローチするために,現象の特徴を出来る限り詳細に分析し把握することを試みた.第一に,文内ゼロ照応関係にある述語と項のペアを,統語情報と述語—項関係の情報を用いて機械的に分類可能な7つの指標の組み合わせで分類した.分析内容として,各事例カテゴリにおける事例数の分布を示したほか,松林\&乾~\cite{matsubayashi2014}のシステムを例に取り,各指標における解析精度の偏りを示した.特に,対象述語Pと,項と直接係り受け関係にある述語Oとの間で項を共有している事例の割合が文内ゼロ照応全体の$58\%$存在することが分かったほか,これらは,PとOが直接的な並列構造や機能動詞構文の形になっているものばかりでなく,局所的な構造の組み合わせによって解が導かれる事例が多く存在することが分かった.このことは,複数述語間の項構造に対する高次の特徴を今後どのようにとらえていくべきかに関する知見を与えている.また,発話引用文における発話者の推定が一定の事例数に寄与することも分かった.第二に,アノテータの内省を頼りに,人間が正解を導き出す場合に用いる手がかりを分析し,考えられる手がかりの種類を列挙するとともに,その分布を示した.個々のゼロ照応現象を紐解いていくと,手がかりの種類とその組み合わせに関する分布が大きな広がりを持っていることが明らかとなった.また,手がかりの組み合わせに関する性質として,提題化や選択選好情報のように,それぞれの手がかりが独立に項候補の確信度を上げるように働くものに加えて,前半の構造ベースの分析で得られた知見と同様に,機能動詞や述語間の意味的なつながりを考慮すべきものなど,局所的な解析結果を順を追って重ねていくことで初めて項候補の推定に寄与する種類の事例も多く存在することが明らかとなった.また,既存のモデルは統語構造や選択選好を用いる事例に関しては相対的に高い解析精度を示すものの,世界知識や文脈を読み解く必要がある事例や,その他未だ一般化されていない雑多な手がかりを用いる事例に関しては低い精度にとどまっていた.しかしこれら精度の低い事例はゼロ照応問題全体に対して無視できない割合を占めており,引き続き,これらの現象に対する解析の糸口を模索していく必要がある.\acknowledgment本研究は,文部科学省科研費(研究課題番号:23240018),(研究課題番号:15K16045)及び,RISTEX社会技術研究開発センターの研究開発活動「コミュニティがつなぐ安全・安心な都市・地域の創造」の一環として行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{林部\JBA小町\JBA松本}{林部\Jetal}{2014}]{hayashibe2014position}林部祐太\JBA小町守\JBA松本裕治\BBOP2014\BBCP.\newblock述語と項の位置関係ごとの候補比較による日本語述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf21}(1),\mbox{\BPGS\3--26}.\bibitem[\protect\BCAY{Hayashibe,Komachi,\BBA\Matsumoto}{Hayashibeet~al.}{2011}]{hayashibe2011japanese}Hayashibe,Y.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQJapanesePredicateArgumentStructureAnalysisExploitingArgumentPositionandType.\BBCQ\\newblockIn{\BemIJCNLP},\mbox{\BPGS\201--209}.\bibitem[\protect\BCAY{飯田\JBA徳永}{飯田\JBA徳永}{2010}]{iida2010jnlp}飯田龍\JBA徳永健伸\BBOP2010\BBCP.\newblock述語対の項共有情報を利用した文間ゼロ照応解析.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\804--807}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida2006exploiting}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingSyntacticPatternsasCluesinZero-anaphoraResolution.\BBCQ\\newblockIn{\BemCOLING-ACL2006},\mbox{\BPGS\625--632}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{iida2011cross}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQACross-LingualILPSolutiontoZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemACL2011},\mbox{\BPGS\804--813}.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura2009discriminative}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-argumentStructureAnalysiswithZero-anaphoraResolution.\BBCQ\\newblockIn{\BemACL-IJCNLP2009ShortPapers},\mbox{\BPGS\85--88}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{小町\JBA飯田\JBA乾\JBA松本}{小町\Jetal}{2006}]{komachi2006noun}小町守\JBA飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock名詞句の語彙統語パターンを用いた事態性名詞の項構造解析.\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\141--159}.\bibitem[\protect\BCAY{Liu\BBA\Gildea}{Liu\BBA\Gildea}{2010}]{liu2010semantic}Liu,D.\BBACOMMA\\BBA\Gildea,D.\BBOP2010\BBCP.\newblock\BBOQSemanticRoleFeaturesforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(Coling2010)},\mbox{\BPGS\716--724}.\bibitem[\protect\BCAY{松林\JBA乾}{松林\JBA乾}{2014}]{matsubayashi2014}松林優一郎\JBA乾健太郎\BBOP2014\BBCP.\newblock統計的日本語述語項構造解析のための素性設計再考.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\360--363}.\bibitem[\protect\BCAY{松林\JBA吉野\JBA林部\JBA中山}{松林\Jetal}{2015}]{eaws-pas-2015}松林優一郎\JBA吉野幸一郎\JBA林部祐太\JBA中山周\BBOP2015\BBCP.\newblock述語項構造解析「ProjectNEXT述語項構造タスク」.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\1--157}.\bibitem[\protect\BCAY{大内\JBA進藤\JBA{DuhKevin}\JBA松本}{大内\Jetal}{2015}]{ouchi2015nl}大内啓樹\JBA進藤裕之\JBA{DuhKevin}\JBA松本裕治\BBOP2015\BBCP.\newblock述語対の項共有情報を利用した文間ゼロ照応解析.\\newblock\Jem{情報処理学会第220回自然言語処理研究会研究報告},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2008}]{sasano2008fully}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQAFully-lexicalizedProbabilisticModelforJapaneseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemCOLING2008Volume1},\mbox{\BPGS\769--776}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2011}]{sasano2011discriminative}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2011\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseZeroAnaphoraResolutionwithLarge-scaleLexicalizedCaseFrames.\BBCQ\\newblockIn{\BemIJCNLP2011},\mbox{\BPGS\758--766}.\bibitem[\protect\BCAY{関根\JBA乾}{関根\JBA乾}{2015}]{eaws-2015}関根聡\JBA乾健太郎\BBOP2015\BBCP.\newblockProjectNextNLP概要(2014/3-2015/2).\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Shen\BBA\Lapata}{Shen\BBA\Lapata}{2007}]{shen2007using}Shen,D.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQUsingSemanticRolestoImproveQuestionAnswering.\BBCQ\\newblockIn{\Bemthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\12--21}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira2008japanese}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesePredicateArgumentStructureAnalysisUsingDecisionLists.\BBCQ\\newblockIn{\BemEMNLP2008},\mbox{\BPGS\523--532}.\bibitem[\protect\BCAY{黒橋・河原研究室}{黒橋・河原研究室}{2013}]{knp2013}黒橋・河原研究室.\newblock\BBOQKNPversion4.1.\BBCQ.\newblock{\ttfamilyhttp://nlp.ist.i.kyoto-u.ac.jp/index.php?\linebreak[2]cmd=read\&page=KNP\&alias\%5B\%5D=\%E6\%97\%A5\%E6\%9C\%AC\%E8\%AA\%9E\%E6\%A7\%8B\%E6\%96\%87\linebreak[2]\%E8\%A7\%A3\%E6\%9E\%90\%E3\%82\%B7\%E3\%82\%B9\%E3\%83\%86\%E3\%83\%A0KNP}Accessed:2014-05-20.\bibitem[\protect\BCAY{渡邉}{渡邉}{2013}]{chapas2013}渡邉陽太郎.\newblock\BBOQChaPASversion0.74.\BBCQ\\newblock\Turl{https://sites.google.com/site/yotarow/chapas}.\newblock\mbox{Accessed:}2014-05-20.\end{thebibliography}\begin{biography}\bioauthor{松林優一郎}{1981年生.2010年東京大学大学院情報理工学系研究科・コンピュータ科学専攻博士課程修了.情報理工学博士.同年より国立情報学研究所・特任研究員.2012年より東北大学大学院情報科学研究科・研究特任助教.意味解析の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{中山周}{2014年法政大学情報科学部コンピュータ科学科卒業.同年東北大学大学院情報科学研究科博士前期課程進学.現在に至る.自然言語処理に関する研究に従事.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
V16N01-01
\section{はじめに} label{sec:first}係り受け解析は日本語解析の重要な基本技術の一つとして認識されており,これまでに様々な手法が提案されてきた\cite{Kurohashi:94,SShirai:95,fujio_97,haruno,uchimoto_99,uchimoto_2000,kudo_2000,Kudo:2002,matsubara,Kudo:2004,Kawahara:naacl2006,Ohno:coling-acl2006}.しかし,そのほとんどは書き言葉を対象としたものであった.これに対し,本研究では,話し言葉,特に『日本語話し言葉コーパス(CSJ)\cite{furui}』のような長い独話を対象とする.ここでCSJとは,主に学会講演や模擬講演などの独話を対象に,約660時間(約750万語)の自発音声を収録した世界最大規模の話し言葉コーパスのことである.このコーパスには音声データだけでなく書き起こしも含まれており,コアと呼ばれる一部の書き起こしには,人手により形態素・係り受け・節境界・引用節・挿入節・談話構造など様々な情報が付与されている.一般に,話し言葉には特有の現象が見られるため,書き言葉と比べて話し言葉の係り受け解析は難しい.例えば,CSJを用いた実験によると,話し言葉特有の現象の影響をなくした場合とそうでない場合で,係り受け解析精度に大きな差があることが報告されている\cite{Uchimoto:lrec2006a}.特に,引用節・挿入節などの境界が認識されていない場合に係り受け解析精度の低下が著しい.そこで本論文では,引用節・挿入節を自動認定する方法,および,自動認定した引用節・挿入節の情報を係り受け解析に利用する方法を提案し,提案手法により係り受け解析精度が有意に向上することを定量的に示す. \section{話し言葉に特有の現象と係り受け構造} label{sec:ds_problem}話し言葉には,書き言葉にはない特有の現象が見られる.そして,その話し言葉特有の現象が係り受け解析精度の低下を招くことが多い.本研究では,その中でも節境界が曖昧であるという現象に着目する.そして,本論文では,係り受け解析精度に及ぼす影響の大きさを考慮し,節の中でも,特に,引用節・挿入節と係り受け構造との関係を取り上げる.ここで,節および係り受け構造の定義はCSJに従うものとする.以下,\ref{sec:ds_problem0}節では,話し言葉における節境界と係り受け構造の定義,および,引用節と挿入節との関係について述べる.次に,\ref{sec:ds_problem1}節では,話し言葉特有の現象,特に,節境界が曖昧であるという現象が係り受け解析に及ぼす影響について言及する.そして,\ref{sec:ds_problem2}節では,その他の話し言葉特有の現象に関して,本研究での係り受け解析時の扱いについて述べる.\subsection{節境界と係り受け構造の定義および引用節・挿入節との関係}\label{sec:ds_problem0}一般に,書き言葉においては,係り受け構造などを付与する単位として,いわゆる「文」を用いることが多い.しかし,自発的な話し言葉を対象とする場合,文は必ずしも自明な単位ではない.そこでCSJでは,より適切な分割単位として,「節」に基づく文の単位が定義されている.節境界としては,次の3種類が定義されている.\par\noindent\textgt{絶対境界}:いわゆる文末表現で,述語の終止形・終助詞・「と文末」など.\par\noindent\textgt{強境界}:並列節「ケレドモ」「ガ」「シ」・「ましテ」節・「でしテ」節など.\par\noindent\textgt{弱境界}:理由節「カラ」「ノデ」・連用節・引用節・条件節「タラ」「ト」「ナラ」「レバ」など.\par\noindentそして,これらの節境界を表層表現などに基づいて自動検出した後\cite{maruyama},文節係り受けを考慮して人手により文境界を特定する\cite{takanashi}.上の3種類の境界のうち,絶対境界と強境界は基本的に文境界となり,弱境界は機能的に区切れていると判断される箇所のみが文境界となる.引用節と挿入節についてもこのときに認定され,基本的に,引用節の終端は弱境界,挿入節の終端は強境界となる.CSJにおける係り受け構造は,原則として「京大コーパス」\cite{K-corpus}の付与基準に準拠して付与されており,話し言葉特有の現象に対しては新たな基準が設けられている\cite{csj_kakariuke}.係り受けは文内で閉じており,引用節・挿入節の内部でも同様に係り受けが閉じている.したがって,文境界が特定されれば,引用節と挿入節の始端は係り受け構造に基づいて特定できる.すなわち,直前の文節が終端より後方に係る文節のうち,最も終端に近いものが引用節の始端となる.そのような文節がない場合は,文頭の文節が始端となる.話し言葉,特にCSJのような長い独話における引用節・挿入節の特徴は次の通りである.以下では,引用節・挿入節と係り受け構造との関係の例も示す.\begin{description}\item[(引用節)]\\引用節は,主に人の言ったことや思ったことを発話に取り込む際に用いられる.書き言葉では引用節の前後に引用符や読点が付与されるのに対し,発話においては,その境界が明示されることはない.以下の例文\ref{inyo}では,{}内が引用節に相当し,「昔から」が引用節の後方に係るため「一度でも」が始端となる.\noindent(例文\prob{\label{inyo}})\\[0.5zw]\begin{picture}(380,95)(-20,0)\linethickness{0.25pt}\put(0,85){ここは}\put(30,89){\line(1,0){135}}\put(165,89){\line(0,-1){76.5}}\put(20,68){昔から}\put(50,72){\line(1,0){115}}\put(30,51){{一度でも}\put(80,55){\line(1,0){25}}\put(105,55){\line(0,-1){25.5}}\put(50,34){いいから}\put(90,38){\line(1,0){15}}\put(70,17){行ってみたい}と}\put(150,21){\line(1,0){15}}\put(90,0){思っていたところです}\end{picture}\noindentCSJでは,引用節の終端の文節に「引用節」というラベルが付与されている.本研究では,それに加え「トイウ節」のラベルの付いたものも引用節として扱う.トイウ節は,以下の例文\ref{toiu}のように引用を表わすために多く用いられる.例文\ref{toiu}では,引用節の終端を越えて係る文節はないので,「本当に」が始端となる.\noindent(例文\prob{\label{toiu}})\\[0.5zw]\begin{picture}(380,61)(-20,0)\linethickness{0.25pt}\put(0,51){{本当に}\put(40,55){\line(1,0){35}}\put(75,55){\line(0,-1){8.5}}\put(40,34){それだけなのか}という}\put(150,38){\line(1,0){15}}\put(165,38){\line(0,-1){8.5}}\put(140,17){疑念が}\put(170,21){\line(1,0){15}}\put(185,21){\line(0,-1){8.5}}\put(150,0){あるからです}\end{picture}\noindent以降,引用節・トイウ節を合わせて引用節とする.\item[(挿入節)]\\挿入節は,発話の途中で話者の発話プランが変更されたとき,節の途中に別の節が注釈のような形で挿入されることにより発生するものである.書き言葉ではこのような表現はあまり用いられない.例文\ref{is}では,()内が挿入節に相当する.\noindent(例文\prob{\label{is}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){ホテルの}\put(40,106){\line(1,0){5}}\put(45,106){\line(0,-1){8.5}}\put(20,85){部屋の}\put(50,89){\line(1,0){5}}\put(55,89){\line(0,-1){8.5}}\put(40,68){中も}\put(60,72){\line(1,0){125}}\put(185,72){\line(0,-1){59.5}}\put(50,51){早速}\put(70,55){\line(1,0){115}}\put(60,34){(夜}\put(80,39){\line(1,0){5}}\put(85,39){\line(0,-1){8.5}}\put(80,17){着いたんですけども)}\put(120,0){チェックしました}\end{picture}CSJでは,挿入節の終端の文節に「挿入節」というラベルが付与されている.挿入節の終端は基本的に強境界となっているが,挿入節を越えて前方から後方に係る係り受けが存在するため,文境界ではなく挿入節の終端と認定される.\end{description}\subsection{節境界の曖昧さが係り受け解析に及ぼす影響}\label{sec:ds_problem1}従来研究では,話し言葉において節境界の曖昧さが係り受け解析に及ぼす影響については,ほとんど考慮されていなかった.下岡ら\cite{shitaoka_2005}は,話し言葉では文境界が曖昧であることが係り受け解析に与える影響が最も大きいことを指摘し,その影響を定量的に示した.彼らは,正しい文境界の情報を与えることにより,文境界を自動推定した場合に比べて約3\%高い係り受け解析精度が得られると報告している.また,文境界を推定する方法および文境界の自動推定結果を係り受け解析に利用する方法を提案し,その有効性も示した.しかし,その他の節境界については,係り受け解析に及ぼす影響は明らかではなかった.大野ら\cite{Ohno:coling-acl2006}は,文を節境界で分割して得られる節境界単位を基本として,節境界単位内の係り受けと節境界単位間の係り受けを別々に解析する方法を提案し,その有効性を示している.しかし,節境界単位は節とは異なるため,本来は節を超える係り受けを正しく推定することができない.例えば,\ref{sec:ds_problem0}の例文\ref{inyo}や例文\ref{is}では,節の始端は節境界ではないため,「昔から」と「思っていたところです」,「早速」と「チェックしました」は節境界単位をまたぐ係り受けとみなされ,正しく推定することができない.内元ら\cite{Uchimoto:lrec2006a}は文境界,言い直しの存在,挿入節・引用節などの境界の曖昧さ,係り先のない文節に着目し,正しい文境界の情報を与えた場合,さらに言い直し関係のうち係り元の文節を削除した場合,さらに挿入節・引用節の境界の情報を与えた場合,さらに係り先のない文節を削除した場合のそれぞれについて,係り受けモデルを学習しテストした場合に得られる係り受け解析精度を調べた.その結果,挿入節・引用節の境界の情報を与えた場合に約2\%高い精度が得られたと報告している.これは,話し言葉においては引用節や挿入節を含む文は節構造が複雑で,引用節あるいは挿入節の内部と外部とを結んでしまう係り受け解析誤りが多くなるためであると考えられる.逆に,引用節・挿入節の範囲を取得することができれば,係り受け解析精度の向上が期待できるが,そこまでは明らかにはされていない.そこで,本論文では,引用節・挿入節を自動認定する手法,および,その結果を利用して係り受け解析を行なう手法を提案し,引用節・挿入節を自動認定した結果を用いることで係り受け解析精度が有意に向上することを示す.手法については,\ref{sec:method}章で詳しく述べる.\subsection{係り受け解析におけるその他の話し言葉特有の現象の扱い}\label{sec:ds_problem2}その他の話し言葉特有の現象および本研究における係り受け解析時の扱いについては次の通りである.\begin{description}\item[(1)文境界が明示されていない]\\話し言葉では文境界が明示されない.そのため,すべての文節に対して係り受けを特定しようとすると,文間関係も文節の関係として特定することになる.しかし,文間関係については人間の判断が揺れる場合が多い.また,自動要約のために文圧縮をしたり格関係を抽出する場合など,実際に必要となる係り受けの情報は文単位の係り受けであることが多い.そこで本研究では,文間関係は推定せず文境界を推定するにとどめ,係り受けは文内の文節間係り受けのみを対象として解析する.\item[(2)係り先がない文節がある]\\話し言葉では,途中で発話のプランが変わったために係り先が消失したり,またフィラーや言いよどみなど,係り受け関係を特定しても用途がほとんど考えられず,係り受けを定義することに意味がない場合がある.このような場合,CSJでは係り受けが付与されていない.フィラーや言いよどみについては,浅原らの手法\cite{asahara}を用いることである程度特定できると考え,本研究ではすべて削除して扱う.ただし,どこにフィラーがあったかについての情報は残しておき,後の解析に利用する.本来これらの文節については,正しく「係り先なし」と推定するべきであるが,これについては今後の課題とする.それ以外の係り先を持たない文節については,以下に述べる条件に従って便宜的に係り先を設定する.\begin{itemize}\item挿入節の終端の文節は,交差を発生させない範囲で文内のできるだけ後方に係るとする.\ref{sec:ds_problem0}節の例文\ref{is}では,「着いたんですけども」の係り先は「チェックしました」とする.\item引用節や挿入節の内部に絶対境界・強境界が含まれる場合,その内部境界の直前の文節の係り先は,後方に最初に現れる内部境界の直前または引用節・挿入節の終端の文節とする.以下の例文\ref{B}にその例を示す.「:」は内部境界を表わす.「必要かな」「確保できないし」は係り先を持たないが,それぞれ「確保できないし」「作れるんじゃないかな」に係るとする.\noindent(例文\prob{\label{B}})\\[0.5zw]\begin{picture}(380,61)(-20,0)\linethickness{0.25pt}\put(0,51){{やっぱりナイフは必要かな:}\put(160,55){\line(1,0){25}}\put(185,55){\line(0,-1){8.5}}\put(20,34){ナイフがないと何も確保できないし:}\put(220,38){\line(1,0){5}}\put(225,38){\line(0,-1){25.5}}\put(30,17){まずはもしかしたら何年間も}\put(40,0){掛けてカヌーぐらい作れんじゃないかな}と思いましてね}\end{picture}\item上記以外の係り先を持たない文節は,直後の文節に係るとする.\end{itemize}\item[(3)係り受け関係が交差する]\\一般に,日本語の書き言葉においては「係り受け関係は互いに交差しない」という非交差条件が成り立つと言われている.しかし,話し言葉ではこの非交差条件が成り立たないことも多い.例えば,以下の例文\ref{crs}では,「これが」が「正しいと」に係り,「私は」が「思う」に係るので係り受け関係が交差している.\noindent(例文\prob{\label{crs}})\\[0.5zw]\begin{picture}(380,61)(-20,0)\linethickness{0.25pt}\put(0,51){これが}\put(30,55){\line(1,0){35}}\put(65,55){\line(0,-1){25.5}}\put(20,34){私は}\put(40,38){\line(1,0){55}}\put(95,38){\line(0,-1){25.5}}\put(40,17){正しいと}\put(80,21){\line(1,0){15}}\put(80,0){思う}\end{picture}しかし,今回用いた188講演において,係り受け関係が交差している箇所は689個とそれほど多くないため,本論文では,係り受けの非交差条件が成り立つと仮定して係り受け解析を行なう.したがって,評価の際,交差している係り受けのいずれかは解析誤りとなる.交差している場合への対処については今後の課題である.\item[(4)言い直しが多い]\\話し言葉ではしばしば言い直しが生じる.CSJでは言い直し関係には係り受け関係と同様の関係が付与され,さらにDというラベルが付与されている.以下の例文\ref{rep}にその例を示す.\noindent(例文\prob{\label{rep}})\\[0.5zw]\begin{picture}(380,95)(-20,0)\linethickness{0.25pt}\put(0,85){山田}\put(30,85){D}\put(20,89){\line(1,0){10}}\put(40,89){\line(1,0){5}}\put(45,89){\line(0,-1){8.5}}\put(10,68){山田さんは}\put(60,72){\line(1,0){65}}\put(125,72){\line(0,-1){59.5}}\put(20,51){強靭な}\put(50,55){\line(1,0){15}}\put(65,55){\line(0,-1){8.5}}\put(50,34){肉体の}\put(80,38){\line(1,0){15}}\put(95,38){\line(0,-1){8.5}}\put(60,17){持ち主だと}\put(110,21){\line(1,0){15}}\put(70,0){言ってましたね}\end{picture}本来は,文節間の関係の推定のみではなくそれがどういった関係なのかまで推定すべきである.しかし,書き言葉を対象にした研究においても多くの場合は関係の有無の推定のみを対象としているため,本論文でも同様に,言い直し関係を係り受け関係として特定し,言い直し関係かどうかのラベルの推定までは行なわない.\item[(5)倒置表現がある]\\話し言葉ではしばしば倒置表現が用いられる.CSJでは,倒置は左係りで表現されている.本論文では,関係を特定することが重要と考え,CSJにおける倒置に対しては修正を行ない,便宜上すべて右係りとして扱った.例えば,以下の例文3では,「これは」が「耐えられないんです」に倒置で係っているが,「耐えられないんです」が「これは」に係るように修正した.\noindent(例文\prob{\label{inv}})\\[0.5zw]\begin{picture}(380,44)(-20,0)\linethickness{0.25pt}\put(0,34){私は}\put(20,38){\line(1,0){15}}\put(35,38){\line(0,-1){8.5}}\put(20,17){耐えられないんです}\put(110,0){これは}\put(75,4){\line(0,1){8.5}}\put(75,4){\line(1,0){35}}\end{picture}\end{description}なお,上記の対処法については(2)以外は下岡らの手法\cite{shitaoka_2005}に従っている. \section{係り受け解析と引用節・挿入節の自動認定のアプローチ} label{sec:method}\subsection{係り受け解析と境界推定の相互処理}\label{sec:method_ov}図\ref{flow}に本手法で提案する処理の概要を示す.処理の流れは下記の通りである.入力は,形態素および文節の情報が付与されたテキストであり,CSJを対象とする場合,一講演のテキストおよび形態素,文節の情報が入力となる.図\ref{flow}およびその説明において,文境界と引用節・挿入節の境界をまとめて境界と表現している.\begin{figure}[t]\begin{center}\includegraphics{16-1ia1f1.eps}\caption{係り受け解析と境界推定の相互処理の概要}\label{flow}\end{center}\vspace{-1\baselineskip}\end{figure}\begin{itemize}\item境界推定(1回目)\\入力テキストに対し,まず,\ref{sec:method_cb}節で述べる手法により,表層表現・品詞・活用形,ポーズ長の情報などを素性として用いて,文境界,引用節,挿入節の境界を推定する.このとき,引用節・挿入節および文境界の3つの境界の推定は同時に行なう.\item係り受け解析(1回目)\\次に,境界推定(1回目)で推定された文境界によりテキストを文に分割し,各文について,\ref{sec:method_ds}節で述べる手法により係り受け解析を行なう.このとき,素性としては表層表現・品詞・活用形,文節間距離などを用いる.境界推定(1回目)で得られた情報のうち,引用節・挿入節の境界に関する情報はここでは用いない.\item境界推定(2回目)\\さらに,元の入力テキストに対し,文境界,引用節,挿入節の境界を再推定する.このとき,係り受け解析(1回目)で得られた係り受けの確率の情報も素性として用いる.この素性は境界の情報により場合分けされており,その場合分けには,境界推定(1回目)で得られた引用節・挿入節の境界のうち,終端の情報を用いる.\item係り受け解析(2回目)\\最後に,境界推定(2回目)で得られた文境界により元の入力テキストを文に分割し,各文について,\ref{sec:method_ds}節で述べる手法により係り受けの再解析を行なう.このとき,境界推定(2回目)で得られた引用節・挿入節の境界の情報も素性として用いる.\end{itemize}以上の処理により,入力テキストに対し,文境界,引用節,挿入節の境界情報,および,各文内について文節係り受けの情報が得られる.以下では,係り受け解析および引用節・挿入節の自動認定の手順についてそれぞれ説明する.\subsection{係り受け解析}\label{sec:method_ds}本研究では,内元らの手法\cite{uchimoto_2000}に基づき,係り受け解析モデルを統計的に学習する.統計的係り受け解析では,文中の各文節がどの文節に係りやすいかを確率値で表わし,それらを要素とした係り受け行列を作成する.そして,一文全体が最適な係り受け関係になるように,それぞれの係り受けを決定する.ここで,2つの文節間の関係を「間」「係る」「越える」の3カテゴリとして学習することにより,着目している2文節の間にある文節や,それらより後方にある文節との関係も考慮して確率値を計算できる.この係り受け解析モデルは最大エントロピー(ME)モデルとして実装され,素性には,単語の表層表現・品詞・活用形・文節間距離など,およびそれらの組合せが利用されている.本研究ではさらに,着目している2文節の係り受けを仮定した場合に,その係り受けが引用節・挿入節の境界と交差するかどうかを素性に加える.より具体的には次の通りである.仮定した係り受けと引用節・挿入節の境界との関係は下記の3つの場合に分類できる.そして,引用節と挿入節のそれぞれについて,2文節の関係が下記の分類のうちどれに属するかを素性値として与える.\begin{itemize}\item{\bf仮定した係り受けと引用節・挿入節の境界とが交差する場合}交差が発生するのは,以下の2通りの場合である.このとき,2文節が実際に係り受け関係を持つことはない.ただし,対象の2文節のうち係り文節が引用節あるいは挿入節の終端となっている場合はこの分類に含めない.\begin{itemize}\item2文節の一方のみが引用節・挿入節の内部に含まれる\item2文節の双方が異なる引用節・挿入節の内部に含まれる\end{itemize}\item{\bf仮定した係り受けと引用節・挿入節の境界とが交差しない場合}交差が発生しないのは,以下の2通りの場合である.\begin{itemize}\item2文節がともに引用節・挿入節の内部に含まれない\item2文節がともに同一の引用節・挿入節の内部に含まれる\end{itemize}\item{\bf2文節のうち係り文節が引用節・挿入節の終端となっている場合}この場合には,\ref{sec:ds_problem2}節で述べたように,節の外部と内部との係り受けが例外的に結ばれるので,別の分類とする.\end{itemize}ただし,引用節・挿入節の境界が適切に推定されていることが望ましいため,この素性は図\ref{flow}の係り受け解析(2回目)のみに用いる.この素性を用いることにより,2文節間に仮定した係り受けと引用節・挿入節の境界とが交差する場合には,この2文節が実際に係り受け関係を持つ確率は低く推定される.\subsection{引用節・挿入節の自動認定}\label{sec:method_cb}本研究では,下岡らが提案した機械学習による文境界推定法\cite{shitaoka_2005}に基づき,引用節・挿入節の自動認定をテキストチャンキングの問題として扱う.これにより,引用節・挿入節の自動認定と文境界推定を同時に行なうことが可能となり,これらを別々に行なう場合に比べて,文境界推定の誤りに対しても頑健に動作することが期待できる.テキストチャンカには,SVM(SupportVectorMachines)に基づくYamCha\cite{YamCha}を用いる.YamChaでは,カーネル関数として多項式カーネルを用いることにより,複数の素性の組合せを考慮した学習が可能である.また,推定により得られた前後のチャンクラベルを動的素性として用いることができる.本手法では,チャンクラベルは文節ごとに付与する.ラベルには,文境界に関するタグ(E:文末,I:文末以外)と,引用節および挿入節に関するタグ(表\ref{kind_label})の3つ組を用いる.以下の例文~\ref{label}にラベル付与の例を示す.ラベル内のタグは,順に(文境界に関するタグ,引用節に関するタグ,挿入節に関するタグ)を表わしている.例えば「予算の」に付与されているラベル{\tt(I,B,B)}は,この文節が文末の文節ではなく,引用節・挿入節の始端となっていることを示す.3つのタグは同時に推定されるため,このモデルでは文境界・引用節・挿入節の関係が考慮されている.例えば,引用節・挿入節の範囲が文境界を越えることはないので,{\tt(E,I,O)}などというラベルが推定されることはない.\noindent(例文\prob{\label{label}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){今は}\put(175,102){\texttt{(I,O,O)}}\put(20,106){\line(1,0){145}}\put(165,106){\line(0,-1){93.5}}\put(25,85){({予算の}\put(175,85){\texttt{(I,B,B)}}\put(70,89){\line(1,0){5}}\put(75,89){\line(0,-1){8.5}}\put(50,68){関係だ}と}\put(175,68){\texttt{(I,E,I)}}\put(100,72){\line(1,0){5}}\put(105,72){\line(0,-1){8.5}}\put(60,51){思いますが)}\put(175,51){\texttt{(I,O,E)}}\put(70,34){一夏に}\put(175,34){\texttt{(I,O,O)}}\put(100,38){\line(1,0){15}}\put(115,38){\line(0,-1){8.5}}\put(80,17){三回ぐらいしか}\put(175,17){\texttt{(I,O,O)}}\put(150,21){\line(1,0){15}}\put(120,0){やりません}\put(175,0){\texttt{(E,O,O)}}\end{picture}YamChaの多項式カーネル次数は3,解析方向はRighttoLeftとし,後方3文節の動的素性を利用する.SVMに与える素性としては,以下のものを用いる.\begin{table}[t]\caption{チャンキングに使用するタグの種類}\label{kind_label}\begin{center}\input{01table01.txt}\end{center}\end{table}\begin{description}\item[(1)単語情報]\\単語情報として,表層表現・読み・品詞情報・活用の種類・活用形を用いる.引用節の終端では「〜と思う」「〜って言う」などの表現が,挿入節の終端では「〜ですが」「〜けれども」などの表現が多用される.\item[(2)文節の前後のポーズ長]\\引用節や挿入節の前後にはポーズが入りやすいと考えられる.そこで,文節の前後のポーズ長を素性として利用する.なおポーズ長としては,講演ごとに平均と分散で正規化した値を用いる.CSJでは,200~msec以上のポーズで区切られた単位を転記単位として,書き起こしデータが作成されており,各転記単位には開始・終了時刻が付与されているため,これからポーズ長が計算できる.\end{description}引用節・挿入節の終端を推定する際には単語情報が大きな手がかりとなるが,以上の素性はすべて局所的な情報であり,これらだけから始端も同時に推定するのは困難である.例えば,以下の例文\ref{ex_depend}では,「この辺りは父から聞いた話なんですけど」の部分だけを見た場合,「(他に自分が体験したことを話している途中で)この辺り(の話)は父から聞いた話なんですけど」という意味でも解釈できるため,「父から」が引用節の始端であるとは決定できない.この場合,「この辺りは父から聞いた話なんですけど」の全体が挿入節に含まれる可能性もある.\noindent(例文\prob{\label{ex_depend}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){この}\put(20,106){\line(1,0){15}}\put(35,106){\line(0,-1){8.5}}\put(20,85){辺りは}\put(50,89){\line(1,0){125}}\put(175,89){\line(0,-1){76.5}}\put(30,68){(父から}\put(70,72){\line(1,0){15}}\put(85,72){\line(0,-1){8.5}}\put(60,51){聞いた}\put(90,55){\line(1,0){15}}\put(105,55){\line(0,-1){8.5}}\put(80,34){話なんですけど)}\put(100,17){昔}\put(110,21){\line(1,0){65}}\put(120,0){たんぼだったんです}\end{picture}このように,引用節・挿入節の始端を決定するためには,大域的な情報も必要となる.そこで,始端を決定する際には,自動推定した係り受けの情報をあわせて利用する.引用節・挿入節の終端が既に得られている場合,\ref{sec:ds_problem0}節および\ref{sec:method_ds}節で述べたような引用節・挿入節と係り受け構造との関係により,始端より前の文節の係り受けには図\ref{depend}のような制約が成り立つ.本手法ではこの制約を利用し,チャンキングを2回にわたって行なう.1回目のチャンキング(図\ref{flow}の境界推定(1回目))では,上述の素性のみを用いて文境界および引用節・挿入節を自動認定する.そして,ここで得られた文ごとに係り受け解析(図\ref{flow}の係り受け解析(1回目))を行ない,1回目のチャンキングで自動認定された引用節・挿入節の終端の情報をもとに,以下の係り受けの確率を素性に加えて,2回目のチャンキング(図\ref{flow}の境界推定(2回目))を行なう.学習データに対する係り受け確率は,学習データ内で10-foldcrossvalidationによって係り受け解析を行なうことで求める.\begin{figure}[t]\begin{center}\includegraphics{16-1ia1f2.eps}\caption{引用節・挿入節の始端以前の係り受けに関する制約}\label{depend}\end{center}\end{figure}\noindent{\bf(a)着目している文節より前方にある文節が,着目している文節と終端の間の文節に係る確率\\(b)着目している文節の直前の文節が,終端より後方の文節に係る確率\\}図\ref{depend}から,例えば,(a)の確率が小さく(b)の確率が大きければ,その文節は始端になりやすいと推測される.先の例文\ref{ex_depend}では,「辺りは」「聞いた」「話なんですけど」は前方の文節が着目している文節に係るため,(a)の確率が大きくなる.また「父から」については,直前の文節「辺りは」が挿入節の終端「話なんですけど」より後方に係るため,(b)の確率が大きくなる.これより,「父から」が挿入節の始端であると推定できることが期待される. \section{評価実験} label{sec:eval}引用節・挿入節の自動認定および係り受け解析の評価実験を行なった.実験に用いたコーパスはCSJのコア188講演(模擬講演111講演と学会講演77講演)の書き起こしである.この中には6,148個の引用節と818個の挿入節が含まれている.このうち168講演を学習データ,20講演(模擬講演11講演と学会講演9講演)をテストデータとして用いた.まず,下岡らの手法\cite{shitaoka_2005}に従い,単語情報とポーズ長を用いて文境界を推定した後で,得られた文ごとに係り受け解析を行ない,ベースライン精度を求めた.文境界推定のF値は85.6で,係り受け解析精度は,openテストで77.7\%,closedテストで86.6\%であった.closedテストでは,188講演のすべてを学習に利用している.\subsection{引用節・挿入節の自動認定結果}\label{sec:eval_cb}\ref{sec:method_cb}節で述べた手法を用いて,引用節・挿入節の自動認定を行った.その結果を表\ref{result_yamcha}に示す.表\ref{result_yamcha}には以下の5種類の実験結果を示している.\begin{table}[b]\caption{引用節・挿入節の認定精度(文境界が未知の場合)}\label{result_yamcha}\begin{center}\input{01table02.txt}\end{center}\end{table}\begin{itemize}\item係り受けを用いない場合(1回目のチャンキング:図\ref{flow}の境界推定(1回目))の認定精度\itemopenテストで得られた係り受けを用いた場合(2回目のチャンキング:図\ref{flow}の境界推定(2回目))の認定精度\itemclosedテストで得られた係り受けを用いた場合(2回目のチャンキング:図\ref{flow}の境界推定(2回目)の認定精度\item正解の係り受けを用いた場合(2回目のチャンキング:図\ref{flow}の境界推定(2回目))の認定精度(係り受け確率はすべて1.0とする)\item1回目のチャンキング(図\ref{flow}の境界推定(1回目))における終端のみについての認定精度\end{itemize}表\ref{result_yamcha}によると,引用節の終端のおよそ9割は正しく検出できている.検出できなかったものの中には「〜と」で終わる文末や,「〜っちゅう」「〜みたいな」など,使われる頻度が比較的少ない表層表現があった.始端とともに正解した精度は,openテストで自動推定された係り受けを利用することによって向上した.個々の文節における引用節のチャンクタグの推定結果についてマクネマー検定を行なったところ,$p<0.01$で有意な改善が得られていることが分かった.これは,本手法で素性として利用した係り受け情報が有効に作用したことを表わしている.例えば,以下の例文\ref{improve_yamcha}では,1回目のチャンキングでは「多分私が飼っていたさくらの方だった」の部分が引用節だと誤って自動認定されたものの,2回目のチャンキングで係り受けを利用することにより,「逃げたのは多分私が飼っていたさくらの方だった」の範囲が引用節であると正しく自動認定されるようになった.\noindent(例文\prob{\label{improve_yamcha}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){{逃げたのは}\put(60,106){\line(1,0){105}}\put(165,106){\line(0,-1){93.5}}\put(20,85){多分}\put(40,89){\line(1,0){125}}\put(30,68){私が}\put(50,72){\line(1,0){15}}\put(65,72){\line(0,-1){8.5}}\put(40,51){飼っていた}\put(90,55){\line(1,0){15}}\put(105,55){\line(0,-1){8.5}}\put(80,34){さくらの}\put(120,38){\line(1,0){15}}\put(135,38){\line(0,-1){8.5}}\put(90,17){方だった}と}\put(150,21){\line(1,0){15}}\put(100,0){思うんですけれども}\end{picture}さらに,closedテストで得られた係り受けや正解の係り受けを用いた場合は,引用節の認定精度は大きく向上している.このことから,係り受け解析精度が改善されるのに伴って,引用節の認定精度も向上することが分かる.一方,挿入節については,係り受けを利用してもほとんど検出できず,挿入節の終端の大半は文境界であると推定されていた.挿入節は,文末表現としてもよく用いられる「〜けれども」「〜ですが」の形で終わるものが多く,文境界との区別が難しいことが原因であると考えられる.これらの区別は,本手法で用いた素性だけでは困難である.そこで,\ref{sec:additional_features}節に述べるように,フィラーの有無や話速,韻律情報などを素性として用いてみたが,有意な精度向上は見られなかった.今後,より広範な素性を検討する必要があると考える.\subsection{節の自動認定結果を用いた係り受け解析結果}\label{sec:eval_db}\begin{table}[b]\caption{係り受け解析精度(文境界が未知の場合)}\label{result_pepp}\begin{center}\input{01table03.txt}\end{center}\end{table}次に,自動認定された引用節・挿入節を用いて,\ref{sec:method_ds}節の手法で係り受け解析(図\ref{flow}の係り受け解析(2回目))を行なったところ,表\ref{result_pepp}に示す結果となった.ここで用いる引用節・挿入節の自動認定結果は,表\ref{result_yamcha}においてopenテストで得られた係り受けを利用したものである.学習データにおいても同様に,2-foldcrossvalidationによって引用節・挿入節の自動認定を行なった.引用節・挿入節の自動認定結果を利用することで,openテストにおける係り受け解析精度は1.0\%向上した.マクネマー検定を行なったところ,本手法を用いた係り受け解析精度はベースラインの精度より$p<0.01$で有意に上回っていることがわかった.この結果は,引用節・挿入節の推定に誤りがある場合でも,係り受け解析モデルが頑健に作用したことを示唆している.\begin{table}[t]\caption{引用節・挿入節の境界と交差する係り受けの数(文境界が未知の場合)}\label{result_cross}\begin{center}\input{01table04.txt}\end{center}\end{table}そこで次に,引用節・挿入節を含む文の係り受け解析における解析誤りの数の変化について考察した.表\ref{result_cross}に,引用節・挿入節の内部と外部を結ぶ誤った係り受けが推定された数を示す.このような係り受け解析誤りの数は,引用節・挿入節の推定結果を利用することで,639個から572個に削減された.特に,引用節の内部から外部へと係る解析誤りの数が,217個から128個へと大きく削減された.その理由は次のように考えられる.一般に,引用節や挿入節がある場合は,その前方にある文節は引用節や挿入節を越えて遠くの文節に係ることが多い.その結果,従来の係り受けモデルでは,遠くに係る係り受けが誤って優先され,引用節・挿入節の内部から終端を越えて節の後方に係るような係り受け解析の誤りが多く発生していた.しかし,本手法によって,引用節については,認定精度の高かった終端の情報を活用することで,このような解析誤りを削減することができるようになったと考えられる.例えば,以下の例文\ref{improve_depend}では,引用節・挿入節の情報を利用せずに係り受け解析を行なった場合には,「挟んで」(引用節内部)が「覚えてきて」(引用節外部)に係ると誤って推定されていたものの,「顔挟んで外に出てしまう」の部分を引用節として自動認定できたことにより,「挟んで」(引用節内部)が「出てしまうという」(引用節内部)に係るように修正された.\noindent(例文\prob{\label{improve_depend}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){{顔}\put(20,106){\line(1,0){15}}\put(35,106){\line(0,-1){8.5}}\put(20,85){挟んで}\put(50,89){\line(1,0){25}}\put(75,89){\line(0,-1){25.5}}\put(40,68){外に}\put(60,72){\line(1,0){15}}\put(50,51){出てしまう}という}\put(140,55){\line(1,0){15}}\put(155,55){\line(0,-1){8.5}}\put(140,34){芸を}\put(160,38){\line(1,0){55}}\put(215,38){\line(0,-1){25.5}}\put(150,17){どこからか}\put(200,21){\line(1,0){15}}\put(180,0){覚えてきて}\end{picture}また,表\ref{result_pepp}には,引用節・挿入節の正解を与えた場合,すなわち認定精度が100\%だったと仮定した場合の係り受け解析の結果も示す.この場合,係り受け解析精度はさらに改善されており,引用節・挿入節の認定精度の向上に伴って係り受け解析精度も改善されることが分かる.\subsection{節の自動認定と係り受け解析の相互作用に関する考察}\label{sec:eval_interact}上述の実験結果から,引用節・挿入節の自動認定および係り受け解析の精度は,相互の情報を利用することにより高精度化されることが確認できた.単純には,同様のサイクルを繰り返すことにより,さらなる精度向上が期待される.そこで,引用節・挿入節の自動認定結果と係り受け解析の結果を再度相互に利用して,それぞれの精度がさらに改善されるかどうか調べた.しかしながら,引用節の認定精度および係り受け解析精度に有意な変化は見られなかった.これは,一度引用節・挿入節の情報を利用して推定した係り受けは,現在得られている節の認定範囲に対して最適な状態になっており,その結果を用いても始端の位置はほとんど修正できないためと考えられる.逆に,再度相互に推定結果を利用することで,引用節の外部から内部へと係る解析誤りがわずかに増加する結果となった.これは,2回目のチャンキングで引用節の始端を再推定する際に,誤った係り受けの情報が優先され,始端の位置が誤って文頭側にずれたことが原因と推測される.今後の課題として,特に引用節の始端付近について係り受けの傾向を詳細に分析し,より適切な係り受けの利用法を検討したい.\subsection{文境界が既知の場合の実験結果}\label{sec:known_sb}\begin{table}[b]\caption{引用節・挿入節の認定精度(文境界が既知の場合)}\label{result_yamcha2}\begin{center}\input{01table05.txt}\end{center}\end{table}次に,文境界推定の誤りの影響を調べるために,正解の文境界を与えて,引用節・挿入節の自動認定および係り受け解析を行なった.評価結果を表\ref{result_yamcha2}$\sim$表\ref{result_cross2}に示す.結果として,文境界を与えることにより,引用節・挿入節の認定精度,係り受け解析精度ともに大きく上昇した.表\ref{result_yamcha2}からは,引用節だけでなく挿入節についても係り受けを利用することで認定精度が向上すること,表\ref{result_pepp2}からは,引用節・挿入節の自動認定結果を用いることでopenテストでの係り受け解析精度が0.6\%向上することなどが分かる.また,引用節・挿入節の正解を与えた場合,係り受け解析精度はさらに改善されることも分かる.これらの結果は,文境界推定の誤りの影響がいかに大きいかを示している.\begin{table}[t]\caption{係り受け解析精度(文境界が既知の場合)}\label{result_pepp2}\begin{center}\input{01table06.txt}\end{center}\end{table}\begin{table}[t]\caption{引用節・挿入節の境界と交差する係り受けの数(文境界が既知の場合)}\label{result_cross2}\begin{center}\input{01table07.txt}\end{center}\end{table}しかしながら,話し言葉において曖昧となる引用節・挿入節および文境界の情報をすべて与えても,書き言葉における係り受け解析精度と比べると依然として大きな差がみられる.話し言葉における係り受け解析精度をさらに向上させるためには,話し言葉特有の問題点について,さらに調査を行なう必要がある.これは今後の課題である.\subsection{その他の素性を追加した場合の実験結果}\label{sec:additional_features}\ref{sec:method_cb}節で述べた素性(1)と(2)に下記の素性を加え,それぞれの素性の組み合わせを用いて\ref{sec:eval_cb}節や\ref{sec:eval_db}節と同様の実験を行なった.\begin{description}\item[文節の前後のフィラーの有無]\\引用節や挿入節の前後にはポーズだけでなくフィラーも入りやすいと考えられる.そこで,文節の前後のフィラーの有無も素性として利用する.\item[文節の話速]\\挿入節では,話者が早口になると考えられるため,各文節の話速をポーズ長と同様に正規化してから用いる.話速は,モーラあたりの平均発声時間によって定義する.すなわち文節$b$の話速$rate(b)$は,文節$b$が転記単位$u$に含まれるとき,次式で計算できる.\[rate(b)=\frac{t_{end}(u)-t_{begin}(u)}{mora(u)}\]ここで$t_{begin}(u)$,$t_{end}(u)$は転記単位$u$の開始・終了時刻を表わし,$mora(u)$は転記単位$u$に含まれるモーラ数である.\item[文節内の基本周波数の最大値]\\引用節・挿入節の境界の前後では,基本周波数(F0)の上昇や下降が起こることが予想される.そこで,各文節における基本周波数の最大値を講演ごとに正規化したものを素性として用いる.CSJでは,F0曲線の頂点や,曲線の変化率が大きく変わる点(屈曲点)に対して,自動抽出されたF0値が付与されており,素性としてはその値を用いる.\item[文節の先頭・末尾の韻律ラベル]\\CSJでは,韻律の変化に関するラベリングが行なわれている.ラベリング体系には,日本語の韻律ラベリング法として従来用いられてきたJ\_ToBI(JapaneseTonesandBreakIndices)\cite{JToBI}を自発音声に適用するための拡張が施されたX-JToBI(eXtendedJ\_ToBI)\cite{X-JToBI}が用いられている.これらのラベルは,音声の基本周波数のパターンや,音韻の時間長変化によるリズムを考慮して定義されたものである.引用節・挿入節の始端や終端では,これらの韻律特徴に変化が起こることが考えられる.そこで,各文節の先頭および末尾に付与されているX-JToBIのトーン層ラベルを素性として用いる.X-JToBIで定義されているトーン層ラベルの例を表\ref{table:XJToBI}に示す.\begin{table}[b]\caption{X-JToBIトーン層ラベルの例}\label{table:XJToBI}\begin{center}\input{01table08.txt}\end{center}\end{table}\end{description}それぞれの素性の組み合わせに対し,個々のチャンクラベルの推定結果についてマクネマー検定を行なったところ,単語情報とポーズ長以外の素性,すなわち,フィラーの有無・話速・基本周波数・韻律ラベルを用いても,有意水準$p=0.01$とした場合,有意な改善は得られなかった.これは,話速・基本周波数・韻律ラベルといった音響的特徴の現れ方が,引用節・挿入節において不安定であることや,上記の素性から得られる情報がすでに単語情報やポーズ長から得られていることなどが原因と考えられる. \section{おわりに} label{sec:final}本論文では,CSJを対象として,引用節・挿入節を自動認定し,その自動認定結果を係り受け解析に適用する手法について述べた.評価実験により,自動認定した引用節・挿入節の情報を係り受け解析に利用することで,係り受け解析精度が改善されることを示した.特に,引用節の終端は高い精度で推定することができたため,その情報を利用することで,引用節の内部から終端を越えて外部に係る解析誤りを削減することができた.今後の課題としては,実験の考察を踏まえ,より広範な素性の考慮,より適切な係り受けの利用法の検討などにより,さらなる精度の改善を図ることや,音声認識結果に誤りがある場合の頑健性について検討することなどが挙げられる.また,係り受け解析における話し言葉特有の問題点についてもさらなる調査を行ないたい.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原松本}{浅原\JBA松本}{2003}]{asahara}浅原正幸,松本裕治\BBOP2003\BBCP.\newblock\JBOQ形態素解析とチャンキングの組み合わせによるフィラー/言い直し検出\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\651--654.\bibitem[\protect\BCAY{藤尾,松本}{藤尾\JBA松本}{1997}]{fujio_97}藤尾正和,松本裕治\BBOP1997\BBCP.\newblock\JBOQ統計的手法を用いた係り受け解析\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会NL117-12},\BPGS\83--90.\bibitem[\protect\BCAY{古井,前川,井佐原}{古井\Jetal}{2000}]{furui}古井貞煕,前川喜久雄,井佐原均\BBOP2000\BBCP.\newblock\JBOQ科学技術振興調整費開放的融合研究推進制度—大規模コーパスに基づく『話し言葉工学』の構築—\JBCQ\\newblock\Jem{日本音響学会誌},{\Bbf56}(11),752--755.\bibitem[\protect\BCAY{春野,白井,大山}{春野\Jetal}{1998}]{haruno}春野雅彦,白井諭,大山芳史\BBOP1998\BBCP.\newblock\JBOQ決定木を用いた日本語係受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(12),3177--3186.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara:naacl2006}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQ{AFully-LexicalizedProbabilisticModelforJapaneseSyntact\icandCaseStructureAnalysis}\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL2006)},\BPGS\176--183.\bibitem[\protect\BCAY{工藤,松本}{工藤\JBA松本}{2002}]{Kudo:2002}工藤拓,松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),1834--1842.\bibitem[\protect\BCAY{工藤,松本}{工藤\JBA松本}{2004}]{Kudo:2004}工藤拓,松本裕治\BBOP2004\BBCP.\newblock\JBOQ相対的な係りやすさを考慮した日本語係り受け解析モデル\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(4),1082--1092.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2000}]{kudo_2000}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2000\BBCP.\newblock\BBOQ{JapaneseDependencyStructureAnalysisBasedonSupportVectorMachines}\BBCQ\\newblockIn{\BemProceedingsofthe2000JointSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora},\BPGS\18--25.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2001}]{YamCha}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2001\BBCP.\newblock\BBOQ{ChunkingwithSupportVectorMachines}\BBCQ\\newblockIn{\BemProceedingsofthe2ndMeetingoftheNorthAmericanChapteroftheAssociationofComputationalLinguistics(NAACL2001)},\BPGS\192--199.\bibitem[\protect\BCAY{黒橋,長尾}{黒橋\JBA長尾}{1994}]{Kurohashi:94}黒橋禎夫,長尾眞\BBOP1994\BBCP.\newblock\JBOQ並列構造の検出に基づく長い日本語文の構文解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(1),35--57.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1997}]{K-corpus}黒橋禎夫,長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\BPGS\115--118.\bibitem[\protect\BCAY{前川菊池}{前川\JBA菊池}{2001}]{X-JToBI}前川喜久雄,菊池英明\BBOP2001\BBCP.\newblock\JBOQ{X-JToBI:自発音声の韻律ラベリングスキーム}\JBCQ\\newblock\Jem{電子情報通信学会技術研究報告},SP2001-106,\BPGS\25--30.\bibitem[\protect\BCAY{丸山,柏岡,熊野,田中}{丸山\Jetal}{2003}]{maruyama}丸山岳彦,柏岡秀紀,熊野正,田中英輝\BBOP2003\BBCP.\newblock\JBOQ節境界自動検出ルールの作成と評価\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\517--520.\bibitem[\protect\BCAY{Matsubara,Murase,Kawaguchi,\BBA\Inagaki}{Matsubaraet~al.}{2002}]{matsubara}Matsubara,S.,Murase,T.,Kawaguchi,N.\BBA\Inagaki,Y.\BBOP2002\BBCP.\newblock\BBOQ{StochasticDependencyParsingofSpontaneousJapaneseSpokenLanguage}\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics(COLING2002)},\BPGS\640--645.\bibitem[\protect\BCAY{Ohno,Matsubara,Kashioka,Maruyama,\BBA\Inagaki}{Ohnoet~al.}{2006}]{Ohno:coling-acl2006}Ohno,T.,Matsubara,S.,Kashioka,H.,Maruyama,T.\BBA\Inagaki,Y.\BBOP2006\BBCP.\newblock\BBOQ{DependencyParsingofJapaneseSpokenMonologueBasedonClauseBoundaries}\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL)},\BPGS\169--176.\bibitem[\protect\BCAY{白井,池原,横尾,木村}{白井\Jetal}{1995}]{SShirai:95}白井諭,池原悟,横尾昭男,木村淳子\BBOP1995\BBCP.\newblock\JBOQ階層的認識構造に着目した日本語従属節間の係り受け解析の方法とその精度\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(10),2353--2361.\bibitem[\protect\BCAY{下岡,内元,河原,井佐原}{下岡\Jetal}{2005}]{shitaoka_2005}下岡和也,内元清貴,河原達也,井佐原均\BBOP2005\BBCP.\newblock\JBOQ日本語話し言葉の係り受け解析と文境界推定の相互作用による高精度化\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),3--18.\bibitem[\protect\BCAY{高梨,丸山,内元,井佐原}{高梨\Jetal}{2003}]{takanashi}高梨克也,丸山岳彦,内元清貴,井佐原均\BBOP2003\BBCP.\newblock\JBOQ{話し言葉の文境界—CSJコーパスにおける文境界の定義と半自動認定—}\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\521--524.\bibitem[\protect\BCAY{内元,関根,井佐原}{内元\Jetal}{1999}]{uchimoto_99}内元清貴,関根聡,井佐原均\BBOP1999\BBCP.\newblock\JBOQ最大エントロピー法に基づくモデルを用いた日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),3397--3407.\bibitem[\protect\BCAY{内元,村田,関根,井佐原}{内元\Jetal}{2000}]{uchimoto_2000}内元清貴,村田真樹,関根聡,井佐原均\BBOP2000\BBCP.\newblock\JBOQ後方文脈を考慮した係り受けモデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),3--17.\bibitem[\protect\BCAY{内元,丸山,高梨,井佐原}{内元\Jetal}{2003}]{csj_kakariuke}内元清貴,丸山岳彦,高梨克也,井佐原均\BBOP2003\BBCP.\newblock\JBOQ『日本語話し言葉コーパス』における係り受け構造付与\JBCQ\\newblock\Jem{平成15年度国立国語研究所公開研究発表会予稿集}.\bibitem[\protect\BCAY{Uchimoto,Hamabe,Maruyama,Takanashi,Kawahara,\BBA\Isahara}{Uchimotoet~al.}{2006}]{Uchimoto:lrec2006a}Uchimoto,K.,Hamabe,R.,Maruyama,T.,Takanashi,K.,Kawahara,T.\BBA\Isahara,H.\BBOP2006\BBCP.\newblock\BBOQ{Dependency-structureAnnotationtoCorpusofSpontaneousJapanese}\BBCQ\\newblockIn{\BemProceedingsoftheFifthInternationalConferenceonLanguageResourcesandEvaluation(LREC2006)},\BPGS\635--638.\bibitem[\protect\BCAY{Venditti}{Venditti}{1995}]{JToBI}Venditti,J.\BBOP1995\BBCP.\newblock\BBOQ{JapaneseToBILabellingGuidelines}\BBCQ\\newblock{\BemPapersfromtheLinguisticsLaboratory.OhioStateUniversityWorkingPapersinLinguistics},{\Bbf50},127--162.\end{thebibliography}\begin{biography}\bioauthor{浜辺良二}{2005年京都大学工学部情報学科卒業.2007年同大学院情報学研究科修士課程修了.現在,パナソニックコミュニケーションズ株式会社に勤務.在学中,話し言葉処理の研究に従事.}\bioauthor{内元清貴}{1994年京都大学工学部電気工学第二学科卒業.1996年同大学院修士課程修了.博士(情報学).同年郵政省通信総合研究所入所.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年同博士後期課程退学.同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.この間,1995年から1996年まで米国ベル研究所客員研究員.1998年からATR客員研究員.1999年から2004年まで国立国語研究所非常勤研究員.2001年から2005年まで科学技術振興事業団さきがけ研究21研究者.音声言語処理,特に音声認識・理解に関する研究に従事.京大博士(工学).1997年度日本音響学会粟屋潔学術奨励賞受賞.2000年度情報処理学会坂井記念特別賞受賞.情報処理学会連続音声認識コンソーシアム代表,IEEESPSSpeechTC委員,IEEEASRU2007GeneralChair,言語処理学会理事,を歴任.情報処理学会音声言語情報処理研究会主査.日本音響学会,人工知能学会各評議員.情報処理学会,電子情報通信学会,言語処理学会,IEEE各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人情報通信研究機構上席研究員およびタイ自然言語ラボラトリー長.自然言語処理,語彙意味論の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\end{biography}\biodate\end{document}
V31N03-16
\section{はじめに} \label{sec:introduction}日本語敬語は,同じ内容を人物関係や場面に応じて表現形式を使い分ける待遇表現の一種であり,具体的には敬意や配慮を表現するための上向きの待遇表現であるとされる\cite{kijutsu2009japanese}.敬語の使用には,適切な文法規則の適用と背景にある人物間の関係への理解の両方が求められる\cite{harada1976honorifics}.日本語敬語のうち,文脈情報に応じて名詞・動詞・形容詞を規則に応じて変化させる尊敬語や謙譲語が存在する.ここで,文脈情報としては,次の例が示すように,話者,聞き手,会話に登場する人々の間の社会的な関係についての情報がある.\begin{exe}\ex文脈情報:話者から見て佐藤先生は目上である.\begin{xlist}\ex佐藤先生がお読みになる.\label{keigo_correct1}\ex佐藤先生がいらっしゃった.\label{keigo_correct2}\ex[*]{佐藤先生がお読みする.}\label{keigo_wrong1}\end{xlist}\end{exe}\begin{exe}\ex文脈情報:話者と佐藤先生は同僚である.\begin{xlist}\ex佐藤先生が来なかった.\label{keigo_correct3}\ex[\#?]{佐藤先生がいらっしゃらなかった.}\label{keigo_wrong2}\end{xlist}\end{exe}自然言語処理のさまざまなタスクにおいて高い性能を持つ事前学習済み大規模言語モデルにも,文脈情報と文法知識の両方を活用して敬語を理解する能力が期待される.しかし,大規模言語モデルがこれらの情報や知識をどの程度適切に扱うことができるかは明らかでない.これまでに,日本語敬語を扱うデータセットは複数提案されている\cite{matsumoto2022conversion,liu2022construction,someya2023jcola}.これらの先行研究におけるタスク設定は,文法的な情報のみを用いたタスクで言語モデルの敬語理解における性能を評価することを目的としており,敬体文の背景にある情報を考慮した上での分析は行われていない.本研究では,複数のタスクとデータセットを用いて大規模言語モデルが文脈として文脈情報を考慮して敬語理解ができているかを分析する.まず,発言文に関連する人物間の社会的立場や社会的関係についての文脈情報を入力に含めるような敬語理解タスクを導入する.具体的には,敬語が関わる文の容認性判断タスクと,敬語使用が適切に考慮された文に変換する敬語変換タスクという2種類のタスクを設定する.そして,導入したタスクを想定したデータセットを構築する.一つ目のアプローチとして,文の構造や社会的関係といった設定の制御がしやすいテンプレート手法を用いて,新規に日本語敬語データセットを構築する.また,より自然な文を用いたデータセットを用意するために,既存の日本語敬語コーパスからデータをサンプリングし,文脈情報や異なる敬語の種類を用いた文をアノテーションすることで拡張を行う.最終的に,用意したこれらのデータセットを用いて,大規模言語モデルが社会的関係を考慮して敬語に関する容認性判断や敬語変換ができるかについて評価を行う.本研究で構築および拡張を行ったデータセットは,研究利用可能な形でGitHub上で公開している\footnote{\url{https://github.com/ynklab/japanese_honorifics}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{15table01.tex}%\hangcaption{\protect\citeA{kijutsu2009japanese}による日本語敬語の分類.本研究では素材敬語(太字部分)を分析対象としている.}\label{table:honorifics_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\setcounter{exx}{0} \section{背景} \label{sec:background}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語敬語の概要}\label{sec:overview_japanese_honorifics}日本語敬語は,話者が人物や話し言葉の状況に対して敬意やへりくだりを表現する方法として機能する\cite{kijutsu2009japanese}.表~\ref{table:honorifics_classification}に示されているように,日本語敬語は既存研究では伝統的に尊敬語,謙譲語,丁寧語の三つのタイプに分けられる.伝統的な分類において尊敬語は,ある動作を行う動作主に対する敬意を示すために使用され,謙譲語は,特定の人に対する話者のへりくだりを示すために用いられる.また,丁寧語は,話者が聞き手や会話の状況そのものに対してかしこまった態度を表現するために使用される表現とされている.一方,現代の分類では日本語敬語は5種類に分けられる\cite{kijutsu2009japanese,bunkacho2007shishin}.以下,現代の日本語敬語の分類についてそれぞれ説明する.\begin{exe}\ex[]{先生がお越しになる.(尊敬語)}\label{ex:subject_honorifics}\ex[]{今度(あなたの)お母様もお誘いします.(謙譲語)}\label{ex:object_honorifics}\ex[]{こちらが太郎です.(丁寧語)}\label{ex:polite_speech}\ex[]{雨が降っておりました.(丁重語)}\label{ex:courteous_language}\ex[]{ご参考まで.(美化語)}\label{ex:beafutification_language}\end{exe}\textbf{素材敬語}は,文中で言及された特定の人物(素材)に対する敬意またはへりくだりを示すために使用される.そのうち,\textbf{尊敬語}($\sh$,SubjectHonorifics)は,伝統的な定義と同様,ある動作を行う素材に対する敬意の表明に使用される.(\ref{ex:subject_honorifics})で,話者は教師に対する敬意を示すために「来る」の代わりに「お越しになる($\sh$)」を用いている.\textbf{謙譲語}($\oh$,ObjectHonorifics)は,ある行為の向かう先である素材に対するへりくだりを表現する役割を持つ.(\ref{ex:object_honorifics})では,話者は聞き手の母に対する遠慮を示すために「誘う」の代わりに「お誘いします($\oh$)」を使用している.一方,対者敬語は,話し言葉の聞き手に対する礼儀や敬意を表現するために使用される.丁寧語は対者敬語に分類される.(\ref{ex:polite_speech})では,話者は\textbf{丁寧形}(「です」)を\textbf{普通形}(「だ」)の代わりに使用している.丁重語と美化語は,素材敬語と対者敬語の両方の側面を持っている.これらは,物事や行為に対する敬意の表明と話者の品位を保つという両方の役割を果たす.(\ref{ex:courteous_language})は丁重語の例で,「降っていました」が「降っておりました」に変換されている例である.(\ref{ex:beafutification_language})は美化語の例で,名詞化された動詞「参考」に接頭辞「ご」が加えられ「ご参考」となっている.本論文では,素材敬語に焦点を当て,大規模言語モデルの尊敬語および謙譲語を扱う能力を評価することを目指す.対者敬語の要素を持つ丁寧語・丁重語・美化語(\ref{ex:polite_speech}--\ref{ex:beafutification_language})は,使用すべきか否かの判断が素材敬語と比べて主観的であり,評価方法の設計が困難である.なお,尊敬語$\sh$や謙譲語$\oh$を含まない文を,以下$\nh$(Non-Honorifics)と呼ぶ.また,普通形から丁寧形への変換は本研究の焦点ではないため,すべてのデータを丁寧形で統一する.以下,日本語敬語の性質と,それが大規模言語モデルにとって挑戦的なタスクたりうる背景を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{社会的な関係}日本語の敬語は,話者と他の人との関係がその使用に影響を与える待遇表現である.\citeA{kijutsu2009japanese}は,敬語使用に関連する人物間の関係性として,階層関係(e.g.,年齢,職業),親密さ(e.g.,親族,友人),立場関係(e.g.,雇用者-被雇用者,教師-生徒)などを挙げている.本研究では,文脈情報として上述したような社会的な関係についての情報を明示的に入力として含める敬語理解タスクを設計する.大規模言語モデルが,社会的な上下関係を正しい敬語使用を行う上での前提知識として活用できるかは自明ではなく,検証の余地が残されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{引用文と日本語敬語}日本語では特に書き言葉において,誰かの発言や考えを引用する際のスタイルが敬語の選択に影響を与えることがある.日本語の引用では,引用助詞「と」と引用動詞「言う/思う/考える」などが用いられる\cite{sunakawa1987citation}.一般的には,\textbf{間接引用}と\textbf{直接引用}という2種類のスタイルが存在する\cite{yu2000directspeech}.間接引用では,引用符を伴わずに引用が行われ,文全体の話者の視点に基づいた敬語が適用される.一方で直接引用では,引用符(鉤括弧)内の引用された内容は,引用元の発言の話者の視点で表現される.したがって,引用符内の発言文での敬語使用の判断は,文章全体の話者ではなく引用部分の話者の視点に基づいて行われる.表~\ref{table:indicet_and_direct_speech}は,これらのスタイルの違いを具体的に示している.間接引用の例では,敬称(-さん)を用い,「いらっしゃった」という尊敬語を使用することで,話者から太郎に対する敬意が表現されている.対して,直接引用の例では,引用部分の発話者である花子は,発言の中で太郎に対して尊敬語を使うことはないため,引用符内の文にも敬語は使用されていない.直接引用は,そのような発言を話者と太郎との関係性に関わらず発話時のスタイルのままで引用することを指す.本研究の評価データには,これらの引用文におけるスタイルの使い分けを理解する必要がある問題が含まれ,大規模言語モデルに日本語に特有な知識への理解を要求するものとなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{15table02.tex}%\caption{日本語の直接引用と間接引用の例.}\label{table:indicet_and_direct_speech}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語敬語システム}\label{sec:systems_for_japanese_honorifics}既存研究として,敬語の誤用を指摘するシステムや,誤った敬語を正しいものに変換するルールベースの敬語システムが提案されている\cite{shrato2006keigo,asukai2015keigo,noguchi2007keigo,tokumaru2020biziri,iwashita2008keigo}.これらルールベースのシステムは,敬語のさまざまな文法規則や文章の背景にある文脈情報の多様なパターンを網羅することは非常にコストがかかるという点で限界がある.文法規則の面での例として,不規則なものを含む動詞敬語の活用規則に関する辞書を用意する必要があることが挙げられる.\begin{exe}\ex規則活用(尊敬語):買う$\rightarrow$お買いになる/買いなさる/買われる\label{ex:kau}\ex不規則活用(尊敬語):来る$\rightarrow$*お来になる/来なさる/来られる/お越しになる\label{ex:kuru}\end{exe}(\ref{ex:kau})は,尊敬語の規則活用の一例を示している(\ref{sec:overview_japanese_honorifics}節を参照).例えば,「お買いになる」では,「買う」に接頭辞「お」と接尾辞「になる」が加えられている.(\ref{ex:kuru})は,尊敬語の不規則活用の例である.動詞「来る」は,(\ref{ex:kau})と同様「来なさる」「来られる」という規則活用を適用することが可能であるが,「お来になる」の場合非文法的となる.代わりに,不規則活用形として「お越しになる」を尊敬語として使用することが可能である.事前学習済み言語モデルは,敬語使用にまつわる文脈と規則の組み合わせパターン認識について,ルールベースシステムより高い表現力を有することが期待される.しかし,日本語敬語に関するタスクでの大規模言語モデルの有用性は未だ明らかではない.本研究では,大規模言語モデルの文脈情報に応じて敬語規則を柔軟に適用する性能の評価に焦点を当てる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語敬語データセット}\label{sec:japanese_honorific_datasets}いくつかの既存研究が,敬語が関わるタスク設定で言語モデルの性能を評価するデータセットを提案している\cite{liu2022construction,someya2023jcola,matsumoto2022conversion}.\citeA{liu2022construction}は,大規模な日本語敬語コーパスであるKeiCOコーパスを構築し,敬語文を入力として取り,その敬語レベルまたは文中に使用されている敬語の種類を判定する分類タスクを提案した.表~\ref{fig:existing_datasets}の上部が,KeiCOコーパスの例である.データには敬語レベル,敬語の種類,そして言語の使用される状況を示すフィールドがラベルとして与えられている.KeiCOコーパスでは,各文には1から4の敬語レベルが割り振られている.敬語レベル1が最も敬意の度合いが高く,4が最も低いことを意味する.敬語の種類については,「尊敬語」は$\sh$,「謙譲語」は$\oh$,「丁寧語」はそれらを含まない丁寧形の文を意味する.敬語レベル1および2の文には「尊敬語」または「謙譲語」のみが含まれ,レベル3の文には「丁寧語」のみが含まれる.敬語レベル4の文は普通形であり,敬語は含まれていない.また,\citeA{someya2023jcola}は,学術文献からさまざまな日本語の言語現象の用例を収集して,日本語容認性判断ベンチマークJCoLAを構築した.表~\ref{fig:existing_datasets}の中央部にJCoLAのデータ例を示す.「ラベル」列は,文が容認可能であるかそうでないかをそれぞれ1と0で表している.JCoLAでは,尊敬語は主語-動詞一致のサブカテゴリとして扱われ,``verb.agr''列に1がラベリングされているものがこれにあたる.これらの研究は,評価実験において日本語敬語の文法的側面に焦点を当てており,文脈情報を要求するタスク設定での実験は行っていない.\citeA{matsumoto2022conversion}は,常体文を入力として敬体文を出力する敬語変換タスクを導入し,その評価用データセットを提案した.また,タスク設定に際して,敬語変換タスクにおいて人物間の社会的関係に関する情報を考慮する必要性について言及している.しかし,\citeA{matsumoto2022conversion}では人物間の社会的関係に関する情報を考慮した言語モデルの評価は行われていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{15table03.tex}%\caption{既存の日本語敬語データセットのデータ例.}\label{fig:existing_datasets}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの既存研究を踏まえると,言語モデルの性能を評価するための文法的知識と文脈情報の双方を要する敬語理解タスクのベンチマークは管見の限りは存在していない.\citeA{someya2023jcola}の例のように,発言文自体に文脈情報を示唆する情報が統語的な要素として埋め込まれている場合は,発言文そのものから適切な敬語を予想することは可能である.例えば,敬称\mbox{(-さん/}-先生など)がこのようなケースにあたる.しかし,敬語種類の選択に影響を及ぼす文脈情報は必ずしも文自体には現れないため,入力として文脈情報を明示的に含めることで,より厳密に敬語理解能力を測るタスク設定となると考えられる.本研究では,敬語に関する文法的知識に加えて,文脈情報を常に要求する敬語理解タスクを設計し,これらのタスクの日本語敬語データセットを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\setcounter{exx}{0} \section{データセット} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{敬語理解タスク}\label{sec:honorific_understanding_tasks}本研究では,大規模言語モデルの日本語敬語理解の評価を目的としたタスクとして,\textbf{容認性判断タスク}および\textbf{敬語変換タスク}を設定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{31-3ia15f1.pdf}\end{center}%%%%\label{fig:task_setting_classification}%%%%\label{fig:task_setting_generation}\caption{本研究で設定する2つの敬語タスクの図解.}\label{fig:task_settings}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{容認性判断タスク}尊敬語・謙譲語の選択は文章の容認性に影響を与える\cite{someya2023jcola}.%%%%本研究では,図~\ref{fig:task_setting_classification}に示す容認性判断タスクを分類タスクとして導入する.本研究では,図~\ref{fig:task_settings}aに示す容認性判断タスクを分類タスクとして導入する.容認性判断タスクは,発言文と付随する文脈を入力として,与えられた文章が敬語使用の観点から適切かどうかの二値ラベルを出力するタスクである.本研究で導入するタスク設定と\citeA{someya2023jcola}の設定の違いは,本研究では入力内で明示的に文脈情報を提供しているのに対し,\citeA{someya2023jcola}ではモデルは与えられた発言文のみを用いて容認性を判断する必要がある点である.以下に,同じ文脈の下での適切な敬語使用を含む文と不適切なものを含む文の例を示す.\begin{exe}\ex文脈:従業員からCEOへの発言.\label{ex:acceptability}\begin{xlist}\ex[]{いつごろお戻りになる/戻られる($\sh$)予定ですか?}\label{ex:acceptable}\ex[\#]{いつごろ戻る($\nh$)予定ですか?}\label{ex:acceptable_depending_on_context}\ex[*]{いつごろお帰りする/お戻りする($\oh$)予定ですか?}\label{ex:unacceptable}\end{xlist}\end{exe}(\ref{ex:acceptability})は,従業員がCEOにいつごろ戻るかを確認する発言である.\#は談話上不適切で容認性が低いことを,*は非文法的であることを表す.また,$\sh$,$\oh$,$\nh$は尊敬語を含む文,謙譲語を含む文,そのいずれでもない文をそれぞれ指す(\ref{sec:overview_japanese_honorifics}節を参照).(\ref{ex:acceptable})では,「お戻りになる/戻られる」に尊敬語が使われており,文脈に示される職位関係を考えると適切な選択である.一方で,尊敬語を含まない(\ref{ex:acceptable_depending_on_context})や謙譲語を用いた(\ref{ex:unacceptable})は,職位が異なる二者感の敬意関係と整合性がとれず,従って不適切で容認不可能な文である.(\ref{ex:acceptable_depending_on_context})は,追加の特定の文脈情報を提供することで,より容認度が高くなる可能性がある.例えば,二者が長年の知り合いであり,仕事上の繋がりを超えた関係性を有している場合,尊敬語を使用しなくても問題とならない状況は想定しうる.しかし,職務上の役割の違いの情報のみが与えられた場合は,(\ref{ex:acceptable})が(\ref{ex:acceptable_depending_on_context})より適切である.本研究では,入力に含まれる文脈情報のみに基づいて,最善の選択であるかどうかをモデルに決定させる.また,可能な限り正解ラベルについて議論の余地を残さないために,敬語使用に関する立場の差を説明したもの(e.g.,AはBよりも目上の立場である)や,職位関係など固定的な人物関係(e.g.,恋人に対する発言である)を文脈情報として想定する.「目上の」などの表現や人物関係の種類は,\citeA{bunkacho2007shishin,kijutsu2009japanese}をはじめとした日本語敬語についての複数文献を参考に,一般的なものを著者間で議論して選定している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{敬語変換タスク}より実用的な場面を考慮して,前節で説明した容認性判断タスクに加えて,敬語変換タスクを生成タスクとして導入する.%%%%図~\ref{fig:task_setting_generation}はこのタスク設定を図解したものである.図~\ref{fig:task_settings}bはこのタスク設定を図解したものである.モデルは文と文脈を入力として受け取り,正しい敬語使用を行うように変換した文を生成する.\citeA{matsumoto2022conversion}で提案された敬語変換タスクの設定と本研究で提案する設定には以下に述べるような主要な違いがある.まず,容認性判断タスクと同様,入力には文脈を説明する文章が明示的に含まれている.また,\citeA{matsumoto2022conversion}は常体文から敬体文へのスタイル変換を導入したが,今回の設定では入力には$\nh$からなる文だけでなく$\sh$ないし$\oh$を含む文も含まれている.これには,(\ref{ex:acceptable_depending_on_context})から(\ref{ex:acceptable})への変換のような$\sh$もしくは$\oh$から$\nh$への変換や,(\ref{ex:unacceptable})から(\ref{ex:acceptable})への変換のような敬語の種類の変更が含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット構築}\label{sec:dataset_construction}前節で紹介された敬語タスクで大規模言語モデルの性能を評価するために,本研究ではテンプレート手法(\ref{sec:template_based_method}節)とコーパス手法(\ref{sec:corpus_based_method}節)の2つの手法を用いて日本語敬語データセットを構築する.各提案手法には,それぞれ異なる利点が存在する.まず,テンプレート手法では,制御された条件のもとで問題を生成することが可能になる.これにより,大規模言語モデルを文構造や敬語の種類のパターンといった特定の基準に基づいて評価するためのデータが得られる.一方で,コーパス手法の利点は,より自然で多様な文データを集めることができる点にある.自然な文データを使用することは,大規模言語モデルが人間の実際の言語使用にどれだけ適合しているかを正確に評価することに繋がる.さらに,多様な表現を含むデータセットを評価に使用することで,モデルの性能におけるバイアスを緩和することができる.データセットの拡張性という点で,現状ではコーパス手法と比較してテンプレート手法が優れていると考えられる.\ref{sec:corpus_based_method}節で後述するように,本研究におけるコーパス手法では,尊敬語ないし謙譲語を含む文とそうでない文をペアとして収集することが可能なコーパスを前提としている.今回使用するKeiCOコーパスは,現在提案されている前述の条件を満たす言語資源の中では最大であるが,正しい尊敬語もしくは謙譲語を含む敬語レベル2のデータの総数が2046件であることを考えると,収集できるデータペアも必然的にそれ以下に限られることが分かる.対照的に,テンプレート手法では,文テンプレートおよび関係性テンプレートの作成やプレースホルダーに埋め込む語彙の数を増やすことで,直接的にデータセットを拡張することが可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{テンプレート手法}\label{sec:template_based_method}本研究では,問題テンプレートを手動で作成し,プレースホルダーに語彙を埋めることによって,半自動的に日本語の敬語データセットを作成する.図~\ref{figure:template_based_construction_method}は,テンプレートベースの構築手法の概要を表している.各問題テンプレートには,関係性テンプレート,文テンプレート,敬語の種類の三要素が含まれる.表~\ref{table:template_based_templates}には問題テンプレートの例が示されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{関係性テンプレート}関係性テンプレートは,話者(\textit{speaker}),ある行為の動作主(\textit{actor}),およびその行為の向かう先となる人(\textit{target})の間の社会的な立場関係を表現する.たとえば,speaker=actor$<$targetは,speakerがactorと立場上近い関係にあり,targetが両者より高い立場にあることを意味する.このような場合,speakerとactorからtargetに対する敬意を反映するような発言を行うことが話者には求められる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{文テンプレート}文テンプレートには,人物の名前と動詞のプレースホルダーが含まれる(e.g.,actorがtargetにV).ここで,Vは動詞のプレースホルダを指す.また,文テンプレートは,次の7種類の文構造のパターンを含む:\newpage%%%%\begin{minipage}{\textwidth}\begin{itemize}\setlength{\itemsep}{0cm}\item\textsc{simple\_one}\item\textsc{simple\_two}\item\textsc{scrambling}\item\textsc{direct\_speech\&scrambling}\item\textsc{indirect\_speech\&scrambling}\item\textsc{direct\_speech\&center\_embedding}\item\textsc{indirect\_speech\&center\_embedding}\end{itemize}%%%%\end{minipage}%%%%\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-3ia15f2.pdf}\end{center}\caption{提案手法:テンプレートベースのデータセット構築}\label{figure:template_based_construction_method}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textsc{simple\_one}は,一つの動詞と一つの人物の文を含む(e.g.,AがV).\textsc{simple\_two}は,一つの動詞と二つの人物の文である(e.g.,AがBにV).\textsc{scrambling}は,意味を保存したまま主語と目的語の順序が入れ替わるような\textbf{かき混ぜ}と呼ばれる統語現象を持ち,一つの動詞と二つの人物を含む文を指す(e.g.,BにAがV).\textsc{scrambling\&direct\_speech}は,かき混ぜと直接引用の組み合わせで,二つの動詞と二つの人物からなる文である(e.g.,「BがV\_2」とAがV\_1).\ref{sec:overview_japanese_honorifics}節で説明したように,直接引用は,話者が他の人の発言を,発言時のままの表現で鉤括弧を用いて引用するスタイルである.\textsc{scrambling\&indirect\_speech}は,かき混ぜと間接引用の組み合わせからなり,二つの動詞と二つの人物を含む(e.g.,BがV\_2とAがV\_1).間接引用は,引用文が引用部分を含めて文全体の話者の視点から述べられるスタイルで,引用符は使用されない.\textsc{center\_embedding\&direct\_speech}は,中央埋め込みと直接引用の組み合わせからなる文で,二つの動詞と二つの人物を含む(e.g.,Aが「BがV\_2」とV\_1).\textbf{中央埋め込み}とは,節が他の節の主語と述語の間に埋め込まれるような統語現象である.\textsc{center\_embedding\&indirect\_speech}は,中央埋め込みと間接引用の組み合わせからなる文で,二つの動詞と二つの人物を含む(e.g.,AがBがV\_2とV\_1).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{15table04.tex}%\hangcaption{問題テンプレートの例.\textsc{ds}は直接引用(\textsc{direct\_speech}),\textsc{is}は間接引用(\textsc{indirect\_speech}),\textsc{ce}は中央埋め込み(\textsc{center\_embedding}),\textsc{sc}はかき混ぜ(\textsc{scrambling})を指す.}\label{table:template_based_templates}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%上に登場した統語現象を選んだ理由として,それらが日本語の敬語における文法規則に関連する側面があることが挙げられる.かき混ぜ文と中央埋め込みはいずれも文中の項の統語位置を操作するような言語現象であり,主語と動詞の一致が関わる尊敬語や,目的語が誰であるかが重要となる謙譲語を理解する上で,文の理解をモデルにとって挑戦的にすると考えられる.直接引用と間接引用に関しては,引用符内の部分が,元の話者の視点で述べられているか,引用部分以外を含めた文全体の話者の視点で述べられているかにより,敬語の適用の可否に影響を受けるとされる(具体例は表~\ref{table:indicet_and_direct_speech}を参照).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{敬語の種類}作成された問題テンプレートは,文テンプレート内の動詞に対応する1つまたは2つの敬語の種類を持っている.これらは,関係性テンプレートと文テンプレートを踏まえて,最も適切であると一意に定まる敬語の種類である.$\sh$および$\oh$が,それぞれ尊敬語と謙譲語を持つ文に,$\nh$が尊敬語も謙譲語も必要としない文にラベリングされる.文テンプレート内に二つの注目する動詞がある場合,テンプレートには二つの敬語の種類が与えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{問題の生成}問題テンプレート内の動詞と人名のプレースホルダーに,ランダムに語彙を埋め込むことでデータセットを作成する.語彙に関しては,本研究では23個の動詞と19個の人名を使用する.動詞については,現代日本語書き言葉均衡コーパス(BCCWJ)において頻度が高く日常的に用いられると考えられるものを人手で選定した.また,「盗む」のように通常敬語を適用することができないような動詞を除外した.人名に関しては,2022年の日本で最も多い姓を上から選定した\footnote{\url{https://myoji-yurai.net/prefectureRanking.htm}(2024年2月2日にアクセス.)}.問題を生成する流れとして,以下の流れで文脈文と発言文を生成する.まず,関係性テンプレートのspeaker,actor,targetに対して,それぞれ別々の語彙を辞書からランダムで埋め込む.そして,語彙を埋め込んだ関係性の等式・不等式表現を,用意された対応する自然言語文に変換することで,人物間の関係性を説明する自然言語文を生成する.事前実験の結果,文脈情報は関係性テンプレートにある等式・不等式の形式よりも自然言語文としてプロンプトに入れた場合の方がタスクの性能が良かったため,このような変換を行っている.次に,入力と出力に用いる発言文を,文テンプレートの人物名および動詞のプレースホルダに語彙を埋め込むことでそれぞれ生成する.このとき,まず敬語的に最も適切な文を生成するために,問題テンプレートにラベリングされている敬語の種類を,埋め込む動詞に適用する.また,敬語的に不適切な文を生成するために,文テンプレートに指定されていない敬語の種類を,埋め込む動詞に適用する.最終的に,文脈情報の文,入力に使う発言文,そして出力に使う発言文を含む問題データを生成する.%%%%表~\ref{table:generated_problems_template_based}に,表~\ref{table:generated_problems}aに,テンプレート手法データセットが持つ問題データの例を載せる.使用する語彙について,以下の2点が今後の課題として残されている.まず,生成される問題の多様性を担保する目的で,使用する語彙の数量をより増やすことが求められる.また,本研究では,名前に伴う「さん/先生/博士」といった敬称をランダムに割り振っているが,敬称間の一般的な上下関係や曖昧性について考慮できていない.例えば,文脈として「加藤博士は山田教授の目上の立場である」という内容のものが生成される場合があるが,「加藤博士」の指すところが「博士学生」か「博士号を取得した教授」のいずれであるかによって,データとしての自然さが変わると考えられる.敬称がもたらす曖昧性や敬称に関わる文脈の制御は,今後の課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{15table05.tex}%\hangcaption{作成した問題データの例.文脈と文を入力とし,正解の出力を予測させるタスクであることを示す.}\label{table:generated_problems}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{コーパスベースの手法}\label{sec:corpus_based_method}コーパス手法によるデータセット構築の手順は以下の通りである:\begin{enumerate}\itemコーパスから文のペアを収集する.\item各ペアに対して文脈情報と不適当な敬語を持つ文を作成して割り振る.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{文ペアの収集}KeiCOコーパス\cite{liu2022construction}からデータをフィルタリングし,以下の手順で敬語と$\nh$の文のペアを収集する(KeiCOコーパスについては表~\ref{fig:existing_datasets}を参照).まず,コーパスでラベル付けられた敬語レベルによって文をフィルタリングする.\ref{sec:japanese_honorific_datasets}節で説明したように,KeiCOコーパスの敬語レベル1と敬語レベル2には,$\sh$または$\oh$を持つ文が含まれている.敬語レベル1の一部のデータにおいて,二重敬語\cite{bunkacho2007shishin}と呼ばれる,同一種類の敬語が二重に適用されることで一般に過剰で不適切とされるような表現を含むことを発見したため,敬語レベル2のデータのみを使用することにした.次に,会話の状況を表すフィールドによってフィルタリングを行う.ここでは,「挨拶」や「謝罪」など,慣習的に用いられるようになったフレーズを持つ可能性があるフィールドをできるだけ除外した.これは,固定化された表現は,人物関係に関わらず使用される可能性があり,本研究で設定するタスクでは評価が困難となるためである.そして,フィルタリングで残った$\sh$を含む文および$\oh$を含む文に対して,意味的に対応する$\nh$を含む文を敬語レベル3のデータからパターンマッチで対応させ,それらを3つ組のデータ組としてまとめる.収集した124件のデータ組を目視で確認して,マッチに失敗しているものや動詞敬語が含まれない文データ組を削除し,最終的に70件の文データ組を取得する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{文脈情報と不適当な敬語使用の文の作成}収集した文のペアに対して,発言文に与える文脈情報とコーパスに含まれていない不適当な敬語使用を含む文を作成し,割り当てる.文脈情報については,一方が他方と親しい関係にあるようなものと,一方が他方に敬意を示す必要があるようなものの2パターンを用意する.前者は,恋人や親友などの関係を含み,後者は,生徒と教師の関係や,部下と上司の関係などを含む.不適当な敬語使用を含む文については,もともと収集していた文について,誤った敬語の種類を適用した動詞に置き換えることで作成する.例えば,文のペアが「何年ぶりに日本へ帰られる($\sh$)のですか?」と「何年ぶりに日本へ帰る($\nh$)のですか?」である場合,動詞「帰る」を置き換えて「何年振りにお帰りする($\oh$)のですか?」\footnote{この例では,疑問文であることから主語が聞き手であるという推察と,「帰る」が自動詞であるという知識から,話者間の関係性に関わらず「お帰りする」という謙譲語が常に不正確となると判断することができてしまう.本研究では,問題で要求する文法的知識を動詞の敬語活用に限定して機械的に処理しているため,このような文が意図しない形で含まれる場合がある.このような場合については,著者の判断で許容あるいは除去を行っている.}を作成することができる.容認性判断タスク用に$\sh$,$\oh$,$\nh$の3つの敬語の種類,および敬語変換タスク用に,3つの敬語変換のパターンを用意する.例えば,コーパスから$\sh$をサンプリングした場合,一方が他方と親しい関係にあるような敬語使用を要求しない文脈においては$\sh\rightarrow\nh$,$\oh\rightarrow\nh$,$\nh\rightarrow\nh$の3パターンを,一方が他方に敬意を示す必要があり,対象の敬語使用を要求される文脈においては,$\sh\rightarrow\sh$,$\oh\rightarrow\sh$,$\nh\rightarrow\sh$の3パターンを用意する.最終的に,一つの文のセット($\sh$,$\oh$,$\nh$)につき,2種類の文脈情報のパターンを用いて計6つの問題を生成することができる.%%%%表~\ref{table:generated_problems_corpus_based}に,生成された問題の例を示す.表~\ref{table:generated_problems}bに,生成された問題の例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット統計}\label{sec:dataset_statistics}表~\ref{table:dataset_statistics}はテンプレート手法データセットとコーパス手法データセットのデータセット統計を示している.テンプレート手法データセットについては,容認性判断タスク用に184問,敬語変換タスク用に230問を作成する.問題データの数の違いは,敬語の種類のパターンの違いによるものである.容認性判断タスクでは,テンプレートに元の文の敬語の種類がラベリングされており,敬語変換タスクでは,変換前と変換後の両方の文の敬語の種類がラベリングされている.コーパス手法データセットについては,各タスクについて420問を作成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{15table06.tex}%\caption{データセットの統計.}\label{table:dataset_statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{テンプレート手法データセットの定性的な品質評価}テンプレート手法で生成されたデータセットの品質について,定性的な評価を行う.分類タスクおよび生成タスクのデータからサンプリングした100件ずつについて,日本語文法を含む理論言語学の素養がある研究者2名が評価を行った結果,それぞれ95\%,92\%が自然であると判断された.自然さに議論の余地があるとされた10件程度のデータのうち多くは,\ref{sec:template_based_method}節でも言及された,敬称が想起させる一般的な立場関係とのミスマッチによるものであった.例えば,「加藤先輩はあなたと山田教授の目上の立場にあり,あなたと山田教授の敬意の対象です.」という文脈において,「加藤先輩に山田教授が感謝なさいます.」という敬語文が正しいとされている問題について,特別な文脈を設定しない限り,先輩は学生であり教授は先生を想起させ,問題として不自然ではないかといった指摘があった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\setcounter{exx}{0} \section{実験設定} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}\label{sec:models}本研究の実験では,GPT-3.5(\texttt{gpt-3.5-turbo-0613}\footnote{GPT-3.5の最新バージョンとしてリリースされていた\texttt{gpt-3.5-turbo-1106}が実験を行った時点で不安定であると報告されていたため,このバージョンを選択した.\url{https://community.openai.com/t/gpt-3-5-turbo-1106-is-very-slow/492450/24}})およびGPT-4(\texttt{gpt-4-1106-preview})を評価対象とする.NejumiLLMリーダボードNeo\footnote{\url{https://wandb.ai/wandb-japan/llm-leaderboard/reports/Nejmi-LLM-Neo--Vmlldzo2MTkyMTU0}}で上位であることからも分かるように,両モデルは日本語タスクの総合的な性能において現状最も優れていることが選定理由として挙げられる.これらのモデルは重みが公開されておらず,OpenAIAPI\footnote{\url{https://platform.openai.com/docs/guides/text-generation/chat-completions-api}}を通じてアクセス可能である.出力内容の再現性を可能な限り維持するため,推論段階で温度パラメータを0に設定する.その際,後述する各設定に対して試行を1度行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{プロンプト設定}\label{sec:prompt_settings}プロンプトベースの推論を行う際に大規模言語モデルが出力する内容は,プロンプト指示文の構成方法に大きく依存する.実験では,4種類の異なるプロンプト設定を準備した:$\zeroshot$(zero-shotのみ),$\fewshot$(few-shotのみ),$\zeroshotcot$(zero-shotとChain-of-Thought),および$\fewshotcot$(few-shotとChain-of-Thought).図~\ref{fig:classification_prompt_examples}と図~\ref{fig:generation_prompt_examples}は,容認性判断タスクおよび敬語変換タスクのそれぞれのプロンプト設定で使用された実際のプロンプト文の例を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\begin{center}\includegraphics{31-3ia15f3.pdf}\end{center}\hangcaption{容認性判断タスクで用いたプロンプトの例.\text{[Taskdescription]}には表\ref{table:task_description_types}で説明したタスク説明文が入る.\text{[Omitted]}はタスク事例が省略されている.}\label{fig:classification_prompt_examples}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\begin{center}\includegraphics{31-3ia15f4.pdf}\end{center}\hangcaption{敬語変換タスクで用いたプロンプトの例.\text{[Taskdescription]}には表\ref{table:task_description_types}で説明したタスク説明文が入る.\text{[Omitted]}はタスク事例が省略されている.}\label{fig:generation_prompt_examples}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{タスク説明文の種類}タスク説明文の表現や単語の順序による影響を減らすため,各設定に対して2種類のタスク説明文を用いて個別の評価実験を行い,それぞれのスコアの平均を最終スコアとして採用する.表~\ref{table:task_description_types}は,コーパス手法データセットでの容認性判断タスクで使用されたプロンプト文を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{zero-shot/few-shot}大規模言語モデルに推論をさせる際,プロンプトに少数のタスク事例を含めることで性能が向上することが知られている\cite{brown2020gpt3}.$\zeroshot$は,モデルにタスクの説明のみを与えるzero-shot設定である.$\fewshot$は,モデルにタスクの数例を与えるfew-shot設定である.$\fewshot$では,問題パターンが異なり,正解ラベルがバランスよく分布した4例が用いられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{Chain-of-Thought}Chain-of-Thought(CoT)\cite{wei2023chainofthought}は,算数,常識,論理推論といった複雑な推論を要求するとされるタスクで,思考過程を最終的なタスクの解答に先立って出力させることでLLMの性能を向上させるプロンプト手法である.CoTは日本語LLMおよび日本語タスクにおいてもその有用性が示されている\cite{horio2023japanesecot}.敬語タスクを一種の多段推論問題と見なした時,CoTが大規模言語モデルの性能を向上させる可能性がある.例えば,敬語理解における思考過程を以下のステップに分割することを考える:\begin{enumerate}\item話者と聞き手の間の社会的関係を把握する.\item文中で言及されている行為の動作主および向かう先が誰であるかを特定する.\item社会的関係に基づいてこれらの動詞に何らかの敬語を適用する必要性を検討する.\end{enumerate}$\zeroshotcot$および$\fewshotcot$は,前述した$\zeroshot$および$\fewshot$それぞれの設定にCoTが適用されたものである.本研究では,CoTプロンプトの構築方法について\citeA{kojima2022cot}を参照した.$\zeroshotcot$では,入力テキストに「思考過程を出力した上で」というフレーズを含め,「順を追って考えてみましょう」というフレーズで終わることで,モデルが最終的な出力に続いて思考過程を出力するようにした.$\fewshotcot$では,$\zeroshotcot$でモデルが出力した思考過程を説明するテキストを参照し,few-shot事例として含めるための思考過程を手動で作成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}\label{sec:evaluation_metrics}容認性判断と敬語変換の両タスクにおける評価指標として,正解率(Accuracy)スコアを計算する.敬語変換タスクでは,文全体の完全一致ではなく,対象としている全ての動詞の活用パターンが想定解と一致していれば正解と判断する.テンプレート手法データセットに見られるような複数の対象となる動詞が含まれている問題では,モデルに全ての動詞を変換することを求める.また,句読点の追加など,動詞の活用以外のモデルが加えた変更は評価の際は考慮しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{15table07.tex}%\hangcaption{コーパス手法データセットでの容認性判断タスクで使用された2種類のタスク説明文.下線部の表現は$\zeroshotcot$の設定でのみ加えられる.}\label{table:task_description_types}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{母語話者の判断の収集}\label{sec:testing_human_performance}本研究で構築した敬語理解データセットの問題が母語話者にとってどの程度判断が難しいかを測定するため,クラウドソーシングサービスのランサーズ(Lancers)\footnote{\url{https://www.lancers.jp/}}で募った作業者3名にモデルと同じ問題への取り組みを依頼し,予測を収集する.日本語の母語話者である作業者にサンプル問題への取り組みを依頼することで,尊敬語・謙譲語を含め日本語敬語の基本的な理解を持っていることを確認する.また,タスク設定を事前に明確にするため,作業者には予めガイドラインと各タスクのサンプル問題を提供する.実際に使用したガイドライン文を付録~\ref{appendix:guidelines_for_human_evaluation}に載せる.各作業者は合計1254件の問題に取り組む(件数の内訳は表~\ref{table:dataset_statistics}を参照).作業の専門性については,母語話者としての基本的な日本語敬語への理解のみを要求するようにし,学術その他の専門性を必要としないようにした.これを踏まえ,データ1件あたりのコストを10円と設定して作業者あたりのコストを12,540円と算出したのち,作業時間を約10時間と見積もり,時間給換算でプラットフォーム基準では十分不当な報酬額ではないことを確認した.最終的に手数料を含めた総コストは45,258円(作業者あたり15,086円)となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\setcounter{exx}{0} \section{結果と考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{容認性判断タスクの結果}\label{sec:result_acceptability_judgment}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果の概要}\label{sec:acceptability_judgment_overall_scores}表~\ref{table:scores_classification}は,容認性判断タスクの結果を示している.全ての設定の中で,GPT-4は$\fewshotcot$を用いた場合,両方のデータセット(テンプレート手法データセットで77.4\%,コーパス手法データセットで81.8\%)で最も良い性能を示した.$\fewshotcot$を用いることで,GPT-4のスコアと人手の予測によるスコアの差は2\%から7\%となった.モデル間で比較すると,GPT-4は全てのプロンプト設定でGPT-3.5のスコアを少なくとも13\%上回った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{15table08.tex}%\hangcaption{容認性判断タスクにおける正解率のスコア.Humanは3人の作業者による予測の平均スコアを表す.}\label{table:scores_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%両モデルで$\fewshot$がその他の設定と比較してあまり性能改善に寄与しない傾向にある一方で,$\fewshotcot$は比較的スコアの向上に貢献しているという違いを観測した.%%%%表~\ref{table:scores_classification_templatebased}では,表~\ref{table:scores_classification}aでは,GPT-3.5が$\fewshot$での性能が$\zeroshot$(53.8\%)よりも低い(49.0\%)ことが示されている.%%%%表~\ref{table:scores_classification_corpusbased}では,表~\ref{table:scores_classification}bでは,GPT-4についても同様の傾向が見られる($\zeroshot$で77.8\%,$\fewshot$で74.8\%).一方,$\fewshotcot$でのスコアは$\zeroshotcot$よりも高かったが,テンプレート手法データセットでのGPT-3.5については例外であった.これらの結果から,思考過程を含めたタスク事例が,思考過程を含めないタスク事例よりもモデルの性能に効果的に働いたことが示唆される.両モデルでのzero-shotを含めたCoTの貢献度合いに関して比較すると,GPT-4はCoTを用いることで一貫してスコアを伸ばしたが,GPT-3.5は必ずしもそのような傾向は見られなかった.このことから,GPT-4はGPT-3.5よりもCoTをうまく活用している可能性が高いことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{敬語の種類別の結果}\label{sec:acceptability_judgment_sentence_honorific_types}%%%%図~\ref{fig:classification_starsem_source_honorific_types}は,図~\ref{fig:classification_source_honorific_types}aは,テンプレート手法データセットを用いた容認性判断タスクの問題ごとの敬語の種類におけるスコアを示している.以降,モデル単位でのスコアの比較を行う際,4つのプロンプト設定のスコアの平均を用いる(各プロンプト設定によるスコアについては付録~\ref{appendix:accuracyscores_on_prompt_settings}を参照).GPT-3.5とGPT-4を比較した際,GPT-4は$\oh$や$\nh$を含む問題でより優れていることが観察された.例えば,GPT-3.5は$\zeroshotcot$および$\fewshotcot$で,丁寧形になっているだけの「聞きます」が「聞く」の尊敬語であると誤って思考過程で予測したり,「伺います($\oh$)」が尊敬語であると予測したりした.GPT-4はこれらの敬語の種類を正しく区別し,そのような場合に正解を予測した.この結果は,GPT-4が訓練段階で「尊敬語」や「謙譲語」といった専門用語の定義をより正確に学習した可能性があることを示唆している.しかし,GPT-4が$\sh$を含む問題でGPT-3.5より低いスコアを記録していることから,複雑な構造の文章でのそれらの違いを完全にとらえることができると結論づけるのは困難であると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[p]\begin{center}\includegraphics{31-3ia15f5.pdf}\end{center}%%%%\label{fig:classification_starsem_source_honorific_types}%%%%\label{fig:classification_nlyans_source_honorific_types}\hangcaption{敬語の種類別の容認性判断タスクの正解率スコア.$\nh$は尊敬語も謙譲語も使用していない動詞を表す.また,テンプレート手法データセットには複数の動詞を含む問題が存在する.}\label{fig:classification_source_honorific_types}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:classification_nlyans_source_honorific_types}は,図~\ref{fig:classification_source_honorific_types}bは,コーパス手法データセットを用いた容認性判断タスクの敬語の種類ごとのスコアを示している.GPT-3.5からGPT-4への全体的な改善が観察された.尊敬語($\sh$)を含む問題で最も顕著にスコアが改善された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{文構造別の結果}\label{sec:acceptability_judgment_structure_types}図~\ref{fig:classification_starsem_structure_types_template_based}は,テンプレート手法データセットを用いた容認性判断タスクにおける文構造の種類ごとのスコアを示している.GPT-4は,特に\textsc{simple\_one}や\textsc{direct\_speech}を含む問題でGPT-3.5よりも良いスコアを記録した.GPT-3.5からGPT-4への\textsc{scrambling}におけるスコアの改善度合いは10\%未満にとどまっていたが,\textsc{direct\_speech}\&\textsc{scrambling}や\textsc{indirect\_speech}\&\textsc{scrambling}においては,それを大きく上回り,最大で50\%に達した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{31-3ia15f6.pdf}\end{center}\caption{文構造別の容認性判断タスクの正解率スコア.}\label{fig:classification_starsem_structure_types_template_based}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%テンプレート手法データセットは,モデルが文構造を捉えるのが困難となるような統語現象を踏まえて作成されている.そのため,\textsc{direct\_speech}\&\textsc{scrambling}のような複雑な文構造の組み合わせを含む問題では,\textsc{simple\_one}や\textsc{simple\_two}に比べて両モデルの性能が低下すると想定していた.しかし,予想に反し,GPT-3.5は複雑な文構造を含む問題において,より単純なものに比べてスコアが大幅に低下するような傾向は,容認性判断タスクにおいては見られなかった.GPT-4に関しては,\textsc{simple\_one}でのスコアは複雑な構造を含むものよりも10\%以上高かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{15table09.tex}%\hangcaption{敬語変換タスクにおける正解率のスコア.Humanは3人の作業者による予測の平均スコアを表す.}\label{table:scores_generation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{敬語変換タスクの結果}\label{sec:result_honorific_conversion}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果の概要}\label{sec:honorific_conversion_overall_scores}表~\ref{table:scores_generation}は,敬語変換タスク全体のスコアを示している.%%%%表~\ref{table:scores_generation_templatebased}によると,表~\ref{table:scores_generation}aによると,CoTはテンプレート手法データセットを用いたテストでは一貫して性能向上に寄与しなかった.特筆すべき点として,GPT-4による最も良いスコアが,人手予測によるスコアを3.2\%上回ったことが挙げられる.このスコアは,作業者別で見た時,3人中2人の作業者を上回っていることが分かる(表~\ref{table:scores_human}参照).%%%%表~\ref{table:scores_generation_corpusbased}から分かるように,表~\ref{table:scores_generation}bから分かるように,コーパス手法データセットを用いた場合は,容認性判断タスクと同様に$\fewshotcot$が性能向上に大きく貢献している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{敬語の種類別の結果}\label{sec:honoric_conversion_honorific_types}%%%%図~\ref{fig:generation_starsem_source_target_types}において,図~\ref{fig:generation_source_target_types}aにおいて,GPT-3.5からの全体的なスコアの向上にもかかわらず,GPT-4は変換後の文の敬語の種類が$\nh$\&$\sh$($\oh$\&$\nh$$\rightarrow$$\nh$\&$\sh$,$\sh$\&$\nh$$\rightarrow$$\nh$\&$\sh$,$\sh$\&$\sh$$\rightarrow$$\nh$\&$\sh$)である問題をほとんど正解できなかった.%%%%この傾向は,図~\ref{fig:classification_starsem_source_honorific_types}の容認性判断タスクの結果と部分的には一致しているが,この傾向は,図~\ref{fig:classification_source_honorific_types}aの容認性判断タスクの結果と部分的には一致しているが,完全には一致していない.GPT-4による$\sh$\&$\sh$のスコアは最も低かったが,$\oh$\&$\nh$および$\sh$\&$\nh$のスコアは他のほとんどの敬語の種類よりも高かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[p]\begin{center}\includegraphics{31-3ia15f7.pdf}\end{center}%%%%\label{fig:generation_starsem_source_target_types}%%%%\label{fig:generation_nlyans_source_target_types}\hangcaption{敬語の種類別の敬語変換タスクの正解率スコア.$\nh$は尊敬語も謙譲語も使用していない動詞を表す.また,テンプレート手法データセットには複数の動詞を含む問題が存在する.}\label{fig:generation_source_target_types}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{table:error_oh_nh_to_nh_sh}は,$\oh$\&$\nh$$\rightarrow$$\nh$\&$\sh$の問題でGPT-4が誤った予測をした例を示している.文脈情報によると,斎藤は話者よりも社会的地位が高く,中村はその二人よりもさらに高い.この例において,モデルは二つの異なる点で予測を誤っている.一つ目は,「伺います($\oh$)」という斎藤の行為を表す動詞の変換である.中村の考えを引用している引用符で囲まれた部分に「伺います」が来ている.直接引用では,元々の発話者である中村の視点から敬語使用の判断がなされているはずである.一方,中村は斎藤よりも高い社会的地位を持っているため,斎藤の行為に敬語を適用することはなく,従って動詞は「来ます($\nh$)」であるべきである.しかし,モデルはこれを尊敬語形の「お越しになります($\sh$)」に変換した.二つ目の誤りとして,中村の行動「思います」を尊敬語形に変換する代わりに,元の文に全く含まれていない引用動詞「おっしゃる($\sh$)」を挿入している.この変換により,誤った予測の文では「思います」の行為者が話者になってしまい,文の意味が元のものと異なるものになっている.この不要な「おっしゃる」を追加する特定のエラーは,プロンプト設定に関係なく発生していることを確認した.これを受けて,引用符と引用動詞「おっしゃる」が「思いになります」のような他の引用動詞よりも,事前学習や微調整で用いられたデータにおいて頻繁に共起する可能性があると考えた.また,他の可能性として追加学習でのタスク設定にも影響を受けていることが考えられる.モデルそのものについての更なる調査は,本研究のスコープを超えるため,今後の課題に残す.%%%%図~\ref{fig:generation_nlyans_source_target_types}図~\ref{fig:generation_source_target_types}b%\footnote{コーパス手法データセットの敬語変換問題について敬語の種類ラベルの分布に偏りが発生しているのは,コーパスから収集した70件の文セットのうち,元々コーパスにあった敬語文が$\sh$であるようなデータが47件,$\oh$であるようなデータが23件であることに起因する(詳細なデータ生成手順は\ref{sec:corpus_based_method}節にて説明).}において,$\oh$$\rightarrow$$\nh$でのスコアはGPT-3.5からGPT-4で明らかに伸びている.GPT-3.5の予測をさらに調査すると,「ご迷惑をおかけします(迷惑をかける-$\oh$)」や「お願いします(お願いする-$\oh$)」などの謙譲語表現が,$\nh$に変換されるべき場面で変換されずに残ることがよくあった.これらのタイプの誤りは,GPT-4による予測ではあまり観察されず,そのような場合においてGPT-4のスコアはGPT-3.5よりも10\%高かった.これを受けて,これらの$\oh$表現は,日常会話で頻繁に使用されることから親しい関係の相手との会話でもしばしば使用されるのではないかと考えた.\citeA{bunkacho2007shishin}は,「これ,お願いします」という表現が,場合によっては日本人の話者にとって十分な敬意を表していないことがあるというケースを紹介しており,上述の予想を部分的にサポートしていると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{15table10.tex}%\hangcaption{$\oh$\&$\nh$$\rightarrow$$\nh$\&$\sh$の問題におけるGPT-4のエラー事例.動詞の敬語変換がうまくいっていないことに加えて,下線部に示すように不要な引用動詞を挿入してしまっている.}\label{table:error_oh_nh_to_nh_sh}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{31-3ia15f8.pdf}\end{center}\caption{文構造別の敬語変換タスクの正解率スコア.}\label{fig:generation_starsem_structure_types_template_based}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{文構造別の結果}\label{sec:honorific_conversion_structure_types}図~\ref{fig:generation_starsem_structure_types_template_based}では,敬語変換タスクにおける入出力文の文構造の種類に関する正解率のスコアが示されている.まず,単純な構造を持つ問題は,複数の言語現象が合わさった問題よりも敬語変換がうまくいくことが観察された.これは容認性判断タスクでは特に確認されなかった傾向である(図~\ref{fig:classification_starsem_structure_types_template_based}を参照).次に,GPT-4は$\fewshotcot$を用いることで,ほぼ全ての文構造の種類において一貫して性能が低下した(図~\ref{fig:appendix:generation_starsem_structure_types_template_based}の右グラフを参照).$\fewshotcot$を用いたGPT-4の性能の低下の傾向は,敬語変換タスク全体でより一貫していた(図~\ref{fig:appendix:generation_starsem_structure_types_template_based}の右グラフを参照).これは,容認性判断タスクにおけるそれ(図~\ref{fig:appendix:classification_starsem_structure_types_template_based}の右グラフを参照)と比べると,顕著であると言える.この現象が特定の文構造の種類に限定されていないことから,原因の一つにプロンプトの構築,特にfew-shot事例にある可能性が残されている.few-shot事例の数やラベルパターンなど,プロンプト設定がモデルの性能に与える影響をより詳細に調査することは重要であると考えられるが,本実験ではCoTに用いるプロンプトを追加で作成するのは非常にコストがかかるため,今後の課題として残す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{母語話者の判断に関する分析}\label{sec:further_analysis_of_human_annotation}容認性判断タスクは二値分類であるため,作業者の回答ラベルの一致度スコアをFleiss'skappa\cite{fleiss2013statistical}を用いて計算し,作業者による予測の妥当性を測定した.スコアはテンプレート手法データセットで0.35,コーパス手法データセットで0.55であり,\citeA{landis1977measurement}によれば適度な一致度であったといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{15table11.tex}%\caption{作業者3名それぞれの敬語理解タスクでの正解率スコア.}\label{table:scores_human}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{15table12.tex}%\caption{作業者\#2の予測が他の作業者およびデータセットのラベルと異なった問題の例.}\label{table:worker2_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{table:scores_human}は,二つのタスクにおける各作業者の結果を示している.作業者\#2によるスコアは他の二人の作業者に比べて比較的低かった.作業者\#2は,社会的関係に基づく尊敬語の使用の必要性を一貫して判断していなかった.例えば,表~\ref{table:worker2_example}はコーパス手法データセットにおける問題で,秘書が教授に話す場面を示している.作業者\#1と\#3は,一般的に秘書はそのような状況で敬語を使うべきであると判断し,動詞「伝える」を謙譲語形「お伝えする」に変換した.一方,作業者\#2は,この例では変換は不要と判断した.追加の聞き取りにより,作業者\#2は「伝える」と「お伝えする」の両方を受け入れているが,「伝える」をより好ましいと選んだことが分かった.すなわち,この作業者は他の二人と同様に社会的関係を理解していたが,関係以外の何らかの要因が選択に影響を与えたと考えられる.このケースが示すように,コーパス手法データセットにおける文脈情報を学術文献に基づいてアノテートしたが,敬語使用に関する人間の判断は非常に主観的であり,人によって変動する.この問題に対処するため,容認性の度合いを多段階に設計するか,離散的ではなく連続的な値として扱うことが今後の課題として残されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{テンプレート手法データセットでの敬語変換タスク}作業者のスコアのうち,特に低かったテンプレート手法データセットを用いた敬語変換タスクでの結果について,分析を与える.まず,作業者\#2および作業者\#3に共通する傾向として,直接引用文を含む問題での正答率が低く出た.直接引用文を含む問題について,作業者\#1は多くを解けているという点と,ガイドラインで示しているものの一件のみの解説であった点を踏まえると,タスク説明の解釈で作業者間に揺らぎがあったことが原因であると考えた.また,作業者それぞれでも特有の誤りが見られた.作業者\#2に特有な誤りとして,「お伺いする」「お会いになられる」「お召し上がりになる」など二重敬語表現や,「承知する」という謙譲語を尊敬語として使うケースが見られた.作業者\#3に特有な誤りとして,「分かる」「考える」の尊敬語として「ご賢察する」という表現が見られた.「ご賢察」自体は尊敬語ではある一方,「ご賢察の上」「ご賢察の程」といった名詞表現として使われることが一般的であると判断し,評価の際に誤りとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{作業者と大規模言語モデルによる誤りの比較}作業者と大規模言語モデルの誤りについて,定性的な比較を行い,共通点と相違点を報告する.敬語変換タスクにおいて最もスコアが高かったGPT-4による出力のうち,「ご承知です」「ご承知になります」など「承知」を謙譲語以外の敬語として使ってしまうミスは,一部の作業者と共通していた.一方で,作業者とモデルで異なる点として,人間の作業者は勘違いや間違えて覚えている敬語の知識があった場合,一貫して同じ間違いをするが,モデルは各問題を解く際のCoTでの説明において「拝察する」を尊敬語とみなす時と謙譲語とみなす時が両方あるなど,知識について一貫しない傾向が顕著に見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文でははじめに,日本語敬語理解タスクとして分類タスクの容認性判断タスクと生成タスクの敬語変換タスクを設定した.また,テンプレート手法およびコーパス手法を用いて,2種類の日本語敬語データセットを用意した.次に,これらのデータセットを用いて,2つのタスクでGPT-3.5とGPT-4の評価を行った.実験の結果,容認性判断タスクにおいて,GPT-4の方がGPT-3.5よりも正答率が高く,GPT-3.5は他の問題に比べて謙譲語を含む問題でより多く間違える傾向にあることが示唆された.また,テンプレート手法データセットを用いた敬語変換タスクで評価した結果については,GPT-4は3人の作業者のうち2人の正解率と競合していた.さらに,GPT-4はGPT-3.5よりもChain-of-Thoughtを用いたプロンプティングを効果的に活用することがわかった.このように,GPT-4は全体的には敬語理解タスクにおいて一定の性能があることが明らかになったが,一部の設定では改善の余地が示唆された.具体的には,敬語変換タスクにおいて,直接引用と中央埋め込みを含む問題を始めとして,複雑な文構造の組み合わせからなる文を持つ問題で,モデルが文脈を理解した上で文法規則を適用するのに失敗する傾向を確認した.また,GPT-3.5とGPT-4のいずれも,プロンプトの設定によって一貫した性能を示すわけではないことが分かった.最後に,本研究の今後の展望について述べる.まず,本研究では日本語敬語の役割として敬意の表明という主たる機能を前提としたが,実際には敬語が待遇表現として持つ機能は他にも存在する.例えば,相手との心理的距離を表現したり,皮肉や反語のニュアンスを伝えるために用いられる場合がある.このような敬意を離れた敬語使用の側面についても,今後の研究で取り扱うことが望まれる.また,本研究では分析対象としてGPT-3.5とGPT-4を選定したが,今後もさまざまな大規模言語モデルが継続的に登場することが予想される.本研究で構築したベンチマークが,より広範な大規模言語モデルの日本語敬語理解性能の評価に貢献することが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,JSPS科研費JP20K19868,JSTさきがけJPMJPR21C8の支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}%%%%\bibliography{15refs}\input{15sekizawa_bbl.tex}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{GuidelinesforHumanEvaluation} \label{appendix:guidelines_for_human_evaluation}図\ref{fig:appendix:guideline}に,クラウドソーシングで募った作業者に作業を依頼するにあたって作成した作業内容の説明とタスク設定のガイドラインを載せる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[p]\begin{center}\includegraphics{31-3ia15f9.pdf}\end{center}\caption{作業者向けに用意したタスク設定を説明するガイドライン.}\label{fig:appendix:guideline}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{プロンプト設定別の正解率スコア} \label{appendix:accuracyscores_on_prompt_settings}%%%%本文にて図\ref{fig:classification_starsem_source_honorific_types}から本文にて図\ref{fig:classification_source_honorific_types}aから図\ref{fig:generation_starsem_structure_types_template_based}にかけて示したグラフを,プロンプト設定ごとに分けたものを図\ref{fig:appendix:classification_starsem_source_honorific_types}から図\ref{fig:appendix:generation_starsem_structure_types_template_based}に載せる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[h]\begin{center}\includegraphics{31-3ia15f10.pdf}\end{center}\hangcaption{敬語の種類別のテンプレート手法データセットを用いた容認性判断タスクの正解率スコア(プロンプト設定別).}\label{fig:appendix:classification_starsem_source_honorific_types}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[h]\begin{center}\includegraphics{31-3ia15f11.pdf}\end{center}\hangcaption{敬語の種類別のコーパス手法データセットを用いた容認性判断タスクの正解率スコア(プロンプト設定別).}\label{fig:appendix:classification_nlyans_source_honorific_types}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\newpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[t]\begin{center}\includegraphics{31-3ia15f12.pdf}\end{center}\caption{文構造別の容認性判断タスクの正解率スコア(プロンプト設定別).}\label{fig:appendix:classification_starsem_structure_types_template_based}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.13\begin{figure}[p]\begin{center}\includegraphics{31-3ia15f13.pdf}\end{center}\hangcaption{敬語の種類別のテンプレート手法データセットを用いた敬語変換タスクの正解率スコア(プロンプト設定別).}\label{fig:appendix:generation_starsem_source_target_types}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14\begin{figure}[t]\begin{center}\includegraphics{31-3ia15f14.pdf}\end{center}\hangcaption{敬語の種類別のコーパス手法データセットを用いた敬語変換タスクの正解率スコア(プロンプト設定別).}\label{fig:appendix:generation_nlyans_source_target_types}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.15\begin{figure}[t]\begin{center}\includegraphics{31-3ia15f15.pdf}\end{center}\caption{文構造別の敬語変換タスクの正解率スコア(プロンプト設定別).}\label{fig:appendix:generation_starsem_structure_types_template_based}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{関澤瞭}{%2022年東京大学文学部人文学科英語英米文学専修課程卒業.2024年東京大学大学院情報理工学系研究科コンピュータ科学専攻修士課程修了.株式会社サイバーエージェントにてアプリケーション開発に従事.}\bioauthor{谷中瞳}{%2018年東京大学大学院工学系研究科博士課程修了.同年より理化学研究所特別研究員,2021年より東京大学卓越研究員に採択され東京大学大学院情報理工学系研究科講師,2023年より同准教授.理化学研究所客員研究員を兼務.自然言語推論に関する研究に従事.博士(工学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V24N01-03
\section{はじめに} \label{sec:introduction}機械翻訳システムの性能向上や大量のコーパスを伴なう翻訳メモリなどの導入により,機械支援翻訳(CAT)が広く行われるようになってきている.その一方で,翻訳の対象となる文書の内容が専門的である場合,その分野特有の専門用語や定型表現に関する対訳辞書が必要となる.そうした辞書を人手で作成することはコストが高いため,あらかじめ翻訳された対訳コーパスから専門用語や定型表現の対訳を自動抽出する研究が盛んである\cite{Matsumoto00}.しかし,自動抽出の結果は必ずしも正確ではなく,間違った対訳表現を抽出したり,対訳表現の一部だけを抽出する場合がある.また,一つの語に対して複数の対訳表現を抽出した場合には,訳し分けに関する知見が必要となる.そこで,対訳表現を抽出するだけでなく,対訳表現の各候補を,それが出現した文脈と一緒に表示することによって,ユーザによる対訳表現の選定を支援し,対訳辞書構築を支援するシステムBilingualKWIC\textsuperscript{\textregistered}を開発した.BilingualKWICは,対訳抽出の技術とKWIC(KeyWordInContext)表示\cite{luhn1960}を統合し,文単位で対応付けされたパラレル・コーパスから,与えられたキーワードとその対訳表現の候補をそれぞれ文脈付きで表示する.BilingualKWICの開発過程については\ref{sec:history}章において詳しく述べるが,最初は法律分野の対訳辞書構築を支援する目的で開発した.しかし,このシステムは対訳辞書構築だけでなく,翻訳支援にも有用であるため,その後に開発された法務省・日本法令外国語訳データベース・システム(JLT){\footnote{http://www.japaneselawtranslation.go.jp/}\cite{Toyama12}}においても採用されるに至った.JLTは,日本の主要法令とその英訳,法令用語日英標準対訳辞書,および日本法令の英訳に関する関連情報をインターネット上において無償で提供するウェブサイトである.また,BilingualKWICは名古屋大学が開発した学内情報翻訳データベースNUTRIAD\footnote{http://nutriad.provost.nagoya-u.ac.jp/}\cite{Fukuda}でも採用され,学内文書の英文化を支援し,大学の国際化に寄与している.NUTRIADのシステムは,九州大学・熊本大学・東北大学でも導入され,BilingualKWICも同様に利用されている.BilingualKWICの現在の目的は,対訳辞書のようにあらかじめ登録された訳語と少数の用例を提示するのではなく,任意の入力キーワードに対して対訳表現を計算し,豊富なパラレル・コーパスからの情報を一緒に提示することにより,従来の対訳辞書や翻訳メモリとは異なるアプローチでの翻訳支援を実現することである.以下に本論文の構成を示す.まず\ref{sec:summary}章においてBilingualKWICの概要について述べ,\ref{sec:character}章においてその特徴を紹介する.\ref{sec:spec}章において,BilingualKWICの技術的詳細を,\ref{sec:history}章においてその開発過程をそれぞれ述べる.\ref{sec:evaluation}章ではユーザによるBilingualKWICの評価について述べ,\ref{sec:compare}章では類似するシステムとの比較を行う.\ref{sec:conclusion}章は本論文のまとめである. \section{BilingualKWICの概要} \label{sec:summary}BilingualKWICの概観を図~\ref{fig:BilingualKWIC}に示す.これはBilingualKWICが「文脈検索」という名前で採用されているJLT版での画面である.なお,BilingualKWIC自体はJLTに先立って開発されたものであり,以降の説明は,特に断わりがない限り,JLT版以外のBilingualKWICに共通するものである.\begin{figure}[b]\begin{center}\includegraphics{24-1ia3f1.eps}\end{center}\caption{BilingualKWICの概観}\label{fig:BilingualKWIC}\end{figure}左上のキーワード入力欄にキーワードを入力し,その横の[検索]ボタンを押すと,左側に原言語,右側に対象言語で対応付けられた対訳文を表示する.その際,原言語ではキーワードを中心に,また,対象言語では自動的に推定したその対訳表現を中心に,それぞれKWIC形式で表示する.また,注目したい文をマウスでクリックすると,その文全体が下側に表示される.その際,コーパスが複数の文書から構成される場合には,注目文の出典である文書名を表示できる.右上の対訳表現入力欄にはBilingualKWICが推定した対訳表現が表示されるが,それが間違っていたときには,ユーザが自分で適切な対訳表現をここに入力し,[訳語再検索]ボタンを押すことにより再表示できる.それに加えて,この欄右の[▼]ボタンを押すと,BilingualKWICが推定した他の対訳表現が表示され,ユーザは別の対訳表現を選択することができる.なお,キーワードおよび対訳表現ともにコーパス中における出現回数がそれらのすぐ横に表示され,対訳表現選定の一助となっている.また,KWIC表示欄の上部にある[並び替え]と表示された部分をクリックすることにより,出力結果をソートすることが可能である.原言語欄もしくは対象言語欄の中心にある表現の左側・右側でそれぞれソートすることができる.これにより対訳表現や用例の比較が簡単に行える.図~\ref{fig:BilingualKWIC}では,キーワード「専用利用権」の右側に続く語を基準にソートされている.\begin{figure}[t]\begin{center}\includegraphics{24-1ia3f2.eps}\end{center}\caption{``negotiation''に対する実行結果}\label{fig:BilingualKWIC2}\vspace{-0.5\Cvs}\end{figure}なお,図~\ref{fig:BilingualKWIC}では,原言語が日本語,対象言語が英語となっているが,キーワード入力欄に英単語を入力すれば,図~\ref{fig:BilingualKWIC2}のように原言語を英語,対象言語を日本語として対訳表現の自動抽出が行える.またキーワード・対訳表現ともに複合語を含め,任意の文字列を入力することができる.\clearpage \section{BilingualKWICの特徴} \label{sec:character}BilingualKWICは次のようなことが可能であるという特徴を持つ.\begin{enumerate}\item対訳表現の抽出における誤りの訂正\item派生表現の獲得\item訳し分けに関する知見の獲得\item対訳辞書との併用\item対訳表現の指定\item他の言語への応用\end{enumerate}以下,これらの特徴を詳しく述べる.\subsection{対訳表現の抽出における誤りの訂正}BilingualKWICでは,自動対訳抽出における誤りをユーザが簡単に修正できる.図~\ref{fig:BilingualKWIC}の例では,JLT版で公開されている日本法令の日英対訳コーパスを「専用利用権」をキーワードとして検索している.正しい対訳は,``exclusiveexploitationright''であるが,自動対訳抽出の結果は``exclusiveexploitation''となっている.しかし,図~\ref{fig:BilingualKWIC}のKWIC形式で表示された英語文において``exclusiveexploitation''の右側の文脈を見れば,``exclusiveexploitationright''が対訳として正解であることが直観的に理解できる.\subsection{派生表現の獲得}BilingualKWICでは,派生表現とその対訳を容易に獲得できる.図~\ref{fig:BilingualKWIC}の例では,「専用利用権」``exclusiveexploitationright''の下に続いて表示される用例から「専用利用権者」という派生語と,その対訳``holderofanexclusiveexploitationright''を得ることができる.このような特徴は対訳表現の抽出を支援するときに有用であるが,対訳表現に加えて,実際の用例も表示されることから,BilingualKWICは翻訳支援に対しても有用である.\subsection{訳し分けに関する知見の獲得}翻訳支援システムとして捉えたとき,BilingualKWICは訳し分けに関する知見が容易に獲得できる点が優れている.図~\ref{fig:BilingualKWIC2}の例では,``negotiation''の対訳として,「譲渡」と「交渉」が表示されている.そのような場合には,前後の文脈から,対訳語がどのように使い分けられているかを比較することが容易であり,この例では``between''が後続する場合は「交渉」と翻訳するのが適当であるといった知識を得ることができる.\subsection{対訳辞書との併用}BilingualKWICでは,あらかじめ対訳辞書が用意されていれば,それを組み込んで併用することも可能である.辞書に対訳表現が登録されている場合は,その対訳を優先的に表示し,その後,自動的に推定した対訳表現を含む文を表示する.図~\ref{fig:BilingualKWIC2}の例では,「譲渡」がこれに該当し,辞書に登録されている対訳であることを示すために緑色で表示される.その下に続く「交渉」は自動推定された対訳であり,辞書に登録されているものと区別するために青色で表示される.JLTにおいては,「法令用語日英標準対訳辞書」が公開されており,JLT版BilingualKWICに組み込まれている.\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{24-1ia3f3.eps}\end{center}\caption{「検証」の訳語として``review''を指定した結果}\label{fig:BilingualKWIC3}\end{figure}\subsection{対訳表現の指定}BilingualKWICでは,対訳表現の抽出に失敗した場合や,\pagebreak特定の対訳表現に注目したい場合は,対訳表現入力欄にそれを入力することにより,対訳を指定できる.図~\ref{fig:BilingualKWIC3}の例では,「検証」の訳語として少数ながら出現した``review''を入力することにより,その用例を表示している.なお,ユーザが指定した対訳表現は赤色で表示され,辞書にある対訳よりもさらに優先して表示される.\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{24-1ia3f4.eps}\end{center}\caption{ベトナム語--英語コーパスへの適用}\label{fig:BilingualKWICv}\end{figure}\subsection{他の言語への応用}またBilingualKWICは,後述するように形態素解析を利用せず,文字レベルの情報だけを利用しているため,様々な言語対での利用が可能である.図~\ref{fig:BilingualKWICv}は,ベトナム語と英語の対訳コーパスを利用した例である\hspace{-0pt}\footnote{これはJLT版ではなく,別のウェブ・サーバ上で実行した例である.}.なお,この例のように,言語の種類の判定が入力文字列からでは容易でない言語対で利用する場合は,入力言語を切り替えるトグル・ボタンをキーワード入力欄の左に用意している. \section{BilingualKWICの技術的詳細} \label{sec:spec}本章では,BilingualKWICの技術的な詳細について述べる.まず,対訳表現の自動抽出手法について述べたあと,どのような文字列を対訳ペアの単位とするかについて述べる.\subsection{対訳表現の自動抽出}本節では,BilingualKWICにおける対訳表現の自動抽出の手法について述べる.\subsubsection{Dice係数の利用}対訳コーパスから対訳表現を自動的に抽出する手法については,これまでも様々な手法が提案されている.基本的な手法は,対訳コーパスから統計的に得られる情報をもとに類似度を計算するものである.すなわち,対訳コーパスの中から対訳表現の候補を求め,入力語との類似度を計算して,もっとも類似したものを対訳表現として抽出する.類似度としては,Dice係数・相互情報量・$\phi^2$統計量・対数尤度比などが知られているが,これらに関しては文献~\cite{Matsumoto00}が詳しい.また,類似度として翻訳確率を利用するIBMモデル~\cite{IBMModel}とそれをHMMに基づいて実装したGIZA++~\cite{GIZA++}も広く利用されている.IBMモデルの場合,与えられた入力語の対訳表現を求めるのではなく,原言語文中の各単語と対象言語文中の各単語の間に対応を付ける.さらに対応付けを単語の連続として表現されるフレーズに拡張したものとして,統計的機械翻訳システムMoses~\cite{Moses}が出力するフレーズ・テーブルも利用されている.GIZA++やMosesは,出現回数がある一定以上の単語やフレーズに対しては高い精度で対応を付けることが可能である.その他,統計情報に加えて,既存の対訳辞書など,他の言語情報を利用する手法も提案されている~\cite{Kumano94,Izuha04}.BilingualKWICにおいては,より多くの言語対に適用できるようにするため,言語情報はできるだけ利用せず,統計情報だけから対訳表現を求めることとした.この場合,高い精度をもつGIZA++やMosesの結果を利用することも考えられるが,GIZA++は単語,Mosesはフレーズを単位として対応を付けるため,単語の一部などのような単位にそぐわない表現に対しては対訳を推定することができない.BilingualKWICでは,ユーザがキーワードを入力することを前提としており,特に日本語のように1単語の定義が曖昧な言語では,入力キーワードがシステムが想定する単位に合致しない場合が発生しやすいと考えられる.そこで,どのようなキーワードに対しても対訳表現を計算できるよう,BilingualKWICでは類似度を計算する手法を採用した.類似度にも複数の候補があるが,文献~\cite{Kitamura97}において,候補間の類似度を計算する手法として相互情報量とDice係数を比較し,Dice係数の方が高い精度を出すことが示されている.これを参考にし,BilingualKWICでも以下に示すDice係数を類似度として採用した.\begin{equation}\label{eq1}\Dice(x,y)=\frac{2\times\freq(x,y)}{\freq(x)+\freq(y)}\end{equation}ここで$\freq(x)$と$\freq(y)$は,入力キーワード$x$および対訳表現候補$y$がそれぞれ原言語コーパスおよび対象言語コーパス中に出現する回数であり,$\freq(x,y)$は,対応付けられた文に$x$と$y$が同時に出現する回数である.よって,$0\leq\Dice(x,y)\leq1$となる.実際にBilingualKWICで使用する場合は,入力キーワード$x$を固定した上で,$\Dice(x,y)$が最大となる$y$を探すことになることから,以下の式を用いる.\begin{equation}\label{eq2}\hat{y}=\argmax_{y}\frac{2\times\freq(x,y)}{\freq(x)+\freq(y)}\end{equation}実装においては,まずキーワード$x$が出現した文に対応する対訳文を集めて探索範囲とし,その中に出現するあらゆる候補$y$について上記の式(\ref{eq1})を計算し,最大となるものを求めている.\subsubsection{再帰的な対訳表現の抽出}\label{sec:recursive}上述の式(\ref{eq2})を使用した場合,$\hat{y}$は一つしか求められない.しかし,実際には同じ入力キーワードが複数の対訳表現をもつことがある.そこで,BilingualKWICでは,下記に示す方法で複数の対訳表現を再帰的に抽出する.まず,最初の$\hat{y}$が求まった場合,探索範囲から$\hat{y}$を含んだ文を削除する.そして残った文を新たな探索範囲とし,式(\ref{eq2})を再度計算することにより,異なる対訳表現を求める.探索範囲に含まれる文数や,$\hat{y}$に対するDice係数の値が閾値以下になった場合は計算を終了し,そうでない場合はさらに対訳表現を再帰的に求める.単純にDice係数の値が大きな順に対訳候補とすると,最初に求めた表現の部分文字列などが含まれる場合があるが,既に抽出した対訳表現が出現しない文から対訳候補を求めることにより,最初の候補とは別の対訳表現を抽出できる.以上の方法により,図~\ref{fig:BilingualKWIC2}のように入力キーワードが複数の対訳表現をもつ場合に,それぞれを抽出できる.\subsection{文字レベルの情報のみの利用}GIZA++や文献\cite{Kitamura97}を含め,先行研究では日本語・英語とも形態素解析を利用するものが多いが,BilingualKWICでは,形態素解析を利用せずに文字レベルの情報だけを用いている.ここで文字レベルの情報とは,日本語の平仮名は対訳表現に含めない\hspace{0pt}\footnote{オプションで含めることも可能である.},英語の単語は空白で区切られる,といった情報である.具体的には,日本語は文字Nグラム,英語は単語Nグラムを用いて,ある程度の長さNをもつ対訳表現の候補を求めている.なお,Nの最大値は言語ごとに指定できる.ところで,形態素解析を利用する利点として,対訳表現抽出の精度向上が期待できる点が挙げられる.特に動詞のように活用する語や,英語名詞の複数形などは,形態素解析を利用しないと,変化形が別の語として認識されてしまう.しかし,形態素解析の誤りは対訳抽出に影響を与える,他の言語に応用する場合はその言語に対応した形態素解析システムが必要といった問題もある.さらに,形態素解析システムの辞書にない単位では利用できないという問題がある.そうした点を考慮し,さらに対訳表現抽出の誤りを容易に修正できることから,BilingualKWICでは形態素解析を利用しないこととした.それにより,語の一部だけをキーワードとして入力するなど,柔軟な入力も可能になった.ただし,単語の途中からを候補対象とすると,精度や速度の点で問題があるため,接頭語として含まれている場合だけを数え上げている.例えば,``search''の出現回数を数えるときには``searches'',``searching'',``searched'',``searcher''なども含めて数えている.これにより,動詞の活用形や名詞の複数形が規則変化する語については,形態素解析の利用なしでも,ある程度対処できている. \section{BilingualKWICの開発} \label{sec:history}本章では,BilingualKWICの開発について,その段階にそって述べる.\subsection{プロトタイプ版の開発}プロトタイプ版となる最初のBilingualKWICの実装は,2003年に筆者が独自に行った.PC上でスタンドアロンで動作するように設計し,使用した言語はRuby,GUI作成のためにTkのライブラリを利用した.Rubyはスクリプト言語であり,プログラム開発が容易である一方,実行速度が遅いという欠点がある.BilingualKWICの実装においては,Dice係数の計算のために文字列の出現回数を高速に数え上げる必要がある.そこで,文字列検索の高速化のために,SuffixArray\cite{SuffixArray}のライブラリであるsary\footnote{http://sary.sourceforge.net/}を使用した.なお,今日では当然であるが,文字コードにはUTF-8を採用した.これにより,図~\ref{fig:BilingualKWICv}の例のように,各種言語に対応した.\subsection{対訳辞書作成支援版の開発}プロトタイプ版BilingualKWICは,JLT\cite{Toyama12}で公開される「法令用語日英標準対訳辞書」の構築において利用された\cite{Toyama08}.その際には,この標準対訳辞書に収録する対訳ペアの候補を収集することが必要になるため,BilingualKWIC上から対訳ペアを候補として登録できるようにした.具体的には,登録したい単語を指定して右クリックすると図~\ref{fig:pop}に示すポップ・ウィンドウが表示されるようにした.このウィンドウ上で,必要に応じてデータを修正・追加して,登録できるようにした.\begin{figure}[b]\begin{center}\includegraphics{24-1ia3f5.eps}\end{center}\caption{対訳ペア登録用ウィンドウ}\label{fig:pop}\end{figure}実際に,このシステムがインストールされたノートPCを作業担当者に配布することにより,標準対訳辞書に収録する対訳ペアの候補が収集された.この時点では,BilingualKWICが利用する対訳コーパスの大きさは39,560文であったが,ノートPC上で問題なく動作していた.なお,この対訳ペア登録機能は,対訳辞書の構築には有用であるが,翻訳支援の目的とは異なるため,次節のウェブ対応版では採用しなかった.\subsection{ウェブ対応版の開発}プロトタイプ版はスタンドアロンなPC上で起動するが,あらかじめRubyの処理系などを用意する必要があり,インストールは簡単ではなかった.また,利用者が各自で対訳コーパスを用意する必要があり,広く使用してもらうことができなかった.そこで多くのユーザに利用してもらうために,ウェブ・サーバ上で動作可能なバージョンを開発した.基本的なエンジンはプロトタイプ版と同じであるが,ウェブ・ブラウザを利用するためのGUI部分の開発は業者に委託した.この時点で,ユーザ・インターフェイスも含めて,BilingualKWICは一通り完成した.なお,BilingualKWICの完成後,日本法令外国語訳データベースシステム(JLT)の開発が始まったが,BilingualKWICは翻訳支援における有用性も認められ,2009年のJLT開設当初から「文脈検索」の名前で採用されている.その際には,より多くのウェブ・ブラウザに対応させるなどの改良を施した.これにより多くの一般ユーザにBilingualKWICを利用してもらえるようになった.\subsection{高速化}\label{sec:high-speed}最初のプロトタイプ版では,対訳コーパスとして数万文程度のサイズを想定していた.しかし,JLT版では新しい対訳法令が次々に追加されるため,コーパスのサイズが10万文を超える段階において,実行速度の点で問題が発生した.特に入力キーワードの出現回数が1万を超えるような場合は,結果が表示されるまでに数十秒かかることもあった.この問題には2010年から取り組み,以下の二つの方法で対処した.この手法はJLT版には適用していないが,\ref{sec:introduction}章で述べたNUTRIAD版において適用している.\subsubsection{対訳表現抽出の高速化}実行速度が遅い原因の一つは,コーパスが大きくなると対訳表現抽出に時間が掛かるためである.式(\ref{eq2})においては,$\hat{y}$を求めるために,あらゆる対訳表現候補$y$について$\freq(y)$と$\freq(x,y)$の計算が必要となる.$y$は,上限(デフォルトは日本語で6文字,英語で4単語)までのあらゆるNグラムを候補とするため,入力キーワード$x$が出現する文数が大きくなると,$\freq(y)$と$\freq(x,y)$の計算回数がそれだけ多くなる.このうち$\freq(y)$の計算は,コーパスの並び替えとインデックス化を事前に行うSuffixArrayを用いることにより,高速に実行できるため問題ない.しかし,$\freq(x,y)$に関しては,$y$の出現回数を数える探索範囲が$x$に依存して変化する.そのため,探索範囲を事前にインデックス化することが不可能であり,SuffixArrayを用いた高速化ができない.そこでプロトタイプ版およびJLT版では,探索範囲内を順次Nグラムに分割し,その出現回数を数え上げていた.この$\freq(x,y)$の計算を高速化するため,コーパスの各文をあらかじめ一定サイズ以下のNグラムに分割したデータを別に保持し,それを数え上げることとした.すなわち,デフォルトでは日本語は8文字以下,英語は10単語以下のNグラム単位であらかじめ分割したデータを保持しておく.また実装においては,テキストデータ自体へのアクセスを高速化するためにTokyoCabinet\footnote{http://fallabs.com/tokyocabinet/}を導入した.\subsubsection{表示の高速化}実際の利用の上では,表示速度においてもボトルネックがあった.入力キーワード$x$が出現する文が多くなると,ブラウザ側に負担が掛かり,表示が遅くなっていた.そのため,JLT版においては,デフォルトで100文を超える分は表示しないこととし,オプションとして表示できる文数の上限の設定を200,400,800と変更できるようにした.このため,入力キーワードを含むすべての対訳文を表示することができない場合があるが,通常の利用では,800文を表示できれば充分に比較ができると考えた.また,入力キーワードに文字列を付加したり,対訳表現を指定することにより,希望する対訳文を表示することができる.しかし,JLT版においては,別の問題があった.JLT版においては,表示結果のソートをブラウザ側で実現していた.しかし,これもブラウザに負担を掛け,表示が遅くなる結果となっていた.よってソート自体をサーバで実行し,その結果をブラウザ側に再送して再表示することにより,高速化を実現した.\subsubsection{高速化の効果}上述した二つの高速化手法の効果を測定するために,高速化を適用していないJLT版と,適用したNUTRIAD版とにおける表示速度を比較した.具体的には,出現回数が異なるキーワード50語を選び,そのキーワードを入力してから結果が表示されるまでの時間を測定した.時間の計測には,ウェブ・ブラウザを利用してウェブ・アプリケーションをテストするツールであるSeleniumWebDriver{\footnote{http://www.seleniumhq.org/projects/webdriver/}}をRubyから使用した.表示する文数の上限はデフォルト値である100とした.また,組み込まれている対訳辞書を併用した場合,対訳表現の自動推定の一部が省略されて訳語推定の時間が異なってくるため,併用しない設定で測定した.その結果を図~{\ref{fig:time}}に示す.\begin{figure}[t]\begin{center}\includegraphics{24-1ia3f6.eps}\end{center}\caption{出力時間の比較}\label{fig:time}\end{figure}この結果から分かるように,結果が表示されるまでの時間は出現回数が増えるに従って増加する傾向にあるが,単純に比例する訳ではない.これは再帰的な対訳表現の抽出が主な原因と考えられる.\ref{sec:recursive}節で述べたように,BilingualKWICでは,最初の対訳表現を求めた後,それが含まれない残りの文から再帰的に対訳表現を求める.そのため,多くの対訳表現をもつキーワードほど,すべての対訳表現を抽出するまでの時間が長くなる.JLT版とNUTRIAD版では,サーバの性能や登録されているコーパスの量・内容,入力されるキーワードが異なるため,単純な数値の比較はできないが,高速化を施したNUTRIAD版の方がキーワードの出現回数が増えた場合でも,実行時間の増加が緩やかであり,高速化手法が有効であったことが分かる. \section{ユーザによる評価} \label{sec:evaluation}本章では,実際に利用したユーザに対するアンケートに基づくBilingualKWICの評価について述べる.\subsection{アンケートの対象と内容}法学部の講義の一環として法令翻訳の課題が実施されており,受講生はBilingualKWICを利用して法律文を翻訳している.今回は,この講義の受講生にBilingualKWICの評価を依頼した.受講生は,まず初回の講義において,使用する道具に関する説明なしで与えられた法律文を翻訳した.それから,次の回の講義においてJLT版のBilingualKWICである「文脈検索」の説明を受けた後,改めて別の法律文を翻訳した.なお,説明の内容は,キーワードを入力して結果が表示される例を示すという単純なものであり,一般のユーザがウェブサイトに辿り着いてキーワード入力を実行し,その動作を理解する場合と同程度と想定した.BilingualKWICを使用しない場合と使用した場合の両方の翻訳を試みることにより,BilingualKWICが翻訳に有用であったかを評価してもらった.評価項目は,表示の見やすさ(視認性)・訳語の推定精度(推定精度)・表示速度・役に立ったか(有用性)に関する満足度であり,それぞれ5段階で評価してもらった.\subsection{評価結果}受講生49人に対するアンケートの集計結果を図~\ref{fig:enquete}に示す.視認性と訳語の推定精度に関しては,約5割が満足している一方で,表示速度に関しては4割以上が不満を感じている.JLT版のBilingualKWICには,\ref{sec:high-speed}節で述べた高速化が適用されていないため,その点も低い評価に繋っていると考えられる.しかし,有用性に関しては8割以上が肯定的な評価であり,BilingualKWICが翻訳支援として役に立つことが示された.\begin{figure}[t]\begin{center}\includegraphics{24-1ia3f7.eps}\end{center}\caption{ユーザによる評価結果}\label{fig:enquete}\end{figure} \section{関連研究} \label{sec:compare}コーパスに対して検索や分析を行うツールはコンコーダンサと呼ばれるが,これを2言語コーパスに拡張したものはバイリンガル・コンコーダンサもしくはパラレル・コンコーダンサと呼ばれる.BilingualKWICはバイリンガル・コンコーダンサの一種であると言える.本章では,いくつかのバイリンガル・コンコーダンサについて紹介し,BilingualKWICとの違いについて述べる.文献\cite{Uchiyama03b}における翻訳メモリの利用方法はバイリンガル・コンコーダンサといえる.ここでは,与えられたキーワードの日本語コーパスにおける出現をKWIC形式で表示し,コーパス中においてキーワードと良く共起した日本語単語と英語単語を提示する.ユーザが対訳候補となる英語単語を選ぶと,それに基づいた絞り込み検索を行い,対訳文のペアを別ウィンドウに表示する.ただし,別ウィンドウに表示される対訳文のペアでは,キーワードと対訳候補の部分がそれぞれ下線で明示されるが,中心に揃えて表示される訳ではない.BilingualKWICでは,最初に対訳候補を自動的に決定する点,任意の対訳表現を指定できる点,原言語だけでなく対象言語も同時にKWIC形式で表示する点が異なる.TransSearch\footnote{http://www.tsrali.com/}\cite{Macklovitch}はオンラインのバイリンガル・コンコーダンサであり,原言語文と対象言語文を左右に並べて表示する.当初は原言語文中の入力キーワードがハイライトされるだけであり,対訳語はユーザが推測する必要があった.文献\cite{Bourdaillet10TS3MT}による改良により,対訳語の自動推定機能が追加され,対訳語はハイライトされるようになったが,KWIC形式の表示は導入されていない.一方で,単数形と複数形などのように類似した訳語をまとめるなど,BilingualKWICにはない機能を備えている.LinearB\cite{Callison}はパラレル・コーパスを翻訳メモリとして捉え,検索できる翻訳メモリというコンセプトに基づくバイリンガル・コンコーダンサである.原言語文と対象言語文が上下交互に表示される形式であり,KWIC形式は導入されていない.対訳語は自動推定されるが,同じ対訳語を含む文が多数ある場合,その一部だけを表示し,複数の対訳語が同じ画面に表示されるようになっている点がBilingualKWICとは異なる.なお,TransSearchおよびLinearBの自動推定はGIZA++やMosesなどで利用される単語やフレーズの対応付け技術を応用したものであり,キーワードが入力される前にあらかじめ推定している点がBilingualKWICと異なる.よって,両者では対訳自動推定の精度をいかに向上させるかが重視されており,特に文献\cite{Bourdaillet10TS3MT}では様々な自動推定の方法が比較・検討されている.一方,BilingualKWICでは表示方法を工夫することにより,ユーザが自動推定の誤りを訂正しやすくするというアプローチで,自動推定の誤りに対処している.原言語文と対象言語文の両者をKWIC形式で表示するバイリンガル・コンコーダンサとしてはParaConc\footnote{http://paraconc.com/}\cite{Barlow}が挙げられる.ただし,そのKWIC表示は半自動というべきものである.ユーザがキーワードを入力すると,原言語文は上ウィンドウにおいてKWIC形式で表示されるが,対象言語は下ウィンドウに通常の形式で表示される.その際,対訳語の候補が示されており,それをクリックすることによりKWIC形式での表示に変化する.ただし,原言語文と対象言語文が上下のウィンドウで完全に分割されており,例えば上ウィンドウの3文目に対応する文は下ウィンドウの3文目に表示されるといった具合であり,左右に並べて表示するBilingualKWICと比べた場合,原言語文と対象言語文の対応は分かりにくい.なお,対訳語候補の選出方法は出現頻度に基づくものであり,Dice係数と類似したものと考えられるが,具体的な計算式が掲載されていないため,詳細は不明である. \section{まとめ} \label{sec:conclusion}本論文では,対訳表現抽出を可視化することで翻訳を支援するBilingualKWICの開発について述べた.BilingualKWICは,任意の入力キーワードに対して対訳表現を自動抽出し,パラレル・コーパス中での用例と一緒に提示することにより,ユーザの翻訳作業を支援する.本システムは,既に述べた通り,法務省・日本法令外国語訳データベースシステム(JLT)および名古屋大学・学内情報翻訳データベースNUTRIADにおいて採用されている.現在,JLTでは36万文150~MB以上からなる対訳コーパスを用いてBilingualKWICを運用している.出現回数の少ない入力キーワードに対しては問題なく動作しているが,\ref{sec:high-speed}節で述べた高速化が適用されていないため,出現回数が多いキーワード,特に出現回数が1万回を超えるような場合には結果が表示されるまでに数十秒かかることがある.また,高速化が適用されたNUTRIAD上の実装においても,出現回数が極端に多いキーワードに対しては応答に時間がかかっており,BilingualKWICの一層の高速化が求められている.それに対しては,出現回数や入力頻度の多いキーワードに対する計算結果をキャッシュしておくなどの対応を検討している.さらには,Mosesなどを利用してフレーズ・テーブルをあらかじめ計算しておき,入力キーワードがフレーズ・テーブルにある場合はその結果を,そうでない場合はDice係数によりその場で計算するなどのハイブリッドな手法を導入することにより,高速化と高精度化を同時に実現する方法も検討している.\acknowledgmentBilingualKWICの開発にあたっては,ウェブ版インターフェイスの開発,高速化などにおいて株式会社リーガルアストレイに協力していただいた.ユーザによる評価実験においては,名古屋大学大学院法学研究科附属法情報研究センターの中村誠特任准教授と佐野智也特任講師に協力していただいた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barlow}{Barlow}{2004}]{Barlow}Barlow,M.\BBOP2004\BBCP.\newblock\BBOQParallelConcordancingandTranslation.\BBCQ\\newblockIn{\BemProceedingsofASLIBTranslatingandtheComputer},\lowercase{\BVOL}~26.\bibitem[\protect\BCAY{Bourdaillet,Huet,Langlais,\BBA\Lapalme}{Bourdailletet~al.}{2010}]{Bourdaillet10TS3MT}Bourdaillet,J.,Huet,S.,Langlais,P.,\BBA\Lapalme,G.\BBOP2010\BBCP.\newblock\BBOQTransSearch:fromaBilingualConcordancertoaTranslationFinder.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf24}(3--4),\mbox{\BPGS\241--271}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{IBMModel}Brown,P.~F.,Pietra,V.J.~D.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Callison-burch\BBA\Bannard}{Callison-burch\BBA\Bannard}{2005}]{Callison}Callison-burch,C.\BBACOMMA\\BBA\Bannard,C.\BBOP2005\BBCP.\newblock\BBOQACompactDataStructureforSearchableTranslationMemories.\BBCQ\\newblockIn{\Bem10thEAMTConference:PracticalApplicationsofMachineTranslation},\mbox{\BPGS\59--65}.\bibitem[\protect\BCAY{福田\JBA外山\JBA野田}{福田\Jetal}{2013}]{Fukuda}福田薫\JBA外山勝彦\JBA野田昭彦\BBOP2013\BBCP.\newblock学内情報翻訳データベースの構築と運用.\\newblock\Jem{大学ICT推進協議会2013年次大会論文集},\mbox{\BPGS\146--152}.\bibitem[\protect\BCAY{出羽}{出羽}{2004}]{Izuha04}出羽達也\BBOP2004\BBCP.\newblock対訳文書から自動抽出した用語対訳による機械翻訳の訳語精度向上.\\newblock\Jem{電子情報通信学会論文誌.D-II,情報・システム,II-パターン処理},{\Bbf87}(6),\mbox{\BPGS\1244--1251}.\bibitem[\protect\BCAY{北村\JBA松本}{北村\JBA松本}{1997}]{Kitamura97}北村美穂子\JBA松本裕治\BBOP1997\BBCP.\newblock対訳コーパスを利用した対訳表現の自動抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(4),\mbox{\BPGS\727--736}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{Moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheACLonInteractivePosterandDemonstrationSessions},ACL'07,\mbox{\BPGS\177--180},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{熊野\JBA平川}{熊野\JBA平川}{1994}]{Kumano94}熊野明\JBA平川秀樹\BBOP1994\BBCP.\newblock対訳文書からの機械翻訳専門用語辞書作成.\\newblock\Jem{情報処理学会論文誌},{\Bbf35}(11),\mbox{\BPGS\2283--2290}.\bibitem[\protect\BCAY{Luhn}{Luhn}{1960}]{luhn1960}Luhn,H.~P.\BBOP1960\BBCP.\newblock\BBOQKeyWord-In-ContextIndexforTechnicalLiterature(KWICIndex).\BBCQ\\newblock{\BemAmericanDocumentation},{\Bbf11}(4),\mbox{\BPGS\288--295}.\bibitem[\protect\BCAY{Macklovitch,Simard,\BBA\Langlais}{Macklovitchet~al.}{2000}]{Macklovitch}Macklovitch,E.,Simard,M.,\BBA\Langlais,P.\BBOP2000\BBCP.\newblock\BBOQTransSearch:AFreeTranslationMemoryontheWorldWideWeb.\BBCQ\\newblockIn{\Bem2ndInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\1201--1208}.\bibitem[\protect\BCAY{Matsumoto\BBA\Utsuro}{Matsumoto\BBA\Utsuro}{2000}]{Matsumoto00}Matsumoto,Y.\BBACOMMA\\BBA\Utsuro,T.\BBOP2000\BBCP.\newblock\BBOQLexicalKnowledgeAcquisition.\BBCQ\\newblockInRobert,D.,Hermann,M.,\BBA\Harold,S.\BEDS,{\BemHandbookofNaturalLanguageProcessing},\mbox{\BPGS\563--610}.MarcelDekker.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{GIZA++}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{外山\JBA小川}{外山\JBA小川}{2008}]{Toyama08}外山勝彦\JBA小川泰弘\BBOP2008\BBCP.\newblock自然言語処理の応用に基づく法令外国語訳支援.\\newblock\Jem{人工知能学会誌},{\Bbf23}(4),\mbox{\BPGS\521--528}.\bibitem[\protect\BCAY{外山\JBA齋藤\JBA関根\JBA小川\JBA角田\JBA木村\JBA松浦}{外山\Jetal}{2012}]{Toyama12}外山勝彦\JBA齋藤大地\JBA関根康弘\JBA小川泰弘\JBA角田篤泰\JBA木村垂穂\JBA松浦好治\BBOP2012\BBCP.\newblock日本法令外国語訳データベースシステムの設計と開発.\\newblock\Jem{情報ネットワーク・ローレビュー},{\Bbf11},\mbox{\BPGS\33--53}.\bibitem[\protect\BCAY{内山\JBA井佐原}{内山\JBA井佐原}{2003}]{Uchiyama03b}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock日英新聞記事対応付けデータを用いた翻訳メモリと言語横断検索.\\newblock\Jem{情報処理学会全国大会講演論文集},65-5\JVOL,\mbox{\BPGS\355--358}.\bibitem[\protect\BCAY{山下}{山下}{2000}]{SuffixArray}山下達雄\BBOP2000\BBCP.\newblock用語解説「SuffixArray」.\\newblock\Jem{人工知能学会誌},{\Bbf15}(6),\mbox{\BPG\1142}.\end{thebibliography}\begin{biography}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.2000年同大学院工学研究科情報工学専攻博士課程後期課程修了.同工学研究科助手,同情報科学研究科助教を経て,2012年名古屋大学情報基盤センター准教授(同大学院情報科学研究科兼担).現在に至る.博士(工学).自然言語処理および法律情報処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{外山勝彦}{1984年名古屋大学工学部電気学科卒業.1989年同大学院工学研究科情報工学専攻博士課程満了.同工学部助手,中京大学情報科学部講師,同助教授,名古屋大学大学院工学研究科助教授,同情報科学研究科助教授を経て,2013年名古屋大学情報基盤センター教授(同大学院情報科学研究科兼担).現在に至る.工学博士.論理に基づく知識処理,自然言語処理に関する研究に従事.近年は法制執務支援や法令翻訳支援に関心を持つ.言語処理学会,電子情報通信学会,情報処理学会,人工知能学会,日本認知科学会,ACL各会員.}\end{biography}\biodate\end{document}
V31N03-11
\section{はじめに} 社会の少子高齢化進行に伴い不足する労働人口を補うため,産業界だけでなく,介護といった家庭における支援においてもロボットの活用が進められている\cite{Toyota-ARSO2013}.このような家庭における汎用生活支援ロボットは,あらかじめ決められた作業を行う産業用ロボットとは異なり,人間と対話などの言語を用いたインタラクションにより協働する能力が求められる\cite{taniguchi-2019-survey}.人間との共同作業を伴う対話においては物体への参照表現が頻出する.例えば他人に料理を手伝ってもらう場面では,「まな板の上の人参を切っておいて」や「お皿を運んで」など,材料や食器が頻繁に参照される.ロボットがこのような参照表現を理解し適切な行動を選択するためには,材料や食器のテキスト上の意味を理解するだけでは不十分であり,実世界において参照している「人参」や「お皿」の実体を知る必要がある.テキスト中のメンション(mention,参照表現)が参照している実体を視覚情報,特に画像中の物体矩形の形で特定するタスクはフレーズグラウンディング\cite{kamath2021mdetr,gupta2020contrastive}として知られる.対話テキストにおけるフレーズグラウンディングを扱ったデータセットとしては,SIMMC2.1\cite{kottur-etal-2021-simmc,kottur-moon-2023-overview}が挙げられる.SIMMC2.1は,ユーザとアシスタントを想定した2者の対話形式のテキストと,対話場面に対応するCG画像からなるデータセットである.テキスト中のメンションには,対応する画像中の物体矩形が付与されている.SIMMC2.1はCG画像を利用することで大規模なデータ作成を可能とした.しかし一方で,実世界での活動における物体の移動や操作およびそれに伴う視覚的変化が表現されておらず,実世界への適用には限界がある.例えば,コップに入っている液体が水かスポーツドリンクかを判断するためには1枚の画像だけでは不十分であり,その液体がどのように注がれたかといった物体操作を含む視覚的文脈が必要である.加えて,SIMMC2.1には直接的な参照関係しか含まれていない.直接的な参照関係とは,テキスト中に出現するメンションとそれが直接指し示す物体の関係である.例えば,「テーブル」というメンションとそれが指す物体としてのテーブルの関係である.一方で,テキストの中には「テーブル」という表現が現れず,代わりに「置いといて」といったメンションが間接的にテーブルを参照する場合がある.本研究ではこれをテキスト間におけるゼロ照応\cite{sasano-etal-2008-fully}になぞらえてゼロ参照とよぶ.特に日本語では,主語や目的語が省略されることが多いため,テキストと物体間にこのようなゼロ参照の関係が頻出する.実世界参照解析のデータセットでは,こうしたゼロ参照が起こるケースの考慮も欠かせない.こうした課題を踏まえ,本研究では実世界での物体操作を伴う対話においてゼロ参照も総合的に扱うマルチモーダル参照解析を提案し,そのためのデータセットJ-CRe3\footnote{JapaneseConversationDatasetforReal-worldReferenceResolution}を構築する.本データセットは,2者の実世界における対話シーンにおいて1人称視点動画と対話音声を収録し,音声の書き起こしテキストと動画フレームに対して種々の参照関係を付与したものである.家庭における支援ロボットへの応用を考え,対話参与者として主人とそのお手伝いロボット役2者の対話が収録されている.1人称視点動画はロボット役の話者のものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-3ia10f1.pdf}\end{center}\hangcaption{\oursの例.\oursには動画フレームと発話書き起こしテキストに対して,物体矩形,テキスト間照応関係,テキスト・物体間参照関係が付与されている.物体矩形には物体のクラス名とインスタンスIDが付随する.テキスト・物体間参照関係は,メンションが物体を直接指し示す直接的参照関係(図中「=」と表記)と,メンションと物体が述語とその項といった関係で間接的に結びつく間接的参照関係(図中「ガ」「ヲ」「ニ」と表記)に分類される.例えば,「スポーツドリンク」は物体矩形「bottle\_1」と直接的参照関係を持ち,「置いといて」は物体矩形「table\_2」とニ格の間接的参照関係を持つ.}\label{fig:dataset-overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%構築したデータセットの具体例を図~\ref{fig:dataset-overview}に示す.1人称視点動画から抽出した画像系列には発話中に参照された物体の物体矩形が付与されている(図~\ref{fig:dataset-overview}左).物体矩形には物体のクラス名とインスタンスIDが付与されている.対話に含まれるそれぞれの発話はテキストとして書き起こされ,メンション間の種々の意味的関係(\ref{sec:textual-reference-resolution}節,\ref{sec:textual-reference-annotation}節参照)が付与されている(図~\ref{fig:dataset-overview}右).最後に,発話書き起こしテキスト中の各メンションと動画フレーム中の物体矩形の間に,直接的(図中「=」の関係)および間接的(図中「ガ」「ヲ」「ニ」の関係)参照関係が付与されている.タスクの提案とデータセットの構築に合わせて,提案タスクがこれまでに行われてきたアプローチを統合することでどの程度解ける問題であるかを評価するための実験的なモデルを構築した.既存のモデルやデータセットを効果的に活用するため,提案タスクをテキスト間照応解析,物体検出,テキスト・物体間参照解析の3つのサブタスクに分割した.実験結果から,テキスト間照応解析は既存のモノローグデータセットと同程度の精度(F値約0.7)を達成できることが示された.一方で,物体検出およびテキスト・物体間参照解析は非常に困難であり(Recall@1約0.5),大きな改善の余地があることが示された.本研究で構築したデータセットは\url{https://github.com/riken-grp/J-CRe3}に公開した.実験に使用したソースコードやモデルの重みは\url{https://github.com/riken-grp/multimodal-reference}に公開した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{10table01.tex}%\hangcaption{メンションと物体間の関係が付与されたデータセットの比較.いずれのデータセットにおいても,物体は画像あるいは一人称動画中の物体矩形として与えられる.}\label{tab:dataset-comparison}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 表~\ref{tab:dataset-comparison}に示すように,テキスト中のメンションと物体間の関係が付与されたデータセットは多く提案されている.しかし,その中でも対話形式のテキストを含むものはわずかである.VisCoref\cite{yu-etal-2019-see}は,画像に対話形式のテキストが付随したVisDialデータセット\cite{visdial}に含まれるテキストに対して,同一の実体を指し示す名詞句同士の関係を画像キャプションを含めて付与したデータセットである.画像キャプションには物体名が含まれるが,VisCorefにおいてその物体名に対応する物体矩形は付与されていない.また,含まれる対話はQA形式になっており,実世界での自然な対話とは隔たりがある.SIMMC2.1はより自然な対話形式のテキストを含むが,VisCorefと同様,画像に基づくため,物体の移動や操作およびそれに伴う視覚的変化が表現されていない.本研究で構築したデータセットには,「ものを運ぶ」,「容器からものを出す」,「冷蔵庫の扉を開ける」などの,より実世界での活動に近い視覚情報が含まれる.人間と物体とのインタラクションを含む1人称視点動画データセットとしてはEgo4D\cite{Ego4D2022CVPR},EPIC-Kitchens\cite{Damen2022RESCALING},HomeActionGenome\cite{Rai-2021-HomeActionGenome},BioVL2\cite{nishimura-2021-iccvw,nishimura-2022-jnlp},RefEgo\cite{Kurita_2023_ICCV}が挙げられる.Ego4D,EPIC-Kitchens,HomeActionGenome,RefEgoは我々のデータセットと同じく日常動作を含み,BioVL2は生化学分野の実験動画を含む.Ego4D,EPIC-Kitchens,HomeActionGenomeは動画に対して動作認識などの粗い特徴が付与されているのみで,参照表現のグラウンディングは扱っていない.BioVL2は物体矩形が付与されているが,対象となる物体は実験プロトコルに存在し,かつ手と触れているものに限られる.RefEgoはテキスト中のメンションについて参照先の物体矩形が付与されているが,含まれるテキストは対話形式ではない短い物体参照表現であり,より深い文脈理解を要する対話における参照解析には適さない.また,表~\ref{tab:dataset-comparison}に示したいずれの先行研究もゼロ参照を扱っていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{マルチモーダル参照解析} 本章では,本研究で提案する実世界での対話を通じた協働を想定したマルチモーダル参照解析タスクを説明する\footnote{本論文ではテキスト中のメンションが実世界の事物や他のメンションを指し示す現象を包括的に「参照」とよぶ.}.本タスクでは,動画あるいは画像と,対応するテキストが入力として与えられる.入力テキストに含まれるメンションの参照先を,別のメンションだけでなく動画や画像中の物体も含めて特定する.メンションの参照先を別のメンションの中から特定するタスクをテキスト間照応解析とよぶ(\ref{sec:textual-reference-resolution}節).動画や画像中から参照先候補である物体が存在する領域を特定するタスクを物体検出とよぶ(\ref{sec:object-detection}節).物体検出結果から,メンションが参照している物体を特定するタスクをテキスト・物体間参照解析とよぶ(\ref{sec:text-to-object-reference-resolution}節).マルチモーダル参照解析はこれら3つのサブタスクから構成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト間照応解析}\label{sec:textual-reference-resolution}テキスト間照応解析は,テキスト中のメンション間に存在する参照関係を解析するタスクである\footnote{本論文ではテキスト中のメンション間の参照を特に照応とよぶ.}.本研究では先行研究\cite{ueda-2020,umakoshi-etal-2021-japanese-zero,Ueda-2023-kwja}にならい,述語項構造,共参照関係,橋渡し照応関係を対象とする.述語項構造は述語を中心とし,その述語の「誰が」や「何を」に相当する項からなる関係である.述語項構造には,述語とその項だけでなく,両者の関係を表す格(例:ガ格,ヲ格)が含まれる.図~\ref{fig:dataset-overview}の例において述語「置いといて」は,ガ格の項「ロボット」とヲ格の項「スポーツドリンク」を持つ.ニ格の項に関してはテキスト中に表出しないため,特殊な照応先である「不特定:物」が割り当てられる.共参照関係は実世界において同一の実体を指し示すメンション間の関係である.橋渡し照応関係はある名詞句を含むメンション(照応詞)と,その必須的な意味を補完する異なるメンション(先行詞)との関係である.これらの関係はいずれも,実世界で動作する対話ロボットが行う理解として重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{物体検出}\label{sec:object-detection}物体検出は,画像中の物体が存在する領域を特定するタスクである.図~\ref{fig:dataset-overview}においては図中の物体矩形を推定することに対応する.本参照解析タスクでは後段のテキスト・物体間参照解析において割り当てられるメンションが物体名の役割を果たすため,物体のクラス名の推定は対象としない.入力が動画の場合は動画中のそれぞれのフレームに対して同様の処理を行う.推定された物体矩形はテキスト・物体間参照解析の入力となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト・物体間参照解析}\label{sec:text-to-object-reference-resolution}テキスト・物体間参照解析は,テキスト間照応解析における参照の対象を物体検出によって特定された物体領域から選択するタスクである.図~\ref{fig:dataset-overview}の例においては単語と物体矩形を結ぶエッジを推定することに対応する.表現が直接参照している対象を画像中から検出するタスクはフレーズグラウンディング\cite{kamath2021mdetr,gupta2020contrastive}として知られる.しかし,物体を間接的に参照する場合もあるため,直接的参照関係の解決だけでは発話理解には至らない.本研究では述語項構造や橋渡し照応に相当する,ゼロ参照を含む間接的な関係も扱う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\oursデータセット} 本研究では,マルチモーダル参照解析のための参照タグ付き実世界対話データセット(\ours)を構築する.本データセットは,実世界における主人役とロボット役2者の対話シーンにおいて動画,音声を収録し,音声書き起こし,照応・参照関係アノテーションを付与したデータセットである.対話内容は,人間とお手伝いロボットの対話を想定する.対話の場面は,家庭内のリビング,ダイニング,キッチンを模した3種類である.衣類と家具の買い物ドメインを対象としたSIMMC2.1と比べ,本データセットはより多様な物体クラスを含むことが期待される.本章では\oursデータセットの構築方法について順に述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話シナリオ収集}現実的かつ多様な対話を収録するため,クラウドソーシングを利用してシナリオを収集した.SIMMC2.1では,対話シーンをVR空間で生成し,対話に使用する物体の位置や属性に基づく対話シミュレータを用いてシナリオを半自動生成した.実世界に基づく本設定では,SIMMC2.1とは異なり物体や環境の情報が構造化された形式で得られない.さらに対話収録に使用する設備の制約もあり,対話シミュレータでは実際の収録に利用可能な現実的な対話は得られない.したがって,設備の画像等による柔軟な条件付けが可能な人手によるシナリオ収集が必要である.加えてシナリオの多様性を確保するため,クラウドソーシングの利用が適している.クラウドソーシングタスクではワーカーに対話収録に使用する部屋の状況と使用可能な物体の写真を提示した.その上で,人間とロボットの発話およびその際の動作や場面状況を記述してもらった.発話数は,長すぎずかつ対話が十分な文脈を持つよう10--16発話に制限した.シナリオは各場面60件ずつ,計180件収集した.これらシナリオを実行可能性,十分な頻度の参照表現,十分な粒度の場面状況説明,の3つの観点からフィルタリングし,残ったシナリオ93件を自然な対話になるよう修正した.付録~\ref{sec:scenario-collection-interface}にクラウドソーシングタスクのインターフェイスを示す.付録~\ref{sec:scenario-example}に修正後のシナリオの例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話収録}収集したシナリオに基づいた対話を収録するため,合計5人の演者から2人をペアにして主人役とロボット役を演じてもらった.演者にはできる限りシナリオを暗記してもらい,対話中の振る舞いが自然になるようにした.シナリオと軽微に異なる発話を行った場合は,後段の発話書き起こしの際に実際に行われた発話に対応するよう,台詞を修正して書き起こす.すなわち,シナリオ中の台詞と発話書き起こしテキストは一致しない場合がある.収録はリビングとダイニングとキッチンを模した設備が備え付けられた実験室で行った.2人の演者にはそれぞれピンマイクを付けてもらい,発話音声を録音した.ロボット役の演者には頭部にカメラ\footnote{GoProHERO10Black}を付けてもらい,対話中の1人称視点動画を撮影した.さらに,実験室に定点カメラを4箇所設置し,部屋全体の様子を撮影した.なお,収録には音声,1人称視点動画,3人称視点動画の3種類のデータを同期して収録するため専用のシステム\footnote{\url{https://github.com/riken-grp/multimodal-recording}}を構築して使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション}\label{sec:annotation}収録した対話音声と1人称動画に対して,マルチモーダル参照解析タスクの学習および評価のためのアノテーションを行った.3人称視点動画にはアノテーション対象となる物体が十分な大きさで写っていないことが多かったため,タグ付けの際に参照する程度の利用にとどめた.まず対話音声は発話単位\footnote{1発話とはほとんどの場合で話者の発話開始から話者交代までの一連の文のことである.ただし,\citeA{yoshino-etal-2018-japanese}にならい,話者交代までの間に長い休止がある場合は複数の発話に分割する.}でテキストに書き起こし,1人称視点動画は1秒ごとにフレームを抽出し画像系列に変換した.書き起こしの際には,動画との対応が取れるよう発話の開始時間と終了時間を記録した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{テキスト間照応アノテーション}\label{sec:textual-reference-annotation}書き起こされた対話テキストに対して述語項構造,共参照関係,橋渡し照応関係を付与した.図~\ref{fig:dataset-overview}ではタグ付けの例として述語「注いで」について以下の述語項構造が示されている.\ex.【主人】コーラはここに\underline{注いで。}(ガ格:ロボット,ヲ格:コーラ,ニ格:ここ)\noindentここで,【】内に発話者,()内に下線部のメンションに対するタグを示す.ガ格の「ロボット」はテキスト中には出現していないが,対話参与者であるロボットと主人はそれぞれを表す特殊なタグを用意することで付与を可能にしている.共参照関係については,図~\ref{fig:dataset-overview}のケースでは主人が「それは後で飲むから置いといて。」と言った場合に対して以下のように付与される.\ex.【主人】\underline{それは}後で飲むから置いといて。(共参照:スポーツドリンク)\noindent橋渡し照応関係については,ロボットが最後に「賞味期限が近いので早めに飲んでください。」と言った場合に対して以下のように付与される.\ex.【主人】賞味\underline{期限が}近いので早めに飲んでください。(橋渡し:スポーツドリンク)タグ付けの単位には京都大学テキストコーパスにならい,基本句を採用した.基本句とは自立語1語を核として,その前後に存在する接頭辞,接尾辞,助詞,助動詞などの付属語をまとめた単位である\footnote{\url{https://github.com/ku-nlp/KWDLC/blob/master/doc/rel_guideline.pdf}}.アノテーションの基準は京都大学ウェブ文書リードコーパス(KWDLC)\cite{kwdlc-paclic-2012,kwdlc-jnlp-2014}に準拠した.ただし,基本的にモノローグ形式の書き言葉を対象としたKWDLCとは異なり,本研究では実世界対話を対象とするため追加の基準\footnote{\url{https://lotus.kuee.kyoto-u.ac.jp/~ueda/dist/mmref_annotation_spec.pdf}}を設けた.一つは対話形式の話し言葉に特有の表現に関する基準である.例えば,対話形式の話し言葉で頻繁に使用される感動詞については,以下のように発話の主体と発話相手を付与する.\ex.【ロボット】\underline{はい。}(ガ格:ロボット,ニ格:主人)\ex.【主人】\underline{どういたしまして。}(ガ格:主人,ニ格:ロボット)\noindentただし,はっきりと相手に向けられた発話でなく,フィラーや独り言に近い感動詞にはタグを付与しない.\ex.【主人】\underline{あら}(タグなし)\ex.【主人】\underline{ええと}(タグなし)もう一つの基準は,メンションの同一性に関する基準である.KWDLCでは,「≒関係」とよばれる関係タグが次のように定義されている\footnote{格・省略・共参照タグ付けの基準(\url{https://github.com/ku-nlp/KWDLC/blob/master/doc/rel_guideline.pdf})5.2節を参照した.}.\begin{quotation}\noindent同じような表現が用いられるが、指している事象が異なるものにタグを付与する場合、「=」ではなく「≒」、「ガ,ヲ,ニ,…」ではなく「ガ≒,ヲ≒,ニ≒,…」格を用いる。\end{quotation}\noindentここで,「=」は共参照関係を表す関係タグである.本研究では後述するテキスト・物体間参照アノテーションにおいて一貫したタグ付けを行うため,「≒関係」の利用場面をより厳密に定義する.具体的には,メンション同士が\textbf{総称名詞・非総称名詞の関係}を持つ場合とメンション同士が\textbf{状態変化の関係}にある場合に限定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{総称名詞・非総称名詞の関係}以下の例では,「コーラ{\scriptsize1}」は特定のコーラを指しておらず総称名詞である.一方,「コーラ{\scriptsize2}」は手元にあるコーラを指しており,非総称名詞である.このとき,表層表現が同じでもこれらは区別し,共参照タグではなく共参照≒タグを付与する.\ex.【主人】コーラ{\scriptsize1}が飲みたいな。【ロボット】こちらに\underline{コーラ{\scriptsize2}を}お持ちしました。(共参照≒:コーラ{\scriptsize1})\label{ex:coke}\noindent述語項構造におけるヲ格についても同様である.\ex.【主人】コーラ{\scriptsize}が飲みたいな。【ロボット】こちらに\underline{お持ちしました。}(ガ格:ロボット,ヲ≒格:コーラ{\scriptsize},ニ格:こちら)%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{状態変化の関係}収録した対話には物体の移動や操作が多く含まれ,しばしばそれに伴い物体の状態が変化する.例えば,火を通すことで生卵は目玉焼きに変化し,お湯を注ぐことでインスタントコーヒーの粉末はコーヒーの液体に変化する.他にも,物体の構成要素が変化する場合がある.例えば,人参は皮を剥くことでその構成要素(皮)が減少する.これらを総称して本研究では状態変化とよぶ.状態変化の関係にあるメンション同士は総称名詞・非総称名詞の関係と同様に区別し,≒関係を付与する.\ex.【主人】この卵{\scriptsize1}を一個ずつ割り入れてくれる?(中略)【主人】今\underline{卵{\scriptsize2}は}どんな感じ?(共参照≒:卵{\scriptsize1})\label{ex:eggs}\noindent例~\ref{ex:eggs}では,「卵{\scriptsize1}」は割られる前の卵を指し,「卵{\scriptsize2}」はフライパンに割り入れられ火が通された卵を指すため,共参照≒タグを付与する.作業においては事前に\citeA{ueda-2020}の単語選択モデルでシルバーアノテーションを付与し,手作業で修正した.修正には京大コーパスアノテーションツール\footnote{\url{https://github.com/ku-nlp/KyotoCorpusAnnotationTool}}を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{物体領域アノテーション}1人称視点動画から抽出された各画像に対し,対話中で参照された物体の物体矩形を付与した.また,それぞれの物体矩形に対して物体のクラス名およびインスタンスIDを付与した.クラス名は物体認識タスクにおいて広く利用されるLVISデータセット\cite{gupta2019lvis}において定義されている1,203クラスの集合から選択した.インスタンスIDは動画中のそれぞれの物体を一意に識別するための文字列である.なお,複数の動画間で一貫している必要はない.作業においては,一般物体認識器Detic\cite{zhou2022detecting}の学習済みモデル\footnote{\url{https://github.com/facebookresearch/Detic/blob/main/docs/MODEL_ZOO.md}}と複数物体追跡器StrongSORT\cite{strongsort}を使用してシルバーアノテーションを事前付与し,手作業で修正した.修正には専用のアノテーションツール\footnote{\url{https://github.com/riken-grp/annotator}}を開発して使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{テキスト・物体間参照アノテーション}テキスト中の(1)名詞句および(2)述語と,画像中の物体矩形のすべての組み合わせについて参照関係を付与した.(1)名詞句については,直接参照している物体および橋渡し照応関係にある物体に矩形を付与した.(2)述語についてはその項に対応する物体矩形を格ごとに付与した.この基準は,テキスト間照応アノテーションにおける参照先を物体矩形に拡張したものに相当する.なお,いずれの画像中にも参照先が現れない名詞句や述語にはタグを付与しない.テキスト・物体間参照アノテーションは付与対象の関係が非常に多くなる.しかし,付与済みのインスタンスIDを利用することで大部分のアノテーションを省くことができる.例えば,ある動画フレーム中の「コップ」に対して参照関係を付与した場合を考える.このとき,別フレームに同じインスタンスIDを持つ「コップ」が出現したとしても自動的に参照関係を付与できる.また,付与済みのテキスト間照応関係も利用できる.例えば,以下のようなテキスト間照応アノテーションが付与済みだった場合を考える.\ex.【主人】そこにあるコップを、机に\underline{運んで}(ガ格:ロボット,ヲ格:コップ,ニ格:机)\noindentこのとき,「コップ」とコップに対応する物体矩形に直接的参照関係を付与すれば,「運んで」とコップに対応する物体矩形の関係は自動的にヲ格と推定できる.したがって,「運んで」のヲ格のタグ付けは不要である.「机」についても同様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-3ia10f2.pdf}\end{center}\caption{領域矩形のアノテーション例}\label{fig:region}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実世界対話において特徴的な現象として「ここ」,「あそこ」,「隣」など,場所を指す指示詞の使用が挙げられる.指し示された場所の特定は,人間との協働において不可欠である.本研究では,このような指示詞を領域参照表現とよび,テキスト・物体間参照アノテーションにおいて対応する領域を付与する.この領域は物体領域とは異なり矩形が一意に定まらないため,その位置・大きさはアノテータの主観に依存する.そのため,特殊なクラス名である「region」を付与し,他の物体矩形とは区別する.図~\ref{fig:region}に以下の発話についての領域矩形アノテーションの例を示す.\ex.【ロボット】ソファーの\underline{下}とかじゃないんですか?\noindent発話中の「下」という表現はいずれの物体にも対応せず,床の一部の領域を参照しているため,その領域を領域矩形としてタグ付けする.同時に,この領域矩形と「下」に直接的参照関係を付与する.テキスト・物体間参照アノテーションの作業において,シルバーアノテーションは付与しなかった.これは,テキスト間照応アノテーションの結果や物体のインスタンスIDを利用することで作業量が十分に削減できるためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[p]\input{10table02.tex}%\caption{\oursの統計値.関係数が多くなるため「≒」付きの関係は除外した.}\label{tab:statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセットの統計値}\label{sec:statistics}我々はデータセットを学習,開発,テストの3つに分割した.表~\ref{tab:statistics}にそれぞれの分割におけるデータセットの統計値を示す.表において,X2格は述語が複数のX格の項を持つ場合に用いられる\footnote{例えば「象は鼻が長い」における「長い」は2つのガ格を持つ.}.テキスト間照応の統計値は我々のデータセットが十分なテキスト間照応を持つことを示している.物体領域アノテーションにおける物体インスタンス数とクラス数は,対話中で参照される物体の多様性を示している.なお,我々のデータセット全体におけるユニークな物体クラスの数は166である.テキスト・物体間参照アノテーションにおけるゼロ参照の数は直接参照の数を大きく上回っており,ゼロ参照の解決が重要であることが示唆されている.データセットに含まれるテキスト表現の多様性を定量化するため,データセット全体でDistinct-1とDistinct-2\cite{li-etal-2016-diversity}を計算した.Distinct-1とDistinct-2はそれぞれ対象テキストに含まれるユニークなuni-gramとbi-gramの割合である.表~\ref{tab:distinct-n}にSIMMC2.1データセット\footnote{\url{https://github.com/facebookresearch/simmc2}}との比較を示す.いずれの指標においても我々のデータセットの方が高い値を示しており,多様なテキスト表現を含むことがわかる.なお,日本語テキストの単語分割には日本語形態素解析器Juman++\cite{tolmachev-2018}を,英語テキストの単語分割にはnltkツールキット\cite{bird2009natural}を使用した.比較に用いたSIMMC2.1データセットについては,我々のデータセットと同じ単語数を持つよう,開発セットから発話を無作為に抽出して使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{10table03.tex}%\caption{Distinct-1とDistinct-2を用いたテキストの多様性の比較}\label{tab:distinct-n}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{作業者間一致度}アノテーションの一貫性を調査するため,無作為に抽出した9対話について2人の作業者がタグ付けを行った.タグ付けはテキスト間照応アノテーションとテキスト・物体間参照アノテーションについて行った.物体領域アノテーションに関してはタグ付けの基準が比較的明確であり,タグ付けは十分に一貫していると考えられる.テキスト間照応アノテーションにおける作業者間一致度は\citeA{kwdlc-jnlp-2014}にならい,一方の作業者を正解とした場合のF値により求めた.その結果を表~\ref{tab:textual-inter-annotator-agreement}に示す.タグ付けが一致しなかった事例のうち,多くは作業ミスによるものだった.本データセットは現在タグ付けの見直し作業を進めており,このような事例のほとんどは取り除かれる見込みである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{10table04.tex}%\hangcaption{テキスト間照応アノテーションにおける作業者間一致度.括弧内に適合率と再現率の分子と分母を示す.分母はメンション数を表すため整数だが,分子はメンションの参照先が複数存在したとき整数とならない場合がある.}\label{tab:textual-inter-annotator-agreement}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方,作業者の判断の揺れに由来する事例としては例~\ref{ex:filler}があった.\ex.【ロボット】じゃあ、これで混ぜます。【主人】\underline{うん}いい感じ。\\作業者A:(ガ格:主人,ニ格:ロボット)\\作業者B:(タグ付けなし)\label{ex:filler}\noindentこの例では「うん」がフィラーなのか相手への応答なのかが曖昧であり,作業者間で格を付与するかどうかの判断が分かれた.その他の判断が分かれた例としては,総称名詞と非総称名詞の判断に由来するものが目立った.\ex.【主人】(中略)食べれるようにスプーンの準備をしておいて。【ロボット】はいはい分かりました。食器棚から出して、えーとこっちだ、一緒にお盆に\underline{載せて、}準備しておきます。\\作業者A:(ガ:ロボット,ヲ≒:スプーン,ニ:お盆)\\作業者B:(ガ:ロボット,ヲ:スプーン,ニ:お盆)\label{ex:general}\noindentこの例では主人が言及した「スプーン」が食器棚の中にある特定のスプーンを指すのか,それとも総称的な特定されないスプーンを指すのかが曖昧であり,作業者間で≒関係を付与するかどうかの判断が分かれた.なお,一致度の計算後,両作業者のアノテーションは作業者間で相談の上,統合してデータセットに含めた\footnote{統合前のアノテーションも本データセットの一部として公開した.}.テキスト・物体間参照アノテーションについても一方の作業者を正解とした場合のF値により一致度を求めた.この時,\ref{sec:annotation}節で述べたようにタグ付けは一部省略されているが,テキスト間照応アノテーションの結果や物体のインスタンスIDを用いて省略を復元した上で比較した.テキスト間照応アノテーションの結果は統合済みのものを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{10table05.tex}%\hangcaption{テキスト・物体間参照アノテーションにおける作業者間一致度.括弧内に適合率と再現率の分子と分母を示す.}\label{tab:text-to-object-inter-annotator-agreement}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%結果を表~\ref{tab:text-to-object-inter-annotator-agreement}に示す.テキスト間照応アノテーションに比べ,高い一致度が得られている.これは統合済みのテキスト間照応アノテーション結果を用いたことで,ある程度タグの付与基準が共有されていたためと考えられる.また,タグが一致しなかったものについても多くは作業ミスによるものであった.一方,作業者の判断が分かれた例としてはテキスト間照応アノテーションと同様,総称名詞と非総称名詞の判断に由来するものがあった.\ex.【主人】本棚からさ、分厚い\underline{辞書}持ってきてくれる?この例では,テキスト中の「辞書」と物体としての辞書に直接的参照関係が付与されるが,そこに≒関係を付与するかについて作業者間で判断が分かれた.主人が特定の辞書を指して「分厚い辞書」と言っているのか,分厚ければどんな辞書でも良いと思っているのかが曖昧なためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{マルチモーダル参照解析タスクの評価} 構築したデータセットを使用して既存手法の評価を行うことで,本データセットにおけるベースラインを提供するとともに提案するタスクに取り組む際の課題を明らかにする.マルチモーダル参照解析は,テキスト間照応解析,物体検出,テキスト・物体間参照解析の3つのサブタスクから構成される.\ref{sec:textual-reference}節ではまず,テキスト間照応解析を扱う.\ref{sec:visual-reference}節では物体検出とテキスト・物体間参照解析をend-to-endで扱うモデルを評価する.最後に\ref{sec:combining-results}節においてこれらの結果を統合したマルチモーダル参照解析の結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト間照応解析}\label{sec:textual-reference}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{タスク設定}テキスト間照応解析はメンション間の意味的関係を推定するタスクであり,述語項構造解析,橋渡し照応解析,共参照解析から構成される.主人とロボット両者の発話書き起こしテキストから解析タスクごとにメンションを抽出し,学習および評価の対象とする.述語項構造解析については,述語および事態性名詞が含まれるメンションが対象となる.橋渡し照応解析については,事態性を持たない名詞を含むメンションを対象とする.共参照解析は名詞を含むすべてのメンションを対象とする.橋渡し参照解析や共参照解析とは異なり,述語項構造解析では述語とその項の間の関係(格)を特定する必要がある.本実験では出現頻度の比較的多い,ガ,ヲ,ニ,デ,ト,カラ,ガ2格の7種類を解析対象とする.評価指標には\citeA{ueda-2020,Ueda-2023-kwja}にならい,F値を用いる.具体的には,解析対象のメンションそれぞれについて意味的関係を持つメンションを選択できたかどうかについて適合率・再現率・F値を計算する.計算の際,システムによって選択されたメンションが正解のメンションと異なっていても,両者が共参照関係を持つ場合は正解とする.テキスト中に現れないメンションと関係を持つ場合(外界照応)についても評価するため,「書き手」「読み手」「不特定:人」「不特定:物」の4種類の特殊な照応先を用意し,通常のメンションと同様に照応先の候補として扱う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}解析モデルとして\citeA{ueda-2020,Ueda-2023-kwja}の汎用言語モデルに基づく単語選択モデルを採用する.このモデルは,述語項構造解析,橋渡し照応解析,共参照解析の3つのタスクを全て単語選択タスクとして定式化する.モデルは与えられたテキスト中の解析対象の単語と関係を持つ単語を選択する.モデルは事前学習済みのエンコーダモデル\footnote{日本語コーパスで事前学習されたDeBERTaV2largeモデル(\texttt{\mbox{https://huggingface.co/ku-nlp/deberta-v2-}\linebreaklarge-japanese})}の上に各タスクごとに2層のfeed-forwardneuralnetwork(FFN)を追加し,全体をfine-tuningした.fine-tuningには\oursに加え,以下のテキスト間照応関係が付与されたコーパスを混合して使用した.\begin{itemize}%[parsep=0mm]\item京都大学テキストコーパス\footnote{\url{https://github.com/ku-nlp/KyotoCorpus}}\cite{kyotocorpus-lrec-1998,kyotocorpus-lrec-2002}\item京都大学ウェブ文書リードコーパス\footnote{\url{https://github.com/ku-nlp/KWDLC}}(KWDLC)\cite{kwdlc-paclic-2012,kwdlc-jnlp-2014}\item注釈付き不満買取センターコーパス\footnote{\url{https://github.com/ku-nlp/AnnotatedFKCCorpus/}}\item注釈付きウィキペディアコーパス\footnote{\url{https://github.com/ku-nlp/WikipediaAnnotatedCorpus}}\end{itemize}これらコーパスの学習セットには合計7,815の文書が含まれており,我々のデータセットのみでは不足する学習データ量を補うことができる.これらデータセットと本データセットを混合して使用するため,我々は本データセットにおける話者のラベル(「主人」および「ロボット」)を相対的になるよう変換する.既存のコーパスはテキスト中に表出するメンション間の関係だけでなく,テキストの「書き手」や「読み手」などテキスト中に表出しないエンティティとの関係(外界照応関係)も付与されている.これらの関係ラベルを活用するため,我々は本データセットに付与されている「ロボット」および「主人」という外界照応ラベルを,発話ごとに「話し手」あるいは「聞き手」に変換する.実験では,この相対的なラベルを「書き手」や「読み手」ラベルと同一視することで既存のコーパスと本データセットを混合してモデルを学習する.なお,モデルは相対ラベルを予測するよう学習されるが,発話に付与された話者ラベルを使用することで,「主人」と「ロボット」の絶対ラベルに変換が可能である\footnote{予備実験として,絶対ラベルを使用した場合のモデルを評価したが,相対ラベルを使用した場合の方がほとんどの場合で良い結果を示した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}結果を表~\ref{tab:textual-reference-result}に示す.日本語テキスト間照応解析のタスクとして標準的に用いられているKWDLCと比べ,いずれのタスクにおいても遜色ない結果が得られた.KWDLCとのスコアの違いで特筆すべき点として,ガ格,ニ格,ガ2格の外界照応の精度が高いことが挙げられる.ガ格やガ2格の項は主体が入ることが多く,\oursにおいては主体のほとんどが主人かロボットであるため解きやすいタスクになっていたと考えられる.ニ格も相手に何かをしてもらう場合にその相手が入ることが多く,同様の理由で精度が高くなったと考えられる.したがって,対話参与者が3者以上になった場合の精度についてはさらなる検証が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{10table06.tex}%\hangcaption{\oursとKWDLCにおけるテキスト間照応解析のF値.文脈照応はテキスト中に出現する実体を指す参照を,外界照応はテキスト中に出現しない実体を指す参照を表す.表中の値は,3つの異なる乱数シードでモデルをfine-tuningした結果の平均である.括弧内の数字は正解の参照先の数を示す.}\label{tab:textual-reference-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ヲ格やデ格に注目すると,事例数は少ないものの外界照応の精度が著しく低い.ヲ格やデ格の項に人物は入らないため,「不特定:物」の予測が十分にできなかったと考えられる.ただし,「不特定:物」ラベルは実際にメンションがどの物体を参照していたのかについての情報を持たないため,精度が低いことは大きな問題ではない.このような事例は「不特定:物」を予測できるよりも,テキスト・物体間参照解析において適切な物体を特定できるかが実用上重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{物体検出およびテキスト・物体間参照解析}\label{sec:visual-reference}テキスト・物体間参照解析は,直接的参照関係(図~\ref{fig:dataset-overview}における「=」の関係)の解析と間接的参照関係(図~\ref{fig:dataset-overview}における「ガ」「ヲ」「ニ」の関係)の解析に分類できる.このうち,直接的参照関係の解析はフレーズグラウンディングともよばれる.フレーズグラウンディングに関してはゼロ照応を含む間接的参照関係の解決はできないが,多くのモデルとデータセットが提案されている\cite{kamath2021mdetr,gupta2020contrastive,flickrentitiesijcv,nakayama-tamura-ninomiya:2020:LREC}.本節では直接的参照関係に注目し,既存のフレーズグラウンディングモデルの性能を物体検出を含め評価する.加えて,既存のフレーズグラウンディング用データセットの直接的参照関係の解析における有効性についても議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{タスク設定}フレーズグラウンディングは,テキストと画像が与えられたときテキスト中のメンションが指す画像中の物体を矩形として推定するタスクである\cite{kamath2021mdetr,gupta2020contrastive}.\oursは画像ではなく動画に基づくため,システムにはあらかじめ動画から1秒ごとに切り出した画像系列を入力する.発話書き起こしテキスト中のそれぞれのメンションについて,そのメンションが指す物体の矩形を画像中から特定する.このとき,1メンションについてグラウンディング対象の画像が複数存在する.本実験では,メンションが含まれる発話を考え,グラウンディング対象をその発話の開始時刻から次の発話の開始時刻までの間に含まれる画像フレームに限定する.これは,一般に発話がその時点の視覚情報を前提にしており,離れた時点の動画フレームにグラウンディングしたとしても実用上意味を持つことが稀であるためである.評価指標はRecall@$k$を使用した.既存のフレーズグラウンディングモデルは,それぞれのメンションについて複数の物体矩形とその予測確率を出力する.Recall@$k$は正解の物体矩形のうち,出力物体矩形の予測確率上位$k$件に含まれるものの割合である.ここで,先行研究\cite{kamath2021mdetr}にならい出力された物体矩形が正解の物体矩形と0.5以上のIntersection-over-Union(IoU)を持つ場合に両者が一致すると判断した.なお,正解の物体矩形を持たないメンションはRecall@$k$では考慮されない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}フレーズグラウンディングモデルとしてGLIP\cite{li-2022-glip}を使用した.GLIPは,物体検出をフレーズグラウンディングと同一の枠組みで扱うことで事前学習において大量の画像・テキストペアの使用を可能にしたモデルである.GLIPを用いることで広範囲にわたる物体を検出することができると期待される.本タスクでは発話書き起こしテキストと画像系列が与えられる一方,GLIPは1組の画像・テキストペアを入力とする.本実験では,1発話の書き起こしテキストと1画像のペアそれぞれを独立にGLIPに入力し,独立に評価した.GLIPは事前学習済みモデルが公開されており,本実験ではGLIP-Tモデル\footnote{\url{https://huggingface.co/GLIPModel/GLIP/resolve/main/glip_tiny_model_o365_goldg.pth}}を使用した.GLIPのアーキテクチャは大きく言語エンコーダ,画像エンコーダ,そしてこれらエンコーダから得られた表現を統合するfusionモジュールから構成される.我々は事前学習済みモデルの知識をできる限り活用できるように,これらのモジュールを2段階に分けてfine-tuningした.1段階目は,事前学習済みモデルの日本語への適応を目的とする.英語テキストのみで訓練されたGLIPの言語エンコーダ\footnote{\url{https://huggingface.co/bert-base-uncased}}を,多言語で訓練されたモデルであるmDeBERTaV3base\footnote{\url{https://huggingface.co/microsoft/mdeberta-v3-base}}に置き換え,VisualGenome\cite{krishna-2016-visualgenome},GQA\cite{hudson-2019-gqa},Flickr30kEntitiesJP\cite{nakayama-tamura-ninomiya:2020:LREC}を混合してfine-tuningした.\citeA{li-2022-glip}にならい,VisualGenomeおよびGQAは\citeA{kamath2021mdetr}によって前処理された約62万の画像・テキストペアを使用した.Flickr30kEntitiesJPに関しては前処理済みデータが用意されていないため,\citeA{kamath2021mdetr}が提供しているFlickr30kEntities用の前処理スクリプトを日本語用に修正して使用した.前処理の結果,約15万の画像・テキストペアが得られた.3種類のデータセットを無作為に混合し,データセットを区別することなく学習に使用した.このとき,英語テキストの過学習を防ぐため,言語エンコーダのパラメータは固定した.また,画像エンコーダの性能は言語非依存のため,画像エンコーダのパラメータも固定した.2段階目は,モデルの1人称視点画像および対話形式テキストへの適応を目的とする.予備実験にて\oursのみを使用してfine-tuningしたところRecall@5とRecall@10がfine-tuning前と比べて低下したため,\oursとFlickr30kEntitiesJPを混合して使用した.1学習事例に含まれるテキストデータの長さを揃えるため,\oursは連続する3発話を1学習事例に含めた.また,連続する3発話のスパンを1発話ずつ移動させることで1対話から複数のテキスト事例を得た.1学習事例中の画像データとしては,テキストデータ中のメンションと直接参照関係を持つ物体が一つ以上含まれる画像を選択した.2段階目のfine-tuningでは,モデルを日本語の対話形式テキストに適応させるため言語エンコーダのパラメータは固定しなかった.また,モデルを1人称視点画像に適応させるため画像エンコーダのパラメータも固定しなかった.fusionモジュールのパラメータも固定せず,全パラメータをfine-tuningした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{10table07.tex}%\hangcaption{フレーズグラウンディングモデルの性能.FT1,FT2はそれぞれ1段階目,2段階目のfine-tuningを表す.括弧内の数値は正解した物体矩形数を表す.\oursのRecall@1のみ分母に全正解数を示す.}\label{tab:phrase-grounding-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}実験結果を表~\ref{tab:phrase-grounding-result}に示す.フレーズグラウンディングにおいて標準的に使用されるFlickr30kEntitiesの日本語版であるFlickr30kEntitiesJPの結果も同時に示す.fine-tuningはいずれも本データセットにおける性能向上に寄与している.しかし,Flickr30kEntitiesJPと比較するとRecall@$k$のスコアは大幅に低い.このことから,本データセットは既存のデータセットと比べドメインが大きく異なり,既存手法では解くことが難しいことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{31-3ia10f3.pdf}\end{center}\hangcaption{「卵と人参はありますが、キュウリはないですね。」という発話中の「人参」に対する解析結果.白色の物体矩形は正解を表し,その他の物体矩形が上位5件のシステム出力を表す.システム出力には予測確率が記載されている.}\label{fig:baseline-failure-1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{10table08.tex}%\hangcaption{物体矩形の画面占有率とRecallの関係.テストセットと開発セットを合わせた18対話で評価した結果を示す.括弧内の数値は正解した物体矩形数を表す.Recall@1のみ分母に全正解数を示す.}\label{tab:frame-size}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%解析事例の一つを図~\ref{fig:baseline-failure-1}に示す.この例では冷蔵庫の中の人参が参照されているが,システムは検出に失敗している.図のように1人称視点動画では物体の一部のみが小さく写っている場合があり,解析失敗の一因になっている.物体のサイズごとにRecallを評価した表~\ref{tab:frame-size}からも,小さく写っている物体に対する精度が低いことがわかる.小さな物体に対する物体検出が困難であることは先行研究\cite{rekavandi2023transformers}でも指摘されており,物体検出とフレーズグラウンディングを同時に扱うGLIPの代わりに,専用の物体検出器を用いることで精度が改善する可能性がある.図~\ref{fig:baseline-failure-2}に他の対話における解析事例を示す.図ではワイングラスが正解の物体となるが,物体名が言及されておらずグラスよりも皿に高い確率が与えられている.表~\ref{tab:referring-expression}は参照表現の品詞ごとのRecallを示す.具体的な物体名を含む普通名詞に対する精度に比べ,指示詞や形式名詞など曖昧な表現に対する精度が低い.これはGLIPの訓練に画像キャプションを元にしたデータセットが多く使用されているためと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{31-3ia10f4.pdf}\end{center}\caption{「これはまだ飲みますか?洗っちゃいますか?」という発話中の「これ」に対する解析結果}\label{fig:baseline-failure-2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{10table09.tex}%\hangcaption{参照表現の品詞とRecallの関係.テストセットと開発セットを合わせた18対話で評価し,頻度上位5種類の品詞を示す.}\label{tab:referring-expression}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本データセットには動画が含まれるが,本実験ではモデルに動画から抽出した1枚の画像を入力した.視覚的文脈,すなわち動画における先行するフレームの情報の利用が性能向上に寄与するかを調査するため,開発セット9対話から視覚的文脈を利用しなければ参照先物体が特定できない事例を抽出した.結果,Recall@1における誤り事例256件のうち,17件が視覚的文脈を要する事例であった.したがって,現在のモデルでは視覚的文脈を考慮できないことによる誤りよりも,上記の曖昧な表現等他の要因による誤りが支配的である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ロボット役演者の行動の解析精度への影響}本データセットはロボットと人間の対話を想定するが,収録においてはロボット役を人間の演者に依頼している.そのため,視線移動や物体把持などの行動に人間の思考が介在し,解析モデルにとって都合の良い1人称視点動画が得られている可能性がある.例えば,複数のコップが並んでいる場面で,「一番大きなコップに水を入れて」と主人が発話した場合,ロボット役演者は一番大きなコップに目を向けそれを手に取ることが予想される.演者がコップを手に取った後の動画フレームには,そのコップが大きく映っていることが期待され,解析モデルにとって「一番大きなコップ」の参照先を特定することは容易となる.演者の行動の解析精度への影響を調査するため,発話に対する解析対象フレームの時間的な位置ごとにモデルの性能を評価した.演者の行動は相手の発話を受けて行われるため,モデルが演者の行動を手がかりにしている場合,時間的に後ろのフレームに対する性能が高くなると考えられる.フレームをその時間的な位置に基づき以下の3種類に分類し,それぞれのカテゴリにおけるRecall@$k$を評価した.\begin{itemize}\item発話開始時点から発話区間中央までの間のフレーム(発話中前半)\item発話区間中央から発話終了時点までの間のフレーム(発話中後半)\item発話終了時点から次の発話開始時点までの間のフレーム(発話以降)\end{itemize}表~\ref{tab:temporal-location}に結果を示す.発話中前半に比べ,発話中後半や発話以降のフレームに対する性能が高く,演者の行動が解析モデルにとっての手がかりになっていることが示唆された.したがって,本データセットを用いてシステムを評価する際には,発話中前半のフレームにおける性能を重視する必要がある.また,実世界で他者と協働するロボットにおいては,視線移動等の行動を正しく行う能力が重要であることも示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{10table10.tex}%\hangcaption{動画フレームの時間的位置とRecallの関係.テストセットと開発セットを合わせた18対話で評価した結果を示す.}\label{tab:temporal-location}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果の統合}\label{sec:combining-results}フレーズグラウンディングモデルは間接的参照関係を扱えない.すなわち,述語に対してそのヲ格に相当する物体を特定したり,名詞に対して橋渡し照応関係を持つ物体を特定することができない.しかし,フレーズグラウンディングモデルの出力結果とテキスト間照応解析モデルの出力結果を統合することで,これら解析が可能になる.具体的には,述語に対してまずテキスト間照応解析モデルの結果から間接的関係を持つメンションを得る.フレーズグラウンディングモデルの結果にそのメンションが参照する物体が含まれていた場合,述語とその物体が間接的参照関係を持っていると判断する.本統合手法では,参照先物体がメンションとして対話中に現れていない場合を原理的に扱えないことに注意が必要である.表~\ref{tab:visual-reference-result}に2つのモデルを組み合わせた場合の物体検出およびテキスト・物体間参照解析の結果を示す.エラー伝播の問題から,いずれのタスクにおいても性能は著しく低い.特に,フレーズグラウンディングのRecall@1が0.450でありこの値が上界になっている影響が大きい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{10table11.tex}%\hangcaption{間接的参照関係を含むテキスト・物体間参照解析の結果.直接的参照関係の解析はフレーズグラウンディングと同義であり,直接的参照関係の結果は表~\ref{tab:phrase-grounding-result}最下段の値と同一である.}\label{tab:visual-reference-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,実世界において人間と対話しつつ協働するロボットの実現を目指し,テキストと動画フレームを対象としたマルチモーダル参照解析タスクを提案した.本タスクはテキスト中の参照表現の参照先をテキスト中から特定するテキスト間照応解析,参照先の候補を動画フレーム中から検出する物体検出,および物体検出の結果から参照先物体を特定するテキスト・物体間参照解析から構成される.タスクの提案に加え,本タスクの学習・評価のための参照タグ付き実世界対話データセットを構築した.本データセットは実世界における2者の対話シーンにおいて,1人称視点動画,3人称視点動画,対話音声を収録したものである.さらに,1人称視点動画から抽出されたフレームと対話書き起こしテキストに対して,物体とメンションの参照関係が密に付与されている.構築したデータセットで既存の解析モデルを評価した結果,今回提案するタスクでは,テキスト間の解析に比べテキストと物体間の関係解析が非常に困難で挑戦的な課題であることを示した.このように,本データセットは実世界において対話を通じて人間を支援するロボットを開発する上でのベンチマークを提供し,取り組むべき課題を明らかにするための基盤となる.今後の課題として,動画中の動作に対するタグ付けが挙げられる.本研究では動画に対して,フレーム中の物体および領域に矩形を付与したが,一方で動画に基づく多くのデータセットでは動作の時間的区間が付与されている\cite{Damen2022RESCALING,Rai-2021-HomeActionGenome,Ego4D2022CVPR}.これらデータセットにならい,動作的な述語に対して動画中の対応する動作区間を付与することが考えられる.動作区間の付与によって,物体だけでなくその物体に関係する動作を認識し,より高度な状況理解が可能なロボットの実現に役立つ.また,本タスクにおける解析モデルの改善も課題として挙げられる.本研究では,既存手法を本データセットにおいて評価した実験から,テキスト・物体間参照解析,特に間接的な参照関係に対する解析に大きな改善の余地があることが明らかになった.実験に用いたシステムはテキスト間の照応関係とテキスト・物体間の参照関係を独立に解析するものだったが,今後はそれらを統合的に解くことで性能が改善する可能性がある.また,本データセットは動画を含むためフレーム間の時系列情報を利用することも考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,京都大学科学技術イノベーション創出フェローシップ事業の助成を受けたものである.本研究の一部はJSPS科研費22H03654の支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\begingroup\addtolength{\baselineskip}{-0.5pt}\bibliography{10refs}\endgroup%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[p]\begin{center}\includegraphics{31-3ia10f5.pdf}\end{center}\caption{リビングにおけるシナリオを収集するためのクラウドソーシングインターフェイス}\label{fig:crowd-works-living-ja}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix\vspace{-1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{対話シナリオ収集インターフェイス} label{sec:scenario-collection-interface}図~\ref{fig:crowd-works-living-ja}に,対話シナリオ収集インターフェイスの例を示す.インターフェイスには画像が3枚添付されている.うち2枚(図~\ref{fig:living-images})はクラウドワーカーにリビングの部屋の状況を提示するためのものである.ワーカーは画像に示された部屋で実行可能なシナリオを作成することを求められる.残りの1枚(図~\ref{fig:living-obj1})は,ワーカーにシナリオに含める物体を提示するためのものである.図に示された物体はシナリオに含める物体の一例であり,ワーカーはリビングにありそうなものであれば自由に物体を使用することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{31-3ia10f6.pdf}\end{center}\caption{リビングの設備をクラウドワーカーに示すための画像}\label{fig:living-images}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{31-3ia10f7.pdf}\end{center}\caption{リビングにおけるシナリオに含める物体をクラウドワーカーに示すための画像}\label{fig:living-obj1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{対話シナリオの例} label{sec:scenario-example}表~\ref{tab:scenario}に収集した対話シナリオの例を示す.括弧内のテキストは場面状況を表す.括弧外の発話には「あそこ」や「それ」などの参照表現が含まれ,視覚情報も含めなければ理解が困難な対話になっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{10table12.tex}%\caption{収集したシナリオの例.括弧内は場面状況であり台詞としては使用しない.}\label{tab:scenario}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{植田暢大}{2019年京都大学工学部電気電子工学科卒業.2021年同大学院情報学研究科修士課程修了.2021年から2024年,理化学研究所ガーディアンロボットプロジェクト知識獲得・対話研究チーム研修生.2024年京都大学大学院情報学研究科博士課程研究指導認定退学.同年,日本電気株式会社入社.修士(情報学).自然言語処理の研究に従事.2021年情報・AI・データ科学博士人材フェローシップ採用.言語処理学会会員.}\bioauthor{波部英子}{2017年から2021年,奈良先端科学技術大学院大学先端科学技術研究科情報科学領域知能コミュニケーション研究室技術補佐員.2021年より理化学研究所ガーディアンロボットプロジェクト知識獲得・対話研究チームテクニカルスタッフ.自然言語処理,テキストアノテーションの研究および研究補佐に従事.}\bioauthor{松井陽子}{2008年から2014年,独立行政法人情報通信研究機構・知能創生コミュニケーションユニバーサルコミュニケーション研究所技術補佐員.2015年から2023年,国立研究開発法人情報通信研究機構・ユニバーサルコミュニケーション研究所技術補佐員.2023年より理化学研究所ガーディアンロボットプロジェクト研究パートタイマーII.自然言語処理,テキストアノテーションの研究および研究補佐に従事.}\bioauthor{湯口彰重}{2017年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2021年同博士後期課程研究指導認定退学.博士(工学).理化学研究所ガーディアンロボットプロジェクト知識獲得・対話研究チーム特別研究員などを経て,2023年より東京理科大学先進工学部機能デザイン工学科助教および理化学研究所ガーディアンロボットプロジェクト知識獲得・対話研究チーム客員研究員.ロボティクスに関する研究に従事.IEEE,SIGDIAL,日本ロボット学会,日本機械学会各会員.}\bioauthor{河野誠也}{2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2021年同先端科学技術研究科博士後期課程研究指導認定退学.博士(工学).2020年に日本学術振興会特別研究員(DC2)を経て,2021年から理化学研究所ガーディアンロボットプロジェクト特別研究員.2023年から奈良先端科学技術大学院大学客員助教.自然言語処理および音声言語処理に関する研究に従事.ACL,ISCA,人工知能学会,言語処理学会各会員.}\bioauthor{川西康友}{2011年京都大学大学院情報学研究科博士課程指導認定退学.京都大学博士(情報学).名古屋大学大学院情報学研究科助教などを経て,現在,理化学研究所ガーディアンロボットプロジェクト感覚データ認識研究チームチームリーダー,名古屋大学大学院情報学研究科客員准教授,奈良先端科学技術大学院大学客員教授.ロボットによる3D環境認識に関する研究に従事.電子情報通信学会シニア会員,IEEE,画像電子学会各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.2023年4月より同特定教授および国立情報学研究所長を併任.自然言語処理,知識情報処理の研究に従事.JSTさきがけ「社会システムデザイン」研究総括(2016~2022),文部科学官(2020~2022)等を歴任.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward,文部科学大臣表彰科学技術賞等を受賞.}\bioauthor{吉野幸一郎}{2014年京都大学大学院情報学研究科博士後期課程修了.奈良先端科学技術大学院大学情報科学研究科助教等を経て,現在,理化学研究所ガーディアンロボットプロジェクト知識獲得・対話研究チームチームリーダー,奈良先端科学技術大学院大学客員教授.京都大学博士(情報学).音声対話ロボットの研究に従事.IEEE,ACL,SIGDIAL,情報処理学会,人工知能学会,日本ロボット学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V26N02-06
\section{はじめに} 登場人物(キャラクタ)は小説,コミック,アニメ,ドラマ,映画などの物語世界における重要な構成要素の一つであり,ライトノベルのように「キャラクタ中心の物語」(メイナード2012)\nocite{maynard:2012}すら存在する.近年は,ユーザの命令に従ってタスクを実行したり,会話をしたりする対話エージェントにおいても,エージェントのキャラクタが重視されるようになり,マイクロソフトの「りんな」\footnote{https://www.rinna.jp/}をはじめとして,特定のキャラクタを冠した対話エージェントが数多く作られている\footnote{https://www.nttdocomo.co.jp/service/shabette\_concier/shabette\_chara/}$^{,}$\footnote{http://line.froma.com/}$^{,}$\footnote{http://mezamane.com/}$^{,}$\footnote{https://narikiri-qa.jp/oreimo-ayase/login.html}.物語でも対話エージェントでも,それぞれのキャラクタの発話には,それぞれのキャラクタらしさが表れる.特定の人物像(キャラクタ)と結びついた話し方の類型は役割語\cite{kinsui:2011:nihongo}と呼ばれ,「老人語」「幼児語」「お嬢様言葉」など,どのようなキャラクタがどのような表現を使うのか,文法的な特徴はあるか\cite{kinsui:2011}などについて,様々な研究が行われてきた.我々が目指しているのは,キャラクタらしさを表す言語的特徴をうまく捉えて,その特徴を備えた発話テキストを自動生成する仕組みを実現すること,そして,その仕組みを対話エージェントの発話の自動生成や,小説の自動生成\cite{sato:2015}に適用することである.我々はこれまで,文末表現をはじめとする機能語の語彙選択に着目し,例えば,「これはひどい\underline{な}」という発話を「これはひどい\underline{わね}」のように変換する手法\cite{miyazaki:paclic29,miyazaki:jsai2016}を提案してきた.しかしながら,機能語の語彙選択による表現力には限界がある.具体的な課題としては,性別や年代といった大まかなキャラクタらしさを表現することはできても,それ以上に細かなキャラクタらしさを表現することが難しい点が挙げられる.例えば,「これはひどいな」の文末表現「な」を「や」に置き換えて「これはひどいや」とすると,「どちらかというと男性らしい」「それほど高齢ではなさそう」という程度のキャラクタらしさは表現できても,これに加えて「もう少し粗野な感じにしたい」といった細かな調整は難しい.そこで,キャラクタらしさの表現力を高める方策として新たに着目したのが,「こりゃひでえや」(元の形:「これはひどいや」)のような,発話テキストに文字として現れる{\em音変化}である.音変化を任意の発話テキストに対して人為的に施す仕組みを作れば,これを利用してキャラクタらしさの表現力を高めることができると考えられる.この仕組み作りに向け,本研究では,テキストに文字として現れる音変化を{\em音変化表現}と名付け,日本語のキャラクタの発話に現れる音変化表現にどのような種類が存在するのかを調査する.具体的には,音変化表現と呼ぶべき事例を収集し,どのような環境下でどのような音変化が起きるかを示すパターンとして整理する.音変化表現のパターンを分類する目的は2つある.1つ目は,音変化表現の生成のためである.具体的には,どのような環境下でどのような音変化が起きるかを示すパターンを作成すれば,「ひどい」から「ひでえ」や「ひどーい」を生成するなど,音変化のない表現から音変化のある表現を人為的に生成することができると考えている.人為的に生成された音変化表現は,形態素解析用の辞書に登録して利用するなどの用途も考えられる.2つ目は,発話テキストに表れるキャラクタらしさの分析,および,発話テキストへのキャラクタらしさの付与のためである.一口に音変化表現と言っても,「ひでえ」と「ひどーい」とでは,その言葉を発する人物として想像されるキャラクタが大きく違ってくる.音変化表現をパターンとして分類することは,この違いを捉えるうえで非常に意味がある.小説やコミックの発話テキストの分析においては,発話に現れる音変化表現のパターンを調べることで個々のキャラクタの特徴を捉えることができ,対話エージェントの発話や小説のセリフの自動生成においては,特定のパターンの音変化表現を使用することで,生成する発話やセリフにキャラクタらしさを付与できるようになると考えている.音変化は従来より音声学や音韻論の観点から分析されており,『現代言語学入門2日本語の音声』\cite{kubozono:1999}で取り上げられているように,「早う」のようなウ音便が子音+母音の連続から子音が消えて母音が残る現象(e.g.,haya+ku→hayau→hayoo)であること(p.~40),幼児が「何ですか」を「何でちゅか」と言うのは発音器官が未発達なためにサ行の子音を破擦音の[t{\kern0em}\UTF{0283}{\kern-0.5em}]で代用する現象であること(p.~44),「すごい」と「すげえ」のような丁寧な発音とぞんざいな発音の間に見られる音変化は母音融合とそれに伴う代償延長で構成される現象であること(pp.~182--183),「書いておこう」が「書いとこう」に変化するのは母音で始まる音節を避けようとする現象であること(p.~218),「めえ(目)」のように近畿方言の1モーラ語が2モーラの長さに発音されるのは1モーラの長さの語を避けようとする制約による現象であること(p.~224)など,様々な現象について既に知られている.これに対し,本研究で行いたいのはテキスト処理の観点からの分析であり,テキストに文字として現れる音変化をテキスト処理で利用しやすい知識として整理するのが本研究の目的である.本研究では,音変化表現のパターンを提案するとともに,小説やコミックのキャラクタの発話を対象とした検証実験を通して,本研究で提案するパターンの網羅性を確認する.さらに,発話文の話者(キャラクタ)を推定する実験を通して,音変化表現のパターンが,発話のキャラクタらしさを特徴付けるための有効な手段となることを示す. \section{関連研究} 話者に応じた発話生成の研究としては,例えば,話者の性格\cite{mairesse:2007}や印象\cite{shen:2012},年齢・性別などの人物属性\cite{miyazaki:paclic29},特定の話者および聴者との関係性\cite{Li:2016}に応じた発話の生成が行われてきた.これらの研究では,話者らしさを表現するための特徴として,様々な語彙的・統語的・意味的・語用論的な特徴,および,抽象化された意味的な特徴(単語埋め込み表現)が利用されている.本研究で扱う音変化表現も,話者らしさを表現するための特徴の一つとなると考えられる.日本語の音変化について調査・整理した文献に,「日本語話し言葉コーパスの構築法」の第2章\cite{koiso:2006}や,「研究社日本語口語表現辞典」の付録\cite{yamane:2013}がある.前者では,話し言葉コーパスの音声を書き起こすうえで問題となる,様々な音変化の具体例が列挙・整理されている.後者では,日本語の学習者が利用することを想定して,日常の会話によく現れる音変化が列挙されている.いずれの文献も,キャラクタの発話で用いられる可能性のある音変化表現を把握するための重要な資料である.しかしながら,キャラクタの発話を対象として調査・整理されたものではないので,そこで挙げられている音変化が,キャラクタの発話に現れる音変化をどの程度カバーしているのかは明らかでない.日本語の音変化を工学的に処理する研究としては,既知の語に対して長音記号や小書き文字が挿入されるなどしてできた非標準的な表記に対する形態素解析\cite{sasano:2014,saito:2017}があり,例えば,「冷たーーーい」や「冷たぁぁぁい」\cite{sasano:2014},「うっつらうっつら」や「だいちゅき」\cite{saito:2017}といった表記を形態素として正しく解析するための方法が提案されている.斉藤ら\cite{saito:2017}は,非標準的な表記(崩れ表記)と標準的な表記(正規表記)をペアにしたアノテーションデータを用いて,表記の崩れ方に関する多様なパターンを自動抽出する方法を提案している.これに対し,本研究のように人手でパターンを作成する枠組みで多様性を追求するのは難しい.しかしながら,キャラクタの発話において頻繁に観察される音変化表現にはそれほど多くのバリエーションはなく,人手でも主要なパターンは列挙できると考えられる.本研究では,日本語のキャラクタの発話で観察される音変化表現のパターンを,ある程度の網羅性を持った知識として予め整理しておくことで,アノテーションデータを用意しなくても,キャラクタの発話を対象とした音変化表現の分析や生成が可能となる状態を目指す. \section{音変化表現の種類に関する分析} \label{analysis}日本語のキャラクタの発話テキストに現れる音変化表現にどのような種類が存在するのかを把握するために,小説やコミックに登場するキャラクタなどの発話,および,日本語の口語表現に関する文献\cite{koiso:2006,yamane:2013}を参照し,音変化が起きている表現(音変化表現)と考えられるものを手作業で収集した.本研究では,音変化表現をおおよそ次のようなものと捉える.\vspace{0.5\Cvs}\begin{description}\item[音変化表現]\mbox{}\\元の形から一部の音が変化して派生したと思われる表現.\end{description}\vspace{0.5\Cvs}\noindentここで,{\em元の形}とは,小型の国語辞書の見出し語として採用されているような,現代の日本語話者の間で広く定着した表現を想定する.音の違いを捉える観点には,音素・モーラ・アクセント・イントネーションなどがあり,どの範囲での変化を音変化とみなすかを厳密に定義することは難しい.そのため,本研究では,原則としてかな表記に基づいて音の変化を捉える.すなわち,「元の形とかな表記が異なる場合,音が変化した」と捉える.ただし,以下の例外がある.\vspace{0.5\Cvs}\begin{description}\item[例外a]ひらがなとカタカナは同一視する.\item[例外b]母音を表す小書き文字(ぁ・ぃ・ぅ・ぇ・ぉ)は,通常の文字(あ・い・う・え・お)と同一視する.\item[例外c]長音記号は,直前のかな文字(漢字の場合はその読み)の母音部分を表すかな(あ・い・う・え・お,のいずれか)と同一視する.\item[例外d]エ段の長音を表す「い」と「え」は同一視する.\item[例外e]オ段の長音を表す「う」と「お」は同一視する.\end{description}\vspace{0.5\Cvs}以下に,上記の方針に沿った音変化表現の判定の具体例を示す.\begin{itemize}\item「ひでえ」は元の形「ひどい」の音変化表現とみなす.\item「ひどーい」は元の形「ひどい」の音変化表現とみなす.\item「ヒドイ」は,国語辞典の見出し語で一般的に用いられる「ひどい」とかな表記が異なるが,例外aにより,音変化表現とはみなさない.\item「ひどぃ」は,国語辞典の見出し語で一般的に用いられる「ひどい」とかな表記が異なるが,例外bにより,音変化表現とはみなさない.\item「おーきい」は,国語辞典の見出し語で一般的に用いられる「おおきい」とかな表記が異なるが,例外cにより,音変化表現とはみなさない.「おーきー」もこれに同じ.\item「せんせえ」は,国語辞典の見出し語で一般的に用いられる「せんせい」とかな表記が異なるが,例外dにより,音変化表現とはみなさない.「せんせー」もこれに同じ.\item「がっこお」は,国語辞典の見出し語で一般的に用いられる「がっこう」とかな表記が異なるが,例外eにより,音変化表現とはみなさない.「がっこー」もこれに同じ.\item「ぼうっと」の元の形として「ぼうと」あるいは「ぼっと」が考えられるが,これらの語は現代の日本語話者にとってやや稀だと感じられる表現なので,「ぼうっと」は音変化表現とはみなさない.「ぼーっと」,「ぼおっと」もこれに同じ.\item「だって」と「でも」は互いに派生関係にないと思われるので,一方を他方の音変化表現であるとはみなさない.\item「なんか」と「など」も互いに派生関係にないと思われるので,一方を他方の音変化表現であるとはみなさない.\end{itemize}\vspace{0.5\Cvs}\noindentなお本研究では,「だって」と「でも」や「なんか」と「など」のような,派生関係にないと思われる語同士の交替は,似たような意味を持つ語の集合から一つを選択する問題(以降,語彙選択)であると捉える.次に,収集した音変化表現のそれぞれを{\em現象}と{\em生起環境}の観点から分析し,共通性のある表現同士を一つのパターンとしてまとめ上げた.本研究では,現象という用語によって「長音挿入」や「撥音化」のように「音がどのように変化したか」を指す.生起環境という用語は音変化が起きている環境のことを指す.それがどのような環境であるかは,音変化が起きている語およびその前後に位置する語の品詞・活用形・活用型・語形,文における位置などに基づいて分析した.また,パターンとは現象と生起環境の組み合わせのことを指す.なお本稿では,語の境界や品詞・活用形・活用型にかかわる用語は,基本的には「益岡・田窪文法」\cite{masuoka-takubo:1992}に従う.ただし,文字単位での扱いやすさを考え,子音動詞の語幹・語尾の境界を変更した(例えば,本来なら「書く」の基本形語幹は「kak」,語尾は「u」であるが,語幹を「書」,語尾を「く」とする).加えて,動詞の未然形を設けた.\subsection{パターンの作成}\label{patsakusei}音変化表現のパターンの作成においては,まず,収集した音変化表現を現象の観点から分析し,下記の11種類に分類した.\vspace{0.5\Cvs}\begin{description}\item[(1)長音挿入]{任意の短母音が長母音に交替すること.表記上は,長音記号や小書き文字の挿入として現れる(e.g.,「嫌だ」→「嫌だ\underline{ー}」).}\item[(2)促音挿入]{任意の位置に促音「っ」が挿入されること(e.g.,「すごい」→「す\underline{っ}ごい」).}\item[(3)撥音挿入]{任意の位置に撥音「ん」が挿入されること(e.g.,「すごい」→「す\underline{ん}ごい」).}\item[(4)脱落]{(連続する)任意の音が消失すること(e.g.,「食べている」→「食べて\underline{$\phi$}る」).}\item[(5)母音交替]{(連続する)任意の母音が(連続する)別の母音に交替すること(e.g.,「おそい」→「お\underline{せえ}」).}\item[(6)子音交替]{(連続する)任意の子音が(連続する)別の子音に交替すること(e.g.,「ばっちり」→「ばっち\underline{し}」).}\item[(7)促音化]{任意の音が促音「っ」に交替すること(e.g.,「走るから」→「走\underline{っ}から」).}\item[(8)撥音化]{任意の音が撥音「ん」に交替すること(e.g.,「嫌になる」→「嫌\underline{ん}なる」).}\item[(9)ウ音便化]{動詞やイ形容詞の活用語尾の先頭が「う」に交替すること.また,それに伴う語幹末尾の変化(e.g.,「言って」→「言\underline{う}て」).}\item[(10)縮約]{任意の音の系列が,部分的な音素の脱落や交替を伴って,より短い系列へと形を変えること(e.g.,「食べなければ」→「食べな\underline{きゃ}」).}\item[(11)その他]{上記(1)〜(10)以外の,任意の音同士が交替すること(1対複数,複数対複数の交替も可).}\end{description}\vspace{0.5\Cvs}なお本稿では,かな表記における1文字を指して音と呼ぶ(音の変化の捉え方は\ref{analysis}節冒頭を参照のこと).母音,子音と言う場合には,かな表記における1文字ではなく音素を指す.また,音が脱落した箇所は記号$\phi$によって明示する.次に,11種類の現象を生起環境の観点から細分化することにより,全部で137種類のパターンを作成した.全137種類のパターンを,付録の表{\AppTableNum}に示す.各パターンは,現象の観点から見た11種類の分類(大分類)の配下に作成されている.例えば,長音挿入(L1)の配下には,「嫌だー」のように文末に長音が挿入されるパターン(P1)や,「ばんざーい」「あたたかーい」のように,文末にあるイ形容詞型の活用語の基本形・子音動詞ラ行イ形の活用語の命令形・感動詞において,末尾の「い」「し」「ん」の前に長音が挿入されるパターン(P2),文末に位置する「です」の語中に長音が挿入されて「でーす」となるパターン(P3)などを設けた.これらの例から分かるように,パターンの中には,P1やP2のように,多くの語が該当するパターン(生産性のあるパターン)もあれば,P3のように,特定の語しか該当しないパターンもある.この違いを示すために,表{\AppTableNum}において,生産性のあるパターンには``*''を付与した.また,生起環境に何らかの共通点があるパターン同士をまとめ上げるための中分類も用意した.例えば,P2とP3とは,ともに文末に位置する語の語中で起こる点において共通しているため,文末の語中における長音挿入(M2)という中分類でまとめ上げてある.中分類を用意したのは,音変化を生成する際の使いやすさを念頭に置いて細かく分類されたパターンを,説明のしやすい粒度でまとめて扱うためである.\subsection{パターンの概要}\label{patgaiyou}本節では,\ref{patsakusei}節で作成した音変化表現のパターンの概要について述べる.具体的には,音変化の現象(大分類)ごとに,どのようなパターンを設けたかについて,事例を交えて説明する.説明の中で,キャラクタの発話における各パターンの出現頻度に言及することがあるが,具体的な頻度を確認したい場合は,後に\ref{result-and-analysis}節で提示する図\ref{pattern-freq}を参照されたい.\subsubsection{長音挿入(L1)}長音挿入は,文末への長音挿入(M1),文末の語中における長音挿入(M2),および,その他の長音挿入(M3)という中分類に区分した.長音挿入の中で特に多く観察されるのは,「嫌だー」(元の形:「嫌だ」)のような文末への長音挿入(M1;P1と同義)である.「あたたかーい」(元の形:「あたたかい」)や「でーす」(元の形:「です」)のような,文末にある語の語中(語末以外の位置)における長音挿入(M2;P2--P4)が利用される頻度はそれほど高くないが,発話において「あたたかいなー」や「ですよー」のようなM1を使うか「あたたかーい」や「でーす」のようなM2を使うかで,話者がどのような人物であるかに対する印象が違ってくると思われる.その他の長音挿入(M3)として,文末以外の環境にも現れうるパターン(P5--P8)を用意した.例えば,「ずーっと」(元の形:「ずっと」)や「ちゃーんと」(元の形:「ちゃんと」)のように,副詞の語末の「っと」「んと」の前に長音が挿入されるパターン(P5)がある.なお,ここで言う長音は,「ー」だけでなく「〜」や,ひらがな・カタカナの小書き文字などを含む.また,文末にある語とは,発話文の末尾にある語だけでなく,引用や伝聞を表す助詞「と」「って」や「。」「、」「!」などの句読記号の前にある語も含む.\subsubsection{促音挿入(L2)}促音挿入は,文末への促音挿入(M4),イ形容詞・ナ形容詞型の活用語と副詞における促音挿入(M5),および,その他の促音挿入(M6)という中分類に区分した.促音挿入の中で最も多く観察されるパターンは,「走るっ」のように,文末に「っ」が挿入されるパターン(P9)である.P9以外のパターンがキャラクタの発話において利用される頻度はそれほど高くないが,「すっごい」(元の形:「すごい」)のように,イ形容詞・ナ形容詞型の活用語や副詞の語頭から二拍目のカ・サ・タ・パ・ガ・ザ・ダ・バ・ハ行音の前に「っ」が挿入されるパターン(P10)や,「あたたかくって」(元の形:「あたたかくて」)のように,イ形容詞のテ形の「て(ちゃ)」の前に「っ」が挿入されるパターン(P12),「っという」(元の形:「という」)のように,助詞「と」の語頭に「っ」が挿入されるパターン(P13)はしばしば観察される.なお,P10およびP11(語頭から二拍目・三拍目への促音挿入)の生起環境は,日本語の促音は母音の後のカ・サ・夕・パ行音の前で起こり,外来語や方言の場合は例外的にガ・ザ・ダ・バ行音およびハ行音の前などでも起こる\cite{hamada:1955}とされていることを参考にして設定した.\subsubsection{撥音挿入(L3)}撥音挿入には,「すごい」が「すんごい」に交替するパターン(P15),「おなじだ」が「おんなじだ」に交替するパターン(P16),「まま」が「まんま」に交替するパターン(P17)の3種が観察された.ただし,いずれも生産性のあるパターンではない(特定の語しか該当しないパターンである)ため,これらがキャラクタの発話において観察される頻度は高くない.\subsubsection{脱落(L4)}脱落は,イ形容詞型の活用語における脱落(M8),テ形複合動詞における脱落(M9),語末の「う」の脱落(M10),および,その他の脱落(M11)という中分類に区分した.脱落の中で最も多く観察されるパターンは,テ形複合動詞における脱落(M9)の一種で,「して$\phi$る」(元の形:「している」)のように,テ形複合動詞「いる」の語幹の「い」が脱落するパターン(P21)である.その他には,「けれど」から「れ」が脱落し,「けど」に交替するパターン(P39)や,「だろう(でしょう)」が「だろ(でしょ)」に交替するパターン(P25)が多く観察される.\subsubsection{母音交替(L5)}母音交替は,イ形容詞型の活用語における母音交替(M12)と,「せる」「させる」における母音交替(M13)という中分類に区分した.母音交替の中で最も多く観察されるパターンは,「うるせえ」(元の形:「うるさい」)のように,イ形容詞型の活用語の基本形の語幹末尾のア段音がエ段音に交替し,活用語尾の「い」が「え」に交替するパターン(P43)であり,物語作品において特定のキャラクタの発話で集中的に用いられる傾向がある.\subsubsection{子音交替(L6)}子音交替は,サ行音と「つ」における子音交替(M14)と,その他の子音交替(M15)という中分類に区分した.サ行音と「つ」における子音交替(M14)とは,「ちまちた」(元の形:「しました」)や「あちゅい」(元の形:「あつい」)のようなもので,幼児風の表現である.このような表現は,クマやイヌなど,人間でない生物のキャラクタの発話では頻繁に観察される\cite{miyazaki:sigdial2016}が,小説やコミックに登場する人間のキャラクタの発話においては,それほど頻繁には観察されない.\subsubsection{促音化(L7)}促音化は,動詞型の活用語における促音化(M16),指示詞における促音化(M17),および,その他の促音化(M18)という中分類に区分した.促音化は,その他の現象と比べて出現頻度が低いが,「走っから」(元の形:「走るから」)のように,母音動詞型またはラ行子音動詞型の活用語の基本形活用語尾の「る」が「っ」に交替するパターン(P53)や,「走ろっか」(元の形:「走ろうか」)のように,動詞型の活用語の意志形活用語尾の「う」が「っ」に交替するパターン(P54)はしばしば観察される.\subsubsection{撥音化(L8)}撥音化は,ナ行音の撥音化(M19)とラ行音の撥音化(M20)という中分類に区分した.撥音化の中で最も多く観察されるのは,助動詞「のだ(のです)」が「んだ(んです)」に交替するパターン(P78)であり,たいていのキャラクタの発話に出現する.次に多く観察されるのは,「走らん」(元の形:「走らぬ」)のように,助動詞「ぬ」が「ん」に交替するパターンである(P81).ただし,このパターンが多く観察されるのは,関西などの方言を話すキャラクタの発話や,物語世界において支配的な立場にあるキャラクタ(部隊の指揮官など)が話すやや文語調の発話においてである.撥音化は11種類の現象の中で最も多く観察される現象であり,P78やP81の他にも,様々なパターンが多く用いられる.例えば,「走るんは」(元の形:「走るのは」)のように,形式名詞「の」が「ん」に交替するパターン(P77)や,「走んの」(元の形:「走るの」)のように,母音動詞型またはラ行子音動詞型の活用語において基本形活用語尾の「る」が「ん」に交替するパターン(P86),「なんも」(元の形:「なにも」)のように,「なに」が「なん」に交替するパターン(P74)は,キャラクタの発話において頻繁に観察される.\subsubsection{ウ音便化(L9)}ウ音便化は,「しもうて」(元の形:「しまって」)や「言うて」(元の形:「言って」)のような,動詞型の活用語におけるウ音便化(M21)と,「たこうて」(元の形:「たかくて」)や「なつかしゅうて」(元の形:「なつかしくて」)のような,イ形容詞型の活用語におけるウ音便化(M22)の中分類に区分した.これらは,関西などの方言を話すキャラクタや老人のキャラクタの発話に現れることを想定して作成したものであり,どんなキャラクタの発話にも広く出現するというものではない.\subsubsection{縮約(L10)}縮約は,活用語のテ形と助詞「は」の縮約(M23),指示詞と助詞「は」の縮約(M24),活用語の基本条件形における縮約(M25),テ形複合動詞における縮約(M26),「という」の縮約(M27),「のうち」の縮約(M28),および,その他の縮約(M29)という中分類に区分した.縮約の中で最も多く観察されるパターンは,「嫌じゃない」(元の形:「嫌ではない」)のように,ナ形容詞型の活用語のテ形の「で」と助詞「は」が合わさって「じゃ」に交替するパターン(P93)であり,多くのキャラクタの発話に現れる.その他には,「食べちゃう」(元の形:「食べてしまう」)のように,動詞型の活用語のテ形の「て(で)」と「しまう」が合わさって「ちゃう(じゃう)」に交替するパターン(P104)や,「食べちゃ」(元の形:「食べては」)のように,動詞型の活用語のテ形の「て(で)」と助詞「は」が合わさって「ちゃ(じゃ)」に交替するパターン(P94),「食べりゃ」(元の形:「食べれば」)や「書きゃ」(元の形:「書けば」)のように,動詞型の活用語の基本条件形において,活用語尾のエ段音とそれに続く「ば」がイ段音と「ゃ」に交替するパターン(P99)などがある.\subsubsection{その他(L11)}L1からL10までのいずれにも当てはまらない音変化表現のパターンが18種類(P120--P137)ある.その多くが生産性のないパターンであるため,キャラクタの発話において観察される頻度は高くなく,「気ー使う」(元の形:気を使う)のように,助詞「を」が長音に交替するパターン(P132)や,「そうじゃなければ」(元の形:「そうでなければ」)のように,判定詞「だ」のテ形である「で」が「じゃ」に交替するパターン(P134),「やはり」が「やっぱ」に交替するパターン(P136)がしばしば見られる程度である. \section{パターンの網羅性の検証} 本研究で収集・整理した音変化表現のパターンの網羅性を検証するために,\pagebreak小説・ライトノベル・コミックの具体的な作品を対象として,表{\AppTableNum}に示すパターンの他に音変化表現と呼ぶべきものがあるか,どのような表現がどの程度存在するのかを調査した.\subsection{検証用データの作成方法}小説・ライトノベル・コミックの計9作品に含まれるキャラクタの発話1800文(200文$\times$9作品)に対し,作業者2名で音変化表現へのラベル付けを行った.なお,作業者2名のうち1名は筆頭著者で,もう1名は著者に含まれない人物である.対象とした作品および発話文の選定は,作者の異なる9作品において,2名以上のキャラクタの発話が登場する章または話の先頭から順に,発話部分に含まれる200文を抽出することによって行った.対象とした9作品のうち3作品(『響け!ユーフォニアム』,『ちはやふる』,『名探偵コナン』)には方言を使用するキャラクタが含まれるが,これら3作品を利用した理由は,方言の語彙には標準語が音変化した形だとみなせる表現が多く存在するという仮定に基づき,本研究で提案する音変化表現のパターンの網羅性検証を,より多様な表現を対象として行いたいと考えたためである.音変化表現に対するラベル付けは,以下の方針に従って実施した.\vspace{0.5\Cvs}\begin{description}\item[音変化表現か否かの判断基準]\mbox{}\\「元の形から音が変わっていると思われる表現を音変化表現とする.言い換えると,音変化表現は音が変化する前の元の形を想定できる表現とする」とした.なお,表{\AppTableNum}に記載のパターンはラベル付けの作業者(著者に含まれない人物)には提示しない.\item[ラベル付けの手順]\mbox{}\\音変化表現に該当する文字列を``[]''で囲んでマークし,マークした音変化表現の元の形として考えられる表現を,音変化表現の右隣に``$<>$''で囲んだ状態で記入する.\item[マークする文字列の範囲]\mbox{}\\どこからどこまでの文字を音変化表現としてマークすべきかについては,厳密な定義をしない.作業者が「音変化が起きている」と思った文字が含まれていれば,問題ない.\item[ラベル付けされた結果の例]\mbox{}\\俺は[知んねえんだ]$<$知らないのだ$>$よ\end{description}\vspace{0.5\Cvs}音変化表現としてマークすべき文字列の範囲について厳密な定義をしなかったのは,音変化が起きている一連の文字列の中から個々の音変化表現を切り出すための基準作りが困難だったためである.例えば,「知んねえんだ」をまとめて1つの音変化表現とみなすべきか,「知んねえ」と「んだ」の2つに分けるべきか,「知ん」「ねえ」「んだ」の3つに分けるべきか,末尾の「だ」は取り除くべきかなど,あらゆる状況を事前に想定し,基準を作るのは困難であった.明確な基準を設けない代わりに,マークした文字列の音変化前の形(元の形)を併記することとした.これにより,音変化表現としてマークされた文字列と元の形として記入された文字列とを比較し,変化した文字を機械的に抽出できるようにした.例えば,「知んねえんだ」の場合は,元の形として記入された「知らないのだ」と比較し,2番目から5番目までの文字(ん,ね,え,ん)が音変化を起こしていることが分かる.以上の理由により,本検証では,音変化を文字単位で扱うこととする.検証用データにおいては,2名の作業者のうち少なくとも1名のラベル付けの結果から元の形との差分として抽出された文字を検出対象として利用した.表\ref{data-stats}に,対象とした作品およびキャラクタの名称,キャラクタごとの発話文の数,各発話を構成する文字数の平均値,および,元の形との差分として抽出された文字の数を示す.なお,発話文の数が20に満たないキャラクタは「その他」としてまとめた.\begin{table}[p]\caption{検証用データに関する統計量}\label{data-stats}\input{06table01.tex}\par\vspace{4pt}\small発話数はデータに含まれる発話数,平均文字数は各発話を構成する文字数の平均値,音変化文字数は元の形との差分として抽出された文字の数を表す.\end{table}\subsection{網羅性の検証方法}\label{evalmethod}元の形との差分として抽出された文字のうち,本研究で提案する137種類の音変化パターンに該当するものとしないものがどの程度存在するのかを確認する.137種類のパターンに該当するか否かについて,全ての文字を目視で確認するのは大変な作業であるため,137種類の音変化パターンに該当する文字を自動検出する手段(以降,音変化検出器)を用意し,自動的に検出できなかった文字に対してのみ目視による確認を行うこととした.音変化検出器としては,(1)音変化表現辞書との文字列マッチングによる方法と,(2)形態素解析結果に基づく規則とのマッチングによる方法の2種類を用意した.これは,2種類の方法を併用することにより,検出性能を高めるためである.(1)を利用するのは,正しく形態素解析されない(誤った形態素分割や品詞付与が行われた)音変化表現を漏らさず検出するためであり,(2)を利用するのは,文字列マッチでは扱えない,品詞連接を考慮したマッチングや品詞に付随して出力される意味的・形態的情報を利用したマッチングを行うためである.\subsubsection{音変化表現辞書との文字列マッチングによる方法}\label{dictmatch}音変化表現辞書との文字列マッチングの処理の流れを図\ref{detect-flow}に示す.まず,検出の事前準備として,音変化表現辞書を作成する.具体的には,音変化表現作成規則(図\ref{detect-flow}のA;規則の例は表\ref{dictrule}を参照)を読み込み,各パターンの音変化表現を作成するための規則を実行するのに必要な語を日本語形態素解析システムJUMANversion7.01\cite{kurohashi:2012}の形態素辞書(図\ref{detect-flow}のB)から抽出し,抽出した語に対して規則を適用することで,各パターンに該当する音変化表現を作成する.このとき,パターンによっては,ウェブページ(2万ページ分)のコーパスを用いて作成された単語N-gramとその出現頻度\footnote{http://www.ar.media.kyoto-u.ac.jp/member/gologo/lm.html}(図\ref{detect-flow}のC)を利用して,出現頻度(つまり,キャラクタの発話において利用される可能性)が著しく低い語やフレーズを除外したうえで音変化規則を適用する.\begin{figure}[p]\begin{center}\includegraphics{26-2ia6f1.eps}\end{center}\caption{音変化表現辞書との文字列マッチングの処理の流れ}\label{detect-flow}\end{figure}\begin{table}[p]\caption{音変化表現作成規則および作成される表現の例}\label{dictrule}\input{06table02.tex}\par\vspace{4pt}\small【】で囲まれているのは,音変化の起きている文字.\end{table}表\ref{dictrule}に音変化表現作成規則および作成される音変化表現の例を示す.音変化表現作成規則は,表~{\AppTableNum}に記載の「パターンの説明」を音変化表現を作成するための規則として記載し直したものである.作成される表現の例において【】で囲まれているのは,音変化が起きている文字列である.なお,音変化検出器で利用する音変化表現辞書において音変化表現と呼んでいるものには,音変化が起きている文字列や,その文字列が属する語だけでなく,その語の左右に隣接する語も含まれていることがある.これは,マッチング対象の文字列をなるべく長くすることで,音変化表現の誤検出を防ぐためのものである.例えばP22のパターンに該当する音変化表現を作成する際は,まず,規則に従ってJUMANの形態素辞書から品詞が動詞または動詞性接尾辞である語(形態素)を抽出する.次に,抽出した語のテ形に「いく」の活用形を接続させ,さらにそこから「いく」の語幹である「い」を削除した形を作成する.このとき,「遭えていく」のように,元の形としても滅多に使われない(単語N-gramの出現頻度が閾値以下である)フレーズは除外したうえで音変化表現を作成する.なお,生産性のないパターンの場合は,JUMANの形態素辞書から語を抽出せずに音変化表現を作成する.表\ref{dictrule}の例では,P15がこれに該当する.また,元の形の出現頻度が閾値以下の語やフレーズを除外するか否か,および,閾値の設定はパターンによって異なる.\begin{table}[t]\caption{音変化表現との文字列マッチングの結果の例}\label{detect-result-sample}\input{06table03.tex}\end{table}音変化表現を検出する際は,キャラクタ発話(図\ref{detect-flow}のE)を読み込み,事前に作成しておいた音変化表現辞書(図\ref{detect-flow}のD)を参照して,キャラクタ発話の中から,音変化表現と完全に一致する部分文字列を検出する.表\ref{detect-result-sample}に,音変化表現との文字列マッチングの結果(図\ref{detect-flow}のF)の例を示す.文字列マッチングの結果は,発話ID,発話,音変化が起きているとして検出された文字の位置,どのパターンの音変化表現とマッチしたかを示すパターンIDで構成される.\mbox{表\ref{detect-result-sample}}では,分かりやすさのために音変化が起きているとして検出された文字を【】で囲んである.なお,「だけ【】ど」や「って【】こと」のように文字が脱落している場合は,脱落箇所の次の文字である「ど」や「こ」の文字位置を音変化文字位置としている.\subsubsection{形態素解析結果に基づく規則とのマッチングによる方法}\label{rulematch}形態素解析結果に基づく規則とのマッチングの処理の流れを図\ref{morph-rule-flow}に示す.まず,検出対象の発話を形態素解析にかけ,発話に含まれる形態素の表記および品詞の情報を取得する.形態素解析器としては,JUMANversion7.01\cite{kurohashi:2012}と,UniDic(unidic-mecabver.~2.1.2)\cite{den:2009}を辞書として指定したMeCab0.996\cite{kudo:2004}を利用した.次に,それぞれの形態素解析器で使用する形態素辞書の品詞体系に合わせて作成した音変化検出規則(図\ref{morph-rule-flow}のB,C)と形態素解析結果とを照らし合わせ,音変化の起きている文字列を検出する.\begin{figure}[b]\begin{center}\includegraphics{26-2ia6f2.eps}\end{center}\caption{形態素解析結果に基づく規則とのマッチングの処理の流れ}\label{morph-rule-flow}\end{figure}表\ref{jumanrule}にJUMANの品詞体系に合わせて作成した音変化検出規則の例を,表\ref{unidicrule}にUniDicの品詞体系に合わせて作成した音変化検出規則の例をそれぞれ示す.音変化検出規則はいずれも,音変化が起きている対象形態素の他に,その左右の形態素に関する条件を持ち,条件にマッチした形態素を音変化を含むものとして検出する.対象形態素,および,その左右の形態素に関する条件としては,形態素の表記と品詞(活用型・活用形を含む)を利用した.JUMANの解析結果において,「長音挿入」や「代表表記:る/る」(語幹の脱落がない場合は「代表表記:いる/いる」)など,音変化が起きていることを直接的に示す情報(意味情報の欄)が出力される場合は,これも規則に取り入れた.なお,UniDicの場合は,「連体形-撥音便」(e.g.,走\underline{ん}の)や「仮定形-融合」(e.g.,食べ\underline{りゃ})のように,音変化が起きていることを示す情報が活用形の中に組み込まれている.これらの規則を形態素解析結果と照らし合わせることで,表\ref{detect-result-sample}と同様の形式の検出結果を出力する.\begin{table}[p]\caption{音変化検出規則の例(JUMANの品詞体系用)}\label{jumanrule}\input{06table04.tex}\vspace{4pt}\small【】で囲まれているのは,音変化の起きている文字.\end{table}\begin{table}[p]\caption{音変化検出規則の例(UniDicの品詞体系用)}\label{unidicrule}\input{06table05.tex}\vspace{4pt}\small【】で囲まれているのは,音変化の起きている文字.\end{table}\subsection{検証の結果と考察}\label{result-and-analysis}\ref{dictmatch}節および\ref{rulematch}節で述べた方法で,元の形との差分として抽出された1,848文字のうち1,241文字(67\%)が検出された.一方で,残り607文字(33\%)は自動的には検出されなかったので,これらの文字が本研究で提案する137種類の音変化パターンに該当するものか否かを目視によって確認し,検出に成功した文字と合わせて,以下に示す5種類に分類した.\vspace{0.5\Cvs}\begin{description}\item[(1)音変化表現に該当しない]\item[(2)音変化表現に該当する]\mbox{}\begin{description}\item[a.検出成功]音変化検出器で検出された文字\item[b.検出器実装不足]137種類のパターンに該当はするが,音変化検出器で使用した音変化表現辞書や音変化検出規則の実装が不足していたため検出できなかった文字\item[c.パターン不足]137種類のパターンに該当しない文字\item[d.方言]方言と思われる表現に含まれる文字\end{description}\end{description}\vspace{0.5\Cvs}5種類の内訳は表\ref{mokushi-result}に示すとおりである.音変化に該当しないと判断した225文字にどのようなものがあったかは,表\ref{others-uchiwake}に示す.「っていう」の元の形として「という」が記入された場合など,語彙選択の問題として捉えたほうが良いと考えられるものは,音変化に該当しない文字とみなした.また,「だったら」の元の形として「そうだったら」が記入された事例のように,文頭の語が丸ごと消失する場合や,「ない」の元の形として「ないか」が記入された事例のように,文末の語が丸ごと消失する場合,および,「あ、あたし」のような言い淀みについても,音変化に該当しない文字とみなした.\begin{table}[b]\caption{元の形との差分として抽出された文字の内訳}\label{mokushi-result}\input{06table06.tex}\end{table}\begin{table}[t]\caption{音変化に該当しないと判断した文字の内訳}\label{others-uchiwake}\input{06table07.tex}\end{table}方言の一部だと判断した135文字にどのようなものがあったかは,表\ref{dialect-uchiwake}に示す.それぞれの表現について音変化に該当するのかそうでないのかを判断するのは難しいので,ここでは全てまとめて音変化表現に該当するとみなした.表\ref{dialect-uchiwake}を見ると,検証用データ作成時に仮定したとおり,方言を使用するキャラクタがいる作品を扱うことによって,本研究で提案する137種類のパターンでカバーされていなかった多様な表現を検証の対象とすることができたと分かる.\begin{table}[t]\caption{方言の一部だと判断した文字の内訳}\label{dialect-uchiwake}\input{06table08.tex}\end{table}パターン不足であった,つまり,本研究で提案する137種類のパターンに該当しない音変化である141文字にどのようなものがあったかを表\ref{husoku-uchiwake}に示す.表\ref{husoku-uchiwake}に記載の表現のほとんどが,現象・生起環境の面で他の音変化表現との共通性が乏しく生産性のあるパターンが作れないものであり,新たに生産性のあるパターンが作れそうな表現は,「置きっぱなし」(元の形:「置きはなし」)と「あんまり」(元の形:「あまり」)の2つだけであった.前者については,末尾に「はなし(放し)」が付く様々な語に適用できるパターンを作ることが可能だと考えられ,後者については,生産性のないパターンとして用意したP16「おんなじだ」やP17「まんま」と合わせて,ナ行・マ行音の前に「ん」が挿入されるパターンとしてまとめられそうである.その他,「うーむ」(元の形:「うむ」)は既存のパターンP2において,語末が「い」「し」「ん」だけでなく「む」である感動詞も扱うように拡張すれば「うーむ」や「ふーむ」がカバーできるようになる.「置きっぱなし」「あんまり」「うーむ」以外の表現は全て,生産性のあるパターンが作り難いものであった.つまり,本研究で提案する137種類のパターンで,生産性のある音変化表現のパターンの多くがカバーできていると言える.\begin{table}[p]\caption{パターン不足だと判断した文字の内訳}\label{husoku-uchiwake}\input{06table09.tex}\end{table}以上の目視確認の結果を受け,音変化に該当しない文字を除外して計算すると,表\ref{mokushi-result}に示すとおり,137種類の音変化パターンに該当する文字(検出成功と検出器実装不足の合計)は全体の83\%を占めることが分かる.さらに,方言と思われる表現に含まれる文字を除外して計算すると,137種類の音変化パターンに該当する文字は全体の90\%を占めることが分かる.これにより,本研究で提案する137種類が,検証の対象としたキャラクタの発話に現れる音変化表現の主要なパターンをカバーすることが確認できた.なお,音変化に該当しない文字を除外した(方言は含む)状態での音変化検出器の性能は,再現率0.76,適合率0.85,F値0.80である.再現率($Rec$),適合率($Prec$),F値($F$)は,音変化が起きていることを正しく検出できた文字の数を$TP$,音変化が起きていることを検出できなかった文字の数を$FN$,音変化が起きているとして誤って検出してしまった文字の数を$FP$としたとき,下記の式で算出する.\begin{equation}\label{rec-prec-f}Rec=\frac{TP}{TP+FN},\Prec=\frac{TP}{TP+FP},\F=\frac{2\cdotRec\cdotPrec}{Rec+Prec}\end{equation}また,各パターンの音変化表現辞書または音変化検出規則がマッチした回数を図\ref{pattern-freq}に示す.図\ref{pattern-freq}では,マッチした回数が2以上のパターンについて,マッチした回数を棒グラフで,マッチした回数の合計に対する比率の累積値を線グラフで表示している.この図から,マッチした回数が2以上のパターンは全137種類のうち56種しかなく,マッチした回数の多い上位5パターン(P43)までで全体の約50\%を,上位25パターン(P36)までで90\%を占めていることが分かる.音変化表現のバリエーションは多岐に渡るが,出現頻度はロングテールの傾向が強く,頻繁に観察されるパターンはそれほど多くないと言える.\begin{figure}[t]\begin{center}\includegraphics{26-2ia6f3.eps}\end{center}\caption{各パターンの音変化表現辞書,または,音変化検出規則がマッチした回数}\label{pattern-freq}\end{figure} \section{発話のキャラクタ付けにおける音変化表現の有用性検証} \subsection{検証方法}音変化表現が発話テキストへのキャラクタ付けにおいて有用かどうかを検証する.具体的には,表\ref{data-stats}に記載の9作品における「その他」を除く29キャラクタを対象として,各作品200発話の中から特定のキャラクタの発話を検出する実験を行い,発話にどのような音変化表現が含まれるかという情報を用いることで,検出性能が向上するか否かを検証する.音変化表現の情報を用いることで検出性能が向上すれば,小説やコミックにおける発話のキャラクタらしさと,発話における音変化表現の利用実態との間に何らかの関係性があることが確認できる.目的のキャラクタの発話の検出には,LIBLINEARversion2.1\cite{fan:2008}のロジスティック回帰(L2正則化)を用いた.学習と推定は10分割交差検定で行い,目的のキャラクタの発話である確率が0.5以上であると推定された発話を,目的のキャラクタの発話として検出した.使用する特徴量としては,以下の3種類を用意した.\vspace{0.5\Cvs}\begin{description}\item[Word]各発話に含まれる形態素の表記とその出現頻度.\item[Word+POS]各発話に含まれる形態素の表記および品詞とその出現頻度.\item[Word+POS+Pattern]各発話に含まれる形態素の表記および品詞と,\ref{evalmethod}節で述べた方法で検出された音変化表現の大分類(L1--L11),中分類(M1--M34)およびパターン(P1--P137)の出現頻度.\end{description}\vspace{0.5\Cvs}なお,形態素の表記と品詞を取得する際は,UniDic(unidic-mecabver.~2.1.2)\cite{den:2009}を辞書として指定したMeCab0.996\cite{kudo:2004}を利用した.UniDicの品詞には,「連体形-撥音便」(e.g.,走\underline{ん}の)や「仮定形-融合」(e.g.,食べ\underline{りゃ})のように,音変化が起きていることを示す情報が組み込まれているため,Word+POSの特徴量においても,発話中にどのような音変化表現があるかに関する情報の一部が含まれることになる.評価指標としては,再現率($Rec$),適合率($Prec$),F値($F$)を用いる.目的のキャラクタの発話として正しく検出できた数を$TP$,目的のキャラクタの発話として検出できなかった数を$FN$,目的のキャラクタの発話として誤って検出した数を$FP$として,(\ref{rec-prec-f})の式で算出する.\begin{figure}[b]\begin{center}\includegraphics{26-2ia6f4.eps}\end{center}\caption{各キャラクタの発話を検出した結果(F値)}\label{f-measure}\end{figure}\subsection{結果と考察}全29キャラクタのそれぞれについて,\pagebreak3種類の特徴量を利用して検出した結果(F値)を図\ref{f-measure}に示す.検出結果はキャラクタによってまちまちだが,いくつかのキャラクタにおいて,音変化表現の情報を使うことでF値が向上した.最も向上したのは『図書館戦争』の柴崎麻子で,形態素の表記と品詞を用いる方法(Word+POS)に音変化表現の情報を追加する(Word+POS+Patternを用いる)ことで,F値が0.15向上した.また,『ソードアートオンライン』については,対象としたキャラクタの全てにおいて,音変化表現の情報を用いる方法(Word+POS+Pattern)のF値が最も高かった.\begin{figure}[p]\begin{center}\includegraphics{26-2ia6f5.eps}\end{center}\caption{適合率・再現率曲線(『図書館戦争』および『ソードアートオンライン』のキャラクタ)}\label{rec-prec-both}\end{figure}『図書館戦争』および『ソードアートオンライン』のキャラクタに対する検出結果の適合率・再現率曲線を図\ref{rec-prec-both}に示す.この曲線は,目的のキャラクタの発話である確率がいくつ以上であれば目的のキャラクタの発話として検出するか(閾値)を少しずつ変化させ,様々な閾値を使用した場合の適合率と再現率をプロットしたものである.これを見ると,『図書館戦争』および『ソードアートオンライン』のキャラクタについては,再現率0.3以上の範囲において,概ね常に,音変化表現の情報を用いる方法(Word+POS+Pattern)の適合率が最も高くなっていることが分かる.形態素の表記・品詞と音変化表現の情報(Word+POS+Pattern)を特徴量として学習したロジスティック回帰のモデルにおいて,回帰係数(重み)の絶対値が大きい上位15件の特徴量を表\ref{weight-toshokan},表\ref{weight-sword}に示す.なお,ここで使うモデルは10分割交差検定の中で作成したものではなく,特徴量の分析のために,各作品につき全200発話を用いて学習し直したものである.『図書館戦争』,『ソードアートオンライン』のいずれのモデルにおいても,表記や品詞と並んで,音変化表現の情報が重みの絶対値の上位に挙がっている.表\ref{weight-toshokan}の『図書館戦争』のモデルで目を引くのは,堂上淳のモデル(重みの絶対値の上位15件)において音変化表現の情報に対する重みが全て負の値となっていることである.これは,堂上淳というキャラクタが,L4(脱落)やL1(長音挿入)といった,ごく一般的な音変化表現をあまり用いない人物として特徴づけられていることを示唆している.『ソードアートオンライン』の茅場晶彦にも同様の傾向が見られ,L4(脱落)やL2(促音挿入)といった音変化表現に対して負の重みが付与されている.\begin{table}[p]\hangcaption{『図書館戦争』の各キャラクタの発話を検出するためのロジスティック回帰のモデルにおいて,回帰係数(重み)の絶対値が大きい上位15件の特徴量(Word+POS+Pattern)}\label{weight-toshokan}\input{06table10.tex}\par\vspace{4pt}\small重みは小数点第5位を四捨五入して表示.\end{table}\begin{table}[p]\hangcaption{『ソードアートオンライン』の各キャラクタの発話を検出するためのロジスティック回帰のモデルにおいて,回帰係数(重み)の絶対値が大きい上位15件の特徴量(Word+POS+Pattern)}\label{weight-sword}\input{06table11.tex}\par\vspace{4pt}\small\hspace{54pt}重みは小数点第5位を四捨五入して表示.\end{table}堂上や茅場と対照的なのが,『ソードアートオンライン』のクラインである.表\ref{weight-sword}で示されているとおり,クラインのモデル(重みの絶対値の上位15件)に登場する音変化パターンに対する重みは全て正の値となっている.このモデルから,クラインというキャラクタが,L5(母音交替),L10(縮約),M10(語末の「う」の脱落)といった音変化表現を積極的に用いる人物として特徴づけられていることが示唆される.以上で述べた実験,および,特徴量分析の結果から,本研究で提案する音変化表現のパターンが発話のキャラクタらしさを特徴づけるうえで有用であることが示されたと言える. \section{まとめと今後の課題} 本研究では,発話テキストの自動生成における音変化表現の利用に向け,日本語の発話テキストに現れる音変化表現のパターンをテキスト処理において扱いやすい知識として整理した.具体的には,音変化表現を現象と生起環境の観点で分類し,137種類のパターンとして整理した.また,検証実験を通して,137種類のパターンが,小説やコミックのキャラクタの発話に出現する音変化表現の80\%以上をカバーすることを明らかにした.さらに,小説やコミックにおける発話文の話者(キャラクタ)を推定する実験を通して,音変化表現のパターンが,発話のキャラクタらしさを特徴付けるための有効な手段となることを示した.今後は,対話エージェントの発話や小説のセリフの自動生成において,音変化表現の生成を取り入れたいと考えている.そのためには,日本語として自然な音変化表現を生成できる必要があるが,本研究で提案したパターンに基づいて生成するだけでは,日本語として定着していない不自然な表現が出力される場合がある.例えば,P10で生成される「うっかつだ」(元の形:うかつだ)や,P11で生成される「あいっついで」(元の形:あいついで),P50で生成される「うんざし」(元の形:うんざり)は日本語の表現としてあまり自然なものとは感じられない.日本語として自然な音変化表現を生成するために,個々の表現の定着度合いや発話の状況など(例えば,話者が感情的になって話しているか),考慮すべき要因を明らかにし,それを反映できるテキスト生成の仕組みを作りたいと考えている.\bibliographystyle{jnlpbbl_1.5}\nocite{*}\begin{thebibliography}{}\bibitem[\protect\BCAY{伝}{伝}{2009}]{den:2009}伝康晴\BBOP2009\BBCP.\newblock多様な目的に適した形態素解析システム用電子化辞書(〈特集〉日本語コーパス).\\newblock\Jem{人工知能学会誌},{\Bbf24}(5),\mbox{\BPGS\640--646}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{fan:2008}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9}(Aug),\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{浜田}{浜田}{1955}]{hamada:1955}浜田敦\BBOP1955\BBCP.\newblockつまる音.\\newblock\Jem{国語学辞典},\mbox{\BPGS\655--656}.東京堂出版.\bibitem[\protect\BCAY{金水}{金水}{2011a}]{kinsui:2011:nihongo}金水敏\BBOP2011a\BBCP.\newblock役割語と日本語教育.\\newblock\Jem{日本語教育},{\Bbf150},\mbox{\BPGS\34--41}.\bibitem[\protect\BCAY{金水}{金水}{2011b}]{kinsui:2011}金水敏\JED\\BBOP2011b\BBCP.\newblock\Jem{役割語研究の展開}.\newblockくろしお出版.\bibitem[\protect\BCAY{小磯\JBA西川\JBA間淵}{小磯\Jetal}{2006}]{koiso:2006}小磯花絵\JBA西川賢哉\JBA間淵洋子\BBOP2006\BBCP.\newblock転記テキスト.\\newblock\Jem{日本語話し言葉コーパスの構築法}.国立国語研究所報告書,124\JNUM,2\JCH,\mbox{\BPGS\23--130}.国立国語研究所.\bibitem[\protect\BCAY{窪薗}{窪薗}{1999}]{kubozono:1999}窪薗晴夫\BBOP1999\BBCP.\newblock\Jem{現代言語学入門2日本語の音声}.\newblock岩波書店.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo:2004}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{黒橋・河原研究室}{黒橋・河原研究室}{2012}]{kurohashi:2012}黒橋・河原研究室\BBOP2012\BBCP.\newblock\Jem{日本語形態素解析システムJUMANversion7.0使用説明書}.\bibitem[\protect\BCAY{Li,Galley,Brockett,Spithourakis,Gao,\BBA\Dolan}{Liet~al.}{2016}]{Li:2016}Li,J.,Galley,M.,Brockett,C.,Spithourakis,G.,Gao,J.,\BBA\Dolan,B.\BBOP2016\BBCP.\newblock\BBOQAPersona-BasedNeuralConversationModel.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\994--1003}.\bibitem[\protect\BCAY{Mairesse\BBA\Walker}{Mairesse\BBA\Walker}{2007}]{mairesse:2007}Mairesse,F.\BBACOMMA\\BBA\Walker,M.\BBOP2007\BBCP.\newblock\BBOQPERSONAGE:PersonalityGenerationforDialogue.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\496--503}.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{masuoka-takubo:1992}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法—改訂版—}.\newblockくろしお出版.\bibitem[\protect\BCAY{泉子・K・メイナード}{泉子・K・メイナード}{2012}]{maynard:2012}泉子・K・メイナード\BBOP2012\BBCP.\newblock\Jem{ライトノベル表現論—会話・創造・遊びのディスコースの考察}.\newblock明治書院.\bibitem[\protect\BCAY{宮崎\JBA平野\JBA東中\JBA牧野\JBA松尾\JBA佐藤}{宮崎\Jetal}{2016}]{miyazaki:jsai2016}宮崎千明\JBA平野徹\JBA東中竜一郎\JBA牧野俊朗\JBA松尾義博\JBA佐藤理史\BBOP2016\BBCP.\newblock文節機能部の確率的書き換えによる言語表現のキャラクタ性変換.\\newblock\Jem{人工知能学会論文誌},{\Bbf31}(1).\newblockDSF-515.\bibitem[\protect\BCAY{Miyazaki,Hirano,Higashinaka,Makino,\BBA\Matsuo}{Miyazakiet~al.}{2015}]{miyazaki:paclic29}Miyazaki,C.,Hirano,T.,Higashinaka,R.,Makino,T.,\BBA\Matsuo,Y.\BBOP2015\BBCP.\newblock\BBOQAutomaticConversionofSentence-endExpressionsforUtteranceCharacterizationofDialogueSystems.\BBCQ\\newblockIn{\Bem29thPacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\307--314}.\bibitem[\protect\BCAY{Miyazaki,Hirano,Higashinaka,\BBA\Matsuo}{Miyazakiet~al.}{2016}]{miyazaki:sigdial2016}Miyazaki,C.,Hirano,T.,Higashinaka,R.,\BBA\Matsuo,Y.\BBOP2016\BBCP.\newblock\BBOQTowardsanEntertainingNaturalLanguageGenerationSystem:LinguisticPeculiaritiesofJapaneseFictionalCharacters.\BBCQ\\newblockIn{\BemProceedingsoftheSIGDIAL2016Conference},\mbox{\BPGS\319--328}.\bibitem[\protect\BCAY{斉藤\JBA貞光\JBA浅野\JBA松尾}{斉藤\Jetal}{2017}]{saito:2017}斉藤いつみ\JBA貞光九月\JBA浅野久子\JBA松尾義博\BBOP2017\BBCP.\newblock文字列正規化パタンの獲得と崩れ表記正規化に基づく日本語形態素解析.\\newblock\Jem{自然言語処理},{\Bbf24}(2),\mbox{\BPGS\297--314}.\bibitem[\protect\BCAY{笹野\JBA黒橋\JBA奥村}{笹野\Jetal}{2014}]{sasano:2014}笹野遼平\JBA黒橋禎夫\JBA奥村学\BBOP2014\BBCP.\newblock日本語形態素解析における未知語処理の一手法—既知語から派生した表記と未知オノマトペの処理—.\\newblock\Jem{自然言語処理},{\Bbf21}(6),\mbox{\BPGS\1183--1205}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2015}]{sato:2015}佐藤理史\BBOP2015\BBCP.\newblock小説生成器とはどんなシステムか.\\newblock\Jem{人工知能学会全国大会論文集},29\JVOL,\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{沈\JBA菊池\JBA太田\JBA三田村}{沈\Jetal}{2012}]{shen:2012}沈睿\JBA菊池英明\JBA太田克己\JBA三田村健\BBOP2012\BBCP.\newblock音声生成を前提としたテキストレベルでのキャラクタ付与.\\newblock\Jem{情報処理学会論文誌},{\Bbf53}(4),\mbox{\BPGS\1269--1276}.\bibitem[\protect\BCAY{山根\JBA佐藤\JBA松岡\JBA奥村}{山根\Jetal}{2013}]{yamane:2013}山根智恵\JBA佐藤友子\JBA松岡洋子\JBA奥村圭子\JEDS\\BBOP2013\BBCP.\newblock\Jem{研究社日本語口語表現辞典}.\newblock研究社.\end{thebibliography}\clearpage\appendix \section{検証用データの書誌情報} \vspace{-2\Cvs}\nociteaprefs{*}\bibliographyaprefs{aprefs} \section{音変化表現のパターン} \centerline{\small\textbf{表12}音変化表現のパターンの一覧}\par\input{06table12.tex}\vspace{-8pt}\small``*''が付与されているパターンは,例として挙げたもの以外に多くの表現が該当するもの(生産性のあるもの)である.パターンの説明における``+''は,その左右の語が連接することを指す.音変化表現の例にて``()''で囲まれた文字列は,音変化が起きる語の周辺語の例であり,``/''によって語の境界を示してある.\vspace{1\Cvs}\normalsize\begin{biography}\bioauthor{宮崎千明}{2008年南山大学外国語学部英米学科卒業,2010年名古屋大学大学院国際開発研究科博士前期課程修了.2010年日本電信電話株式会社入社.2016年NTTコミュニケーションズ株式会社へ転籍.2017年よりソニー株式会社勤務.現在,名古屋大学大学院工学研究科博士後期課程に在学.言語処理学会,人工知能学会各会員.}\bioauthor{佐藤理史}{1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.言語処理学会,人工知能学会,情報処理学会,日本認知科学会,ACM各会員.}\end{biography}\biodate\end{document}
V22N05-03
\section{はじめに} \label{sec_intro}近年,ブログ等の個人が自由に情報を発信できる環境の爆発的な普及に伴い,膨大なテキスト情報がWeb上に加速度的に蓄積され,利用できるようになってきている.これらの情報を整理し,そこから有益な情報を得るためには,「誰が」「いつ」「どこで」「何を」といった情報を認識するだけでなく,文に記述されている事象が,実際に起こったことなのかそうでないことなのかという情報を解析する必要がある.我々はこのような,文中の事象に対する,著者や文中の登場人物による成否の判断を表す情報を事実性と呼ぶ.\eenumsentence{\item[a.]\underline{\mbox{商品Aを使い}}始めた。\item[b.]\underline{\mbox{商品Aを使う}}のは簡単ではなかった。\item[c.]\underline{\mbox{商品Aを使っ}}てみたい。\item[d.]\underline{\mbox{商品Aを使っ}}ているわけではない。\item[e.]\underline{\mbox{商品Aを使っ}}ているはずだ。}\label{ex_ie}(\ref{ex_ie})に示す例は,いずれも「商品Aを使う」という事象が含まれるが,その事実性は異なる.(\ref{ex_ie}a)と(\ref{ex_ie}b)は,事象が成立していると解釈できる一方で,(\ref{ex_ie}c)と(\ref{ex_ie}d)は,事象は成立していないと解釈できる.さらに(\ref{ex_ie}e)は,事象の成立を推量していると解釈できる.評判分析などの文脈で,商品Aを使っているユーザの情報のみを抽出したい場合,(\ref{ex_ie})に示した全ての文に対して,「商品Aを使う」と照合するだけでは,(\ref{ex_ie}c)や(\ref{ex_ie}d)といった,商品Aを実際には使っていないユーザの情報まで抽出されてしまう.そこで事実性解析を用いると,(\ref{ex_ie}a)や(\ref{ex_ie}b)が実際に商品Aを使っており,(\ref{ex_ie}c)や(\ref{ex_ie}d)が使っていない,(\ref{ex_ie}e)は使っていない可能性がある,ということを区別することができる.事実性解析は,評判分析だけでなく,含意関係認識や知識獲得といった課題に対しても重要な技術である~\cite{Karttunen2005,Sauri2007,Hickl2008}.事実性解析は,事象が実際に起こったかを解析する技術ではあるが,真に起こったかどうかを与えられた文のみから判断することは不可能である.例えば,「太郎は先に帰ったはずです。」という文に対して,「太郎は帰った」という事象が真に事実か否かは,「太郎」にしか分からない.そこで本研究では,事実性を,文中の事象の成否について,著者の判断を表す情報と定義する.ただし,実際には著者の判断も真にはわからないため,著者の判断を読者がどう解釈できるかによって事実性を表す.前述の例では,著者は事象「太郎は帰った」の成立を推量していると読者は解釈できる.事実性の付与対象となる事象は,\citeA{Matsuyoshi2010}と同様に,行為,出来事,状態の総称であると定義する.\eenumsentence{\item[a.]雨が\event{降っ}$_{\mathrm{出来事}}$たら、バスで\event{行き}$_{\mathrm{行為}}$ます。\item[b.]\event{混雑}$_{\mathrm{状態}}$していたら、別のところに\event{行き}$_{\mathrm{行為}}$ます。}\label{ex:event}(\ref{ex:event})に示す例では,「(雨が)降る」,「(バスで)行く」,「混雑する」,「(別のところに)行く」が全て事象である.\event{}で囲まれた述語は,それぞれの事象の中心となる語であり,事象参照表現(あるいは単に事象表現)と呼ぶ.アノテーションや解析において,事実性のラベルは事象表現に付与する.先行研究では,事実性だけでなく,時制などの関連情報についても,付与基準が議論されるとともに,コーパス構築が進められてきた~\cite{Sauri2009,Matsuyoshi2010,Kawazoe2011,Kawazoe2011_report}.日本語を対象とした事実性解析の研究は少なく,述部(本研究の事象表現に相当)に続く表現形式によるルールベースの解析~\cite{Umezawa2008SAGE}や,機械学習に基づく解析器~\cite{Eguchi2010_nlp}がある.前者はその性能は報告されていないが,後者の解析性能は,9種類の事実性ラベルの分類性能がマクロF値で48\%であり,実用上十分とはいえない.事実性解析の性能向上が困難である理由の一つは,事象表現に続く機能表現の多様性にある.詳しくは\ref{sec_factvalue}節で述べるが,例えば「\event{使わ}\underline{ない}」「\event{使う}\underline{わけない}」「\event{使わ}\underline{ねぇ}」「\event{使う}\underline{もんか}」のように,事象が成立しないことを示す機能表現(下線部)が多々ある.機能表現以外に,「\event{使う}のを\underline{やめた}」のように,文節境界を越えて事象の不成立を示唆する述語(下線部)の存在もあり,さらにこれらの要素の組み合わせが,事実性解析の性能向上を阻んでいる.本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533文に含まれる3,734事象に適用した結果の誤りを分析する.このとき全ての事象表現に続く機能表現に対して意味ラベルを人手で付与する.要素の組み合わせを解きほぐすために,3,734事象を,最も文末に近い主事象1,533事象と,それ以外の従属事象2,201事象に分割し,それぞれについて誤り分析を行う.誤り分析の結果,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.また,機能表現解析の問題を除けば,誤りの半数は副詞に起因するものであった.一方で,従属事象の事実性解析は,主事象に比べて考慮すべき要素が多いため,性能も低いことがわかった.従属事象でのみ考慮すべき要素は大きく二つあり,文節境界を越えて事実性に影響を与える述語と,従属事象に直接付随しない機能表現の影響である.前者は,既存の辞書のカバレッジを調査した結果,これを利用することで誤りの一部を解消できるものの,さらなる拡充が必要であることが分かった.後者は,問題となるケースは多様ではないことと,隣接する事象の機能表現が及ぼす範囲(スコープ)を精緻に判定することで概ね解決できることを確認した. \section{関連研究} \label{sec_related}事実性に大きく関連する概念として,態度表明者の主観的な態度(モダリティ),および,肯定/否定があげられる.本研究における事実性は,事象の真偽に対する書き手の確信度を表した「真偽判断のモダリティ」\cite{Masuoka2007}と,肯定/否定の組み合わせに相当している.\subsection{タグ体系およびコーパス構築に関する研究}\label{subsec_corpus}事実性およびその周辺情報を付与するためのタグ体系およびコーパス構築の関連研究として,\citeA{Sauri2008_Guidelines,Sauri2009}によるFactBankや,\citeA{Matsuyoshi2010,Matsuyoshi2011}による拡張モダリティタグ付与コーパスなどがある.\citeA{Sauri2008_Guidelines,Sauri2009}は,事象を対象とし,以下の2つ組のタグによって事実性を定義した.\begin{description}\item[modality]事実らしさに対する態度表明者の確信度.CT(Certain),PR(Probable),PS(Possible),U(Underspecified)の4種類で表す\item[polarity]事象に対する確信の方向.+(positive),$-$(negative),u(underspecified)の3種類で表す\end{description}例えば,事象が実際に起こったことである,ということをCT+と表す.そして,事象とその時間情報や,事象間の時間的順序関係が付与されたTimeML~\cite{Sauri2006}の上に,確信度と肯否極性を態度表明者(source)ごとに付与する枠組みを提案し,FactBankと呼ばれるコーパスを構築した.\citeA{Marneffe2012}は,PR+とPS$-$,PS+とPR$-$をそれぞれ論理的に等価なラベルとして扱っており,それらのラベルを統合した,5種類のラベル体系による評価を行っている.\citeA{Matsuyoshi2010,Matsuyoshi2011}は,〈態度表明者〉,〈相対時〉,〈仮想〉,〈態度〉,〈真偽判断〉,〈価値判断〉の6項目からなる拡張モダリティタグ体系を設計し,それを現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}の各事象に付与したコーパスを構築した.彼らのタグ体系の内,〈真偽判断〉は\citeA{Sauri2009}の事実性に相当している.拡張モダリティタグ体系を用いた解析では,項目間の依存関係を考慮することが可能であるが,それ故に処理が複雑化してしまうという問題がある.本研究では,\citeA{Marneffe2012}の枠組みに基づいて事実性のラベルを定義する.この枠組みを利用することで,事実性を確信度と肯否極性の2軸に分けることができるため,問題の分析がしやすくなると考えた.誤り分析には,\citeA{Matsuyoshi2010,Matsuyoshi2011}の拡張モダリティタグ付与コーパスを用いる.事実性解析における課題分析をする上で十分な量であり,一般に利用可能なコーパスは他にないため,拡張モダリティタグのうち〈真偽判断〉を事実性の正解として利用し,事実性解析の誤り分析を行う.\subsection{解析および課題分析に関する研究}\label{subsec_method}事実性は,機械学習に基づく手法や,人手で構築した語彙的・統語的な知識を利用したパターンベースの手法などを用いて解析が行われているが,その性能および課題分析は十分でない.\citeA{Hara2008}は,事象の事実性情報を,時間情報と話者態度で表現し,SVMを学習器に用いた解析手法を提案した.\citeA{Inui2008}は,\citeA{Hara2008}の提案するタグ体系を整理統合し,条件付き確率場を学習器として用いた解析手法を提案した.SVMを用いるよりも,項目間の依存関係を考慮できる条件付き確率場を用いたほうが,高い精度を示すことが報告されている.\citeA{Eguchi2010_nlp}は,項目間,および事象間の依存関係を考慮できるFactorialCRF~\cite{Sutton2007}を用いた拡張モダリティ解析システムを構築した.事実性に関連の深い〈真偽判断〉には9種類のラベルが存在するが,そのマクロF値で48\%の性能を示している.さまざまな枠組みによって事実性の解析が行われているが,いまだ十分な性能は達成できておらず,その課題を分析する余地が多分に残されている.モダリティ解析における課題分析としては,\citeA{Matsuyoshi2011}が最大エントロピーモデルを用いた拡張モダリティ解析システム分析を試作し,その中の1つの項目である〈態度〉に着目した誤り分析を行っている.彼らは語義曖昧性解消や連体節内の述語に及ぼす影響の解明,節間の意味的関係の認識などが,〈態度〉に関するモダリティ解析の精度向上に向けた課題であることを述べている.事実性に,より直接的に関連する〈真偽判断〉の誤り分析でも同様の結果が得られるかどうかは明らかではない.英語においては,\citeA{Sauri2012}や\citeA{Marneffe2012}が事実性の解析に取り組んでいる.\citeA{Sauri2012}は,事象の成立に影響を与える手がかり表現を利用し,態度表明者ごとに,確信度と肯否極性で表される事実性を,依存構造木の根から伝搬させて解析する,パターンベースの決定的アルゴリズムを提案した.例えば{\itnot}があれば肯否極性を反転させる,{\itmay}があれば確信度を下げる,といったルールに基づいて解析を行い,F値でマクロ平均70\%,マイクロ平均80\%の性能を実現している.誤り分析の結果,ルールのカバレッジや表現の曖昧性が大きな問題であることを報告している.\citeA{Sauri2012}のアノテーション基準では,事実性は可能な限り客観的に判断される.一方で,\citeA{Marneffe2012}は,主観的な判断の自動推定に取り組んだ.主観的な判断とは,例えば態度表明者の社会的な信頼性によるものである.信頼に足る組織が表明した事象の事実性は,CT$+$にバイアスがかかるが,表明者が不明な場合は事象の事実性は,CT$-$にバイアスがかかる.彼女らは,FactBank中の各事象に対して,10名ずつアノテーションを行い,その分布を最大エントロピーモデルによって推定した.解析性能は,多数がアノテートしたラベルを正解とした場合に,F値でマクロ平均70\%,マイクロ平均83\%の性能をあげられている.本研究では,日本語事実性解析の課題に関して議論するために,機能表現に基づき,決定的に事実性を解析するルールベースのモデルを構築し,誤り分析を行う.ここでルールベースモデルを用いる理由としては,機械学習に基づく手法と比べ,出力結果がどのような要素に基づいて選択されたかがわかりやすく,本研究の目的とする,日本語事実性解析における課題の分析に対して適当であると判断したためである.また,事実性に影響を与える要素はさまざま存在しており,いろいろな要素を複合的に加味したモデルが提案されてきている.しかしながら,どの要素がどの程度事実性に影響を与えるのか,という分析は十分に行われていない.そこで,事実性に影響を与える要素を切り分けることにより,事実性解析における各要素の重要性を議論し,課題の分析を行う.\subsection{事実性に影響を与える要素に関する研究}\label{subsec_mergin}事実性に影響を与える要素としては,機能表現や後続する述語,および,それらの作用する範囲(スコープ)などがある.\eenumsentence{\item[a.]もう\event{遅い}から、彼は先に\event{帰っ}ている\underline{だろう}。\item[b.]問題が\event{発生する}のを\underline{防いだ}。}\label{ex_effect}例えば,(\ref{ex_effect}a)の事象「帰る」の事実性は,「だろう」という機能表現に影響を受け,(\ref{ex_effect}b)の事象「発生する」の事実性は,「防いだ」という述語に影響を受けている.また,(\ref{ex_effect}a)では,「だろう」という機能表現は「帰る」のみに影響を与え,先行する事象「遅い」には影響しない,というように,機能表現や後続する述語の作用する範囲,即ちスコープを特定することも,事実性解析において重要な要素だと考えられる.事実性に影響を与える表現として,「〜ない」「〜だろう」などの機能表現があり,このような日本語機能表現の意味に関連した研究が多く進められている.例えば,機能表現を網羅的に集めた辞書として,日本語機能表現辞書『つつじ』\cite{Matsuyoshi2007}が利用されている.この辞書は,日本語の機能表現の表層形約17,000種に対して,そのID,意味,文法的機能,音韻的変化などを網羅的に収録した辞書であり,機能表現の意味として,「対象」や「目的」,「名詞化」など,89種類のラベルが定義されている.その中には「推量」や「否定」,「疑問」など,事実性に影響を与えるラベルも多数含まれている.また,機能表現の中には表層を見ただけでは判別が難しいものも存在する.\enumsentence{パソコンが\event{壊れ}\underline{てしまったかも知れない}。}\label{ex_funcchunk}(\ref{ex_funcchunk})では,事象「壊れる」に対して,「てしまっ」「た」「かも知れない」という機能表現が付随している.「知る」という表現は,機能表現の一部として用いられるだけでなく,述語としても用いられるため,(\ref{ex_funcchunk})では「かも知れない」で1つの機能表現として用いられている,ということを判別する必要がある.このような曖昧性を解消するため,どの部分が機能表現なのかを特定し,その意味を同定する研究も行われている\cite{Suzuki2011,Imamura2011,Kamioka2015}.事実性に影響を与える述語に関する研究としては,\citeA{Eguchi2010_nlp}が構築した,モダリティ解析手がかり表現辞書がある.彼らは,「防いだ」のような,拡張モダリティに影響する動詞,形容詞が存在していることに着目した.こうした動詞,形容詞が直前の事象に与える影響を記述した,モダリティ解析のための手がかりを集めた表現辞書を作成し,機械学習による拡張モダリティ解析を行う上で,素性として利用している.このような表現を集めた利用可能なリソースは他に存在しておらず,この辞書を利用することでどの程度事実性解析の性能改善につながるのか,この辞書でどの程度の述語がカバーできているのか,といったことを調査する必要がある.事実性を決定する上で,否定や推量などのスコープを決定することは重要だと考えられる.否定表現および推量表現のスコープを同定する研究は,近年盛んに行われている.例えばBioScope~\cite{Szarvas2008}は,医学・生物学ドメインのテキストを対象に,否定表現,様相表現,そして,それらのスコープをアノテーションしたコーパスであり,このコーパスを用いてSharedTask~\cite{CoNLL2010,SEM2012}が開催されるなど,スコープを特定する研究に広く利用されている.日本語においては,\citeA{Kawazoe2011,Kawazoe2011_report}が,テキストに現れる事実とそれ以外の情報との区別,また推量や仮定などの間に見られる確実性の差を自動的に識別するため,様相表現,否定表現といった「確実性」に影響を与える言語表現を分析・分類し,それに従ってそれらの言語表現およびそのスコープをアノテーションしたコーパスを構築しているが,それらの定量的な分析を行うまでには至っていない.\citeA{Matsuyoshi2014}は,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し,否定の焦点コーパスを構築している.否定の焦点は,否定のスコープの中で特に否定される部分であるため,焦点の検出はスコープの特定と密接に関連している.このように,事実性に影響を与える要素がいくつか存在しており,これらの要素を複合的に考慮することで事実性を決定できると考えられる.しかしながら,どの要素がどの程度事実性に影響を与えるのか,ということは明確ではない.本研究では,これらの事実性に影響を与える要素を切り分け,事実性解析における各要素の重要性を議論することにより,課題の分析を行う. \section{誤り分析を通した課題分析の方針} \label{sec_factvalue}本節では,事実性解析に関連する種々の要素(機能表現や副詞など)について整理し,その関連性を述べる(\ref{sec:fact_features}節).事実性は,これらの要素が複合的に組み合わさって決定されるため,各要素の重要性を見極めるためには,これらを切り分けて分析することが肝要である.\ref{sec:fact_approach}節では,どのようにしてそれらを切り分けるのかを述べる.3.3節では,課題分析に用いるコーパスについて述べ,3.4節では,分析に用いるルールベースの事実性解析モデルについて述べる.\subsection{事実性解析に関わる言語要素}\label{sec:fact_features}先行研究によって,事実性解析に関連する言語要素は文内では大きく4つに分けられることが分かっている.事象に含まれる機能表現,疑問詞を含む副詞,文節境界を越えて事実性に影響を与える語とそのスコープ,その他の4種類である.図\ref{fig:sent_structure}に,文内での各要素の関係を示す.ここで,事象の中心的な述語を\textbf{事象表現}と呼び,事象の事実性は事象表現に割り当てられると定義する.以降の例では,\event{}で囲むことで表す.また,文中での出現位置によって事象表現を二種類に分類する.各文につき,最も文末に近い事象表現を\textbf{主事象}と呼び,それ以外の事象表現を\textbf{従属事象}と呼ぶ.図中の矢印は,その言語要素が事象表現の事実性に影響することを示している.以下では,その他以外の3つの要素について,事象表現の事実性にどのように関連するかを述べる.なお,文をまたいだ言語要素による否定や推量も存在するが,本研究では文内の現象のみを取り扱う.\begin{figure}[b]\begin{center}\includegraphics{22-5ia3f1.eps}\end{center}\hangcaption{事実性に関わる言語要素の構造}\centering\small矢印は,要素が事象表現の事実性に影響することを示す.\label{fig:sent_structure}\end{figure}\subsubsection{機能表現}事象表現に直接後続する機能表現(図\ref{fig:sent_structure}では,述語Aに対する機能表現A,述語Bに対する機能表現B)の問題は,多義性と表現の多様性の二つに大きく分けられる.\eenumsentence{\item[a.]太郎は\event{走っ}たんでした\underline{よね}$_{\mathrm{態度}}$\item[b.]太郎は\event{走る}んです\underline{よね}$_{\mathrm{疑問}}$}\label{ex:func_sem}まず,多義性について,(\ref{ex:func_sem})に示す2つの例には,いずれも機能表現「よね」が出現しているが,それが示す意味は異なる.(\ref{ex:func_sem}a)は「太郎が走る」ことを推量しているが,(\ref{ex:func_sem}b)は「太郎が走る」ことを確認していることから事象は成立していないことを示している.このような文を解析するためには,機能表現の多義性の解消は必須の技術である.\eenumsentence{\item[a.]太郎は\event{走ら}\underline{ない}$_{\mathrm{否定}}$。\item[b.]太郎は\event{走る}\underline{わけない}$_{\mathrm{否定}}$。\item[c.]太郎が\event{走ら}\underline{ねぇ}$_{\mathrm{否定}}$。\item[d.]太郎が\event{走れる}\underline{もんか}$_{\mathrm{否定}}$。}\label{ex:func_vari}次に,表現の多様性について,(\ref{ex:func_vari})に示す4つの例は,いずれも「太郎が走る」という事象が成立していないということを,異なる機能表現によって記述している.そのため,否定を認識するためには,典型的な否定の機能語である「ぬ,ない」だけでなく,「ねぇ,もんか」といった砕けた表現もとらえる必要がある.これらに加えて,複数の表現の組み合わせの問題がある.\eenumsentence{\item[a.]太郎は\event{走れ}\underline{なくなる}$_{\mathrm{否定}}$\underline{ようだ}$_{\mathrm{推量}}$。\item[b.]太郎が\event{走る}\underline{かもしれない}$_{\mathrm{推量}}$。}\label{ex:func_combi}機能表現の組み合わせは,複数の表現の意味が組み合わさって事実性を表す場合(\ref{ex:func_combi}a)と,単語自体では意味を持たず複数の語が組み合わさってはじめて意味を持つ場合(\ref{ex:func_combi}b複合辞と呼ばれる)がある.(\ref{ex:func_combi}a)は,否定の機能表現「なくなる」と,推量の機能表現「よう」が組み合わさることで,「太郎が走る」という事象が成立しないことを推測していることを示している.この事例を正しく認識するためには,機能語単位での意味ラベルだけでなく,その組み合わせに従って事実性を演算することが必要となる.一方,(\ref{ex:func_combi}b)は複合辞の事例であるが,「走る」に後続する3つの単語「かも,しれ,ない」は,ひとまとまりで推量の機能表現を構成している.このとき,「ない」は否定の意味を持っておらず,機能表現を解釈するには,特定の単語列を複合辞としてまとめた上でその意味を認識する必要がある.\subsubsection{述語周辺の副詞}事実性は,事象に後続する機能表現だけでなく,周辺の副詞(図\ref{fig:sent_structure}では,述語Aに対する副詞A,述語Bに対する副詞B)によって決定される場合がある.\eenumsentence{\item[a.]\underline{確か}太郎は\event{走っ}た。\item[b.]太郎は\underline{果たして}\event{走る}のだろうか。\item[c.]\underline{どうしたら}太郎は\event{走る}だろう。}\label{ex:func_fukushi}(\ref{ex:func_fukushi})に示す例は,いずれも下線部の副詞が事象「太郎が走る」の事実性に影響する.(\ref{ex:func_fukushi}a)では,副詞がなければ事象は成立しているが,副詞「確か」が付加されることによって確信度が下がる.(\ref{ex:func_fukushi}b)は,同様に「果たして」が付加されることにより,事象成立の確信度は大きく下がり,どちらかといえば事象は成立しないと読み取れる.(\ref{ex:func_fukushi}c)は,下線部の副詞がなければ,推量を意味する機能表現「だろう」により,事象の成立を推量していると読み取れる.しかし方法を問う副詞「どうしたら」が付加されることにより,事象は成立していないと読み取れる.また,このとき「だろう」は推量の意味を持たない.前述の例のように,事象表現の周辺に副詞が存在する場合,事実性に大きな影響を与える場合がある.副詞は,用法がまとめられた辞書はあるものの~\cite{Hida1994Fukushi},事実性に及ぼす影響についての研究は進められていない.よって,副詞が事実性に影響を与える事例を収集するところから着手する必要がある.\subsubsection{文節境界を越えて事実性に影響を与える語とそのスコープ}事象表現が含まれる文節よりも文末側に現れる語(図\ref{fig:sent_structure}では,述語Aに対する述語Bおよび機能表現B)によって,事実性が決定される場合がある.\eenumsentence{\item[a.]太郎は\event{走る}ことを\underline{拒否した}。\item[b.]太郎は\event{走る}と言っていたが、\underline{やめた}。\item[c.]太郎は\event{走り}も歩きもし\underline{なかった}$_{\mathrm{否定}}$。\item[d.]太郎は\event{走った}が、楽しく\underline{なかった}$_{\mathrm{否定}}$\underline{らしい}$_{\mathrm{伝聞}}$。}\label{ex:func_followings}(\ref{ex:func_followings})に「太郎が走る」という事象が,文節境界を越えた後続の述語や機能表現によって,否定あるいは推量されている事例を示す.(\ref{ex:func_followings}a)および(\ref{ex:func_followings}b)は,下線部の述語によって事象の成立が否定されている.このような述語は,他の事象表現の事実性に及ぼす影響を決定すること,その及ぼす範囲を決定することが重要である.(\ref{ex:func_followings}c)は,後続の述語「歩く」に付随する否定の機能表現「なかった」が,事象「太郎が走る」にも影響して,その事実性が否定であることが示唆される.一方で,(\ref{ex:func_followings}d)は,後続の述語「楽しい」に否定の機能表現「なかった」と,伝聞の機能表現「らしい」が付随するが,事象「太郎が走る」の事実性には影響せず,この事象が成立することが読み取れる.このように,後続の述語に付随する機能表現が,文節境界を越えて事実性に影響する場合があり,その範囲の同定は,否定/推量のスコープの問題として知られている.\subsection{課題分析の方針}\label{sec:fact_approach}事実性は,\ref{sec:fact_features}節で述べた各言語要素が単体で影響するだけでなく,その組み合わせによって決定される.\eenumsentence{\item[a.]太郎が\event{走ら}\underline{ない}$_{\mathrm{否定}}$というのは\underline{間違っていた}。(機能表現と後続する述語の組み合わせ)\item[b.]\underline{たぶん}太郎は\event{走ら}\underline{ない}$_{否定}$。(副詞と機能表現の組み合わせ)}\label{ex:fact_combi}例えば(\ref{ex:fact_combi}a)は,事象表現「走る」の直後にある否定の機能表現「ない」と,後続する述語「間違っていた」が組み合わさって,事象「太郎が走る」が成立することを示している.(\ref{ex:fact_combi}b)は,副詞と機能表現の組み合わせによって,事象が成立しないことが推量されている.課題分析においては,複合的に影響する要素は可能な限り切り分けることが重要である.そこで,事実性が機能表現のみで決定可能であるかという点と,文節境界を越えて後続する述語や機能表現の影響を受けるかという点の2つに着目して,課題を切り分ける.機能表現は,\ref{sec:fact_features}節で述べた3種類の要素の中では,記述的研究に基づいて体系化が進められている領域であり~\cite{Morita1989,Endo2003},辞書も整備されている~\cite{Matsuyoshi2007}ため,切り分けが容易であると考えた.文節境界を越えて後続する述語や機能表現の影響を受ける場合とそうでない場合とを切り分けるために,文の主節(日本語の場合は最も文末に近い述語節)に着目する.主節に位置する事象表現(主事象)は,文節境界を越えて後続する述語や機能表現を持たないため,その影響を受けることはない.それ以外の事象(従属事象)は,後続の述語や機能表現の影響を受ける可能性がある.まとめると,事実性解析課題の切り分けは図\ref{fig:approach}のようになる.\begin{figure}[b]\begin{center}\includegraphics{22-5ia3f2.eps}\end{center}\caption{事実性解析課題の切り分け}\label{fig:approach}\end{figure}課題の切り分けを効率的に行うために,機能表現に基づくルールベースの事実性解析器を構築する(詳細は\ref{sec:fact_model}節で述べる).本解析器は,各事象表現について,直接後続する機能表現の意味ラベルのみに基づいて事実性を決定する.事実性解析において,機能表現のみで事実性が決定可能な事例は少なくないと考えられる.そのため,偶然正解する可能性の低い解析器を用いることで,難度の低い事例を分析対象から除外し,課題分析に注力することができる.本解析器を主事象に対して適用すると,正解事例は機能表現のみで決定可能な事例であると判断できる.一方で,誤り事例は以下の3種類に分類できる.\begin{enumerate}\item機能表現の意味ラベルや解析器のルールがナイーブであることが原因で誤ったが,機能表現のみで決定可能な事例\item副詞の影響を受けるため機能表現のみでは決定できない事例\itemその他\end{enumerate}次に,従属事象に対して適用すると,正解事例は,主事象と同様に,機能表現のみで決定可能な事例である.一方で,誤り事例は以下の4種類に分類できる.\begin{enumerate}\item文節境界を越えて影響を及ぼす述語を持つ事例\item文節境界を越えて影響を及ぼす機能表現を持つ事例\item文節境界を越えて文末側に位置する述語や機能表現の影響を受けず,機能表現の意味ラベルや解析器のルールがナイーブであることが原因で誤ったが,機能表現または副詞によって決定可能な事例\itemその他\end{enumerate}このような誤り分析によって,事実性解析の性能を向上させるには,どの言語要素に注力することが重要か,また各要素の部分課題にどの程度の解析性能が要求されるのかが明らかとなる.\subsection{課題分析のためのコーパス構築}本研究では,課題分析のために拡張モダリティタグ付与コーパス\cite{Matsuyoshi2010,Matsuyoshi2011}を利用する.拡張モダリティタグ付与コーパスは,『現代日本語書き言葉均衡コーパス』(BCCWJ)\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}を付与対象としており,そのうちのYahoo!知恵袋データを利用して誤り分析を行う.拡張モダリティタグ付与コーパスを用いるのは,事実性に関する情報が付与されており,課題分析に十分な事例数が確保できるとともに,同様の規模の利用可能なコーパスが他にないためである.拡張モダリティタグ付与コーパスには,Yahoo!知恵袋データの他にも,新聞,書籍,白書を対象としたデータも含まれているが,本研究ではYahoo!知恵袋データを対象に分析を行い,その他のドメインに対する分析は今後の課題とする.その理由としては以下の2点がある.\begin{enumerate}\renewcommand{\labelenumi}{}\itemアノテーションガイドライン\footnote{http://cl.cs.yamanashi.ac.jp/nldata/modality/}の付録Bに「OC(Yahoo!知恵袋)の14,089事象に対しては、実装した解析システムの解析結果をフィードバックさせ、それを参照しながらのタグ見直し作業を数回行い、タグの質を向上させている。」と記載がある.できるだけ信頼性の高いタグで誤り分析を行うため,Yahoo!知恵袋データを利用した\item言論マップ(水野,渡邉,ニコルズ,村上,乾,松本2011)\nocite{Mizuno2011}や対災害SNS情報分析システム(後藤,大竹,DeSaeger,橋本,Kloetzer,川田,鳥澤2013)\nocite{Goto2013}などの,Webデータを用いたアプリケーションに対する利用を想定している\end{enumerate}拡張モダリティタグ付与コーパスには6,362文が収録されている.6,362文のうち,主事象に機能表現を一つ以上含む文は5,198文ある.そのうちの約30\%である1,533文をランダムに選択し,課題分析の対象とした.この中には,主事象が1,533事象,従属事象が2,201事象含まれている.事実性ラベルは,\citeA{Sauri2009}の体系を一部簡素にした\citeA{Marneffe2012}によるラベル体系を採用する.本体系は,3種類の確信度と,3種類の肯否極性の2軸に分けて事実性を定義しており,それぞれの軸で評価できることが,課題分析に有効であると考えた.拡張モダリティタグ付与コーパスの真偽判断タグと,事実性ラベルとの対応を表\ref{tab_def}に示す.表\ref{tab:fact:distribution}に,本実験の解析対象である1,533文における,主事象と従属事象の事実性の分布を示す.\begin{table}[b]\caption{確信度と肯否極性の組み合わせによる事実性のラベル}\label{tab_def}\input{03table01.txt}\vspace{4pt}\small下段は拡張モダリティタグ付与コーパスの真偽判断タグとの対応\end{table}\begin{table}[b]\caption{コーパス中の事実性の分布}\label{tab:fact:distribution}\input{03table02.txt}\end{table}事実性は,それを判断したのが著者なのか,あるいは文中の登場人物なのかによって変化する.\citeA{Sauri2009}は,著者以外の文中の登場人物から見た事実性も考慮してアノテーションを行っている.以下に\citeA{Sauri2009}によるFactBankのアノテーション例を示す.\enumsentence{Hedoesnot\textbf{\underline{think}}$_{e_0}$she\textbf{\underline{followed}}$_{e_1}$therules.\\f($e_0$,{\ttauthor})=CT$-$\\f($e_1$,{\ttauthor})=Uu\\f($e_1$,{\tthe\_author})=PR$-$}\label{ex_factbank}f($e$,{\tts})は態度表明者{\tts}から見た事象$e$の事実性を示している.この文では,著者から見た$e_0$~({\bfthink})の事実性がCT$-$,著者から見た$e_1$~({\bffollowed})の事実性がUuであることが付与されるとともに,文中の登場人物{\ithe}から見た$e_1$~({\bffollowed})の事実性を著者はPR$-$と判断している,ということが付与されている.一方で,\citeA{Marneffe2012}は著者から見た事実性のみに焦点を当てている.日本語においては,\citeA{Matsuyoshi2011}が登場人物ごとの事実性判断をアノテーションしている.しかしながら,彼らの構築したコーパスでは,著者が事実性を判断している事象が,いずれのドメインにおいても9割前後という大きな割合を占め,著者以外の事実性判断を認識すべき事象は少ない.これらの事実を背景として,本研究では著者の事実性のみを解析対象とする.著者以外から見た事実性に関しては,今後の課題とする.機能表現に関連する問題であるかを切り分けるために,1,533文に含まれる3,734個の事象について,それに続く機能表現に意味ラベルを付与した.機能表現の意味ラベルは,記述的研究\cite{Morita1989,Endo2003}に基づいて体系化された『つつじ』~\cite{Matsuyoshi2007}がある.しかし,\citeA{Imamura2011}によると,『つつじ』に掲載されていない機能表現および意味ラベルが存在する.本研究では,『つつじ』に不足する機能表現や意味ラベルを拡充しながら,事象表現に付随する機能表現の意味ラベルを付与した.『つつじ』では89種類の意味ラベルが定義されているが,1,533文からなる本コーパスに付与された意味ラベルは66種類であった.『つつじ』には名詞に続く格助詞なども掲載されているが,それらは本研究では付与対象外であるため,付与されたラベルの種類は少なくなる.構築したコーパスは,BCCWJとの差分データとして,アノテーション仕様と合わせて公開している\footnote{http://tinyurl.com/ja-fe-corpus}.\subsection{誤り分析に用いる事実性解析モデル}\label{sec:fact_model}日本語事実性解析における課題分析のため,挙動が明確なルールベースモデルを用いて事実性解析を行う.事実性解析器の入力は,解析対象となる事象表現,文全体の形態素情報,および事象表現に付随する機能表現の意味ラベル列であり,入力された事象表現に対して事実性ラベルを付与して出力する.事実性を付与すべき事象表現の同定に関しては,あらかじめ正解を与える.形態素情報は,UniDic体系で与えられているが,機能表現はIPA辞書体系であるため,自動でマッピングを行っている.本研究では,事実性の解析に,各事象表現よりも後ろにある機能表現の意味ラベルを利用する.例えば,$\langle\text{否定}\rangle$の機能表現が付随している場合には肯否極性を反転する,といった事実性更新ルールを適用する.主事象の事実性は,文末から主事象の間に存在する,すべての機能表現の意味ラベル列に基づいて更新ルールを適用することで決定される\footnote{疑問符も事実性に影響を与える要素として考えられるが,疑問符があっても,事実性がCT+である事象も少なくないため,本研究では採用していない.}.従属事象の事実性は,従属事象から次の内容語までの間に連なる機能表現の意味ラベル列に基づいて更新ルールを適用することで決定される.更新ルールは以下の3種類を用いる.\begin{enumerate}\renewcommand{\labelenumi}{}\item機能表現の意味ラベルが$\langle\text{否定}\rangle\langle\text{否定意志}\rangle\langle\text{否定推量}\rangle\langle\text{無意味}\rangle\langle\text{不明確}\rangle\langle\text{不可能}\rangle\langle\text{回避}\rangle\linebreak\langle\text{不必要}\rangle\langle\text{放置}\rangle\langle\text{困難}\rangle$のいずれかの場合,肯否極性を反転する\item機能表現の意味ラベルが$\langle\text{推量-不確実}\rangle$$\langle\text{推量-高確実性}\rangle$$\langle\text{否定推量}\rangle$$\langle\text{意志}\rangle$$\langle\text{否定意志}\rangle$\linebreak$\langle\text{伝聞}\rangle$$\langle\text{様態}\rangle$$\langle\text{容易}\rangle$$\langle\text{困難}\rangle$のいずれかの場合,確信度を下げる\item機能表現の意味ラベルが$\langle\text{疑問}\rangle$$\langle\text{勧誘}\rangle$$\langle\text{勧め}\rangle$$\langle\text{願望}\rangle$$\langle\text{依頼}\rangle$のいずれかの場合,事実性をUuにする\end{enumerate}更新ルールは,機能表現の意味ラベルの定義およびその表現例にもとづき,人手で設計した.それぞれの意味ラベルにおける表現例と,コーパス中にその意味ラベルをもつ機能表現が出現した延べ数を表\ref{tab:fe}に示す.延べ数が0の意味ラベルは,分析対象のコーパスに一度も出現していない意味ラベルである.\begin{table}[b]\caption{更新ルールと意味ラベルの対応}\label{tab:fe}\input{03table03.txt}\end{table}\begin{algorithm}[t]\caption{ルールベースの事実性解析モデル}\label{alg:model}\input{03algo01.txt}\end{algorithm}ルールベースモデルのアルゴリズムをAlgorithm~\ref{alg:model}に示す.本モデルは,事象に付随する機能表現に基づく更新ルールを順次適用することで,事象の事実性を決定するモデルとなっている.以下にこのアルゴリズムによる解析例を示す.\enumsentence{小さい方がいい場合も\event{ある}\underline{らしい}$_{伝聞}$\underline{ので}$_{理由}$一概にそうとも\event{言え}\underline{ない}$_{否定}$\\\underline{みたい}$_{推量\mathchar`-不確実}$\underline{です}$_{判断}$。}\label{ex:factuality:model}主事象「言う」の事実性を決定する場合には,付随している3つの機能表現「ない」「みたい」「です」の意味ラベル列である$\langle\text{否定}\rangle$$\langle\text{推量-不確実}\rangle$$\langle\text{判断}\rangle$に基づいて解析を行う.Algorithm~\ref{alg:model}中の$C$,$P$は,それぞれ確信度,肯否極性の値をもつ変数であり,最終的にこれらの組み合わせで事実性の値を表す.初期値として,$C$にCT,$P$に+を割り当てる(line3).次に,文末側から順に,機能表現の意味ラベルに対応した更新ルールを適用していく(line4--20).まず,「です」は$\langle\text{判断}\rangle$の機能表現であり,更新ルール1--3のいずれにも該当しないため,$C$,$P$は更新しない.次に,「みたい」は$\langle\text{推量-不確実}\rangle$の機能表現であり,更新ルール2に該当するため,$C$をPRに更新し,$P$は更新しない(line12--16).最後に,「ない」は$\langle\text{否定}\rangle$の機能表現であり,更新ルール1に該当するため,$C$は更新せず,$P$を$-$に更新する(line5--11).結果的に,$C=PR$,$P=-$となり,主事象「言う」の事実性としてPR$-$が得られる(line21).従属事象「ある」の場合は,直後に連なる機能表現列である「らしい」「ので」の意味ラベル列$\langle\text{伝聞}\rangle$$\langle\text{理由}\rangle$に基づいて,更新ルール2のみを適用する(line12--16).その結果,従属事象「ある」の事実性はPR+となる.\begin{table}[b]\caption{機械学習モデルで用いた素性一覧および(\ref{ex:factuality:model})における素性抽出例}\label{tab:zunda}\input{03table04.txt}\end{table}本モデルは機能表現の意味ラベルのみを用いたシンプルなモデルであるため,必要以上に多く誤解析してしまう恐れがある.そこで,既存の素性~\cite{Eguchi2010_nlp}を,オープンソースのモダリティ解析器Zunda~\cite{Mizuno2013}\footnote{https://code.google.com/p/zunda/}に実装することで,リファレンスとなる解析性能を得る.Zundaは,拡張モダリティタグ体系に基づいて,タグごとに線形分類器による多クラス分類を行う.まず,真偽判断タグのラベルを表~\ref{tab_def}に基づいて本研究の事実性ラベルに置き換える.他の5種類のタグについては,拡張モダリティタグをそのまま採用する.次に,素性は,\citeA{Eguchi2010_nlp}で利用されている素性のうち,リソースが利用可能なものを利用する.表~\ref{tab:zunda}に,利用した素性の一覧と(\ref{ex:factuality:model})から抽出される素性の例を示す.「事象選択述語が示唆する事実性」は,5.1節で詳述するが,解析対象の素性として述語が含まれる文節の係り先文節に含まれる述語が示唆する事実性である.例えば「たばこを/\event{吸う}のを/\event{やめる}。」について,「やめる」は係り元文節中の「吸う」がCT$-$であることを示唆する述語であることから,「吸う」を解析するとき,その事実性がCT$-$であることが示唆されるという素性を抽出する.最後に,分類器について,\citeA{Eguchi2010_nlp}は事象間の依存構造が考慮できるFactorialCRF~\cite{Sutton2007}を利用していたが,ZundaはLIBLINEAR~\cite{REF08a}\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/liblinear/の1.80を利用した.}を利用している.事象間の依存関係を考慮するため,解析対象の事象より文末側にあり,かつ最も近傍にある事象の拡張モダリティタグのうち,真偽判断と態度の2つについて,その解析結果を素性として利用する.例えば(\ref{ex:factuality:model})では,解析対象が「ある」のときに,素性として「言う」の解析結果を利用する.LIBLINEARの学習アルゴリズムは,L2正則化ロジスティック回帰を利用し,パラメータはweightを0に設定した以外はデフォルトの値を利用した(epsilon$=0.1$,cost$=1$,bias$=-1$).評価は10分割交差検定によって行う.文単位で分割することによって,同一文中の複数の事象が学習データとテストデータに属することはない.交差検定の段階では,主事象と従属事象は区別せずに学習させるが,精度と再現率を算出する段階では,主事象と従属事象を区別する.ルールベースによる解析モデルを主事象に適用し,誤り分析を行うことで,機能表現のみで事実性が決定可能な事例の割合を明らかにするとともに,副詞の影響を受ける事例がどの程度存在するのか,また,その他の要素はどのようなものがあるのかを明らかにする.次に,ルールベースによる解析モデルを従属事象に適用し,誤り分析を行うことで,機能表現以外の事実性を決定するための要素に関して,その重要性を定量的に分析し,事実性解析の今後の方針を議論する. \section{主事象に対する事実性解析} \label{sec_matrix}\begin{table}[b]\caption{主事象に対する事実性解析の評価}\label{tab:eval:mat:fact}\input{03table05.txt}\end{table}\ref{sec:fact_model}節で構築した事実性解析器を主事象に対して適用し,誤り分析を行うことで,機能表現のみで決定可能な事象,副詞の影響を受ける事象,その他の3種類に分類する.対象となる事象は1,533事象あり,その解析結果を表\ref{tab:eval:mat:fact},\ref{tab:eval:mat:axis}に示す.表\ref{tab:eval:mat:fact}には,確信度と肯否極性を組み合わせた事実性の各ラベルにおける精度,再現率,F値,およびそれらのマイクロ平均,マクロ平均を示した.表\ref{tab:eval:mat:axis}には,確信度と肯否極性の二軸それぞれにおける精度,再現率,F値,およびそれらのマクロ平均を示した.これらの結果から,機能表現のみを利用したシンプルなルールベースモデルであっても肯否極性は高い精度,再現率で判定可能であることが分かる.一方で,確信度については,PRの分類性能は高くない.また,機械学習ベースのモデルでは,機能表現などの素性も導入されているものの,十分な性能があげられていない.これは,事例数の偏りや,機能表現の多様性などの要因により,事実性解析が簡単な課題ではないことを示している.ルールベースモデルと機械学習ベースのモデルとを比較すると,全体の事例数が少なく,大きな偏りもあるため,機械学習ベースのモデルの方が若干不利ではあることを考慮しても,ルールベースモデルは,機械学習ベースのモデルと遜色ない性能を示している.このことから,本ルールベースのモデルの性能は極端に低いわけではなく,このモデルを用いた誤りを分析することで,事実性解析の課題分析を行うのは妥当であるといえる.\begin{table}[b]\caption{主事象に対する事実性解析の各軸ごとの評価}\label{tab:eval:mat:axis}\input{03table06.txt}\end{table}\begin{table}[b]\caption{誤りの種類の分布}\label{tab:error:mat}\input{03table07.txt}\vspace{4pt}\centering\smallカッコ内は,事実性のアノテーション誤りを除いた部分での誤りの割合\end{table}前述の実験で正解した事象は,機能表現のみで決定可能な事象であると判断することができる.残る240個の誤り事例を分析することによって,機能表現の意味ラベルあるいは事実性解析モデルが原因による誤り事例,副詞の影響を受ける事例,その他の事例に分類する.誤り分析の結果を表\ref{tab:error:mat}に示す.機能表現のみで決定可能な事例が4割以上と,まだ多く残されている.本実験で用いたルールは人手で構築しているため,ルールの改善の余地が残されている.このようなルールが改善でき,機能表現をしっかり捉えることが出来るようになると,すでに正解できている1,293事例と合わせて,機能表現のみで90.5\%(1,387/1,533)の正解率をあげられることがわかった.\eenumsentence{\item[a.]ビタミンは、野菜や海草から\event{補給する}\underline{べき}$_{当為}$\underline{です}$_{判断}$。\\(正解ラベルに基づく解析:CT+,正解:Uu)\item[b.]入札前に\event{確認す}\underline{べき}$_{当為}$\underline{でし}$_{判断}$\underline{た}$_{完了}$\underline{ね}$_{態度}$。\\(正解ラベルに基づく解析:CT+,正解:CT$-$)\item[c.]大至急オーストラリアへ書類を\event{送ら}\underline{なくてはなりません}$_{当為}$。\\(正解ラベルに基づく解析:CT+,正解:PR+)}\label{ex:factuality:addrule}(\ref{ex:factuality:addrule})は,機能表現だけで事実性を決定できるものの,現在の更新ルールが不足しているために誤った事例である.このようなルール不足に起因する誤りとしては,$\langle\text{当為}\rangle$や$\langle\text{不許可}\rangle$のように,更新ルールを割り当てるべき意味ラベルを追加することで改善が期待できる事例が見られた.(\ref{ex:factuality:addrule}a)の機能表現「べき」「です」はそれぞれ$\langle\text{当為}\rangle$$\langle\text{判断}\rangle$の意味をもっているが,これは,$\langle\text{当為}\rangle$に関する更新ルールが不足していたことによる誤りである.(\ref{ex:factuality:addrule}a)は$\langle\text{当為}\rangle$を更新ルール3の適用対象に加えれば解決する問題である.今回の分析対象のコーパス中に,$\langle\text{当為}\rangle$が付随している主事象は,8事例見られた.そのうち,更新ルール3を変更することによって,もともと正解できていた事例が2事例,誤りだった事例が正解できるようになる事例が4事例,もともと誤っており,更新ルール3を変更しても正解できない事例が2事例あり,正解できていた事例が誤りとなるような事例は見られなかった.更新ルール3を変更しても正しく解析できない事例を(\ref{ex:factuality:addrule}b),(\ref{ex:factuality:addrule}c)に示す.(\ref{ex:factuality:addrule}b)では,「確認する」に付随する機能表現列は,$\langle$当為$\rangle$$\langle\text{判断}\rangle$$\langle\text{完了}\rangle$$\langle$態度$\rangle$であるから,その事実性はCT$+$となるが,正解はCT$-$である.この場合,更新ルール1の適用対象として$\langle\text{当為}\rangle$と$\langle$完了$\rangle$の組み合わせを追加し,更新ルール3は適用しないように変更することで正しく解析することができる.$\langle\text{当為}\rangle$と$\langle$完了$\rangle$の両方が付随する事例は,コーパス中に1事例のみであることから,この変更による悪影響はない.本分析では,1,533文を分析したが,このように一度しか現れない機能表現のパターンがある.従って,更新ルールを洗練するには,規則ベース,学習ベースのいずれのアプローチをとるにせよ,機能表現の意味ラベルのアノテーションを拡充していく必要があるであろう.(\ref{ex:factuality:addrule}c)は,「大至急」という副詞があることからPR+と判断されている.この事例は$\langle\text{当為}\rangle$を考慮するだけでは不十分で,「大至急」という副詞を考慮しなければならない.一方で,副詞の影響を加味する必要がある事例は半分近くにのぼった.\eenumsentence{\item[a.]\underline{やはり}この御時世、\event{きつい}のではない\underline{でしょうか}$_{疑問}$?\\(正解ラベルに基づく解析:Uu,正解:PR+)\item[b.]\underline{どうやって}\event{判別し}てる\underline{んでしょうか}$_{疑問}$?\\(正解ラベルに基づく解析:Uu,正解:CT+)}\label{ex:factuality:discussion}(\ref{ex:factuality:discussion})は,機能表現だけは不十分であり,副詞と機能表現とを組み合わせる必要がある事例である.いずれの事例も,$\langle\text{疑問}\rangle$の機能表現が後続しているため,主事象の事実性はUuと解析された.しかしながら,(\ref{ex:factuality:discussion}a)は,問いかけではあるものの,推量の意味合いが強いため,正解はPR+となっている.(\ref{ex:factuality:discussion}b)は,前提として起こった事象である「判別する」の方法を問う文であるため,CT+が正解である.このような事象の事実性を決定するためには,$\langle\text{疑問}\rangle$の機能表現を利用するだけでは不十分であり,「やはり」や「どうやって」のような副詞を手がかりとし,それらを組み合わせて解析する必要がある.\enumsentence{\underline{おそらく}ただの\event{見栄っ張り}です。\\(正解ラベルに基づく解析:CT+,正解:PR+)}\label{ex:factuality:adverb}(\ref{ex:factuality:adverb})では,事実性に影響を与えるような機能表現は付随していないが,その代わりに副詞「おそらく」によって事実性が決定されている.どのような副詞が事実性に影響を与えるかを分類し,手がかりとして捉える必要がある.また,機能表現や副詞のみでは決定できない,その他の誤りとして,機能表現の省略による誤り事例が見られた.\enumsentence{とれないので\event{注意}!!\\(正解ラベルに基づく解析:CT+,正解:Uu)}\label{ex:notfunc}例えば(\ref{ex:notfunc})では,事象「注意」で文が終わっており,機能表現が存在していないが,依頼の意味をもつ文であることが解釈できる.しかしながら,機能表現のみに基づいた解析では,機能表現が存在していないために依頼の意味を捉えられず,正しく解析することができない.そこで,文末の感嘆符など,機能表現以外の要素を利用して解析を行わなければならない.また,「注意」で文が終わる場合には依頼文であることが多いと予測できるため,事象自身の情報を利用することで,「注意」で終わる場合には依頼であると判定する,といったことが考えられる.形態素解析やアノテーションの誤りについて,正しい情報が与えられた場合についても検証した.まず,形態素解析および機能表現のアノテーション誤りが解消された場合,事実性も正しく解析可能であることが分かった.また,事実性のアノテーション誤りについては,システムが出力したラベルの方が正しいことが分かった.以上より,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.3節で述べたように,現在の機能表現の意味ラベルは,既存の記述的研究に基づいた体系になっているが,これが事実性解析に最適な体系になっているかを評価することは容易ではない.しかし,現在の体系でも90\%に迫る正解率が得られる余地があることは,この体系に基づく機能表現の解析モデルを研究開発することに一定の支持を与えるものと考える.今後は,\citeA{Kamioka2015}のような機能表現解析の研究に注力したい.もう一つの大きな課題は副詞の扱いである.今回得られた誤りの半数近くは副詞に起因するものであった.意味解析における副詞の扱いは先行研究も乏しく,辞書の整備を初め,やるべき課題は多い.まずは事実性解析という切り口で,それに関連する情報に焦点を当ててリソースを設計・開発していく予定である. \section{従属事象における事実性解析} \label{sec_subord}表\ref{tab:eval:sub:fact},\ref{tab:eval:sub:axis}に,2,201の従属事象に対して事実性解析器を適用した結果を示す.主事象の場合と比較すると,全体の性能は下がっており,従属事象の方が解析が難しいことがわかる.機械学習ベースのモデルと比較すると,主事象の場合と同様に,ルールベースモデルが,機能表現等が素性に入った機械学習ベースのモデルと遜色ない性能を示している.従属事象の場合においても,本ルールベースのモデルの性能は極端に低いわけではなく,このモデルを用いた誤りを分析することで,事実性解析の課題分析を行うのは妥当であるといえる.\begin{table}[b]\caption{従属事象に対する事実性解析の評価}\label{tab:eval:sub:fact}\input{03table08.txt}\end{table}\begin{table}[b]\caption{従属事象に対する事実性解析の各軸ごとの評価}\label{tab:eval:sub:axis}\input{03table09.txt}\end{table}従属事象において,機能表現以外に考慮すべき要素として,どのような要素が重要なのかを定量的に分析するために,正解ラベルを用いた場合の誤り分析を行う.主事象においては機能表現が付随している事象のみ扱ったが,機能表現が付随した主事象を含む文における従属事象を対象としているため,必ずしもすべての従属事象に機能表現が付随しているとは限らない.そこで,機能表現が付随している事象であるか否かをまず分類する.また,名詞述語なのか,動詞や形容詞といった述語なのかが,事実性解析の難易度に影響していると考えられるため,名詞述語なのか否かに従属事象を分類する\footnote{単純に事実性が付与された名詞をすべて名詞述語と分類するわけではないため,人手による分類を行っている.例えば「判別する」「判別できる」など,「〜する」「〜できる」が付随する場合には,まとめて動詞述語として扱うが,「判別をする」といった場合には「判別」を名詞述語,「する」を動詞述語として扱い,「判別」が「する」の項になっていると判断する.}.510の誤り事例の中から,200事例をランダムにサンプリングし,誤り分析を行った.従属事象特有の誤りとしては,後続する述語の影響が事実性を決めている場合と,さらにその後ろの機能表現が事実性を決めている場合の2種類が考えられる.\eenumsentence{\item[a.]安いものだと\event{防水}は怪しいです。\\(正解:PR$-$,システム:CT+)\item[b.]物語を\event{楽しみ}つつ、\event{冒険}を堪能してください。\\(「楽しむ」正解:Uu,システム:CT+,「冒険する」正解:Uu,システム:CT+)}\label{ex:suberror}(\ref{ex:suberror})は,機能表現の正解ラベルを用いても正解できなかった従属事象の例である.まず(\ref{ex:suberror}a)の従属事象「防水する」は,事実性の正解がPR$-$であるが,「防水する」自身に付随している機能表現だけでこれが決まっているわけではなく,後続する述語であり,疑いをもっていることを示す表現である「怪しい」の影響が大きい.このように,従属事象に後続する述語が事実性を決めている場合を「後続する述語の影響」による誤りと分類した.このような事象の事実性を解くためには,どの述語が事実性にどういった影響を与えるかを分類する必要がある.次に(\ref{ex:suberror}b)の「楽しむ」および「冒険する」は,正解がUuであるが,(\ref{ex:suberror}a)と同様に,それぞれに付随している機能表現だけでは事実性は決定できない.しかしながら,後続する述語である「堪能する」自身にそういった影響があるとはいえない.これは,「堪能する」を抽象的な述語「する」に置き換えた場合でも,「楽しむ」および「冒険する」の事実性がUuと判断できることから明らかである.ではどういった要素が「楽しむ」および「冒険する」の事実性をUuにしているかというと,「堪能する」に付随する機能表現「ください」が影響を与えているということが考えられる.このように,後続する述語ではなく,さらにその後ろに見られる機能表現が広く影響を与えているために,事実性をうまく解析できない事例を「後方の機能表現が影響する範囲」による誤りと分類した.このような事象の事実性を解くために,機能表現がどの事象までその影響を与えるのかを解析する必要がある.「後続する述語の影響」と「後方の機能表現が影響する範囲」とを区別する基準としては,後続する述語を「する」などの抽象的な述語に置き換えた場合に,事実性が変化するかどうかを考える.例えば(\ref{ex:suberror}a)において「怪しいです」を「しています」と置き換えた場合,事実性が全く異なってしまう.このような述語の置き換えを一つの判断基準として,誤りの分類を行った.誤り分析の結果を表\ref{tab:error:sub}に示す.主事象の場合と同様の誤りも見られたが,従属事象特有の誤りが誤り全体の6割を占めた.特に,機能表現が付随していない名詞述語においては,機能表現が影響する範囲を考慮すべき誤りが大半を占めていることから,機能表現が影響する範囲を捉えることの重要性を示している.以降の節では,後続する述語や機能表現が影響する範囲のような従属事象特有の問題を解決するために,既存のコーパス中における現象を分析することで,今後の方針について議論する.\begin{table}[t]\makeatletter\def\@cline#1-#2\@nil{\noalign{\vskip-\arrayrulewidth}\omit\@multicnt#1\advance\@multispan\m@ne\ifnum\@multicnt=\@ne\@firstofone{&\omit}\fi\@multicnt#2\advance\@multicnt-#1\advance\@multispan\@ne{\CT@arc@\leaders\hrule\@height\arrayrulewidth\hfill}\cr}\makeatother\caption{誤りの種類の分布}\label{tab:error:sub}\input{03table10.txt}\par\vspace{4pt}\smallカッコ内は,事実性のアノテーション誤りを除いた部分での誤りの割合\par\vspace{-0.5\Cvs}\end{table}\subsection{事象参照表現に後続する述語に関する分析}「あり得る」のような,事実性に影響を与える述語(以降,事象選択述語と呼ぶ)については,\citeA{Eguchi2010_nlp}が構築した辞書がある.\citeA{Eguchi2010_nlp}は,拡張モダリティを解析する手がかりとして利用するために,拡張モダリティに影響を与える表現を収録した辞書(以降,事象選択述語辞書と呼ぶ)を構築した.事象選択述語辞書は,行為・出来事を表す事象を必須格にとり得る述語を対象に,分類語彙表\cite{BunruiGoihyo}に収録されている述語の中から,拡張モダリティに影響を与える8,580述語を収録している.事象選択述語辞書の項目の例を表\ref{tab_mkd}に示す.この辞書は,各述語が格にとる事象に与える影響を,直前の事象の時制および,述語の肯否極性ごとに収録している\footnote{この辞書はhttp://bit.ly/ja-esp-dicより入手可能である.}.この辞書のうち,真偽判断の項目が,事実性解析に利用できると考えられる.\eenumsentence{\item[a.]問題が\event{発生する}のを防いだ。\item[b.]問題が\event{発生する}のを防がなかった。}\label{ex_pred}例えば(\ref{ex_pred})の「防ぐ」という述語は,\pagebreak(\ref{ex_pred}a)のような肯定環境下では不成立,(\ref{ex_pred}b)のような否定環境下では成立というように,事象「発生する」の肯否極性に影響を与える.(\ref{ex_mkd})の「忘れる」は,直前の事象の時制を考慮した例である.\eenumsentence{\item[a.]彼は\event{発言し}{たのを忘れ}ている。\item[b.]彼は\event{発言する}{のを忘れ}ている。}\label{ex_mkd}事象「発言する」に対して,(\ref{ex_mkd}a)では過去に成立している事象であるが,(\ref{ex_mkd}b)では「発言する」ことが実際には起こっておらず,不成立である.\begin{table}[t]\caption{事象選択述語辞書の記述例}\label{tab_mkd}\input{03table11.txt}\end{table}事象選択述語に関する問題は,このような既存の辞書を手がかりとして解決できると考えられる.現在の辞書のカバレッジを見積もるため,表\ref{tab:error:sub}において,後続する述語の影響が原因とされた誤りである25事例を対象に,事象選択述語辞書がカバーできているかどうか,を人手で分類した.例えば(\ref{ex:suberror}a)の「怪しい」といった述語が辞書中に登録されているかを判断する.そして,「怪しい」が辞書中に登録されている場合,登録されている情報を利用すれば正しく事実性ラベルを選択できるのか,即ち(\ref{ex:suberror}a)では,「直前の事象の時制が未来」であり,「述語自身の肯否極性が成立」である場合に,辞書に「真偽判断が低確率」と登録されているかどうか,を人手で判定した.このとき,直前の事象の時制や述語自身の肯否極性も人手で判定を行った.その結果,25事例のうち20事例については,事象選択述語が辞書に収録されており,辞書の情報を利用すれば正しく事実性ラベルを選択できることがわかった.現在の辞書でも事実性解析の精度向上に貢献できることを示している.残りの5事例についても,現在の辞書には収録されていないものの,適切な情報が辞書に収録されていれば,辞書情報を用いて正しく事実性ラベルを選択することができる.現在の辞書でカバーできていた述語とカバーできていなかった述語を表\ref{tab:esp}に示す.「気がある」「関係ある」などの複合表現が現在の辞書でカバーできていない傾向が見られ,こうした多様な表現の獲得が今後重要な課題として浮かび上がった.\begin{table}[t]\caption{誤り事例における事象選択述語}\label{tab:esp}\input{03table12.txt}\vspace{-1\Cvs}\end{table}\subsection{事象間の接続表現に基づくスコープに関する分析}(\ref{ex:suberror}b)のように,機能表現が直接付随する事象だけでなく,従属事象にまで影響を与えることによって解析に失敗した事例が,従属事象における誤りの4割以上を占めた.このような後方の機能表現が影響する範囲による誤りを解消するために,どのような情報が利用できるのかを分析する.本研究では,機能表現が影響する範囲を決定する問題を,機能表現のスコープを認識する問題として扱う.スコープとは「否定などの作用が及ぶ範囲」\cite{Grammar3}であり,(\ref{ex:sc})では,角括弧で囲まれた範囲が否定を表す機能表現のスコープとなる.\eenumsentence{\item[a.][仕事で\event{行っ}た]の\underline{ではない}$_{否定}$。\item[b.]\event{残念}なことに、[鈴木さんは\event{来}]\underline{なかっ}$_{否定}$た。}\label{ex:sc}(\ref{ex:sc}a)では,「仕事で行った」という事象が否定されている.(\ref{ex:sc}b)では,「鈴木さんは来た」という事象が否定されており,「残念である」という事象は否定されていない.一方で,(\ref{ex:suberror}b)では,主事象に付随する「ください」の影響が,従属事象である「楽しむ」「冒険する」にも影響を与える.現在のモデルでは,スコープを機能表現の直前の事象のみとして解析を行うため,(\ref{ex:suberror}b)は正解できなかった.そこで,スコープを必要に応じて広げ,機能表現の影響をスコープ内の事例に与えることで,後方の機能表現が影響する範囲による誤りを解消することができる.機能表現のスコープを広げるべき場合とそうでない場合とを認識するために,どのような情報が利用できるのか,それらの事例の割合はどの程度なのかを分析する.\citeA{Minami1974}は,従属節内の要素の表れ方に基づき,従属節を接続助詞で分類している.\eenumsentence{\item[a.][タバコを飲むが]ガンのことは心配していない。\item[b.][タバコを飲みながら]おしゃべりしている。}\label{ex:minami}例えば(\ref{ex:minami}a)では,従属節の述語的部分「飲むが」には,「飲まないが」「飲んだが」「飲みますが」「飲むだろうが」などのさまざまな要素を入れられる.一方(\ref{ex:minami}b)では,「*飲まないながら」「*飲んだながら」「*飲みましながら」「*飲むだろうながら」などを用いることは出来ず,表れる要素が制限されている.これは,「〜ながら」を伴う従属事象では,主事象に付随する機能表現が否定やモダリティなどを表しており,接続表現「〜ながら」によってスコープが広がっていることを示唆している.また,\citeA{Arita2007}は日本語の時制節性に着目することで,\citeA{Minami1974}の分類がさらに分類できることを示している.\citeA{Takubo2010}は,\citeA{Minami1974}の分類を一部修正し,その分類をもとに疑問の焦点やスコープに関して議論している.このように,主事象と従属事象をつなぐ接続表現の差によって,スコープの判断に接続表現を利用することが考えられる.そこで,実際にコーパス中に含まれる文を対象に,機能表現のスコープが従属事象にまで及んでいるかどうかを接続表現ごとに分類することで,スコープを考えるべき事例がどの程度存在するのか,接続表現がスコープ解析ならびに事実性解析に利用できるのか,を明らかにする.\begin{table}[b]\vspace{-0.5\Cvs}\caption{誤り事例における接続表現の分類}\label{tab:scope}\input{03table13.txt}\end{table}我々が分析の対象とした従属事象の誤り200件のうち,後方の機能表現を考慮しなかったことによる誤りは80件あった(表\ref{tab:error:sub}の「後方の機能表現が影響する範囲」).これらは,(\ref{ex:suberror}b)の従属事象「楽しむ」の事実性のように,文節境界を越えた後方の機能表現(この例では「ください」)を事実性推定に考慮していないことによる誤りである.これらの従属事象の事実性は後方の機能表現の影響を受けるので,それぞれの従属事象は後方の機能表現のスコープの中に入っていることになる.上の80件の従属事象がそれぞれ後方の機能表現にどのように繋がっているかのパターンを調べると表\ref{tab:scope}のような分布が得られた.主なパターンは次のとおりである.\begin{description}\item[直接の項]従属事象(「冒険」)が上位事象(「堪能し」)の項になっており,上位事象に付随する機能表現(「ください」)の影響を受けるパターン\enumsentence{物語を楽しみつつ、\event{冒険}を\event{堪能し}て\underline{ください}$_{依頼}$。}\item[テ形接続]従属事象(「活かし」)がテ形接続で後続事象(「働く」)に係っており,その後続事象の機能表現(「なかっ」)の影響を受けるパターン\enumsentence{うまく\event{活かし}て\event{働く}ことができ\underline{なかっ}$_{否定}$た。}\item[項を修飾]従属事象(「難しい」)が後続の事象表現(「ある」)の項になっている名詞(「試験」)を修飾しているパターン\enumsentence{そんなに\event{難しい}試験が\event{ある}\underline{のでしょうか}$_{疑問}$?}\item[名詞述語を修飾]従属事象(「質問し」が名詞述語(「子かな」)の名詞を修飾しており,その名詞述語の機能表現(「かな」)の影響を受けるパターン\enumsentence{昨日楽譜何がいいって\event{質問し}た\event{子}\underline{かな}$_{疑問}$。}\end{description}これらのパターンについては,事実性解析時に後続の機能表現の影響を考慮する必要があるが,そのためには当該の従属事象が後続の機能表現のスコープ内にあるかどうかを正確に判別する必要がある.そこで,こうした機能表現のスコープの分布についてさらにデータを拡充して調査を行った.\begin{table}[b]\caption{ランダムに抽出した140文中の従属事象の分布}\label{tab:subdist}\input{03table14.txt}\end{table}拡張モダリティタグ付与コーパスのうち,2個以上事象が含まれており,かつ,主事象の事実性がCT+ではない文を140文ランダムに抽出した.主事象の事実性がCT+でない文では,主事象の後ろに何らかの機能表現が付随している場合が多いため,今回の分析目的にかなうと考えられる.140文中には事象表現が全部で440個含まれ,そのうち主事象が140個,従属事象が300個であった.この300個の従属事象を対象に,主事象に付随する機能表現のスコープ内に従属事象が入っているか,主事象と従属事象の間にどのような接続パターンが見られるかを人手で調査した.ただし,当該の従属事象が主事象から表層的に離れている場合は,隣接する場合にくらべて主事象に付随する機能表現のスコープ内には入りにくいと予測されるので,表\ref{tab:subdist}では,上記300個の従属事象をさらに主事象に隣接する事例140個とそれ以外の160個に場合分けして集計した.ここでいう「隣接」とは,係り受け関係にある事象の中で最も表層上近いものを指す.係り受けは,CaboCha~\cite{CaboCha}による自動解析結果を利用した.まず,主事象から離れた従属事象160個について,従属事象が主事象と同じスコープ内に入っているかどうかを調べた.表\ref{tab:subdist}に示すように,スコープ内に入っている従属事象が11個,スコープ外にある従属事象が147個,後方の機能表現ではなく事象選択述語の影響を加味すべき事象が2個であり,「スコープ外」への偏りが極めて大きいことがわかった.すなわち,主事象から離れた従属事象が主事象の機能表現の影響を受けることは極めてまれで,その可能性を事実性解析プロセスの中で考慮しても精度のゲインはほとんど期待できない.\begin{table}[b]\vspace{-0.5\Cvs}\caption{主事象と最も近い従属事象との間の接続表現の分類}\label{tab:scope:add}\input{03table15.txt}\end{table}つぎに,当該従属事象が主事象に隣接している事例140個の分布を表\ref{tab:subdist}に示す.上段の「スコープ内が見られた表現」には,従属事象が主事象に付随する機能表現のスコープ内に入っている場合が一度でも観察された接続パターンを並べた.「〜てから」のように表\ref{tab:scope}に入っているが,上記140個の事例の中には出現しなかったものも含めてある.表\ref{tab:scope}と表\ref{tab:scope:add}を合わせると興味深い知見が得られる.表\ref{tab:scope}の誤りを解消するためには,主として「直接の項」「テ形接続」「項を修飾」「名詞述語を修飾」などの接続パターンのスコープを決定する必要があるが,このうち「直接の項」をのぞく3つのパターンはいずれもスコープ内外の選択が高度に曖昧であり(例えば「テ形接続」は「スコープ内」が5件,「スコープ外」が9件),これらのパターンのスコープを決定する課題に注力することに一定の効用があることがわかる.(\ref{ex:scopeamb})に「テ形接続」でスコープ内外が異なる例を示す.\eenumsentence{\item[a.]うまく\event{活かし}て\event{働く}ことができ\underline{なかっ}$_{否定}$た。(スコープ内)\item[b.]諸事情が\event{あっ}て\event{離婚する}ことができ\underline{なかっ}$_{否定}$た。(スコープ外)}\label{ex:scopeamb}一方,「直接の項」については,つねにスコープ内であると判断してもよい.また,「〜が」「〜ので」「〜たら」などの接続パターンは「スコープ外」への偏りが大きく,決定的に「スコープ外」と決めても大きなリスクにはならない可能性がある.その他の接続パターンに関しても,ある程度の偏りが見られ,規則ベースで決めても問題はないと考えられる.離れた事象と比較して,隣接する事象のほうがスコープ内に入る場合が多いことから,事実性解析プロセスの中で隣接事象のスコープを考慮することによって,ある程度のゲインが期待できる.隣接事象のスコープを考慮することが,事実性解析の性能改善に繋がるのかを検証するために,隣接事象のスコープを付与し,それを考慮した解析モデルを適用して,誤り分析を行う.まず,隣接事象対に対して同じスコープ内に入るかを人手で付与する.例えば(\ref{ex:scopeamb}a)では,「活かす」と「働く」は同じスコープ内に入ると付与し,(\ref{ex:scopeamb}b)では,「ある」と「離婚する」は同じスコープに入らないと付与する.次に,解析モデルを,スコープを考慮したものに拡張する.同じスコープに入ると付与された事象対について,前件の事象(文頭側の事象)については,自身に付随する機能表現の意味ラベル列に加えて,後件の事象(文末側の事象)に付随する機能表現の意味ラベル列についても考慮して,事実性の更新ルールを適用する.例えば(\ref{ex:scopeamb}a)では「活かす」と「働く」が同じスコープ内であり,(\ref{ex:scopeamb}b)では「ある」と「離婚する」が同じスコープ内にはない,というアノテーションを行う.このアノテーションを利用し,3.4節で述べた解析モデルを拡張することで,事実性の解析を行う.具体的には,「同じスコープ内である」と付与された事象対のうち,前件の事象については,前件の事象自身に付随する機能表現の意味ラベル列に加えて,後件の事象に付随する機能表現の意味ラベル列に基づいた更新ルールを適用することで,事実性を決定する.例えば(\ref{ex:scopeamb}a)では「活かす」と「働く」が同じスコープ内であるため,「活かす」の事実性を決定する際には,「活かす」自身の機能表現がもつ更新ルールを適用する(今回は更新ルールをもつ機能表現は付随していない)だけでなく,「働く」に付随する機能表現である「なかっ」がもつ更新ルール1も適用する.\begin{table}[b]\vspace{-0.5\Cvs}\caption{スコープのアノテーションによる事実性解析性能}\label{tab:scope:result}\input{03table16.txt}\end{table}\begin{table}[b]\caption{スコープのアノテーションによる事実性解析結果の変化}\label{tab:scope:change}\input{03table17.txt}\end{table}1,533文のうち,2個以上事象が含まれており,かつ,主事象の事実性がCT+ではない441文を抽出し,その中で係り受け関係にある900事象対に対してスコープのアノテーションを行った.その結果,同じスコープ内に入ると判断されたのは120事象対であった.これらの事象対のうち,後件の事象の事実性はスコープに関わらず変化しないが,前件の事象の事実性はスコープを利用することによって,後件の事象に付随する機能表現の影響を受けて変化する.前件の事象120事象における事実性解析の性能を表\ref{tab:scope:result},事実性解析性能の変化を表\ref{tab:scope:change}に示す.事例数の変化を見ると,改善事例が多く,36事例見られたものの,スコープを考慮しても誤る事例も51事例見られた.しかしながら,その誤り原因を確認すると,51事例のうち32事例は事実性のアノテーション誤りであり,システムは正しく事実性を解析することができていた.それ以外の事例において,スコープを考慮しても正解できなかったものとしては,以下の事例がある.\enumsentence{あなた自身が\event{貯金する}くせを\event{つけ}\underline{ないと}$_{当為}$。\\(「つける」正解:Uu,スコープ無:CT+,スコープ有:CT+)\\(「貯金する」正解:Uu,スコープ無:CT+,スコープ有:CT+)}\label{ex:inscope:error}(\ref{ex:inscope:error})では,「貯金する」と「つける」が同じスコープ内にあると判断された事例であるが,従属事象「貯金する」だけでなく,主事象「つける」も誤りとなっている.主事象「つける」が誤った原因は,主事象における誤り分析で述べたように,主事象に付随する機能表現である$\langle\text{当為}\rangle$のルールが不足していることである.このルールが追加されれば,主事象の改善とともに,同一スコープ内の事象である「貯金する」も同時に正しく判定できるようになる.このように,主事象で見られた誤りを改善することで,スコープ内と判断された従属事象の性能改善にもつながる事例が19事例見られた.スコープを考慮した事実性解析を行うことで,CT+以外の性能,特に再現率を向上させることができるため,マクロ平均はスコープを考慮した方が大きく上回る性能となった.このことから,隣接事象対のスコープ判定を精緻に行うことが,事実性解析の性能向上に貢献することを確認することができた.以上の観察を合わせると,次のことが言える.\begin{itemize}\item調査した接続パターンのうち,誤りの半分近く(36/80)にあたる「直接の項」は我々の分析データを見る限り,全ての場合においてスコープ内に来るので,述語項構造解析の結果に基づいてスコープを広げることにより,事実性解析の性能を向上させることができる.\item誤りのうち4割以上(33/80)にあたる「テ形接続」「項を修飾」「名詞述語を修飾」等の接続パターンの場合には,スコープ内外の選択が高度に曖昧であり,これらのパターンのスコープを決定する課題に注力することに一定の効用があることがわかる.\itemスコープを人手で付与し,事実性解析に取り入れることで,CT+以外の性能,特に再現率を向上させることができるため,マクロ平均はスコープを考慮した方が大きく上回る性能を得られる.このことから,隣接事象対のスコープ判定を精緻に行うことが,事実性解析の性能向上に貢献することを確認できた.\end{itemize} \section{おわりに} \label{sec_conc}事実性解析には,事象に含まれる機能表現,疑問詞を含む副詞,文節境界を越えて事実性に影響を与える語とそのスコープ,その他の4種類の問題が含まれている.それぞれは単独でも一つの研究課題になるほどに,容易な問題ではないが,事実性解析ではさらにその組み合わせがあるため,性能の向上が難しい.本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533文に含まれる3,734事象に適用した結果の誤りを分析した.このとき全ての事象表現について,述語に続く機能表現に対して意味ラベルを付与した.主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.本研究で用いた規則は人手で構築したものであるため,その整備は必要ではあるものの,それよりもむしろ,現在の機能表現の意味ラベル体系に基づいて機能表現解析モデルの研究開発を行うことに一定の支持を与えるものと考える.また,機能表現解析の問題を除けば,誤りの半数は副詞に起因するものであった.したがって,事実性解析は副詞の意味解析の研究を動機付ける良い課題となりうる.従属事象の事実性解析は,主事象に比べて考慮すべき要素が多く,性能も低い.従属事象でのみ考慮すべき要素は大きく二つあり,文節境界を越えて事実性に影響を与える述語と,従属事象に直接付随しない機能表現の影響である.文節境界を越えて事実性に影響を与える述語については,既存の事象選択述語辞書が一定のカバレッジを持っており,これを利用することで誤りの多くを解消できる可能性がある.しかし,複合語のカバレッジに問題があるなど,こうしたリソースの整備が今後の課題であることがわかった.従属事象に直接付随しない機能表現については,直接の親の事象に付随する機能表現の影響を受ける可能性があるが,その他の事象表現に付随する機能表現の影響はほとんど無視できることも明らかになった.前者の場合については,誤りの半分近く(36/80)にあたる「直接の項」は我々の分析データを見る限り,全ての場合においてスコープ内に来るので,述語項構造解析の結果に基づいてスコープを広げることにより,事実性解析の性能を向上させることができる.一方で,誤りのうち4割以上(33/80)「テ形接続」「項を修飾」「名詞述語を修飾」等の接続パターンの場合には,スコープ内外の選択が高度に曖昧であり,これらのパターンのスコープを決定する課題に注力することに一定の効用があることかがわかる.それ以外の主要な接続パターンはスコープの範囲を規則ベースで決めても大きな問題は生じそうにない.また,離れた事象対と比較して,隣接事象対のスコープを特定する方が,事実性解析に対して大きなゲインが期待できる.実際にスコープを人手で付与し,事実性解析に取り入れることで,CT+以外の性能,特に再現率を向上させることができた.このことから,隣接事象対のスコープ判定を精緻に行うことが,事実性解析の性能向上に貢献することを確認できた.本研究で報告した誤り分析・課題分析は「Yahoo!知恵袋」のコーパスを用いており,他のドメインやスタイルの文章で同様の傾向が得られるかは明らかでない.今後は調査の範囲を広げ,問題の性質の一般化を図る.また,本研究では,機能表現の意味ラベルに関して正解を与えることで,人手で構築した規則ベースのモデルでも,主事象においては90\%近くの正解率となり,ある程度の性能をあげられることを示した.機能表現の意味ラベルを人手で与えることで,更新ルールや辞書の改善によって得られるゲインよりもかなり大きなゲインが得られていると考えられる.このことから,更新ルールや辞書の整備も必要な課題ではあるものの,今後は,本研究では正解を与えた,機能表現の意味ラベルを自動で解析する課題に注力することが重要であると考える.従属事象においては,主事象同様に機能表現解析も重要な要素となるが,特に隣接する事象が同一スコープに入るか否かを自動で解析することが,事実性解析の性能向上に寄与することが明らかになっている.人手で与えていたスコープを自動で解析することが重要な課題であると考える.\acknowledgment本研究は,文部科学省科研費(15H01702),JST戦略的創造研究推進事業CREST,および,文部科学省「ビッグデータ利活用のためのシステム研究等」委託事業「実社会ビッグデータ利活用のためのデータ統合・解析技術の研究開発」の一環として行われた.\bibliographystyle{jnlpbbl_1.5}\addtolength{\baselineskip}{-0.75pt}\begin{thebibliography}{}\bibitem[\protect\BCAY{有田}{有田}{2007}]{Arita2007}有田節子\BBOP2007\BBCP.\newblock\Jem{日本語条件文と時制節性}.\newblockくろしお出版.\bibitem[\protect\BCAY{de~Marneffe,Manning,\BBA\Potts}{de~Marneffeet~al.}{2012}]{Marneffe2012}de~Marneffe,M.-C.,Manning,C.~D.,\BBA\Potts,C.\BBOP2012\BBCP.\newblock\BBOQDidItHappen?ThePragmaticComplexityofVeridicalityAssessment.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf38}(2),\mbox{\BPGS\301--333}.\bibitem[\protect\BCAY{江口\JBA松吉\JBA佐尾\JBA乾\JBA松本}{江口\Jetal}{2010}]{Eguchi2010_nlp}江口萌\JBA松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockモダリティ,真偽情報,価値情報を統合した拡張モダリティ解析.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\852--855}.\bibitem[\protect\BCAY{遠藤\JBA小林\JBA三井\JBA村木\JBA吉沢}{遠藤\Jetal}{2003}]{Endo2003}遠藤織枝\JBA小林賢次\JBA三井昭子\JBA村木新次郎\JBA吉沢靖\JEDS\\BBOP2003\BBCP.\newblock\Jem{使い方の分かる類語例解辞典新装版}.\newblock小学館.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{REF08a}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Farkas,Vincze,M\'{o}ra,Csirik,\BBA\Szarvas}{Farkaset~al.}{2010}]{CoNLL2010}Farkas,R.,Vincze,V.,M\'{o}ra,G.,Csirik,J.,\BBA\Szarvas,G.\BBOP2010\BBCP.\newblock\BBOQTheCoNLL-2010SharedTask:LearningtoDetectHedgesandTheirScopeinNaturalLanguageText.\BBCQ\\newblockIn{\BemProceedingsofthe14thConferenceonComputationalNaturalLanguageLearning---SharedTask},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{後藤\JBA大竹\JBA{StijnDe~Saeger}\JBA橋本\JBA{JulienKloetzer}\JBA川田\JBA鳥澤}{後藤\Jetal}{2013}]{Goto2013}後藤淳\JBA大竹清敬\JBA{StijnDe~Saeger}\JBA橋本力\JBA{JulienKloetzer}\JBA川田拓也\JBA鳥澤健太郎\BBOP2013\BBCP.\newblock質問応答に基づく対災害情報分析システム.\\newblock\Jem{自然言語処理},{\Bbf20}(3),\mbox{\BPGS\367--404}.\bibitem[\protect\BCAY{原\JBA乾}{原\JBA乾}{2008}]{Hara2008}原一夫\JBA乾健太郎\BBOP2008\BBCP.\newblock事態抽出のための事実性解析.\\newblock\Jem{情報処理学会研究報告,2008-FI-89,2008-NL-183},\mbox{\BPGS\75--80}.\bibitem[\protect\BCAY{Hickl}{Hickl}{2008}]{Hickl2008}Hickl,A.\BBOP2008\BBCP.\newblock\BBOQUsingDiscourseCommitmentstoRecognizeTextualEntailment.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\lowercase{\BVOL}~1,\mbox{\BPGS\337--344}.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{1994}]{Hida1994Fukushi}飛田良文\JBA浅田秀子\BBOP1994\BBCP.\newblock\Jem{現代副詞用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{今村\JBA泉\JBA菊井\JBA佐藤}{今村\Jetal}{2011}]{Imamura2011}今村賢治\JBA泉朋子\JBA菊井玄一郎\JBA佐藤理史\BBOP2011\BBCP.\newblock述部機能表現の意味ラベルタガー.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\308--311}.\bibitem[\protect\BCAY{Inui,Abe,Hara,Morita,Sao,Eguchi,Sumida,Murakami,\BBA\Matsuyoshi}{Inuiet~al.}{2008}]{Inui2008}Inui,K.,Abe,S.,Hara,K.,Morita,H.,Sao,C.,Eguchi,M.,Sumida,A.,Murakami,K.,\BBA\Matsuyoshi,S.\BBOP2008\BBCP.\newblock\BBOQExperienceMining:BuildingaLarge-ScaleDatabaseofPersonalExperiencesandOpinionsfromWebDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe2008IEEE/WIC/ACMInternationalConferenceonWebIntelligenceandIntelligentAgentTechnology-Volume01},\mbox{\BPGS\314--321}.\bibitem[\protect\BCAY{Kamioka,Narita,Mizuno,Kanno,\BBA\Inui}{Kamiokaet~al.}{2015}]{Kamioka2015}Kamioka,Y.,Narita,K.,Mizuno,J.,Kanno,M.,\BBA\Inui,K.\BBOP2015\BBCP.\newblock\BBOQSemanticAnnotationofJapaneseFunctionalExpressionsanditsImpactonFactualityAnalysis.\BBCQ\\newblockIn{\BemProceedingsofThe9thLinguisticAnnotationWorkshop},\mbox{\BPGS\52--61}.\bibitem[\protect\BCAY{Karttunen\BBA\Zaenen}{Karttunen\BBA\Zaenen}{2005}]{Karttunen2005}Karttunen,L.\BBACOMMA\\BBA\Zaenen,A.\BBOP2005\BBCP.\newblock\BBOQVeridicity.\BBCQ\\newblockInKatz,G.,Pustejovsky,J.,\BBA\Schilder,F.\BEDS,{\BemAnnotating,ExtractingandReasoningaboutTimeandEvents},\lowercase{\BNUM}\05151inDagstuhlSeminarProceedings.\bibitem[\protect\BCAY{川添\JBA齊藤\JBA片岡\JBA崔\JBA戸次}{川添\Jetal}{2011a}]{Kawazoe2011}川添愛\JBA齊藤学\JBA片岡喜代子\JBA崔栄殊\JBA戸次大介\BBOP2011a\BBCP.\newblock確実性判断のためのアノテーション済みコーパスの構築.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\143--146}.\bibitem[\protect\BCAY{川添\JBA齊藤\JBA片岡\JBA崔\JBA戸次}{川添\Jetal}{2011b}]{Kawazoe2011_report}川添愛\JBA齊藤学\JBA片岡喜代子\JBA崔栄殊\JBA戸次大介\BBOP2011b\BBCP.\newblock言語情報の確実性に影響する表現およびそのスコープのためのアノテーションガイドラインVer.2.4.\\newblock\JTR,DepartmentofInformationScience,OchanomizuUniversity,OCHA-IS10-4.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{BunruiGoihyo}国立国語研究所\BBOP2004\BBCP.\newblock\Jem{分類語彙表}.\newblock大日本図書.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{CaboCha}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblockチャンキングの段階適用による日本語係り受け解析.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{益岡}{益岡}{2007}]{Masuoka2007}益岡隆志\BBOP2007\BBCP.\newblock\Jem{日本語モダリティ探求}.\newblockくろしお出版.\bibitem[\protect\BCAY{松吉}{松吉}{2014}]{Matsuyoshi2014}松吉俊\BBOP2014\BBCP.\newblock否定の焦点情報アノテーション.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\249--270}.\bibitem[\protect\BCAY{松吉\JBA佐尾\JBA乾\JBA松本}{松吉\Jetal}{2011}]{Matsuyoshi2011}松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock拡張モダリティタグ付与コーパスの設計と構築.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\147--150}.\bibitem[\protect\BCAY{{松吉}\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{{松吉}\Jetal}{2010}]{Matsuyoshi2010}{松吉}俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ93-D}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{Matsuyoshi2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{南}{南}{1974}]{Minami1974}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{水野\JBA成田\JBA乾\JBA大竹\JBA鳥澤}{水野\Jetal}{2013}]{Mizuno2013}水野淳太\JBA成田和弥\JBA乾健太郎\JBA大竹清敬\JBA鳥澤健太郎\BBOP2013\BBCP.\newblock拡張モダリティ解析器の試作と課題分析.\\newblock\Jem{ALAGIN\&NLP若手の会合同シンポジウム}.\bibitem[\protect\BCAY{水野\JBA渡邉\JBA{エリックニコルズ}\JBA村上\JBA乾\JBA松本}{水野\Jetal}{2011}]{Mizuno2011}水野淳太\JBA渡邉陽太郎\JBA{エリックニコルズ}\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock文間関係認識に基づく賛成・反対意見の俯瞰.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3408--3422}.\bibitem[\protect\BCAY{Morante\BBA\Blanco}{Morante\BBA\Blanco}{2012}]{SEM2012}Morante,R.\BBACOMMA\\BBA\Blanco,E.\BBOP2012\BBCP.\newblock\BBOQ*SEM2012SharedTask:ResolvingtheScopeandFocusofNegation.\BBCQ\\newblockIn{\Bem*SEM2012:The1stJointConferenceonLexicalandComputationalSemantics-Volume1:ProceedingsoftheMainConferenceandtheSharedTask},\mbox{\BPGS\265--274}.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{Morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{日本語記述文法研究会(編)}{日本語記述文法研究会(編)}{2003}]{Grammar3}日本語記述文法研究会(編)\BBOP2003\BBCP.\newblock\Jem{現代日本語文法3}.\newblockくろしお出版.\bibitem[\protect\BCAY{Saur\'{\i}}{Saur\'{\i}}{2008}]{Sauri2008_Guidelines}Saur\'{\i},R.\BBOP2008\BBCP.\newblock\BBOQFactBank1.0AnnotationGuidelines.\BBCQ\{\ttfamilyhttp://\linebreak[2]www.cs.brandeis.edu/\linebreak[2]{\textasciitilde}roser/\linebreak[2]pubs/\linebreak[2]fb\_annotGuidelines.pdf}.\bibitem[\protect\BCAY{Saur\'{\i},Littman,Gaizauskas,Setzer,\BBA\Pustejovsky}{Saur\'{\i}et~al.}{2006}]{Sauri2006}Saur\'{\i},R.,Littman,J.,Gaizauskas,R.,Setzer,A.,\BBA\Pustejovsky,J.\BBOP2006\BBCP.\newblock\BBOQTimeMLAnnotationGuidelines,Version1.2.1.\BBCQ\{\ttfamilyhttp://\linebreak[2]www.timeml.org/\linebreak[2]site/\linebreak[2]publications/\linebreak[2]timeMLdocs/\linebreak[2]annguide\_1.2.1.pdf}.\bibitem[\protect\BCAY{Saur\'{\i}\BBA\Pustejovsky}{Saur\'{\i}\BBA\Pustejovsky}{2007}]{Sauri2007}Saur\'{\i},R.\BBACOMMA\\BBA\Pustejovsky,J.\BBOP2007\BBCP.\newblock\BBOQDeterminingModalityandFactualityforTextEntailment.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonSemanticComputing},\mbox{\BPGS\509--516}.\bibitem[\protect\BCAY{Saur\'{\i}\BBA\Pustejovsky}{Saur\'{\i}\BBA\Pustejovsky}{2009}]{Sauri2009}Saur\'{\i},R.\BBACOMMA\\BBA\Pustejovsky,J.\BBOP2009\BBCP.\newblock\BBOQFactBank:ACorpusAnnotatedwithEventFactuality.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf43}(3),\mbox{\BPGS\227--268}.\bibitem[\protect\BCAY{Saur\'{\i}\BBA\Pustejovsky}{Saur\'{\i}\BBA\Pustejovsky}{2012}]{Sauri2012}Saur\'{\i},R.\BBACOMMA\\BBA\Pustejovsky,J.\BBOP2012\BBCP.\newblock\BBOQAreYouSurethatThisHappened?AssessingtheFactualityDegreeofEventsinText.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf38}(2),\mbox{\BPGS\261--299}.\bibitem[\protect\BCAY{Sutton,McCallum,\BBA\Rohanimanesh}{Suttonet~al.}{2007}]{Sutton2007}Sutton,C.,McCallum,A.,\BBA\Rohanimanesh,K.\BBOP2007\BBCP.\newblock\BBOQDynamicConditionalRandomFields:FactorizedProbabilisticModelsforLabelingandSegmentingSequenceData.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf8},\mbox{\BPGS\693--723}.\bibitem[\protect\BCAY{鈴木\JBA阿部\JBA宇津呂\JBA松吉\JBA土屋}{鈴木\Jetal}{2011}]{Suzuki2011}鈴木敬文\JBA阿部佑亮\JBA宇津呂武仁\JBA松吉俊\JBA土屋雅稔\BBOP2011\BBCP.\newblock大規模階層辞書と用例を用いた日本語機能表現の解析.\\newblock\Jem{『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集},\mbox{\BPGS\105--110}.\bibitem[\protect\BCAY{Szarvas,Vincze,Farkas,\BBA\Csirik}{Szarvaset~al.}{2008}]{Szarvas2008}Szarvas,G.,Vincze,V.,Farkas,R.,\BBA\Csirik,J.\BBOP2008\BBCP.\newblock\BBOQTheBioScopeCorpus:AnnotationforNegation,UncertaintyandTheirScopeinBiomedicalTexts.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponCurrentTrendsinBiomedicalNaturalLanguageProcessing},\mbox{\BPGS\38--45}.\bibitem[\protect\BCAY{田窪}{田窪}{2010}]{Takubo2010}田窪行則\BBOP2010\BBCP.\newblock\Jem{日本語の構造推論と知識管理}.\newblockくろしお出版.\bibitem[\protect\BCAY{梅澤\JBA西尾\JBA松田\JBA原田}{梅澤\Jetal}{2008}]{Umezawa2008SAGE}梅澤俊之\JBA西尾華織\JBA松田源立\JBA原田実\BBOP2008\BBCP.\newblock意味解析システムSAGEの精度向上とモダリティの付与と辞書更新支援系の開発.\\newblock\Jem{言語処理学会第14回年次大会発表論文集},\mbox{\BPGS\548--551}.\end{thebibliography}\begin{biography}\bioauthor{成田和弥}{2015年東北大学大学院情報科学研究科博士後期課程科目修了退学.同年より同研究科研究員,現在に至る.自然言語処理の研究に従事.}\bioauthor{水野淳太}{2012年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科研究員.2013年より独立行政法人情報通信研究機構耐災害ICT研究センター研究員,現在に至る.博士(工学).自然言語処理,耐災害情報通信の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{上岡裕大}{2014年東北大学工学部情報知能システム総合学科卒業.同年,同大学大学院情報科学研究科博士前期課程に進学,現在に至る.自然言語処理の研究に従事.情報処理学会学生会員.}\bioauthor{菅野美和}{2013年より東北大学大学院情報科学研究科技術補佐員,現在に至る.自然言語処理研究データのアノテーションに従事.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同研究科助手,九州工業大学助教授.奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学院情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
V07N03-04
\section{はじめに} 日本語とウイグル語は言語学上の区分において,共に膠着語に分類され,両言語の間には語順がほぼ同じであるなどの様々な構文的類似点が見られる.そのため,日本語--ウイグル語機械翻訳では,形態素解析が終了した段階で各単語を対応するウイグル語に置き換える,いわゆる逐語翻訳によって,ある程度の翻訳が可能となる\cite{MUHTAR}.ところで,学校文法をはじめとする多くの日本語文法では,文の中心的役割を果たす動詞が活用することを前提としている.しかし,ウイグル語の動詞は活用しないと考えられてきたため,両言語間の翻訳の際には,活用の有無の違いを考慮する必要があった.それに対して,\cite{MUHTAR}は推移グラフの利用を提案したが,実際の処理の際には扱いにくいという問題がある.一方,Bloch\cite{BLOCH}を源流とする音韻論に基づく文法は,活用を用いることなく日本語の動詞の語形変化を表現することが可能である.本論文では,それらの中でも,動詞の語形変化を体系的に記述することに成功している派生文法\cite{KIYOSE1}\cite{KIYOSE2}を使用する.派生文法は,日本語の膠着語としての性質に着目した文法であり,動詞の語形変化を語幹への接尾辞の接続として表現する.さらに,ウイグル語も同じ膠着語であるので,その語形変化も派生文法で記述可能であると考えられる.原言語である日本語と目標言語であるウイグル語の双方を共に派生文法で記述することができれば,その結果,両言語間の形態論的類似性がより明確になり,単純でかつ精度の高い機械翻訳の実現が期待できる.特に,本論文で扱う動詞句の翻訳においては,複雑な活用処理をすることなく,語幹と接尾辞をそれぞれ対応する訳語に置き換えることにより,翻訳が可能になると考えられる.そこで,本論文ではウイグル語の動詞句も派生文法に基づいて記述することにより,活用処理を行うことなく,簡潔にかつ体系的に日本語からウイグル語への動詞句の機械翻訳を実現する手法を提案する.膠着語間の機械翻訳に関する研究としては,日本語と韓国語との間の研究\cite{H_LEE1990}\cite{S_LEE1992}\cite{J_KIM1996_2}\cite{J_KIM1998}が多くなされている.それらでは,日本語および韓国語の動詞がともに活用することを前提に翻訳が行われているが,両言語において活用変化の仕方が異なる点が問題とされている.例えば,日本語の学校文法においては,活用形が未然形,連用形,終止形,連体形,仮定形,命令形の6つに分類されるが,これは日本語独自の分類であり,韓国語の活用形の分類とは一致しない.そのため,両言語の活用形の間で対応をとる必要があるが,日本語の連用形は文中における機能が多岐に渡るため,韓国語の活用形と1対1に対応させることは困難である.また,日本語の学校文法が用言の活用を五段活用および上下一段活用の2種類の規則活用とカ変およびサ変の不規則活用に分類しているのに対して,韓国語には種々の不規則動詞が存在し,その変化の仕方は日本語と異なる.そうした日本語と韓国語の比較については,文献\cite{J_KIM1996_2}が詳しい.そのため,これまでの日本語--韓国語機械翻訳の研究においては,日本語の語形変化の処理と韓国語の語形変化の処理を別々に行っている.それに対して本研究では,日本語およびウイグル語の動詞は共に活用しないとしているため,活用形の不一致は問題とならない.また,動詞句の形成には派生文法に基づく同一の規則を用いるため,日本語とウイグル語の語形生成を同じ規則で扱うことが可能である.また,日本語と韓国語との間の翻訳においては,もう一つの問題として様相表現の違いが指摘されてきた.これは,様相表現を表わす接尾辞の接続順序が日本語と韓国語で異なるために生じる問題であり,この問題を解決するために,意味接続関係によって記述された翻訳テーブルを使用する方式\cite{J_KIM1996_2}や,様相情報の意味をテーブル化し,PIVOTとして用いる方式\cite{J_KIM1998}などが提案されている.日本語とウイグル語では,様相表現を表す接尾辞の接続順序は同じであるため,そうした点も問題とはならない.しかし,日本語とウイグル語には,同じ意味役割を果していても,互いに品詞の異なる単語が存在する.そのため,それらの単語の翻訳においては,単純に置き換えただけでは不自然な翻訳文が生成される.本論文では,この問題はウイグル語の語形成の性質を利用することによって解決できることを示す.具体的には,日本語形態素解析の結果を逐語翻訳した後,ウイグル語単語の接続情報を用い,不自然な並びとなる単語列を他の訳語に置き換えることによって,より自然なウイグル語文を生成する.さらに,本研究では形態素解析システムMAJO\cite{OGAWA1999}を利用して日本語--ウイグル語機械翻訳システムを作成した.MAJOは派生文法に基づいて日本語の形態素解析を行うシステムである.MAJOの辞書は,本来,日本語単語とその品詞および意味情報の3項組で構成されているが,この機械翻訳システムでは,意味情報の代わりにウイグル語訳語を与え,日本語--ウイグル語対訳辞書として利用した.その結果,MAJOの出力結果は,そのまま日本語からウイグル語への逐語翻訳となっている.さらに,このMAJOの出力結果に前述の訳語置換を適用するモジュール,および,ウイグル語特有の性質に合わせて,最終的な出力文を整形するモジュールをそれぞれ作成した.このように,機械翻訳システムを独立のモジュールから構成する設計としたが,これにより派生文法で記述された他の膠着語との間の機械翻訳システムの実現にも応用可能であると考えられる.なお,本論文で使用する派生文法は音韻論的手法の一種であり,入力文を音素単位で解析するため,日本語の表記の一部にローマ字を用いる.また,ウイグル語の表記においても,計算機上で扱うときの簡便さから,本来のウイグル文字ではなく,そのローマ字表記を用いる.そこで,日本語とウイグル語との混同を避けるため,以下では,日本語の単語は「」,ウイグル語の単語は``''で囲んで区別する.本論文の構成は以下の通りである.まず2章では,学校文法に基づく日本語--ウイグル語逐語翻訳の例とその問題点を指摘する.3章と4章では,派生文法に基づいて日本語とウイグル語の動詞句をそれぞれ記述し,5章で派生文法に基づく日本語--ウイグル語逐語翻訳手法を示す.6章では,単純な逐語翻訳だけでは不自然な翻訳文が生成される問題を取り上げ,7章で,その問題に対する解決法である訳語置換表を提示する.また,8章で日本語--ウイグル語機械翻訳システムの実現について述べ,9章では,実験によるそのシステムの性能評価について述べる.10章は本論文のまとめである. \section{日本語--ウイグル語逐語翻訳} 日本語とウイグル語は互いに良く似た言語であり,語順もほぼ同じ\footnote{本論文では触れないが,形容詞の比較表現などにおいて日本語と語順が異なる場合が見られる.}である.そのため日本語--ウイグル語機械翻訳においては,日本語入力文の形態素解析を行った段階で,各単語を対応するウイグル語の単語に置き換えれば,構文解析を行うことなく,ある程度の翻訳が可能となる.図~\ref{honyaku}~は,日本語の入力文「肉ヲタクサン食ベタ」に対して単純な逐語翻訳を行った例であり,出力文``Goxniji\mk\y\medi''は自然なウイグル語文となっている.\begin{figure}[tbp]\begin{center}\begin{tabular}{lccccc}{\dg入力文:}&\multicolumn{5}{c}{肉ヲタクサン食ベタ}\\&\multicolumn{5}{c}{$\Downarrow$}\\{\dg形態素解析:}&肉&ヲ&タクサン&食ベ&タ\\&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\{\dg逐語翻訳:}&Gox&ni&ji\c{k}&y\'e&di\\&\multicolumn{5}{c}{$\Downarrow$}\\{\dg翻訳文:}&\multicolumn{5}{c}{Goxniji\c{k}y\'edi}\\\end{tabular}\caption{日本語-ウイグル語逐語翻訳}\label{honyaku}\end{center}\end{figure}しかし,学校文法を始めとする従来の日本語文法では,動詞が活用することを前提としていたため,翻訳の際には活用処理が問題となる.例えば,日本語の動詞語幹と活用語尾を分離しそれぞれを辞書に登録して形態素解析した場合は,活用語尾の翻訳が問題となる.図~\ref{verb_1}~は動詞句「作ラレル」および「作ル」を逐語翻訳によって翻訳した例であるが,ここで「作ラレル」の「ラ」および「作ル」の「ル」は,それぞれ未然形,終止形を表わす活用語尾である.翻訳されたウイグル語文においては,活用語尾「ラ」に対応する単語は存在しないが,「ル」に対しては,終止形を表わすウイグル語の接尾辞``-ydu''が対応している.また,「作ラレル」の「ル」および「作ル」の「ル」は,同じ活用語尾であるが,前者は``-idu''に,後者は``-ydu''にそれぞれ翻訳されている.このように,日本語の動詞は活用すると考え,動詞語幹と活用語尾を分離した場合,活用語尾の訳語を決定するために,きめ細かな処理が必要である.\begin{figure}[btp]\begin{center}\begin{tabular}{ccccccc}\multicolumn{4}{c}{作ラレル}&\vline&\multicolumn{2}{c}{作ル}\\\multicolumn{4}{c}{$\Downarrow$}&\vline&\multicolumn{2}{c}{$\Downarrow$}\vspace{-2pt}\\作&ラ&レ&ル&\vline&作&ル\vspace{-2pt}\\$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&\vline&$\downarrow$&$\downarrow$\vspace{-2pt}\\yasa-&$\times$&-l-&\underline{-idu}&\vline&yasa-&\underline{-ydu}\vspace{-2pt}\\\multicolumn{4}{c}{$\Downarrow$}&\vline&\multicolumn{2}{c}{$\Downarrow$}\vspace{-2pt}\\\multicolumn{4}{c}{yasalidu}&&\multicolumn{2}{c}{yasaydu}\vspace{-5pt}\\\end{tabular}\caption{動詞句の翻訳}\label{verb_1}\end{center}\end{figure}一方,日本語の動詞の活用形ごとに,対応するウイグル語の訳語を登録する手法も考えられる.これは,ウイグル語も活用していると考えた手法と言える.表~\ref{conjugating_uighur}~は日本語の動詞「作ル」と,それに対応するウイグル語動詞``yasaydu''に関して,活用形ごとに対応を示したものである.\begin{table}[tbp]\caption{日本語の活用形とウイグル語の対応}\label{conjugating_uighur}\begin{center}\begin{tabular}{l|l|l|l|l}\hline\hline活用形&日本語&用例&ウイグル語&用例\\\hline語幹&作&&yasa&\\\hline未然形&作ラ&作ラナイ&yasa&yasamaydu\\&作ロ&作ロウ&yasa&yasay\\\hline連用形&作リ&作リナガラ&yasa&yasa\mgaq\\&作ッ&作ッタ&yasa&yasa\mgan\\\hline終止形&作ル&作ル.&yasaydu&yasaydu.\\\hline連体形&作ル&作ル人&yasaydi\mgan&yasaydi\mganad\mem\\\hline仮定形&作レ&作レバ&yasa&yasasa\\\hline命令形&作レ&作レ&yasa\mgin&yasa\mgin\\\hline\end{tabular}\end{center}\end{table}\cite{MUHTAR}では,そのような考え方に基づいた推移グラフを導入することにより,活用形を処理していた.このグラフでは,各辺に日本語の助動詞が,また,各節点にウイグル語の訳語が割当てられており,グラフの辺を開始節点から順にたどることによって,複雑な語形変化を含む動詞や助動詞の接続を処理する.しかし,この推移グラフは開始節点が動詞の活用形ごとに異なるため,1つの動詞に対して活用形の数だけ開始節点が必要である.また,1つの助動詞に対して複数の辺が対応しているため,実際の処理の際には扱いにくいという問題がある.本論文では,日本語動詞の活用を前提としない派生文法を利用することにより,そうした活用処理を必要としない,簡潔かつ体系的な日本語--ウイグル語動詞句翻訳手法を提案する. \section{派生文法による日本語動詞句の記述} \label{sec:derivational_grammar}従来の日本語文法は,用言の活用を前提にしており,学校文法では,その活用形は未然形,連用形,終止形,連体形,仮定形,命令形の6つに分類されている.一方,日本語は言語学上の分類において{\dg膠着語}であるとされている.膠着語とは,文法的機能を表す接辞が,実質的観念を表す語幹に結合することによって単語を形成するという性質をもつ言語の総称である.ゆえに,膠着語である日本語が活用することは不合理であると捉えられ,活用を前提としない{\dg派生文法}\cite{KIYOSE1}\cite{KIYOSE2}が提案されている.本章では,派生文法による日本語の記述方法を,その特徴が現れる動詞句の形成についてまとめる.\subsection{連結子音と連結母音}\label{sec:union}動詞の不変化部分を語幹と呼ぶ.学校文法における一段活用動詞「見ル」「食ベル」などの場合は,不変化の部分「見」「食ベ」がそれぞれ語幹であり,その際,語幹は母音iかeのいずれかで終わる.また,五段活用動詞の「書ク」の場合,学校文法では「書カ」「書キ」「書ク」「書ケ」「書コ」のように末尾が変化するとされるが,これは音韻論的に考えれば「kak-a」「kak-i」「kak-u」「kak-e」「kak-o」であり,「kak」を語幹として取り出すことができ,語幹は子音で終わる.そこで,派生文法では,一段活用動詞のように母音で終わる語幹を{\dg母音幹}と呼び,五段活用動詞のように子音で終わる語幹を{\dg子音幹}と呼ぶ.派生文法では,動詞の変形は動詞の語幹に接尾辞が接続したものとして考える.そのため,学校文法でいう活用形の語尾や助詞,助動詞をいずれも接尾辞として扱う.それらを学校文法における活用の形に対応させると表~\ref{suffix}~のようになる.なお,表~\ref{suffix}~における記号$\phi$は,音便により対応する子音が消失したことを表している.\begin{table}[tbp]\caption[接尾辞]{動詞と接尾辞の接続例}\label{suffix}\begin{center}\begin{tabular}{l|l|l|l}\hline\hline活用形&子音幹の例&母音幹の例&接尾辞\\\hline未然形&kak-ana-i&tabe-na-i&-(a)na-i\\&kak-are-ru&tabe-rare-ru&-(r)are-(r)u\\&kak-ase-ru&tabe-sase-ru&-(s)ase-(r)u\\&kak-ou&tabe-you&-(y)ou\\\hline連用形&kak-imas-u&tabe-mas-u&-(i)mas-(r)u\\&ka$\phi$-ita&tabe-ta&-(i)ta\\\hline終止形&kak-u&tabe-ru&-(r)u\\\hline連体形&kak-u&tabe-ru&-(r)u\\\hline仮定形&kak-eba&tabe-reba&-(r)eba\\\hline命令形&kak-e&tabe-ro&-e/-ro,-yo\\&kak-una&tabe-runa&-(r)una\\\hline\end{tabular}\end{center}\end{table}ここで,終止形「kak-u(書ク)」「tabe-ru(食ベル)」の場合,接尾辞はそれぞれ「-u」「-ru」である.派生文法ではこれをまとめて「-(r)u」と表記する.子音rの有無は動詞語幹の末尾に依存して決まる.例えば「kak-」に「-(r)u」が接続した場合,子音が連続することになるので,接尾辞の先頭のrが欠落する.そのような子音を{\dg連結子音}と呼ぶ.一方,否定の助動詞「ナイ」が接続する場合を考えてみる.これは未然形に接続する接尾辞である.派生文法では「書カナイ」「食ベナイ」を表~\ref{suffix}~に示すように,それぞれ「kak-ana-i」「tabe-na-i」と解析する.ここで,否定を表す接尾辞は「-(a)na-」の形で表され,母音aは母音が連続する場合に欠落する.そのような母音を{\dg連結母音}と呼ぶ.以上より,派生文法では,語幹と接尾辞の接続を以下の2つの規則で記述できる.\begin{description}\item[接続規則1:]子音幹に連結子音を持つ接尾辞が接続する場合,連結子音を削除する.\item[接続規則2:]母音幹に連結母音を持つ接尾辞が接続する場合,連結母音を削除する.\end{description}\subsection{統語接尾辞と派生接尾辞}\ref{sec:union}~節で否定の接尾辞を「-(a)nai」ではなく「-(a)na-i」と表記した.これは「kak-ana-katta(書カナカッタ)」のように,「-(a)na-」の後にさらに他の接尾辞が接続することが可能だからである.これは,動詞語幹に接尾辞「-(a)na-」が接続することにより,新たな語幹が派生したと見ることができる.そのような語幹を{\dg二次語幹}と呼び,二次語幹を派生する接尾辞を{\dg派生接尾辞}と呼ぶ.日本語の派生接尾辞には他に「-(s)ase-」「-(r)are-」「-(r)e-」「-(i)mas-」「-(i)ta-」があり,それぞれ使役,受身・可能・尊敬,可能,丁寧,希望の意義を表す.二次語幹に対する接尾辞の接続に関しても接続規則1および2は適用される.例えば表~\ref{suffix}~では,「kak-(i)mas-\underline{(r)}u」における連結子音rが削除されている.一方,派生接尾辞に対して,「-(r)u」のように新たな語幹を派生しない接尾辞を{\dg統語接尾辞}と呼ぶ.統語接尾辞は動詞形を形成する役割を果たす.ここで,動詞形とは終止形,連体形,連用形,命令形の四形のことである.動詞に複数の接尾辞が接続する場合には,統語接尾辞が最後に接続する. \section{派生文法によるウイグル語動詞句の記述} \ref{sec:derivational_grammar}~章で述べた動詞句形成の特徴は日本語だけでなく,多くの膠着語にも現れる現象であり,ウイグル語にも同様の特徴がある.我々は,ウイグル語の記述に派生文法を用いることにより,その共通点を明確にした.例えば,日本語の動詞「書k-」に相当するウイグル語の動詞は``yaz-''である.使役の意味を表す場合,日本語では派生接尾辞「-(s)ase-」が接続して「書kase-」となる.同様にウイグル語では,``-\mguz-''という派生接尾辞が接続して``yaz\mguz-''となる.両言語間の派生接尾辞の対応を表~\ref{deri}~に示す.ここで,敬語表現の違いから,丁寧を表す日本語の接尾辞「-(i)mas-」に相当するウイグル語の接尾辞は存在しない.また,「-(r)are-」は受身・可能・尊敬の意味があるが,ここでは受身の意味に限定している.また,両言語とも最後に統語接尾辞が接続することによって動詞句が形成される.上述の例では,日本語の「-(i)ta」に相当する``-di''が``yaz\mguz-''に接続することで,動詞句``yaz\mguzdi''が形成される.両言語間の統語接尾辞の対応を表~\ref{tab:s_suffix}~に示す.\begin{table}[tbp]\caption{日本語とウイグル語の派生接尾辞の対応}\label{deri}\begin{center}\begin{tabular}{l|l|l|l|l}\hline\hline役割&日本語&ウイグル語&日本語例&ウイグル語例\\\hline使役&-(s)ase-&-\mguz-&kak-ase-&yaz-\mguz-\\受身&-(r)are-&-(i)l-&kak-are-&yaz-il-\\可能&-(r)e-&-(y)ala-&kak-e-&yaz-ala-\\丁寧&-(i)mas-&-&kak-imas-&yaz-\\否定&-(a)na-&-ma-&kak-ana-&yaz-ma-\\希望&-(i)ta&-\mgu-&kak-ita-&yaz-\mgu-\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\vspace{-5mm}\caption{日本語とウイグル語の統語接尾辞の対応}\label{tab:s_suffix}\begin{center}\begin{tabular}{c|l|l|l}\hline\hline動詞形&役割&日本語&ウイグル語\\\hline&非完了&{-(r)u}&{-[i]du}\\\lw{終止形}&完了&{-(i)ta}&{-di}\\&前望&{-(y)ou}&{-(a)y}\\&否定前望&{-(u)mai}&{-maydu}\\\hline\lw{連体形}&非完了&{-(r)u}&{-[i]di\mgan}\\&完了&{-(i)ta}&{-\mgan}\\\hline&順接&{-(i)}&{-(i)p}\\&完了&{-(i)te}&{-(i)p}\\&仮定条件&{-(r)eba}&{-sa}\\連用形&開放条件&{-(r)uto}&{-sa}\\&却下条件&{-(i)teha}&{-sa}\\&否定&{-(a)zu}&{-mastin}\\&同時&{-(i)nagara}&{-\mgaq}\\&目的&{-(i)ni}&{-\mgili}\\\hline\lw{命令形}&肯定命令&{-e},{-ro}&{-\mgin}\\&否定命令&{-(r)una}&{-ma\mgin}\\\hline\end{tabular}\end{center}\end{table}また,日本語と同様にウイグル語にも連結母音,連結子音が存在する.例えば,ウイグル語で受身を表す派生接尾辞は``-(i)l-''であり,括弧内のiが連結母音である.よって,日本語の\linebreak「作r-」に相当する動詞``yasa-''に``-(i)l-''が接続する場合,語幹末尾が母音であることから,iが欠落して``yasal-''となる.ところが,ウイグル語には連結母音,連結子音とは異なり,欠落する代わりに変化する音素も存在する.非完了の連体形を表す統語接尾辞``-[i]di\mgan''は,``yaz-''のような子音幹動詞に接続する場合には,[i]がそのまま表記され``yazidi\mgan''となるが,``yasa-''のような母音幹動詞に接続する場合には,iがyに変化して``yasaydi\mgan''となる.そのような音素を{\dg連結半母音}と呼び,[i]と表記する.このことから,ウイグル語には次の動詞接続規則もあることが判る.\begin{description}\item[接続規則3:]連結半母音[i]は,子音幹に接続する場合はiに,母音幹に接続する場合はyにそれぞれ変化する.\end{description} \section{派生文法を用いた逐語翻訳} 日本語--ウイグル語翻訳において,派生文法を用いた逐語翻訳を行った例を動詞句「作rareru」および「作ru」について示すと,図~\ref{verb_2}~のようになる.図~\ref{verb_1}~と比較した場合,単語が日本語とウイグル語の間で1対1に対応していることが判る.図~\ref{verb_1}~の例では,日本語の動詞語幹と活用語尾を分離していたが,「作ラレル」における「ラ」に対応するウイグル語の訳語が存在しなかった.しかし,派生文法では「-(r)are-」を1つの接尾辞とみなすことにより,ウイグル語の``-(i)l-''と対応させることが可能となる.また,接続規則1〜3により,ウイグル語の翻訳文も簡単に生成できる.図~\ref{verb_1}~の例では「-(r)u」に対応するウイグル語の翻訳語が下線部のように``-idu''と``-ydu''の2種類あるが,派生文法では連結半母音を利用して``-[i]du''とまとめて表記できる.\begin{figure}[tbp]\begin{center}\begin{tabular}{cccccc}\multicolumn{3}{c}{作rareru}&\vline&\multicolumn{2}{c}{作ru}\vspace{-2pt}\\\multicolumn{3}{c}{$\Downarrow$}&\vline&\multicolumn{2}{c}{$\Downarrow$}\vspace{-2pt}\\作r-&-(r)are-&-(r)u&\vline&作r-&-(r)u\vspace{-2pt}\\$\downarrow$&$\downarrow$&$\downarrow$&\vline&$\downarrow$&$\downarrow$\vspace{-2pt}\\yasa-&-(i)l-&-[i]du&\vline&yasa-&-[i]du\vspace{-2pt}\\\multicolumn{3}{c}{$\Downarrow$}&\vline&\multicolumn{2}{c}{$\Downarrow$}\vspace{-2pt}\\\multicolumn{3}{c}{yasalidu}&&\multicolumn{2}{c}{yasaydu}\\\end{tabular}\caption{派生文法を用いた動詞句の翻訳}\label{verb_2}\end{center}\end{figure}一方,表~\ref{conjugating_uighur}~に示すように,日本語の動詞の活用形ごとに対応するウイグル語の訳語を登録する手法もある.この手法はすでに示したように,1つの動詞に対し活用形の数だけ訳語を辞書に登録する必要がある.また,それを避けるため,辞書に語幹だけを登録し,活用形に応じて活用語尾に相当する接尾辞を付加する方法も考えられる.しかし,その場合,例えば終止形を形成する語尾が``-idu''になるのか``-ydu''になるのかを決定する処理が必要となる.そうした処理は,派生文法を用いてウイグル語を形成する場合に必要な処理と同じであり,派生文法を用いた手法と比較した場合,日本語における活用処理が必要となる点で劣っている.なお,日本語は語順の自由度が高いといわれるが,動詞語幹に接続する接尾辞の順序には明らかに制約がある.例えば,使役を表す派生接尾辞「-(s)ase-」と受身を表す接尾辞\linebreak「-(r)are-」の二つの接尾辞が動詞語幹に接続する場合,必ず「-(s)are」「-(r)are-」の順序で接続する.すなわち,「書k-」に接続する場合は「書k-ase-rare-」となり,接尾辞の順序が入れ替わって「書k-are-sase-」となることはない.そうした接尾辞の接続の順序も日本語とウイグル語で同じであると考えられる.このため,複数の接尾辞を含む複雑な動詞句も,図~\ref{verb_3}~に示すように,日本語入力文の形態素解析が終わった段階で,各単語を対応するウイグル語に置き換えれば,翻訳は基本的に可能となる.\begin{figure}[tbp]\begin{center}\begin{tabular}{ccccc}\multicolumn{5}{c}{書kaserarenai}\vspace{-4pt}\\\multicolumn{5}{c}{$\Downarrow$}\vspace{-2pt}\\書k-&-ase-&-rare-&-na-&-i\vspace{-2pt}\\$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\vspace{-2pt}\\yaz-&-\mguz-&-(i)l-&-ma-&-[i]du\vspace{-2pt}\\\multicolumn{5}{c}{$\Downarrow$}\vspace{-2pt}\\\multicolumn{5}{c}{yaz\mguzilmaydu}\vspace{-2pt}\\\end{tabular}\caption{逐語翻訳によるウイグル語--日本語翻訳}\label{verb_3}\end{center}\end{figure} \section{逐語翻訳における問題点} \label{section_problem}これまでに示したように,日本語とウイグル語の間の構文的および形態論的類似性は高いが,異なる部分もあり,日本語単語とウイグル語訳語を1対1に対応付けできない場合がある.その場合,単純な逐語翻訳では不自然な翻訳となる.本章では,そのような問題点を例を挙げて説明する.\subsection{終止形と連体形の区別}\label{sec:problem1}表~\ref{tab:s_suffix}~において,日本語では終止形と連体形に同じ形の接尾辞がある.例えば,完了を表す統語接尾辞は終止形でも連体形でも共に「-(i)ta」である.しかし,ウイグル語では同じ役割を果す接尾辞が終止形と連体形ではそれぞれ別の単語になる.例えば以下の例を考える.\begin{center}\begin{tabular}{lll}{終止形:}&彼ga書\underline{ita}.&Uyaz\underline{di}.\\{連体形:}&彼ga書\underline{ita}本.&Uyaz\underline{\mgan}kitap.\\\end{tabular}\end{center}ここで,日本語では共に「-(i)ta」で表されている部分が,ウイグル語では,終止形の場合は\linebreak``-di''に,連体形の場合は``-\mgan''になっている.したがって,「-(i)ta」の翻訳においては,その動詞形に応じて,``-di''と``-\mgan''のいずれが訳語として適切であるかの選択が必要となる.\subsection{派生語幹の不一致}\label{sec:problem2}否定の派生接尾辞は日本語では「-(a)na-」であり,ウイグル語では``-ma-''である.「書kanakatta」を単純に逐語翻訳すると,以下のようになる.\begin{center}\begin{tabular}{ccc}書k-&-ana-&-katta\vspace{-3pt}\\$\downarrow$&$\downarrow$&$\downarrow$\vspace{-1pt}\\\lwww{動詞}&\lwww{派生接尾辞}&形容詞接続\vspace{-3pt}\\&&統語接尾辞\vspace{-3pt}\\$\downarrow$&$\downarrow$&$\downarrow$\vspace{-2pt}\\yaz-&-ma-&-k\men\\\end{tabular}\end{center}ここで,``-k\men''は形容詞の語幹に接続して完了の意味を表すウイグル語であり,日本語の\linebreak「-katta」に相当する.しかし,実際のウイグル語では,``-ma-''の後に接続する単語は``-k\men''ではなく,日本語の動詞接尾辞「-(i)ta」に相当する``-di''で,「書kanakatta」の翻訳としては``yazmadi''が自然である.これは日本語の「-(a)na-」が形容詞の語幹を派生するのに対して,ウイグル語の``-ma-''は動詞語幹を派生するからである.希望を表す派生接尾辞についても,同様の問題がある.日本語で希望を表す派生接尾辞「-(i)ta-」は形容詞語幹を派生する接尾辞であるが,これに対してウイグル語で希望を表す動詞接尾辞は``-\mgum''である.例えば,「私ハ書キタカッタ.」の自然なウイグル語訳は``M\menyaz\mgumbaridi.''であるが,これを日本語に直訳すると「私ハ書キタイコトガアッタ.」となる.すなわち,``-\mgum''は「〜シタイコト」の意味で動詞を名詞化する接尾辞であり,その後に「アッタ」に相当する``baridi''が接続して,``yaz\mgumbaridi''と表現される.このことから,``-\mgum''は動詞語幹に接続し,名詞語幹を派生する接尾辞と考えられる.このように派生接尾辞「-(a)na-」と``-ma-'',および「-(i)ta-」と``-\mgum''ではそれぞれ派生する語幹が異なるため,単純な逐語翻訳では不自然な翻訳となる.\subsection{サ変動詞の対応}\label{sec:problem3}日本語のサ変動詞とは,その単語の基本となる形が名詞であるが,接尾辞「スル」が接続することによって動詞化する単語のことである.例えば「開発」,「登録」がその例であり,日本語には数多く存在する.ウイグル語にも,「スル」に相当する単語として``\mkilma\mk''がある.例えば,「開発」に相当するウイグル語名詞は``k\mexip''であるが,これが動詞化して「開発スル」となる場合,ウイグル語では``k\mexip\mkilma\mk''となる.よって,「スル」の訳語として``\mkilma\mk''を対応させれば,逐語翻訳による翻訳が可能となると考えられる.しかし,この手法では不自然な翻訳となる例が存在する.例えば,「登録」に相当するウイグル語は``tizimlax''であるが,「登録スル」に相当するウイグル語は``tizimlax\mkilma\mk''ではなく,``tizimlama\mk''である.ここで,``tizimla-ma\mk''の``-ma\mk''は動詞の辞書見出し形をつくる接尾辞であり,語幹は``tizimla-''である.つまり,``tizimlax''は,動詞語幹``tizimla-''に名詞化接尾辞``-(i)x''が接続することによって形成される名詞であり,``tizimlax\mkilma\mk''は日本語の「登録スルコトヲスル」に相当する冗長な表現となる.そのため,「登録スル」の翻訳に際しては,逐語翻訳``tizimlax\mkilma\mk''ではなく,``tizimlama\mk''と翻訳するのが望ましい.\vspace{-1mm} \section{訳語置換表の導入} \label{sec:replacement_table}本章では,\ref{section_problem}~章で挙げた問題への解決方法を示す.それらの問題は,いずれもウイグル語の訳語を,その前後に現れる単語に応じて訳し分けることで解決できる.そこで,逐語翻訳したウイグル語単語とその前後に現れるウイグル語単語との関係から,より自然な訳語に置き換える訳語置換法を導入する.前後に現れる単語の情報を利用する場合,翻訳前の原言語の単語接続関係を利用する方法と,翻訳後の目的言語の単語接続関係を利用する方法とが考えられる.前者は,原言語の接続関係から訳語を選択する手法であり,\cite{J_KIM1996_2}などで用いられている.それに対して,後者はいったん各単語を翻訳し,後処理として不自然な訳語を適切なものに置換する手法である.前者の訳語選択手法では,原言語と目標言語の双方に関する知識がないと訳語選択の規則を記述することは困難であるが,後者の訳語置換手法では,目標言語に関する知識があれば,置換規則が記述できる.また,別の原言語に対しても,元の置換規則を再利用できる可能性がある.そうした点を考慮して,本手法では,後者の手法を採用した.\begin{table}[tb]\begin{center}\caption{訳語置換表}\label{replace}\begin{tabular}{l||l|c|c|l|l}\hline日本語&基本訳語&前接ウイグル語&後接ウイグル語&新訳語&新品詞\\\hline\hline-(r)u&-[i]di\mgan&*&文末&-[i]du&終止接尾辞\\&&*&句読点&-[i]du&終止接尾辞\\&&*&終助辞&-[i]du&終止接尾辞\\-(i)ta&-\mgan&*&文末&-di&終止接尾辞\\&&*&句読点&-di&終止接尾辞\\&&*&終助辞&-di&終止接尾辞\\\hline-katta&-k\men&-ma-&*&-\mgan&連体接尾辞\\&&-\mgum&*&baridi&名詞接尾辞\\\hline登録&tizimlax&*&\mkil-&tizimla-&サ変動詞\\減少&azayix&*&\mkil-&azay-&サ変動詞\\si-,su-,se-&\mkil-&サ変動詞&*&-&母音幹動詞\\\hline\end{tabular}\end{center}\end{table}\subsection{訳語置換表}本手法では,形態素解析が終了した段階で,いったん各日本語単語をウイグル語の基本訳語に翻訳する.その後,文の先頭から順に各訳語とその前後の訳語を調べ,他の訳語が適切である場合はその訳語に置き換える.この置換規則を記した表を{\dg訳語置換表}(表~\ref{replace})と呼ぶ.表~\ref{replace}~では,一番左の欄に日本語の単語が記述してあるが,これは表の理解を助けるためのものであり,実際の翻訳システムが用いる訳語置換表では省略される.次の列のウイグル語は,その日本語に対応する基本訳語である.前接ウイグル語および後接ウイグル語の欄は,基本訳語を置換する場合の条件を示しており,それらのウイグル語が前後に現れる場合,基本訳語を新訳語で置換する.前接ウイグル語および後接ウイグル語の欄には,基本的にウイグル語の単語を記述するが,規則の記述を簡潔にするため,単語の代わりに品詞を記述することも可能とする.なお,前接ウイグル語または後接ウイグル語に依存しない置換規則の場合は,条件の欄に*~(don'tcare)を記述しておく.新訳語の欄には,条件を満たした場合に基本訳語を置き換えるための新しい訳語を記述しておく.また,今回の手法では,訳語置換を行うかどうかを文の先頭から順に検査するため,訳語を置換した場合には,置換後の訳語の品詞が必要になる.そこで,それを新品詞の欄に記述しておく.以下では,\ref{section_problem}~章で取り上げた各問題を訳語置換表を利用して解決する方法を示す.\subsection{終止形と連体形の区別の処理}\label{subsec:finite}\ref{sec:problem1}~節で取り上げた終止形と連体形の区別は,後接する単語の品詞に依存して決まる.そこで,例えば,「-(i)ta」については,それに対する基本訳語を連体形の``-\mgan''とし,後接ウイグル語の品詞が「文末」,「句読点」,「終助辞」のいずれかである場合にのみ,終止形の``-di''に置き換えるという規則を訳語置換表に記述しておく.なお,基本訳語として``-\mgan''の方を選んだ理由は,置換規則の数を少なくするためである.\subsection{派生語幹の不一致の処理}\ref{sec:problem2}~節で言及した派生語幹の不一致の問題は,「-katta」の訳語を,その前に現れる単語によって訳し分けることで解決できる.そこで,「-katta」の基本訳語を形容詞の語幹に接続する``-k\men''とし,前接ウイグル語が``-ma-''である場合には``-\mgan''に,前接ウイグル語が``-\mgum''である場合には``baridi''に置き換えるという規則を導入する.ところがここで,``-ma-''に後接する接尾辞の候補として,連体形を表す``-\mgan''の他に,終止形を表す``-di''も考えられる.そうした区別を考えた場合,後接ウイグル語の条件も考慮し,置換規則を書く必要が生じるが,それは前接ウイグル語と後接ウイグル語の組合せに応じて置換規則が増えることになり,そのメンテナンスが困難となる.そこで,``-k\men''を``-\mgan''に置換するという規則だけを記述し,終止形の場合は,\ref{subsec:finite}~節で述べた置換規則で対処する.つまり,一つの訳語を置き換えた場合,すぐに新訳語を出力するのではなく,その新訳語が更に訳語置換表の別の条件を満たしていないかを検査し,もし満たしている場合は,再び訳語を置き換えるのである.その結果,置換規則の簡略化と,規則のメンテナンスの容易さが実現できる.ただし,置換規則の書き方によっては,際限なく規則が適用され,置き換えが終了しない場合が生じるため,置換規則の記述には注意が必要となる.\subsection{サ変動詞の対応の処理}\ref{sec:problem3}~節で取り上げたサ変動詞の対応の問題は,逐語翻訳``tizimlax\mkilma\mk''に訳語置換を施すことで対処できる.``tizimlax''に動詞``\mkil-''が後接する場合,``tizimlax''を``tizimla-''と置き換える.ただし,その後で``\mkil-''を消去する必要がある.そこで,置換した``tizimla-''に,特別な品詞「サ変動詞」を与え,``\mkil-''の前接ウイグル語の品詞が「サ変動詞」である場合に,``\mkil-''を何も出力しないことを表す``-''に置き換える.この「サ変動詞」という品詞は形態素解析の結果には出現せず,訳語置換の場合だけに利用する品詞である.なお,この手法では,そうした変化をする全ての名詞に対して規則が必要となるが,これは動詞語幹に名詞化接尾辞``-(i)x''を付加することで自動的に生成できる.\subsection{訳語置換の例}\begin{figure}[tb]\begin{center}\begin{tabular}{ccccc}\multicolumn{5}{c}{登録sinakatta.}\\\multicolumn{5}{c}{$\Downarrow$}\\登録&si-&-na-&-katta&.\\$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\\underline{tizimlax}&\mkil-&-ma-&-k\men&.\\$\downarrow$&&&&\\tizimla-&\underline{\mkil-}&-ma-&-k\men&.\\&$\downarrow$&&&\\tizimla-&-&\underline{-ma-}&-k\men&.\\&&&&\\tizimla-&-&-ma-&\underline{-k\men}&.\\&&&$\downarrow$&\\tizimla-&-&-ma-&\underline{-\mgan}&.\\&&&$\downarrow$&\\tizimla-&-&-ma-&-di&\underline{.}\\\multicolumn{5}{c}{$\Downarrow$}\\\multicolumn{5}{c}{tizimlamadi.}\\\end{tabular}\end{center}\caption{提案手法における翻訳の例}\label{example}\end{figure}この手法による例文「登録sinakatta(登録シナカッタ).」の翻訳過程を図~\ref{example}~に示す.「登録」の基本訳語は``tizimlax''であるが,日本語のサ変動詞「si-」の訳語``\mkil-''が後接するため,訳語置換表を用いて``tizimla-''に置き換えられる.次の``\mkil-''は,前の単語が``tizimla-''に置き換えられたため,前接単語が「サ変動詞」であるという条件を満たす.したがって,何も語を訳出しないことを意味する``-''に置き換えられる.次に,「-katta」の基本訳語``-k\men''は前接のウイグル語単語が``-ma-''であるため,訳語置換表の条件に合致し``-\mgan''に置き換えられる.また,この置き換えられた``-\mgan''を訳語置換表を用いて再検査すると,後接のウイグル語が句読点であるという条件を満たすため,終止形を表す``-di''に置き換えられる.この結果,最終的に入力文「登録シナカッタ.」に対する自然な翻訳文``tizimlamadi.''が得られる. \section{機械翻訳システムの実現} \label{sec:ju_system}\begin{figure}\begin{center}\begin{tabular}{cccccccccc}{\bf入力文}&&\multicolumn{8}{c}{閉められたドアを開けた.}\\{$\downarrow$}&&\multicolumn{8}{c}{\large$\Downarrow$}\\\lw{\framebox[35mm][c]{\rule[-3mm]{0mm}{9mm}MAJO}}&&{閉me-}&{-rare-}&{-ta}&{ドア}&{-wo}&{開ke-}&{-ta}&{.}\\&&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\$\downarrow$&&{\met}&{-(i)l-}&{-\mgan}&{ixik}&{-ni}&{aq-}&{-\mgan}&{.}\\\framebox[35mm][c]{訳語置換}&&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\$\downarrow$&&{\met}&{-(i)l-}&{-\mgan}&{ixik}&{-ni}&{aq-}&{-di}&{.}\\\framebox[35mm][c]{ウイグル語整形}&&\multicolumn{8}{c}{\lw{\large$\Downarrow$}}\\$\downarrow$\\{\bf出力文}&&\multicolumn{8}{c}{\metilg\menixikniaqdi.}\end{tabular}\caption{翻訳システムとその動作例}\label{fig:system}\end{center}\end{figure}本章では,本論文で提案した手法に基づく日本語--ウイグル語機械翻訳システムの実現について述べる.我々は,日本語--ウイグル語機械翻訳システムを日本語形態素解析システム,訳語置換システム,ウイグル語整形システムの三つのモジュールで構成した.図~\ref{fig:system}~に本翻訳システムと,その動作例を示す.日本語形態素解析システムには,我々がこれまでに開発した{\bfMAJO}(\underline{M}orphological\underline{A}nalyzerof\underline{J}apanesebased\underline{O}nderivationalgrammar)\cite{OGAWA1999}を使用した.MAJOは派生文法に基づいて日本語の形態素を解析するシステムであり,辞書に各単語の情報を(日本語単語,品詞名,意味)の3項組の形で登録している.今回作成した機械翻訳システムではMAJOの辞書を,(日本語単語,品詞名,ウイグル語訳語)の3項組で表される日本語--ウイグル語辞書に置き換えて使用した.この結果,MAJOの出力結果は,そのまま逐語翻訳の結果となる.なお,変更部分は辞書のみであり,文法やシステム自体には何ら変更を加えずに使用した.なお,本翻訳システムでは,入力として漢字仮名混じりの日本語文を扱うが,派生文法に基づく解析を行うため,形態素解析の前処理の段階で,入力文中の平仮名の部分を日本式ローマ字表記\footnote{日本式ローマ字表記は仮名に従った表記をする.訓令式やヘボン式では「ぢ」「づ」「を」を音に従ってそれぞれ「zi」「zu」「o」と表記するが,日本式ローマ字表記ではそれぞれ「di」「du」「wo」となる.}に変換する.形態素解析システムMAJOの出力結果は,そのまま入力文に対する逐語翻訳となり,訳語置換システムに引き渡される.訳語置換システムは,\ref{sec:replacement_table}~章で述べた訳語置換表を実現するモジュールである.すなわち,訳語置換システムでは,訳語置換表と逐語翻訳の結果を比較し,置換表に記入された規則に該当する語の並びが出現した場合,適切な訳語に置き換える.図~\ref{fig:system}~の例では,2回出現している動詞接尾辞\linebreak「-ta」はMAJOの出力の段階では共に``-\mgan''と翻訳されているが,訳語置換システムにより,文末に出現する``-\mgan''は``-di''に置換されている.ウイグル語整形システムはウイグル語の音韻規則を処理し,最終的なウイグル語翻訳文を出力するシステムである.連結母音・連結子音の削除も音韻規則の一つであり,それらはウイグル語整形システムで処理する.例えば,図~\ref{fig:system}~の例では,訳語置換システムの出力に,連結母音を含む派生接尾辞``-(i)l-''が存在するが,子音幹に接続しているため,この連結母音(i)はそのままiとして出力される.また,ウイグル語には連結母音・連結子音以外にも母音調和や母音の弱化・同化などの音韻規則が存在する\cite{TAKEUTI}.これは文の発音を容易にするために接尾辞や語幹が変化する現象である.例えば母音調和については,ウイグル語の母音に前母音\me,\mv,\moと後母音a,u,oの区別があり,前母音を含む動詞には前母音を含んだ接尾辞が,後母音を含む動詞には後母音を含んだ接尾辞がそれぞれ接続する.ただし,iとeは母音調和に関しては中立である.現在では,ウイグル語整形システムの内部処理においてこれらの音韻規則を処理している.図~\ref{fig:system}~の例においては,連体形を形成する完了の統語接尾辞``-\mgan''が派生接尾辞``-(i)l-''を狭んで前母音を含む動詞``\met-''に接続しているため,ウイグル語整形システムによって``-\mgan''が``-g\men''に置き換えられ,最終的なウイグル語文では,``\metilg\men''となっている. \section{翻訳実験の評価と検討} 本章では,我々が作成した翻訳システムを用いた翻訳実験の結果と,その評価について述べる.環境問題を扱った新聞社説など3編の日本語文138文を本システムを用いて翻訳し,生成された282個のウイグル語動詞句について翻訳精度の評価を行った.なお,このウイグル語動詞句には同じものがいくつか含まれており,異なる動詞句の数は250種であった.また,実験に使用した辞書であるが,充分な規模の日本語--ウイグル語辞書がそもそも存在しないため,ウイグル語--日本語辞書\cite{IINUMA}を電子化し,その逆辞書として日本語--ウイグル語電子化辞書を自動的に作成して\cite{OGAWA_dic},実験に利用した.ただし,この辞書をそのまま使用した場合,入力文には未登録語が多数出現する.今回の実験は,ウイグル語文全体の翻訳精度ではなく,動詞句の翻訳精度を測定するためのものであるので,翻訳に必要な語を適宜登録し,未登録語は無いものとして実験を行った.その結果,実験に使用した辞書は,約16,000語の単語を登録したものとなった.また,訳語置換規則を853個登録して実験に使用したが,そのうちの799個がサ変動詞のための規則である.実験では,訳語置換表を用いた場合と用いなかった場合の翻訳精度の差を比較した.評価は翻訳システムの出力文に出現した動詞句のうち,まったく誤りの無いものを正解,それ以外を不正解とした.翻訳実験の正解率を表~\ref{translation}~に,また翻訳誤り箇所数の内訳を表~\ref{miss_translation}~に示す.なお,一つの動詞句の翻訳に失敗した場合でも,その原因が複数ある場合があり,誤りの合計は翻訳に失敗した動詞句の数よりも多くなっている.\begin{table}[tbp]\caption{翻訳実験の結果}\label{translation}\begin{center}\begin{tabular}{l|r|r|r}\hline\hline&動詞句数&正解翻訳数&正解率\\\hline単純な逐語翻訳&282&104&36.9\%\\置換表を利用&282&197&69.9\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\vspace{-4mm}\caption{翻訳誤り箇所数の内訳}\label{miss_translation}\begin{center}\begin{tabular}{l|r|r}\hline\hline誤り原因&単純な逐語翻訳の場合&置換表を利用した場合\\\hline終止形と連体形の区別&52&2\\派生語幹の不一致&7&0\\サ変動詞の対応&60&0\\直訳不能&21&21\\訳語の多義性&49&49\\人称接尾辞の選択&5&5\\音韻規則の適用&7&7\\形態素解析&2&2\\\hline合計&203&88\\\hline\end{tabular}\end{center}\end{table}表~\ref{miss_translation}~における誤りのうち,終止形と連体形の区別,派生語幹の不一致,および,サ変動詞の対応は,\ref{section_problem}~章で述べた誤りである.終止形と連体形の区別が必要となる接尾辞は,今回の実験では176箇所に出現したが,そのうち終止形であるものが50箇所あった.それらは,訳語置換表を用いることにより,すべてを正しく翻訳できた.しかし,正しくは連体形であるものを,誤って終止形に置換してしまった箇所が2箇所あった.例えば,入力文「気ヲ配ラナ\underline{カッタ},アルイハ無神経ダッタトコロ」の下線部「カッタ」は最後の「トコロ」を修飾するため連体形であるが,読点の直前に出現するため,訳語置換表の規則により終止形に置き換えられてしまった.そうした問題は構文的情報を利用しない本手法では正しく翻訳できない.派生語幹の不一致(7箇所)やサ変動詞の対応(60箇所)の問題については,訳語置換表を用いることにより,すべてを正しく翻訳できた.以上の結果,表~\ref{translation}~に示すように,訳語置換表を用いることにより,正しく翻訳できた動詞句が約3割増加した.このことから,訳語置換表の有用性が示せた.以下では,翻訳失敗の原因について考察する.まず,直訳不能に分類される誤りは,慣用句やそれに近い表現であり,単語ごとに翻訳しただけでは適切に翻訳できない.例えば,「環境ノ世紀ヲ迎エルニ当タッテ」という入力文は,ウイグル語に直訳しても元の文とは異なる意味になってしまう.正しく翻訳するためには「当タッテ」を「迎エル前ニ」といった意味的に等価な表現に変換する必要があると考えられる.訳語の多義性とは,日本語の単語に対して複数のウイグル語の訳語が相当する場合に,正しい訳語が選択できないという誤りである.今回の実験では,一つの日本語単語に一つのウイグル語訳を対応させた辞書を用いたため,文脈によってはその訳が適切でない場合があった.例えば,日本語の「〜シテイル」における補助動詞「i-」に相当するウイグル語には,動詞接尾辞``-(i)wat-'',補助動詞``k\mel-'',``k\met-'',``tur-'',``oltur-'',``y\mvr-''などがある.入力文には「生存ヲ\underline{許サレテイル}.(ruhs\met\mkiliniwatidu)」「宇宙全体ニ\underline{カカワッテイル}(ta\mkilipk\melidu)」「\underline{似テイル}(ohxapketidu)」「自然界ヲ\underline{動カシテイル}秩序(\mh\merk\metl\mend\mvripturidi\mgan)」といった句で補助動詞「i-」が出現したが,それぞれの下線部に対する自然なウイグル語訳は,括弧内に示すものであり,「i-」に対する訳語はそれぞれ異なっている.どの訳語を選択するかは「〜シテイル」の意味に依存するため,現状では対応できていない.今回の実験では,動詞の多義性が原因で失敗した箇所は10箇所,接尾辞および補助動詞の多義性が原因で失敗した箇所は39箇所であった.人称接尾辞の誤りは,適切な人称接尾辞を付加できなかった誤りである.ウイグル語の動詞句には,日本語に存在していない人称接尾辞が付加する場合がある.人称接尾辞は,動詞に対する動作主に依存して決まるが,現在のシステムでは動作主を特定する処理は行っていない.そのため,今回の実験では,人称接尾辞が出現した場合は,いずれも三人称単数を表す人称接尾辞を付加した.その結果,48箇所出現した人称接尾辞のうちの5箇所において人称の選択を誤った.人称接尾辞を適切に補うためには,動作主の特定が必要になる.特にウイグル語文では,日本語文と同様に動作主が文中に明示されない場合が多く,その特定は今後の課題である.また,現在の翻訳システムでは,ウイグル語整形システムの内部処理により,\ref{sec:ju_system}~章で述べた音韻規則を処理している.今回の実験では,動詞句282個に対し,音韻処理を335箇所で行った.1つの動詞句に対し,複数の音韻処理が適用される場合があるため,適用箇所の合計は動詞句の数よりも多くなる.なお,音韻処理を適用しても音韻変化する条件を満たしていない場合は動詞句の形は不変であるが,今回の実験では175箇所がそれに該当し,実質的に音韻変化した箇所は160箇所であった.また,音韻処理を施した335箇所のうち,7箇所で間違いがあった.その原因は,母音iとeが母音調和に関して中立であるためである.母音としてiもしくはeしか含まない動詞の場合,後接する接尾辞が前母音を含んだものになるか,あるいは後母音を含んだものになるかは動詞ごとに異なる.そのため,動詞に含まれる後母音の有無で接尾辞を決定している現在のウイグル語整形システムでは,適切な接尾辞を選択できない. \section{おわりに} 本論文では派生文法を用いた日本語--ウイグル語の動詞句の機械翻訳手法について述べた.派生文法を用いてウイグル語動詞句も記述することにより,動詞接尾辞間の対応が明確になり,逐語翻訳でも高精度な動詞句の翻訳が可能になることを示した.また,本論文では,不自然な翻訳を避けるための訳語置換表を提案した.その結果,動詞句の翻訳において,より自然な翻訳文を生成することが可能となった.また,本手法に基づく翻訳システムを作成し,実験によりその有効性を確かめた.現在の翻訳システムでは,一つの日本語の単語に対して複数のウイグル語の単語が相当する場合に,どの単語を選択するかを考慮していない.特に日本語で受身・可能・尊敬の意味をもつ動詞接尾辞「-(r)are-」に対しては,すべて受身と仮定している.今後は,そうした曖昧な翻訳語の選択方法について検討していく.また,今回の提案では訳語置換の条件として,ウイグル語の単語および品詞の情報に限定しているが,意味情報などを扱えるように拡張することにより,訳語の多義性の解消などにも応用が可能と考えられる.今後は,翻訳の対象を動詞句以外にも広げ,本システムを使用した翻訳実験を進めると共に,実用的な日本語--ウイグル語翻訳システムの実現を目指す.また,本手法が他の膠着語間の機械翻訳においても有効であることを示すため,現在,本手法に基づいたウイグル語--日本語翻訳システムを開発中である.\bibliographystyle{jnlpbbl}\bibliography{v07n3_04}\begin{biography}\biotitle{略歴}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.1997年同大学院工学研究科情報工学専攻修士課程修了.現在,同博士課程在学中.自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{ムフタルマフスット}{1983年新彊大学数系卒業.1996年名古屋大学大学院工学研究科情報工学専攻博士課程満了.同年,三重大学助手.現在,名古屋大学計算理工学専攻稲垣研究室特別研究員.自然言語処理に関する研究に従事.人工知能学会,情報処理学会各会員.}\bioauthor{杉野花津江}{1961年愛知学芸大学数学科卒業と同時に名古屋大学工学部に勤務.現在,名古屋大学大学院工学研究科助手.オートマトン・言語理論,確率オートマトン,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{外山勝彦}{1984年名古屋大学工学部電気学科卒業.1989年同大学院工学研究科情報工学専攻博士課程満了.同大助手,中京大学講師,助教授を経て,1997年名古屋大学大学院工学研究科助教授.工学博士.論理に基づく知識表現と推論,自然言語理解に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会各会員.}\bioauthor{稲垣康善}{1962年名古屋大学工学部電子工学科卒業.1967年同大学院博士課程修了.同大助教授,三重大学教授を経て,1981年より名古屋大学工学部・大学院工学研究科教授.工学博士.この間,スイッチング回路理論,オートマトン・言語理論,計算論,ソフトウェア基礎論,並列処理論,代数的仕様記述法,人工知能基礎論,自然言語処理などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,電気学会,日本ソフトウェア科学会,日本OR学会,IEEE,ACM,EATCS各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V02N03-04
\section{はじめに} 自然言語には定型表現と呼ばれる単語間の共起性が強い表現が数多く存在する.定型表現を収集,整理しておくことは言語学的な観点からも機械処理の観点からも有益である.例えば「目を盗む」や「かたずを飲む」などの慣用表現は,その表現の意味が個々の構成語の意味からは作り出すことができない\cite{miyaji}.このために,機械処理ではそれら表現に例外的な処理を施す必要がある.また言語学的にも語の持つ意味の標準的用法と非標準的用法の境界を考察する上で,このような表現を網羅的に収集することが望まれる.また慣用表現ではなくとも,「に関して」「も少なくない」「て欲しい」などの定型表現では個々の構成語に分割して処理するよりも予め一語として捉えていた方が機械処理の面では実用的な場合が多い.また外国語習得の面でも,共起性の強い表現を単語のように,1つの概念に対応する固定した文字列として捉え,それらを記憶しておくことが効果的である.その他,音声認識,OCRにも,共起性の強い表現を記憶しておくことが,そこでの曖昧性の解消に役立つことが知られている\cite{church,kita}.定型表現は付属語的なものと,そうでないもののに大きく分けられ,後者の中に述語型定型表現が存在する.述語型定型表現とは「目を盗む」のように\begin{center}名詞+格助詞+動詞\end{center}のパターンになっている定型表現である.これら表現は定型表現の大きな部分を占め,また,通常の名詞動詞間の共起による解析との整合性が必要となる\cite{oku,suzuki}.さらに「将棋を指す」「碁を打つ」のように,同じの意味の動詞(play)でも名詞によって異なる表現を用いるコロケーションの問題を考察する上でも,述語型定型表現の収集が望まれる.このような理由から定型表現の中でも特に述語型定型表現を収集することは重要である.述語型定型表現を収集することは有益であるが,その収集は困難である.なぜなら,それら表現の客観的な定義は困難なため,個々の表現に対して人間の判断が必要となり,その収集には膨大な時間と手間がかかるからである\cite{syudo}.また人手による収集では,その網羅性,一貫性などの問題点もある.これらの点から定型表現や慣用表現の自動抽出の試みがなされているが\cite{smadja,shinnou},それら研究の多くは相互情報量を用いて共起の強さを測ることを基本としている\cite{church}.相互情報量は2つの単語がそれぞれ独立に現れる確率と同時に現れる確率との比を基に共起の強さを測る.基本的に相互情報量では2単語間が引き合う強さを総合して判断し,共起の強さを定めている.しかし言語的に考えれば,一方の単語がもう一方を引っぱるような片方向だけの強さを持っている場合でも,その表現に定型性があると考えることは自然である.本論文では上記の点を考察し,述語型の表現における名詞動詞間の共起性を測る新たな基準を提案する.概略述べると,まず,名詞あるいは動詞を固定して,共起している単語の集合を作り,その集合内で特異な高頻度の単語を取り出す.これによって,片方向から引っ張る強さの条件だけで抽出を行なうことができる.特異な高頻度の単語の判定法は,基本的に集合内の頻度の割合と,集合内の単語の種類数から判定する.判定の際に共起の強さを表す数値を与える.最終的にこの数値の上位部分を抽出とする.実験として,本論文で提案する基準を用いて,朝日新聞1か月分のコーパス(テキスト部分約9Mbyte)から「AをBする」の形の述語型定型表現の抽出実験を行ない,本手法の有効性を確認した.その結果,名詞を固定した場合に抽出できる表現と動詞を固定した場合に抽出できる表現には,ほとんど共通のものがなかった.また抽出の正解率はどちらの場合も相互情報量による抽出と同程度であった.一方,相互情報量による抽出の正解率は抽出数を増やしてゆけば当然下がる.このことから,同数の抽出を行なうことを考えると,本手法の場合,その半数の抽出の場合の正解率を保つことができ,相互情報量を用いた手法よりも広い範囲の定型表現を抽出できることがわかる. \section{相互情報量からの共起性測定法の問題点} 相互情報量の定義は以下の式である.\[I(x,y)=\log_{2}\frac{p(x,y)}{p(x)p(y)}\]ただし\(p(x)\)はコーパス中に\(x\)が現れる確率,\(p(x,y)\)はコーパス中に\(x\)と\(y\)がこの順に並んで現れる確率である.相互情報量は基本的に単語\(x\)と単語\(y\)の共起の強さを測るものであり,多単語間の共起の強さを測るために,どのような拡張を行なうかは未解決である.ただし,述語型の表現\begin{center}名詞(\(n\))+格助詞(\(r\))+動詞(\(v\))\end{center}の場合,以下の式によって相互情報量を測ることが自然である.\[I(r,n,v)=\log_{2}\frac{\frac{f(r,n,v)}{N}}{\frac{f(n)}{N}\frac{f(v)}{N}}\cdots(1)\]ここで\(N\)はコーパス中の文の総数,\(f(x)\)は単語\(x\)がコーパス中で格助詞\(r\)をともなって出現した頻度,\(f(r,n,v)\)はコーパス中で名詞\(n\)と動詞\(v\)が格助詞\(r\)によって共起した頻度である.(1)式からわかるように,相互情報量は本質的に\[\frac{f(r,n,v)}{f(n)f(v)}\cdots(2)\]の値によって強さの比較が行なわれている.\(f(r,n,v)\leqf(n)\),\(f(r,n,v)\leqf(v)\)は明らかなので,(2)式は\[f(r,n,v)=f(n)=f(v)\cdots(3)\]の時に最大値をとる.ここで注目すべきは,(3)式の条件は,以下の条件よりも強いということである.\begin{description}\item[【条件a】]\underline{名詞\(n\),格助詞\(r\)が現れると必ずその後には動詞\(v\)が現れる.}\end{description}通常,[条件a]は定型性が認められる十分な条件だと考えられる.しかし[条件a]を満たし,しかも(2)式の値が低くなるケースは非常に多い.例えば図1,図2の例を見てみる.\begin{figure}[h]\begin{center}\epsfile{file=fig1and2.eps,width=133mm}\end{center}\end{figure}\begin{minipage}{66mm}\begin{center}{\small{\gt図1}\\定型表現の共起の例}\end{center}\end{minipage}\begin{minipage}{67mm}\begin{center}{\small{\gt図2}\\一般表現の共起の例}\normalsize\end{center}\end{minipage}\addtocounter{figure}{2}\bigskip\bigskip通常,「かたずを」という表現が現れれば「飲む」という動詞が現れる.「かたずを」の頻度が100,「かたずを飲む」の頻度も100となっているが,「を飲む」自身は他の多くの名詞とも共起するために,その頻度は1000となっている(図1参照).このため(2)式の値は\(10^{-3}\)となる.一方,「日本語を勉強する」という表現では,「日本語を」の頻度が200,「日本語を勉強する」の頻度が10,「を勉強する」の頻度が50,となっている(図2参照).この場合も(2)式の値は\(10^{-3}\)となる.「かたずを飲む」と「日本語を勉強する」が上記のような頻度分布を持つ場合,それらに同じ共起の強さを与えるのは,不自然さがある.言語的に考えると,[条件a]は順方向に読んでいくと後ろの部分が定まる,つまりこう言えば必ずその後はこう言う,といった表現のもつ条件である.相互情報量はさらに逆方向の共起の強さも加味している.つまりこの表現の前には必ずこういう表現が現れているはずという条件も加味している.言葉を換えてまとめれば,相互情報量は,その言葉通り,相手の単語を\underline{相互に}引っ張る力を総合してその値を定めている(図3参照).\begin{figure}[h]\begin{center}\epsfile{file=fig3.eps,width=95mm}\end{center}\caption{双方向からの共起}\end{figure} \section{片方向の強さのみによる共起性の測定} 相互情報量は双方向から引っ張る力を総合して考えて,その単語間の共起の強さを数値化している.これは共起の強さの一側面を表しており,この判定法によってもある種の定型表現の類は抽出できる.しかし,上記したように,言語的に考えれば片方向からの共起の強さだけ持っていた場合でも共起性があると判断するのは自然である.本論文ではこの点に注目して,相互情報量の双方向という条件を片方向という条件の形に直した新たな共起性の測定方法を提案する.まず,ある動詞\(v_{0}\)と格助詞\(r_{0}\)を伴って現れた名詞\(n\)の集合を作成する.つまり,\begin{center}名詞(\(n\))+格助詞(\(r_{0}\))+動詞(\(v_{0}\))\end{center}の形を持つ名詞\(n\)をコーパスから取り出す.この名詞\(n\)の集合から特異な頻度を持つ名詞\(n_{i}\)(複数の場合もあり得る)を取り出し,\begin{center}名詞(\(n_{i}\))+格助詞(\(r_{0}\))+動詞(\(v_{0}\))\end{center}を定型表現として抽出する.「特異な頻度」の判定方法だが,ここでは基本的に以下の式の値を動詞\(v\)に対する名詞\(n\)の特異な頻度の程度を表す値とした.\[\frac{f(r,n,v)}{\sumf(n:r,v)}*\frac{1}{k(n:r,v)-1}...(5)\]ここで,\(k(n:r,v)\)は動詞\(v\)が格助詞\(r\)をともなって共起する名詞の種類数を表す.\(k(n:r,v)\)が\(1\)の場合,(5)式の値は\(1\)と定義する.また\(\sumf(n:r,v)\)は,動詞\(v\)が格助詞\(r\)をともなって共起する名詞の総頻度数を表す.すべての動詞を固定した場合に得られた表現を(5)式の値によってソートし,その上位の部分を抽出する.(5)式は固定した動詞と共起する名詞\(n\)の種類数が少なく(\(k(n:r,v)\)が小さい),固定した動詞と共起する名詞の総頻度(\(\sumf(n:r,v)\))に対して注目している名詞の頻度(\(f(r,n,v)\))の割合が高いほど大きな値となるように設定している.上記までの説明は動詞を固定した場合だが,同様にして名詞を固定した場合の抽出も行なう.最後に図1の「かたずを飲む」を例にして試して見る.動詞「飲む」を固定して考えると,「かたずを飲む」の(5)式の値は大きくないが,名詞「かたず」を固定して考えると,(5)式の値は1になる.一方,図2の「日本語を勉強する」の場合,動詞を固定した場合,\[\frac{f(を,日本語,勉強する)}{\sumf(n:勉強する,を)}*\frac{1}{k(n:勉強する,を)-1}<\frac{10}{50}*\frac{1}{3}<0.0067\]名詞を固定した場合,\[\frac{f(を,日本語,勉強する)}{\sumf(v:日本語,を)}*\frac{1}{k(v:日本語,を)-1}<\frac{10}{200}*\frac{1}{4}=0.0125\]となり,どちらも小さな値であり,強い共起性は認められない. \section{実験} 本手法の有効性を確認するために,朝日新聞1か月分のコーパス(テキスト部分約9Mbyte)用いて,「を」格だけを対象に,述語型定型表現の抽出実験を行なう.なお,このコーパスは生のテキストであり,単語区切りが行なわれていたり,品詞のタグつけがされているものではないことを注記しておく.\subsection{共起データの収集}本手法を適用するために,コーパスから共起データを収集する必要がある.コーパス中で名詞Aが格助詞Bを介して動詞Cと共起した場合に,[A,B,C]の3組のペアを取り出す.この3組ペアを共起データと呼ぶ.例えば「雨が降っている」からは共起データとして[雨,が,降る]が取り出せる.コーパスから共起データを収集することは一般に困難である.これは解析の曖昧性の問題(省略も含む)があるからである.このため手作業により収集することや\cite{tanaka},曖昧性のない共起データだけを収集することが行なわれる\cite{nakajima}.本論文でも形態素解析を行ない曖昧性のないデータだけを対象にする.基本的に名詞,格助詞,動詞が以下のように連続して現れた場合のみを対象とする.\begin{center}名詞(A)+格助詞(B)+動詞(C)\end{center}このデータからは[A,B,C]を取り出す.ただし以下の点に注意する.\begin{description}\item[(1)]副詞の挿入\end{description}格助詞と動詞の間に副詞が入った場合,副詞を無視して[A,B,C]を取り出す.\begin{description}\item[(2)]代名詞\end{description}名詞の部分が代名詞になっているものは共起データを作成しない.\begin{description}\item[(3)]複合名詞\end{description}名詞の部分が複合名詞になっている場合は複合名詞のままで共起データを作成し,名詞部分が「AのB」になっているものは「B」の形で共起データを作成する.\begin{description}\item[(4)]連用句の挿入\end{description}連用句が挿入されている以下の形の場合,\begin{center}名詞(A)+格助詞(B)+名詞(C)+格助詞(D)+動詞(E)+句読点\end{center}曖昧性なく[A,B,E],[C,D,E]を認識できるが,ここでは[C,D,E]のみを取り出す.これは実際には[A,B,E],[C,D,E]が組合わさって意味をなすような5項関係のものも多く存在するからである.例えば「損を覚悟で売る」,「彼女をキャリア・ウーマンと呼ぶ」,「株式市場を研究テーマに選ぶ」などから[損,を,売る],[彼女,を,呼ぶ],[株式市場,を,選ぶ]を取り出すのは妥当ではない.\begin{description}\item[(5)]「を」格に対する使役の助動詞\end{description}動詞に助動詞が付随した場合には,基本的に助動詞を取り除いた形で共起データを作成する.ただし格助詞が「を」であり,しかも使役の助動詞が使用されている場合には,その助動詞は取り除かない.これは「を」格の場合,使役の助動詞を取り除くと意味をなさないものが生じるからである.例えば「波長を合わせる」の場合,助動詞を外して「波長を合う」とは言えないので,[波長,を,合う]ではなく,[波長,を,合わせる]を取り出す.\begin{description}\item[(6)]数量詞移動の現象\end{description}数量詞移動の現象に対しては,数量詞も別個に取り出す.数量詞移動とは,「3匹の子豚が住んでいた」という表現が「子豚3匹が住んでいた」「子豚が3匹住んでいた」という表現にそれぞれ互いに置き換えることができるという言語現象である\cite{inoue1}.いずれの表現が現れても,置き換え可能であることが解析で判断できた場合に,[子豚,が,住む],[N匹,が,住む]を取り出す.以上の点を注意して,コーパスから格助詞が「を」である共起データを収集した.その結果45,070組,31,899種類を取り出した.\subsection{定型表現の抽出}本手法は動詞(あるいは名詞)を固定したときに集められる名詞(あるいは動詞)の集合の要素数が小さいと信頼性のある結果が得られない.このためここでは要素数が8以下のものは対象にしない.8という数字は相互情報量との比較実験を考慮して設定した値である.相互情報量の場合,表現の頻度が少ないと信頼性のある値がでないために,通常,頻度が高いものだけを対象にして計算する.本実験は頻度が5以上のものを対象にした.8という数字は,この5に多少のノイズがはいることを考えての値である.まず動詞を固定した場合の実験を行う.この場合,頻度8以上の動詞は860種類であった.それぞれの動詞に対して,その動詞と共起する各々の名詞に本手法で提案している共起性の数値を与えた.最終的にこの数値の高いもの25種類から得られた表現を表1に示す.(表中の○,△,×は評価の項参照).同様にして,名詞を固定した場合,頻度8以上の名詞は977種類であった.それぞれの名詞に対して,その名詞と共起する各々の動詞に本手法で提案している共起性の数値を与えた.最終的にこの数値の高いもの25種類から得られた表現を表2に示す.次に比較実験として相互情報量を用いた抽出実験を行なった.ここでは頻度5以上の共起データ831種類を対象にした.基準値の高い順に,取り出した表現25種類を表3に示す.ただしここでの判定値は順位つけだけが目的であるので,(2)式の値を用いている.\noindent\begin{minipage}{70mm}\vspace{5mm}\small\begin{center}\begin{tabular}{|c|l|c|}\hline判定値&表現&評価\\\hline\hline1.000000&首をかしげる&○\\\hline1.000000&神経をとがらせる&○\\\hline1.000000&目を光らせる&○\\\hline1.000000&首を絞める&×\\\hline0.875000&やむをえない&○\\\hline0.777778&姿を現す&△\\\hline0.700000&名を連ねる&△\\\hline0.416667&連絡を取り合う&△\\\hline0.400000&国境を接する&△\\\hline0.388889&手を染める&○\\\hline0.375000&工夫をこらす&△\\\hline0.350000&たばこを吸う&△\\\hline0.272727&思いをはせる&○\\\hline0.263889&一線を画す&○\\\hline0.242424&頭を痛める&○\\\hline0.208333&道を閉ざす&△\\\hline0.208333&豊かさを実感する&×\\\hline0.200000&疑問を呈する&△\\\hline0.193182&道を歩む&△\\\hline0.166667&一歩を踏み出す&△\\\hline0.166667&上告を棄却する&×\\\hline0.153846&N円を脱税する&×\\\hline0.150000&仕事を休む&×\\\hline0.140741&国交を樹立する&△\\\hline0.138889&融資を中断する&×\\\hline\end{tabular}\bigskip{\gt表1}\\実験結果(動詞固定)\end{center}\end{minipage}\begin{minipage}{70mm}\vspace{5mm}\small\begin{center}\begin{tabular}{|c|l|c|}\hline判定値&表現&評価\\\hline\hline1.000000&メスを入れる&○\\\hline1.000000&群を抜く&○\\\hline1.000000&端を発する&○\\\hline1.000000&拍車をかける&○\\\hline1.000000&本腰を入れる&○\\\hline1.000000&面倒を見る&○\\\hline1.000000&予断を許さない&○\\\hline1.000000&一体をなす&△\\\hline1.000000&重傷を負う&△\\\hline1.000000&大勢を占める&△\\\hline1.000000&ボタンを押す&×\\\hline1.000000&恩恵を受ける&×\\\hline0.969697&難色を示す&○\\\hline0.937500&足並みをそろえる&○\\\hline0.928571&死者を出す&×\\\hline0.925926&損害賠償を求める&×\\\hline0.923077&歩調を合わせる&○\\\hline0.909091&尾を引く&○\\\hline0.900000&感銘を受ける&×\\\hline0.900000&脚光を浴びる&○\\\hline0.900000&集会を開く&×\\\hline0.888889&禍根を残す&×\\\hline0.888889&力点を置く&△\\\hline0.875000&みそを作る&×\\\hline0.875000&症状を訴える&△\\\hline\end{tabular}\bigskip{\gt表2}\\実験結果(名詞固定)\end{center}\end{minipage}\normalsize\addtocounter{table}{2}\bigskip\bigskip\begin{table}[htbp]\begin{center}\begin{tabular}{|c|l|c||c|l|c|}\hline判定値&表現&評価&判定値&表現&評価\\\hline\hline0.454545&警鐘を鳴らす&×&0.285714&一歩を踏み出す&△\\\hline0.454545&腎臓を摘出する&×&0.280788&武力行使を伴う&×\\\hline0.395833&一線を画す&○&0.277778&事情を聴く&△\\\hline0.379310&端を発する&○&0.277778&足並みをそろえる&○\\\hline0.375000&臨時国会を召集する&×&0.272727&和解を勧告する&×\\\hline0.357143&神経をとがらせる&○&0.266667&支障を生じる&×\\\hline0.350000&阿波丸を撃沈させる&×&0.265306&汗をかく&○\\\hline0.333333&たばこを吸う&△&0.264151&耳を傾ける&○\\\hline0.333333&上告を棄却する&×&0.261398&役割を果たす&△\\\hline0.300000&身柄を拘束する&△&0.260870&工夫をこらす&△\\\hline0.294118&立候補を届け出る&×&0.260870&第一歩を踏み出す&△\\\hline0.292308&国交を樹立する&△&0.258065&平和条約を締結する&×\\\hline0.288462&幕を閉じる&○&&&\\\hline\end{tabular}\end{center}\caption{実験結果(相互情報量)}\end{table}\subsection{評価}(A)動詞を固定した場合,(B)名詞を固定した場合,(C)相互情報量によって抽出した場合の各々の実験結果を評価する.評価は各々の手法で取り出した上位50種類の表現を以下の3つに分類することによっておこなう.\begin{description}\item[分類1]慣用表現になっているもの(○)\end{description}これは市販の慣用表現辞典\cite{inoue2}を参照して,その表現が見出しとして記載されていれば,この分類とした.例えば,「難色を示す」「圧力をかける」「一線を画す」「姿を消す」「足並みをそろえる」などである.\begin{description}\item[分類2]定型表現になっているもの(△)\end{description}これは主観的に強い共起性があると判定したものである.例えば「役割を果たす」「影響を及ぼす」「目を向ける」「注目を集める」「話題を呼ぶ」などである.この分類ではコロケーションの関係になっているものが多い.また,「カギを握る」「迷惑をかける」「決着をつける」「誤解を招く」「輪を広げる」などのように慣用表現との区別が微妙なものも多い.\begin{description}\item[分類3]上記以外(×)\end{description}これは通常の表現だと思われるものである.例えば,「武力行使を伴う」「首を絞める」「仕事を休む」「けがをする」「被害を受ける」などである.分類2とは微妙なものも多少ある.ここらの判定は主観である.手法(A)(B)(C)各々の50種類の抽出結果を分類1,2,3により分類すると表4のような結果になる.また参考として,先の実験結果(表1,2,3)に分類の記号(分類1○,分類2△,分類3×)を与えている.\begin{table}[htbp]\begin{center}\begin{tabular}{|l||c|c|c|c|}\hline&慣用表現(○)&定型表現(△)&その他(×)&正解率\\\hline\hline(A)動詞固定&13&20&17&66.0\%\\\hline(B)名詞固定&18&11&21&58.0\%\\\hline(C)相互情報量&15&15&20&60.0\%\\\hline\end{tabular}\end{center}\caption{抽出の評価}\end{table}分類1,分類2を正解と考えると,どの手法も正解率に大きな差はない.しかし手法(A)(B)つまり動詞を固定した場合と名詞を固定した場合の抽出結果の共通部分を調べてみると,共通しているものは「端を発する」の1種類だけであった.そこで,動詞を固定した場合と名詞を固定した場合の各々の50種類の抽出結果をマージした結果99種類を本手法の抽出結果と考え,相互情報量の基準から上位99種類の表現を取り出し,それらを比較した結果が表5である.\begin{table}[htbp]\begin{center}\begin{tabular}{|l||c|c|c|c|}\hline&慣用表現(○)&定型表現(△)&その他(×)&正解率\\\hline\hline本手法&30&31&38&61.6\%\\\hline相互情報量&23&31&45&44.4\%\\\hline\end{tabular}\end{center}\caption{抽出の評価(抽出数2倍)}\end{table}相互情報量と比較すると本手法の正解率が高いことがわかる.相互情報量の場合,抽出数が増えてゆくと正解率は下がる.しかし本手法の場合は,抽出数半数の場合の正解率が保たれるため,より広範囲の定型表現を取り出すことができる. \section{考察} 本論文の実験により,述語型定型表現には少なくとも2つの種類があることが分かる.それは動詞が名詞を引っ張っているものと名詞が動詞を引っ張っているものである.慣用表現を機械処理する場合には,その慣用表現の情報を構成語のどの単語の辞書情報に記述するかという中心語の問題がある.本手法はその1つの対処方法を示している.つまり引っ張っている方の単語を中心語とすれば良い.この場合,慣用表現のチェックが少なくてすむために,解析の効率化も図れるはずである.99種類を取り出した実験では,本手法のみに現れる慣用表現は16種類,相互情報量のみに現れる慣用表現は9種類,共通して現れる慣用表現は14種類であった.つまり相互情報量で抽出でき,本手法では抽出できない表現も少なからず存在する.これは述語型定型表現には本手法で設定した「動詞が名詞を引っ張るもの」,「名詞が動詞を引っ張るもの」,以外に「お互いが適度に引き合っているもの」が存在していると考えられる.これらをうまく切り分けて抽出することを今後考えたい.定型表現を取り出す場合,接続の割合が大きな鍵になっているが,その上に頻度をどのように反映させるかも重要な問題である.機械処理の効率化の観点だけから見れば,接続の割合よりも頻度の方が重要な要素である\cite{kita2}.しかし本手法では基本的に頻度の大きさは考慮していない.頻度の大きさを基準値に反映させるような基準値の設定方法をいくつか試みたが,どの結果も頻度の大きさを考えないものよりも良い結果が得られなかった.この点も今後の課題である.一つの方法として,データの信頼度のようなものを設定し\cite{tamoto},総頻度が少ないものは信頼度が小さくなるようにし,その信頼度を判断基準に取り込みことが考えられる.当然,この場合も信頼度の取り込み方が本質的に問題だが,その信頼度は抽出システムをツールとして捉えた場合に,最終的に行なう人間の判断の際に,有効に利用できると予想している.定型表現を機械翻訳に利用することを考えてみる.この場合,強い共起性があっても,一般の表現と同じ規則によって翻訳が可能であれば,その表現を抽出する意味はない.このため機械翻訳をアプリケーションに設定しいているのなら,対訳コーパスを用いて,一般の規則で翻訳困難な表現を取り出すことが正当なアプローチだと思われる\cite{matsumoto}.ただし対訳コーパスは入手の困難性,抽出手法の複雑性などからやや現実性が低い.単言語からの抽出であっても,語義の違いまで推測できるようになれば,機械翻訳で役立つ知識の抽出は可能であると予想しているので,この点からの考察を今後深めたい.最後に共起データついて述べる.本論文では格助詞と動詞の間に副詞が入ったものと入らない場合とを区別なく抽出している.通常,構成語の間に別の単語が挿入されていれば,その表現を構成する単語間の共起の強さは弱いと考えられる.このため共起データを収集する際に,副詞などの挿入がおきるものに関してはマイナスのポイントを与えておき,そのポイントを定型表現の判定に利用すべきであった.またこのマイナスポイントは,共起データを収集する際に取り除いた以下のパターンの[A,B,E]にも与えることができる.\begin{center}名詞(A)+格助詞(B)+名詞(C)+格助詞(D)+動詞(E)+句読点\end{center}具体的にこのマイナスポイントをどのように利用したらよいかは未解決だが,この点から今後の改良を行ないたい. \section{おわりに} 本論文では述語型定型表現をコーパスから自動抽出することを目的に,従来の相互情報量の条件を緩める方向で,新たな名詞動詞間の共起性を測る基準を提案した.概略,名詞,動詞のどちらかを固定して,その単語と共起する集合内の単語にどの程度,特異な頻度になっているかの数値を与える.この数値の上位のものを取り出すことで抽出を行う.本手法の特徴は,名詞を固定した場合に抽出できる表現と動詞を固定した場合に抽出できる表現にはほとんど共通のものがないが,どちらも相互情報量による抽出程度の正解率はあるという点である.このため本手法では,目的の抽出数の半数づつを各々の場合から取り出せば良いために,同じ数を相互情報量を用いて抽出する場合よりも高い正解率が得られる.今後は動詞あるいは名詞が引っ張るタイプの定型表現の他に両者が適度に引っ張り合うようなタイプの定型表現も抽出する方法を考察したい.また頻度,接続割合以外の特徴を考慮した抽出法も試みたい.\acknowledgment本実験の形態素解析の多くの部分で,京都大学長尾研究室から配布された日本語形態素解析システムJUMANを利用させて頂きました.JUMANを作成された関係諸氏に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{新納浩幸}{1961年生.1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程終了.同年富士ゼロックス,翌年松下電器を経て,1993年4月より茨城大学工学部システム工学科助手,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{井佐原均}{1954年生.1978年京都大学工学部電気工学第2学科卒業.1980年同大学大学院工学研究科電気工学専攻修士課程終了.同年通商産業省電子技術総合研究所入所.1995年より郵政省通信総合研究所関西先端研究センター知的機能研究室長.京都大学博士(工学).主たる研究テーマは,自然言語処理,知識表現,機械翻訳など.情報処理学会,日本認知科学会,人工知能学会,ACLなど会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V18N03-03
\section{はじめに} \label{sec:intro}SemEval-2010において,日本語の語義曖昧性解消タスクが行われた\cite{SemEval2:JWSD}.本タスクは,コーパス中に出現する対象語に対し,辞書で定義された語義のうち適切な語義を推定することが課題である.日本語を対象とした類似のタスクとしては,2001年に開催されたSENSEVAL-2の日本語辞書タスクがあげられる.ただし,SENSEVAL-2における日本語辞書タスクとは,2つの点で大きく異なっている.すなわち,対象コーパスの分野が多岐にわたる点,および,辞書に定義されていない語義が出現することもあるという点で異なっている.語義曖昧性解消は,非常に古くから取り組まれてきている課題であり,さまざまな手法が提案されてきている\cite{Navigli:2009}.教師なし学習法も,クラスタリングに基づく手法\cite{Pedersen:2006}や,辞書定義文を利用した手法\cite{Lesk:1986,Baldwin:Kim:Bond:Fujita:Martinez:Tanaka:2010}などが提案されているが,一般に訓練データが存在する場合には,教師あり学習法による精度の方が高い\cite{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}.SENSEVAL-2,および,SemEval-2010での日本語語義曖昧性解消タスクでも,教師あり学習法による手法が最も高い精度を出している\cite{SemEval2:JWSD,Murata:Utiyama:Uchimoto:Ma:Isahara:2003j}.そこで,本稿でも,教師あり学習法をベースとした実験を行った.しかし,本タスクにおいて,訓練データとして与えられたのは,各対象語につき50例ずつであり,十分な量とはいい難い.実際,評価データにしか出現しない語義(未知語義)も存在する.そのような未知語義は,訓練データのみを用いた学習では推測できない.また,コンテストに参加したチームで,ドメイン適合性に着目した実験を行ったチームもあるが,ドメイン適合性はいずれのチームでもあまり有効に機能していない\cite{Shirai:Nakamura:2010,Fujita:Duh:Fujino:Taira:Shindo:2010}.我々は,その原因が,訓練データの少なさにあると考え,訓練データの自動獲得による精度向上を試みた.本稿ではその報告を行う.訓練データを自動的に増やす方法としては,まず,Bootstrapping法があげられる.Bootstrapping法では,まずラベル(語義)の付与された訓練データで学習し,ラベルなしデータのラベルを推定し,ある基準において最も信頼できるものをラベルありデータに追加する\cite{Mihalcea:2002,Mihalcea:2004}.ここで,ラベルなしデータのラベル推定を決定木で行う研究もある\cite{Yarowsky:1995}.しかしこれらの方法の場合,ラベルなしデータから,いくら訓練データを追加したところで,もともとの訓練データに出現しないような語義を推測することはできない,という問題がある.そのため,この方法でも未知語義には対応できない.また,訓練データを自動的に増やす他の方法として,単義の同義語を利用する方法も提案されている\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}.彼らは,WordNetの同義語(synset)のうち,単義語(例えば,\eng{``$remember_1$''}に対して\eng{``recollect''}など)や,定義文(gloss)の中のユニークな表現(例えば,\eng{``$produce_5$''}に対して,glossの一部である\eng{``bringontothemarket''}など)を検索語としてWeb検索を行い,獲得したスニペット中の対象語に語義を付与し,訓練データに追加している.この方法であれば,未知語義の訓練データを得て,推定できる可能性がある.そこで,本稿では,基本的に後者の方法に近い方法を導入する.ただし,\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}らは,WordNetから同義語等を得ることができたが,本タスクの語義は岩波国語辞典によるため,WordNetのsynsetのような同義語を直接獲得することは難しい.そこで,定義文中から比較的抽出しやすい例文に着目し,例文を利用した訓練データの獲得を行う.また,本稿では,既存のコーパスの利用も考える.本稿では,まず\ref{sec:data}章で,本タスクで配布されたデータ,および,それ以外に本稿で利用したデータについて紹介する.次に\ref{sec:system}章では,本稿で利用する素性,学習方法について述べる.\ref{sec:result}章では実験の結果とそれに基づく議論,\ref{sec:eva-addex}章では自動獲得した訓練データの評価について,\ref{sec:conclusion}章では結論を述べる. \section{データ} \label{sec:data}\subsection{SemEval-2010:JapaneseWSDタスク配布データ}\label{sec:jwsd}\ref{sec:intro}章で述べたように,SemEval-2010:JapaneseWSDタスクは,対象コーパスの分野が多岐にわたるという特徴がある.訓練データは,白書(以下,\OW{}),新聞(\PN),本や雑誌(\PB)の分野から成り,評価データは,更に,Web上のQ\&Aサイトである,Yahoo!知恵袋(以下,\OC{})のデータも含んでいる.これらのデータは,現代日本語書き言葉均衡コーパス(\bccwj)\footnote{http://www.ninjal.ac.jp/kotonoha/}のうち,形態素解析の誤りを人手で修正したコアデータと呼ばれる部分から抽出されている.なお,形態素解析は,\unidic\footnote{http://www.tokuteicorpus.jp/dist/}に基づいて行われている.また,本データには,岩波国語辞典\cite{Nishio:Iwabuchi:Mizutani:1994j}の語義を元に,語義IDが付与されている.岩波国語辞典に定義されていない新語義(以下,\X{})も付与されている場合があり,それらの新語義を推定することも,課題の一つである.対象語は50語で,辞典に定義された語義数は219だった.訓練データでは,2種類の新語義(\X)が出現している.訓練データと評価データは,各語50文ずつ与えられた.図~\ref{fig:iwanami}は,本タスクで配布された岩波国語辞典の例である.図~\ref{fig:iwanami}に示すように,各エントリは,表記,品詞,定義文や例文などの情報を含んでいる.図~\ref{fig:trnORG}は,訓練データの例である.ここで,sense=""で示される部分が,付与されている語義IDを示している.例えば,図~\ref{fig:trnORG},6行めの形態素「取っ」の場合,語義ID'37713-0-0-1-1'が付与されている.但し,図~\ref{fig:trnORG}において,lemma=""の部分は,配布データには存在していなかった.これは,各形態素の基本形を示しており,カタカナによる基本形(bfm)や,出現形から推測し,我々がほぼ自動的に付与したものである.また,図~\ref{fig:trnORG}において,各行頭に付与した番号は,参照用に便宜的に付与したものである.\begin{figure}[t]\includegraphics{18-3ia3f1.eps}\caption{岩波国語辞典の例:「とる」から抜粋}\label{fig:iwanami}\end{figure}\begin{figure}[t]\includegraphics{18-3ia3f2.eps}\caption{訓練データの例}\label{fig:trnORG}\end{figure}\subsection{岩波国語辞典の例文}\label{sec:iwanami-ex}本稿では,まず,岩波国語辞典の例文を抽出する.図~\ref{fig:iwanami}の例のように,「」で囲まれた部分は,各語義の例文になっている.そこで,「」で囲まれた部分を例文として抽出する.ここで,``—''の部分は,見出し語を補完することができる.それにより,例えば,図~\ref{fig:iwanami}に示した見出し語「とる」の場合,37713-0-0-1-1の例文として(\ref{s:toru:ex1}),37713-0-0-3-1の例文として(\ref{s:toru:ex3}),37713-0-0-6-3の例文として(\ref{s:toru:ex6})などが獲得できる.また,岩波国語辞典の場合,例文の前方や後方が,``…''という記号によって省略される場合がある.例えば,「…に—って」のような形(図~\ref{fig:iwanami}の37713-0-0-3-3)である.こうした``…''は,取り除き,(\ref{s:toru:ex3-3})のような形にした\footnote{Fujitaら(2010)では,岩波国語辞典の例文をそのまま追加した場合,精度はむしろ低下する傾向にあった.この原因は,``…''等で表される省略記号などを取り除かず,そのまま利用したこと,例文そのものは非常に短いものが多く,切れ切れになってしまうことなどが考えられる.}.\begin{exe}\ex\label{s:toru:ex1}手を\ul{取}って導く(37713-0-0-1-1)\ex\label{s:toru:ex3}責任を\ul{取る}(37713-0-0-3-1)\ex\label{s:toru:ex6}数を\ul{取る}(37713-0-0-6-3)\ex\label{s:toru:ex3-3}に\ul{とっ}て(37713-0-0-3-3)\end{exe}こうして抽出した例文は,形態素解析器Mecab\footnote{http://mecab.sourceforge.net/}の\unidic{}バージョンで解析する.また,例文(\ref{s:toru:ex1})--(\ref{s:toru:ex6})において,``—''によって見出し語を補完した部分(\ul{下線部})には,例文を抽出した語義のIDを付与する.但し,本タスクで推定する語義の粒度は,中語義(-で区切られた数字の,最後の部分を除いたもの.37713-0-0-1,37713-0-0-3等)なので,実際には,中語義に集約して抽出している.つまり,例文(\ref{s:toru:ex1})は37713-0-0-1,(\ref{s:toru:ex3}),(\ref{s:toru:ex3-3})は37713-0-0-3,(\ref{s:toru:ex6})は37713-0-0-6の例文として利用する.\subsection{センスバンク:檜}\label{sec:hinoki}本稿では,更に数種類の言語資源を利用した.\begin{table}[b]\caption{「檜」に付与された語義数}\label{tab:words-counts}\input{03table01.txt}\end{table}まず,基本語意味データベース\lxd\cite{Lexeed:2004j},および,センスバンク「檜」\cite{Bond:Fujita:Tanaka:2006}を利用する.\lxd{}は,日本人にとって最も馴染みの深い28,270語を収録した辞書である.収録語は,心理実験によって選定されており,語義毎に語義文と例文がある.また,各語義文と例文の内容語には,\lxd{}自身の語義が付与されている.更に,京都大学テキストコーパス\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}の内容語に対しても,\lxd{}の語義が付与されている.これらの,\lxd{}によって語義付与されたセンスバンクを「檜」\cite{Bond:Fujita:Tanaka:2006}と呼んでいる.檜のサイズを表~\ref{tab:words-counts}に示す.なお,檜には構文情報も付与されているが,本稿では利用していない.ここで,\lxd{}と岩波国語辞典の語義は,語義文の類似度の高いもの同士がリンクされている\cite{Dridan:Bond:2006}.そのため,リンクが存在する語義なら,檜で付与されている\lxd{}の語義を岩波国語辞典の語義に置き換えて,訓練データとして利用することができる.例えば,岩波国語辞典の「とる」37713-0-0-6-3の語義文は「数える.測る.」であり,\lxd{}の19036420-49の語義文「数える.測定する.」と,非常に類似しており,リンクされている.このリンクを用いることで,例えば,\lxd{}の19036420-49の例文(\ref{s:toru:lxd})を,岩波国語辞典の37713-0-0-6(-3)の訓練データに追加できる.但し,檜はIPA品詞体系に基づいた形態素解析が行われているため,\unidic{}によって形態素解析をやりなおし,語義IDのみを\ul{対応箇所}に付与しなおした.\begin{exe}\ex\label{s:toru:lxd}そこで、医者は患者の顔色を診ながら脈を\ul{取っ}た。\end{exe}\subsection{現代日本語書き言葉均衡コーパス}\label{sec:bccwj}\ref{sec:jwsd}章で述べたように,本タスクのデータは,現代日本語書き言葉均衡コーパス(\bccwj)のコアデータから抽出されている.\bccwjのデータは,モニター公開データとして利用可能である.但し,コアデータには,人手修正された形態素解析結果が付与されているが,コアデータ以外の\bccwjには形態素解析結果は付与されていない.本稿では,\bccwjの2009年度版モニター公開データを利用する.Readmeによると,\bccwj2009年度版モニター公開データには4,300万語が含まれている.このデータから,\ref{sec:iwanami-ex}章で抽出した岩波国語辞典の例文を利用し,訓練データを獲得する.まず,\ref{sec:iwanami-ex}章で獲得した例文を文字の列として完全に含む文を抽出し,形態素解析を行う.更に,対象例文の見出し語と,基本形,および,品詞大分類が一致する形態素に,該当する例文の語義IDを付与する.例えば,37713-0-0-3-3の例文「にとって」(図~\ref{fig:iwanami}参照)を含む文として,Yahoo!知恵袋(\OC{})から,文(\ref{s:toru:oc})を獲得できる.文(\ref{s:toru:oc})の\ul{下線部}は,\ref{sec:iwanami-ex}章で抽出した例文(\ref{s:toru:ex3-3})と一致した部分である.また,これを形態素解析したものが,図~\ref{fig:getOC}である.\begin{exe}\ex\label{s:toru:oc}地運の相性を見ても彼はあなた\ul{にとって}最高の相手ですが、\end{exe}このように,本手法によって獲得した文はラベルあり訓練データとして追加する.但し,\bccwj{}には,評価対象文が含まれるので,評価対象文と同一の文は利用しないという制限を設けた.また,新聞データ2年分(日本経済新聞(以下,\NIK{}),毎日新聞(\MAI))からも,同様に訓練データを抽出した.\subsection{未知語義数,および,獲得データサイズ}\label{sec:get-size}表~\ref{tb:wsnum-test}に,評価データに出現する語義のうち,訓練データにも出現する語義と,評価データにのみ出現する語義の数を示す.辞書に定義された全語義は219語義だが,評価データに出現する語義は,新語義(\X)を除くと,142語義($=150-8$)であり,辞書に定義された全語義の64.8\%だった.また,評価データにのみ出現する語義は9語義($=15-6$),18例($=34-16$)だった.\begin{figure}[t]\includegraphics{18-3ia3f3.eps}\caption{新たに獲得した訓練データの例}\label{fig:getOC}\vspace{1\baselineskip}\end{figure}\begin{table}[t]\caption{評価データに出現する語義の種類と出現回数}\label{tb:wsnum-test}\input{03table02.txt}\vspace{1\baselineskip}\end{table}また,\ref{sec:iwanami-ex}章から\ref{sec:bccwj}章で紹介した方法で獲得した訓練データのサイズを,表~\ref{tb:get:size}に示す.表~\ref{tb:get:size}から,評価データにのみ出現する9語義に対しても,例文(\EX),檜の両方から訓練データが獲得できることがわかる.また,表~\ref{tb:get:size}には,参考のため,訓練データの数値も表示している.本提案手法では,新語義(\X)の訓練データは獲得できない.また,それ以外の語義に対しても,評価データに出現する語義の異なりに対して,訓練データほどのカバー率はない.但し,すべてのコーパスを利用すれば,ほぼ,訓練データに近いカバー率を得ることができている.なお,表~\ref{tb:get:size}は,獲得傾向を確認するために,評価データに出現する語義かどうかを分けて表示しているが,実験では当然,評価データに出現しない語義の例文であっても区別せずに利用している.\begin{table}[t]\caption{新たに獲得した訓練データの数}\label{tb:get:size}\input{03table03.txt}\end{table} \section{実験} \label{sec:system}\subsection{学習器}\label{sec:exp}学習には,代表的な識別モデルの一つであり,ラベルありデータを用いて教師あり学習を行う最大エントロピーモデル(MaximumEntropyMethod:\MEM,\cite{Nigam:Lafferty:McCallum:1999})を用いた.これは,Fujitaら(2010)によると,SupportVectorMachine(\SVM,\cite{libsvm})より,\MEM{}の精度がはるかに良かったためである.\subsection{素性}\label{sec:fea}{\bf[基本素性]}まず,語義曖昧性解消タスクで一般的に利用される素性を,基本素性として利用する.各対象語$w$に対し,出現形,基本形,品詞,品詞大分類(名詞,動詞,形容詞など)を利用する.また,対象語が$i$番目の語だとすると,前後2語($i-2$,$i-1$,$i+1$,$i+2$)の同じ情報も利用する.更に,前後3語以内のbigrams,trigrams,skipbigramsも利用する.これらの素性を利用したモデルを\bl{}とする.{\bf[Bag-of-Words]}各対象語$w$に対し,同一文内に出現する全内容語の基本形を素性として利用する.これらの素性を利用したモデルを\bows{}とする.{\bf[トピック素性]}SemEval-2007EnglishWSDタスクでは,トピック情報を利用したシステムが,最も高い精度を得ている\cite{Cai:Lee:Teh:2007}.Caiら(2007)の研究を参考に,トピック情報を利用した素性を導入した.Caiらは,Bayesiantopicmodels(LatentDirichletAllocation:LDA)を用いて教師なし状態でトピック分類を行い,推定したトピックを素性として利用している.本稿では,訓練データと評価データにgibbslda++\footnote{http://gibbslda.sourceforge.net/}を適用し,文書(ファイル)単位でトピック分類を行った.但し,新聞(\PN)の場合のみ,記事毎に分類した.これは,新聞の場合は,記事毎に,内容ががらりと変わることがあるが,それ以外の文書(書籍やYahoo!知恵袋,白書など)では,がらりと変わると思われなかったためである.また,一つの文書,あるいは記事は,複数のトピックに含まれることがある.本稿では,対象語が属する文書,あるいは記事の含まれるトピック分類を素性として利用し,これらの素性を利用したモデルを\tp{X}とする.ここで,Xは,トピック数であり,Xが多ければ多いほど,分類が細かいことになる. \section{結果と議論} \label{sec:result}\subsection{配布データのみを利用}\label{sec:result-given}Fujitaら(2010)によると,対象語毎に訓練データの分野の組合せを変えて学習するより,分野に関係なくすべての訓練データを学習に用いる方が精度が良い.学習器は,前述のように\MEM{}を用いる.表~\ref{tb:result-given}に,すべての訓練データを学習に用い,素性の組合せを変えた場合の結果を示す.パラメータは,訓練データにおける対象語毎の交差検定で最も良い精度を出したものを用いている.また,表~\ref{tb:result-given}には,参考として,SemEval-2010でのBestresult(RALI-2\cite{Brosseauvilleneuve:Kando:Nie:2010})も掲載している.更に,対象語を難易度毎に分けて傾向を分析する.そのため,SENSEVAL-2の日本語辞書タスクと同様に,訓練データにおける語義の頻度分布のエントロピー$E(w)$(式(\ref{s:entropy}))を,単語の難易度の目安として利用し,対象語を,高難易度($D_{diff}$,$E(w)\geq1$),中難易度($D_{mid}$,$0.5\leqE(w)<1$),低難易度($D_{easy}$,$E(w)<0.5$)の3つにわけた\cite{Shirai:2003j}.式(\ref{s:entropy})において,$p(s_{i}|w)$は,単語$w$の語義が$s_i$となる確率を表している.\begin{equation}\label{s:entropy}E(w)=-\sum_{i}^{}p(s_{i}|w)\log{p(s_{i}|w)}\end{equation}各難易度に含まれる対象語の数は,それぞれ,$D_{diff}$で9語,$D_{mid}$で20語,$D_{easy}$で21語だった.対象語の詳細を,表~\ref{tb:wd-diff}に示す.\begin{table}[t]\caption{難易度毎の対象語}\label{tb:wd-diff}\input{03table04.txt}\end{table}\begin{table}[t]\caption{素性毎の精度(Precision,\%)}\label{tb:result-given}\input{03table05.txt}\end{table}表~\ref{tb:result-given}によると,基本素性(\bl)だけを利用した場合でも,SemEval-2010のBestresult(76.4\%)より高い精度(77.7\%)が得られた.最も精度が高かったのは,トピック素性を利用した場合(\bl+\tp{200})(78.0\%)だった.\bow{}を素性として利用する場合は,精度はかえって低下する傾向にある\footnote{但し,有意水準5\%のt-検定を行ったところ,いずれも有意差はなかった.}.なお,\bl+\tp{200}で最も精度が高かった対象語は,「外」(精度100\%),「経済」(98\%),「考える」(98\%),「大きい」(98\%),「文化」(98\%)などである.一方,最も精度の低かった語は,「取る」(36\%),「良い」(48\%),「上げる」(48\%),「出す」(50\%),「立つ」(54\%)などである.\subsection{自動獲得した訓練データも利用}\label{sec:result-add}本節では,自動獲得した訓練データ(表~\ref{tb:get:size}参照)を利用した場合の結果について紹介する(表~\ref{tb:result-add}).表~\ref{tb:result-add}では,素性は基本素性(\bl)のみ利用し,学習器は\MEM{}を利用した.基本素性(\bl)を用いて,配布された訓練データのみで学習した場合の精度を基準とすると,難易度別に傾向が非常に異なることがわかる.低難易語の場合,訓練データを追加すると,ほとんどの場合で精度が低下している.それどころか,精度が最も高いのは,最頻語義を利用したBaseLineである.しかし,中難易語では,精度向上する場合の方が多くなり,高難易語では,すべての場合で,精度が向上している.特に,自動獲得したすべての訓練データを追加した場合,低難易語では最も精度が低くなり,高難易語では最も精度が高くなっている.\begin{table}[t]\caption{自動獲得した訓練データも利用した場合の精度(\%)(基本素性(\bl)のみ利用)}\label{tb:result-add}\input{03table06.txt}\end{table}これはつまり,そもそも低難易語の場合には,誤りを含むかもしれない訓練データの追加は,むしろマイナスに働く可能性が高いが,中・高難易語の場合,訓練データに含まれる誤りによる悪影響より,訓練データが増えることによる好影響の方が強いことが伺える.また,表~\ref{tb:result-add}には,配布訓練データを用いず,自動獲得したすべての訓練データだけを用いた場合の実験結果も載せている.それによると,低・中難易度では,配布訓練データを用いた精度に及ばないが,高難易度では,配布訓練データのみを用いる場合より高い精度を得ることができた.このように,自動獲得した訓練データのみを利用した場合も善戦はしているが,配布訓練データも利用した場合の方が相当精度が高い(最大11.1ポイント差).この原因は,(1)特に\bccwjと新聞データは,岩波の例文を含む文のみを抽出しているため,訓練データのバリエーションに乏しい,(2)例文によって,獲得できる訓練データ数に非常にばらつきがあり,自然な分布にならない,(3)自動獲得しているため誤りが含まれる,などが考えられる.また,岩波の例文そのものを追加した場合,精度は若干低下する.しかし,例文を用いて訓練データを追加した,\bccwj{}も新聞も,\OW{}を除いて,精度向上が見られる.これは,例文そのものは非常に短いものが多く,切れ切れになってしまうが,例文を含む文全体を追加することで,もう少し広い前後の語などの情報も利用できるために,精度が向上したのだと考えられる\footnote{但し,有意水準5\%のt-検定を行ったところ,いずれも有意差はなかった.}.また,本手法の利点の一つに,訓練データで出現しない語義に対しても,訓練データを追加できることがある.そこで,評価データにしか出現しなかった未知語義(9語義18例,\ref{sec:get-size}節参照)に対する精度のみを確認した.訓練データに出現しない語義なので,訓練データのみ利用した場合,精度は0\%である.表~\ref{tb:result-unseen}に,改良があった結果のみ表示する.表~\ref{tb:result-unseen}によると,すべて追加した場合でも,2例正解しただけであるが,訓練データだけでは絶対に正解できなかった部分であり,意義は大きい.\begin{table}[b]\caption{未知語義(18例)に対する精度(基本素性)}\label{tb:result-unseen}\input{03table07.txt}\end{table}\subsection{学習曲線}\label{sec:result-lc}前節では,各コーパスから追加可能な文はすべて追加して学習した.本節では,過学習していないか調べるため,追加する文数と精度との関連を調べた.\bccwj{}や新聞データの場合,岩波の例文を完全に含む文を追加するため,例文毎に追加できる最大の文数を設定し,精度との関係を調べた.つまり例えば,最大追加文数を5文と設定する場合,例文(\ref{s:toru:ex1})--(\ref{s:toru:ex3-3})のそれぞれに対し,条件を満たす文のうち,最初に出てきた5文までを訓練データとして追加する.但し,当然,最大の文数まで獲得できない場合もある.表~\ref{tb:result-lc-BK}は,表~\ref{tb:result-add}で最も良い精度を出した\PB{}を用いた場合の結果である.また,参考までに,図~\ref{fig:result-lc-BK}に学習曲線を示した.表~\ref{tb:result-lc-BK}および図~\ref{fig:result-lc-BK}から,難易度によって,学習曲線が大きく異なることがわかる.低難易語の場合,10文追加までは,かろうじて精度が向上している.しかし,その後は,訓練データを追加すればするほど,精度が低下している.一方で,中・高難易語に対しては,訓練データを追加した方が精度は向上する.特に,高難易語での精度向上が大きい\footnote{有意水準5\%のt-検定を行ったところ,追加文数を制御したすべての場合で配布訓練データのみを利用する場合に対して有意差があった.}.\begin{table}[t]\caption{岩波例文毎に追加する最大文数を制限する場合(難易度別,基本素性利用,\BK)(\%)}\label{tb:result-lc-BK}\input{03table08.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{18-3ia3f4.eps}\end{center}\caption{岩波例文毎に追加する最大文数を制限する場合(基本素性,\BK)}\label{fig:result-lc-BK}\end{figure}この結果から,低難易語には訓練データをほとんど追加せず,中・高難易語には訓練データを追加する方がいいことがわかる.表~\ref{tb:result-lc-BK}の「参考」に,中・高難易語にのみ,300文を上限に訓練データを追加した場合の結果を示す.但し,本稿の手法の利点の一つは,訓練データに出現しなかった語義にも訓練データを獲得できることであるため,訓練データに出現していない語義に対しては,低難易語であっても訓練データを5文を上限として追加している.この場合,低難易語の精度は下がらず,全体精度は80.0\%を達成,未知語義も1例正解できた. \section{自動獲得した訓練データの評価} \label{sec:eva-addex}本節では,\ref{sec:bccwj}章の訓練データの自動獲得方法で獲得した訓練データに正しい語義が付与されているかどうかを評価した.評価対象には,前節(\ref{sec:result-lc}節)で利用した\BK{}において,追加できる最大文数を5文とした場合に獲得されたデータを用いた.この条件では,47語,114語義に対し,1,038文が獲得されている.人手評価の結果,正しい訓練データだったものは979文(94.3\%),誤っていたものは59文(5.7\%)だった.このように5.7\%の誤りを含んでいたものの,表~\ref{tb:result-lc-BK}によると,全体で1.4\%の精度の向上が見られており追加の効果は高い.誤った訓練データを獲得した原因で最も多かったのは,慣用表現である.例えば,語義ID20676-0-0-1「ある時刻と他の時刻との間(の長さ).」の例文「時間の問題」は慣用的な表現である\footnote{(その物事の結着まで長くはかかるまいという情況にまで立ち至ったこと)との注釈がある}.しかし,獲得された5文のうち,1文は,文(\ref{s:toru:error3})であり,語義ID20676-0-0-3「空間と共に,物体界を成り立たせる基礎形式と考えるもの.」の方がふさわしいだろう.\begin{exe}\ex\label{s:toru:error3}この本はむずかしい\ul{時間の問題}を、抽象的な時間論というかたちではなく、...\end{exe}慣用表現かどうかの判定は非常に難しく\cite{Hashimoto:2008j},本稿の手法で,慣用表現による誤りを取り除くことは困難である.すべての誤りを取り除くには,慣用表現辞書\cite{Hashimoto:2008bj}などを利用し,慣用表現と思しき表現を利用しないことにするか,最終的に人手による判断が必要だろう.次に多かった誤りは,対象語以外の形態素区切りの不一致によるものだった.例えば,37713-0-0-6の例文「数を取る」の場合,文(\ref{s:toru:error1})が獲得されている.しかし,37713-0-0-6は「数える」という意味なので,文(\ref{s:toru:error1})は誤りである.\begin{exe}\ex\label{s:toru:error1}ペーパーテストではいい点\ul{数を取る}のかもしれませんがね。\end{exe}\ref{sec:bccwj}節で述べたように,訓練データの追加条件は,例文を完全に含むこと以外にも,「対象例文の見出し語と,基本形,および,品詞大分類が一致する形態素に,該当する例文の語義IDを付与する.」という条件がある.しかし,見出し語以外は,形態素解析結果が一致するかは確認していない.だが,文(\ref{s:toru:error1})の場合,動詞「取る」の目的語部分(「数」と「点数」)は異なっているため,例文側も形態素解析し,前後の形態素も含めて一致する文だけを訓練データに追加すれば,排除できる誤りである.ここまで述べたように,自動獲得した訓練データには誤りが含まれる.しかし,1,038文の正誤評価には1日とかからなかったので\footnote{正誤評価のときには,対象語と定義文,例文を提示し,例文毎に,自動獲得したデータをまとめて表示した.また,例文に一致した部分にはマークをつけ,わかりやすく表示した.},慣用表現のような,人手判断が必要な表現であっても,1日の人手作業で,正しい訓練データを4割近く増やすことができることになる.また,自動獲得では間違いやすい部分のみ,人手作業を行うことも可能である.そのようにして,効率的に正確な訓練データを増やすことも,今後,選択肢の一つになると考えられる. \section{おわりに} \label{sec:conclusion}本稿では,訓練データの自動拡張による語義曖昧性解消の精度向上方法について述べた.評価対象として,SemEval-2010日本語語義曖昧性解消タスクを利用した.本稿では,辞書の例文,配布データ以外のセンスバンク(檜),ラベルなしコーパス(\bccwj),新聞データなど,さまざまなコーパスを利用して,訓練データの自動拡張を試みた.配布データ以外のセンスバンク(檜)を利用する場合,語義が定義された辞書同士のリンクを経由して,訓練データを獲得した.辞書同士のリンクは,定義文同士の類似度によって構築されている.檜を追加した場合,78.8\%の精度を得ることができた.これは,配布データのみを利用した場合の結果(77.7\%)より,+1.2\%の改良である.このように,異なる品詞体系,異なる辞書(語義)に基づいて構築されたセンスバンクであっても,自動的に訓練データに追加し,精度向上に寄与できることを示した.人手で構築する言語資源は,構築のための時間と費用が非常にかかるため,こうした既存言語資源の有効利用は,ますます重要になると考えれられる.また,センスバンク以外のラベルなしデータを用いる場合,辞書の例文を文字の列として完全に含み,かつ,形態素解析の結果,対象語と,基本形,および,品詞大分類が一致するものを訓練データとして追加した.最も良い精度を出したラベルなしデータは,書籍(\bccwj{}の\BK{})であり,79.5\%(+1.8\%)の精度を得た.ここで,追加した例文のうち,1,038文をサンプリング評価したところ,94.3\%に正しい語義が付与されていた.このように,自動獲得した訓練データには誤りも含まれるものの,例文そのものを追加するより,本稿の提案手法のように,例文を完全に含む,より自然な文を利用する方が効果が高いことを示した.難易度に基づいて傾向を分析した結果,低難易語には訓練データを追加せず,中・高難易語には訓練データを追加する方がいいことがわかった.そのため,中・高難易語と未知語義にのみ訓練データを追加した場合,最高80.0\%の精度を得た.このように,本稿で紹介したような訓練データの追加は,非常に有効であると言える.最後に,今後の課題として以下の3点を挙げる.\begin{enumerate}\item訓練データを追加する場合(\ref{sec:result-add}章参照)も,トピック素性を利用して実験を行う.配布データのみを利用した場合には,トピック素性を利用した場合がもっとも良かった(\ref{sec:result-given}章参照)ためである.\item辞書定義文から同義語を獲得し,\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}らと同様に,同義語を用いた訓練データの拡張も行う.本稿では,辞書の例文に完全一致する語を訓練データとして追加したが,本手法の場合,そもそも辞書に全く例文がない場合には,新しい訓練データは獲得できない.同義語も利用すれば,例文のみでは訓練データを新たに獲得できなかった語義についても新しい訓練データを追加できるかもしれない.また,例文に完全一致する文のみの追加では,訓練データに偏りが出る恐れがあるが,その点を補完できると期待できる.\itemラベルなしデータを利用した半教師あり学習法\cite{Fujino:Ueda:Saito:2008}による精度向上を図る.半教師あり学習を適用する場合でも,始めに与える訓練データにない語義は,ラベルなしデータをいくら与えたところで推定できない.そのため,本稿のようにあらかじめ低頻度語の訓練データを追加しておくことは重要だと思われる.\end{enumerate}\acknowledgmentSemEval-2010JapaneseWSDtaskに関しまして,データ整備,運営,開催等にご尽力された皆様に感謝いたします.また,「『現代日本語書き言葉均衡コーパス』モニター公開データ(2009年度版)」に関しまして,使用を許可して下さった独立行政法人国立国語研究所に感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre\BBA\Martinez}{Agirre\BBA\Martinez}{2000}]{Agirre:Martinez:2000}Agirre,E.\BBACOMMA\\BBA\Martinez,D.\BBOP2000\BBCP.\newblock\BBOQ{ExploringAutomaticWordSenseDisambiguationwithDecisionListsandtheWeb.}\BBCQ\\newblock{\BemCoRR},\mbox{\BPGS\11--19}.\bibitem[\protect\BCAY{Baldwin,Kim,Bond,Fujita,Martinez,\BBA\Tanaka}{Baldwinet~al.}{2010}]{Baldwin:Kim:Bond:Fujita:Martinez:Tanaka:2010}Baldwin,T.,Kim,S.~N.,Bond,F.,Fujita,S.,Martinez,D.,\BBA\Tanaka,T.\BBOP2010\BBCP.\newblock\BBOQ{AreexaminationofMRD-basedwordsensedisambiguation.}\BBCQ\\newblock{\BemTransactionsonAsianLanguageInformationProcess,AssociationforComputingMachinery(ACM)},\textbf{9}(1),\mbox{\BPGS\1--21}.\bibitem[\protect\BCAY{Bond,Fujita,\BBA\Tanaka}{Bondet~al.}{2006}]{Bond:Fujita:Tanaka:2006}Bond,F.,Fujita,S.,\BBA\Tanaka,T.\BBOP2006\BBCP.\newblock\BBOQ{ThehinokisyntacticandsemantictreebankofJapanese.}\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},\textbf{40}(3/4),\mbox{\BPGS\253--261}.\newblock(SpecialissueonAsianlanguagetechnology).\bibitem[\protect\BCAY{Brosseau-Villeneuve,Kando,\BBA\Nie}{Brosseau-Villeneuveet~al.}{2010}]{Brosseauvilleneuve:Kando:Nie:2010}Brosseau-Villeneuve,B.,Kando,N.,\BBA\Nie,J.-Y.\BBOP2010\BBCP.\newblock\BBOQ{RALI:AutomaticWeightingofTextWindowDistances.}\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation(SemEval-2010)},\mbox{\BPGS\375--378}.\bibitem[\protect\BCAY{Cai,Lee,\BBA\Teh}{Caiet~al.}{2007}]{Cai:Lee:Teh:2007}Cai,J.~F.,Lee,W.~S.,\BBA\Teh,Y.~W.\BBOP2007\BBCP.\newblock\BBOQNUS-ML:ImprovingWordSenseDisambiguationUsingTopicFeatures.\BBCQ\\newblockIn{\BemProceedingsoftheFourthInternationalWorkshoponSemanticEvaluations(SemEval-2007)},\mbox{\BPGS\249--252}.\bibitem[\protect\BCAY{Chang\BBA\Lin}{Chang\BBA\Lin}{2001}]{libsvm}Chang,C.-C.\BBACOMMA\\BBA\Lin,C.-J.\BBOP2001\BBCP.\newblock{\Bem{LIBSVM}:alibraryforsupportvectormachines}.\newblockSoftwareavailableathttp://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm.\bibitem[\protect\BCAY{Dridan\BBA\Bond}{Dridan\BBA\Bond}{2006}]{Dridan:Bond:2006}Dridan,R.\BBACOMMA\\BBA\Bond,F.\BBOP2006\BBCP.\newblock\BBOQ{SentenceComparisonusingRobustMinimalRecursionSemanticsandanOntology}\BBCQ\\newblockIn{\BemWorkshoponLinguisticDistances},\mbox{\BPGS\35--42}.\bibitem[\protect\BCAY{Fujino,Ueda,\BBA\Saito}{Fujinoet~al.}{2008}]{Fujino:Ueda:Saito:2008}Fujino,A.,Ueda,N.,\BBA\Saito,K.\BBOP2008\BBCP.\newblock\BBOQSemi-supervisedlearningforahybridgenerative/discriminativeclassifierbasedonthemaximumentropyprinciple\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence(TPAMI)},\textbf{30}(3),\mbox{\BPGS\424--437}.\bibitem[\protect\BCAY{Fujita,Duh,Fujino,Taira,\BBA\Shindo}{Fujitaet~al.}{2010}]{Fujita:Duh:Fujino:Taira:Shindo:2010}Fujita,S.,Duh,K.,Fujino,A.,Taira,H.,\BBA\Shindo,H.\BBOP2010\BBCP.\newblock\BBOQMSS:InvestigatingtheEffectivenessofDomainCombinationsandTopicFeaturesforWordSenseDisambiguation.\BBCQ\\newblockIn{\Bemthe5thInternationalWorkshoponSemanticEvaluation(SemEval-2010)},\mbox{\BPGS\383--386}.\bibitem[\protect\BCAY{橋本\JBA河原}{橋本\JBA河原}{2008a}]{Hashimoto:2008bj}橋本力\JBA河原大輔\BBOP2008a\BBCP.\newblock慣用句の検出と格解析のための言語資源の構築.\\newblock\Jem{言語処理学会第14回年次大会発表論文集},\mbox{\BPGS\1148--1151}.\bibitem[\protect\BCAY{橋本\JBA河原}{橋本\JBA河原}{2008b}]{Hashimoto:2008j}橋本力\JBA河原大輔\BBOP2008b\BBCP.\newblock日本語慣用句コーパスの構築と慣用句曖昧性解消の試み.\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{笠原\JBA佐藤\JBAFrancis\JBA田中\JBA藤田\JBA金杉\JBA天野}{笠原\Jetal}{2004}]{Lexeed:2004j}笠原要\JBA佐藤浩史\JBAFrancisBond\JBA田中貴秋\JBA藤田早苗\JBA金杉友子\JBA天野昭成\BBOP2004\BBCP.\newblock「基本語意味データベース:Lexeed」の構築\\newblock\Jem{情報処理学会自然言語処理研究会(2004-NLC-159)},\mbox{\BPGS\75--82}.\bibitem[\protect\BCAY{Lesk}{Lesk}{1986}]{Lesk:1986}Lesk,M.\BBOP1986\BBCP.\newblock\BBOQAutomaticSenseDisambiguationusingMachineReadableDictionaries:HowtoTellaPineConefromanIceCreamCone.\BBCQ\\newblockIn{\BemProceedingsofthe5thAnnualInternationalConferenceonSystemsDocumentation},\mbox{\BPGS\24--26}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2002}]{Mihalcea:2002}Mihalcea,R.\BBOP2002\BBCP.\newblock\BBOQBootstrappingLargeSenseTaggedCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC-2002)},\mbox{\BPGS\1407--1411}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2004}]{Mihalcea:2004}Mihalcea,R.\BBOP2004\BBCP.\newblock\BBOQCo-trainingandSelf-trainingforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonNaturalLanguageLearning(CoNLL-2004)},\mbox{\BPGS\33--40}.\bibitem[\protect\BCAY{Mihalcea\BBA\Moldovan}{Mihalcea\BBA\Moldovan}{1999}]{Mihalcea:Moldovan:1999}Mihalcea,R.\BBACOMMA\\BBA\Moldovan,D.\BBOP1999\BBCP.\newblock\BBOQAnAutomaticMethodforGeneratingSenseTaggedCorpora.\BBCQ\\newblockIn{\BemProceedingsoftheAmericanAssociationforArtificialIntelligence(AAAI-1999)},\mbox{\BPGS\461--466}.\bibitem[\protect\BCAY{村田\JBA内山\JBA内元\JBA馬\JBA井佐原}{村田\Jetal}{2003}]{Murata:Utiyama:Uchimoto:Ma:Isahara:2003j}村田真樹\JBA内山将夫\JBA内元清貴\JBA馬青\JBA井佐原均\BBOP2003\BBCP.\newblock技術資料{SENSEVAL-2J}辞書タスクでの{CRL}の取り組み—日本語単語多義性解消における種々の機械学習手法と素性の比較.\newblock\Jem{自然言語処理},\textbf{10}(3),\mbox{\BPGS\115--134}.\bibitem[\protect\BCAY{Navigli}{Navigli}{2009}]{Navigli:2009}Navigli,R.\BBOP2009\BBCP.\newblock\BBOQWordsensedisambiguation:Asurvey.\BBCQ\\newblock{\BemACMComput.Surv.},\textbf{41}(2),\mbox{\BPGS\1--69}.\bibitem[\protect\BCAY{Nigam,Lafferty,\BBA\McCallum}{Nigamet~al.}{1999}]{Nigam:Lafferty:McCallum:1999}Nigam,K.,Lafferty,J.,\BBA\McCallum,A.\BBOP1999\BBCP.\newblock\BBOQUsingMaximumEntropyforTextClassification.\BBCQ\\newblockIn{\BemIJCAI-99WorkshoponMachineLearningforInformationFiltering},\mbox{\BPGS\61--67}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{1994}]{Nishio:Iwabuchi:Mizutani:1994j}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP1994\BBCP.\newblock\Jem{岩波国語辞典}.\newblock岩波書店.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{SemEval2:JWSD}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation(SemEval-2010)},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Pedersen}{Pedersen}{2006}]{Pedersen:2006}Pedersen,T.\BBOP2006\BBCP.\newblock{\BemWordSenseDisambiguation:AlgorithmsandApplications},\textbf{33},\BCH~6,\mbox{\BPGS\133--166}.\newblockSpringer.\bibitem[\protect\BCAY{Shirai\BBA\Nakamura}{Shirai\BBA\Nakamura}{2010}]{Shirai:Nakamura:2010}Shirai,K.\BBACOMMA\\BBA\Nakamura,M.\BBOP2010\BBCP.\newblock\BBOQ{JAIST:ClusteringandClassificationBasedApproachesforJapaneseWSD.}\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation(SemEval-2010)},\mbox{\BPGS\379--382}.\bibitem[\protect\BCAY{白井}{白井}{2003}]{Shirai:2003j}白井清昭\BBOP2003\BBCP.\newblock{SENSEVAL-2}日本語辞書タスク.\\newblock\Jem{自然言語処理},\textbf{10}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{Tanaka,Bond,Baldwin,Fujita,\BBA\Hashimoto}{Tanakaet~al.}{2007}]{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}Tanaka,T.,Bond,F.,Baldwin,T.,Fujita,S.,\BBA\Hashimoto,C.\BBOP2007\BBCP.\newblock\BBOQ{WordSenseDisambiguationIncorporatingLexicalandStructuralSemanticInformation}.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL-2007)},\mbox{\BPGS\477--485}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky:1995}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-93)},\mbox{\BPGS\189--196}.\end{thebibliography}\begin{biography}\bioauthor{藤田早苗}{1997年大阪府立大学工学部航空宇宙工学科卒業.1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年4月よりNTT日本電信電話株式会社コミュニケーション科学基礎研究勤務.以来,自然言語処理の研究に従事.また,2009年3月奈良先端科学技術大学院大学にて博士号(工学)取得.ACL,言語処理学会各会員.}\bioauthor[:]{KevinDuh}{KevinhasbeenaresearchassociateatNTTCSLabssince2009/09.HereceivedhisB.S.fromRiceUniversity(USA)in2003,andPhDfromtheUniversityofWashington(USA)in2009,bothinElectricalEngineering.Heisinterestedinnaturallanguageprocessing,informationretrieval,andmachinelearningresearch.}\bioauthor{藤野昭典}{1995年京都大学工学部精密工学科卒業.1997年同大学大学院修士課程修了.2009年同大学大学院博士課程修了.博士(情報学).1997年NTT入社.機械学習,テキスト処理などの研究に従事.現在,NTTコミュニケーション科学基礎研究所研究主任.電子情報通信学会PRMU研究奨励賞(2004年度),FIT論文賞(2005年)等受賞.電子情報通信学会,情報処理学会,IEEE各会員.}\bioauthor{平博順}{1994年東京大学大学理学部化学科卒業.1996年同大学院理学系研究科化学専攻修士課程修了.同年,日本電信電話株式会社,NTTコミュニケーション科学研究所入所.意味理解,文書自動分類,バイオインフォマティクスの研究に従事.2002年奈良先端大学院大学情報学専攻博士後期課程修了.博士(工学).2005年〜2007年株式会社NTTデータ技術開発本部研究主任.2007年よりNTTコミュニケーション科学基礎研究所研究員,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.人工知能学会編集委員.}\bioauthor{進藤裕之}{2009年早稲田大学大学院先進理工学研究科修士課程修了.同年NTT入社.統計的自然言語処理の研究に従事.現在,NTTコミュニケーション科学基礎研究所研究員.ACL会員.}\end{biography}\biodate\end{document}
V10N01-06
\section{はじめに} 自然言語処理を進める上で,形態素解析器をはじめとする言語解析器は,コーパスなどの言語資源と同様に最も重要な道具である.近年では,この重要性は研究者間でほぼ認識されており,英語や日本語に対する形態素解析器と構文解析器はいずれも複数のものが作成,そして公開または市販され,我々研究者はその恩恵に預かっている.ところが,中国語に関しては以上の状況は同じではない.我々の知る限り,日本国内はもちろん,中国においても誰もが手軽に使える中国語解析器が研究者の間で広範に知られている,という状況にはなく,まだ十分に解析器が整備されているとは言えない.この背景の一つは,中国語解析の困難性であると考える.中国語は英語のように概ね単語ごとに分かち書きされてはおらず,単語分割が必要である.また,文字種が単語分割のための大きな情報を持つ日本語とは異なり,ほぼ単一文字種(漢字)である.さらに,複数品詞を持つ語が多いため品詞付与も容易ではない.たとえば,中国語の介詞(前置詞)のほとんどは動詞からの転成であるため日本語や英語にはほとんど存在しない内容語と機能語との間で品詞付与の曖昧性が生じる.たとえば``\lower.25ex\hbox{\underline{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/le.eps}}''(北京に着いた)の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''は動詞(到着する)であるが``\underline{\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}}\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/qu.eps}}''(北京に行く)の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''は介詞($\cdots$に)であり,すなわち``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}}''だけでは``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''の品詞は決定できない.また日本語における「−する」(動詞)「−い」(形容詞)などの明確な文法標識を持たないため,内容語間の曖昧性も比較的多い.たとえば中国語の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dan.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/xin.eps}}''は日本語の「心配(名詞)/心配する(動詞)/心配だ(形容詞)」のすべてに相当する.我々は現在,中日翻訳,並びに中国語換言処理の研究を行っている\cite{張2002}.これらの処理は中国語が入力であるため,表層処理を行わない限り中国語解析器が必要である.このため我々は,現在入手可能な解析器や言語資源を組み合わせて中国語解析を行うことを試みた.ここで,中国語構文木コーパスとしては,現在一般的なPennChineseTreebank(以下,CTBとする)を使用した.一方,解析器としてはサポートベクトルマシン(SupportVectorMachine,以下,SVM)に基づくYamChaを使用した.SVMならびにYamChaについては\ref{節:YamCha}節でその概要を述べる.本報告では,形態素解析と基本句同定解析(basephrasechunking)の2種類を行った.\ref{節:形態素解析}節で形態素解析について,\ref{節:基本句同定解析}節で基本句同定解析について述べる.それぞれの解析で,学習文テストと未知文テストの2種類の解析精度を測定し,考察を行った.形態素解析実験では,連接コスト最小法に基づく形態素解析器MOZを使用して,解析精度の比較を行った.さらに,日本語と比較してどの程度中国語の形態素解析が難しいのかを調べるために京都大学テキストコーパスを用いて実験した.また,品詞タグ付けに限定すれば,CTBよりも大きなコーパスが入手可能であることから,CTBの約11倍の大きさを持つ人民日報タグ付きコーパスを用いての形態素解析実験も行った.本報告の主な目的は,上記の解析器と言語資源を用いて中国語解析器を構築した場合,どの程度の解析精度が得られるのかを報告することにある.すなわち,この解析器にどのような問題がありどのような改善が可能かを提案するという提供者の視点ではなく,使用者の視点,すなわち中国語処理に携わる研究者にとってこの解析器がどの程度有用であり,使用の際にはどのような点に注意が必要か,などを報告することに主眼がある.いずれも容易に得られるツールと言語資源を組み合わせた場合にどのような精度が得られるかを測定,報告することは誰にでもできる作業である.しかし,研究者が研究の必要性のためできるだけ高精度の解析器を求める状況にある場合,本報告のような報告によって解析の期待精度を予め知った上で同一の解析器を構築できる.あるいは,研究上より高精度の解析器が必要な場合は最初から別の選択肢を考えることもできる.このように,我々は中国語処理を行う研究者への有益性を考え,我々で測定した解析精度を技術資料として報告することにした. \section{中国語解析のための言語資源と解析環境} 本節では,我々の実験で使用した言語資源と解析環境の概略を述べる.\subsection{中国語構文木コーパス}\label{節:CTB}我々は,入手可能な中国語言語資源として,現在最も一般に知られていると考えられるPennChineseTreebank(CTB)を使用した.CTBは,米国ペンシルバニア大学(UniversityofPennsylvania)のChineseTreebankProjectにより作成された構文木コーパスである.このコーパスの概要ならびに入手方法を付録\ref{CTB_CORPUS}に示す.以下に述べる実験では,このプロジェクトの最終版であるLDC2000T48を用いた.また,CTBで定義されている中国語品詞数は33,句情報の数は17である.この一覧を巻末の付録\ref{tagset}に示す.\subsection{SVMによる同定解析}\label{節:YamCha}SVMは,$d$次元の特徴ベクトル(パターン)$\bf{x}$を定められた二つのクラス(A,B)のいずれかに識別する2値クラスの線形識別器である.また,SVMでは,カーネルトリックと呼ばれる計算技術によって非線形識別器を実現できる.従来の手法と比べて多くの面で優位性を示し,文字認識や画像認識など,様々な分野で応用されている.識別器は,識別関数$f(\bf{x})$の形によって与えられ,$f$が正ならクラスA,$f$が負ならクラスBに識別される.$f(\bf{x})=0$を満たす$\bf{x}$の集合を識別面と呼ぶ.SVMの大きな特徴の一つは,マージン最大化である.マージンとは,識別面と特徴ベクトル間の最小距離であり,マージンが大きいほうが,汎化能力が高く,テストパターンを精度良く識別できる.一般に,学習パターンを識別する超平面は複数存在する.SVMでは,上に述べた理由から超平面と学習パターンとの最小距離を最大にする超平面を求め,これを識別面とする.決定した超平面からの最小距離に対応する特徴ベクトルをサポートベクトルと呼ぶ.またサポートベクトル以外の特徴ベクトルは最終的に得られる識別関数に一切影響を及ぼさない.したがって,出現頻度などの統計量を用いる識別器(たとえば決定木など)とは性質が異なる.SVMを用いることの短所は,(1)2値クラス識別器であるため多クラスを考慮に入れた識別関数の最適化ができない(2)計算量が大きい(3)問題に適したカーネルトリック(カーネル関数)の明確な選択方法は知られていない,などである\cite{Maeda2001}.自然言語処理における同定解析(chunking)とは,与えられた言語的な要素列(文字列,単語列など)をより上位概念の言語的要素(単語,句,文など)にまとめあげるために,各要素に情報を付与する一連の処理を指す.たとえば,単語の分かち書きや形態素解析,文節まとめあげ,テキストセグメンテーション,文書分類などはすべて同定解析とみなすことができる.工藤は,SVMに基づく汎用的な同定解析器としてYamCha(YetAnotherMultipurposeCHunkAnnotator)\footnote{\tthttp://cl.aist-nara.ac.jp/\~{}taku-ku/software/yamcha/}を公開している.YamChaは同定解析を各要素に対する情報付与と見なすため,一般的な解析器として用いることが可能である.SVMは2値識別器であるため,情報付与(tagging)のような多値クラスの識別問題を扱うためには,何らかの拡張を行う必要がある.これに対してYamChaでは,{\itpairwiseclassification}\cite{Kressel99}(一対比較分類)と呼ばれる手法を採用している.これは,$K$クラスの識別問題を解くために,各クラス2つの組み合わせを識別する$K\times(K-1)/2$種類の識別器を作成し,最終的にそれらの多数決でクラスを決定する手法である.SVMを用いた自然言語解析の例として英文の基本句同定実験\cite{Kudo2000b}や,日本語の係り受け解析実験\cite{Kudo2002b}があり,従来手法と比較して高い解析結果を示している.また,平と春野は,SVMを用いた文書分類について,高い分類精度を得るためには品詞によるフィルタリングをした後,全単語を入力として用いればよいことを示している\cite{Taira2000}. \section{YamChaによる形態素解析} \label{節:形態素解析}SVMを用いた中国語の解析器として,我々はYamChaを用いた.この節ではYamChaによる中国語の形態素解析について述べる.形態素解析を文字のならびを形態素へまとめあげる同定解析と見なす.したがって,各文字がチャンク(chunk)を構成する1要素に相当する.チャンクとは,同定解析における同定単位を指し,ここでは形態素に相当する.SVMの学習のためにCTBを正解データとして用いる.\subsection{YamChaの準備}YamChaで扱うデータ形式は,複数のトークンと複数のカラムから構成される.各行は入力のトークンに対応する.形態素解析を行う場合は,1トークンが1文字に対応する.各カラムにはトークンに付与された属性が記述される.また,各カラムはタブまたはスペースによって区切られている必要がある.YamChaによって推定(学習)すべき属性は最後のカラムに与える.ここでは,形態素解析を行うので,第1カラムには,形態素の要素である1文字を記述し,第2カラムには,YamChaで推定する情報を記述する.この情報には,形態素の区切り位置を示す情報と,形態素に付与する品詞情報の両方が含まれる.また,文と文の境界は,EOSと記述した行,もしくは空行を付与することで同定する.トークンがチャンクに含まれるか否かの状態を示すためにIOB2モデルを用いた\cite{Sang99}.これは,あるトークンがチャンクの先頭ならばBタグを付与し,チャンクに含まれる先頭以外のトークンならばIタグを付与し,チャンクに含まれない場合にはOタグを付与するモデルである.一方,本実験ではすべてのトークンが何らかのチャンクに含まれるためOタグは用いられない.付与する品詞タグセットはCTBのタグセットと同一である.また,CTBにおいて品詞が``-NONE-''の形態素は構文構造上形式的に配置され,実体を持たないため対象外とする.最終的にトークンに付与されるタグはB/Iタグと品詞タグを``--''で結んだものとなる.CTBからYamChaで中国語形態素解析を行うための書式へ変換する概要を図\ref{YamChaFormat}に示す.\begin{figure}[htb]\begin{center}\epsfxsize=30zw\epsfbox{Figures/yamcha_format.eps}\caption{YamCha用中国語形態素解析データ書式}\label{YamChaFormat}\end{center}\end{figure}以上の処理で得られた学習データをYamChaに与え,SVMのモデルを作成する.その際に,素性として使用したデータはYamChaの標準設定に従った.すなわち,推定するトークンと,その前方,および後方2トークンの計5トークンにおける文字データと前方2トークンの推定タグを素性として学習した.解析方向は前方からである.これは,使用する素性を変化させた場合の精度を検討した予備実験の結果において,YamChaの標準設定が最も高い精度であったためである.これらの関係を図\ref{features}に示す.また,YamChaで学習を行うために用いたSVMの実装は同じく工藤が公開しているTinySVM0.08\footnote{\tthttp://cl.aist-nara.ac.jp/\~{}taku-ku/software/TinySVM/}である.\begin{figure}[htb]\begin{center}\epsfxsize=15zw\epsfbox{Figures/features.eps}\end{center}\caption{学習素性}\label{features}\end{figure}\subsection{形態素解析器MOZ}本報告では,YamChaと同程度の時間的コストで実現できる中国語形態素解析器としてMOZ\footnote{\tthttp://cl.aist-nara.ac.jp/student/tatuo-y/ma/}\cite{Yamasita2000}をとりあげ,両者の比較を行う.本節では,MOZに関する概略を述べる.MOZで形態素解析を行うためには,形態素辞書と接続表が必要となる.MOZはコスト最小法に基づく解析器であるので,形態素辞書と接続表にはそれぞれコストを与えなければならない.ここでは,CTBから得られる情報(品詞2つ組の頻度や形態素の頻度など)から形態素辞書と接続表,ならびにそれらのコストを求める.すなわち,形態素辞書は形態素とその出現確率から,品詞接続表は品詞bi-gramによって与える.MOZでは,品詞接続表にtri-gram以上のデータを用いることができるが,データ過疎性(datasparseness)による精度低下を避けるために本実験では品詞bi-gramのみを用いた.形態素を$w_i$,品詞を$POS_i$,$x$の頻度を$C(x)$と表記すると品詞が$POS_i$である形態素$w_i$の出現確率を式(\ref{mor_p})で与える.ここで,$C(w_i,\POS_i)$は形態素$w_i$,かつその品詞が$POS_i$である頻度を示している.\begin{equation}p(w_i\|\POS_i)=\frac{C(w_i,\POS_i)}{C(POS_i)}\label{mor_p}\end{equation}また,品詞接続表の確率は式(\ref{con_p})で与える.ここで$C(POS_i,\POS_j)$は品詞$POS_i$のあとに品詞$POS_j$が出現した頻度である.\begin{equation}p(POS_j\|\POS_i)=\frac{C(POS_i,\POS_j)}{C(POS_i)}\label{con_p}\end{equation}システムで扱う最高コストを128として,コスト化係数を求める.コスト化係数は式(\ref{cost_co})により与えられる.ここで最小確率は,すべての$p(w_i\|\POS_i)$および$p(POS_j\|\POS_i)$における最小値である.\begin{equation}コスト化係数=|\最高コスト/\log(最小確率)|\label{cost_co}\end{equation}形態素辞書ならびに接続表のコストはそれぞれの確率から式(\ref{costing})により与えられる.\begin{equation}コスト=\big\lceil|\log(確率)\timesコスト化係数|\big\rceil\label{costing}\end{equation}以上述べた方法により形態素辞書ならびに接続表のコストを計算する.\subsection{学習文テスト}まず,CTB全体を学習データ(4181文\footnote{CTBの説明には4185文とあるが,我々が発見した明らかな誤り,たとえば句点のみを1文とするなど,を除くと4181文となった.})とし,この中から無作為に抽出した1割の文(418文)を解析する学習文テスト(closedtest)を行った.具体的には,YamChaとMOZをそれぞれ用いて,418文からなるテストデータを解析し,その結果をCTBの正解と比較し,評価した.その結果から,再現率(recall)と適合率(precision)を算出した.再現率と適合率はそれぞれ式(\ref{recall})および式(\ref{precision})とした.\begin{equation}再現率=解析結果中の正解形態素数/正解形態素数\label{recall}\end{equation}\begin{equation}適合率=解析結果中の正解形態素数/解析結果の形態素数\label{precision}\end{equation}再現率と適合率からF値(F-measure)も求めた.F値は再現率$R$と適合率$P$の調和平均であり,式(\ref{F-measure})によって与えられる.\begin{equation}F値=\frac{2\timesR\timesP}{R+P}\label{F-measure}\end{equation}ただし,本実験では正解形態素数を求める場合に形態素分割のみ正解の場合と,分割ならびに品詞の両方の2段階の条件を設けて評価した.この結果を表\ref{MorclosedTest}に示す.また,品詞誤りの上位10件を表\ref{MorclosedResult2}に示す.ここで,出現率とは誤りの総数に対する各誤りの割合を示す.\begin{table}[htb]\begin{center}\caption{学習文テストの正解率}\label{MorclosedTest}\begin{tabular}{ll|rrr|rrr}\hline&&\multicolumn{3}{c}{分割のみ}&\multicolumn{3}{|c}{分割と品詞付与}\\\hline対象&解析器&再現率&適合率&F値&再現率&適合率&F値\\\hlineCTB&YamCha&99.91\%&99.93\%&99.92\%&99.58\%&99.60\%&99.59\%\\&MOZ&97.78\%&98.82\%&98.82\%&93.74\%&94.73\%&94.23\%\\\hlinePKU&YamCha&99.95\%&99.94\%&99.94\%&99.76\%&99.75\%&99.75\%\\&MOZ&98.72\%&99.17\%&98.94\%&94.71\%&95.14\%&94.92\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{学習文テスト(CTB)における品詞誤りの上位10件}\begin{tabular}{r@{-}l|r|r@{-}l|r}\hline\multicolumn{3}{c|}{YamCha}&\multicolumn{3}{c}{MOZ}\\\hline正解&解析&出現率&正解&解析&出現率\\\hlineNN&NR&14/33&VV&NN&84/401\\NR&NN&6/33&DEC&DEG&78/401\\VV&NN&5/33&NN&VV&38/401\\AD&JJ&2/33&NN&NR&19/401\\AD&NN&1/33&VV&P&14/401\\NN&VV&1/33&CC&AD&13/401\\JJ&AD&1/33&NN&JJ&12/401\\CD&OD&1/33&JJ&NN&10/401\\SP&DEC&1/33&AD&JJ&9/401\\DEC&DEG&1/33&JJ&AD&7/401\\---&---&---&P&AD&7/401\\\hline\end{tabular}\label{MorclosedResult2}\end{center}\end{table}\subsection{未知文テスト}次に,CTB全体を母集団とする10分割交差検定(crossvalidation)による未知文テスト(opentest)を行った.まず,CTB全体(4181文)を無作為に10等分し,1割をテストデータ,残りの9割を学習データとする.この方法で10組の学習データとテストデータを作成した.YamChaとMOZそれぞれに対して,10組の学習データとテストデータを用いて学習ならびにテストを行い,平均値を求めた.実験結果を表\ref{MOR_Opentest}に示す.また,品詞誤りの上位10件の内訳を表\ref{MoropenResult2}に示す.表中のnullは未知語のために付与されたタグを示している.\begin{table}[htb]\begin{center}\caption{未知文テスト結果}\label{MOR_Opentest}\begin{tabular}{ll|rrr|rrr}\hline&&\multicolumn{3}{c}{分割のみ}&\multicolumn{3}{|c}{分割と品詞付与}\\\hline対象&解析器&再現率&適合率&F値&再現率&適合率&F値\\\hlineCTB&YamCha&93.04\%&93.71\%&93.37\%&87.58\%&88.20\%&87.89\%\\&MOZ&92.19\%&85.89\%&88.93\%&86.32\%&80.42\%&83.26\%\\\hline京大&YamCha&92.02\%&93.23\%&92.62\%&88.17\%&89.33\%&88.74\%\\(10万語)&JUMAN&98.97\%&98.65\%&98.80\%&93.49\%&93.19\%&93.34\%\\\hlinePKU&YamCha&86.66\%&87.52\%&87.09\%&80.19\%&80.99\%&80.59\%\\(10万語)&MOZ&90.05\%&80.58\%&85.05\%&84.57\%&75.67\%&79.87\%\\\hlinePKU&YamCha&95.19\%&95.19\%&95.19\%&91.72\%&91.72\%&91.72\%\\&MOZ&95.68\%&93.42\%&94.58\%&89.87\%&87.75\%&88.72\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{未知文テストにおける誤り品詞の上位10件}\label{MoropenResult2}\begin{tabular}{r@{-}l|r|r@{-}l|r}\hline\multicolumn{3}{c|}{YamCha}&\multicolumn{3}{c}{MOZ}\\\hline正解&解析&出現率&正解&解析&出現率\\\hlineVV&NN&1037/5447&VV&NN&1016/5859\\NN&VV&579/5447&DEC&DEG&933/5859\\DEC&DEG&578/5447&NN&VV&701/5859\\JJ&NN&402/5447&NN&NR&263/5859\\DEG&DEC&334/5447&DEG&DEC&186/5859\\NR&NN&323/5447&VV&P&184/5859\\NN&NR&266/5447&NN&JJ&126/5859\\VA&NN&174/5447&JJ&AD&118/5859\\AD&NN&126/5447&NN&null&116/5859\\AD&VV&115/5447&CC&AD&100/5859\\\hline\end{tabular}\end{center}\end{table}未知文テストにおいてYamChaが1学習データを学習するために要した処理時間と1テストデータを解析するために要した処理時間などを表\ref{MorTime}に示す.測定時は,CPU:PentiumIII600MHz,メモリ:256MB,OS:Linuxの計算機を用いた.ただし,YamChaで解析を行うためには,アーキテクチャ非依存のテキスト形式のモデルファイル(学習結果を格納するファイル)をアーキテクチャ依存のバイナリ形式にコンパイルする必要がある.その際にテキスト形式のモデルをメモリ上に展開するため大量のメモリを必要とする.この実験では,約650MBのメモリを必要としたため,コンパイル作業だけは,CPU:PentiumIII733MHz,メモリ:960MBの計算機を使用した.このコンパイルに要した時間は約5分であった.本実験のあと,コンパイルに必要なメモリ量を抑える目的からプログラムを修正した.その結果,速度を少々犠牲にするが,80MB程度のメモリで,上記のモデルファイルをコンパイル可能となった.処理時間は,CPU:PentiumIII600MHz,メモリ:256MBの計算機で約7分であった.このYamCha0.1に対するプログラムの差分はWWWページ\footnote{\tthttp://www.slt.atr.co.jp/\~{}kohtake/}にて公開している\footnote{2002年11月に公開されたYamCha0.2では,この修正が反映されておりプログラムの差分を適用する必要はない.}.\begin{table}[htb]\begin{center}\caption{YamChaでの処理時間}\begin{tabular}{l|ll}\hline&学習&解析\\\hlineタグの種類&53&---\\文数&約3700&約400\\トークン数&約15万8千&約1万7千\\処理時間&約6時間&約35分\\\hline\end{tabular}\label{MorTime}\end{center}\end{table}一方,MOZが学習データ(約3700文)から形態素辞書と接続表のコストを求めるために必要とした時間は約3秒であり,1テストデータ(約400文)を解析するために必要とした時間は約1秒であった.\subsection{未知語の性質}次に,テストデータに含まれる形態素のうち,学習データに含まれていないものを未知語と定義し,その性質を調べた.未知文テストにおける平均未知語率などを求めた.結果を表\ref{OpenUnknown}に示す.未知語率とはテストデータの単語数に占める未知語数の割合を指し,平均未知語率とはテストセット全体での未知語率の平均を示している.\begin{table}[htb]\begin{center}\caption{未知文テストにおける平均未知語率など}\label{OpenUnknown}\begin{tabular}{l|ccccc}\hline&平均未知語率&&&\multicolumn{2}{c}{形態素数}\\対象&[異なり/のべ](\%)&平均文長&平均形態素長&異なり&のべ\\\hlineCTB(10分割)&21.74/7.05&41.10字&1.72字&12079&103901\\京大10万語(10分割)&24.18/8.38&43.91字&1.77字&14613&102310\\PKU10万語(10分割)&26.85/10.87&40.71字&1.64字&16810&102741\\PKU(11分割)&15.79/2.84&41.85字&1.64字&61846&1118794\\\hline\end{tabular}\end{center}\end{table}未知語に対する解析器の性質をより詳しく調べるため,以下の実験を行った.まず,CTBから40記事を無作為に選択する.そのうち30記事を学習データ,残り10記事をテストデータとする.次にテストデータから順に1記事ずつ学習データに加えていき,計11個の学習データを作成する.それぞれの学習データに基づく解析器で同一のテストデータ10記事を解析した.以上の実験概要を図\ref{UnknownWordExp}に示す.\begin{figure}[htb]\begin{center}\epsfxsize=50mm\epsfbox{Figures/UkW_Exp.eps}\caption{未知語と解析精度に関する実験の概要}\label{UnknownWordExp}\end{center}\end{figure}テストデータに含まれる単語数は1111,のべ語数は2954である.11のテストセットにおける学習データの単語,未知語数ならびに未知語率を表\ref{UkTEST}に示す.\begin{table}[htb]\begin{center}\caption{未知語と解析精度に関する実験におけるテストセットの単語数}\label{UkTEST}\begin{tabular}{c|rrrrrr}\hline&\multicolumn{2}{c}{単語数}&\multicolumn{2}{c}{未知語数}&\multicolumn{2}{c}{未知語率(\%)}\\テストセット&異なり&のべ&異なり&のべ&異なり&のべ\\\hline0&2809&10819&572&770&51.49&26.07\\1&2892&11402&489&639&44.01&21.63\\2&2921&11512&460&594&41.40&20.11\\3&3044&11929&337&442&30.33&14.96\\4&3075&12134&306&406&27.54&13.74\\5&3127&12402&254&337&22.86&11.41\\6&3190&12764&191&252&17.19&8.53\\7&3265&12993&116&150&10.44&5.08\\8&3293&13274&88&115&7.92&3.89\\9&3319&13393&62&75&5.58&2.54\\10&3381&13773&0&0&0.00&0.00\\\hline\end{tabular}\end{center}\end{table}各テストセットにおける未知語率(異なり)と解析精度の関係を図\ref{MorCrbyUk}に示す.図では,解析精度をF値で示す.なお,未知語率(のべ)と精度の関係を図示していないが,図\ref{MorCrbyUk}とほぼ同一の図となるため省略する.\begin{figure}[htb]\begin{center}\epsfxsize=20zw\epsfbox{Figures/UK_plots.eps}\caption{未知語率[異なり]と解析精度}\label{MorCrbyUk}\end{center}\end{figure}次に,未知語がある場合の解析結果を調査した.テストセット$t_i$における未知語の集合を$UK(t_i)$,$w\inUK(t_i)$のうち形態素分割に成功した形態素の集合を$USeg(t_i)$とする.さらに,$w\inUSeg(t_i)$のうち品詞も正しく解析された形態素の集合を$USP(t_i)$とする.これらの集計結果を表\ref{UK_Analyze_table}に示す.また,MOZでは入力に未知語が含まれる場合,解析不能で停止することはないが,最終的に未知語と判断された文字列を1文字ずつ,nullという品詞を与えて出力する.したがって,MOZでの解析で$|USP(t_i)|$を示していないのは,MOZでは未知語がnullと解析されるため,$USP(t_i)$は空集合となるためである.一方,MOZでの解析において$USeg(t_i)$が得られるのは,正解が1文字の形態素である場合に形態素分割が成功したと見なすからである.\begin{table}[htb]\begin{center}\caption{未知語とその解析結果}\label{UK_Analyze_table}\begin{tabular}{cc|rr|r}\hline&&\multicolumn{2}{c|}{YamCha}&MOZ\\\cline{3-5}$t_i$&$|UK(t_i)|$&$|USeg(t_i)|$&$|USP(t_i)|$&$|USeg(t_i)|$\\\hline0&572&376&249&87\\1&489&319&212&78\\2&460&299&199&77\\3&337&225&157&56\\4&306&202&147&47\\5&254&174&127&35\\6&191&135&95&27\\7&116&82&59&18\\8&88&60&43&15\\9&62&47&35&10\\\hline\end{tabular}\end{center}\end{table}\subsection{言語依存性とコーパスの大きさ}これまで,CTBをコーパスとして,中国語の形態素解析について2つの解析器,YamChaとMOZを比較してきた.しかしその未知文テストの結果は,表\ref{MOR_Opentest}に示す通り,これまでに報告されている日本語の形態素解析器の精度より低い.ここでは,その原因が,中国語の言語としての解析の難しさにあるのか,コーパスの量にあるのかを検討する.\subsubsection{日本語形態素解析におけるYamCha}CTBで用いられているのは,新華社通信の新聞記事である.そこで,SVMに基づく形態素解析器の日本語に対する精度を検証するために我々は,京都大学テキストコーパス第3.0版(以下,京大コーパスと呼ぶ)を用いて実験を行った.このコーパスの詳細については付録\ref{KYODAI_CORPUS}を参照されたい.CTBの大きさが約10万語であるところから,我々は,京大コーパスのうち1月1,3,4,5日の記事,4117文,102310単語を用いることにした.CTB全体では,4181文,99720単語である.我々が選択した京大コーパスの一部についてCTBに対する実験と同様に,10分割交差検定を実施した.この検定における平均未知語率などを表\ref{OpenUnknown}に示す.京大コーパスを用いた実験における品詞は,JUMAN\footnote{\tt{http://www-nagao.kuee.kyoto-u.ac.jp/nl-resource/juman.html}}が定義する品詞のうち品詞細分類までを含めたものとした.この結果,タグセットの大きさは,41となり,CTBの33より大きい.YamChaの学習に用いたデータの例を以下に示す.\vspace*{5mm}\begin{quote}\begin{verbatim}今B-名詞-時相名詞話B-名詞-普通名詞年I-名詞-時相名詞題I-名詞-普通名詞のB-助詞-接続助詞のB-助詞-接続助詞大B-名詞-普通名詞力B-名詞-普通名詞相I-名詞-普通名詞士I-名詞-普通名詞撲I-名詞-普通名詞たB-接尾辞-名詞性名詞接尾辞をB-助詞-格助詞ちI-接尾辞-名詞性名詞接尾辞支B-動詞えI-動詞るI-動詞\end{verbatim}\end{quote}\vspace*{5mm}実験結果を表\ref{MOR_Opentest}に示す.参考までに我々が選択した京大コーパスの一部をJUMANで形態素解析した結果もあわせて示す.日本語を対象とした実験でも,同程度の大きさのコーパスでは,同程度の精度となった.\subsubsection{コーパスの大きさと解析精度}CTBは既に述べた通り4181文,99720単語からなるコーパスだが,大きいとは言えない.そのため,10分割交差検定を行っても,テストセットにおける未知語率が非常に大きくなり,精度が低くなる.品詞タグ付けされたコーパスがあれば,それを形態素解析器のために利用することが可能である.CTBのように構文木を備えている必要はない.品詞タグ付けされた中国語のコーパスはいくつかあるが,我々は,CTBよりも大きく,そして同じ新聞記事という点から人民日報タグ付きコーパスを使用した.人民日報タグ付きコーパスに関しては,付録\ref{PKU_CORPUS}にその概要等を示す.ただし,我々は人民日報半年分であるコーパス全てではなく,無償公開している1ヶ月分のデータを用いた.人民日報タグ付きコーパス1ヶ月分(以下,PKUと呼ぶ)は,44011文,1121447単語からなるコーパスである.定義されているタグセット\footnote{\tthttp://www.icl.pku.edu.cn/research/corpus/addition.htm}の大きさは39である.しかしながら,実際のPKUにはここに定義されていないタグが7種類(Bg:8,Mg:7,Rg:10,Yg:1,na:1,nx:459,vvn:1,コロンの後の数値は頻度を示す)出現する.ここで,nxは,定義されているタグxに該当することがわかったので,nx以外の6種類のタグを含む文を除いた.その結果,PKUは,43913文,1118794単語からなるコーパスとなった.PKUはCTBの約11倍の大きさを持つ.まず,同程度のコーパスの大きさでの精度を検証した.PKUをランダムに文単位で11等分し,そのうちの1つ(約10万語)を用いて10分割交差検定を行った.結果を表\ref{MOR_Opentest}に示す.以下,このPKUの10万語のコーパスをPKU10万語と表記する.PKU10万語を用いての未知文テストとCTBでの未知文テストでの精度の違いは,両者のコーパスの違いに起因する.両者はともに約10万語のコーパスであるが,表\ref{OpenUnknown}から,PKUの方が未知語が多く,なおかつ1文あたりの平均形態素数がCTBより約1単語多いことがわかる(CTBでの1文平均形態素数$=41.10/1.72=23.90$,PKU10万語での1文平均形態素数$=40.71/1.64=24.82$).さらに,PKUは,CTBと比較してタグセットが大きく,タグ一種類あたりの学習データが少なくなることからタグの推定がより難しくなっている.したがって,PKU10万語での結果は,同じ10万語のCTBと比較して精度が大きく低下したと考える.MOZが再現率の面でYamChaを上回るのは,辞書を用いる利点が活かされていると考える.YamChaは1文字単位でタグの推定を行う.タグの推定に用いるのは推定対象文字とその前後2文字,さらに直前に推定した2つのタグの計7つの素性である.したがって,学習量が不十分な状態では,ある形態素が学習,テストコーパスの両方に含まれている場合でも,テストデータにおける当該形態素とその周辺文字列の組合せを素性として学習している可能性は低いためSVMが誤る可能性が大きくなる.一方,MOZでは,一度辞書に登録された形態素は,形態素分割および品詞の曖昧性が生じない限り正しく再現される.さらに学習コーパスが大きくない場合では,これらの曖昧性が発生する頻度は低いと予想する.したがってMOZが再現率の面で,YamChaを上回ったと考える.次に,PKU全てを学習コーパスとし,学習文テストを行った.テストデータとしてPKUから無作為に抽出した3993文,101218単語を解析した.なお,学習に用いるコーパスが大きくなることから,より大きな分解能が必要になると考え,MOZのコスト化係数を128から1024へと変更した.実験結果を表\ref{MorclosedTest}に示す.この結果から,学習コーパスが100万語を越えても,YamChaは変わらず高い性能を示していることがわかる.学習に用いるコーパスの大きさが非常に大きくなった場合の2つの解析器のふるまいを検討するために,11等分したデータを用いて11分割交差検定を行った.結果を表\ref{MOR_Opentest}に示す.\subsection{形態素解析結果に関する考察}以上得られた形態素解析に関する実験結果について考察する.まず,YamChaとCTBを使用した場合の未知文に対する形態素解析(分割と品詞付与)精度(F値)は87.9\%であった.同条件でMOZが83.3\%であることを考えると,言語資源としてCTBしか得られない条件下ではYamChaを使用したほうが高精度な解析器を実現できる.次に,解析時間についてはYamChaが極端に遅い.学習時間も同様である.よって解析時に実時間性を問われる状況においてはMOZを使用すべきである.YamChaでは,既に述べたように,一対比較分類に基づき品詞付与を行うため,品詞数が大きくなると,その2乗に比例するSVMが必要となる.そのため,品詞数の増加とともに,学習,解析時間が増大する.品詞付与誤りの傾向では,1節で述べたように中国語において本質的に解析の難しいと予想される箇所で両解析器共に誤っており,解析器としての誤りのくせはあまり見受けられない.未知語に対する頑健性については,YamChaのほうが優れる.実験では,YamChaは未知語の約4割を正しく解析しており,頑健性を確かめられた.この割合は,未知語率が変化しても,大きく変化することはなく,実験した範囲の未知語率(51.5\%から6.4\%)で,40\%から45\%程度であった.このことから,未知語率が大きくなったからといってそれに影響されて極端に精度が低下することはないと予想する.一方,MOZは,未知語に対して1文字ずつにnullという品詞を付与して出力するのみであるため,何らかの拡張を行わない限り品詞の推定を行えない.したがって,再現率に対して適合率が低くなる傾向がある.また,YamChaにはこのような傾向はなく,適合率が再現率を若干上回る傾向を示す.これらのことから,入力文中に多くの未知語の存在が予想される場合,あるいは学習データの語彙傾向と異なる入力文を解析する場合はYamChaを用いたほうがよい.ただし,一般的な状況としてコーパスとは別個に単語集合を入手できる場合がある.この場合にはMOZを使うべきだろう.YamChaでは単語集合があってもこの情報を学習に反映させることができず,コーパス中の出現単語のみが学習対象であるためである.言語資源をより活用しているのはYamChaであるが,辞書を用いないことから語彙的整備ができない.また人間の内省による知見を反映させにくい.したがって,既に大量のタグ付きコーパスが存在する状況では,MOZのような,接続コストを統計的言語モデルに基づいて推定する手法が頑健で,整備しやすい解析器となる.逆に,タグ付きコーパスが充分に整備されていない言語の解析器を必要とする場合,あるいは,新たに定義した品詞に対する解析器が,その品詞で解析されたコーパスが充分に存在しない状況で必要となる場合にはYamChaが有効である.また,中国語に固有の解析の難しさが考えられるが,日本語を対象とした実験の結果から,同程度のコーパスならびにそのタグセットの大きさの場合では顕著な違いは見られなかった(表\ref{MOR_Opentest}).しかしながら,京大コーパスの平均未知語率が,CTBのそれと比較して大きく(表\ref{OpenUnknown}),さらに,京大コーパスのタグセット(41)がCTBのそれ(33)より大きい.これは,日本語解析の実験条件が中国語解析の条件に比べ,厳しいことを示す.それにもかかわらず,実験結果は同程度の精度を示した.これらのことから中国語解析が,日本語解析に比べて難しいと判断する.さらに,表\ref{MOR_Opentest}は,京大コーパスの解析結果とCTBの解析結果において単語分割のみと分割と品詞付与との間の逆転現象があることを示している.これは,中国語解析の困難な点は,品詞付与にあるという我々の予見を裏付ける結果と考える.一方で,より大きなコーパスを用いることにより,高精度な解析器が実現可能であることが,表\ref{MOR_Opentest}からわかる.また,表\ref{MorclosedTest}に示した学習文テストの結果から,学習コーパスをさらに大きくするとYamChaはさらに精度を向上させる可能性がある.それに対し,MOZは,PKU(100万語以上の大きさを持つコーパス)を用いての学習文テスト結果において分割と品詞付与のF値が約95\%(表\ref{MorclosedTest})だったことから,現状の枠組のままでは,F値で95\%程度がその性能の限界だと考える.これをさらに向上させるためには,接続表へのtri-gram規則の適用ならびにその補完などが可能である.しかし,浅原らは,中国語の場合には,tri-gramの規則自体があまり有効ではなく,品詞体系の詳細化が精度の向上に寄与することを実験結果から予測している\cite{Asahara2002a}. \section{YamChaによる基本句同定解析} \label{節:基本句同定解析}本節では,YamChaを用いた基本句同定解析(basephrasechunking)実験について述べる.基本句同定解析とは,形態素解析結果すなわち品詞付与された単語列を入力として,最も下位の構造を同定し,その構造に対して構文的情報を付与する処理である.ここで,最も下位の構造を基本句,基本句に対する構文的情報を句情報と本報告では呼ぶことにする.このように,基本句同定解析は一段階の構文解析と考えることができる.したがって,構文解析は同定解析を繰り返すことで実現できる\cite{Abney91}.工藤らは,SVMに基づく同定解析の段階適用が,日本語の係り受け解析に有効であることを示している\cite{Kudo2002b}.\subsection{学習データ}同定解析の学習データは,形態素解析と同様にCTBを用いた.CTBが表現する構文木では,葉が形態素に相当する.基本句同定解析では,葉に最も近い位置に付与されている構造が基本句であり,形態素が基本句を構成する要素に該当する.すなわち,形態素情報を入力として基本句の区切り位置と句情報を推定する.\subsection{学習文テスト}CTB全体(3572文\footnote{形態素解析実験と異なる理由は,見出しなどを対象から除いているためである.})を学習データとして無作為に抽出した1割の文(357文)を解析する学習文テストを行った.この結果を表\ref{BP_close}に示す.学習文テストにおけるテストデータは7746の基本句からなる.そのうちYamChaは7745の基本句を同定した.このうち7741の基本句の同定に成功し,そのうち句情報も正解だったものは7740であった.すなわち,学習文テストではYamChaはほとんどすべての解析に成功した.\begin{table}[htb]\begin{center}\caption{基本句同定解析の学習文テストの結果}\label{BP_close}\begin{tabular}{l|ccc}\hline&再現率(\%)&適合率(\%)&F値(\%)\\\hline基本句同定のみ&99.94&99.95&99.94\\基本句同定と句情報付与&99.92&99.94&99.93\\\hline\end{tabular}\end{center}\end{table}\subsection{未知文テスト}次に,形態素解析実験と同様に,10分割交差検定による未知文テストを行った.学習の素性は,形態素の文字列情報,品詞情報,基本句の区切りを示すIOBタグとその基本句の句情報である.すべての学習条件はYamChaの標準設定に従っている.形態素解析実験と同様に再現率と適合率を求めた.未知文テストの結果を表\ref{BphopenResult1}に示す.なお,正解基本句数の平均は7734.4であり,YamChaが出力した基本句数の平均は7691.9である.\begin{table}[htb]\begin{center}\caption{基本句同定解析の未知文テストの結果}\begin{tabular}{l|ccc}\hline&再現率(\%)&適合率(\%)&F値(\%)\\\hline基本句同定のみ&94.61&95.12&94.86\\基本句同定と句情報付与&93.44&93.94&93.69\\\hline\end{tabular}\label{BphopenResult1}\end{center}\end{table}基本句同定,句情報付与共に比較的高い精度を得られることがわかった.また,句情報付与における誤りのうち出現率の大きい上位5種を表\ref{BphopenResult2}に示す.\begin{table}[htb]\begin{center}\caption{誤りパターンの上位5種}\begin{tabular}{r@{-}l|r}\hline正解&解析&出現率(\%)\\\hlineIP&VP&47.58(432/908)\\VP&IP&35.35(321/908)\\IP&NP&2.31(21/908)\\UCP&IP&2.20(20/908)\\PRN&IP&1.98(18/908)\\\hline\end{tabular}\label{BphopenResult2}\end{center}\end{table}1テストセットあたりの学習・解析時間は,表\ref{BphTime}の通りである.なお,形態素解析実験と同一の計算機を使用した場合,モデルファイルのコンパイルに要した時間は約1分だった.\begin{table}[htb]\begin{center}\caption{基本句同定解析の処理時間}\begin{tabular}{l|ll}\hline&学習&解析\\\hlineタグの種類&29種類&---\\文数&約3200&約350\\トークン数&約8万6千&約9500\\処理時間&約2時間&約3分\\\hline\end{tabular}\label{BphTime}\end{center}\end{table}基本句同定解析は,形態素解析と比べて高い解析精度を得た.また,学習・解析に要する時間がいずれも短い.これは付与する情報の種類が少ない,およびトークン数が少ないためである. \section{まとめ} 本報告では,SVMに基づく言語解析器を用いて,PennChineseTreebankを言語資源とした時にどの程度の中国語解析精度が得られるかを報告した.以下にその結果をまとめる.\begin{itemize}\itemSVMに基づく解析器(YamCha)による形態素解析精度は単語単位で約88\%であり,コスト最小法に基づく解析器(MOZ)よりも4\%以上高い.未知語の約4割を正しく解析でき,未知語に対する頑健性は高い.ただし計算量に問題があり,解析時間,学習時間共に非常に長い.大量のタグ付きコーパスが入手できる場合は,YamCha,MOZのいずれを用いても,さらに高精度の解析器(110万語のコーパスの場合,F値でそれぞれ約92\%,89\%)を実現できる.そのような場合には,解析,学習にかかる時間を考慮すると,MOZを用いるべきである.なお,中国語形態素解析は日本語のそれと比較して顕著な困難さは見られなかった.\item基本句同定解析(basephrasechunking)の精度は約93\%.約3200文の学習に約2時間,357文の解析に約3分を要する.\end{itemize}\vspace*{8mm}\acknowledgment本研究は,通信・放送機構の研究委託「大規模コーパスベース音声対話翻訳技術の研究開発」により実施したものです.\newpage\bibliographystyle{jnlpbbl}\bibliography{ca_svm}\newpage\appendix\vspace*{-1em} \section{CTBのタグセット} \vspace*{-1em}\label{tagset}CTBにおける全品詞の説明と,全ての句情報の説明をCTBのタグ付与指針\cite{CTB_guide2000}から転記する.\begin{center}\begin{tabular}{llll}\multicolumn{2}{l}{\bf品詞情報:}&&\\AD&adverbs&M&measureword(includingclassifiers)\\AS&aspectmarker&MSP&someparticles\\BA&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/ba.eps}}inba-const&NN&commonnouns\\CC&coordinatingconj&NR&propernouns\\CD&cardinalnumbers&NT&temporalnouns\\CS&subordinatingconj&OD&ordinalnumbers\\DEC&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/de.eps}}forrelative-clauseetc.&ON&onomatopoeia\\DEG&associative\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/de.eps}}&P&prepositions(excluding\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/ba.eps}}and\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei4.eps}})\\DER&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/de_toku.eps}}inV-deconst.andV-de-R&PN&pronouns\\DEV&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/de_ti.eps}}astheheadofDVP&PU&punctuation\\DT&determiner&SB&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei4.eps}}inshortbei-construction\\ETC&tagsfor\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/deng.eps}}and\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/deng.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/deng.eps}}&SP&sentence-finalparticle\\&incoordinationphrases&VA&predicativeadjective\\FW&foreignwords&VC&copula\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/shi.eps}}\\IJ&interjection&VE&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/you.eps}}asthemainverb\\JJ&noun-modifierotherthannouns&VV&otherverbs\\LB&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei4.eps}}inlongbei-construction&&\\LC&localizer&&\\\end{tabular}\end{center}\vspace*{-1em}\begin{center}\begin{tabular}{llll}\multicolumn{2}{l}{\bf句情報:}&&\\ADJP&adjectivephrase&LCP&phraseformedby``XP+LP''\\ADVP&adverbialphraseheaded&LST&listmarker\\&byAD(adverb)&NP&nounphrase\\CLP&classifierphrase&PP&prepositionphrase\\CP&clauseheadedbyC(complementizer)&PRN&parenthetical\\DNP&phraseformedby``XP+DEG''&QP&quantifierphrase\\DP&determinerphrase&UCP&unidenticalcoordinationphrase\\DVP&phraseformedby``XP+DEV''&VP&verbphrase\\FRAG&fragment&&\\IP&simpleclauseheadedbyI(INFL)&&\\\end{tabular}\end{center} \section{本報告で用いた言語情報資源} 以下に,本報告で用いた言語情報資源についてまとめる.\subsection{PennChineseTreebank}\label{CTB_CORPUS}米国ペンシルバニア大学(UniversityofPennsylvania)のChineseTreebankProjectにより作成された構文木コーパスである.このプロジェクトは1998年夏に始まり,最終版(LDC2000T48)を2000年12月に,また同一内容で誤りを修正したPennChineseTreebankVersion2.0(LDC2001T11)を2001年に公開した.新華社通信(\lower.25ex\hbox{\epsfxsize=5.5zw\epsfbox[01048290]{Chinese_Chars/xinhua_news.eps}},XinhuaNewsAgency)の1994年から1998年の325記事から構成される,約10万語の大きさのコーパスである.CTBは\lower.25ex\hbox{\epsfxsize=5.5zw\epsfbox[01048290]{Chinese_Chars/xinhua_news.eps}}の325記事に対して,単語分割,品詞付与,構文情報付与されたコーパスである.コーパス作成作業は,(1)作業者1名が全情報を付与する(2)別の作業者1名が点検する,という方法で行った.文字コードにはGBコードを使用し,データの書式はEnglishPennTreebankとほぼ同一である.\subsubsection*{入手方法}LinguisticDataConsortium(LDC)より出版されている.そのため,入手方法は通常のLDCのコーパスを入手する方法と同じである.本報告で使用したLDC2000T48は2000年のメンバーに配布可能である.メンバー以外であっても,US\$100にて入手することができる.関連URIを以下に示す.\begin{tabular}{ll}{ChineseTreebankProject}&{\tt\smallhttp://www.ldc.upenn.edu/ctb/}\\LDC&{\tt\smallhttp://www.ldc.upenn.edu/}\\CTB最終版&{\tt\smallhttp://www.ldc.upenn.edu/Catalog/LDC2000T48.html}\\CTBVersion2.0&{\tt\smallhttp://www.ldc.upenn.edu/Catalog/LDC2001T11.html}\\\end{tabular}\subsection{人民日報タグ付きコーパス}\label{PKU_CORPUS}富士通研究開発中心有限公司(\lower.25ex\hbox{\epsfxsize=14.3zw\epsfbox[010124790]{Chinese_Chars/fujitu.eps}})と,北京大学(\lower.25ex\hbox{\epsfxsize=4.4zw\epsfbox[01038690]{Chinese_Chars/beijingdaxue.eps}})および人民日報社(\lower.25ex\hbox{\epsfxsize=5.5zw\epsfbox[01048290]{Chinese_Chars/renminribao.eps}})が協力し作成した,中国で最も権威を持ち影響力のある中国全国紙のタグ付きコーパスである.\lower.25ex\hbox{\epsfxsize=4.4zw\epsfbox[01038390]{Chinese_Chars/renminribao_4char.eps}}の1998年の新聞記事半年分,約1,300万文字=約730万単語からなる.\lower.25ex\hbox{\epsfxsize=5.5zw\epsfbox[01048290]{Chinese_Chars/renminribao.eps}\epsfxsize=6.6zw\epsfbox[01058190]{Chinese_Chars/xinwenxinxi_center.eps}}から,大学や研究所などでの研究利用に限定して,人民元2,000元(約3万円,実費)にて有償公開している.また,この内1ヶ月分を無償公開している.\subsubsection*{入手方法}正規版の入手に関しては,WWWページ\footnote{\tt{http://www.fujitsu.com.cn/support/}}に記載されている連絡先へ問いあわせる.また,本報告で用いた無償公開版は,\lower.25ex\hbox{\epsfxsize=13.4zw\epsfbox[010115490]{Chinese_Chars/beijingdaxue_keisan.eps}}の公開ページ\footnote{\tt{http://www.icl.pku.edu.cn/research/corpus/dwldform1.asp}}にある必要項目を満たすことにより入手できる.その他,関連URIを以下に示す.\noindent\begin{tabular}{ll}\multicolumn{2}{l}{日本語による説明:{\tt\smallhttp://pr.fujitsu.com/jp/news/2001/08/28.html}}\\\lower.25ex\hbox{\epsfxsize=13.4zw\epsfbox[010115490]{Chinese_Chars/beijingdaxue_keisan.eps}}:&\\\multicolumn{2}{r}{{\tt\smallhttp://www.icl.pku.edu.cn/Introduction/corpustagging.htm}}\\\multicolumn{2}{l}{タグセット一覧:{\tt\smallhttp://www.icl.pku.edu.cn/research/corpus/addition.htm}}\\\end{tabular}\subsection{京都大学テキストコーパス}\label{KYODAI_CORPUS}京都大学テキストコーパスは,毎日新聞1995年1月1日から17日までの全記事,約2万文,1月から12月までの社説記事,約2万文,計約4万文に対して,京都大学の形態素解析システム(JUMAN),構文解析システム(KNP)で自動解析を行い,その結果を人手で修正したコーパスである.ただし,コーパスとして含んでいるのは形態素・構文の付加情報のみであり,毎日新聞の記事そのものは含まれていない.そのためコーパス本来の形式とするためには別途毎日新聞CD-ROMが必要である.毎日新聞CD-ROMを用意し,京都大学テキストコーパスの配布パッケージに含まれるプログラムを使用して完全なコーパスの形式へ変換する.\subsubsection*{入手方法}以下のページより入手できる.\noindent{\tthttp://www-nagao.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}\newpage\begin{biography}\biotitle{略歴}\bioauthor{吉田辰巳}{1979年生.2002年豊橋技術科学大学工学部知識情報工学課程卒業.現在,豊橋技術科学大学大学院工学研究科修士課程知識情報工学専攻在学中.自然言語処理,特にテキスト自動要約の研究に従事.\\{\tte-mail:gaizi@smlab.tutkie.tut.ac.jp}}\bioauthor{大竹清敬}{1973年生.2001年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了.博士(工学).同年より国際電気通信基礎技術研究所(ATR)に所属し,現在,音声言語コミュニケーション研究所研究員.自然言語処理,特に換言処理,要約処理,機械翻訳の研究に従事.言語処理学会,人工知能学会,情報処理学会各会員.\\{\tte-mail:otake@fw.ipsj.or.jp}}\bioauthor{山本和英}{1969年生.1996年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).同年より国際電気通信基礎技術研究所(ATR)に所属し,現在音声言語コミュニケーション研究所客員研究員(非常勤).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系講師.換言処理,要約処理,機械翻訳,中国語及び韓国語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.\\{\tte-mail:yamamoto@fw.ipsj.or.jp}}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V17N01-03
\section{はじめに} 形態素解析は,文を形態素列に分割し,各形態素に品詞をタグ付けするタスクである.形態素解析は自然言語処理における基盤技術であり,構文解析や情報検索といった応用を実現するうえで高い精度の達成が不可欠となる.日本語の形態素解析では,あらかじめ定義された辞書を用いる手法が高い精度を達成している~\cite{Kurohashi1994full,浅原正幸:2002,Kudo2004full}.この手法では,入力文は辞書引きにより得られた形態素のラティスに展開され,ラティス中の最適なパスが出力として選択される.しかし,辞書に基づく形態素解析には,辞書にない形態素({\bf未知語})の解析を誤りやすいという問題がある.例えば,形態素解析器JUMAN\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}は,デフォルトの辞書を用いると,未知の動詞「ググる」を誤って「ググ」と「る」に分割する.この未知語問題は,未知語を解析用の辞書に追加することで解決する.しかし,人手による辞書登録はコストがかかるため,計算機による自動化が望まれる.人手によらない未知語問題への解決策として,2通りの手法が提案されている.ひとつ目の手法では,形態素解析における未知語モデルを改良する~\cite{Nagata1999full,内元清貴:2001,Asahara2004full,東藍:2006}.日本語の形態素解析で広く用いられる未知語モデルは,字種に基づく簡単なヒューリスティクスだが,代わりに統計や機械学習に基づく未知語モデルを導入すると未知語同定の精度が向上する.二つ目の手法では,テキストから未知語を自動獲得し,形態素解析用の辞書を拡張する~\cite{Mori1996full}.二つの手法を比べると,前者は入力文中の個々の未知語を同定しようとするのに対し,後者は同じ未知語のテキスト中での複数の使われ方を比較できるという点で異なる.複数の使われ方の比較は未知語の同定に効果的と考えられる.例えば「ようつべ」(YouTubeのスラング)という形態素を知らないまま,「ようつべって…」という文を解釈したいとする.このとき,「ようつべ」は,未知の名詞以外にも,未知の動詞「ようつべる」とも解釈でき,いずれが正しいか判断しがたい.同様に,別の文「ようつべとは,…」について,名詞「ようつべ」の他に,動詞「ようつぶ」の命令形とも解釈できる.しかし,両者を見比べると,2文とも名詞「ようつべ」で解釈できることから,名詞という解釈がより自然だと推測できる.従って,本論文では後者の手法を採用する.ただし,両者は対立するものではなく,組み合わせることで,より高い解析精度が得られるようになると期待できる.未知語獲得の従来手法はバッチ処理であり,コーパスをソートしてすべての部分文字列を調べる~\cite{Mori1996full}.しかし,この手法は効率が悪い.なぜなら高頻度の形態素のほとんどが解析用の辞書に登録済みであり,一般に出現頻度でコーパスの90\%以上を網羅している.こうした既知の形態素を改めて獲得しても無駄になる.これに対し,提案手法では,辞書に登録されていない形態素のみを獲得対象とする.従来研究は,資源の制約から,主に小規模な新聞記事を対象に行われてきたが,近年,ウェブの出現により大規模なテキストが入手可能となっている.それに伴い,自然言語処理の様々な分野でデータの大規模化による性能向上が報告されている\cite{Banko2001full,Brants2007full}.しかし,未知語獲得は,データの大規模化が単純に解決する性質の問題ではない.未知語の中には,「ブログ」のように高頻度ながら登録が漏れているものもあるが,大部分がいわゆるロングテールに属す低頻度の形態素である.こうした形態素の出現するテキストには偏りがあるだけでなく,データを増やすだけでは,次々と新たな未知語が出現してきりがない.従って,とにかくデータを与えてそこから未知語を獲得するよりも,個々の未知語候補に着目し,それが獲得されるまでデータを読み込む方が自然である.そもそも,未知語の同定のために,何千,何万もの使われ方を調べる必要はなく,直観的には,ほとんどの場合,10件程度を見比べればほぼ明らかではないかと思われる.本論文では,オンライン未知語獲得という枠組みと,その具体的な実現手法を提案する.オンライン未知語獲得では,バッチ処理ではなく,逐次的に入力されるテキストから未知語を獲得する.形態素解析器自体は,通常通りテキストを文単位で解析し,形態素列を出力する.異なる点は,解析の裏で未知語獲得器が動作することである.具体的には,解析された文から未知語を抽出し,適当な時点で形態素解析器の辞書を更新する.これにより獲得された未知語が形態素解析に反映される.オンライン未知語獲得では,獲得開始時に対象コーパスを決める必要がない.そのため,例えば,クローラが毎日新たなページを取得するという設定でも,この差分のみから未知語が獲得できる.オンライン未知語獲得は,検出,列挙,選択のサブタスクにより実現される.このうち,列挙は日本語の持つ形態論的制約を利用し,選択は蓄積した複数用例の比較による.実験により比較的少数の用例から高精度に未知語が獲得され,その結果形態素解析の精度が改善することが示された.本論文の構成は次の通りである.\ref{sec:acquisition-task}章で未知語獲得タスクを整理し,\ref{sec:online-acquisition}章でオンライン未知語獲得の枠組みを提案する.\ref{sec:enumeration-and-selection}章では,オンライン未知語獲得の実現手法のうち,列挙と選択を説明する.\ref{sec:experiments}章で実験結果を報告し,\ref{sec:related-work}章で関連研究,\ref{sec:conclusion}章で結論を述べる. \section{未知語獲得タスク} \label{sec:acquisition-task}未知語獲得とは,未知語について,テキスト中の一つ以上の{\bf用例}から{\bf辞書項目}を帰納的に生成するタスクである.ここで,辞書項目は辞書の項目として記述される形態素であり,テキスト中に出現したその形態素を用例とよぶ.例えば,未知語「ググる」について,「なんとなく\underline{ググって}みた.」や「\underline{ググら}ずに答える.」といったテキスト中の用例から辞書項目を生成する.ただし,個々の用例の解釈には曖昧性があり,そうした曖昧性を解消することによって辞書項目が生成される.辞書項目の生成には{\bf語幹}と{\bf品詞}の同定が必要となる.「ググる」の例にあるように,動詞や形容詞は文法的役割に応じて形態変化を起こすが,この形態変化は活用という概念によって処理される.活用する形態素は{\bf語幹}と{\bf語尾}からなる.語幹は不変だが,語尾は活用に応じて変化する.例えば,「ググって」は語幹「ググ」と語尾「って」からなる.名詞は活用せず,語幹のみからなる.品詞は形態素解析用に定義されたものに基づく.ただし,既存の品詞は人手での付与が前提となっており,形態,構文,意味レベルの情報が混在している.未知語獲得タスクにおいて,いきなり意味レベルの情報を獲得するのは難しいため,本論文では,ひとまず形態レベルの情報の獲得を目指す.そのために,品詞分類を整理する.以下の説明は形態素解析器JUMANが採用する品詞体系に基づく.品詞体系の設定方法には様々な流儀があるため一般化が難しいが,少なくともipadic\footnote{http://sourceforge.jp/projects/ipadic/}の品詞体系でも同様の議論が成り立つことは容易に想像できる.品詞は「品詞」,「品詞細分類」,「活用型」,「活用形」の4種類からなる.「品詞」には「名詞」,「動詞」,「形容詞」などがある.「名詞」の「品詞細分類」には,「普通名詞」や「サ変名詞」の他,固有名詞用の「固有名詞」,「組織名」,「地名」,「人名」などがある.しかし,固有名詞と普通名詞の識別は,形態レベルの文法的な情報のみでは困難なので,本論文では,便宜的に固有名詞も「普通名詞」とみなす.用言の「動詞」と「形容詞」には「品詞細分類」は設定されていない.代わりに活用を扱うために{\bf活用型}と{\bf活用形}が与えられる.活用型は活用のタイプに基づく分類であり,活用形は個々の具体的な活用形態を指す.例えば,「ググる」の活用型は「子音動詞ラ行」で,「ググって」の活用形は「タ系連用テ形」,「ググら」は「未然形」となる.未知語獲得タスクにおける品詞は,「品詞」,「品詞細分類」,「活用型」の適当な組である.簡単のために,名詞については「品詞細分類」,動詞と形容詞については「活用型」で呼ぶ.例えば,「ググる」の品詞は「子音動詞ラ行」となる.\begin{table}[b]\caption{獲得対象の品詞}\label{tb:pos-list}\input{04table01.txt}\vspace{-1\baselineskip}\end{table}基本語彙は既に人手により辞書登録されているので,獲得対象をオープンクラスの品詞に絞り込める.つまり,「来る」などの不規則変化動詞や助詞,助動詞などの付属語は獲得対象から除外される.本論文では,名詞,動詞,および形容詞を獲得対象の品詞とする.副詞もオープンクラスとみなせるが,今回は明示的な獲得対象としない.副詞と名詞の識別も,形態レベルの情報だけでは困難だからである.副詞の認識は今後の課題とする.以上をまとめると,獲得対象の品詞は表\ref{tb:pos-list}の15種類となる.形態素の単位認定基準,つまりある言葉が1形態素か否かは自明でない.例えば,「ミンククジラ」のように構成的な名詞や「宣べ伝える」のような複合動詞を1形態素とするか分割すべきか明らかでない.実際,人手で整備された既存の形態素解析用の辞書も,単位に一貫性があるとは言い難い.他の単位認定基準としては,『現代日本語書き言葉均衡コーパス』が人間の作業者向けに詳細な基準を設けている~\cite{BCCWJ2008}.しかし,この基準は煩雑で,しかも意味レベルの情報も利用しているため,プログラムに落とし込んで未知語の自動獲得に利用することは困難である.本論文では,厳密な単位認定にはこだわらないとする. \section{オンライン未知語獲得} \label{sec:online-acquisition}\subsection{システム構成}\label{sec:online-acquisition-idea}未知語獲得タスクに対して,我々はオンラインによる解法を提案する.図\ref{fig:system}にオンライン未知語獲得のシステム構成を示す.形態素解析器自体は,通常通り入力文に対して形態素列を出力する.ただし,辞書として,人手で整備した基本語彙辞書の他に,自動獲得辞書も用いる.形態素解析の裏では未知語獲得器が動く.獲得器は,形態素解析器が出力する形態素列を文ごとに受け取り,そこから未知語を抽出する.獲得器は,適当な時点で未知語を獲得し,形態素解析器の自動獲得辞書を更新する.辞書更新により未知語獲得が以降の解析に反映される.\begin{figure}[b]\begin{center}\includegraphics{17-1ia4f1.eps}\end{center}\caption{オンライン未知語獲得システムの構成}\label{fig:system}\end{figure}獲得器には高い精度での未知語獲得が要求される.獲得された未知語の辞書へのフィードバックに人手が介在しないが,誤獲得が解析に悪影響を及ぼすことは避けたいからである.獲得器は,未知語の用例を蓄積することで,それまでに解析されたテキストを獲得に利用できる.未解析のテキストは獲得に利用できないが,見方を変えれば,次に読むテキストをあらかじめ決める必要がないことを意味する.従って,獲得の都合に応じて対象テキストを動的に変更するという応用も可能である.オンライン未知語獲得を実現するために,以下のサブタスクを設定する.\begin{description}\item[検出]各文の形態素解析結果から未知語の用例を検出する.\item[列挙]検出された各未知語用例に対して,語幹と品詞からなる辞書項目の候補を列挙する.\item[選択]各未知語用例に対して,最適な辞書項目の候補を選択する.選択は,過去に検出された用例を蓄積しておき,それら複数用例の比較により行う.比較される用例が増え,曖昧性が十分に解消できた時点で獲得し,形態素解析器の辞書を更新する.\end{description}未知語「ググる」の獲得を例にシステムの挙動を説明する.「ググる」は語幹「ググ」と品詞「子音動詞ラ行」からなる.テキストを読み進めて,ある時点で文「なんとなくググってみた.」が入ってきたとする.獲得器は,まず,この文の「ググ」を手がかりに未知語用例を検出する.次に,この用例に対して考えられる辞書項目の候補を列挙する.辞書項目の候補としては,語幹「ググ」と品詞「子音動詞ラ行」以外にも,同じ語幹で「子音動詞ワ行」,語幹「ググって」と品詞「子音動詞マ行」,語幹「なんとなくググ」と品詞「子音動詞ラ行」なども考えられる.こうした複数の候補の中から正しい候補を選択する必要があるが,この1用例だけを見ても正しい候補を判断しがたい.そこで獲得器は判断を保留し,用例を記憶に蓄えておく.さらにテキストを読み進めると,「ググらずに答える.」という文が入力される.同様に検出と列挙を行ったのち,「ググってみた」の用例を記憶から取り出して,「ググらず」と比較する.すると,両者を共通に解釈できる辞書項目の候補は語幹「ググ」と品詞「子音動詞ラ行」のみである.このように複数の用例を比較して曖昧性を解消する.比較する用例が増え,選択された候補が適当な終了条件を満たしたとき,その候補を獲得する.これにより,「ググる」が自動獲得辞書に追加される.オンライン未知語獲得のサブタスクのうち,本論文では列挙と選択について詳述する.検出タスクについては簡単な手法を説明するにとどめる.\subsection{未知語用例の検出}\label{sec:detection}未知語検出は各文から未知語の用例を検出するタスクである.文は,形態素解析結果に基づく形態素列,または文字列として表現される.タスクの入力は,解析器が返す文の形態素列である.一方出力は,未知語用例に対応する文の部分文字列であり,その範囲を$[s_d,e_d]$とする.ただし,$[s_d,e_d]$が未知語用例の語幹の範囲$[s_u,e_u]$と厳密に一致する必要はない.辞書項目,つまり語幹と品詞の組の候補の列挙は次の列挙タスクで行うが,どの程度の正確さで検出が必要かは列挙のアルゴリズムに依存する.\ref{sec:enumeration-method}節で述べる列挙アルゴリズムは,語幹の境界候補の列挙を$s_d$を基点に行うので,検出範囲は$s_u\leqs_d\leqe_u$を満たす必要がある.日本語において未知語用例の検出は自明なタスクではない.一番単純な検出手法として,既知語とテキストの文字列マッチングを行い,マッチしない箇所を検出するというものが考えられる.しかし,日本語の単純な音韻体系がわざわいして,多くの未知語に対して無関係な既知語がマッチし,検出漏れが起きる.この現象は,形態素解析器が持つ文法知識を利用することである程度抑えられる.形態素解析器は,入力文に対して,辞書引きと未知語処理により,出力すべき形態素の候補を列挙する.未知語処理により列挙される形態素候補を{\bf未定義語}と呼ぶ.JUMANでは,字種に基づく簡単なヒューリスティクスが採用されている.例えば,カタカナの連続が一つの形態素候補とされる.これにより,未知語「ググる」を含む入力文「ググってみた.」に対して,未定義語「ググ」が形態素候補となり,これを含むパスが出力に選ばれる.従って,形態素解析結果中の未定義語$w_i$を検出範囲$[s_{w_i},e_{w_i}]$とする.ただし,$s_{w_i}$と$e_{w_i}$は,形態素$w_i$の文字列表現における開始・終了位置である.形態素解析を用いる検出手法でも検出されない未知語用例が存在する.例えば,「アブラハム」は「アブラ」(油)と「ハム」に分割され,「うざい」は「う」(卯/雨/鵜)と「ざい」(剤/在/材/罪/剤)に分割される.こうした過分割未知語の検出は今後の課題とする. \section{辞書項目の列挙と選択} \label{sec:enumeration-and-selection}\subsection{列挙タスクと選択タスク}\label{sec:enumeration-and-selection-tasks}列挙は,検出された各用例に対して,文中の前後の文脈を利用して,考えられる辞書項目の候補を列挙するタスクである.辞書項目の候補は語幹と品詞からなる.ここで,語幹の同定は前方境界と後方境界の二つの同定を意味する.例えば,「なんとなくググってみた」の場合,「なく」と「ググ」の間に前方境界が,「ググ」と「って」の間に後方境界が引かれる.そこで,辞書項目の候補を前方境界,後方境界,品詞の組で表現する.列挙される候補は,効率よく正解候補を選択するためには,なるべく数が少ないことが望ましい.選択は,各未知語用例に対して,最適な辞書項目の候補を選択するタスクである.この際,検出済みの未知語用例を蓄積することで,複数の用例が比較できる.選択タスクの実現には,最適な候補を選択する基準と,最終的に獲得を判断するための終了条件が必要となる.\subsection{形態論的制約の利用}\label{sec:enumeration-constraints}辞書項目の列挙において,候補絞り込みの手がかりとして形態論的制約を利用する.日本語は膠着語であり,形態素は,その文法的な役割に応じて,接尾辞,助動詞,助詞などに後続される.この際,用言は後続する形態素に応じて活用形を変える.また,形態素同士の連接には品詞に応じて制約が働く.例えば,助詞「を」は,「走る」の基本連用形「走り」に後続して「走りを」という形は取り得るが,未然形「走ら」に後続して「走らを」とはならない.このような連接に関する制限を形態論的制約と呼ぶ.この形態論的制約を列挙に利用するために{\bfサフィックス}を導入する.サフィックスとは,語幹に後続し得る文字列であり,自立語の語尾(あれば)と後続する付属語列を連結したものである.サフィックスの例を表\ref{tb:naming-conventions}に示す.いま,ある文字列に対してあるサフィックスが後続したとする.このとき,そのサフィックスの直前が自立語の語幹の後方境界の可能性がある.\begin{table}[t]\caption{サフィックスの例}\label{tb:naming-conventions}\input{04table02.txt}\end{table}サフィックスの集合は生テキストから収集される.ここで,形態素解析が既知語について十分に高精度であることを利用する.具体的には,テキストを形態素解析し,既知語に後続するサフィックスを収集する.こうして集められたサフィックスを品詞ごとに集約する.いま,サフィックスが十分に大きなコーパスから収集されたとき,ある品詞に属す形態素の語幹に後続し得るサフィックスは,品詞に対応するサフィックス集合中のいずれかに限定される.従って,サフィックスを候補列挙に用いることで,後方境界と同時に品詞の候補が列挙できる.なおかつ,品詞候補を形態論的制約を満たすものに限定できる.ただし,一般に,サフィックスは複数の品詞に後続し得る.例えば,サフィックス「をも」は母音動詞にもサ変名詞にも後続できる.サフィックスの収集には,Kawaharaet~al.の手法により編纂されたウェブコーパスを用いる~\cite{Kawahara2006full}.ただし,予備実験により,この大規模コーパスでもサフィックスの異なり数が収束しないと判明した.「させられかねなかっただろう」のような低頻度の長いサフィックスが存在するからである.そこで,サフィックスの最大長を5文字とし,それより長いサフィックスは先頭の5文字で統合する.実験では,約1億ページから約66万の異なるサフィックスを得た.サフィックスあたりの品詞数は平均で1.33であった.\subsection{サフィックスを用いた列挙手法}\label{sec:enumeration-method}サフィックスを用いて辞書項目の列挙を行う.まず,列挙に利用する文中の前後の文脈,つまり前方境界と後方境界の探索範囲を文節を用いて限定する.\pagebreak文節については,構文解析器KNP\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html}が係り受け解析の前処理として文節まとめあげを行うので,その結果を利用する.検出された未知語用例が属す文節,および最大で前後2文節を探索範囲とする.ただし,文頭,文末や句読点で探索を打ち切る.後方境界と品詞の組の候補を図\ref{fig:suffix-match}のようにサフィックスを用いて列挙する.検出範囲の開始位置$s_d$から探索範囲の終端までの各位置で,サフィックスのマッチングを行う.サフィックスがマッチしたとき,サフィックス開始位置が後方境界の候補となり,サフィックスに対応する1個以上の品詞が候補となる.\begin{figure}[b]\begin{center}\includegraphics{17-1ia4f2.eps}\end{center}\caption{候補の列挙}\label{fig:suffix-match}\end{figure}長さの異なる複数のサフィックスがマッチした場合,以下の規則で採用するサフィックスを選択する.原則として長い候補を優先するが,サフィックスの終了位置が文節境界と一致しなければならない.ただし,サフィックスは最大5文字としているので,5文字のサフィックスがあれば無条件で採用する.また,サフィックス以外の手がかりとして,以下を前方境界と後方境界の候補列挙に利用する.\begin{itemize}\item文頭と文末\footnote{ただし,ウェブコーパスの場合は,HTMLから文抽出を行うため,文頭や文末は文抽出誤りの影響を受ける可能性があり,あまり信頼できない.}\item句読点や記号\item「御」などの接頭辞\item「首相」などの末尾要素\itemKNPにより与えられる文節境界\end{itemize}これらの手がかりにより列挙される候補のうち,後方境界については,特殊な品詞``EOB''を与える.``EOB''はサフィックスなしに語幹単独で出現し得ることを示す.例えば,「グーグル」などの名詞には句読点などが直接後続し得る.また,母音動詞は基本連用形(名詞化)が語幹と同形なので,語幹単独で出現し得るとみなせる.一方,「ググる」などの子音動詞ラ行は語幹単独では出現しない.``EOB''は選択タスクにおいて語幹単独で出現し得る品詞に展開される.\subsection{用例の蓄積}\label{sec:selection-accumulation}辞書項目の選択には,それまでに検出された複数の用例を利用する.具体的には,新たに入ってきた用例について,その用例と同じ辞書項目を表す可能性のある用例群を記憶から取り出して比較する.ただし,真に同じ辞書項目を表す用例のみを取り出すのは難しいので,ひとまず前方境界を共有する用例群を取り出し,後の処理で絞り込みを行う.また,獲得に至らなかった用例は記憶に追加し,獲得時には使われた用例群を削除する.用例の効率的な管理のためにトライを利用する.各用例の格納は,前方境界の候補数だけ行う.トライのキーとして,各前方境界候補と,それより右で最左の後方境界候補に挟まれた文字列を用いる.例えば,図\ref{fig:suffix-match}の用例に対して,「ググ」と「何となくググ」をキーとして2箇所に格納する.用例取り出し時にはキーを使ってトライをたどり,途中のノード,およびキーの末端ノードの子孫に格納された用例群を取り出す.\subsection{辞書項目の選択}\label{sec:selection-method}辞書項目の候補,つまり前方境界,後方境界および品詞の候補のうち,最適な候補の選択を記憶から取り出された用例群の比較により行う.図\ref{fig:selection}に選択の擬似コードを示す.候補の絞り込みは前方境界,後方境界,品詞の順で行う.また,語幹については短い候補(前方境界は右,後方境界は左)から順に調べる.\begin{figure}[b]\input{04fig03.txt}\caption{選択の擬似コード}\label{fig:selection}\end{figure}用例$e$の各前方境界候補に対して,まず記憶から前方境界$f$を共有する用例群$E$を取り出す(retrieveExamples).次に,用例群の比較により,若干の後方境界候補の足切りを行う(refineRearBoundaryCandidates).これにより,語幹の長さが0の候補や,後述の終了条件を満たさないことが明らかな候補を取り除く.残った各後方境界候補$r$に対して,品詞の絞り込みを行う(refinePOSCandidates).品詞候補が$p$一つに絞り込まれ,その候補が獲得の終了条件を満たすなら,候補$(f,r,p)$を獲得する.選択の方針は,単純に,多くの用例をうまく説明できる候補を選ぶというものであり,絞り込みは用例群の包含関係により行う.refinePOSCandidatesでは,$(f,r)$を共有する用例群中の被覆率が閾値以上の品詞候補を選ぶ.ただし,「普通名詞」,「サ変名詞」,「ナ形容詞」は区別が明確でなく,また,「母音動詞」の「基本連用形」と「普通名詞」の区別は困難なため,これらの品詞のみが候補として残った場合には「普通名詞」を採用する.終了条件は,候補$(f,r,p)$を共有する用例群について,次の二つが満たされる場合とする.一つ目は前方境界の妥当性のチェックである.具体的には,句読点などの明らかな境界マーカーから前方境界が得られた候補の割合が閾値以上とする.例えば,未知語「新撰組」に対して,形態素解析が「新」を接頭辞と解釈するため,常に「撰組」が辞書項目の候補となる.選択アルゴリズムは短い候補を優先するので,「新撰組」よりも先に「撰組」が調べられる.しかし,「撰組」の直前に句読点等が来る用例はないので,「撰組」は獲得されない.二つ目は活用型の異なり数が閾値以上という条件である.これにより,品詞が偶発的に選択されたのではなく,実際に該当品詞として使われていることを確認する\footnote{実験では異なり数の閾値を3とした.従って,獲得には最低3個の用例が必要となる.}.\subsection{品詞分類手法の比較}\label{sec:selection-comparison}品詞分類について先行研究との簡単な比較を示す.Moriet~al.の後ろの「文字列」と福島・鍜治らの「後続するひらがなn-gram」,および桑江らの「最長後続ひらがな列」は,本論文のサフィックスと同様の働きをする~\cite{Mori1996full,福島健一:2007,鍜治伸裕:2009,桑江常則:2008}.Moriet~al.は前後の文字列とその頻度をベクトルで表現し,語幹候補と品詞モデルとのベクトル間の距離の近さにより品詞を判定している.しかし,同じ品詞に属す形態素が本当に似たベクトルを取るのだろうか.直観的には,品詞は大雑把な分類であり,同じ品詞に属す形態素でも振る舞いにばらつきがありそうに思われる.そこで,ウェブコーパスを対象に簡単な実験を行った.まず,コーパスの形態素解析結果から既知語に後続するサフィックスを収集する.次に,サフィックスを各形態素ごとに集約し,形態素ごとの後続サフィックスの頻度分布を求める.同様にして,形態素が属す品詞ごとに,後続サフィックスの頻度分布を求める.そして,各形態素と品詞との間で,後続サフィックスの頻度分布の近さを求める.ただし,頻度分布の近さの尺度としてSkewdivergence$s_\alpha$を用いる~\cite{Lee2001full}.\pagebreak\begin{align*}s_\alpha(q,r)&=D_{KL}(r||\alphaq+(1-\alpha)r),\\D_{KL}(q||r)&=\sum_yq(y)(\logq(y)-\logr(y))\end{align*}ここで,$q$,$r$はサフィックスの頻度分布とし,$\alpha=0.99$とする.図\ref{fig:divergence}に,「子音動詞ラ行」の例を示す.横軸は「子音動詞ラ行」の各形態素の絶対頻度を表し,縦軸は各形態素の,「母音動詞」との近さと「子音動詞ラ行」との近さとの「差」を表す.低頻度区間では,二つの近さの差が小さく,近さによる品詞判定では識別が難しいと予想される形態素が目立つ.それだけでなく,高頻度区間でも差が小さい形態素が散見される.従って,出現頻度が大きくても,近さによる品詞判定が難しいと予想される場合が存在する.福島・鍜治らは品詞識別にSVMを用い,素性として後続するひらがなn-gramを与える.素性の値に福島らは頻度,鍜治らは出現したか否かの2値を使う.SVMは識別器であり,品詞内の近さよりも品詞間の差異を学習すると期待される.\begin{figure}[b]\begin{center}\includegraphics{17-1ia4f4.eps}\end{center}\caption{「子音動詞ラ行」の各形態素の,「母音動詞」との近さと「子音動詞ラ行」との近さとの「差」}\label{fig:divergence}\end{figure}一方,提案手法は,サフィックスの頻度には注目せず,個々のサフィックスを品詞リストに写像する.サフィックスは形態論的制約を満たすか否かの2値を表現しており,候補列挙の時点で,制約を満たさない品詞は候補から除外される.このように,品詞の絞り込みが各用例に対して行われるので,単純に多くの用例を説明できる候補を選ぶだけで品詞分類が行える.また,提案手法は一つの語幹に対応する品詞は一つという仮定を置いている.これに対し,Moriet~al.と桑江らは,「楽し-い」と「楽し-む」のように,一つの語幹が複数の品詞に属す可能性を明示的にモデル化している.しかし,「楽し-い」と「楽し-む」のような派生関係にある形態素の品詞の衝突は,基本語彙が登録済みのため,極めてまれと推測される.無関係な形態素同士の偶発的な衝突については,提案手法はテキストを逐次的に解析するため,同一ドメインのテキストを読んでいる場合,特に起きにくいと推測される.\subsection{獲得未知語の分割可能性}\label{sec:selection-decomposition}獲得された未知語が実際には2個以上の形態素からなる可能性がある.未知語は比較的少数の用例から獲得するため,未知語$B$が,観測された用例中でたまたま$AB$という連続で現れていた場合,$AB$を1形態素として獲得してしまう.例えば,複合語「顆粒タイプ」が未知語「顆粒」よりも先に獲得されるかもしれない.この問題に対処するために,未知語獲得時に,獲得済みの形態素が獲得形態素によって分割できるかを調べ,できる場合にはその形態素を辞書から削除する.現在のところ,分割可能性の検査には形態素解析器を用いる.これにより形態素解析器に記述された制約知識を利用する.まず,分割対象形態素の候補列挙は単純な文字列マッチングにより行う.次に,候補を一時的に辞書から取り除いた状態で,その候補の形態素解析を行い,獲得形態素によって分割されなかった場合に候補を辞書に戻す. \section{実験} \label{sec:experiments}\subsection{実験設定}\label{sec:experiments-settings}オンライン未知語獲得について,獲得される未知語の精度,および未知語獲得の形態素解析への貢献を評価する.基本語彙辞書として,形態素解析器JUMANのデフォルトの辞書を用いる.この辞書は約3万の基本語彙を収録している.表記ゆれを展開し,固有名詞を含めれば,語彙数は約12万となる.獲得対象テキストとして,ドメインが限定されたコーパスを用いる.話題を共有するテキストの方が,互いに無関係なテキストよりも未知語が集中的に出現すると期待されるからである.実験では,検索エンジン基盤TSUBAKI~\cite{Shinzato2008full}を用い,その検索結果をドメイン限定コーパスとみなす.各クエリに対して,システムは検索結果のページを順に読み,未知語を獲得する.獲得は千ページ目で打ち切り,同じ千ページを拡張された語彙を用いて再解析する.クエリとしては,「捕鯨問題」,「赤ちゃんポスト」,「ジャスラック」,「ツンデレ」,および「アガリクス」を使用する.獲得された未知語は,語幹と品詞の両方が正しい場合に正解とする.ただし,\ref{sec:acquisition-task}章で述べたように,語幹の単位認定は難しい.実際,Nagataと内元らは,単位認定の不一致が報告されたエラーの原因の一つとみなしている~\cite{Nagata1999full,内元清貴:2001}.単位認定の不一致を回避するために,正解コーパスとの単純比較ではなく,人手による判定を採用する.未知語獲得の形態素解析への貢献の評価は次の手順で行う.獲得対象テキストを基本語彙辞書と拡張された辞書の2通りで形態素解析する.二つの解析結果を比較して,図\ref{fig:diff}のように単語分割の境界が一致しない箇所を抽出する.これを``diff''ブロックとよぶ.``diff''ブロックの正誤判定は,形態素への分割と,分割および品詞割り当ての2通りにより行う.ただし,形態素境界は,明らかに誤っていない場合に正解とする.評価には,クエリごとに,再解析により解析結果が変化した文の中から無作為に抽出した50文を用いる.\begin{figure}[b]\begin{center}\includegraphics{17-1ia4f5.eps}\end{center}\caption{``diff''ブロックの例}\label{fig:diff}\end{figure}品詞の評価については,「普通名詞」と「サ変名詞」という名詞の「品詞細分類」を区別しない\footnote{また,「名詞形態指示詞」も名詞とみなす.名詞形態指示詞の形態レベルの振る舞いは名詞と同様だからである.指示詞はクローズドクラスだが,「コレ」のようなカタカナ指示詞は新聞記事には出現しないため,登録が漏れている.}.また,JUMANが未知語に与える特殊な品詞「未定義語」は名詞とみなす.\subsection{実験結果}\label{sec:experiments-results}\begin{table}[b]\caption{クエリごとの統計}\label{tb:queries}\input{04table03.txt}\end{table}表~\ref{tb:queries}にクエリごとの統計を示す.再解析により変化した文の割合に大きなばらつきがある(0.43--9.26\%).基本語彙辞書はこれまで新聞記事を対象に整備されてきたため,新聞記事と似ていないドメインほど未知語獲得の効果が大きい傾向がみられる.獲得された未知語の精度は97.3--98.5\%と高い.しかも,獲得時点で利用した用例数の中央値は4--7に過ぎない.先行研究では出現回数が10回未満の候補を信用できないとして無視していたことを考えると非常に小さな値である~\cite{Mori1996full}.\begin{figure}[b]\vspace{-1\baselineskip}\begin{center}\includegraphics{17-1ia4f6.eps}\end{center}\caption{クエリ「ジャスラック」における獲得された未知語の頻度と順位}\label{fig:frequency}\end{figure}図\ref{fig:frequency}に,獲得された未知語の頻度とその頻度の順位との関係を示す.ここで,頻度は,拡張された辞書を用いた再解析結果から数えたものである.順位の下位区間における急な落ち込みは,用例数の不足により獲得されていない未知語の影響と推測される.図\ref{fig:process}に,獲得の経過を示す.ここで,獲得未知語の累積出現数は,拡張された辞書を用いた再解析結果から数えたものである.終了時点での蓄積されている用例数と未知語の累積出現数の比較から,検出された未知語用例がすべて真の未知語と仮定すると,提案手法で検出される未知語のうちおよそ半分が獲得されたと推定できる.表~\ref{tb:examples}に獲得された未知語の例を示す.予想される通り,獲得された未知語の大半が名詞(94.1--100\%)やカタカナのみからなる形態素(67.9--79.4\%)である.「タイーホ」や「ぱくる」など新聞記事にはあまり見られない俗語も獲得されている.字種が混在する「ドジっ娘」や「シャ乱Q」は字種に基づく形態素解析の未知語処理では正しく解析できない.「すごい」に対する「スゴい」,「解かる」に対する「解る」のように,登録済みの形態素の異表記もあった.誤り例には,「パクられる」や「フラグが立つ」など明らかに構成的な表現を1形態素と認識しているものがある.ただし,これらは,さらに未知語獲得を進めて,それぞれ「パクる」や「フラグ」が獲得された場合,分割可能性のチェックにより消される.他には,副詞の「やっぱ」が名詞と誤認識された.\begin{figure}[t]\begin{center}\includegraphics{17-1ia4f7.eps}\end{center}\caption{クエリ「ジャスラック」における獲得の経過}\label{fig:process}\end{figure}\begin{table}[t]\caption{獲得未知語の例}\label{tb:examples}\input{04table04.txt}\end{table}表~\ref{tb:change-seg}に``diff''ブロックの評価結果を示す.ほとんどのブロックが拡張された語彙によって正しく解析されている(E$\rightarrow$CおよびC$\rightarrow$C).一方,獲得による副作用は限定されている(C$\rightarrow$E).従って,獲得された未知語が形態素解析の精度を改善することが示された.\subsection{議論}\label{sec:experiments-discussion}形態素解析において,カタカナ未知語が短いカタカナ形態素によって分割されることがある.例えば,基本語彙辞書のみを用いると,未知語「アブラハム」は「アブラ」と「ハム」に過分割される.「アブラハム」は,\ref{sec:detection}節で述べた単純な検出手法では検出されず,従って獲得もされない.また,未知語の獲得によって新たな過分割が発生し得る.例えば,「サー」の獲得によって,「サーバー」が「サー」と既知の「バー」によって過分割されるようになる.このような過分割の問題は,本論文が利用した形態レベルの文法的振る舞いだけを調べても解決できない.他の手がかり,例えば,「サーバー」がserverという一つの外来語だから分割できないといった知識が必要となる.\begin{table}[t]\caption{``diff''ブロックの評価}\label{tb:change-seg}\input{04table05.txt}\vspace{-1\baselineskip}\end{table}提案手法では,カタカナ「イイ」のように語尾までカタカナで表記された用言は誤って名詞と認識される.現在の形態素解析は語尾のひらがな表記を前提としている.この仮定は新聞記事に対しては妥当だが,ウェブテキストに対しては無効であり,より柔軟な解析が必要になる.ただし,こうした未知語の解析は元々誤っており,獲得によって形態素解析が悪化するわけではない.未知語問題への2通りの解決策のうち,未知語モデルによる手法は,その利点として,低頻度語の正しい同定が強調されている~\cite{Nagata1999full,Asahara2004full}.しかし,ウェブの出現により,ほとんど無尽蔵のテキストが入手できるようになった現在,限られた情報のみを用いた同定は不可欠ではない.仮に,解析対象のテキストが少量で,未知語獲得を行うには用例の出現回数が足りないとしても,ウェブから解析対象テキストと関連するテキストを収集することで,用例の出現回数を増やすことができる.ここで,バッチ処理~\cite{Mori1996full}と異なる,オンライン獲得という特徴を生かせる.すなわち,解析対象テキストから検出された用例にマークして,それらの用例が獲得に使われたか追跡することで,未知語が十分に獲得された時点で処理を停止させることができる.最後に,残された課題を整理する.\ref{sec:acquisition-task}章で整理したように,形態素に付与される様々な情報のうち,本論文はひとまず形態レベルの情報の獲得を目指した.形態レベルの手がかりでは得られない知識としては,名詞と副詞の区別の他に,固有名詞と普通名詞の区別などがある.特に名詞の細分類は固有表現認識や省略・照応解析に役立つと期待されるので,テキストからの自動獲得を目指したい.本論文では形態素の単位認定にこだわらなかったが,獲得された未知語の中には構成的なものが含まれている.参考までに,クエリ「ジャスラック」の獲得結果を調べたところ,判断に迷う場合を含めると10\%弱(45/460)が複合語であった.ただし,複合語の基準としては,JUMAN4.0から5.0への変更時に行った複合語の整理\footnote{「日本語形態素解析システムJUMANversion6.0」付録E12.1参照.http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}を参考にした.日本語の複合名詞は,文法的なマーカなしに構成要素が直接連結されるため,形態レベルの手がかりでは構成要素に分割できない.細粒度での単位認定を実現するには,他の手がかりを利用する必要がある.形態レベルでの未知語獲得については,検出が大きな課題として残っている.なかでもひらがな表記の未知語は曖昧性が高く,形態素解析器によってより短い既知の形態素へ過分割されることが少なくない.予備調査として,形態素解析結果のうち,$1+1$,$1+2$,$2+1$文字というパターンのひらがな形態素のペアのみを対象に,未知語検出の再現率を求めたところ,本論文の手法では31\%にとどまることが判明している.ひらがな表記の未知語は数の上では少なく,頻度の上でも異なり数でも,未知語の大半をカタカナ名詞が占める.しかし,カタカナ名詞は形態素解析の未知語処理でほぼ問題なく同定できるのに対し,ひらがな未知語の解析誤りは応用に大きな悪影響を及ぼしやすい.例えば,「ようつべ」が「よ」,「うつ」,「べ」に誤って分解され,「うつ」が動詞と解釈された場合,文節まとめあげにより「よ」と「うつ」,「うつ」と「べ」の間に文節境界が引かれ,これに基づき見当違いな係り受け解析が行われてしまう.提案手法の利点の一つは,既知の形態素を改めて獲得しないことによる効率の良さだが,今後はこの利点を維持しつつ検出の再現率を上げていきたい. \section{関連研究} \label{sec:related-work}形態素解析における未知語の問題は,言語の類型論的特徴や文字の性質に依存する部分が少なくない.フィン語やトルコ語は日本語と同様の膠着語で,自立語に複数の付属語が後続して語を形成する.ただし,これらの言語は分かち書きするため,形態素解析は,分かち書きの単位である語を形態素に分割するタスクとなる.例えば,MorphoChallengeでは,頻度つきの語のリストから教師なしで形態素を切り出すタスクが競われている(Kurimo,Creutz,Varjokallio,Arisoy,andSara{\c{c}}lar2006;Kurimo,Creutz,andTurunen2007).日本語と同様に分かち書きしない言語としては,中国語やタイ語などがあるが,いずれも分析的であり,膠着語の日本語とは性質が異なる.Penget~al.は中国語の単語分割に新語検出を組み込む~\cite{Peng2004full}.この手法では,テキストを一度解析した結果から単語分割の信頼度を元に新語を検出し,それらを素性に組み込んだ状態で再解析を行う.日本語については,未知語モデルを導入する手法がいくつか提案されている.Nagataは,字種や単語長に基づく生成的な未知語モデルを単語分割に組み込む~\cite{Nagata1999full}.内元らは最大エントロピーモデルに基づく形態素解析の中で,字種やその遷移などの未知語同定に有効な情報を素性として利用する~\cite{内元清貴:2001}.東らは最大エントロピーモデルに代えて条件付き確率場を採用する~\cite{東藍:2006}.Asaharaet~al.は文字レベルのチャンキングにより未知語を同定しており,学習器としてSupportVectorMachineを用いる~\cite{Asahara2004full}.中川らは,単語分割されたテキストに対して,未知語のすべての出現を考慮して品詞を推定する手法を提案している~\cite{中川哲治:2008}.しかし,我々が想定するタスクでは,品詞推定と独立に単語分割が実現されるという仮定は現実的ではない.テキストからの未知語の自動獲得については,Moriet~al.は,語幹の前後の文字列とその頻度をベクトルで表現し,コーパス中の任意の部分文字列について,品詞のモデルとのベクトルの距離により品詞らしさを判定する~\cite{Mori1996full}.鍜治らはカタカナ用言についてテキストからの自動獲得を行っている~\cite{鍜治伸裕:2009}.彼らは,獲得対象を「ググる」などの語幹が自明なカタカナの用言に限定し,品詞分類に特化した手法を提案する.一般の未知語を獲得する場合には,あわせて語幹同定の問題も解く必要がある. \section{結論} \label{sec:conclusion}本論文では,オンライン未知語獲得という枠組みと,その具体的な実現方法を提案した.実験により,未知語が高精度に獲得され,その結果形態素解析の精度が向上することが示された.形態素解析自体は成熟した技術であり,構文解析や情報検索といった応用のための前処理となっている.従って,応用処理の精度向上に提案手法を利用したいと考えている.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2002}]{浅原正幸:2002}浅原正幸\JBA松本裕治\BBOP2002\BBCP.\newblock形態素解析のための拡張統計モデル.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(3),\mbox{\BPGS\685--695}.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2004}]{Asahara2004full}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQJapaneseUnknownWordIdentificationbyCharacter-basedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING2004)},\mbox{\BPGS\459--465}.\bibitem[\protect\BCAY{東\JBA浅原\JBA松本}{東\Jetal}{2006}]{東藍:2006}東藍\JBA浅原正幸\JBA松本裕治\BBOP2006\BBCP.\newblock条件付確率場による日本語未知語処理.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2006}(53),\mbox{\BPGS\67--74}.\bibitem[\protect\BCAY{Banko\BBA\Brill}{Banko\BBA\Brill}{2001}]{Banko2001full}Banko,M.\BBACOMMA\\BBA\Brill,E.\BBOP2001\BBCP.\newblock\BBOQMitigatingthePaucity-of-dataProblem:ExploringtheEffectofTrainingCorpusSizeonClassifierPerformanceforNaturalLanguageProcessing.\BBCQ\\newblockIn{\BemProceedingsoftheFirstInternationalConferenceonHumanLanguageTechnologyResearch(HLT2001)},\mbox{\BPGS\1--5}.\bibitem[\protect\BCAY{Brants,Popat,Xu,Och,\BBA\Dean}{Brantset~al.}{2007}]{Brants2007full}Brants,T.,Popat,A.~C.,Xu,P.,Och,F.~J.,\BBA\Dean,J.\BBOP2007\BBCP.\newblock\BBOQLargeLanguageModelsinMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\858--867}.\bibitem[\protect\BCAY{福島\JBA鍜治\JBA喜連川}{福島\Jetal}{2007}]{福島健一:2007}福島健一\JBA鍜治伸裕\JBA喜連川優\BBOP2007\BBCP.\newblock機械学習を用いたカタカナ用言の獲得.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\815--818}.\bibitem[\protect\BCAY{鍜治\JBA福島\JBA喜連川}{鍜治\Jetal}{2009}]{鍜治伸裕:2009}鍜治伸裕\JBA福島健一\JBA喜連川優\BBOP2009\BBCP.\newblock大規模ウェブテキストからの片仮名用言の自動獲得.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ92-D}(3),\mbox{\BPGS\293--300}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara2006full}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofThe5thInternationalConferenceonLanguageResourcesandEvaluation(LREC-06)},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo2004full}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{J}apaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Kurimo,Creutz,\BBA\Turunen}{Kurimoet~al.}{2007}]{Kurimo2007}Kurimo,M.,Creutz,M.,\BBA\Turunen,V.\BBOP2007\BBCP.\newblock\BBOQOverviewof{M}orpho{C}hallengein{CLEF}2007.\BBCQ\\newblockIn{\BemWorkingNotesoftheCLEF2007Workshop},\mbox{\BPGS\19--21}.\bibitem[\protect\BCAY{Kurimo,Creutz,Varjokallio,Arisoy,\BBA\Saraclar}{Kurimoet~al.}{2006}]{Kurimo2006}Kurimo,M.,Creutz,M.,Varjokallio,M.,Arisoy,E.,\BBA\Sara{\c{c}}lar,M.\BBOP2006\BBCP.\newblock\BBOQUnsupervisedSegmentationofWordsintoMorphemes--{C}hallenge2005,anIntroductionandEvaluationReport.\BBCQ\\newblockIn{\BemProceedingsofthePASCALChallengeWorkshoponUnsupervisedSegmentationofWordsintoMorphemes}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{Kurohashi1994full}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\22--38}.\bibitem[\protect\BCAY{桑江\JBA佐藤\JBA藤田}{桑江\Jetal}{2008}]{桑江常則:2008}桑江常則\JBA佐藤理史\JBA藤田篤\BBOP2008\BBCP.\newblock後続ひらがな列に基づく語の活用型推定.\\newblock\Jem{情報処理学会研究報告},{\Bbf2008-NL-186}(186),\mbox{\BPGS\7--12}.\bibitem[\protect\BCAY{Lee}{Lee}{2001}]{Lee2001full}Lee,L.\BBOP2001\BBCP.\newblock\BBOQOntheEffectivenessoftheSkewDivergenceforStatisticalLanguageAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheEighthInternatinoalWorkshopofArtificialIntelligenceandStatistics(AI\&Statistics2001)},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Mori\BBA\Nagao}{Mori\BBA\Nagao}{1996}]{Mori1996full}Mori,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1996\BBCP.\newblock\BBOQWordExtractionfromCorporaandItsPart-of-SpeechEstimationUsingDistributionalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe16thConferenceonComputationalLinguistics},\lowercase{\BVOL}~2,\mbox{\BPGS\1119--1122}.\bibitem[\protect\BCAY{Nagata}{Nagata}{1999}]{Nagata1999full}Nagata,M.\BBOP1999\BBCP.\newblock\BBOQAPartofSpeechEstimationMethodfor{J}apaneseUnknownWordsusingaStatisticalModelofMorphologyandContext.\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL1999)},\mbox{\BPGS\277--284}.\bibitem[\protect\BCAY{中川\JBA松本}{中川\JBA松本}{2008}]{中川哲治:2008}中川哲治\JBA松本裕治\BBOP2008\BBCP.\newblock大域的な情報を用いた未知語の品詞推定.\\newblock\Jem{情報処理学会論文誌},{\Bbf49}(3),\mbox{\BPGS\1437--1450}.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA原}{小椋\Jetal}{2008}]{BCCWJ2008}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA原裕\BBOP2008\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』形態論情報規程集}.\bibitem[\protect\BCAY{Peng,Feng,\BBA\McCallum}{Penget~al.}{2004}]{Peng2004full}Peng,F.,Feng,F.,\BBA\McCallum,A.\BBOP2004\BBCP.\newblock\BBOQChineseSegmentationandNewWordDetectionusingConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING2004)},\mbox{\BPGS\562--568}.\bibitem[\protect\BCAY{Shinzato,Shibata,Kawahara,Hashimoto,\BBA\Kurohashi}{Shinzatoet~al.}{2008}]{Shinzato2008full}Shinzato,K.,Shibata,T.,Kawahara,D.,Hashimoto,C.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQ{TSUBAKI}:AnOpenSearchEngineInfrastructureforDevelopingNewInformationAccessMethodology.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2008)},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{内元\JBA関根\JBA井佐原}{内元\Jetal}{2001}]{内元清貴:2001}内元清貴\JBA関根聡\JBA井佐原均\BBOP2001\BBCP.\newblock最大エントロピーモデルに基づく形態素解析未知語の問題の解決策.\\newblock\Jem{自然言語処理},{\Bbf8}(1),\mbox{\BPGS\127--141}.\end{thebibliography}\begin{biography}\bioauthor{村脇有吾}{2006年3月京都大学工学部情報学科卒業.2008年3月京都大学大学院情報学研究科修士課程卒業.同年4月,同博士後期課程入学,現在に至る.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年,京都大学大学院情報学研究科教授,現在に至る.}\end{biography}\biodate\end{document}
V21N02-09
\section{はじめに} label{intro}近年,言語研究において,言語現象を統計的に捉えるため,コーパスを用いた研究が盛んに行われている.コーパスを用いた研究は,語法,文法,文体に関する研究\cite{oishi2009,koiso2009},語彙に関する研究\cite{tanomura2010},時代ごとの言語変化を調査する通時的な研究\cite{kondo2012},外国語教育へ適用する研究\cite{nakajo2006}など多岐にわたる.コーパスを用いる研究では,新しい言語現象を調査するには新しいコーパスの構築が必要となる.大規模なコーパスを構築する場合,人手でのアノテーションには限界があるため,自動でアノテーションをする必要がある.既存の言語単位や品詞体系を利用できる場合は,既存のコーパスや解析器を利用することにより,他分野のコーパスに対するアノテーション作業を軽減できる\cite{kazama2004}.また,対象分野のアノテーション済みコーパスがある程度必要なものの,分野適応により,解析器の統計モデルを対象分野に適合するように調整することで,他分野のコーパスに対しても既存のコーパスに対するものと同程度の性能でアノテーションが可能となる\cite{jing2007,neubig2011}.しかし,研究目的によっては適切な言語単位や品詞体系が異なるため,既存の言語単位や品詞体系が利用できないこともある.例えば,国立国語研究所の語彙調査では,雑誌の語彙調査には$\beta$単位,教科書の語彙調査にはM単位というように,どちらも形態素相当の単位ではあるが,調査目的に応じて設計し用いている.これらの単位の概略は\cite{hayashi1982,nakano1998}に基づいている.また,言語現象に応じて異なる場合もあり,日本語話し言葉コーパス\cite{csj}(以下,CSJ)と現代日本語書き言葉均衡コーパス\cite{bccwj}(以下,BCCWJ)では異なる言語単位や品詞体系が定義されている.新しい言語単位や品詞体系を用いる場合,分野適応の利用は難しく,辞書やコーパス,解析器を再構築する必要がある.これらのうち,辞書とコーパスは再利用できることが少なく,新たに構築する必要がある.解析器に関しては,既存のものを改良することで対応できることが多いものの,どのような改良が必要かは明らかではない.本論文では,言語単位や品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,品詞体系の異なるCSJとBCCWJを利用して長単位解析器を改良する.CSJとBCCWJには,いずれも短単位と長単位という2種類の言語単位がアノテーションされている.本論文ではこのうち長単位解析特有の誤りに着目して改善点を明らかにする.そのため,短単位情報は適切にアノテーションされているものと仮定し,その上で長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べる.評価実験により提案手法の有効性を示し,提案手法の異なる品詞体系への適用可能性について考察する.本論文の構成は以下の通りである.まず,\ref{csj_bccwj_diff}章で長単位解析器を改良するために重要となるCSJとBCCWJの形態論情報における相違点について述べ,\ref{luw_analysis}章ではCSJに基づいた長単位解析手法を説明し,CSJとBCCWJの形態論情報における相違点に基づいた長単位解析手法の改良点について述べる.\ref{exp}章では,長単位解析手法の改良点の妥当性を検証し,改良した長単位解析手法を評価する.\ref{comainu}章では,\ref{luw_analysis}章で述べた長単位解析手法を実装した長単位解析システムComainuについて述べ,\ref{conclusion}章で本論文をまとめる. \section{CSJとBCCWJの形態論情報における相違点} \label{csj_bccwj_diff}一般に,解析器を学習したコーパスとは異なるコーパスに適用する場合,各コーパスには同じ粒度のアノテーションが施してある必要がある.アノテーションの粒度が異なる場合には精度よく解析できないため,解析器を改良し,学習しなおす必要がある.解析器の改良にはコーパス間の相違点を把握することが重要となる.本章では,CSJを基に構築した長単位解析器をBCCWJへ適用する上で必要な改良点を把握するため,言語単位,品詞体系,言語現象,付加情報に着目して,CSJとBCCWJを比較し,形態論情報における相違点について述べる.\subsection{言語単位}\label{lang_unit_diff}CSJとBCCWJではともに,短単位と長単位という2種類の言語単位が用いられている.短単位は,原則として,現代語で意味を持つ最小の単位2つが1回結合したものであり,その定義は一般的な辞書の見出しに近いものである.長単位は,概ね,文節を自立語と付属語に分けたものであり,1短単位からなるか,あるいは,複数の短単位を複合したものからなる.短単位と長単位の例を表\ref{unit_example}に挙げる.表\ref{unit_example}は「日本型国際貢献が求められています」という文における文節,長単位,短単位の関係を表している.例えば,「日本型国際貢献」という長単位は「日本」,「型」,「国際」,「貢献」の4短単位から構成される.\begin{table}[b]\caption{文,文節,長単位,短単位の関係}\label{unit_example}\input{ca13table01.txt}\end{table}CSJとBCCWJではいずれも,短単位と長単位という同じ言語単位を利用しているが,BCCWJの短単位・長単位の認定規定は,CSJの規定に修正を加えたものを利用しているため,CSJとBCCWJの短単位・長単位は完全には一致しない.\subsection{品詞体系}\label{pos_tagset_diff}CSJとBCCWJでは大きく異なる品詞体系が利用されている.以下にCSJとBCCWJ,それぞれの品詞体系を示す.CSJでは学校文法に基づく品詞体系が採用されており,15種類の品詞,59種類の活用型,8種類の活用形で構成されている\cite{ogura2004}.CSJの品詞体系は以下の通りである.活用型の○にはア,カ,サ,タなどが入る.\begin{itemize}\item品詞(15種類)\\名詞,代名詞,形状詞,連体詞,副詞,接続詞,感動詞,動詞,形容詞,助動詞,助詞,接頭辞,接尾辞,記号,言いよどみ\item活用型(59種類)\\○行五段,○行上一段,○行下一段,カ行変格,サ行変格,ザ行変格,文語○行四段,文語○行上二段,文語○行下二段,文語カ行変格,文語サ行変格,文語ナ行変格,文語ラ行変格,形容詞型,文語形容詞型1,文語形容詞型2,文語形容詞型3,文語\item活用形(8種類)\\未然形,連用形,終止形,連体形,仮定形,已然形,命令形,語幹\end{itemize}BCCWJは形態素解析用辞書UniDic\cite{den2007}\footnote{http://sourceforge.jp/projects/unidic/}に準拠した品詞体系を利用しており,品詞は「名詞-固有名詞-地名-一般」のように階層的に定義されている.各階層は大分類,中分類,小分類,細分類と呼ばれる.「名詞-固有名詞-地名-一般」の場合,「名詞」が大分類,「固有名詞」が中分類,「地名」が小分類,「一般」が細分類である.品詞は4階層で定義され,大分類で15種類,細分類まで展開すると54種類ある.活用型は3階層で定義され,大分類で20種類,小分類まで展開すると115種類ある.活用形は2階層で定義され,大分類で10種類,中分類では36種類ある.BCCWJの品詞体系のうち,大分類の体系は以下の通りである.\begin{itemize}\item品詞(15種類)\\名詞,代名詞,形状詞,連体詞,副詞,接続詞,感動詞,動詞,形容詞,助動詞,助詞,接頭辞,接尾辞,記号,補助記号\item活用型(20種類)\\五段,上一段,下一段,カ行変格,サ行変格,文語四段,文語上一段,文語上二段,文語下一段,文語下二段,文語カ行変格,文語サ行変格,文語ナ行変格,文語ラ行変格形容詞,文語形容詞,助動詞,文語助動詞,無変化型\item活用形(10種類)\\語幹,未然形,意志推量形,連用形,終止形,連体形,仮定形,已然形,命令形,ク語法\end{itemize}CSJが階層のない単純な品詞体系を利用しているのに比べ,BCCWJでは詳細な品詞体系が利用されている.CSJの名詞とBCCWJの名詞を比較した例を表\ref{compare_noun}に示す.BCCWJでは名詞は15種類に分類されている.また,CSJでは短単位と長単位の品詞体系が一致しているのに対し,BCCWJでは短単位と長単位の品詞体系は一部異なっている.これはBCCWJの短単位では「名詞-普通名詞-サ変可能」や「名詞-普通名詞-形状詞可能」などの曖昧性を持たせた品詞が設けられているのに対し,長単位ではこれらを設けていないためである.\begin{table}[t]\caption{CSJとBCCWJの名詞の比較}\label{compare_noun}\input{ca13table02.txt}\end{table}\subsection{言語現象}\label{lang_diff}CSJは話し言葉コーパスであるのに対し,BCCWJは書き言葉コーパスであるため,言語現象として,話し言葉と書き言葉という大きな違いがある.例えば,話し言葉の場合,フィラーや言いよどみなどが生じる.一方,書き言葉の場合,著者によって使われる表記が異なるため,表記のバリエーションが多い.話し言葉のコーパスであるCSJと書き言葉のコーパスであるBCCWJを比べると,前者では人手で書き起こす際に表記揺れが吸収され表記は統一されており,後者では著者の著したテキストがそのまま使われているため表記は不統一である.次の節でこれらに関連してコーパスに付加された情報の違いを整理する.\subsection{付加情報}\label{additional_annotation}CSJとBCCWJでは短単位に付与されている情報に多少違いがある.以下に,CSJのみ,及び,BCCWJのみにしか付与されていない情報について述べる.CSJには話し言葉特有の情報など,以下の情報が付与されている.\begin{itemize}\itemフィラー:フィラーに対してタグ(F)が付与されている\begin{quote}(Fえー),(Fあのね),(Fんーと)\end{quote}\item言いよどみ:言いよどみに対してタグ(D)が付与されている\begin{quote}(Dす)すると,(Dテニ)昨日のテニスは,(D情)情報が\end{quote}\itemアルファベット:アルファベット,算用数字,記号の短単位に対してタグ(A)が付与されている.\begin{quote}(Aシーディーアール;CD−R)\end{quote}\item外国語:外国語や古語,方言などに対してタグ(O)が付与されている.\begin{quote}(Oザッツファイン)\end{quote}\item名前:話者の名前や差別語,誹謗中傷などに対してタグ(R)が付与されている.\begin{quote}国語研の(R××)です\end{quote}\item音や言葉のメタ情報:音や言葉に関するメタ的な引用に対してタグ(M)が付与されている.\begin{quote}助詞の(Mは)は(Mわ)と発音\end{quote}\end{itemize}一方,BCCWJではCSJには付与されていない以下の情報が付与されている.\begin{itemize}\item語種情報:語種とは,語をその出自によって分類したものである.BCCWJでは,短単位に以下の語種のいずれかが付与されている.\begin{quote}和語,漢語,外来語,混種語,固有名,記号\end{quote}\item囲み情報:BCCWJでは,丸付き数字(\textcircled{\footnotesize1},\textcircled{\footnotesize2})や丸秘などの丸で囲まれている文字は内部の文字のみが短単位となっており,囲みの情報は別で付与されている.例えば,「\textcircled{\footnotesize1}林木の新品種の開発」は書字形では「1林木の新品種の開発」となっており,囲みの情報は別で付与されている.\end{itemize} \section{長単位解析手法} \label{luw_analysis}本章では,まず,CSJに基づいて構築された長単位解析手法(従来手法)について述べ,次に,提案手法について述べる.従来手法をBCCWJに適用するためには改良が必要であり,提案手法では,CSJとBCCWJの形態論情報における相違点に着目した改良を行った.長単位解析とは長単位境界,及び,長単位の語彙素,語彙素読み,品詞,活用型,活用形を同定するタスクである.短単位解析では,辞書を用いることで,高精度に解析が行われてきた\cite{kudo,den}.長単位解析でも長単位辞書を構築することによって高精度に解析できることが考えられるが,短単位の組み合わせからなる長単位の語彙は膨大であり,辞書の構築には膨大な労力が必要となるため,効率的でない.そのため,短単位情報を組み上げることにより長単位解析を行う.\subsection{CSJに基づく長単位解析手法(従来手法)}\label{uchimoto_method}Uchimotoらは長単位を認定する問題を,入力された短単位列に対する系列セグメンテーション問題として捉え,チャンキングモデルと後処理に基づいた長単位解析手法を構築した\cite{uchimoto2007}.図\ref{flow}に長単位解析の流れを示す.短単位列を入力とし,チャンキングにより長単位境界を認定する.このとき,一部の長単位に対しては品詞情報も付与する.次に,後処理によって長単位の品詞,活用型,活用形,語彙素,語彙素読みを付与する.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA13f1.eps}\end{center}\caption{長単位解析の流れ}\label{flow}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA13f2.eps}\end{center}\caption{短単位と長単位の例}\label{fig:suw_luw_org}\vspace*{-2\Cvs}\end{figure}\subsubsection{チャンキングモデル}\label{chunking_model}チャンキングモデルによって,長単位境界を認定し,一部の長単位に対しては品詞情報も付与するために,Uchimotoらは下記の4つのラベルを定義している.\begin{itemize}\item[Ba]長単位を構成する短単位のうち先頭の要素で,かつ,その品詞,活用型,活用形が長単位のものと一致する.\item[Ia]長単位を構成する短単位のうち先頭以外の要素で,かつ,その品詞,活用型,活用形が長単位のものと一致する.\item[B]長単位を構成する短単位のうち先頭の要素で,かつ,その品詞,活用型,活用形のいずれかが長単位のものと一致しない.\item[I]長単位を構成する短単位のうち先頭以外の要素で,かつ,その品詞,活用型,活用形のいずれかが長単位のものと一致しない.\end{itemize}これは,長単位を構成する先頭の要素に付与されるラベルは「Ba」か「B」であり,長単位を構成する先頭以外の要素に付与されるラベルは「Ia」か「I」であることを意味する.また,「Ba」「Ia」が付与された要素は長単位と同じ品詞,活用型,活用形を持つことを意味する.したがって,このラベルを利用することにより,長単位境界だけでなく,多くの場合,品詞,活用型,活用形の情報も得られる.図\ref{fig:suw_luw_org}に「日本型国際貢献が求められています」に対して,ラベルを付与した例を示す.これらのラベルを正しく推定できれば,\pagebreak「Ba」あるいは「Ia」が付与された短単位から品詞,活用型,活用形が得られる.図\ref{fig:suw_luw_org}は,「ている」以外の長単位については品詞,活用型,活用形も得られることを表わしている.一方,「ている」については品詞がこれらを構成する短単位「て」「いる」のどちらとも異なるため,各短単位には「B」あるいは「I」のラベルしか付与されない.この場合は,ラベルを正しく推定できたとしても品詞などは得られず,単位境界の情報のみが得られることになるため,次節に述べる後処理により品詞,活用型,活用形を推定する.チャンキングモデルの素性としては,着目する短単位とその前後2短単位,あわせて5短単位について,以下の情報を利用する.\begin{itemize}\item短単位情報\\書字形,語彙素読み,語彙素,品詞,活用型,活用形\item付加情報\\\ref{additional_annotation}節で述べたCSJにのみ付与されている情報(フィラー,言いよどみ,アルファベット,外国語,名前,音や言葉のメタ情報を示すタグ)がそれぞれ着目している短単位の直前に付与されているか否かを素性として利用する.\end{itemize}\subsubsection{書き換え規則による後処理}\label{post_process_org}\ref{chunking_model}節で記したチャンキングモデルにより,ラベルを正しく推定することができれば,図\ref{fig:suw_luw_org}の「日本型国際貢献」や「求める」などは「Ba」または「Ia」が付与された短単位から品詞,活用型,活用形が得られる.一方,「ている」については,品詞が長単位を構成する短単位「て」及び「いる」とは異なるため,各短単位には「B」あるいは「I」のラベルしか付与されない.この場合は,ラベルを正しく推定できたとしても品詞は得られず,単位境界の情報のみが得られることになる.これらの長単位に対しては書き換え規則によって品詞,活用型,活用形を付与する.単位境界のみが分かっている長単位ごと,つまり,「B」あるいは「I」が付与された短単位のみから構成される長単位ごとに書き換え規則を獲得,適用することによって品詞,活用型,活用形の情報を得る.書き換え規則は対象の長単位とその前後の短単位を抽出することによって自動獲得する.書き換え規則は対象の長単位を構成する短単位,及び,その前後の短単位からなる前件部と,対象の長単位からなる後件部で構成される.例えば,図\ref{fig:suw_luw_org}の「ている」については図\ref{fig:rule}のような規則が獲得される.前件部で同じ規則が複数得られた場合,最も頻度の高いもののみ書き換え規則として獲得する.図\ref{fig:rule}の規則は,「て」「いる」という短単位にそれぞれ「B」,「I」というラベルが付与され,前方(文頭側)の短単位が「られ」,後方(文末側)の短単位が「ます」であるとき,「ている」という助動詞に書き換えられることを意味している.どの書き換え規則も適用されない場合は,以下の手順で規則を汎化して再適用する.\begin{itemize}\item後方文脈を削除\item前方文脈と後方文脈を削除\item前方文脈,後方文脈,書字形,語彙素読み,語彙素を削除\end{itemize}前方文脈とは対象の長単位より前方(文頭側)の短単位(図\ref{fig:rule}の「られ」),後方文脈とは対象の長単位より後方(文末側)の短単位(図\ref{fig:rule}の「ます」)を表す.この手順で再適用し,結果的にどの規則も適用されなかった場合は,短単位の先頭の品詞,活用型,活用形を適用する.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA13f3.eps}\end{center}\caption{書き換え規則の例}\label{fig:rule}\end{figure}\subsection{コーパスの形態論情報における相違点に基づいた長単位解析手法の改善(提案手法)}\label{apply_corpus_diff}本節では,\ref{uchimoto_method}節で示した長単位解析手法(従来手法)からの改良点について述べる.\subsubsection{品詞体系の差異に応じた改善}\label{apply_pos_tagset}CSJとBCCWJの品詞体系は\ref{pos_tagset_diff}節で示したように,大きく異なっている.この問題に対し,以下の点を改善した.\subsubsection*{汎化素性の利用}CSJの品詞体系とは異なり,BCCWJの品詞体系では,品詞,活用型,活用形が階層的に定義されている.しかし,階層化された素性をそのまま利用した場合,各階層の情報が考慮されなくなってしまう.そこで,階層化された素性に対して上位階層で汎化した素性をチャンキングモデルの素性として追加する.例えば「名詞-普通名詞-一般」に対しては,「名詞」「名詞-普通名詞」を素性として追加する.\subsubsection*{カテゴリ推定モデルによる後処理}CSJでは品詞体系が単純であったため,「B」あるいは「I」のラベルが付与された短単位のみから構成される長単位が少なく,後処理については書き換え規則である程度対応できていた.しかし,品詞体系が詳細なBCCWJでは,短単位と長単位の品詞の対応関係が単純ではないため,書き換え規則で対応するのは困難である.この問題に対し,次に述べるカテゴリ推定モデルを用いることで解決することを提案する.カテゴリ推定モデルは,学習データに現れたカテゴリを候補として,その候補すべてについて尤もらしさを計算するモデルである.長単位を構成する短単位列を与えると,その長単位に対して最尤のカテゴリを出力する.推定するカテゴリを品詞,活用型,活用形とした,品詞推定モデル,及び,活用型推定モデル,活用形推定モデルをそれぞれ学習・適用し,最も尤もらしい品詞,活用型,活用形を推定する.推定するカテゴリを品詞とする品詞推定モデルでは,学習データに現れた品詞のうち,助詞と助動詞を除くすべての品詞候補から最尤の品詞を出力する.助詞と助動詞については長単位を構成する短単位列が複合辞と一致している場合のみ候補とする.複合辞と一致しているかどうかは,複合辞辞書との文字列マッチングにより自動判定する.複合辞辞書はBCCWJで認定された複合辞を予め人手で整理することにより用意した.素性としては,着目している長単位とその前後の長単位,あわせて3長単位に対して,先頭から2短単位と末尾から2短単位の計12短単位の情報を用いる.長単位が1短単位からなる場合は,先頭から2短単位目の情報は与えられなかったもの(NULL)として扱う.各短単位に対して,書字形,語彙素読み,語彙素,品詞,活用型,活用形,及び,階層化された素性に対して上位階層で汎化した情報を素性として用いる.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA13f4.eps}\end{center}\caption{品詞推定モデルの適用例}\label{post_feature}\end{figure}図\ref{fig:suw_luw_org}の「てい」に対して品詞推定モデルを適用する例を図\ref{post_feature}に示す.「てい」では,前後の長単位をあわせた「られ」「てい」「ます」の3長単位に対し,「られ」「NULL」(「られ」の先頭2短単位),「て」「い」(「てい」の先頭2短単位),「ます」「NULL」(「ます」の先頭2短単位),及び,「NULL」「られ」(「られ」の末尾2短単位),「て」「い」(「てい」の末尾2短単位),「NULL」「ます」(「ます」の末尾2短単位)の各短単位の情報を素性として用いる.図\ref{post_feature}では,最尤の品詞として助動詞を出力している.活用型推定モデル,及び,活用形推定モデルは,推定するカテゴリが品詞ではなくそれぞれ活用型,活用形となる点,及び,動的素性を用いる点を除いて品詞推定モデルと同様である.動的素性としては,活用型推定モデルでは着目している長単位の品詞(自動解析時は品詞推定モデルにより自動推定した品詞)を,活用形推定モデルでは着目している長単位の品詞と活用型(自動解析時は品詞推定モデル,活用型推定モデルによりそれぞれ自動推定した品詞と活用型)を用いる.\subsubsection{付加情報の差異に応じた改善}\label{apply_additional_annotation}\ref{additional_annotation}節で示したBCCWJにのみ付与されている以下の情報をチャンキングモデルの素性として利用する.\begin{itemize}\item語種情報\\短単位の語種が和語,漢語,外来語,混種語,固有名,記号のいずれであるかを素性として利用する.\item囲み情報\\BCCWJでは丸付き数字で長単位境界が区切れるため,囲み情報は長単位境界を判定するための大きな手がかりとなる.そのため,短単位に囲み情報が付与されているか否かを素性として利用する.\end{itemize}\subsubsection{ラベル定義の変更}\label{label_change}本節では,コーパスの相違点に限らず,既存の手法にも適用できる改良について述べる.\ref{chunking_model}節で示した4つのラベルを以下のように再定義した.変更点を下線で示す.\begin{itemize}\item[Ba]\underline{単独で}長単位を構成する短単位で,かつ,その品詞,活用型,活用形が長単位のものと一致する.\item[Ia]\underline{複数短単位で構成される長単位の末尾の短単位で},かつ,その品詞,活用型,活用形が長単位のものと一致する.\item[B]\underline{複数短単位で構成される長単位の先頭の短単位.もしくは,単独で}長単位を構成する短単位で,かつ,その品詞,活用型,活用形のいずれかが長単位のものと一致しない.\item[I]\underline{複数短単位で構成される長単位の先頭でも末尾でもない短単位.もしくは,複数短単位}\\\underline{で構成される}長単位の\underline{末尾の短単位}で,かつ,その品詞,活用型,活用形のいずれかが長単位のものと一致しない.\end{itemize}単独の短単位から構成される長単位に対しては,短単位の品詞,活用型,活用形が長単位のものと一致する場合には「Ba」,一致しない場合には「B」が付与される.一方,複数短単位から構成される長単位に対しては,先頭の短単位には「B」,先頭でも末尾でもない短単位には「I」,末尾の短単位にはその品詞,活用型,活用形が長単位のものと一致する場合には「Ia」,一致しない場合には「I」が付与される.この定義を利用すると,図\ref{fig:suw_luw_org}の例では,「Ba」が付与されている「日本」には「B」,「Ia」が付与されている「国際」には「I」のラベルが付与されることになる.本改良は,長単位の品詞,活用型,活用形は,長単位を構成する短単位のうち,末尾の短単位の品詞,活用型,活用形と一致することが多く,それ以外の位置にある短単位と一致する場合は偶然であることが多いという観察に基づく.「Ba」,「Ia」のラベルが付与される短単位を長単位を構成する末尾の短単位のみに限定することにより,チャンキングモデルの精度が向上し,全体の性能が向上することが期待できる. \section{評価実験} \label{exp}本章では,\ref{apply_corpus_diff}節で示した改善策の有効性を確認するため,\ref{uchimoto_method}節で示した従来手法と各改善策を行った手法の長単位解析精度を比較する.まず,\ref{pre_exp}節では予備実験として,CSJを用いた実験を行い,従来手法の長単位解析の性能を確認する.また,BCCWJに適用するために行った改善策がCSJに対しても有効であること示す.次に,\ref{luw_exp}節でBCCWJを用いた実験を行う.従来手法と\ref{apply_corpus_diff}節で示した提案手法とを比較し,提案手法の有効性を示す.\subsection{設定}\label{exp_setting}\ref{luw_analysis}章に述べた手法のチャンキングモデルの学習と適用には,CRF++\footnote{http://crfpp.googlecode.com/svn/trunk/doc/index.html}を用いた.CRF++はCRFに基づく汎用チャンカーであり,パラメータはCRF++のデフォルトのパラメータを用いた.また,改良した後処理に用いる品詞,活用型,活用形推定モデルの学習にはYamCha\footnote{http://chasen.org/{\textasciitilde}taku/software/yamcha/}を用いた.YamChaはSVMに基づく汎用チャンカーであり,カーネルは多項式カーネル(べき指数3)を採用し,多クラスへの拡張はone-versus-rest法を用いた.\begin{table}[b]\caption{評価データの規模}\label{data_size}\input{ca13table03.txt}\end{table}実験で用いるデータを表\ref{data_size}に示す.CSJ,BCCWJともに,コアデータを学習データとテストデータに分け,学習データはモデルの学習に,テストデータはモデルの評価に用いている.CSJのデータはUchimotoら\cite{uchimoto2007}の実験設定に合わせて,フィラー,言いよどみを削除して用いた.チャンキングモデルで用いるフィラーと言いよどみの情報としては,短単位の直前がフィラーか否か,もしくは,言いよどみか否かの情報を素性として利用している.また,BCCWJのデータはCSJの結果と比較しやすいように,CSJとデータ規模を同程度にした.なお,本実験では短単位情報は予め適切な情報が付与されていることを前提とする.本実験では,正解データの境界(品詞)のうち正しく推定できたものの割合(再現率)と自動推定した境界(品詞)のうち正しく推定できたものの割合(精度),下記に示す再現率と精度の調和平均であるF値を評価指標として用いる.\[F値=\frac{2\times精度\times再現率}{精度+再現率}\]\subsection{予備実験}\label{pre_exp}予備実験として,CSJに対する実験を行った.実験には表\ref{data_size}に示したCSJの学習データとテストデータを用いた.\ref{uchimoto_method}節で記したCSJを基に構築した長単位解析手法(従来手法)をベースラインとして,CSJの学習データを用いて学習し,テストデータに適用した.また,\ref{apply_corpus_diff}節で記した改善のうち,CSJに対しても適用できる以下のモデルを適用した.\begin{itemize}\item{\bfベースライン+ラベル変更}\\ベースラインに対して,\ref{label_change}節で示したラベル定義の変更をしたモデル\item{\bfベースライン+推定モデル}\\ベースラインの後処理を書き換え規則から品詞,活用型,活用形推定モデルに変更したモデル\item{\bfベースライン+ラベル変更+推定モデル}\\ベースラインに対して,ラベル定義,及び,後処理を変更したモデル\end{itemize}\begin{table}[b]\caption{CSJで学習したモデルを用いた実験結果}\label{pre_exp_result}\input{ca13table04.txt}\end{table}結果を表\ref{pre_exp_result}に示す.CSJに対してベースラインを適用した場合,境界推定で98.99$\%$,品詞推定で98.93$\%$と高い性能が得られていることがわかる.ラベル定義を変更したモデルはベースラインに対し,性能が向上しており,ラベル定義の変更が有効に働くことを示している.後処理に推定モデルを用いたモデルでは品詞推定の精度が向上した.性能差はF値で0.4$\%$と小さいため,CSJへ適用する場合には,書き換え規則でも十分に適用できているといえる.また,ベースラインに対してラベル定義と後処理を変更した場合が最も性能がよく,CSJに対しても有効な改良であることがわかった.次に,CSJで学習したベースラインのモデルをBCCWJのテストデータに適用したところ,境界推定で74.72$\%$,品詞推定で65.58$\%$と大きく精度が落ちる結果となった.これは,当然ではあるが,\ref{csj_bccwj_diff}章で記したように,CSJとBCCWJでは言語単位や品詞体系が異なるためであり,BCCWJを高精度で解析するには解析器の再構築が必要であることを示唆している.\subsection{実験}\label{luw_exp}表\ref{data_size}に示したBCCWJのデータを用いて実験した.まず,BCCWJの学習データを用いて構築したベースラインをBCCWJのテストデータに適用した.その結果を表\ref{exp_result}の3行目に示す.境界推定において98.74$\%$,品詞推定において97.68$\%$の性能となった.CSJを用いて学習,テストした表\ref{pre_exp_result}の3行目の結果(ベースライン)と比較すると,境界推定では0.25$\%$,品詞推定では1.25$\%$,性能が低下した.\begin{table}[b]\caption{BCCWJで学習したモデルを用いた実験結果}\label{exp_result}\input{ca13table05.txt}\end{table}次に,各改善点の有効性を確認するため,以下のモデルを用いて実験した.\begin{itemize}\item{\bfベースライン+汎化素性}\\ベースラインのチャンキングモデルの素性に\ref{apply_pos_tagset}節で示した汎化素性を追加したモデル\item{\bfベースライン+推定モデル}\\ベースラインの後処理を書き換え規則から\ref{apply_pos_tagset}節で示した品詞,活用型,活用形推定モデルに変更したモデル\item{\bfベースライン+語種情報}\\ベースラインのチャンキングモデルの素性に\ref{apply_additional_annotation}節で示した語種情報を追加したモデル\item{\bfベースライン+囲み情報}\\ベースラインのチャンキングモデルの素性に\ref{apply_additional_annotation}節で示した囲み情報を追加したモデル\item{\bfベースライン+ラベル変更}\\ベースラインに対して,\ref{label_change}節で示したラベル定義の変更をしたモデル\end{itemize}結果を表\ref{exp_result}の4行目から8行目に示す.ベースラインに対して,いずれの改良を加えた場合でもF値が向上した.境界推定に関しては,汎化素性が性能向上に大きく貢献した.品詞推定に関しては,後処理を書き換え規則から品詞,活用型,活用形推定モデルにした手法で大きく性能が向上した.提案手法としてCSJとBCCWJの形態論情報における相違点に対する改良をすべて行ったモデルを適用した.結果を表\ref{exp_result}の9行目に示す.境界推定では98.93$\%$,品詞推定では98.66$\%$の性能が得られ,ベースラインに対して,境界推定で約0.2$\%$,品詞推定で約1$\%$向上した.CSJを用いて学習,テストした表\ref{pre_exp_result}の6行目の結果(ベースライン+ラベル変更+後処理)と比較すると,境界推定では0.13$\%$,品詞推定では0.39$\%$低いが,この性能低下は主としてCSJに比べBCCWJの方が品詞体系が詳細であるため,長単位解析自体の問題が難しくなっていることに起因すると考えられる.また,ベースラインに対して,品詞体系の相違点に対する対処(汎化素性,後処理)を適用したモデル({\bfベースライン+品詞体系対応})を用いた実験を行った.結果を表\ref{exp_result}の10行目に示す.表\ref{exp_result}の9行目の改良手法と同程度の性能が得られており,主な性能改善は品詞体系の差異に対応することで得られていることがわかる.\subsection{考察}\subsubsection{誤り傾向の分析}CSJに対してベースラインを用いた実験(表\ref{pre_exp_result}),BCCWJに対してベースライン,及び,提案手法を用いた実験(表\ref{exp_result})について,誤り傾向を分析した.\begin{table}[b]\caption{境界誤りの例}\label{boundary_error_ex}\input{ca13table06.txt}\end{table}まず,境界推定誤りの傾向を,それぞれの実験について調査したところ,共通する2つの誤りの傾向が見られた.1つ目は名詞連続であり,名詞の短単位列に対する長単位境界を誤ることが多かった.表\ref{boundary_error_ex}の2から4行目に誤りの例を示す.表の例では,短単位境界を「/」,長単位境界を「$|$」で表している.例えば,「医学部倫理委員会」では「医学部」と「倫理委員会」の2長単位にすべきところを「医学部倫理委員会」と誤って1長単位として判定した.これらを正しく解析するには,「部」や「庁」などの境界になりやすい短単位の辞書を構築し,境界になりやすい短単位かどうかを素性として追加することで対応できるだろう.ただし,短単位間の意味的な関係を捉えないと解析が困難な場合もあるため,意味的な関係を考慮できるようにする必要もある.2つ目は複合辞に関する誤りであり,複合辞相当の長単位を複合辞として判定できなかったり,逆に複合辞ではない短単位列を複合辞として判定してしまうことが多かった.例を表\ref{boundary_error_ex}の5から7行目に誤りの例を示す.短単位列が複合辞か否かは前後の文脈に大きく依存するため,正しく解析できるようにするためにはそれらを考慮した素性が必要となるだろう.表\ref{boundary_error}に全体の誤りに対する名詞連続と複合辞の誤りの割合を示す.いずれのデータ,モデルにおいても,名詞連続と複合辞については誤り率が高く,コーパスに関わらず難しい問題であることがわかる.\begin{table}[b]\caption{境界推定誤りの傾向}\label{boundary_error}\input{ca13table07.txt}\end{table}\begin{table}[b]\caption{品詞誤り}\label{pos_error}\input{ca13table08.txt}\end{table}\begin{table}[b]\caption{品詞誤りの例}\label{pos_error_exmaple}\input{ca13table09.txt}\end{table}次に品詞誤りの傾向を調査した.CSJについては品詞誤りがほとんど見られなかったため,BCCWJのみを調査した.表\ref{pos_error}に主な品詞誤りの原因とその割合を示す.ベースライン,提案手法のどちらのモデルにおいても,名詞-普通名詞-一般と名詞-固有名詞-一般などの名詞同士の誤りが多く見られた.例を表\ref{pos_error_exmaple}の2から4行目に示す.例えば,「欧州連合」を名詞-固有名詞-一般と判定すべきところを,名詞-普通名詞-一般と誤って判定した.これに対する改善策としては,固有名詞になりやすい名詞を学習データから取得し,素性として利用することが考えられる.また,ベースラインを用いた場合は,名詞-普通名詞-一般と副詞,形状詞-一般との誤りが多く見られた.誤りの例を表\ref{pos_error_exmaple}の5から8行目に示す.「最近」という長単位を名詞-普通名詞-一般と判定すべきところを,副詞と誤って判定する例などがあった.一方,これらの誤りは提案手法を用いた場合はほとんど見られなかった.これはベースラインでは書き換え規則により品詞を付与しているためだと考えられる.書き換え規則では頻度が高い規則が適用される.「最近」という長単位の場合,名詞-普通名詞-一般よりも副詞として出現することが多いために書き換え規則では誤って副詞と判定してしまう.これに対し,品詞推定モデルでは前後の文脈を考慮し,文脈に沿って品詞を判定するため,名詞-普通名詞-一般と副詞,及び,名詞-普通名詞-一般と形状詞-一般に関する誤りが大きく減少したと考えられる.\subsubsection{人が見たときに気になる誤りへの対処}後処理を書き換え規則から品詞推定モデルにしたことにより,品詞の推定精度が大幅に向上した.しかし,学習による品詞推定をする場合,人間では誤らないような品詞が付与される可能性がでてくる.これは,品詞推定の際に,学習データにでてきたすべての品詞の中から最尤の品詞を推定するためである.もし,BCCWJの品詞体系で認められていない形式で品詞が付与されてしまうと,少数の誤りであっても人が見たときには目立つ誤りとなる.特に,研究対象になりやすく,自動解析も強く求められている複合辞などに対しては配慮する必要がある.例えば,「として」という助詞-格助詞の複合辞に対して,BCCWJの品詞体系で認められていない助詞-係助詞などの品詞を付与したり,複合辞とは認められていない短単位列を複合辞として判定してしまうと,人が見たときに目立つ誤りとなり,解析器の信頼性が大きく低下してしまう.そのため,\ref{apply_pos_tagset}節で述べた品詞推定モデルでは,複合辞については予め複合辞辞書を用意し,特定の品詞しか付与しないよう対処している.\subsubsection{コーパスのアノテーションと自動解析について}アノテーションの精度を高めることは,コーパスを用いた研究を行う場合,非常に重要であるが,そのためにはどこに人手をかけるべきかを検討する必要がある.例えば,言語単位や品詞体系の定義を複雑にすると自動解析が難しくなるため,自動解析結果の修正に人手をかける必要が生じる.話し言葉の場合,フィラーや言いよどみなどを適切に自動解析するのは難しいため,CSJでは書き起こしの段階で人手でタグを付与している.逆に,コーパスに付加する情報を一部犠牲にして,定義を柔軟にすることで自動解析の精度を向上させることにより,人手による修正コストを軽減することもできる.例えば,BCCWJでは同格や並列の関係にある場合に,意味的な関係を考慮し,連接する短単位それぞれを長単位として適切に自動認定することは困難であるため,1長単位と定義している.以下の例の「公正」と「妥当」は並列の関係にあるが,1長単位としている.\begin{quote}$|$公正妥当$|$な$|$実務慣行$|$\end{quote}CSJやBCCWJにおいては,長単位情報を付与する前段階で上述のような対処をすることにより長単位解析器としては対処すべき問題が低減されたという面もある.このように様々な言語現象に対応しつつコーパスに効率良くアノテーションするためには,自動解析によるアノテーションの前段階で,自動解析が難しそうな問題に対して柔軟に対処することも重要である.\subsubsection{他の品詞体系への適用についての一考察}提案手法でBCCWJとは異なる品詞体系に対してどの程度対処できるかについて考察する.\ref{pre_exp}節と\ref{luw_exp}節での実験により,提案手法はCSJ,BCCWJのどちらに対しても有効であった.これは提案手法が従来手法に比べ,以下の問題に対して汎用的に対処できるようになったためであると考える.\begin{itemize}\item長単位の品詞の種類の多さ\item階層的な品詞体系\item短単位の品詞と長単位の品詞が異なる\end{itemize}品詞体系がBCCWJより単純,もしくは,複雑な場合を考える.まず,品詞体系がBCCWJより単純な場合は,既にCSJに適用した結果からもわかるように,提案手法により同等以上の性能が得られると考えられる.次に,品詞体系がBCCWJより複雑な場合であるが,想定される複雑性は以下の通りである.\begin{itemize}\item品詞の種類の増加\item品詞体系の階層の複雑化\item短単位の品詞と長単位の品詞の関連性の希薄化\end{itemize}これらはBCCWJの品詞体系がCSJの品詞体系に対して複雑になった点でもある.提案手法では,品詞の階層情報(汎化素性)を用いることにより,品詞の推定精度が向上した.これは,上記の複雑性が増した場合でも,品詞間の関係を別途定義・アノテーションした情報を用いることにより,解析性能を上げることができることを示している.ただし,あまりに複雑な品詞体系の場合,必要となる学習データ量が増えるため,学習データ量が十分ではないことが原因で解析精度が低下することも考えられる.そのため,品詞体系はバランスを考えて定義することが重要である.次にCSJやBCCWJとは異なる品詞体系を利用して,コーパスに対して効率よくアノテーションをする方法について考える.一般に,すべて人手で言語単位や品詞をアノテーションするのはコストが高い.このコストを軽減するためには,(1)対象のコーパスを既存の解析器で解析し,言語単位や品詞体系が異なる部分を修正(2)修正結果を学習データとして,解析器を再学習し,対象のコーパスを再解析,というプロセスを繰り返すことができるのが望ましい.次章では,それを可能とするためのツールについて述べる.一方,このプロセスにおいて修正箇所が少ない場合には差分に相当する部分のみを学習し,既存の解析器による解析結果に対して,差分の部分を後処理で書き換えるような方法の方が有効であるということも考えられる.この方法の有効性の検証は今後の課題である. \section{長単位解析ツールComainu} \label{comainu}提案手法を用いることにより,CSJやBCCWJとは異なる言語単位や品詞体系のコーパスに対しても長単位を付与することが可能である.より多くの研究者に対して,品詞体系の異なるコーパスや他分野のコーパスへの長単位情報付与を容易にするためには,長単位解析の学習・解析機能を備えたツールが利用可能になっていることが重要であると考える.\ref{luw_analysis}章で説明した提案手法を実装することにより,長単位解析ツールComainuを作成した.モデルの学習にはBCCWJのコアデータ(45,342文,828,133長単位,1,047,069短単位)を用いた.本ツールは,平文または短単位列を入力すると,長単位を付与した短単位列を出力することができる.平文が入力された場合,MeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}とUniDicにより形態素解析を行った後に長単位解析を行う.長単位解析のチャンキングモデルにはSVMとCRFのいずれかを用いることができる.また,平文や短単位列の直接入力だけでなくファイル入力にも対応しており,解析結果をファイルに保存することも可能である.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA13f5.eps}\end{center}\caption{Comainuによる長単位解析の実行例}\label{comainu_sample}\end{figure}図\ref{comainu_sample}にComainuによる長単位解析の解析例を示す.図\ref{comainu_sample}の例では,平文を入力とし,CRFによるチャンキングモデルとSVMによる品詞,活用型,活用形推定モデルを用いて長単位解析を実行し,長単位が付与された短単位列を出力している.出力の2〜8列目はそれぞれ短単位の書字形,発音系,語彙素読み,語彙素,品詞,活用型,活用形を表し,出力の9〜14列目はそれぞれ長単位の品詞,活用型,活用形,語彙素読み,語彙素,書字形を表す.長単位解析ツールComainuはオープンソースとしている\footnote{http://sourceforge.jp/projects/comainu/}.これにより,長単位のアノテーションが容易になることが期待される. \section{まとめ} \label{conclusion}本論文では,品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,CSJとBCCWJを用いて,長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べた.CSJとBCCWJの形態論情報における相違点に基づき,長単位解析手法を改良し,評価実験により提案手法の有効性を示した.さらに,提案手法の異なる品詞体系への適用可能性について考察した.また,本手法を実装した長単位解析システムComainuについて述べた.本論文では,長単位解析の入力として正しい短単位列を想定したが,短単位,長単位ともに自動で解析した場合,短単位解析結果の誤りが伝播して長単位解析の誤りも増える.また,自動解析結果の誤りを効率よくなくしていくようなコーパスのメンテナンスの枠組みも重要であり,その枠組みの実現のためには,短単位解析の解析誤りが長単位解析に与える影響の調査,特に新たな言語単位や品詞体系を用いた場合にどのような影響がでるかを複数種類のコーパスを対象として比較調査することが今後必要となると考える.\acknowledgment本研究は,文部科学省科学研究費補助金特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築」(平成18年度〜22年度,領域代表:前川喜久雄)からの助成を得ました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{中條\JBA西垣\JBA内山\JBA山崎}{中條\Jetal}{2006}]{nakajo2006}中條清美\JBA西垣知佳子\JBA内山将夫\JBA山崎淳史\BBOP2006\BBCP.\newblock初級英語学習者を対象としたコーパス利用学習の試み.\\newblock\Jem{日本大学生産工学部研究報告B(文系)},{\Bbf39},\mbox{\BPGS\29--50}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{den2007}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Den,Nakamura,Ogiso,\BBA\Ogura}{Denet~al.}{2008}]{den}Den,Y.,Nakamura,J.,Ogiso,T.,\BBA\Ogura,H.\BBOP2008\BBCP.\newblock\BBOQAProperApproachto{Japanese}MorphologicalAnalysis:Dictionary,Model,andEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalLanguageResourcesandEvaluation},\mbox{\BPGS\1019--1024}.\bibitem[\protect\BCAY{林}{林}{1982}]{hayashi1982}林{大(監修)}\BBOP1982\BBCP.\newblock図説日本語.\\newblock\Jem{角川小辞典},{\Bbf9},\mbox{\BPGS\582--583}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{jing2007}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceWeightingforDomainAdaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{風間\JBA宮尾\JBA辻井}{風間\Jetal}{2004}]{kazama2004}風間淳一\JBA宮尾祐介\JBA辻井潤一\BBOP2004\BBCP.\newblock教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル.\\newblock\Jem{言語処理学会},{\Bbf11},\mbox{\BPGS\3--23}.\bibitem[\protect\BCAY{小磯\JBA小木曽\JBA小椋\JBA宮内}{小磯\Jetal}{2009}]{koiso2009}小磯花絵\JBA小木曽智信\JBA小椋秀樹\JBA宮内佐夜香\BBOP2009\BBCP.\newblockコーパスに基づく多様なジャンルの文体比較-短単位情報に着目して.\\newblock\Jem{言語処理学会第15回年次大会予稿集},\mbox{\BPGS\594--597}.\bibitem[\protect\BCAY{近藤}{近藤}{2012}]{kondo2012}近藤泰弘\BBOP2012\BBCP.\newblock日本語通時コーパスの設計について.\\newblock\Jem{国語研プロジェクトレビュー},{\Bbf3},\mbox{\BPGS\84--92}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{Japanese}MorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{前川}{前川}{2004}]{csj}前川喜久雄\BBOP2004\BBCP.\newblock『日本語話し言葉コーパス』の概要.\\newblock\Jem{日本語科学},{\Bbf15},\mbox{\BPGS\111--133}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2008}]{bccwj}Maekawa,K.\BBOP2008\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponAsianLanguageResources},\mbox{\BPGS\101--102}.\bibitem[\protect\BCAY{中野}{中野}{1998}]{nakano1998}中野洋\BBOP1998\BBCP.\newblock言語情報処理.\\newblock\Jem{岩波講座「言語の科学」},{\Bbf9},\mbox{\BPGS\149--199}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{neubig2011}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{小椋\JBA山口\JBA西川\JBA石塚\JBA木村}{小椋\Jetal}{2004}]{ogura2004}小椋秀樹\JBA山口昌也\JBA西川賢哉\JBA石塚京子\JBA木村睦子\BBOP2004\BBCP.\newblock『日本語話し言葉コーパス』における単位認定基準について.\\newblock\Jem{日本語科学},{\Bbf16},\mbox{\BPGS\93--113}.\bibitem[\protect\BCAY{大名}{大名}{2009}]{oishi2009}大名力\BBOP2009\BBCP.\newblockコーパスから見える文法.\\newblock\Jem{国際開発研究フォーラム},{\Bbf38},\mbox{\BPGS\23--40}.\bibitem[\protect\BCAY{田野村}{田野村}{2010}]{tanomura2010}田野村忠温\BBOP2010\BBCP.\newblock日本語コーパスとコロケーション.\\newblock\Jem{言語研究},{\Bbf138},\mbox{\BPGS\1--23}.\bibitem[\protect\BCAY{Uchimoto\BBA\Isahara}{Uchimoto\BBA\Isahara}{2007}]{uchimoto2007}Uchimoto,K.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQMorphologicalAnnotationofALargeSpontaneousSpeechCorpusin{Japanese}.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalJointConferencesonArtificialIntelligence},\mbox{\BPGS\1731--1737}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{小澤俊介}{2009年名古屋大学大学院情報科学研究科博士前期課程了.2012年同大博士後期過程了.博士(情報科学).同年より株式会社はてな.自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{内元清貴}{1996年京都大学大学院工学研究科修士課程修了.同年,郵政省通信総合研究所入所.内閣府出向を経て,現在,独立行政法人情報通信研究機構研究マネージャー.博士(情報学).自然言語処理の研究,研究成果の社会還元活動に従事.言語処理学会・情報処理学会・ACL各会員.}\bioauthor{伝康晴}{1993年京都大学大学院工学研究科博士後期課程研究指導認定退学.博士(工学).ATR音声翻訳通信研究所研究員,奈良先端科学技術大学院大学情報科学研究科助教授,千葉大学文学部助教授・准教授を経て,現在,千葉大学文学部教授.専門はコーパス言語学・心理言語学・計算言語学.とくに日常的な会話の分析・モデル化.社会言語科学会・日本認知科学会・人工知能学会・日本心理学会・日本認知心理学会各会員.}\end{biography}\biodate\end{document}
V14N01-05
\section{はじめに} label{sec:Introduction}参照表現の生成は自然言語処理の重要なタスクの1つであり~\cite{BD2003},多くの研究者により様々な手法が提案されてきた~\cite{DA1985,RD1991,RD1992,RD1995,EK2002,EK2003}.参照表現生成に関する従来の研究は,主に対象物体固有の属性と他の物体との関係を扱ってきた.ただし,他の物体との関係は2項関係のみである.そのため従来の手法では,指示すべき物体とその他の物体との間に外見的特徴の差異が少なく,他の物体との2項関係も弁別の用を成さない状況において,適切な参照表現を生成することができない.ここで適切な参照表現とは,自然で過度な冗長性のない表現のことを言う.\begin{figure}[b]\begin{center}\includegraphics{14-1ia5f1.eps}\end{center}\caption{従来手法で表現生成が困難な例}\label{fig:Problem}\end{figure}例として,図~\ref{fig:Problem}において対象物体$c$を人物$P$に示すことを考える.対象物体$c$は,外見からは物体$a$や物体$b$から区別することができない.そこで次の方策として,対象物体$c$とテーブルとの間の関係を用いることが考えられる(例えば,「テーブルの右の玉」).しかし,物体$a$も物体$b$もテーブルの右にあるため,この状況においては「$X$の右の$Y$」という関係に弁別能力はない.テーブルの代わりに物体$a$や物体$b$を参照物として使うことも意味がない.なぜなら物体$a$および物体$b$は物体$c$が一意に特定できないのと同じ理由によって一意に特定することができないからである.このように,物体の属性と2項関係のみを用いる従来の手法では参照表現の生成に失敗する.手法によっては「玉の前の玉の前の玉」のような論理的には誤りでない表現を生成できるが,適切な参照表現ではない.このような状況は今まで注目されてこなかったが,物体配置の様な状況(例えば\cite{TH2004})では頻繁に起こりうる.この場合,「一番手前の玉」という表現が自然かつ簡潔であると考えられる.このような参照表現を生成するためには,話し手は知覚的に特徴のある物体群を認識し,群に含まれる物体の間の$n$項関係を用いる必要がある.この問題に対し,我々は知覚的群化~\cite{KT1994}を用いて物体群を認識し,物体群の間の関係を用いて参照表現を生成する手法を提案した~\cite{KF2006}.知覚的群化(perceptualgrouping)とは外見的に類似した物体や相互に近接した物体を1つの群として認識することである.我々の提案した手法によって物体の$n$項関係を利用した参照表現の生成が可能となったが,この手法の想定する状況は同形同色同大の物体を複数配置した2次元空間という非常に限られたものであったため,一般的な状況には対応できなかった.本論文では,我々が提案した手法を拡張し,従来より利用されてきた色,形,大きさ等の属性や2項関係も利用できる,知覚的群化に基づく参照表現の生成手法を提案する.\cite{KF2006}では,知覚的群化を利用して参照表現を生成するために,参照表現と参照する空間の状況とを結びつけるSOG(SequenceofGroups)という中間表現形式を提案した.本論文では,SOGを包含関係以外の関係や物体の属性も表現できるように拡張する.そして拡張したSOGを用いた生成手法を提案し,大学生18人に対する心理実験によって実装システムが生成した参照表現を評価する.本論文の構成は以下の通りである.まず\ref{sec:SOG}節では\cite{KF2006}で提案したSOGについて説明し,その拡張を行なう.\ref{sec:Generation}節では拡張したSOGを用いて知覚的群化に基づく参照表現生成手法を提案する.そして提案手法の評価と考察を\ref{sec:EvalAndDiscussion}節に示す.最後に\ref{sec:Conclusion}節で本論文の結論と今後の課題を述べる. \section{SOG} label{sec:SOG}我々は,参照する空間の状況と対象物体を特定する参照表現との間の中間表現として,SOG(SequenceOfGroups)を提案した~\cite{KF2006}.これは,物体全体の群$G_{0}$から始まり対象物体のみを含む物体群$G_{n}$に至る物体群の列を表現したものである.日本語では,物体全体からより小さな物体群へ参照範囲を絞り込みながら対象物体を特定する.SOGはこの絞り込みの過程を抽象化したものである.SOG中の物体群の順序は主要部後置型である日本語における群の表現順序に対応する.\cite{KF2006}で想定している状況は同形同色同大の物体を複数配置した2次元空間であったため,物体群の間の関係は空間的関係のみであった.したがって群間の関係を明示する必要はなく,SOGは以下のように定式化されている.\[\mbox{SOG}:[G_{0}\G_1\\dots\G_{n}]\]ここで$G_x$は物体群であり,$G_0$は物体全体の群,$G_n$は対象物体のみを含む群である.また群間の関係は空間的な絞り込みの関係(内部参照関係)のみを利用している.本論文では色,形,大きさ等の属性情報も利用した参照表現の生成を目的とするため物体群の間の関係が多様化する.そこで我々はSOGの群間に関係を挿入する.拡張したSOGは以下のように定式化できる.\[\mbox{SOG}:[G_{0}\R_{0}\G_1\R_1\\dots\G_{i}\R_{i}\\dots\R_{n-1}\G_{n}]\]ここで,$R_x$は群間の関係を示している.以後,断りなしにSOGという場合は,この拡張したSOGを指す.\subsection{群間の関係}$R_{i}$は群$G_{i}$と群$G_{i+1}$を結ぶ関係を表す.関係には内部参照関係と外部参照関係の2種類がある.\begin{itemize}\item{内部参照関係}\\群$G_{i}$から$G_{i+1}$への絞り込みの関係であり,$G_{i}\supsetG_{i+1}$となる.内部参照関係は,絞り込みに利用する素性の種類に応じて下位範疇に細分類できる.これらの下位範疇を以下の記号で表す.\\\begin{tabular}{cl}\rel{type}&:物体のタイプ\\\rel{space}&:位置関係\\\rel{shape}&:物体の形\\\rel{color}&:物体の色\\\rel{size}&:物体の大きさ\end{tabular}\\\item{外部参照関係}\\$G_{i}\capG_{i+1}=\phi$となり,この関係は空間的な関係に限られる.外部参照関係は記号{\extrel}によって表す.\end{itemize}\bigskip以上より,$R_{i}$は以下のように定式化できる.\[R_{i}\in\{\mrel{space},\mrel{type},\mrel{shape},\mrel{color},\mrel{size},\mextrel\}\]図~\ref{fig:GenSample}に示す状況で,物体$b4$を指示する参照表現とその参照表現に対応するSOGの例を示す.全体群は$\{all\}$と略記する.下線は言語表現と群・関係の間の対応関係を表す.\begin{center}\begin{tabular}{ll}参照表現:&「\underline{手前の}$_{(1)}$\underline{机の}$_{(2)}$\underline{上の}$_{(3)}$\underline{黒い}$_{(4)}$\underline{玉}$_{(5)}$」\\SOG:&[$\{all\}\\mrel{type}\\{t1,t2,t3\}\\underline{\mrel{space}}_{(1)}\\underline{\{t2\}}_{(2)}\\underline{\mextrel}_{(3)}\\{b3,b4\}\\underline{\mrel{color}}_{(4)}\\underline{\{b4\}}_{(5)}$]\\\end{tabular}\end{center}\begin{figure}[hbtp]\begin{center}\includegraphics{14-1ia5f2.eps}\caption{参照表現を生成する状況の例}\label{fig:GenSample}\end{center}\end{figure} \section{参照表現の生成} label{sec:Generation}本論文が提案する参照表現の生成アルゴリズムは以下の4ステップから成る.\begin{quote}\begin{description}\item[Step~1]知覚的群化\item[Step~2]SOGの生成\item[Step~3]言語表現の付与\item[Step~4]順位付け\end{description}\end{quote}以降,これらのステップをそれぞれ説明する.また,例として図~\ref{fig:GenSample}中の状況を利用する.提案手法は,物体の重なりを許すことで「〜の上の〜」という位置関係にも対応する.\subsection*{Step~1:知覚的群化}知覚的群化は以下の5つの素性に対して行う.\begin{quote}\begin{enumerate}\item物体のタイプ\item物体の形\item物体の色\item物体の大きさ\item物体の位置\end{enumerate}\end{quote}ただし,「(5)物体の位置」に関しては以下の2種類の知覚的群化を行なう.\begin{quote}\begin{itemize}\item[(5.1)]物体間の近接性:近接した物体を群化する.\item[(5.2)]閉包:他の物体または特定の領域に囲まれている物体を群化する.\\\hskip3em図~\ref{fig:GenSample}の例の場合,それぞれの机の上に乗っている玉を群化する.\end{itemize}\end{quote}物体間の近接性(5.1)については,\cite{KT1994}の手法を用いて知覚的群化を行なう.同手法は色や大きさや形などの近接性以外の素性にも素性毎の「距離」を定義することによって適用可能であるが,本論文ではこれらの素性については物体毎に予め定めたカテゴリに分類した.タイプには「机,植木,玉」,形には「四角,丸」,色には「赤,青,緑,黒」,大きさには「大,中,小」のカテゴリを用意し,Step~3で付与する言語表現もカテゴリ毎に用意した.知覚的群化に際しては「(1)物体のタイプ」を特に重要視する.なぜなら,人は一般的に異なるタイプの物体を同一の物体群として捕らえることは少なく,また「タイプ」という素性はその物体を最も単純に表現できるものだからである.そこで本手法では,まず物体のタイプを利用した群化を行ない,それぞれのタイプの物体群に対して(2)〜(5)の素性を利用した群化を行なう.Th\'{o}rissonは下の3通りの素性の組み合わせを知覚的群化の異なる方略として認めている.\begin{itemize}\item形と近接性\item色と近接性\item大きさと近接性\end{itemize}つまり,Th\'{o}rissonの知覚的群化の手法では,形,色,大きさが類似しているだけでなく,各物体が相互に近接している場合のみそれらを群化する.しかし,視覚情報から物体の群化を行なうだけの場合,この方略は有効だが,物体群を利用して参照表現を生成しようとする場合(例えば図~\ref{fig:GenSample}の状況で「青い2つの玉のうち」の様に青い2つの玉を群化した表現を生成したい場合),距離の離れた物体同士を色や形,大きさ等の素性から1つの物体群として扱うことが必要となる.よって本手法では,素性ごとに単独で知覚的群化を行なう.生成した各物体群には,知覚的群化の際に利用した素性に応じてラベルを付与する.このラベルは,次のステップのSOG生成において使用する.本手法が対象とする状況では,\{\textit{type,shape,color,size,space}\}の5つのラベルを定義する.また特別な群として,全体群と各物体単体の群も生成する.単体群に対しては\textit{space}ラベルを与える.全体群にはラベルは必要ない.下の例が示すように,一つの群は複数のラベルを持ちうる.図~\ref{fig:GenSample}の状況に対して知覚的群化を行なった結果生成される物体群を以下に示す.\bigskip\begin{quote}\renewcommand{\arraystretch}{}\begin{tabular}{lll}\hline素性&ラベル&認識された群\\\hline{\bf全体群}&なし&$\{t1,t2,t3,p1,b1,b2,b3,b4,b5\}$\\{\bf単体群}&\textit{space}&$\{t1\},\{t2\},\{t3\},\{p1\},\{b1\},\{b2\},\{b3\},\{b4\},\{b5\}$\\{\bfタイプ}&\textit{type}&$\{t1,t2,t3\},\{p1\},\{b1,b2,b3,b4,b5\}$\\{\bf形}&\textit{shape}&$\{t1,t2\},\{t3\}$\\{\bf色}&\textit{color}&$\{b1,b2\},\{b3\},\{b4,b5\}$\\{\bf大きさ}&\textit{size}&$\{b1,b3,b4\},\{b2,b5\}$\\{\bf近接性}&\textit{space}&$\{t2,t3\},\{b1,b3,b4,b5\},\{b3,b4,b5\}$\\{\bf閉包}&\textit{space}&$\{b1\},\{b3,b4\}$\\\hline\end{tabular}\end{quote}\subsection*{Step~2:SOGの生成}\label{subsec:MakeSOG}Step~1で生成した群をもとに,SOGを生成する.SOG生成は,自然言語生成のいわゆるコンテント・プランニングの段階に相当する.生成アルゴリズムを図~\ref{fig:makeSOG}〜図~\ref{fig:search}に示す.図~\ref{fig:makeSOG}に定義した3つの変数,\texttt{Target},\texttt{AllGroups},\texttt{SOGList}は大域変数である.\texttt{Target}は参照表現によって指示する対象物,\texttt{AllGroups}はStep~1で生成されたすべての群の集合,\texttt{SOGList}は生成されたSOGのリストである.\texttt{Target}と\texttt{AllGroups}が与えられると,関数\texttt{makeSOG}はすべての可能なSOGを深さ優先で生成し,\texttt{SOGList}に追加する.\paragraph{makeSOG(図~\ref{fig:makeSOG})}\texttt{makeSOG}は最初にSOGの第1要素として全体群を追加する.次に空間内に存在する物体のタイプの中から対象物体より顕現性が高いか等しいタイプを選択し,SOGを拡張する.顕現性の高い物体を優先的に手がかりとして使うことにより,聞き手の理解が容易になると期待できる.ここでは,大きさに着目して,机,植木,ボールの順に顕現性が高いと仮定する.これを繰り返し,選択する物体のタイプがなくなったら終了する.\paragraph{search(図~\ref{fig:search})}この関数は生成途中のSOGを引数とする.SOGの最後の要素を\texttt{LastGroup}とし,以下の場合に分けて処理を行なう.\begin{enumerate}\item\texttt{LastGroup}が対象物体のみからなる単体群の場合(05--06行)\\この場合SOGは完成しているので,\texttt{SOGList}にSOGを追加して終了.\item\texttt{LastGroup}が対象物体以外の単体群からなる場合(08--14行)\\この場合は,\texttt{LastGroup}の単体群と外部参照関係によって関係付けられる対象物体を含む群を探し,この群によってSOGを拡張する.まず,対象物体を含み,\texttt{LastGroup}に含まれる物体(参照物体)から適切な位置関係にある物体群を探し\texttt{GroupList}に代入する.適切な位置関係とは,以下の条件(a),(b),(c)を満たすものである.ここで実装上の効率化のため,条件(a)に該当する方向を記録しておく.\begin{enumerate}\item対象物体を含む群の全要素が参照物体から「奥,右奥,右,右手前,手前,左手前,左,左奥,上」\footnote{参照物体の重心を原点とし,空間内の人物が向いている方向を「奥」の方向として方向を8等分し,この順に方向を割り当てる.}のいずれかの表現で表せる同一の方向にある.\item(a)と同一の方向で,なおかつ対象物体を含む群のいずれの要素よりも参照物体から近い位置に対象物体と同じタイプの他の物体が存在しない.\item対象物体を含む群はいずれかのタイプの全体群ではない.\end{enumerate}次に外部参照関係{\extrel}と\texttt{GroupList}の中のそれぞれの物体群を追加したSOGを生成し,関数\texttt{search}(図~\ref{fig:search})を再帰的に呼び出す.\texttt{GroupList}中の物体群を全て適用したら終了.\item\texttt{LastGroup}が対象物体を含む複数の物体を含む場合(17--26行)\\この場合は,新しい素性(内部参照関係)を使って\texttt{LastGroup}をさらに絞り込む.\texttt{AllGroups}中の各物体群と\texttt{LastGroup}との積集合をとった群\texttt{NewG}を生成し,付与されているラベルもコピーする.\texttt{NewG}が対象物体を含むならば,その時点のSOGと\texttt{NewG}を引数として関数\texttt{extend}(図~\ref{fig:extend})を呼び出す.ただし,\texttt{NewG}が重複しないように\texttt{GroupList}を利用してチェックする.\texttt{AllGroups}中の物体群を全て適用したら終了.\item\texttt{LastGroup}が対象物体以外の複数の物体を含む場合(28--32行)\\この場合は,当面の目標として対象物体以外の単体群を作る.\texttt{AllGroups}の中から,\texttt{LastGroup}に包含される物体群\texttt{Group}を選択し,それぞれの\texttt{Group}に対してその時点のSOGと\texttt{Group}を引数として関数\texttt{extend}(図~\ref{fig:extend})を呼び出す.\texttt{LastGroup}に包含される物体群\texttt{Group}を全て適用したら終了.\end{enumerate}\paragraph{extend(図~\ref{fig:extend})}この関数は生成途中のSOG(\texttt{SOG})と次に追加する群(\texttt{Group})を引数とする.\texttt{Group}に付与されているラベルのリストを\texttt{LabelList}に取り出す(ただし\textit{type}ラベルは除外する).それぞれのラベルから\texttt{SOG}の末尾の物体群と\texttt{Group}を結ぶ関係,および\texttt{Group}を\texttt{SOG}のコピー\texttt{SOGcopy}に追加する.そして関数\texttt{search}(図~\ref{fig:search})を\texttt{SOGcopy}に対して呼び出す.図~\ref{fig:GenSample}の状況において対象物体を$b1$としたときに生成されるSOGを以下に示す.全体群は$\{all\}$と略記する.\begin{enumerate}\item$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\mrel{space}\\{t1\}\\mextrel\\{b1\}]$\item$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\mrel{shape}\\{t1,t2\}\\mrel{space}\\{t1\}\\mextrel\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{color}\\{b1,b2\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{color}\\{b1,b2\}\\mrel{size}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{size}\\{b1,b4,b3\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{size}\\{b1,b4,b3\}\\mrel{color}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b1,b3,b4,b5\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b1,b3,b4,b5\}\\mrel{color}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b1,b3,b4,b5\}\\mrel{size}\\{b1,b4,b3\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b3,b4,b5,b1\}\\mrel{size}\\{b1,b4,b3\}\\mrel{color}\\{b1\}]$\end{enumerate}\begin{center}\begin{figure}[t]{\small\setlength{\baselineskip}{13pt}\begin{alltt}Target#対象物体AllGroups#知覚的群化によって生成された全ての群のリストSOGList#SOGのリスト01:makeSOG()02:SOG=[];#物体群と関係を要素とするリスト03:All=getAll();#物体の全体群を得る04:add(All,SOG);#SOGに追加05:TypeList=getAllTypes(All);#物体のタイプの集合を得る06:TypeOfTarget=getType(Target);#対象物体のタイプを得る07:TargetSaliency=saliency(TypeOfTarget);#対象物体のタイプの顕現性08:foreachTypeinTypeListdo#Type\oneof\{Table,Plant,Ball\}09:ifsaliency(Type){\izyo}TargetSaliencythen#顕現性を比較(Table>Plant>Ballを仮定)10:Group=get(AllGroups,Type);#そのタイプの全体群を得る11:SOGcopy=copy(SOG);#SOGのコピーを作る12:add(\rel{\mathtt{type}},SOGcopy);#typeの関係を末尾に追加13:add(Group,SOGcopy);#Groupを末尾に追加14:search(SOGcopy);15:endif16:endfor17:return\end{alltt}}\caption{makeSOG}\label{fig:makeSOG}\end{figure}\begin{figure}[t]{\small\setlength{\baselineskip}{13pt}\begin{alltt}01:search(SOG)02:LastGroup=getLastElement(SOG);#SOGの最後に位置する物体群を得る03:Card=getCardinality(LastGroup);#物体群の要素数を得る04:ifCard==1then05:ifcontainsTarget(LastGroup)then#群が対象物体を含んでいるかを調べる06:add(SOG,SOGList);07:else08:GroupList=searchTargetGroups(LastGroup);#LastGroupから適切な位置にあり,対象物体を含んでいる物体群の集合を得る09:foreachGroupinGroupListdo10:SOGcopy=copy(SOG);11:add(\extrel,SOGcopy);12:add(Group,SOGcopy);13:search(SOGcopy);14:endfor15:endif16:elsifcontainsTarget(LastGroup)then17:Checked=[];18:foreachGroupinAllGroupsdo19:NewG=Intersect(Group,LastGrouop);#交差をとった群を生成20:Labels=getLabels(Group);21:setLabels(Labels,NewG);#ラベルをGroupからNewGへコピー22:ifcontainsTarget(NewG)\&!contains(Checked,NewG)then23:add(NewG,Checked);24:extend(SOG,Group);25:endif26:endfor27:else28:foreachGroupofAllGroupsdo29:ifcontains(LastGroup,Group)then30:extend(SOG,Group);31:endif32:endfor33:endif34:return\end{alltt}}\caption{search}\label{fig:search}\end{figure}\begin{figure}[t]{\small\setlength{\baselineskip}{13pt}\begin{alltt}01:extend(SOG,Group)02:LabelList=getLabels(Group);#Groupに付与されている属性ラベルのリストを得る03:foreachLabelinLabelListdo#Label\oneof\{space,shape,color,size\}04:SOGcopy=copy(SOG);#SOGのコピーを作る05:add(\rel{\mathtt{Label}},SOGcopy);#関係を末尾に追加06:add(Group,SOGcopy);#Groupを末尾に追加07:search(SOGcopy);08:endfor09:return\end{alltt}}\caption{extend}\label{fig:extend}\end{figure}\end{center}\subsection*{Step~3:言語表現の付与}\label{subsec:MakeExp}SOGの各要素に表現を付与することで,参照表現を生成する.表現の付与には以下の規則を用いる.規則1は物体群の表現を,規則2は群間の関係の表現を生成する規則である.それぞれの規則の中では,各下位規則は表記順に優先度が高いものとする.\paragraph{[規則1]:物体群に対する表現付与}\begin{description}\item[規則1.1]\textbf{全体群($\{all\}$)は言語化しない}\\\cite{KF2006}で述べられているとおり,全体群が明示的に言語化されることがまれであるという被験者実験の結果を参考にした.\item[規則1.2]\textbf{各単体群には「タイプ名」もしくは「タイプ名+『の』」を付与}\\単体群がSOGの最後の要素でない場合は,外部参照関係(\extrel)が後続するため「の」を付与する.規則2.1によりタイプの絞り込みは言語化せず,単体群に対して「タイプ名」を付与することで必要な情報を言語化する.\item[規則1.3]\textbf{各タイプの全体群は言語化しない}\\理由は規則1.1に同じ.\item[規則1.4]\textbf{後続が内部参照関係$\mrel{space}$の場合,「個数+タイプ名+『のうち』」を付与,その他の関係が後続する場合は言語化しない}\\後続する関係が空間的な関係($\mrel{space}$)以外の場合,その関係は名詞(タイプ名)の前の関係の列として言語化できる.例えば,「大きい玉のうちの赤い玉」は「大きい赤い玉」と表現できる.外部参照関係については,単体群以外には後続しないので規則1.2で全て処理される.\end{description}\paragraph{[規則2]:群間の関係に対する表現付与}\begin{description}\item[規則2.1]\textbf{タイプの関係(\rel{type})は言語化しない}\\規則1.2を参照.\item[規則2.2]\textbf{各関係に関係を示す表現を付与}\\\rel{shape},\rel{color},\rel{size}にはそれぞれの属性の値の表現を付与する.\extrel,\rel{space}に対する表現の付与は以下の場合分けに従って行なう.ここで,$|G_i|$は$G_i$の要素数を表す.\paragraph{内部参照関係($G_i\\mrel{space}\G_{i+1}$)}\begin{itemize}\item$|G_i|=2$のとき\\絞り込みの前後で要素数は必ず少なくなるため,$|G_{i+1}|=1$である.各物体の座標から,4つの表現「[右/左/手前/奥]の」のいずれかを付与する.\item$|G_i|\geq3$かつ$|G_{i+1}|=1$のとき\\各物体の座標を参考にし,以下の表現の妥当性をこの順に調べ,妥当な表現を付与する.\begin{itemize}\item[(1)]「一番[手前/奥/右/左/右手前/左手前/右奥/左奥]の」\item[(2)]「真ん中の」\item[(3)]「[左/右/手前/奥]から$j$番目の」\end{itemize}\item$|G_{i+1}|\geq2$のとき\\各物体群の座標を参考にし,「[右/左/手前/奥/真ん中/右手前/左手前/右奥/左奥]の」の中から妥当な表現を付与する.\end{itemize}\paragraph{外部参照関係($G_i\mextrel\G_{i+1}$)}\begin{itemize}\item\texttt{search}の性質からこの場合は$|G_{i}|=1$となる.ここではStep~2のSOG生成のときに記録した方向に対応する表現(「[奥/右奥/右/右手前/手前/左手前/左/左奥/上]の」)を付与する.\end{itemize}\end{description}図~\ref{fig:GenSample}の状況においてStep~2で生成したSOGに表現を付与すると以下のようになる.\begin{enumerate}\itemsep=0.8ex\item$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\underline{\mrel{space}}_{(1)}\\underline{\{t1\}}_{(2)}\\underline{\mextrel}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{一番左の}$_{(1)}$\\underline{机の}$_{(2)}$\\underline{上の}$_{(3)}$\\underline{玉}$_{(4)}$」\item$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\underline{\mrel{shape}}_{(1)}\\underline{\{t1,t2\}}_{(2)}\\underline{\mrel{space}}_{(3)}\\underline{\{t1\}}_{(4)}\\underline{\mextrel}_{(5)}\\underline{\{b1\}}_{(6)}]$\\「\underline{丸い}$_{(1)}$\\underline{2つの机のうち}$_{(2)}$\\underline{左の}$_{(3)}$\\underline{机の}$_{(4)}$\\underline{上の}$_{(5)}$\\underline{玉}$_{(6)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\underline{\{b1\}}_{(2)}]$\\「\underline{一番左の}$_{(1)}$\\underline{玉}$_{(2)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{color}}_{(1)}\\underline{\{b1,b2\}}_{(2)}\\underline{\mrel{space}}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{青い}$_{(1)}$\\underline{2つの玉のうち}$_{(2)}$\\underline{左の}$_{(3)}$\\underline{玉}$_{(4)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{color}}_{(1)}\\{b1,b2\}\\underline{\mrel{size}}_{(2)}\\underline{\{b1\}}_{(3)}]$\\「\underline{青い}$_{(1)}$\\underline{小さい}$_{(2)}$\\underline{玉}$_{(3)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{size}}_{(1)}\\underline{\{b1,b3,b4\}}_{(2)}\\underline{\mrel{space}}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{小さい}$_{(1)}$\\underline{3つの玉のうち}$_{(2)}$\\underline{一番左の}$_{(3)}$\\underline{玉}$_{(4)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{size}}_{(1)}\\{b1,b3,b4\}\\underline{\mrel{color}}_{(2)}\\underline{\{b1\}}_{(3)}]$\\「\underline{小さい}$_{(1)}$\\underline{青い}$_{(2)}$\\underline{玉}$_{(3)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\underline{\{b1,b3,b4,b5\}}_{(2)}\\underline{\mrel{space}}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{左の}$_{(1)}$\\underline{4つの玉のうち}$_{(2)}$\\underline{一番左の}$_{(3)}$\\underline{玉}$_{(4)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\{b1,b3,b4,b5\}\\underline{\mrel{color}}_{(2)}\\underline{\{b1\}}_{(3)}]$\\「\underline{左の}$_{(1)}$\\underline{青い}$_{(2)}$\\underline{玉}$_{(3)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\{b1,b3,b4,b5\}\\underline{\mrel{size}}_{(2)}\\underline{\{b1,b3,b4\}}_{(3)}\\underline{\mrel{space}}_{(4)}\\underline{\{b1\}}_{(5)}]$\\「\underline{左の}$_{(1)}$\\underline{小さい}$_{(2)}$\\underline{3つの玉のうち}$_{(3)}$\\underline{一番左の}$_{(4)}$\\underline{玉}$_{(5)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\{b1,b3,b4,b5\}\\underline{\mrel{size}}_{(2)}\\{b1,b3,b4\}\\underline{\mrel{color}}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{左の}$_{(1)}$\\underline{小さい}$_{(2)}$\\underline{青い}$_{(3)}$\\underline{玉}$_{(4)}$」\end{enumerate}\subsection*{Step~4:順位付け}\label{subsec:SetScore}出力表現を決定するために,表現中で使用された関係と表現の長さを考慮して,各表現にスコアを与える.最初にSOG内の各関係に対して$[0,1]$の範囲でコストを与える.関係のコストは以下のように決定する.これらのコストは\cite{RD1995}で述べられている素性の優先順位に従う.\vspace{5mm}\begin{center}\begin{tabular}{l@{:}p{0.7\hsize}}\hline\rel{type}&(無視)\\\rel{shape}&0.2\\\rel{color}&0.4\\\rel{size}&「大きい」:0.6,「小さい」:0.8,「中くらいの」:1.0\\\rel{space},\extrel&コスト関数を\cite{TTS2005}で提案されたポテンシャル関数に従って定義した.ただし,関係「〜の上にある〜」のコストは0とする.\\\hline\end{tabular}\end{center}\vspace{5mm}次に,関係のコスト$\mathit{cost\_rel}$を各関係のコストの平均値として求める.そして表現長のコスト$\mathit{cost\_len}$を以下の式で求める.表現長は文字数で測る.\begin{displaymath}\mathit{cost\_len}=\frac{\mathrm{length(expression)}}{\max_i\mathrm{length(expression_{\mathit{i}})}}\end{displaymath}コスト$\mathit{cost\_rel}$及び$\mathit{cost\_len}$を用い,表現のスコア$\mathit{score}$を以下のように定める.\begin{displaymath}\mathit{score}=\frac{1}{\alpha\times\mathit{cost\_rel}+(1-\alpha)\times\mathit{cost\_len}}\end{displaymath}$\alpha$の値は,次節の実験では0.5に固定した.図~\ref{fig:GenSample}の状況において生成した表現にコストを付与し,スコアの高い順に示す.各行の表現の右の数値はその表現のスコア($\mathit{score}$,$\alpha=0.5$),括弧内の数値は左から関係のコスト($\mathit{cost\_rel}$),表現長のコスト($\mathit{cost\_len}$)である.\begin{flushleft}\begin{tabular}{rll}1.&「一番左の玉」&3.66(0.251,0.294)\\2.&「左の青い玉」&2.62(0.468,0.294)\\3.&「一番左の机の上の玉」&2.44(0.289,0.529)\\4.&「青い2つの玉のうち左の玉」&2.20(0.204,0.706)\\5.&「青い小さい玉」&2.10(0.600,0.353)\\6.&「小さい青い玉」&2.10(0.600,0.353)\\7.&「左の小さい青い玉」&1.90(0.578,0.471)\\8.&「丸い2つの机のうち左の机の上の玉」&1.67(0.259,0.941)\\9.&「左の4つの玉のうち一番左の玉」&1.64(0.393,0.824)\\10.&「小さい3つの玉のうち一番左の玉」&1.42(0.526,0.882)\\11.&「左の小さい3つの玉のうち一番左の玉」&1.31(0.529,1.000)\\\end{tabular}\end{flushleft} \section{評価と考察} label{sec:EvalAndDiscussion}提案手法を評価するため,上記のアルゴリズムをJavaで実装し,大学生18人を対象に心理実験を行なった.\subsection{実験}実装システムが生成した参照表現を評価する被験者実験を実験1と実験2に分けて行なった.被験者は実験1の後に実験2を行なったが,それらの関連については被験者には知らせていない.実験に使用した20布置と,各布置に対して実装システムが生成した上位5つの参照表現を付録に示す.布置は物体の個数も位置もランダムに決定したもので,対象物体もランダムに選んだ.ただし布置は,参照表現が5つ以上生成され,かつ対象物体と同じタイプの物体が2つ以上存在するものに限定した.これは「机」のような1単語の表現では対象物体を特定できないようにするためである.\paragraph{実験1}この実験は,システムによって生成した参照表現を人間が解釈した時に,どの程度正確に対象物体を同定できるかを評価するために行なった.被験者に,布置とその布置中の対象物体1つに対して生成した参照表現のうち最もスコアが高かったものを示し,その参照表現が指し示す物体を選ばせた.図~\ref{fig:Eval1}は実験に使用した視覚刺激の例である.\begin{figure}[t]\begin{center}\includegraphics{14-1ia5f6.eps}\caption{実験1に使用した視覚刺激の例}\label{fig:Eval1}\end{center}\end{figure}\paragraph{実験2}この実験はシステムに実装したスコア付けがどの程度人間の直感に合致しているかを評価するために行なった.対象物体を明示した布置の画像と,その布置中の対象物体1つに対して生成した参照表現をスコアが高い順に5つ被験者に示し,その中で被験者が最もよいと思う表現を選ばせた.判断基準は明確に設定せず各自の判断に任せた.図~\ref{fig:Eval2}は実験に使用した視覚刺激の例である.布置は課題1と同じもの20種を使用した.被験者に示した5つの参照表現は実験1で評価した参照表現も含む.\begin{figure}[t]\begin{center}\includegraphics{14-1ia5f7.eps}\caption{実験2に使用した視覚刺激の例}\label{fig:Eval2}\end{center}\end{figure}\subsection{結果}表~\ref{tab:Result1}に実験1の結果を示す.対象物体特定の正解率は全体で95.0\%であった.このことから,実装システムが生成した参照表現は高い対象物体特定能力をもつと言える.他の布置に比べ,布置20(付録参照)は正解率が低いが,これは位置の計算を直交座標系に準じて行なったためと考えられる.布置20中の対象物体に対して実装システムは,対象物体が垂直方向において人物$P$に最も近いため,「一番手前の玉」という表現を生成している.この表現に対してほとんどの被験者は図中の一番右側の玉を選択した.このことから「一番手前」という表現では,人物$P$と物体間のユークリッド距離が最も重要な要素となっていると考えられる.\begin{table}[b]\centering\caption{実験結果:正解率}\label{tab:Result1}\vspace{1mm}\begin{tabular}{c|cccccccccc|c}\cline{1-11}布置&1&2&3&4&5&6&7&8&9&10\\正解率&0.89&1&1&1&1&1&1&0.94&1&1\\\hline\hline布置&11&12&13&14&15&16&17&18&19&20&平均\\正解率&1&0.94&1&1&1&1&1&1&1&0.17&0.95\\\hline\end{tabular}\vspace{10pt}\centering\caption{実験結果:得票率}\label{tab:Result2}\vspace{1mm}\begin{tabular}{c|ccccc|c}\hline表現No.&1&2&3&4&5&計\\\hline度数&134&125&59&22&20&360\\得票率&0.37&0.35&0.16&0.06&0.06&1\\\hline\end{tabular}\end{table}表~\ref{tab:Result2}に実験2の結果を示す.表現No.1〜5の順にスコアが高かった参照表現を表している.上位2位の参照表現の得票率が全体の72\%を占めていることから,本論文で提案した参照表現に対する順位付けの手法が有効であるといえる.\subsection{生成能力の限界}提案手法で生成可能な参照表現には原理的な限界がある.その代表的な3つを以下に示す.\paragraph{並列表現}SOGは直列的に焦点を遷移していくため,例えば「机の前で,木の左の玉」という様な並列的に他の物体を参照する表現は生成できない.また「〜と〜の間の」という関係を利用する表現も生成できない.この様な並列表現を生成するためにはSOGの更なる拡張が必要となる.\paragraph{多重に他の物体を参照する表現}例えば「四角い机の左の木の奥にある玉」という表現では「机→木→玉」という順に3タイプの物体を参照するが,提案手法では対象物体と異なるタイプの物体を2つ以上参照するこのような表現は生成できない.しかしこの制限は,参照表現の簡潔さの観点から意図的に設けたものであり,Step~2のSOG生成を拡張すれば多重に他の物体を参照する表現は生成できる.\paragraph{複数の他の物体を参照する表現}外部参照関係における焦点の遷移には,単体から群への遷移のみを定義している.そのため提案手法では,例えば図~\ref{fig:GenSample}の状況において物体$b1$に対して,\begin{center}\begin{tabular}{ll}参照表現:&「丸い机の上の青い玉」\\SOG:&$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\mrel{shape}\\underline{\{t1,t2\}\\mextrel}\\{b1,b3,b4\}\\mrel{color}\\{b1\}]$\\\end{tabular}\end{center}の様に,SOG中で複数の机(\{$t1,t2$\})を外部参照する表現を生成できない.これを解決するためには,SOG生成手法と表現付与の規則を工夫する必要があり,今後の課題である.\subsection{その他の課題}\paragraph{位置計算}現在のシステムでは,妥当な位置表現を選択するために,直交座標系を8方向に分割して位置を計算するという単純な手法を使っている.適切な位置表現を付与するための座標系や参照枠・視点の選択方法について,今後心理実験などをもとに解明する必要がある.\paragraph{簡潔性と曖昧性}SOGへの表現付与の規則1.4は,物体群の言語化を省略することで表現の簡潔さと自然さを得ることを目的としている.例えば「黒い3つの玉のうち小さい玉」という表現は規則1.4より「黒い小さい玉」という簡潔で人間がより自然と感じる表現となる.しかし,「丸い2つの机のうち右の机」という表現は,一般的に「丸い右の机」とした方が自然であるが,この場合「2つの机のうち」という部分表現が表す物体群の後には「右の」という部分表現が表す群間の空間的内部参照関係\rel{space}が続くため規則1.4による省略は行なわれない.この例から規則1.4が一見不十分だと感じるかもしれないが,空間的内部参照関係の前の物体群を省略してしまうと対象物体特定に曖昧性を生じる場合がある.例えば図~\ref{fig:Problem2}の布置で,物体$b7$を指し示す「青い3つの玉のうち左から2番目の玉」という表現を省略して「青い左から2番目の玉」とすると,「青い玉」で「左から2番目の玉」である物体$b3$との間に曖昧性が生じる.このように,対象物体を特定する情報を適切に言語化する方法にも,さらに改良の余地がある.\begin{figure}[htbp]\begin{center}\includegraphics{14-1ia5f8.eps}\caption{表現を省略できない布置の例}\label{fig:Problem2}\end{center}\end{figure}\paragraph{人間が生成する表現との比較}提案手法のスコア付けの手法はIncrementalAlgorithm~\cite{RD1995}を参考に人手で作成したものである.実験2の結果からスコアの高いものがよりよい表現として選ばれていることより,提案手法のスコア付けの手法が有効であるといえる.しかしながら,この結果は,実装システムが生成した参照表現が人間の生成する参照表現にどこまで近づけたかを示すものではない.人間が生成する参照表現との比較は今後の課題である. \section{まとめ} label{sec:Conclusion}本論文では知覚的群化を利用した参照表現の生成手法を提案した.参照表現と参照される空間の状況との間の中間表現であるSOG~\cite{KF2006}を拡張し,空間的包含関係でない位置関係や物体の属性も扱えるようにした.提案手法を実装したシステムが生成した参照表現の対象物体特定の精度は95\%であった.またスコア付けによる参照表現の順位付けは被験者による高い評価を得た.提案手法の生成能力には制限があり,ある種の表現は原理的に生成できない.しかし,提案手法は対象を特定する表現を生成する十分な能力を備えている.\appendix\section*{付録:実験に用いた布置と生成された参照表現}\label{App:A}\ref{sec:EvalAndDiscussion}~節で使用した布置と生成された参照表現をスコアの高い順に以下に示す.机の形や玉の色,物体の個数はランダムに決定した.物体の個数は以下の範囲に制限した.\begin{itemize}\item机:0〜3個\item木:0〜2個\item玉:3〜9個\end{itemize}対象物体もランダムに選択し,図中ではXを付けて,破線で囲んである.\def\arrangement#1#2{}\def\arraystretch{}\begin{longtable}{lcl}\arrangement{1}{\begin{enumerate}\item左奥の青い玉\item左から2番目の玉\item青い3つの玉のうち一番左の玉\item左奥の小さい玉\item青い大きい2つの玉のうち左の玉\end{enumerate}}\\\arrangement{2}{\begin{enumerate}\item一番奥の玉\item緑の玉\item小さい緑の玉\item木の左の玉\item小さい2つの玉のうち奥の玉\end{enumerate}}\\\arrangement{3}{\begin{enumerate}\item左の木の右の玉\item一番手前の玉\item左の赤い玉\item左の木の右奥の赤い玉\item左の小さい玉\end{enumerate}}\\\arrangement{4}{\begin{enumerate}\item左の赤い玉\item赤い玉\item木の左の赤い玉\item木の左の玉\item左の2つの玉のうち奥の玉\end{enumerate}}\\\arrangement{5}{\begin{enumerate}\item青い玉\item奥の青い玉\item丸い机の奥の玉\item丸い机の左奥の青い玉\item右の机の奥の玉\end{enumerate}}\\\arrangement{6}{\begin{enumerate}\item一番手前の玉\item青い玉\item左の机の左の玉\item大きい青い玉\item大きい青い玉\end{enumerate}}\\\arrangement{7}{\begin{enumerate}\item一番左奥の玉\item赤い大きい玉\item赤い2つの玉のうち奥の玉\item左の赤い大きい玉\item左の赤い2つの玉のうち奥の玉\end{enumerate}}\\\arrangement{8}{\begin{enumerate}\item右の緑の玉\item真ん中の緑の玉\item緑の大きい玉\item大きい緑の玉\item緑の2つの玉のうち右の玉\end{enumerate}}\\\arrangement{9}{\begin{enumerate}\item真ん中の机\item丸い大きい机\item大きい丸い机\item丸い2つの机のうち右の机\item大きい2つの机のうち左の机\end{enumerate}}\\\arrangement{10}{\begin{enumerate}\item青い玉\item手前の青い玉\item左の青い玉\item木の右の青い玉\item木の右の青い玉\end{enumerate}}\\\arrangement{11}{\begin{enumerate}\item右の木の右の玉\item一番手前の玉\item右の青い小さい玉\item右の小さい青い玉\item青い小さい玉\end{enumerate}}\\\arrangement{12}{\begin{enumerate}\item左の机の右の玉\item四角い机の右の玉\item右から3番目の玉\item小さい机の右の玉\item緑の3つの玉のうち一番右手前の\\玉\end{enumerate}}\\\arrangement{13}{\begin{enumerate}\item一番右の玉\item一番右の机の右の玉\item木の左の玉\item黒い3つの玉のうち一番右の玉\item丸い2つの机のうち右の机の右の\\玉\end{enumerate}}\\\arrangement{14}{\begin{enumerate}\item机の右の緑の玉\item緑の玉\item右の緑の玉\item右の緑の玉\item大きい緑の玉\end{enumerate}}\\\arrangement{15}{\begin{enumerate}\item机の上の玉\item赤い玉\item手前の赤い玉\item真ん中の玉\item真ん中の赤い玉\end{enumerate}}\\\arrangement{16}{\begin{enumerate}\item左の玉\item丸い机の上の玉\item緑の玉\item左の丸い机の上の玉\item一番左奥の机の上の玉\end{enumerate}}\\\arrangement{17}{\begin{enumerate}\item右の赤い玉\item赤い玉\item一番奥の玉\item右の木の右の赤い玉\item右の木の右の玉\end{enumerate}}\\\arrangement{18}{\begin{enumerate}\item机の奥の玉\item一番右奥の玉\item緑の大きい玉\item大きい緑の玉\item緑の2つの玉のうち右の玉\end{enumerate}}\\\arrangement{19}{\begin{enumerate}\item真ん中の青い玉\item左の机の右の玉\item四角い机の右の玉\item左の机の右手前の青い玉\item木の手前の青い玉\end{enumerate}}\\\arrangement{20}{\begin{enumerate}\item一番手前の玉\item赤い2つの玉のうち手前の玉\item左の3つの玉のうち一番手前の玉\item左の赤い2つの玉のうち手前の玉\item左の机の左手前の3つの玉のうち\\一番手前の玉\end{enumerate}}\\\end{longtable}\begin{thebibliography}{}\bibitem[\protect\BCAY{Appelt}{Appelt}{1985}]{DA1985}Appelt,D.~E.\BBOP1985\BBCP.\newblock\BBOQPlanning{English}ReferringExpressions\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf26},\mbox{\BPGS\1--33}.\bibitem[\protect\BCAY{Byron}{Byron}{2003}]{BD2003}Byron,D.~K.\BBOP2003\BBCP.\newblock\BBOQUnderstandingReferringExpressionsinSituatedLanguage:SomeChallengesforReal-WorldAgents\BBCQ\\newblockIn{\BemtheFirstInternationalWorkshoponLanguageUnderstandingandAgentsfortheRealWorld}.\bibitem[\protect\BCAY{Dale}{Dale}{1992}]{RD1992}Dale,R.\BBOP1992\BBCP.\newblock\BBOQGeneratingReferringExpressions:ConstructingDescriptionsinaDomainofObjectsandProcesses\BBCQ\\newblockMITPress,Cambridge.\bibitem[\protect\BCAY{Dale\BBA\Haddock}{Dale\BBA\Haddock}{1991}]{RD1991}Dale,R.\BBACOMMA\\BBA\Haddock,N.\BBOP1991\BBCP.\newblock\BBOQGeneratingreferringexpressionsinvolvingrelations\BBCQ\\newblockIn{\BemProceedingsoftheFifthConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL'91)},\mbox{\BPGS\161--166}.\bibitem[\protect\BCAY{Dale\BBA\Reiter}{Dale\BBA\Reiter}{1995}]{RD1995}Dale,R.\BBACOMMA\\BBA\Reiter,E.\BBOP1995\BBCP.\newblock\BBOQComputationalinterpretationsoftheGriceanmaximsinthegenerationofreferringexpressions\BBCQ\\newblock{\BemCognitiveScience},{\Bbf19}(2),\mbox{\BPGS\233--263}.\bibitem[\protect\BCAY{Krahmer\BBA\Theune}{Krahmer\BBA\Theune}{2002}]{EK2002}Krahmer,E.\BBACOMMA\\BBA\Theune,M.\BBOP2002\BBCP.\newblock\BBOQEfficientcontext-sensitivegenerationofdescriptions\BBCQ\\newblockInKeesvanDeemterandRodgerKibble,editors,InformationSharing:GivennessandNewnessinLanguageProcessing.CSLIPublications,Stanford,California.\bibitem[\protect\BCAY{Krahmer,vanErk,\BBA\Verleg}{Krahmeret~al.}{2003}]{EK2003}Krahmer,E.,vanErk,S.,\BBA\Verleg,A.\BBOP2003\BBCP.\newblock\BBOQGraph-BasedGenerationofReferringExpressions\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\53--72}.\bibitem[\protect\BCAY{Tanaka,Tokunaga,\BBA\Shinyama}{Tanakaet~al.}{2004}]{TH2004}Tanaka,H.,Tokunaga,T.,\BBA\Shinyama,Y.\BBOP2004\BBCP.\newblock\BBOQAnimatedAgentsCapableofUnderstandingNaturalLanguageandPerformingActions\BBCQ\\newblockInPrendinger,H.\BBACOMMA\\BBA\Ishizuka,M.\BEDS,{\BemLife-LikeCharacters},\mbox{\BPGS\429--444}.Springer.\bibitem[\protect\BCAY{Th\'{o}risson}{Th\'{o}risson}{1994}]{KT1994}Th\'{o}risson,K.~R.\BBOP1994\BBCP.\newblock\BBOQSimulatedPerceptualGrouping:AnApplicationtoHuman-ComputerInteraction\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthAnnualConferenceoftheCognitiveScienceSociety},\mbox{\BPGS\876--881}.\bibitem[\protect\BCAY{Tokunaga,Koyama,\BBA\Saito}{Tokunagaet~al.}{2005}]{TTS2005}Tokunaga,T.,Koyama,T.,\BBA\Saito,S.\BBOP2005\BBCP.\newblock\BBOQMeaningof{Japanese}spatialnouns\BBCQ\\newblockIn{\BemProceedingsoftheSecond{ACL-SIGSEM}WorkshopontheLinguisticDimentionsofPrepositionsandtheirUseinComputationalLinguistics:FormalismsandApplications},\mbox{\BPGS\93--100}.\bibitem[\protect\BCAY{船越\JBA渡辺\JBA栗山\JBA徳永}{船越\Jetal}{2006}]{KF2006}船越孝太郎\JBA渡辺聖\JBA栗山直子\JBA徳永健伸\BBOP2006\BBCP.\newblock\JBOQ知覚的群化に基づく参照表現の生成\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(2),\mbox{\BPGS\79--97}.\end{thebibliography}\begin{biography}\bioauthor{船越孝太郎}{2002年東京工業大学大学院情報理工学研究科修士課程修了.2005年同大学院同研究科博士課程修了.同年同大学院同研究科特別研究員.2006年(株)ホンダ・リサーチ・インスティチュート・ジャパン入社.博士(工学).自然言語理解,音声対話に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,IEEE,AAAI,ISCA各会員.}\bioauthor{渡辺聖}{2006年東京工業大学大学院情報理工学研究科修士課程修了.同年(株)日立製作所入社.公共システム事業部にて自治体システムの開発に従事.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科助教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR各会員.}\end{biography}\biodate\end{document}
V30N02-13
\section{はじめに} label{1}自治体による政策の改善には,都市で暮らす市民の意見を収集し,反映させることが重要となる.また,接客業のサービスの質を向上させるためにも,店員の接客に対する批評や,提供している商品の評価等の意見を反映させることが重要となる.これらの背景から,著者らの先行研究\cite{Ishida2022}では,特定の都市の市民によるTwitter\footnote{\url{https://twitter.com}}のつぶやきから,分析対象の市民意見を自動抽出するためのフレームワークを提案した.このフレームワークでは,人手で作成した市民意見分析コーパスを教師データとして,BERT\cite{bert}を用いたマルチタスク学習モデルをファインチューニングすることで,つぶやきの意見タイプや極性等の複数の属性を推定した.Twitterでは多くのユーザが日頃感じたことを気軽に述べており,市民が生活している都市の自治体による政策や,日頃利用している接客業のサービスに関する多様な市民意見を収集することができる.一方で,市民ユーザが感じたことが,分析対象の都市の市民に特有の意見であるのか,それとも他都市の市民も同様に感じている意見であるのかといった判断には,他都市の市民意見との比較が重要となる.しかし,都市によって自治体の政策やその都市の店舗の接客業のサービスは異なる.そのため,別の都市を対象として市民意見を抽出するには,その都市のつぶやきを対象として,市民意見抽出モデルを訓練するための新たな教師データを作成する必要がある.一方で,すべての都市を対象とした教師データの作成にかかるコストは大きく,こうした実装方法は現実的とはいえない.そこで本研究では,教師データを構築済みの都市(以降,ソース都市と呼ぶ)のデータと,評価対象の別の都市(以降,ターゲット都市と呼ぶ)の比較的少量のデータを活用して,ターゲット都市の市民意見を抽出する手法を提案する.本手法により,これまでに市民意見を抽出していた都市とは異なる都市で新たに市民意見を抽出する際の,教師データ作成にかかるコストを削減することを目的とする.また,ソース都市のデータでファインチューニングを行ったモデルによるターゲット都市のデータへの予測の確信度の情報を活用し,ターゲット都市の教師データを効果的に選定する手法について検証を行う.実験では,政令指定都市である横浜市と札幌市に暮らす市民のつぶやきを対象として構築した市民意見分析コーパスを用いて,都市を横断した市民意見抽出手法の有効性について検証する.また,横浜市と札幌市と比較して人口が少ない仙台市に暮らす市民のつぶやきを対象として,ソース都市と比較して十分なつぶやきが得られない都市をターゲット都市にする際の市民意見抽出手法の有効性について検証する.本研究の貢献は以下の通りである.\begin{enumerate}\item都市を横断した市民意見抽出手法の有効性の検証のため,横浜市民と札幌市民のつぶやきからなる市民意見分析コーパスを作成した.\itemソース都市のデータとターゲット都市の比較的少量のデータを用いて2段階のファインチューニングを行う手法を提案し,各属性の推定における有効性を検証した.\itemターゲット都市の教師データは,ソース都市の教師データでファインチューニングしたモデルによる予測の確信度が高いものを選定して構築することで,アノテーションコストを効果的に削減できることを示した.\end{enumerate}本論文の構成を以下に示す.\ref{2}節では,関連研究について述べる.\ref{3}節では,提案手法の複数の都市を横断した市民意見抽出について述べる.\ref{4}節では,都市を横断した市民意見抽出の実験に使用するコーパスの構築について述べる.\ref{5}節では,都市を横断した各属性のラベル分類の分類精度について,単一都市の訓練データを利用した際の分類精度や,ソース都市のみで訓練した際の分類精度との比較を行い,有効性について検証する.\ref{6}節では,提案手法である都市を横断した市民意見抽出手法を用いて,実際に市民意見を抽出した際の結果と,エラー分析について述べる.最後に\ref{7}節において,本論文のまとめを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{2}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{都市ごとの市民意見の分析に関する研究}\label{2-1}行政による政策や接客業のサービスは都市によって異なるため,ソーシャルメディア上の市民意見も市民が生活している都市によって異なる.しかし,全ての都市で人手で教師データを作成するのはコストが高いため,都市ごとに市民意見の分析を行っている研究では,絵文字を用いたルールベース手法でつぶやきの極性を判定する手法\cite{vosoughi2015}や,つぶやきを用いて事前学習された公開済みのモデル\cite{barbieri2020}による予測によって,自身の研究に用いるつぶやきの極性を自動推定する手法\cite{Stelzm2021,jin2021}が用いられている.これらの手法では,アノテーションコストを抑えた上で市民意見の分析ができる一方で,都市によって市民意見の傾向が異なるにも関わらず,全ての都市に対して同じ手法で市民意見を分析している.また,ルールベースで全てのつぶやきの極性を一括で分類する手法では,人手によるアノテーションとは異なる結果が得られてしまう\cite{vosoughi2015}.そのため,本研究では,ターゲット都市においても,アノテーションコストを抑えた上で比較的少量のアノテーションデータを作成し,ソース都市における教師データと組み合わせて使用することで,都市ごとに異なる市民意見に対応する手法を提案する.また,上記の意見分析研究では,肯定や否定といった極性のような特定の観点からつぶやきに表れる市民意見の分析を行っている.しかし,実際の市民意見は多様であり,特定の観点のみの分析では,多様な市民意見の整理は難しい.そこで本研究では,アプレイザル理論に基づく意見タイプを含む,複数の観点からの分析を行うことで,多様な市民意見の整理を試みる.アプレイザル理論\cite{appraisal}は,選択体系機能言語学(systemicfunctionallinguistics)\cite{SFL}の立場から提案された,意見を体系化する理論であり,アプレイザル理論を用いることで,意見の対象に着目した分析を行うことができる.アプレイザル理論において,テキストに現れる感情(attitude)は,「自発的感情の表明(affect)」,「人間・組織の振舞や行為を対象とした批評(judgment)」,「事物・事象を対象とした評価(evaluation)」の3種類に分類される.市民の抱える不安を抽出する際には「自発的感情の表明」が重要となり,行政や接客業の店員に対する批評を抽出する際には「人間・組織の振舞や行為を対象とした批評」が重要となる.また,飲食店で提供される商品の評価を分析する際には「事物・事象を対象とした評価」が重要となるように,アプレイザル理論によって意見を体系化することで,目的に応じた市民意見の抽出が可能となる\cite{Ishida2022}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーションコストの削減に関する研究}\label{2-2}コストを削減し,新たなアノテーションデータを効果的に作成する手法としては,能動学習(activelearning)\cite{Settles2010,Ren2021}が有効であり,意見分析研究においても活用されている\cite{stem2016,Wu2017,Shim2021}.能動学習では,はじめにアノテーション済みのデータを活用してモデルの訓練を行い,訓練後のモデルを用いて,アノテーションが行われていないデータから新たに人手でアノテーションを行うべきデータを選定する.この際,新たなアノテーション候補となるデータの選定手法としては,モデルの予測の確信度が低いデータを選定する手法\cite{Lewis1994}が一般的に用いられている.この手法では,学習済みのモデルを用いて高い確信度で予測できるデータに対しては新たにアノテーションは行わず,モデルの予測の確信度が低く,学習が不十分なデータに対してのみ人手でアノテーションをすることで,モデルの予測性能を向上させている.一方で,限られたデータを活用してモデルの性能を向上させる手法としては,半教師あり学習(semi-supervisedlearning)\cite{Zhu2008,Jesper2020}が有効な手法であり,意見分析研究においても用いられている\cite{HE2011606,Silva2016,Peng2018,Chen2019,Salim2021}.半教師あり学習の中でも,自己訓練(self-training)\cite{Yarowsky1995,HE2011606,Salim2021}や,共訓練(co-training)\cite{Blum1998,Peng2018,Chen2019}の手法では,能動学習と同様に,はじめにアノテーション済みのデータを活用してモデルの訓練を行い,訓練後のモデルを用いて,アノテーションが行われていないデータに対する予測を行う.しかし,能動学習手法とは逆に,モデルの予測の確信度が高いデータに対して,モデルによる予測結果を正解ラベルとして自動的に付与することで,アノテーションを行うことなく教師データを拡張する.本研究においては,ソース都市で訓練したモデルによるターゲット都市のつぶやきへの予測の確信度を用いて,新たにアノテーションすべきデータの選定を行う.そこで,実験において,ソース都市におけるモデルの予測の確信度が高いデータを選定する手法とモデルの予測の確信度が低いデータを選定する手法のどちらが有効であるかを検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マルチタスク学習とT5}\label{2-3}マルチタスク学習\cite{multitask}とは,共通のモデルを用いて関連する複数のタスクを同時に学習することで,各タスクを独立して学習するよりも高い精度を実現できる手法である.マルチタスク学習では,異なるタスクの学習によって得られた情報が帰納バイアス(inductivebias)\cite{Mitchell80}としての役割を果たすことで,モデルの一般性を向上し,未知のデータに対する予測性能を高めることができる.本研究における市民意見抽出では,市民意見の整理のために複数の属性の分類タスクを行うため,マルチタスク学習を用いて関連のある属性を同時に分類することで,各属性の分類精度の向上が期待できる.著者らの先行研究\cite{Ishida2022}では,BERT\cite{bert}を用いたマルチタスク学習手法であるMulti-TaskDeepNeuralNetworks\cite{mtdnn}を参考にマルチタスク学習モデルを構築したが,本研究では,BERTと比較して多くのタスクで高い性能を示す,T5モデル\cite{T5}を用いてマルチタスク学習モデルを構築する.T5は分類タスクや回帰タスク,翻訳タスクなどの全ての自然言語処理タスクの入出力を全てテキストとして統一された形式で扱うことで,単一のモデル構造で多くのタスクにファインチューニング可能であり,マルチタスク学習モデルの構築に適した言語モデルである.本研究では,各属性の分類実験において,マルチタスク学習の有効性,並びに,BERTモデルと比較した際のT5モデルの有効性を検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法:複数の都市を横断した市民意見抽出} \label{3}本研究における都市を横断した市民意見抽出では,先行研究\cite{Ishida2022}で用いた意見分析コーパスを複数の都市に拡張し,ソース都市のつぶやきとターゲット都市の比較的少量のつぶやきを用いて2段階のファインチューニングを行う手法の評価を行う.本研究では,複数の都市において,新型コロナウイルス感染症の流行によって休園や登園自粛で大きな問題となった「保育園」と,同じく新型コロナウイルス感染症の流行によって急激に利用者が増加した「飲食店のテイクアウト」のサービスに関連するキーワードを含むつぶやきを対象として,\ref{3-1}節で述べる複数の属性に対するラベルを付与した市民意見分析コーパスを人手で作成する.次に,作成した市民意見分析コーパスを教師データとして,都市を横断した各属性のラベル分類モデルを訓練する.そして,訓練した分類モデルにターゲット都市の未知のつぶやきを入力し,各属性のラベルを推定することで,つぶやきに複数の属性に対するラベルを自動で付与する.これらの属性に対して必要とするラベルを条件として指定することで,ターゲット都市の未知のつぶやきから指定された条件を満たす市民意見のみを抽出することができる.そこで,\ref{3-1}節でつぶやきに付与する各属性を定義し,\ref{3-2}節で複数の属性を用いた市民意見抽出手法について説明する.そして,\ref{3-3}節で,\ref{3-2}節の手法を拡張し,都市を横断した市民意見抽出を行う手法について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{付与する属性の定義}\label{3-1}本研究では,保育園と飲食店のテイクアウトの2つのサービスのつぶやきを対象として,市民意見抽出を行う.本節では,意見に関連する属性を複数定義するが,1つのつぶやきには複数の意見が含まれることが多い.そのため,意見に直接関連する属性(\ref{3-1-1}節で定義する3つの属性)については,1つの意見を含む文,もしくは節を対象に属性のラベルを付与する(以降,1つの意見を含む文,もしくは節を意見ユニットと呼び\cite{seki2010ntcirov},意見ユニットに付与する属性を意見属性と呼ぶ.一方で,\ref{3-1-2}節で定義する,つぶやき全体に付与する属性は,以降,つぶやきの属性と呼ぶ.).また,各サービスに関して,事前に意見を抽出したいと考えている特定の話題については,あらかじめ話題との関連性を判断するモデルを訓練しておくことで,特定の話題に関連するつぶやきのみを自動抽出する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{意見ユニットに付与する意見属性}\label{3-1-1}\begin{itemize}\itemアプレイザル意見タイプ\\アプレイザル理論に基づき,対象に着目した意見のタイプを判断する.ラベルの選択肢は「自発的感情の表明」,「人間・組織の振舞や行為を対象とした批評」,「事物・事象を対象とした評価」,「該当無し」.\item極性\\従来の意見分析研究でも用いられている,つぶやきの極性を判断する.ラベルの選択肢は「肯定」,「否定」,「中立」,「意見無し」.\itemコミュニケーション意見タイプ\\モダリティおよび言語行為論を参考にして\cite{otsuka2007},アプレイザル理論に含まれない意見タイプを判断する.これによって意見の網羅性を高める.ラベルの選択肢は「推測」,「提案」,「疑問」,「要求」,「該当無し」.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{つぶやき全体に付与するつぶやきの属性}\label{3-1-2}\begin{itemize}\item地域依存性\\意見に地域依存性があるか,すなわち,その都市で暮らす市民特有の意見か,もしくは社会一般的な意見かを判断する.地域に依存するとは,市や県等の地名や,地域の特定が可能な飲食店等の施設名を含むもの,もしくはつぶやきの内容が市民の暮らす地域に関するものである,と定義する.ラベルの選択肢は「依存」,「非依存」.\itemサービスとの適合性\\この属性は,各サービスに関連するキーワードを含むが,内容は適合しないつぶやきからの意見抽出を避けるために定義する.ラベルの選択肢は「適合」,「不適合」.\item投稿主の立場\\どのようなユーザによって投稿されたつぶやきであるかを判断する.ラベルの選択肢は,保育園サービスが「小さい子を持つ親」,「保育園関係者」,「その他」,飲食店のテイクアウトサービスが「店を利用した人」,「飲食店の従業員」,「その他」.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{特定の話題との関連性(保育園サービス)}\begin{itemize}\item休園・登園自粛との関連性\\新型コロナウイルス感染症によって大きな問題となった,保育園の休園や登園自粛といった話題との関連性を判断する.ラベルの選択肢は「関連する」,「関連しない」.\item保育園の定員との関連性\\横浜市で大きな問題となっている待機児童問題や,保育園の合否のような保育園の定員の話題との関連性を判断する.ラベルの選択肢は「関連する」,「関連しない」.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{特定の話題との関連性(飲食店のテイクアウトサービス)}\vspace{0.9mm}\begin{itemize}\item商品の評価との関連性\\商品の味や量,提供状態等の評価を含むかを判断する.ラベルの選択肢は「関連する」,「関連しない」.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{複数の属性を用いた市民意見抽出手法}\label{3-2}複数の属性を用いた市民意見抽出手法を図\ref{model}に示す.本手法では,はじめに,各サービスに関連するキーワードを含むつぶやきを収集し,収集したつぶやきを複数の意見ユニットに分割する.意見ユニットに付与するアプレイザル意見タイプ,極性,コミュニケーション意見タイプの3つの意見属性については,全て意見ユニット内の同じ意見についての属性であることから,これらの属性の推定タスクには関連性がある.そのため,意見属性のラベル分類では,マルチタスク学習による精度向上が期待できる.先行研究\cite{Ishida2022}では,事前学習モデルとしてBERTを用いていたが,本研究では,よりマルチタスク学習に適したモデルとしてT5を用いる.一方でつぶやきの属性は,属性間に関連性は無いため,各属性を独立のT5モデルを用いて分類する.そして,これらのモデルの分類結果を利用して,複数の属性に対するラベルを意見ユニット,つぶやきに付与し,属性の条件を指定することで,全ての条件を満たすつぶやきのみを抽出する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia12f1.pdf}\end{center}\caption{複数の属性を用いた市民意見抽出手法}\label{model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{30-2ia12f2.pdf}\end{center}\caption{都市を横断した市民意見抽出}\label{transfer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{都市を横断した市民意見抽出}\label{3-3}\ref{3-2}節の複数の属性を用いた市民意見抽出手法を拡張し,都市を横断した市民意見抽出を行う手法を図\ref{transfer}に示す.ここでは,はじめに正解ラベル付きのソース都市のつぶやきを教師データとして,各属性の分類モデルの1段階目のファインチューニングを行う.続いて,ソース都市のつぶやきでファインチューニングを行った各属性の分類モデルを用いて,ターゲット都市のつぶやきの各属性のラベルを予測する.この際,モデルの予測の確信度を同時に出力することによって,予測の確信度が付与された状態のターゲット都市のつぶやきを得る.そして,予測の確信度を用いて抽出した一部のつぶやきに対して,人手による各属性に対するラベルのアノテーションを行い,正解ラベル付きのターゲット都市の一部のつぶやきを得る.\ref{2-2}節で述べたように,ターゲット都市におけるつぶやきから確信度が上位のつぶやきあるいは確信度が下位のつぶやきのどちらを選定する手法が有効であるかを,\ref{5}節の都市を横断した各属性のラベル分類実験において検証する.こうして得られた正解ラベル付きのターゲット都市の一部のつぶやきを教師データとして,ソース都市のデータによる1段階目のファインチューニングを行ったモデルからパラメータを保存済みの各属性の分類モデルについて,2段階目のファインチューニングを行う.そして,\ref{3-2}節で述べた手法によって,ターゲット都市のつぶやきを対象として,複数の属性を用いた市民意見抽出を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{市民意見分析コーパス} \label{4}本節では,都市を横断した市民意見抽出手法の評価に用いる,複数の都市の市民のつぶやきからなる市民意見分析コーパスについて述べる.\ref{4-1}節では,本研究で使用するつぶやきの収集方法について述べ,\ref{4-2}節で,つぶやきに対する人手によるアノテーションについて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{つぶやきの収集方法}\label{4-1}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{市民アカウントの収集}\label{4-1-1}はじめに,Twitterのプロフィール情報に基づき,各都市の市民アカウントを収集する\cite{deimnagashima}.市民アカウントの収集においては,まず,ツイプロ\footnote{\url{https://twpro.jp/}}の検索APIを用いて,Twitterのプロフィール内の所在地欄,またはプロフィール本文に,「神奈川区」や「戸塚区」といった各都市の行政区,もしくは,(神奈川区内の)「青木町」,(戸塚区内の)「秋葉町」のような,行政区内の町名が含まれるアカウントを収集する\footnote{ツイプロの検索APIには検索上限が存在するため,このように多くの区名や町名をクエリとして検索を行うことで,収集可能な市民アカウントを増やしている.}.次に,以下の方法に基づき,収集したアカウントが各都市の市民のアカウントであるかを判定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{市民アカウントの判定}はじめに,有名人のアカウントやbotからのつぶやきの収集を避けるため,3,000以上のフォロワー数,もしくは4,000以上のフォロー数のアカウントは除去する.また,上記のツイプロの検索APIを用いたアカウントの収集では,横浜市中区のアカウントの収集を行う際には,「中区」を検索クエリの1つとする.しかし,中区という区名は,横浜市のみではなく,岡山市や広島市にも存在するため,上記の方法のみでは他都市の市民アカウントも同時に収集してしまう.そこで,判定対象のアカウントのプロフィールの所在地欄を参照し,事前に定めた,各都市の市民アカウントがプロフィールに記述すると考えられるキーワードとのマッチングを行う.そして,キーワードとマッチした場合は,判定対象のアカウントを市民アカウントと判定する.横浜市と札幌市において,事前に定めたキーワードは以下の通りである.\\\begin{itemize}\item横浜市:よこはま,ヨコハマ,横浜,yokohama,横濱,はまっこ,赤レンガ,赤煉瓦\item札幌市:さっぽろ,サッポロ,札幌,sapporo\end{itemize}なお,プロフィールの所在地欄に「→」や「/」の記号が含まれる場合,「川崎→横浜→新宿」のように,過去に在住していた都市の遷移を記している可能性がある.そのため,「→」や「/」の記号が含まれる場合は,最後の「→」,もしくは「/」以降のテキストのみを抽出し,上記のキーワードとのマッチングを行う.また,プロフィールの所在地欄が空欄の場合,もしくは,所在地欄を対象としたキーワードマッチングでは市民のアカウントと判定されなかったものの,MeCab\footnote{\url{https://taku910.github.io/mecab/}}を用いた形態素解析の結果,所在地欄に地域を表す単語が含まれていたアカウントについては,上記の所在地欄を対象としたキーワードとのマッチングをプロフィールの本文を対所として行い,マッチしたアカウントのみ,市民アカウントと判定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{市民アカウントの拡張}ツイプロの検索APIを用いた方法で収集した市民アカウントをフォローしているアカウントも,同様に対象都市の市民アカウントである可能性がある.そこで,さらにアカウントのフォロー関係を参照し,市民アカウントの拡張を行う.市民アカウントの拡張では,まず,ツイプロの検索APIを用いた方法で収集したアカウントのうち,上記の判定方法で対象都市の市民アカウントであると判定されたアカウントのフォロワーを全て取得する.そして,取得した市民アカウントのフォロワーのアカウントに対しても,同様に上記の市民アカウントの判定を行う.判定の結果,対象都市の市民アカウントの条件を満たすアカウントについては,市民アカウントとすることで,つぶやきの収集対象となる市民アカウントを拡張する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{市民アカウントによるつぶやきの収集}\label{4-1-2}\ref{4-1-1}節の方法を用いて,横浜市民アカウント82,583件と札幌市民アカウント64,790件を収集し,これらの各都市の市民アカウントのつぶやきを,TwitterのStreamingAPIを用いて収集した.これらのつぶやきのうち,2020年1月1日から2020年7月11日までの横浜市民の計28,971,414件のつぶやきと,札幌市民の計19,286,694件のつぶやきから,「保育園」,「保育士」,「保活」,「待機児童」の単語を含むつぶやきを保育園サービスのつぶやきとして収集し,「持ち帰り」,「テイクアウト」の単語を含むつぶやきを飲食店のテイクアウトサービスのつぶやきとして収集した.なお,リツイートや重複するつぶやきは取り除いた.本研究で用いるデータ数は両都市の両サービスに共通で2,622件のつぶやきと,それらを文単位に区切り直したものとする.つぶやきの文単位への区切り直しには,Pythonのライブラリ,spaCy\footnote{\url{https://spacy.io/}}を用いた.この際,名詞のみで構成される文は意見性を含まないものが多いため,spaCyによる区切り直し後に名詞のみで構成された文が抽出された場合,つぶやきの先頭以外に現れる文は1つ前の文に結合し,先頭に現れる文は1つ後ろの文に結合する処理を行った.また,改行は文の区切りとした.さらに,ハッシュタグのみの文も意見を含まないものが多いため,前の文と結合する処理を行った.最後に,閉じ括弧から始まる文については,前の文と結合する処理を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手による各属性のアノテーション}\label{4-2}収集した横浜市民と札幌市民のつぶやきに\ref{3-1}節で定義した各属性に対するラベルを付与するアノテーション作業を人手で行い,市民意見分析コーパスを作成した.アノテーション作業は,各都市ごとに第一著者を含む合計5名の判定者によって行い,全てのアノテーション結果は多数決によって決定した.アノテーション作業では,はじめに各判定者のアノテーション方針を一致させるための訓練を行った.訓練では,保育園サービス250文と飲食店のテイクアウトサービス250文の計500文と,各文を含むつぶやきを対象に,5名全員で各属性のラベルを判定し,判定者のアノテーション方針が一致した時点で訓練を終了した.この際,1文に複数の意見が含まれると判断した場合は,複数の意見が現れない意見ユニットとなるまで分割した.意見ユニットへの分割作業は全員で意見を交換し,過半数の判定者間で意見が一致した文でのみ行った.訓練終了後に,残りの全てのアノテーション作業を行った.第一著者は全てのつぶやき,文のアノテーションを行い,両都市において,残りの4名を2名ずつに分けることで,各3名ずつの2チームを作り,各チームが全体の半数ずつのつぶやき,文のアノテーションを担当した.この際も,1文に複数の意見が含まれると過半数の判定者間で判断が一致した場合は,複数の意見が現れない意見ユニットとなるまで分割した.Fleissの$\kappa$係数\cite{fleiss}を用いた各チームのアノテーションの判定者間一致度を表\ref{kappa}に示す.表\ref{kappa}より,両都市の全ての属性においてFleissの$\kappa$係数は0.6(SubstantialAgreement\cite{landis1977})以上となり,判定者によって属性のラベル判定に大きな差異が生まれないことが示された.なお,各都市のアノテーションにかかる時間は,アノテーション方針を一致させるための訓練が7時間,訓練終了後の全てのアノテーション作業が78時間で,計85時間となっている.ラベルの選択肢が3つ以上存在する属性において,3名のアノテーション結果が全て異なるラベルになる場合や,5名のうち2名ずつがそれぞれ同じラベルを選択し,残りの1名が別のラベルを選択した場合は,多数決によって結果を1つのラベルに定めることができない.このような場合については,判定者間で意見を交換することで,最終的に全ての結果を多数決で決定した.得られた市民意見分析コーパスの各都市におけるつぶやきと意見ユニットのデータ数を表\ref{corpus}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{12table01.tex}%\caption{各属性の判定者間一致度(Fleiss'$\kappa$)}\label{kappa}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{12table02.tex}%\caption{複数都市を対象とした市民意見分析コーパスのデータ数}\label{corpus}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{都市を横断した各属性のラベル分類実験} \label{5}本実験では,横浜市と札幌市の市民のつぶやきからなる市民意見分析コーパスを用いて,\ref{3-3}節の手法による都市を横断した各属性のラベル分類を行い,手法の有効性を検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験の方法}\label{5-1}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{予備実験:単一都市における各属性のラベル分類}著者らの先行研究では,BERTモデルを用いて単一都市における各属性のラベル分類を行う場合,意見属性については,意見属性のすべての属性を同時に学習するマルチタスク学習の手法が有効であり,つぶやきの属性については,各属性について独立に学習する手法が有効であることが示されている.そこで,都市を横断した実験に先立ち,\ref{5-2}節の予備実験において,本研究で用いるT5モデルにおいても,著者らの先行研究と同様の結果が得られるか,また,BERTモデルと比較してT5モデルが有効であるかを単一都市において検証する.意見属性の分類においては,各属性を独立のT5モデルで分類する独立学習の手法を比較手法とし,各属性を1つのT5モデルで分類するマルチタスク学習手法の有効性を検証する.一方で,つぶやきの属性は各属性間に関連性が無いため,すべての属性を1つのT5モデルで分類するマルチタスク学習手法を比較手法とし,各属性を独立のT5モデルで分類する手法の有効性を検証する.さらに,上記のすべての手法について,T5モデルと同様にBERTモデルの精度を算出することで,BERTモデルと比較した際のT5モデルの有効性についても検証を行う.なお,本研究で用いるBERTモデルとT5モデルは,PythonのHuggingFacetransformersライブラリの事前学習済みモデル\footnote{BERTモデル:\url{https://huggingface.co/cl-tohoku/bert-base-japanese-v2}\\T5モデル:\url{https://huggingface.co/sonoisa/t5-base-japanese}}を用いてファインチューニングを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{都市を横断した各属性のラベル分類}\ref{5-3}節の都市を横断した各属性のラベル分類実験では,はじめにソース都市の市民意見分析コーパスの全データを用いて,各属性の分類モデルをファインチューニングする.次に,ターゲット都市のデータを25\%,50\%と一部用いることで,ソース都市で訓練済みのモデルを再度ファインチューニングする.ターゲット都市から一部使用するデータの選択については,以下の手法について比較を行う.\begin{itemize}\item25\%のデータを用いる場合\\(1)モデルの予測の確信度が上位25\%のデータを使用する手法;(2)モデルの予測の確信度が下位25\%のデータを使用する手法;(3)ランダムに25\%選択する手法.\item50\%のデータを用いる場合\\(1)モデルの予測の確信度が上位50\%のデータを使用する手法;(2)モデルの予測の確信度が下位50\%のデータを使用する手法;(3)モデルの予測の確信度が中間の50\%のデータを使用する手法;(4)モデルの予測の確信度上位25\%と下位25\%のデータを使用する手法;(5)ランダムに50\%選択する手法.\end{itemize}モデルの予測の確信度を用いたデータの選択では,はじめにソース都市のデータを使ってT5モデルをファインチューニングし,市民意見分析コーパスに含まれるターゲット都市の全てのデータの各属性のラベルを推定する.そして,ターゲット都市のデータのうち,モデルの予測の確信度\footnote{T5モデルの予測の際に使用しているビームサーチのスコア(HuggingFacetransformersライブラリ中では,パラメタsequences\_scoresと定義)のうち,予測ラベルに対応するスコアを確信度とする}の情報を用いて,2段階目のファインチューニングに用いるためのデータを選択する.\ref{5-3-3}節において,都市を横断した各属性のラベル分類実験の考察を行う.\ref{5-3-3}節の考察では,モデルの予測の確信度が上位のつぶやきを用いる場合と確信度が下位のつぶやきを用いる場合の双方の手法において,作成された教師データの各属性のラベルの分布を算出することで,手法ごとに得られる教師データの特徴を分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{都市を横断した市民意見抽出手法の有効性の検証}\ref{5-4}節では,都市を横断した各属性の分類精度と,都市を横断せずに単一都市のデータを用いてラベル分類を行った際の各属性の分類精度,ソース都市のみで訓練した際の分類精度の比較を行うことで,都市を横断した市民意見抽出手法の有効性の検証を行う.はじめに,ソース都市のデータのみで訓練を行ったモデルによる,ターゲット都市の各属性のラベル分類精度を算出する.これによって,市民が異なる意見を抱える複数の都市において,ターゲット都市のデータを一切用いない場合,つまり,訓練データとテストデータの都市が異なる場合に,各属性のラベル分類精度がどの程度低下するのかを検証する.また,単一都市における各属性に対するラベルの分類では,ターゲット都市の100\%のデータを用いてラベル分類を行っているのに対し,都市を横断した各属性に対するラベルの分類では,ソース都市のデータを100\%用いているものの,ターゲット都市のデータは50\%しか用いていない.そのため,これらの手法を比較することによって,既存の都市とは異なるターゲット都市で市民意見の分析を行う際に,データ作成コストを半減した状態で,精度差をどの程度まで抑えられるかを検証する.都市を横断した各属性に対するラベルの分類には,\ref{5-3}節において最高精度となった手法を用い,都市を横断せずに単一都市のデータを用いて各属性に対するラベルの分類を行う手法には,\ref{5-2}節において最高精度となった手法を用いる.ソース都市のみで訓練した際の各属性に対するラベル分類には,\ref{5-2}節において最高精度となった手法において,訓練データをソース都市,テストデータをターゲット都市とした手法を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{つぶやきの数が十分に得られない都市における提案手法の有効性の検証}最後に,\ref{5-5}節において,つぶやきの数が十分に得られない都市における提案手法の有効性の検証を行う.\ref{4}節で作成した市民意見分析コーパスでは,横浜市と札幌市の双方において2,622件と同じ量のつぶやきを用いている.しかし,全ての都市において横浜市や札幌市と同じ量のつぶやきが得られるとは限らない.そこで本節では,横浜市や札幌市と比較して,収集可能な保育園サービスのつぶやきの数が半数以下となっている仙台市を対象として,提案手法の有効性の検証を行う.\ref{5-5}節では,前述した都市を横断した各属性のラベル分類と同様の実験について,横浜市と札幌市をそれぞれソース都市とし,仙台市をターゲット都市とした場合の検証を行う.さらに,都市を横断した仙台市の各属性のラベル分類精度と,都市を横断せずに仙台市単一のデータを用いてラベル分類を行った際の分類精度,ソース都市である横浜市と札幌市のみのデータを用いて訓練した際の分類精度との比較を行うことで,前述した都市を横断した市民意見抽出手法の有効性の検証を,仙台市をターゲット都市として行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{各属性の分類実験に用いる評価指標}本実験の評価指標は全てF値とし,5分割交差検証を用いてコーパス内の全てのデータの各属性の分類精度を算出する.5分割交差検証の各検証では,全体の20\%のデータをテストデータ,16\%のデータを検証データ,64\%のデータを訓練データとして用いる.テストデータについては,全ての実験で同じデータを用いる.ターゲット都市のデータを25\%,50\%用いる手法では,モデルの2段階目のファインチューニングに使用する5分割交差検証における訓練データ,検証データの割合を変化させる.ファインチューニングのエポック数は,5分割交差検証の各検証において,2,3,4,5エポックのうち,検証データにおけるF値が最も高いものを用いる.なお,\ref{5-4}節,\ref{5-5-3}節で行う,ソース都市のみで訓練を行ったモデルによるターゲット都市の各属性のラベル分類では,訓練データとテストデータの都市が異なり,完全に別のデータとなるため,5分割交差検証は行わない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{12table03.tex}%\hangcaption{T5モデルとBERTモデルを用いた際のマルチタスク学習手法と各属性独立学習手法の\underline{意見属性}のラベル分類精度の比較(F値)}\label{BERT_unit}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{12table04.tex}%\hangcaption{T5モデルとBERTモデルを用いた際の各属性独立学習手法とマルチタスク学習手法の\underline{つぶやきの属性}のラベル分類精度の比較(F値)}\label{BERT_tweet}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{予備実験:単一都市における各属性のラベル分類の結果}\label{5-2}単一都市のデータを用いて行った予備実験の結果を表\ref{BERT_unit},表\ref{BERT_tweet}に示す.\begin{itemize}\item表\ref{BERT_unit}より,意見属性のラベル分類では,全ての属性においてT5モデルを用いたマルチタスク学習手法が最高精度となっている.さらに,提案手法と比較した際に,全ての手法において,1対の対応のある両側$t$検定で有意差が有り(有意水準5\%),その効果量(Pearson's$r$)が大きい(large\cite{cohen})ことを確認した\footnote{表\ref{BERT_unit},表\ref{BERT_tweet}の$r$(効果量)はPearson's$r$を示しており,$0.5\leqqr$で大きい(large),$0.3\leqqr<0.5$で中程度(middle),$0.1\leqqr<0.3$で小さい(small)とされている\cite{cohen}.以降の表でも効果量は同様にPearson's$r$を用いる.}.この結果から,T5モデルを用いた場合においても,先行研究のBERTモデルと同様に,意見属性の分類にはマルチタスク学習手法が有効であると分かる.また,T5モデルとBERTモデルのマルチタスク学習手法のラベル分類の精度を比較すると,全ての属性でT5モデルのマルチタスク学習手法が高精度となっていることから,意見属性のラベル分類におけるT5モデルの有効性が示された.\end{itemize}\begin{itemize}\item表\ref{BERT_tweet}より,つぶやきの属性では,横浜市,札幌市の全18属性のうち,13属性でT5を用いた各属性独立学習の手法が最も高い精度となっている.各属性独立のT5モデルとマルチタスク学習を用いたT5モデルを比較すると,横浜市の保育園サービスの地域依存性,定員との関連性,札幌市の保育園サービスの地域依存性の3属性でのみマルチタスク学習が独立学習を上回る精度となっているが,これらの属性においても,F値の精度差は0.02未満と小さい.よって,つぶやきの属性については,各属性独立のT5モデルを用いる手法が有効であると分かる.また,T5モデルの各属性独立学習とBERTモデルの各属性独立学習を比較した際に,札幌市のテイクアウトサービスの地域依存性以外の全ての属性で,T5モデルが高精度となっている.さらに,札幌市のテイクアウトサービスの地域依存性についてもF値の差が0.001と極めて小さいことから,つぶやきの属性についても,BERTモデルと比較してT5モデルが有効であると分かる.\end{itemize}以上の予備実験の結果を踏まえ,\ref{5-3}節の都市を横断した各属性の分類実験においては,意見属性の分類にはT5モデルを用いたマルチタスク学習手法を使用し,つぶやきの属性の分類には,T5モデルを用いて各属性を独立にラベル分類する手法を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{都市を横断した各属性のラベル分類の実験結果}\label{5-3}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{都市を横断した意見属性のラベル分類精度}\label{5-3-1}都市を横断した意見属性のラベル分類の精度を表\ref{25_unit},表\ref{50_unit}に示す.\begin{itemize}\item表\ref{25_unit}より,ターゲット都市の25\%のデータを用いて都市を横断した分類を行う場合,全ての属性において,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2段階目のファインチューニングを行う手法が最高精度となっている.\end{itemize}\begin{itemize}\item表\ref{50_unit}より,ターゲット都市の50\%のデータを用いる場合は,横浜市のテイクアウトサービスのコミュニケーション意見タイプを除いて,全ての属性で1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定する手法が最も高精度となっており,さらに,ターゲット都市の25\%のデータを用いる場合よりも高精度となっている.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{12table05.tex}%\caption{ターゲット都市の25\%のデータを用いた都市を横断した\protect\underline{意見属性}のラベル分類精度(F値)}\label{25_unit}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{12table06.tex}%\caption{ターゲット都市の50\%のデータを用いた都市を横断した\underline{意見属性}のラベル分類精度(F値)}\label{50_unit}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%よって,都市を横断して意見属性の分類を行う際には,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2段階目のファインチューニングを行う手法が有効であることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{12table07.tex}%\caption{ターゲット都市の25\%のデータを用いた都市を横断した\underline{つぶやきの属性}のラベル分類精度(F値)}\label{25_tweet}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{都市を横断したつぶやきの属性のラベル分類精度}\label{5-3-2}都市を横断したつぶやきの属性の分類精度を表\ref{25_tweet},表\ref{50_tweet}に示す.\begin{itemize}\item表\ref{25_tweet}より,ターゲット都市の25\%のデータを用いて都市を横断した分類を行う場合,札幌市の保育園サービスの地域依存性を除く全ての属性で,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2段階目のファインチューニングを行う手法が最も高精度となっている.また,札幌市の保育園サービスの地域依存性においても,確信度上位のデータを選定する手法の精度とランダムにデータを選定する手法の精度差は,0.005と極めて%非常に小さい.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{12table08.tex}%\caption{ターゲット都市の50\%のデータを用いた都市を横断した\underline{つぶやきの属性}のラベル分類精度(F値)}\label{50_tweet}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item表\ref{50_tweet}より,ターゲット都市の50\%のデータを用いる場合は,全18属性中12属性で,1段階目にファインチューニングしたモデルによる予測の確信度が上位のデータを選定して2段階目のファインチューニングを行う手法が高精度となっている.このことから,つぶやきの属性についても,確信度上位のデータを用いる手法が有効であると分かる.しかし,表\ref{50_tweet}より,つぶやきの属性では,確信度上位25\%と下位25\%のデータを合わせた手法が4つの属性については最も高い精度となっている\footnote{確信度上位50\%手法と,確信度上位25\%+下位25\%手法では,1対の対応のある両側$t$検定で有意差が確認できた(有意水準5\%)ものの,効果量$r$は中程度(middle\cite{cohen})である.}.表\ref{25_tweet}では,確信度が下位25\%のデータを使う手法の精度が低いことから,確信度が下位25\%のデータがモデルの分類に有効とはいえない.さらに,つぶやきの属性においては,表\ref{25_tweet}の確信度上位25\%のデータを使用する手法と,表\ref{50_tweet}の確信度上位50\%のデータを使用する手法の精度差が意見属性と比較して小さいそのため,つぶやきの属性は,確信度上位25\%のデータに,モデルの学習に有効なデータが多く含まれていると考えられる.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[p]\input{12table09.tex}%\caption{手法毎に得られる教師データ内の各属性のラベルの割合の分布}\label{distribution}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果の考察}\label{5-3-3}ソース都市のデータを用いて1段階目のファインチューニングを行ったモデルによる,ターゲット都市のデータに対する予測の確信度の情報を用いる手法の影響を分析するため,手法ごとに得られたデータの各属性のラベルの分布を算出した.結果を表\ref{distribution}に示す.表\ref{distribution}の「全体」の列は,コーパス全体の各属性のラベルの分布を示しており,「確信度上位」,「確信度下位」は,それぞれ確信度上位50\%のデータを選定した場合の各属性のラベルの分布と,確信度下位50\%のデータを選定した場合の各属性のラベルの分布を表している.表\ref{distribution}から,確信度上位50\%のデータを選定した場合,各属性のラベルの分布が均衡に近づくことが分かる.例えば,表\ref{distribution}の横浜市のアプレイザル意見タイプに着目すると,コーパス全体では保育園サービスで56.4\%,テイクアウトサービスで73.0\%と,「該当無し」の分布が過半数となっている.しかし,確信度上位50\%のデータの分布を見ると,「該当無し」の割合が減り,他のラベルの割合が高くなっていることが分かる.他の多くの属性においても,同様に確信度上位50\%を選定することで,ラベルの分布が均衡に近づいている.モデルの予測の確信度が高いということは,モデルにとって予測を行いやすいデータであり,特徴的なデータであると考えることができる.そのため,ターゲット都市全体のデータから,ラベルの種類に関わらず,確信度上位のデータのみ,つまり,特徴的なデータのみを選定する手法が,教師データのラベルの分布を均衡に近づけることに繋がり,分類精度が向上したと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{都市を横断した市民意見抽出手法の有効性の検証}\label{5-4}本節では,都市を横断した各属性の分類精度と,都市を横断せずに単一都市のデータを用いて分類を行った際の各属性の分類精度,ソース都市のみで訓練した際の各属性の分類精度を比較する.都市を横断した意見属性の分類では,\ref{5-3}節の結果を踏まえ,ターゲット都市の確信度上位50\%のデータを用いてT5によるマルチタスク学習を行った際の精度を都市横断の精度とする.つぶやきの属性については,ターゲット都市の確信度上位50\%のデータを用いてT5による各属性独立の学習を行った際の精度を都市横断の精度とする.単一都市における分類,ソース都市のみで訓練した際の分類では,\ref{5-2}節の結果を踏まえ,意見属性については各属性をT5によるマルチタスク学習で分類した際の精度を算出し,つぶやきの属性については各属性独立のT5モデルによって分類した精度を算出する.なお,単一都市における分類では,訓練データとテストデータは双方とも同じターゲット都市とし,ソース都市のみで訓練した際の分類では,訓練データをソース都市,テストデータをターゲット都市とする.実験結果を表\ref{one_city_unit},表\ref{one_city_tweet}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[p]\input{12table10.tex}%\caption{\underline{意見属性}の都市を横断した分類精度と単一都市における分類精度の比較(F値)}\label{one_city_unit}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[p]\input{12table11.tex}%\caption{\underline{つぶやきの属性}の都市を横断した分類精度と単一都市における分類精度の比較(F値)}\label{one_city_tweet}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item意見属性の分類では,都市横断手法が全12属性中6属性で高精度となっており,提案手法を用いることで,単一都市における分類精度と同程度の精度で都市横断の分類が行えることが分かる.特に,テイクアウトサービスにおいては,横浜市と札幌市の両都市で極性とコミュニケーション意見タイプが単一都市における分類精度よりも高精度となっており,アプレイザル意見タイプについても,横浜市で精度差が0.005,札幌市で精度差が0.002と極めて小さい精度差となっている.このことから,テイクアウトサービスの意見属性は都市を横断した分類を行いやすいことが分かる.この原因として,保育園サービスについては自治体によって行政による政策の差が大きい一方で,テイクアウトサービスについては,都市によって店名の差等の地域差は存在するが,市民の抱える意見の傾向やつぶやきに現れる意見表現に大きな差が表れないためであると考えられる.一方で,表\ref{one_city_unit}より,ソース都市のみで訓練した際の意見属性の分類では,全ての属性で精度が最も低く,特にアプレイザル意見タイプは,両都市の両サービスにおいて,単一都市における分類精度と比較して0.1以上と大きく精度が低下している.このことから,訓練データとテストデータの都市が異なる場合,つまり,訓練データの都市とテストデータの都市で市民の抱える意見が異なる場合は,事物・事象や人間・組織の振舞といった市民意見の対象や,市民の感情表明を正確に抽出することができないと分かる.また,極性についても,横浜市のテイクアウトサービスを除いて,単一都市における分類精度と比較して0.1以上と大きく精度が低下している.さらに,横浜市のテイクアウトサービスにおいても,0.083と大きく精度が低下していることから,市民の抱える意見が異なる場合は,肯定的な意見や否定的な意見についても正確な分析ができないと分かる.\itemつぶやきの属性については,都市を横断して分類を行った際の精度が,全18属性中15属性で単一都市における分類精度以上の精度となっている.この結果から,つぶやきの属性については,モデルの予測の確信度の情報を用いて効率的にターゲット都市の50\%のデータを選定することで,ターゲット都市の100\%のデータを用いて単一都市で分類を行うよりも高い精度が実現可能であることが分かる.つぶやきの属性については,地域依存性の分類の際には地名や店名が手がかりとなり,休園・登園自粛との関連性のような特定の話題との関連性の分類の際には「休み」,「休園」のキーワードが手がかりとなるように,分類の手がかりが意見属性と比較して明確となっている.そのため,モデルの予測の確信度の情報を用いて特徴的なデータを選定する手法が,意見属性と比較して特に有効であると考える.一方で,表\ref{one_city_tweet}より,ソース都市のみで訓練した際のつぶやきの属性の分類精度については,全18属性中14属性で単一都市における分類精度以下の精度となっている.このことから,つぶやきの属性においても,訓練データとテストデータの都市で市民意見が異なる場合は,分類精度が低下することが分かる.しかし,つぶやきの属性では,意見属性と比較して精度の低下の程度は小さい.\end{itemize}以上の結果から,都市によって市民の抱える意見は異なるため,単純にソース都市のみで訓練したモデルを用いるだけでは,特にアプレイザル意見タイプや極性など,ターゲット都市の市民意見を正確に分析することはできないと分かる.しかし,提案手法である都市横断手法を用いることで,単一のターゲット都市における分類精度と同程度かそれ以上の精度で,ターゲット都市の市民意見を分析できることを明らかにした.よって,提案手法を用いることで,市民意見抽出手法を,市民の抱える意見が異なる複数の都市に適応可能であるといえる.また,確信度上位50\%のデータを選定して2段階目のファインチューニングを行う手法では,各属性のラベル分類に使用するターゲット都市のつぶやきの量を,コーパス全体の2,622件から,50\%の1,311件へと削減することができる.\ref{4-2}節より,各都市のアノテーションにかかる時間は,アノテーション方針を一致させるための訓練が7時間,訓練終了後の全てのアノテーション作業が78時間,計85時間となっている.つぶやきの量を50\%に削減した場合においても,アノテーション方針を一致させるための訓練の時間は同様に7時間確保する必要があるが,訓練終了後の全てのアノテーション作業の時間は,半分の39時間に削減することができる.そのため,新たなターゲット都市において市民意見を抽出する際に,確信度上位50\%のデータを選定して2段階目のファインチューニングを行う手法を用いることで,アノテーションにかかる時間を,85時間から46時間まで減らすことができる.さらに,ソース都市のアノテーションを担当した判定者が新たにターゲット都市のアノテーションを行う場合については,アノテーション方針を一致させるための訓練時間も削減することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{つぶやきの数が十分に得られない都市における提案手法の有効性の検証}\label{5-5}本節では,横浜市と札幌市と比較してつぶやきの数が十分に得られない仙台市を対象として,各属性のラベル分類を行う.仙台市の令和4年12月1日時点の人口は1,099,352人となっており,これは,横浜市の同時点の人口の約29\%,札幌市の同時点の人口の約56\%と,横浜市と札幌市と比較して少なくなっている.そのため仙台市においては,飲食店のテイクアウトサービスのつぶやきは表\ref{corpus}の横浜市と札幌市と同様に2,622件収集可能できたものの,保育園サービスのつぶやきは1,076件と半分以下しか収集できなかった.そこで,これらの仙台市のつぶやきに対して新たにアノテーションを行い,仙台市をターゲット都市として都市を横断した各属性のラベル分類を行うことで,ターゲット都市において十分なつぶやきが得られない場合の提案手法の有効性の検証を行う.なお,本節の都市を横断した各属性のラベル分類実験では,\ref{5-3}節と同様に,意見属性の分類にはT5モデルを用いたマルチタスク学習手法を使用し,つぶやきの属性の分類には,各属性独立のT5モデルを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{仙台市のつぶやきに対する各属性のアノテーション}\label{5-5-1}仙台市をターゲット都市とした実験を行うため,\ref{4-1}節と同様の方法で新たに仙台市のつぶやきを収集した.これらの仙台市のつぶやきに対する各属性のアノテーションでは,はじめに\ref{4-2}節の横浜市と札幌市のアノテーションと同様に,保育園サービス250文と飲食店のテイクアウトサービス250文の計500文と,これらの各文を含むつぶやきを対象としてアノテーションを行う.なお,本アノテーションは,第一著者と,\ref{4-2}節のアノテーション実験に参加した2名のアノテータの,計3名で行う.また,\ref{4-2}節と同様に,1文に複数の意見が含まれると過半数の判定者が判断した場合については,複数の意見が現れない意見ユニットとなるまで分割を行った.保育園サービス250文と飲食店のテイクアウトサービス250文の計500文と,これらの各文を含むつぶやきに対するアノテーションについて,Fleissの$\kappa$係数\cite{fleiss}を用いた各属性の判定者間一致度は,全ての属性において0.6(SubstantialAgreement\cite{landis1977})以上となった.つまり,仙台市においても,判定者によって属性のラベル判定に大きな差異は生まれないことが示されたため,残りのつぶやき,文に対するアノテーションは第一著者が行った.最終的に得られた仙台市のアノテーション済みのデータは,保育園サービスが1,076件のつぶやきと2,994件の意見ユニット,テイクアウトサービスが2,622件のつぶやきと8,114件の意見ユニットとなった.本節では,これらの仙台市のデータをターゲット都市のデータとして,各属性のラベル分類実験を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{12table12.tex}%\caption{仙台市の25\%のデータを用いた都市を横断した\underline{意見属性}のラベル分類精度(F値)}\label{25_unit_sendai}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{都市を横断した仙台市の各属性のラベル分類の実験結果}\label{5-5-2}仙台市をターゲット都市とした,都市を横断した意見属性のラベル分類精度を表\ref{25_unit_sendai},表\ref{50_unit_sendai}に示す.\begin{itemize}\item表\ref{25_unit_sendai}より,仙台市の25\%のデータを用いて都市を横断して意見属性の分類を行う場合,横浜市,札幌市のどちらの都市をソース都市とした場合も,全属性において,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2段階目のファインチューニングを行う手法が最高精度となっている.\item表\ref{50_unit_sendai}より,仙台市の50\%のデータを用いる場合は,札幌市をソース都市とした場合の保育園サービスのコミュニケーション意見タイプを除いて,全ての属性で1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定する手法が最高精度となっている.また,表\ref{25_unit_sendai}の仙台市の25\%のデータを用いる場合と比較して,札幌市をソース都市とした場合の保育園サービスのコミュニケーション意見タイプを除いた全属性で,50\%のデータを用いる手法が高精度となっている.このことから,札幌市をソース都市としてコミュニケーション意見タイプの推定を行う場合,確信度が上位25\%のデータを用いるだけで十分であるものの,多くの属性においては,50\%のデータを用いる手法が有効であると分かる.\end{itemize}以上の実験結果より,意見属性のラベル分類では,ソース都市と比較してターゲット都市のデータが十分に得られない場合においても,ソース都市のデータを用いて1段階目のファインチューニングを行ったモデルによる予測の確信度が上位のターゲット都市のデータを用いて,2段階目のファインチューニングを行う手法が有効であると分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{12table13.tex}%\caption{仙台市の50\%のデータを用いた都市を横断した\underline{意見属性}のラベル分類精度(F値)}\label{50_unit_sendai}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{12table14.tex}%\caption{仙台市の25\%のデータを用いた都市を横断した\underline{つぶやきの属性}のラベル分類精度(F値)}\label{25_tweet_sendai}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{都市を横断したつぶやきの属性のラベル分類精度}仙台市をターゲット都市とした,都市を横断したつぶやきの属性のラベル分類精度を表\ref{25_tweet_sendai},表\ref{50_tweet_sendai}に示す.\begin{itemize}\item表\ref{25_tweet_sendai}より,仙台市の25\%のデータを用いて都市を横断してつぶやきの属性の分類を行う場合,札幌市をソース都市とした場合の保育園サービスの投稿主の立場を除いた全属性で,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2段階目のファインチューニングを行う手法が最高精度となっている.札幌市をソース都市とした場合の保育園サービスの投稿主の立場においても,ランダムに25\%のデータを選択する手法と比較して精度差は0.009と低く,確信度上位のデータを選定する手法が有効であると分かる.\item表\ref{50_tweet_sendai}より,仙台市の50\%のデータを用いる場合は,全18属性中15属性で,1段階目にファインチューニングしたモデルによる予測の確信度が高いターゲット都市のデータを選定し,2段階目のファインチューニングを行う手法が最高精度となっている.また,\ref{5-3-2}節の横浜市と札幌市における実験結果と同様に,表\ref{25_tweet_sendai}の上位25\%のデータを用いる手法と表\ref{50_tweet_sendai}の上位50\%のデータを用いる手法の精度差が意見属性と比較して小さくなっており,表\ref{50_tweet_sendai}より,上位25\%と下位25\%のデータを合わせた手法が3つの属性で最高精度となっている.このことから,ソース都市と比較してつぶやきの数が十分に得られない仙台市をターゲット都市とした場合においても,つぶやきの属性では,確信度上位25\%のデータにモデルの学習に有効なデータが多く含まれていると考えられる.\end{itemize}以上のつぶやきの属性の分類実験の結果より,ソース都市と比較してターゲット都市のデータが十分に得られない場合においても,意見属性と同様に,ソース都市のデータを用いて1段階目のファインチューニングを行ったモデルによる予測の確信度が上位のターゲット都市のデータを用いて,2段階目のファインチューニングを行う手法が有効であると分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[t]\input{12table15.tex}%\caption{仙台市の50\%のデータを用いた都市を横断した\underline{つぶやきの属性}のラベル分類精度(F値)}\label{50_tweet_sendai}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{都市を横断した市民意見抽出手法の有効性の検証}\label{5-5-3}本節では,都市を横断した仙台市の各属性の分類精度と,都市を横断せずに仙台市単一のデータを用いて分類を行った際の各属性の分類精度,ソース都市である横浜市と札幌市のみのデータを用いて訓練した際の仙台市の各属性の分類精度を比較する.都市を横断した意見属性の分類では,\ref{5-5-2}節の結果を踏まえ,\ref{5-4}節と同様に,ターゲット都市の確信度上位50\%のデータを用いてT5によるマルチタスク学習を行った際の精度を都市横断の精度とする.つぶやきの属性についても,\ref{5-5-2}節の結果を踏まえ,\ref{5-4}節と同様に,ターゲット都市の確信度上位50\%のデータを用いてT5による各属性独立の学習を行った際の精度を都市横断の精度とする.単一都市における分類,ソース都市のみで訓練した際の分類では,\ref{5-4}節と同様に,意見属性については各属性をT5によるマルチタスク学習で分類した際の精度を算出し,つぶやきの属性については各属性独立のT5モデルによって分類した精度を算出する.実験結果を表\ref{one_city_unit_sendai},表\ref{one_city_tweet_sendai}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[b]\input{12table16.tex}%\caption{仙台市の\underline{意見属性}の都市を横断した分類精度と単一都市における分類精度の比較(F値)}\label{one_city_unit_sendai}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[t]\input{12table17.tex}%\caption{仙台市の\underline{つぶやきの属性}の都市を横断した分類精度と単一都市における分類精度の比較(F値)}\label{one_city_tweet_sendai}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item表\ref{one_city_unit_sendai}より,仙台市の意見属性の分類では,横浜市と札幌市の両都市において,飲食店のテイクアウトサービスのアプレイザル意見タイプを除く全ての属性で,提案手法である都市を横断した分類手法が最も高い精度となっている.仙台市の飲食店のテイクアウトサービスでは,横浜市と札幌市と同様に2,622件のつぶやきを用いて分類を行っている.そのため,\ref{5-4}節の横浜市と札幌市のつぶやきを用いた都市を横断した意見属性の分類実験における表\ref{one_city_unit}の結果と同様に,アプレイザル意見タイプ以外の属性では提案手法が最も有効となっている.一方で,保育園サービスでは,\ref{5-4}節における表\ref{one_city_unit}の単一都市での分類が有効であるという結果とは異なり,都市を横断した分類手法が全属性で最も高精度であり,ソース都市のつぶやきとターゲット都市の一部のつぶやきを用いた2段階のファインチューニング手法が有効であると分かる.保育園サービスでは,ソース都市である横浜市と札幌市と比較して十分なつぶやきの量が得られず,ソース都市の半数以下のデータを用いてモデルの訓練を行っている.このようにターゲット都市のつぶやきが十分に得られない場合においては,ソース都市とターゲット都市の双方においてつぶやきの量が十分に得られている表\ref{one_city_unit}の場合と比較して,ソース都市のつぶやきを用いた1段階目のファインチューニングがより有効であり,少ないターゲット都市のデータのみを用いて単一都市で分類を行う手法よりも高い精度が実現可能であると分かる.つまり,新たなターゲット都市において市民意見抽出を行う際に,ターゲット都市のつぶやきが十分に得られない場合においては,既存のソース都市のデータを活用し,提案手法である2段階のファインチューニング手法を適用することで,高精度な意見属性の分類ができると分かる.\item表\ref{one_city_tweet_sendai}より,仙台市のつぶやきの属性の分類では,全18属性中14属性で,提案手法である都市を横断した分類手法が最も高い精度となっている.このことから,\ref{5-4}節の横浜市と札幌市のつぶやきを用いた都市を横断したつぶやきの属性の分類実験における表\ref{one_city_tweet}の結果と同様に,仙台市においても,つぶやきの属性の分類には都市を横断した分類手法が有効であると分かる.しかし,\ref{5-4}節の表\ref{one_city_tweet}とは異なり,保育園サービスでは,3つの属性でソース都市のみで訓練を行う手法が最高精度となっている.提案手法である都市を横断した分類手法と,ソース都市のみで訓練した手法の精度差が最も大きい属性は,横浜市をソース都市とした場合の定員との関連性となっており,その他の属性では精度差は0.01以下と小さい.表\ref{distribution}より,横浜市の保育園サービスにおける定員との関連性属性の「関連する」ラベルの割合は9.7\%であり,札幌市の5.7\%と比較して多くの市民が保育園の定員についての意見をつぶやきとして投稿していると分かる.また,仙台市における定員との関連性属性の「関連する」ラベルの割合は3.3\%となっていた.横浜市においては待機児童問題が全国の都市の中でも極めて顕著であり,このように他都市と比較して多くの市民が保育園の定員に関するつぶやきを投稿していることが,横浜市をソース都市とした場合にソース都市のみで訓練する手法が高精度となる結果の原因であると考える.しかし,横浜市をソース都市とした場合の保育園の定員においても,精度差は0.012と大きな差が無く,その他の多くの属性においては都市を横断した手法が高い精度となっていることから,仙台市をターゲット都市とした際のつぶやきの属性においても,都市を横断した手法が有効であると分かる.\end{itemize}以上の実験結果より,ソース都市と比較してつぶやきが十分に得られない都市をターゲット都市とした場合においても,提案手法である都市を横断した各属性の分類手法が有効であると分かった.特に意見属性の分類においては,ターゲット都市のつぶやきが十分に得られる場合と比較して,ターゲット都市単一で分類を行う手法に対して都市を横断した手法がより有効であることを実験から明らかにした.また,横浜市をソース都市とした場合の保育園サービスにおける定員との関連性属性のように,地域によって話題が盛んなごく一部の属性ではソース都市のみで訓練した手法がわずかに有効であるものの,その他の大部分の属性においては,提案手法である都市を横断した各属性の分類手法が,ソース都市に関わらず有効であると分かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法により抽出した市民意見の都市別比較分析} \label{6}本節では,\ref{3}節の提案手法を用いて実際に都市を横断した市民意見抽出を行い,横浜市民と札幌市民の市民意見を比較して分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{市民意見の分析方法}\label{6-1}はじめに,\ref{6-2}節において,テストデータの拡張を行う.これによって,コーパスに含まれるつぶやきのみではなく,未知のつぶやきも対象とした市民意見の分析を行う.\ref{6-3}節では,\ref{6-2}節で作成したテストデータに対して,都市を横断して各属性の予測を行う.続いて,モデルの予測結果をもとに,市民意見の出現頻度の時系列順の10日間ごとの推移を分析する.時系列順の分析に用いるつぶやきは,保育園サービスでは休園・登園自粛に関連するとモデルが予測したつぶやき,テイクアウトサービスでは,全つぶやきとする.最後に,時系列に加えて,各属性の条件を指定することで,市民意見を自動抽出する.都市を横断した各属性の分類モデルについては,\ref{5-3}節の結果を踏まえて,意見属性の分類にはターゲット都市の確信度上位50\%のデータを活用したマルチタスク学習モデルを使用し,つぶやきの属性の分類にはターゲット都市の確信度上位50\%のデータを活用した各属性独立の分類モデルを使用する.\ref{6-4}節では,都市を横断した市民意見抽出結果の考察を行う.はじめに\ref{6-4-1}節において,提案手法を利用したターゲット都市に特有の市民意見の抽出の可能性について検証を行う.都市で暮らす市民の抱える意見が,その都市に特有の意見であるかを分析するには,他の都市の市民意見との比較が重要となる.\ref{5-4}節の表\ref{one_city_unit},表\ref{one_city_tweet}より,ソース都市のみで訓練したモデルによる各属性のラベル分類精度と比較して,都市を横断した各属性のラベル分類精度は向上している.ターゲット都市のデータを一部用いることではじめて予測が可能になる市民意見は,ソース都市の訓練データ内には存在しないものの,ターゲット都市においては訓練データが存在する意見,つまりターゲット都市に特有の意見と考えることができる.本節では,都市を横断したモデルと,ソース都市のみで訓練したモデルによる予測結果が異なる市民意見を抽出し,ターゲット都市に特有の市民意見の傾向と事例を明らかにする.なお,\ref{5-4}節で示したように,テイクアウトサービスでは,店名等の地域差は存在するものの,意見表現に大きな差は現れにくい.一方で,保育園サービスに関する市民意見では,行政の政策による影響が大きく,都市によって意見に差が現れやすい.そのため本節では,保育園サービスを例に,ターゲット都市に特有の市民意見について考察する.最後に,\ref{6-4-2}節では,提案手法を用いて都市を横断して抽出した市民意見のうち,指定した属性ラベルに対してふさわしくない市民意見を示し,原因についての考察を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テストデータの拡張}\label{6-2}\ref{4}節で作成した市民意見分析用コーパスに含まれるつぶやきに加えて,2020年1月1日から2020年7月11日までのつぶやきを\ref{4}節と同様の方法で収集することで,実験に用いるテストデータの拡張を行った.1月1日から7月11日までの全てのつぶやき数は,横浜市の保育園サービスで9,535件,テイクアウトサービスで21,014件,札幌市の保育園サービスで4,623件,テイクアウトサービスで14,980件であった.\ref{4}節で作成した市民意見分析コーパスは,アノテータの就業可能時間数に合わせて,両サービスとも2,622件のつぶやきを全体からランダムに抽出した.そこで,追加のテストデータとして,\ref{4}節のつぶやきと重複しないように,横浜市の保育園サービスで6,913件のつぶやき,テイクアウトサービスで18,392件のつぶやきを抽出し,札幌市の保育園サービスで2,001件のつぶやき,テイクアウトサービスで12,358件のつぶやきを抽出した.新たに収集したつぶやきから得られた文数は,横浜市の保育園サービスで22,256文,テイクアウトサービスで54,772文であり,札幌市の保育園サービスで5,986文,テイクアウトサービスで36,145文であった.さらに,\ref{5-3}節の都市を横断した各属性の分類実験における5分割交差検証のテストデータについても,引き続きテストデータとして使用する.これらの拡張後のデータのデータ数を表\ref{test_data}に示す.市民意見分析コーパス内のテストデータと,表\ref{test_data}のうちの新たに収集したデータを合わせたデータを,全てのテストデータとし,これらのテストデータに対して都市を横断した各属性のラベル分類モデルによる予測を属性のラベルとして付与することで,市民意見の分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table18\begin{table}[t]\input{12table18.tex}%\caption{複数都市を対象とした市民意見分析コーパスの拡張データのデータ数}\label{test_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析結果}\label{6-3}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{保育園サービス}保育園サービスにおいて,都市を横断した分類モデルによって休園・登園自粛に関連すると推定された市民意見の出現頻度の時系列順の推移を図\ref{yokohama_jisyuku},図\ref{sapporo_jisyuku}に示す.図\ref{yokohama_jisyuku}より,横浜市の休園・登園自粛に関する市民意見は,3つの期間で急増していることが分かる.これらの期間は,(1)横浜市が小中学校の休校を発表した2月下旬,(2)横浜市が保育園の運営を継続する方針を発表した4月上旬,(3)横浜市が緊急事態宣言解除後の保育所等の利用に関する方針を発表した5月下旬,となっており,都市を横断して抽出した市民意見の出現頻度の時系列順の推移が行政の政策と密接に関係していることが分かる.そこで,市民意見数が最大となっている(2)の横浜市が保育園の運営を継続する方針を発表した4月上旬の時期において,地域依存性:依存,サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する,アプレイザル意見タイプ:自発的感情の表明,という条件を満たすつぶやきのみを自動抽出した.抽出された市民意見の例は以下の通りである\footnote{本稿に記載している全てのつぶやきは表現を一部改変している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{30-2ia12f3.pdf}\end{center}\caption{保育園サービスの休園・登園自粛に関する横浜市民意見の出現頻度の時系列順の推移}\label{yokohama_jisyuku}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-2ia12f4.pdf}\end{center}\caption{保育園サービスの休園・登園自粛に関する札幌市民意見の出現頻度の時系列順の推移}\label{sapporo_jisyuku}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\itemいっそのこと休園にしてほしい。でも横浜市は原則開園って。。。\\保育士の皆さんもほんと辛いだろうに。\item超個人的な望みを言わせてもらうと、いっそ保育園を休園にしてくれたら私も仕事を休めるんですがね…(妊婦なのに都内まで電車通勤)\end{itemize}このように条件を指定して4月上旬の市民意見を自動抽出することで,横浜市で暮らす小さい子を持つ親は,コロナ禍で保育園に子供を通わせることに対してどのような感情を抱いているのか,という意見のみを抽出することができる.実際に抽出された市民意見を確認すると,子育て中の横浜市民は,この時期に保育園を開園させるという横浜市の政策に対して反対であり,不満の感情を抱いていることが分かる.このような意見は横浜市で暮らす市民特有の意見となっており,横浜市が政策を改善するために有用な意見となる.本研究の都市を横断した市民意見抽出では,ターゲット都市である横浜市の教師データ作成コストを半減させた上でも,上記のような市民意見を自動抽出することができると分かる.図\ref{sapporo_jisyuku}より,札幌市の休園・登園自粛に関する市民意見は2つのタイミングで増加していることが分かる.これらの時期は,(1)札幌市がはじめてコロナ禍における「家庭保育等の協力のお願い」を発表した2月下旬,(2)北海道・札幌市緊急共同宣言の発令後に,札幌市が重ねて「家庭保育等の協力のお願い」を発表した4月中旬,となっており,札幌市においても,横浜市と同様に都市を横断して抽出した市民意見の出現頻度の時系列順の推移が行政の政策と深く関係していることが分かる.また,都市によって行政の政策は異なるため,市民意見の出現頻度の推移は都市によって異なるが,本研究の都市を横断した市民意見抽出を用いると,図\ref{yokohama_jisyuku}と図\ref{sapporo_jisyuku}のような都市間の市民意見の出現頻度の差を捉えることができると分かる.また,図\ref{sapporo_jisyuku}より,札幌市の市民意見は横浜市の市民意見と異なり,事物・事象を対象とした評価が高い割合を占めることが分かる.そこで,(2)の北海道・札幌市緊急共同宣言の発令後に,札幌市が重ねて「家庭保育等の協力のお願い」を発表した4月中旬の時期において,地域依存性:依存,サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する,アプレイザル意見タイプ:事物・事象を対象とした評価,という条件を満たすつぶやきのみを自動抽出した.抽出された市民意見の例は以下の通りである.\begin{itemize}\item絶対に必要な人は別だけど、やはり保育園は休園とか自粛にはならないのか。色々あるけど、先生も親もどっちも精神的に限界な気がする。。。\#休園\#札幌\#北海道\itemやはり恐れてたことが起こってきた。友人の医療関係者の子供の保育園が預けるのを断ってきたらしい。旦那が各々の事情でいないと母親は働けなくなるよね。本人たちは濃厚接触者ではないのに、現実で差別が起きてきてる。\#札幌市\#保育園\#登園拒否\end{itemize}横浜市での市民意見抽出と異なり,札幌市では,事物・事象を対象とした評価という条件で市民意見を抽出している.これによって,コロナ禍において保育園が休園にならないという現状に対する混乱を表す意見や,保育園で起こってしまった差別といった特定の事象に対する意見を抽出できる.このようなつぶやきからは,市民が具体的にどのような事象を対象として意見を述べているか,つまり何に困っているかが分かるため,政策の改善策の提案に繋げることができる.また,「\#札幌」,「\#札幌市」という表現からも分かるように,上記のつぶやきは札幌市で暮らす市民特有の意見となっている.札幌市においても,都市を横断した市民意見抽出手法を用いることで,教師データ作成コストを半減させた上でこれらの市民意見が抽出可能となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-2ia12f5.pdf}\end{center}\caption{テイクアウトサービスの横浜市民意見の出現頻度の時系列順の推移}\label{yokohama_takeout}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{30-2ia12f6.pdf}\end{center}\caption{テイクアウトサービスの札幌市民意見の出現頻度の時系列順の推移}\label{sapporo_takeout}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{飲食店のテイクアウトサービス}テイクアウトサービスにおいて,都市を横断した分類モデルによって推定された市民意見の出現頻度の時系列順の推移を図\ref{yokohama_takeout},図\ref{sapporo_takeout}に示す.図\ref{yokohama_takeout}より,横浜市のテイクアウトサービスに関する市民意見は,4月の上旬(1日~10日)の期間に急激に増加し始めていることが分かる.この時期は,神奈川県を対象とした第1回緊急事態宣言が発令された4月7日を含む時期であり,緊急事態宣言によって多くの飲食店がテイクアウトサービスを開始した時期となっている.また,市民意見の数は緊急事態宣言中の4月下旬に最大となっており,緊急事態宣言が解除された5月25日を過ぎると,急激に減少している.さらに,テイクアウトサービスに関する市民意見は,商品に関する評価を含む,事物・事象を対象とした評価が最も多くなっている.そこで,横浜市で市民意見の数が最大となっている4月下旬のつぶやきから,地域依存性:依存,サービスとの適合性:適合,投稿主の立場:飲食店を利用した人,商品の評価との関連性:関連する,極性:肯定,アプレイザル意見タイプ:事物・事象を対象とした評価,という条件を満たすつぶやきのみを自動抽出した.抽出された市民意見の例は以下の通りである.\begin{itemize}\item\#六角橋商店街の\#餃子Mで2種類の餃子をテイクアウト。きのこ餃子はとろとろで噛むと濃厚な具が流れてくる。何個でも食べたい。テキサス餃子はカレー味の餡にコーンとチーズブレンド。タレは不要で何個でも食べたい。\#横浜飯\item地球の中華そばさんの3回目のテイクアウトで超純水採麺天国屋のリスペクト麺を購入。スープと麺を味わうために、ネギだけを乗せました。スープが旨すぎで、麺も好き!最近の家での楽しみになっていました。また買います!\#地球の中華そば\#テイクアウト\end{itemize}上記の条件を指定することで,横浜市に暮らす市民が利用したテイクアウトサービスに関するつぶやきのうち,良い評価を述べているつぶやきのみを自動抽出することができる.このような意見は,横浜市で暮らす市民や,横浜市を訪れた観光客が,テイクアウトサービスを実施している店舗を探すのに%非常に有用な意見となっている.また,上記のつぶやきに含まれる「餃子M」,「地球の中華そば」は,横浜市にのみ存在する飲食店である.札幌市のつぶやきと比較的少量の横浜市のつぶやきを用いて2段階のファインチューニングを行い,都市を横断した市民意見抽出を行った結果,このように,横浜市ならではのテイクアウトサービスに関する市民意見が抽出可能となっている.図\ref{sapporo_takeout}より,札幌市のテイクアウトサービスに関する市民意見は,4月の中旬(11日~20日)の期間に急激に増加していることが分かる.この時期は,第1回緊急事態宣言の対象範囲が拡大し,北海道が緊急事態宣言の対象となった4月16日を含む時期である.つまり,札幌市においても多くの飲食店がテイクアウトサービスを開始した時期となっている.図\ref{yokohama_takeout},図\ref{sapporo_takeout}の横浜市と札幌市の市民意見の出現頻度から分かるように,本研究の都市を横断した市民意見抽出では,数日単位の細かい市民意見の出現頻度の差まで捉えることができると分かる.また,札幌市においても,テイクアウトサービスに関する市民意見は,商品に関する評価を含む,事物・事象を対象とした評価が最も多くなっており,札幌市の緊急事態宣言が解除された5月25日を過ぎると市民意見の数は減少している.そこで,札幌市において市民意見の数が最大となっている5月上旬のつぶやきから,横浜市と同様に,地域依存性:依存,サービスとの適合性:適合,投稿主の立場:飲食店を利用した人,商品の評価との関連性:関連する,極性:肯定,アプレイザル意見タイプ:事物・事象を対象とした評価,という条件を満たすつぶやきのみを自動抽出した.抽出された市民意見の例は以下の通りである.\begin{itemize}\itemひろちゃんのザンギは、塩ザンギが超ウマいお弁当屋さん。我が家で定番のテイクアウトです!札幌にはいくつが店舗があって、事前に電話すると揚げたてが買えますよー\#札幌テイクアウト\#StayHome\item昨日と同じく、スープカレー34でテイクアウトしたハンバーグカレーを食べました。やっぱ34のハンバーグはビーフ100\%で美味しい!\#スープカレー\#札幌カレー部\#スープカレー34\end{itemize}1つ目のつぶやきは,「札幌にはいくつか店舗があって」という表現から,札幌市ならではの店舗情報であると分かる.また,「スープカレー34」は,札幌市にのみ存在する飲食店となっており,札幌市に特有の市民意見が抽出できていることが分かる.さらに,「ザンギ」と「スープカレー」は札幌市の名産グルメとなっていることからも,都市を横断した市民意見抽出によって札幌市特有の市民意見が抽出できていることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{考察}\label{6-4}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ターゲット都市に特有の市民意見の抽出}\label{6-4-1}本節では,都市を横断したモデルと,ソース都市のみで訓練したモデルによる予測結果が異なる市民意見を抽出することで,ターゲット都市に特有の市民意見を明らかにする.横浜市の保育園サービスにおいて,\ref{6-3}節の横浜市における保育園サービスにおける市民意見抽出と同様に,『地域依存性:依存,サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する,アプレイザル意見タイプ:自発的感情の表明』,というラベルの条件を指定し,都市を横断したモデルと,ソース都市のみで訓練したモデルによる予測結果が異なるつぶやきの例は,以下の通りである.\begin{itemize}\itemハァ、6月終わりまで登園自粛の要請とは...うちの家のコロナ不況やば過ぎる。5月の旦那の給料見たけど、アー無理。さすがに少し仕事はじめたいのに...保育園がやってなかったらどうしようもない。\item宣言は解除されたにも関わらず、横浜市の保育園は6月30日まで自粛ってみんな終わるでしょ。みんなに戦力外通知が来るよ。\end{itemize}これらの市民意見が抽出されたのは,5月下旬の時期となっていた.5月の下旬とは,横浜市が緊急事態宣言解除後の保育所等の利用に関する方針を発表した時期となっている.発表された方針では,横浜市においては,緊急事態宣言が解除された後も原則として保育園の登園自粛を要請する,とされていた.しかし,抽出されたつぶやきを確認すると,市民は保育園に子供を預けられないことによって,経済的な状況や職場での自身の状況に不安を感じていると分かる.第1回緊急事態宣言は,横浜市と札幌市に共通で5月下旬に解除された.しかし,図\ref{yokohama_jisyuku},図\ref{sapporo_jisyuku}より,5月下旬の市民意見を確認すると,横浜市民は多くの感情を述べているのに対して,札幌市民の感情の意見数はこの時期に増えてはいない.つまり,この時期に抽出された不安や不満は,横浜市民に特有の意見であると分かる.ソース都市のみで訓練したモデルによる予測結果と,都市を横断したモデルによる予測結果が異なる市民意見を抽出することで,上記の例のような,ターゲット都市に特有の市民意見のみをまとめて抽出することができる.次に,札幌市において,\ref{6-3}節と同様に,『地域依存性:依存,サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する,アプレイザル意見タイプ:事物・事象を対象とした評価』,というラベルの条件を指定し,都市を横断したモデルと,ソース都市のみで訓練したモデルによる予測結果が異なるつぶやきの例は,以下の通りである.\begin{itemize}\item保育園から家庭保育のお願いとか登園自粛って通知がきても、派遣会社は「休園じゃない限り給料は出ません、特別休暇も使えないので有給を使って」。保育園にあずけて仕事するしかないよね(・ω・)\#派遣\item保育園が休園になると特別休暇ではなく有給休暇を使わなきゃいけないのはくそだと思うが、そもそも有給なんてなくて客先に出向するフリーランスの自分は収入に直接来ます。\end{itemize}これらの市民意見が抽出された時期は,2月の下旬となっていた.図\ref{yokohama_jisyuku},図\ref{sapporo_jisyuku}より,札幌市では2月の下旬の段階でコロナ禍における家庭保育に関する方針が発表されているのに対し,横浜市では2月の下旬には小中学校の休校のみしか発表されていない.そのため,札幌市においては,2月下旬における保育園の休園・登園自粛に関する市民意見の割合が,横浜市と比較して高くなっている.抽出されたターゲット都市に特有の市民意見を確認すると,札幌市民は有給休暇に対して関心を持っていることが分かる.2月の下旬は年度末の時期となっているため,人によっては有給休暇の残り日数が少なくなっており,その影響で保育園の登園の自粛が困難になっていると考えられる.このような意見は,2月の下旬の段階ではまだ小中学校の休校しか発表していなかった横浜市に対して,2月の下旬の段階で既に家庭保育のお願いを発表していた札幌市に特有の市民意見となっている.このように,札幌市においても,都市を横断したモデルとソース都市のみで訓練したモデルによる予測結果が異なる市民意見を抽出することで,ターゲット都市の市民特有の意見を含むつぶやきを確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{エラー分析}\label{6-4-2}本節では,都市を横断した市民意見抽出におけるエラー分析を行う.\ref{6-3}節で示したように,提案手法を用いて,未知の大量のつぶやきから,指定した属性ラベルの条件を全て満たすつぶやきのみを自動抽出することで,行政の政策の改善に有用な市民意見や接客業における高評価のレビュー情報等を明らかにすることができる.一方で,自動抽出された市民意見の中には,指定した条件に対してふさわしくない意見が一部存在する.本節では,このような不適切な市民意見の例を示し,不適切な市民意見が抽出された原因を考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{保育園サービス}\ref{6-3}節の横浜市における保育園サービスにおける市民意見抽出と同様に,4月上旬の時期における,『地域依存性:依存,サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する,アプレイザル意見タイプ:自発的感情の表明』,という条件を満たすつぶやきを抽出した際の,不適切な市民意見の例は以下の通りである.\begin{itemize}\item小学校も休校、保育園は休ませてるのに、親が出社って1番のリスクでしかない。\item奥さんも在宅で子供の保育園休ませたら、当たり前に「ねえ遊ぼうー!」と言われる。交互に相手をしないとだめで仕事にならない\end{itemize}これらの意見は,「リスクでしかない」という表現や「仕事にならない」という表現から,市民が明確に現在困っている事象に対する評価を述べているため,アプレイザル意見タイプ属性は,事物・事象を対象とした評価が適切なラベルと考える.図\ref{yokohama_jisyuku},図\ref{sapporo_jisyuku}より,横浜市では自発的感情の表明のラベルの割合が多いのに対し,札幌市では事物・事象を対象とした評価のラベルの割合が多くなっており,両都市の市民意見の傾向に差が現れている.そのため,都市を横断した市民意見抽出をする際に,モデルがこれらの属性ラベルを適切に分類できなかったことが,上記のような不適切な市民意見が一部抽出された原因であると考える.札幌市においても,\ref{6-3}節と同様に,4月中旬の時期における,『地域依存性:依存,サービスとの適合性:適合,投稿主の立場:小さい子を持つ親,休園・登園自粛との関連性:関連する,アプレイザル意見タイプ:事物・事象を対象とした評価』,という条件で市民意見を抽出したところ,「休校かー。。。そうしたら、ウチの保育園もまた来月まで休園?無理。。。私を働かせて。」といった市民意見が抽出された.この意見は,「無理。。。私を働かせて。」という表現から分かるように,市民の抱える不安や不満の感情表明が適切であると考える.つまり,自発的感情の表明の意見を抽出しようとし,事物・事象を対象とした評価が一部抽出されてしまった横浜市とは逆の結果となっている.このことからも,ソース都市とターゲット都市において,属性ラベルの割合が大きく異なることで,一部不適切な市民意見が抽出されてしまったことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{飲食店のテイクアウトサービス}表\ref{one_city_unit},表\ref{one_city_tweet}より,飲食店のテイクアウトサービスにおいては,都市を横断した各属性のラベル分類の精度は高く,都市を横断した上でも市民意見抽出が行いやすいことが分かる.そのため,抽出された市民意見を確認しても,不適切な市民意見の例は極めて少なかった.わずかに抽出された不適切な例として,「うまいもん○○」といった店名のテイクアウト商品に関するつぶやきが,「事物・事象を対象とした評価」として抽出されている例が存在した.「うまい」という表現は,肯定的な商品の評価を行っている多くのつぶやきに見られる表現であるが,「うまいもん」という用いられ方をしている場合は,飲食店の店名の一部を表すことが多い.なお,この不適切な例は札幌市民のつぶやきからの意見抽出結果に見られた例であり,さらに,札幌市民のつぶやきのうち\ref{6-2}節の拡張したテストデータ内に含まれていた.また,ラベル分類モデルの訓練データとなる,市民意見分析コーパスに含まれる横浜市民と札幌市民のつぶやきには,「うまいもん」を含む店名に関するつぶやきは存在しなかったため,札幌市民の一部のつぶやきにのみ現れる表現であると分かる.そのため,都市を横断したラベル分類モデルが,「うまいもん」という表現を店名の一部であると判断することができず,不適切な市民意見抽出の原因となったと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{7}本研究では,著者らの先行研究で提案した特定の都市における市民意見抽出のためのフレームワークを拡張し,都市を横断した市民意見抽出手法を提案した.手法の有効性の検証を行うため,先行研究における横浜市民のつぶやきに加えて,新たに札幌市民のつぶやきを対象に人手でアノテーションをすることで,複数の都市の市民のつぶやきからなる市民意見分析コーパスを作成した.実験では,はじめに単一都市における各属性のラベル分類実験を行い,著者らの先行研究で用いたBERTモデルに対するT5モデルの有効性を確認した.T5モデルを利用した都市を横断した各属性のラベル分類実験では,ソース都市のつぶやきと一部のターゲット都市のデータを用いて,各属性の分類モデルを2段階でファインチューニングする手法の有効性を検証した.また,この際,ソース都市のつぶやきを用いて1段階目のファインチューニングを行ったモデルによってターゲット都市のつぶやきの各属性を予測し,予測の確信度が上位の一部のつぶやきを選定した上で教師データを作成する手法の有効性を確認した.都市を横断した市民意見抽出では,都市に依存する行政の政策や緊急事態宣言の発令といった異なる条件によって,市民意見の出現頻度の時系列順の推移が異なることを明らかにした.また複数の属性を指定して都市を横断した市民意見抽出を行うことで,都市で暮らす市民特有の意見を抽出し,比較できることを示した.本研究では,横浜市,札幌市に加えて,より人口の少ない都市である仙台市を対象として,提案手法の有効性を検証した.しかし,本研究で対象とした都市は全て政令指定都市であり,人口は100万人を超えている.\ref{5-5}節の実験を通して,つぶやきが約1,000件収集可能な都市においては提案手法が有効であることを確認できたが,より人口が少ない都市においては,収集可能なつぶやきの量はさらに少なくなると考えられる.今後の課題としては,このような人口が少ない都市における提案手法の有効性の検証が挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,科学研究費補助金基盤研究B(課題番号23H03686,19H04420),挑戦的研究(萌芽)(課題番号22K19822),学術研究助成基金助成金研究活動スタート支援(課題番号22K21303),2022年度国立情報学研究所公募型共同研究(採択番号22S0103)の助成を受けて遂行された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{12refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石田哲也}{%2021年筑波大学情報学群知識情報・図書館学類卒業.2023年同大学院人間総合科学学術院人間総合科学研究群情報学学位プログラム博士前期課程修了.}\bioauthor{関洋平}{%1996年慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了.2005年総合研究大学院大学情報学専攻博士後期課程修了.博士(情報学).同年豊橋技術科学大学工学部情報工学系助手.2008年コロンビア大学コンピュータサイエンス学科客員研究員.2018年シンガポール国立大学コンピューティング学部客員研究員.2010年筑波大学図書館情報メディア系助教,2015年同准教授,現在に至る.自然言語処理,意見分析,情報アクセスの研究に従事.ACM,ACL,情報処理学会,電子情報通信学会,言語処理学会,日本データベース学会,人工知能学会各会員.}\bioauthor{欅惇志}{%一橋大学ソーシャル・データサイエンス学部准教授.博士(工学).2014年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2012~2014年日本学術振興会特別研究員(DC2).2013年マイクロソフト・リサーチアジアリサーチインターン.2014~2019年東京工業大学情報理工学院助教.2016~2017年シンガポール国立大学客員研究員.2019~2022年株式会社デンソーアイティーラボラトリアソシエイトリサーチャ.ACM,電子情報通信学会,日本データベース学会,言語処理学会,人工知能学会各会員.}\bioauthor{柏野和佳子}{%東京女子大学文理学部日本文学科卒業.東京工業大学大学院総合理工学研究科博士課程修了.博士(学術).現在,大学共同利用機関法人人間文化研究機構国立国語研究所准教授.コーパス構築や語彙,辞書研究に従事.『岩波国語辞典』(岩波書店)の編集にも携わる.情報処理学会,計量国語学会,日本語学会,人工知能学会,日本言語学会,各会員.}\bioauthor{神門典子}{%1994年慶應義塾大学大学院文学研究科後期博士課程修了.博士(図書館・情報学).現在,国立情報学研究所教授.主に情報検索・情報アクセス技術の研究に従事.1997年末にNTCIRを開始し,以降,国内外の多くの研究者と協力し多様なタスク提案・運営・国際協調等を進めてきた.ACMSIGIRAcademyInauguralInductee.言語処理学会,人工知能学会,情報処理学会,ACM,ACL,ASIS\&T各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V20N05-02
\section{はじめに} \label{sec:intro}情報抽出や文書要約の分野において情報の可視化を目的として,テキスト中に出現する事象表現の表す事象が発生した時区間\modified{(TimeInterval)}を時間軸\modified{(Timeline)}上に写像することが行われている.このため\modified{には},テキスト中に出現する時間情報表現の正規化(時間軸への写像)のみならず,対象となる「文書作成日時と事象表現」や「時間情報表現と事象表現」,「二つの事象表現」間の時間的順序関係を付与することが必要になる.\modified{英語においては哲学者・言語学者・人工知能研究者・言語処理研究者が協力して時間情報を含む言語資源の整備を進めている\cite{TimeBank}.哲学者・言語学者は言語科学として(a)テキスト中の事象表現とその時間構造を形式的にどのように記述するかを探究することを研究目的とする.人工知能研究者・言語処理研究者は工学研究として(b)テキスト中の事象表現や時間的順序表現を同定し抽出する機械的なモデルの開発や評価を研究目的とする.前者にとって(b)は手段でしかなく,逆に後者にとって(a)は手段でしかない.しかしながら,共通の目標として時間情報の可視化\footnote{ここで「情報の可視化」とは,工学的な自動処理によるもののみならず,言語科学における形式意味論研究も含む.}を掲げ,前段落にあげたリサーチクエスチョンに対して,「アノテーション」と呼ばれる研究手法により共有言語資源を構築する試みが行われている.}\modified{一方,日本語においては時間情報を含む言語資源の整備は,人工知能研究者・言語処理研究者によるものが多く,研究目的も(b)の手段としてのものが多い.機械的なモデルの開発や評価を目的とすることが多く,計算機上に実現しやすい時間情報表現の切り出しや正規化レベルのアノテーションにとどまっている\cite{IREX,小西-2013}.時間的順序関係のアノテーションを行うためには,アノテーション対象となる事象構造の意味論的な形式的な記述の作業が必要となる.人工知能研究者・言語処理研究者にとっての手段とされる研究目的(a)が重要になる.}\modified{時間情報のアノテーションについては,英語のアノテーション基準TimeML\cite{TimeML}を元に国際標準化作業が行われてきた.成果物のISO-TimeMLは策定時に多言語に対してアノテーションすることを想定し,各言語の研究者がそれぞれ適応\footnote{ここで「適応」とは生物学における``種の環境に対応する形質の有無''の意味ではなく,工学における``対象の特性に対応する仕様やパラメータなどの変更''の意味である.}作業を実施してきた.}\modified{本研究では,研究目的として哲学者・言語学者の(a)の立場を取り,}『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下``BCCWJ'')\cite{BCCWJ}の一部に対し時間情報表現と事象表現の時間的順序関係を付与するために,事象表現の切り出しと分類を行った.\modified{時間情報表現アノテーションの形式的な基準である国際標準ISO-TimeMLの日本語適応作業をMAMAサイクル\cite{Pustejovsky-2012}(Model-Annotate-Model-Annotateサイクル.詳しくは\ref{subsec:anno}節で説明)を通して実施し,時間的順序関係付与に適した事象表現分類を行った.}さらに,\modified{複数人の時区間の時間的順序関係の認識の差異を評価することを目的として,}Allenの時区間論理\cite{allen-1983}(詳しくは\ref{subsec:timerel}節で説明)に基づ\modified{いた}テキストに出現する時間情報表現と事象表現の時間的順序関係\modified{のアノテーション}を\modified{複数人で実施した.MAMAサイクルを最小にし被験者実験的な設定でアノテーションを行い,得られたデータの傾向を分析し,複数人の作業者間の心的空間における時間構造の差異を評価した.}\modified{意味論レベルのアノテーションにおいて,多くの研究が形式意味論的な記述を目標とする.生成された言語を直接何らかの記号的な意味表現に写像するための方法論を確立するためにアノテーションのMAMAサイクルを実施するが,唯一無二の意味表現に写像することを目的とするためにアノテーション一致率という指標を良くする方向に最適化するきらいがある.一方,認知意味論の考え方においては,生成された言語表現を受容する人間の認知活動という要素を考慮し,人間の空間認知能力やカテゴリー化などの認知能力を評価する目的で,被験者実験などの研究手法が用いられている.テキストを刺激として与え,意味表現を記述させる被験者実験も広義のアノテーションと呼ぶことができる.}\modified{本研究では人間の時間的順序関係の認知能力の差異の評価を目的として,教示であるMAMAサイクルを必要十分レベルに極小化した,被験者実験としてのアノテーションを行う.結果,時区間の境界の一致が困難である一方,時区間の前後関係については69.5\%の一致率でアノテーションできることがわかった.}\modified{以下本論文の構成について述べる.\ref{sec:related}節では関連研究について述べる.\ref{sec:standard}節では策定した基準について述べる.\ref{sec:analysis}節でBCCWJにアノテーションした順序関係ラベルの分析を行い,結果を報告する.\ref{sec:conclusion}節で本論文のまとめを行う.} \section{関連研究} \label{sec:related}\subsection{コーパスアノテーション}\label{subsec:anno}\modified{一般に言語の生産過程の産物であるアノテーションなしのテキストコーパスからは,言語の受容過程について直接的に調査することは困難である.言語の受容過程の調査には,生産されたテキストを受容する過程を記号化する必要がある.テキストコーパスに対し作業者が内容を理解して記号を付与するアノテーションは,工学研究者のベンチマークデータ作成だけでなく,人の言語の受容過程を記録する一研究手法としても利用可能である.}\modified{コーパスアノテーション作業には二つの基準を決める必要がある.一つはアノテーションをどのような形式で表現するかという形式的な基準である.アノテーション対象が文字間なのか文字列範囲なのか,対象に対しシングルラベルを付与するのかマルチラベルを付与するのか,対象間の関係が推移的なのか対称的なのか,大局的な構造として木をなすのか有向非循環グラフをなすのかなどを決定し,抽象化する必要がある.抽象化された形式は,インラインで記述するのかスタンドオフで記述するのかなどを基準として定める.この形式的な基準は,研究者間の相互利用性を高めたり,構造学習器を実現するための必要な抽象表現の仕様を決定するために利用される.関係する研究者があらかじめ議論をして標準仕様をコミュニティ駆動で策定したり,最初に策定された類似のアノテーションの形式をそのまま事実上の標準にしたりなど,標準化機関以外による何らかの標準化が行われることが多い.}\modified{もう一つはコーパスに出現する言語表現をどのような記号に割り当てるかという値割り当てについての基準である.アノテーションにおいては,個々の事例についてどの形式に割り当てるのかという基準が必要であり,一般に言語テストなどを作業者に行ってもらいその判断に基づき記号に写像する基準が策定される.しかし,アノテーション作業の当初から完全で健全な基準を作成することは困難であり,基準の策定とアノテーション作業を何度も繰り返しながら基準を更新する.}\modified{Pustejovsky\cite{Pustejovsky-2012}は,基準の策定方法を含めたアノテーション作業に二種類のサイクルがあることを示している.一つはMAMAサイクルで図\ref{fig:cycle}の左のようなサイクル\footnote{図は``ModelandGuideline''-``Annotate''-``Evaluate''-``Revise''からなり``MAERサイクル''と呼ぶべきであるが,引用元の表現``MAMAサイクル''をそのまま本稿でも採用する.}である.もう一つはMATTERサイクル(Model-Annotate-Train-Test-Evaluate-Reviseサイクル)で図\ref{fig:cycle}の右のようなサイクルである.工学研究のように構造学習器を作成することを目的とする場合にはMATTERサイクルを用いることが多いが,MATTERサイクルで構造学習器が構成できないアノテーション初期においてはMAMAサイクルを用いることが多い.言語研究で現象そのものを観察する場合においてはMAMAサイクルのみで閉じてアノテーションを行う傾向がある.}\begin{figure}[t]\begin{center}\includegraphics{20-5ia2f1.eps}\end{center}\caption{MAMAサイクルとMATTERサイクル}\label{fig:cycle}\vspace{-0.5\Cvs}\end{figure}\modified{このようなアノテーションの基準とサイクルを考えた場合に,アノテーション基準の妥当性はどのように評価されるべきだろうか.形式的な基準においては利用者系により評価されるべきであり,当該基準を利用するコミュニティの規模などにより定量的に評価され,相互利用における障害の有無などにより定性的に評価されるだろう.後者の値割り当てとしての基準においては,構造学習器の構成を目的として研究を実施するのであれば,未知事例を含めた構造学習器の性能により評価されるだろう.一方,言語研究を目的とする場合には,アノテーション作業を行う指針である基準の妥当性は,成果物のアノテーションそのものによって評価されるべきである.アノテーション単体としての評価は一致率などの定量的な指標を提示することが可能であるが,言語研究のためのアノテーションにおいては,必ずしも一致率などを目的関数として最適化を行っているわけではない.このようなアノテーション基準の妥当性を評価するためには,MAMAサイクルの外側の言語研究者によって評論として行われるべきである.近年,均衡コーパスが整備され,コミュニティ駆動によりアノテーション対象の標準化が行われてきた.各機関で様々なレベルの言語情報のアノテーションが進められている.このような状況を鑑みると,MAMAサイクルの外側の言語研究者による評論の代わりに,他のアノテーションとの重ね合わせによる齟齬検出結果から,アノテーションそのものの妥当性評価が検証される可能性がある.}\subsection{\modified{コーパスアノテーション基準の標準化}}\label{subsec:standard}\modified{コーパスアノテーションの基準について,形式的な基準については標準化機関などが共有すべき規格を提案している.例えば,国際標準化機構(InternationalOrganizationforStandardization:ISO)の標準化技術委員会(TechnicalCommittee)TC37は``Terminologyandotherlanguageandcontentresources''と題し,言語資源に関するさまざまな標準化を提案している.そのなかに分科会(Subcommittee)が五つ設定されているが,TC37/SC4が言語資源管理(Languageresourcemanagement;LRM)に関する国際規格の規定を行っている.TC37/SC4は作業部会を六つ(表\ref{table:tc37sc4})設定しており,さまざまな形式・出自の一次言語データに対するアノテーションやXMLに代表される汎用マークアップ言語に基づくアノテーションの表現形式についての仕様記述言語を設計している.例えば,公開されている規格として,語彙表の規格LexicalMarkupFramework(LMF:ISO-24613:2008),素性構造表現FeatureStructureRepresentation(FSR:ISO-24610-1:2006),単語分かち書き(ISO-24615-1:2010が一般,ISO-24615-2:2011が日中韓言語),統語論アノテーションSyntacticAnnotationFramework(SynAF:ISO-24615:2010)がある.意味論的アノテーション規格は作業部会TC37/SC4/WG2を中心にさまざまなSemanticAnnotationFramework(SemAF)が提案されている.時間情報表現関連については,英語で策定されたTimeML\cite{TimeML}をもとにTimeML開発者と作業部会TC37/SC4/WG2が連携をとりながらSemAF-Time(ISO-24617-1:2012)TimeMLを提案した.次の\ref{subsec:time}節では,時間情報表現関連のアノテーションの研究動向を示す.}\begin{table}[t]\caption{TC37/SC4の作業部会}\label{table:tc37sc4}\input{02table01.txt}\end{table}\subsection{時間情報表現に関する研究動向}\label{subsec:time}\modified{時間情報表現は哲学・言語学・人工知能研究・言語処理など複数分野の研究者により研究されてきた.}\modified{以下では言語処理関連の代表的な研究を俯瞰する.テキスト中の時間情報表現を分析する研究は大きく分けて時間情報表現抽出,時間情報正規化,時間的順序関係解析の三つのタスクに分類される.一つ目の時間情報表現抽出は,固有表現・数値表現抽出の部分問題として解かれてきた.二つ目の時間情報正規化は書き換え系により解かれることが多い.三つ目のタスクである時間的順序関係解析は,事象の時間軸上への対応付けと言い換えることができる.}表\ref{tbl:previous_work}に英語\modified{と}日本語を対象とした時間情報表現に関連する研究を示す.\begin{table}[b]\caption{関連研究}\label{tbl:previous_work}\input{02table02.txt}\end{table}英語においては,評価型国際会議MUC-6\cite{MUC6}の一タスク固有表現抽出の中に時間情報表現の抽出が含まれている.MUC-6で定義されている時間情報表現タグ\timex\は日付表現({\tt@type="DATE"})と時刻表現({\tt@type="TIME"})からなる.アノテーション対象は絶対的な日付・時刻を表す表現にのみ限定され,``lastyear''などといった相対的な日付・時刻表現は含まれていない.このMUC-6のアノテーション基準\timex\に対し,Setzerは時間情報表現の正規化に関するアノテーション基準を提案している\cite{Setzer-2001}.評価型国際会議TERN\cite{TERN}では,時間情報表現検出に特化したタスクを設定している.TERNで定義された時間情報表現情報タグ\timexii\は,相対的な日付・時刻表現,時間表現や頻度集合表現が検出対象として追加されている.時間情報表現の正規化情報を記述するISO-8601形式を拡張した\value\属性などが設計され,こちらも自動解析対象となっている.その後,Pustejovskyらによりアノテーション基準TimeML\cite{TimeML}が提案されている.その中では,TERNで用いられている\timexii\を拡張した\timexiii\が提案され,さらに時間情報表現と事象表現の時間的順序関係を関連づけるための情報\tlink\が付加される.これらの情報は人手でアノテーションすることを目的に設計され,TimeBank\cite{TimeBank}やAquaintTimeMLCorpusなどの人手によるタグつきコーパスの整備が行われた.これらのコーパスに基づく時間情報表現の自動解析\cite{Boguraev-2005,Mani-2006}が試みられたが,タグの情報に不整合があったり,付与されている時間的順序関係ラベルに偏りがあったりなど扱いにくいものであった\cite{Boguraev-2006}.2007年に開かれたSemEval2007の一タスクTempEval\cite{TempEval}では,時間的順序関係のラベルを簡略化し,人手で見直したデータによる時間的順序関係同定のタスクが行われた.このタスクでは,時間情報表現に対する正規化情報\value\属性などが\modified{データにあらかじめ}付与されており,事象表現の時間的順序関係同定に利用できる\modified{設定になっている}.\modified{時間情報表現の自動解析に関する研究は英語中心に行われていたが,やがて言語横断的な研究が進められ,前の\ref{subsec:standard}節に示したような国際標準化がすすめられた.その成果物として,アノテーション形式の共有可能な基準としてISO-TimeMLが策定された.その作業と並行して,評価型会議}TempEval-2\cite{TempEval2}\modified{が実施され},英語だけでなく,イタリア語,スペイン語,中国語,韓国語に関しても同様なデータを利用したタスクが設定された.2013年に開かれるSemEval-2013のサブタスクTempEval-3\cite{TempEval3}では,データの規模を大きくした英語,スペイン語が対象となっている.\modified{海外においては,哲学者・言語学者・人工知能研究者・言語処理研究者が共有可能な言語資源を作成するという大義のもと,分野横断的に研究が進められている.さらに多言語に拡張すべく言語横断的に研究が進められている.このような状況のもと個々の研究について境界を明確に示すことは難しい.}次に日本語の時間情報表現に関する研究を示す.\modified{日本語において,時間情報表現抽出はアノテーションのみならず,評価型会議による解析手法の検討が行われている.}IREX\cite{IREX}の一タスクとして,固有表現抽出タスクが設定された.IREXの時間情報では,日付・時刻表現を対象にし,相対的な表現が定義に含まれている.関根らは拡張固有表現体系\cite{Sekine-2002}を提案し,辞書/オントロジやコーパスの作成などを行っており,BCCWJにも同じ体系の拡張固有表現タグが付与されている\cite{Hashimoto-2010}.\modified{時間情報表現正規化については,}小西らがTimeMLに基づく\timexiii\相当のタグをBCCWJの一部に付与し,時間情報表現の正規化を行っている\cite{小西-2013}.\modified{しかしながら,日本語の時間情報表現と事象表現をひもづける時間的順序関係に関する研究は,著者らが知る限りない.}\modified{最後に,時間的順序関係アノテーションの目的について言及する.工学研究者は(1)時間情報を解析する構造学習器の構成やベンチマークデータの整備を目的としている.一方,言語研究者は,(2)事象表現の時間構造を表現する形式意味論としての記述体系の精緻化を目的としている.これらに対し,本研究は(3)受容者としてのアノテーション作業者という要素を考慮し,認知意味論的な分析を目的とする.(3)の目的のために,被験者実験的な設定のアノテーションを実施する.}\subsection{アノテーション対象としてのBCCWJ}\label{subsec:bccwj}\modified{本節ではアノテーション対象であるBCCWJについて述べる.}\modified{約1億語規模の書き言葉均衡コーパスであるBCCWJは2006--2010年に整備され,2011年に国立国語研究所(以下「国語研」と略す)から一般公開された.サンプリングの手法から生産サブコーパス・図書館サブコーパス・特定目的サブコーパスの三つに大きく分かれる.生産サブコーパスは2001--2005年に出版された書籍(PB)・雑誌(PM)・新聞(PN)により構成され,生産実態に基づいてランダムサンプリングされている.図書館サブコーパスは1986--2005年に出版された書籍(LB)により構成され,流通実態に基づいてランダムサンプリングされている.特定目的サブコーパスは図書館サブコーパスで十分に集まりにくい,白書(OW)・Yahoo!知恵袋(OC)・Yahoo!ブログ(OY)・国会会議録(OM)など様々なレジスタのテキストが収録されている.}\modified{BCCWJにはコアデータと呼ばれる約110万語からなる部分集合が設定されている.コアデータには人手により国語研規程の短単位・長単位単語境界,UniDic品詞体系に基づく形態論情報,文節境界などが付与されている.コアデータは生産サブコーパスから書籍(PB)・雑誌(PM)・新聞(PN)が,特定目的サブコーパスから白書(OW)・Yahoo!知恵袋(OC)・Yahoo!ブログ(OY)が収録されている.表\ref{table:priority}に各レジスタのサンプルについての統計を示す.}\modified{このコアデータに対し,国内の様々な研究機関により,係り受け情報・述語項構造・節境界・モダリティ情報・フレームネット知識など重畳的にアノテーションが行われている.しかしながら,100万語規模のコアデータ全てに対してアノテーションを実施することは困難である.そこで,コアデータの各サンプルに対してアノテーションの優先順位をつけ,約5--6万短単位ごとの部分集合(表\ref{table:priority}・2列目)を規定している.アノテーションに従事する研究者は,それぞれの目的や能力に応じ,この優先順位に従ってアノテーションを実施する.これにより,優先順位の高いサンプルについてはより多種の言語情報アノテーションが行われることになる.}\begin{table}[b]\caption{BCCWJコアデータと部分集合}\label{table:priority}\input{02table03.txt}\end{table}\modified{各サンプルには書誌情報として様々なメタデータが付与されているが,本研究に重要なメタデータとして文書作成日時相当の情報がある.コアデータに収録されている6種類のレジスタのうち,新聞(PN)データのみが日単位の文書作成日時の情報が収録されており,他のレジスタは年単位の文書作成日時の情報にとどまっている.}\modified{本研究では新聞(PN)データの部分集合A(54ファイル\footnote{BCCWJにおいて1ファイル中に複数の記事が収録されているために記事数ではない.},2,541文,56,518短単位)を対象にアノテーションを行う.アノテーション作業対象を上記範囲に限定した理由は,BCCWJのコアデータにおいて新聞データのみが文書作成日時を日単位まで保持していること,生産実態に基づいて適切にサンプリングされており通常の報道記事のみならずレシピやコラムが含まれていること,作業者が一人月でアノテーションを終えることが可能な分量であることなどがある.} \section{アノテーション基準} \label{sec:standard}\subsection{アノテーション作業の概要}アノテーション作業対象はBCCWJコアデータ新聞データ54ファイル(部分集合A)とする.小西らの時間情報表現の正規化作業により,時間情報表現は\timexiii\タグにより切り出され,時間情報の正規化情報が与えられている\cite{小西-2013}.アノテーション作業は,最初に事象表現の境界を認定し\event\タグを付与し,\event\の属性として事象表現の分類を表す\klass\属性を付与する.\klass\属性付与の際には時間軸上に事象のインスタンスが認定できるか否かを判断し,判断できる場合には\event\に対して\makeinstance\タグをスタンドオフ形式で新たに付与する.次に限定された事象のインスタンス間(「文書作成日時と事象表現」,「時間情報表現と事象表現」,「二つの事象表現」)に対して,時間的順序関係を付与する.以下では,それぞれの作業の基準について示す.\subsection{事象表現の認定とクラス分類}時間的順序関係のアノテーションを行うために,\modified{アノテーション対象である動詞・形容詞・形状詞が}事象表現か否か,事象表現が時間軸上の特定の範囲で生起したものか否かの判断が必要となる.また事象構造が動作なのか状態なのかといった識別が必要になる.\modified{また,事象表現間の時間的順序関係を規定するにあたっては,ある事象が他の事象の項になりうるのか,その場合にどのような事象構造を持つのかを分類する必要がある.}国語研\modified{規程による長単位の動詞・形容詞・形状詞4,953表現}に対して\event\タグを付与する.事象表現として切り出す際に国語研長単位が適さない場合には切り出し範囲を大きくする方向で修正を行う.本研究は時間情報表現と事象のインスタンス間の時間的順序関係を付与するため,TimeMLのアノテーション\modified{の形式的な基準に基づいて},実世界もしくは架空世界の時間軸上の具体的な特定の範囲で生起したインスタンスが認められるか否かの判別を行い,インスタンスが認められたものについては,\event\タグの\klass\属性にその事象表現の特性を付与し,\makeinstance\タグを付与する.インスタンスが認められないものについては,\makeinstance\タグを付与しない.時間的順序関係が確認できる事象構造には\makeinstance\タグを付与したうえで,\klass\属性を付与する.\klass\属性は,{\ttOCCURRENCE},{\ttREPORTING},{\ttPERCEPTION},{\ttASPECTUAL},{\ttI\_ACTION},{\ttI\_STATE},{\ttSTATE}の7種類と作業者がインスタンスが認められないと判断した事象表現・静態表現に付与する{\ttNULL},{\ttNONE}の2種類に分類される.\begin{list}{}{}\item[\ttOCCURRENCE]項に事象を取らない事象表現一般\item[\ttREPORTING]項に事象を取る表現活動動詞に相当する事象表現\item[\ttPERCEPTION]項に事象を取る認識・知覚動詞に相当する事象表現\item[\ttASPECTUAL]項に事象を取るアスペクトを表出する事象表現\item[\ttI\_ACTION]項に事象を取る遂行動詞に相当する事象表現\item[\ttI\_STATE]項に事象を取る思考・感情動詞に相当する事象表現\item[\ttSTATE]静態動詞,形容詞\item[{\ttNULL},{\ttNONE}]時間軸上インスタンスが認められない事象表現\end{list}一般の事象表現は{\ttOCCURRENCE}にあたる.静態動詞は{\ttSTATE}に分類されるため,{\ttSTATE}にしないもので事物(Thing)を項とする事象表現はすべて{\ttOCCURRENCE}とする.残りの5種類は,事物ではなく事象(Event)を項として導入する事象にのみ用いる.なお,アノテーション対象としての事象は動詞・形容詞・形状詞に限定するが,項として事物か事象かを判断する際には事象名詞も考慮する.この事象表現のインスタンスの認定とクラス分類は,作業者二人と監督者一人と助言者一人で議論しながら作業を行った.クラス分類を含めて75--80\%の一致率がコンスタントに得られるまで作業者二人が同一ファイルを作業し,基準が固まった時点で分担して作業を行った.\modified{基準の策定にあたっては日本語学・言語学の文献\cite{工藤1995,工藤2004,中村2001}にある事象表現の分類を参考にした.}以下にそれぞれの例を挙げる.\begin{description}\item[{\ttOCCURRENCE}:事象表現一般]\mbox{}\\何かが起こった,変化した,発生したなどの一般的な事象構造は,{\ttOCCURRENCE}とする.すなわち,事象ではなく事物を項とし,静態動詞ではない場合は,すべて{\ttOCCURRENCE}とする.無意志的(状態・位置)変化動詞や非意志的(現象一般)動詞もこれに含まれる.また,過程(Process)を示す動詞(例:「住む」)も,{\ttOCCURRENCE}とみなすこととする.\begin{itembox}[l]{\event\texttt{@OCCURRENCE}の例}\small湿地や干潟,河原などが埋め立てで\event\減った\eventc\東京湾.\\裸地を好むコアジサシに\event\嫌われた\eventc\か,巣は一つだけ.\\ニュース写真として\event\掲載させていただく\eventc\ことがあります.\\経常利益は数億円単位の黒字に\event\なる\eventc.\\メニューに\event\挑戦した\eventc.\end{itembox}\item[{\ttREPORTING}:表現活動動詞]\mbox{}\\表現活動動詞が,事象に関する発言や告知などをはじめ,概ね「〜と」を用いた引用を行う場合などで,{\ttREPORTING}に分類する.なお,「〜を」が用いられている場合は項が事物であるため,{\ttOCCURRENCE}となる.表現活動動詞には,言う・報告する・告げる・説明する・陳述する・指摘する・伝えるなどが含まれる.\begin{itembox}[l]{\event\texttt{@REPORTING}の例({\bf太字}が注目している項)}\small大学院でのこうした取り組みは{\bf初めてと}\event\いう\eventc.\\{\bf〜どうかと}\event\提言する\eventc.\end{itembox}\item[{\ttPERCEPTION}:認識・知覚動詞]\mbox{}\\認識動詞や知覚動詞で,主に事象に関する物理的な知覚が,\modified{節や句の}「〜の」などによる体言化によって導入される場合などは,{\ttPERCEPTION}に分類する.但し,項が事物であるときは,{\ttOCCURRENCE}とする(例「ホスピスという言葉を初めて聞いた」).見る・観察する・見かける・眺める・聞く・聴く・耳にする・睨む・探る・感じるなどが含まれる.\begin{itembox}[l]{\event\texttt{@PERCEPTION}の例({\bf太字}が注目している項)}\small母親が炊飯器でおでんを{\bf作ったのを}\event\見て\eventc,\end{itembox}なお,新聞データにおいては,文脈により物理的な知覚を導入しない場合が多く,出現が少ない.\begin{itembox}[l]{\event\texttt{@PERCEPTION}としない例({\bf太字}が注目している項)}\small[個人名]に{\bf[内容]について}\event\聞いた\eventc.(インタビューであるため,{\ttOCCURRENCE})\\{\bfAをBと}\event\見る\eventc.(判断であるため,{\ttOCCURRENCE}や{\ttI\_STATE})\end{itembox}\item[{\ttASPECTUAL}:アスペクト動詞]\mbox{}\\事象のアスペクト(相)を示す動詞が,事象を導入している場合はこれにあたる.明示的に記述されている場合に限定する.そのため,接頭辞などの造語成分(例:「再」+動詞による「再団結する」「再開発する」など,「終」「開」による「終演する・開幕する」など)を含む動詞については,{\ttASPECTUAL}に含めない.\newpageアスペクトを明示的に表す動詞は,以下のようなものがある.\begin{enumerate}\itemInitiation:始める・始まる\itemReinitiation:再開する\itemTermination:終える・止める・終わる・中止する・停止する・あきらめる\itemCulmination:やり終える・完成させる\itemContinuation:続ける・続行する・持続する・維持する・やり通す・保つ\end{enumerate}\begin{itembox}[l]{\event\texttt{@ASPECTUAL}の例({\bf太字}が注目している項)}\small{\bfトーナメントは},日本時間10日夜に第1日が\event\始まる\eventc.\\[個人名]が勝てば{\bf3連覇に}\event\続く\eventc\偉業達成.\\二年目も引き続き{\bf好調を}\event\維持したい\eventc.\\{\bfとろ火状態を}\event\保つ\eventc.\end{itembox}\item[{\ttI\_ACTION}(IntensionalAction):内包的な動作]\mbox{}\\明示された事象の導入を行う(項とする)遂行動詞は{\ttI\_ACTION}と分類する.遂行しない場合は後述する{\ttI\_STATE}として区別を行う.また,イベントが助詞によって分割されている場合の後半部(例:「連絡をとる」「明らかにする」など)は{\ttI\_ACTION}と考える.次の{\ttI\_STATE}との差別として,挑む・予防する・遅らせる・依頼する・要求する・説得する・約束する・決定する・提案するなど,遂行性のある動詞がこれにあたる.また,同様に,{\ttREPORTING}との差別として,宣言する・主張する・申し出る・断定するなど,{\ttPERCEPTION}との差別として,調査する・精査するなどが{\ttI\_ACTION}にあたる.なお,Intentional(意図的)とは異なることに注意されたい.\begin{itembox}[l]{\event\texttt{@I\_ACTION}の例({\bf太字}が注目している項)}\small女性が{\bf受け入れられるべきかと}\event\問われれ\eventc\ば,イエスだ.\\{\bf再建を}国際社会全体で\event\取り組む\eventc\契機.\\{\bf支払えないケースが}\event\出ている\eventc.\\[個人名]は速い{\bf転がりを}\event\確かめていた\eventc.\end{itembox}\item[{\ttI\_STATE}(IntensionalStates):内包的な静態動詞]\mbox{}\\事象を導入する(項とする)が,事象を遂行しない動詞は{\ttI\_STATE}とする.代替・候補が言及されるなどの状態の導入が主となる.主に思考動詞や感情動詞がこれにあたり,信じる・思う・望む・欲する・期待する・計画するなどの思考動詞のほか,恐れる・心配する・悩むなどの感情動詞,また,遂行のない動詞として,求める・〜しようとする・〜したがるなど,〜できる・〜できないなども含まれる.\begin{itembox}[l]{\event\texttt{@I\_STATE}の例({\bf太字}が注目している項)}\small{\bf連覇を}\event\狙う\eventc.{\bf生活が}\event\できる\eventc.\\{\bf未現像でも}\event\構いません\eventc.\\{\bfよく見ていてくれたと}\event\感謝する\eventc.(遂行性がないため,{\ttI\_ACTION}ではない)\end{itembox}\item[{\ttSTATE}:静態動詞,形容詞\modified{,形状詞}]\mbox{}\\時間的順序関係と直接かかわらない場合,文書作成時間に従属しない場合には,\event\タグをつけないが,以下の種類の静態動詞\cite{工藤1995}と形容詞について,時間と関わる場合に限り,\event\texttt{@STATE}とする.\begin{enumerate}\item存在動詞:ある・いる・存在する・点在する\item空間的配置動詞:そびえている・面している・隣接している\item関係動詞:値する・あたる・あてはまる・相当する・意味する・示す・適する\item特性動詞:甘すぎる・大きすぎる・泳げる・話せる・似合う\end{enumerate}\begin{itembox}[l]{\event\texttt{@STATE}の例}\smallマネジャーに就任する意向が\event\ない\eventc\ことを明らかにした.(存在)\\東京湾岸でも生活\event\できる\eventc\環境さえあれば.(特性動詞.この場合,「生活ができる」であれば{\ttI\_STATE}とする)\\彼女のようにモノをはっきり\event\言える\eventc\ことがこれからは大切だ.(特性動詞)\\おいしく\event\食べられます\eventc.(特性動詞)\end{itembox}\item[{\ttNULL},{\ttNONE}:時間軸上インスタンスが認定できない事象表現・静態表現]\mbox{}\\\makeinstance\を付与しない事象表現・静態表現.\makeinstance\タグを付与するか否かの判断基準として,文書作成日時もしくは他の事象表現との時間的順序関係が定義できるかどうかを重要視する.何らかの変化を含む事象表現ではなく,恒常的あるいは一般的なことをいっていると考えられうる事象表現においては,時間的順序関係のアノテーションは不可能であるため,\makeinstance\タグは付与しない.\begin{itembox}[l]{\makeinstance\タグを付与しない例({\bf太字}が付与しない表現)}\smallクラブの運営について1票を{\bf持っている}わけではない.\\国際会議57件を{\bf含め}2,111件.火を{\bf使わない}調理法.\end{itembox}連体修飾節中の動詞が,一般的と判断される場合\makeinstance\タグを付与しない.\begin{itembox}[l]{\makeinstance\タグを付与しない例:連体修飾({\bf太字}が付与しない表現)}\small旅の安全を{\bf守る}道祖神.オリーブ畑に{\bf囲まれた}レストラン.\end{itembox}副詞的用法や慣用的な場合も時間的順序関係が付けがたいため,\makeinstance\タグを付与しない.\begin{itembox}[l]{\makeinstance\タグを付与しない例:慣用表現(\textbf{太字}が付与しない表現)}\smallやむを{\bf得ない}.{\bf相次いで}出している.\\なりふり{\bf構わぬ}販売攻勢.\end{itembox}文脈によっては,「ある」「なる」「する」などの動詞も,一般的なことを述べているため時間的順序関係が付けがたい場合がある.この場合\event\タグを付与しない.\begin{itembox}[l]{\makeinstance\タグを付与しない例:「ある」など({\bf太字}が付与しない表現)}\small〜のためこの名が{\bfある}.〜が基本と{\bfなる}.\\〜を原則と{\bfする}.\end{itembox}\end{description}\modified{以下,}{\ttNULL}と{\ttNONE}のラベルの違いについて述べる.{\ttNULL}のラベルは本節の作業を行った作業者二人により付与したものである.{\ttNONE}のラベルは次節の時間的順序関係認定時に,三人の作業者が時間軸上にインスタンスを認定することができなかったものについて修正付与する.\modified{事象構造そのもののアノテーションは意味論レベルの情報付与に相当し,言語学的な知見から様々な記号化手法が考えられる.本研究は時間情報表現・事象表現間の時間的順序関係の可視化を目的としており,そのアノテーション形式の標準化であるISO-TimeMLの枠組の範囲内で,値割り当てとしてのアノテーション基準を定めた.本節のアノテーション作業にあたっては次の\ref{subsec:timerel}節で行う被験者実験的な時間的順序関係アノテーションの基底となる情報のためにMAMAサイクルに基づき厳密な統制を行った.}\subsection{時間的順序関係の認定}\label{subsec:timerel}\modified{本研究は時間構造に対する複数人の認識の差異を評価するために,被験者実験的に時間的順序関係アノテーションを実施する.時間的順序関係について,事象が表現する時間構造が長さ0以上の時区間である(時点は長さ0の時区間として扱う)と仮定をおく.このことにより個々人が認識する事象表現の時間構造を,人工知能分野でよく研究されているAllenの時区間論理\cite{allen-1983}として表現することができる.アノテーション作業者は,時間軸上に二つの時区間をプロットすることで描画的に事象の時区間を表現することができる.直感的であるために短時間の教示でアノテーションが可能になる.}\modified{具体的には,先行研究で付与されている\timexiii\タグ範囲の時間情報表現と\makeinstance\タグにより認定した事象表現のインスタンスに対して,\tlink\相当の}時間的順序関係を認定する.表\ref{table:allen}に示すAllenの\modified{二次の}範囲代数に基づくラベル(13種類)を付与する.\modified{採用するラベル集合は,標準化されているアノテーション形式であるため,他の研究者が多言語で言語横断的に分析する際にも有効だと考える.}\begin{table}[t]\caption{Allenの範囲代数に基づく時間的順序関係ラベル}\label{table:allen}\input{02table04.txt}\end{table}なお,二つの事象表現がduring/equal/containsの三つの時間的順序関係にある場合,部分事象の関係か全く同一の事象の関係でありうる.そのような場合には表\ref{table:subevent}の三つのラベルを付与する\footnote{厳密にはfinishes/started-by/starts/finished-byの四つの時間的順序関係の場合も事象-部分事象関係になることがあるが,これらの関係の頻度が少なく相当する事例が見つからなかったこととTimeMLには規定されていないことから,我々も相当するタグを新たに規定しない.}.計13+3種類のラベルをまとめると図\ref{fig:allen}のようになる.このほかにテキストの情報だけでは全く時間的順序関係がわからない場合に付与するラベルとして`vague'を利用する.この作業はTimeMLの\tlink\付与の作業に相当し,我々もタグ名として\tlink\を用いる.\begin{table}[t]\caption{事象-部分事象間関係を表現するラベル}\label{table:subevent}\input{02table05.txt}\end{table}\modified{これらの計13+3+1種類のラベルを\timexiii\タグと\makeinstance\タグの間,もしくは,二つの\makeinstance\タグ間に付与する.}本作業で用いる\makeinstance\タグは前節の作業を精査した3,839件を固定して用いる.前節の作業を行った二人とは異なる,三人の作業者が時間的順序関係を行う.文書中の\makeinstance\タグの対の数は文書中の\makeinstance\タグの数の組み合わせに相当し,人手で全ての対を検証することは困難である.\begin{figure}[t]\begin{center}\includegraphics{20-5ia2f2.eps}\end{center}\caption{\tlink\時間的順序関係ラベル一覧}\label{fig:allen}\end{figure}英語のTimeBankでは\modified{,}全ての対で作業者が認定できるものという曖昧な基準で一致率が55\%と報告されている.本研究では,TempEvalなどの評価型ワークショップで採用されている「文書作成日時と事象表現の順序関係(``DCT''と呼ぶ)」「同一文内の時間情報表現と事象表現間順序関係(``T2E''と呼ぶ)」「隣接事象表現間順序関係(``E2E''と呼ぶ)」「隣接文の末尾の事象表現間順序関係(``MATRIX''と呼ぶ)」の4種類の表現対についてのみ付与する.\modified{英語のTimeBankは,どの表現対に関係を付与するかというのは作業者にゆだねられている.一方,本研究では4種類の表現対について必ず何らかの関係を付与することとし,現実世界の事象と仮想世界の事象間,もしくは,二仮想世界の事象間などの場合で時間的順序関係が規定できない場合に`vague'を付与することとしている.本作業の基準では4種類の表現対のうち``DCT'',``E2E'',``MATRIX''の3種類について複数の連結可能な単純道をグラフ上確保しており,基本的にアノテーションは連結グラフを構成する.このグラフ中`vague'の関係が切断辺となる場合,分離された部分グラフは二つの異なる可能世界(実世界-架空世界,異なる二架空世界)を明示的に表現する.}なお,アノテーション作業に際し,以下の点に注意した.\begin{itemize}\item時間は基本的に区間としてアノテーションを行う.1秒でも区間とする.\item\modified{事象は瞬間動詞については点(長さ0の区間)とし,それ以外の表現は区間とする.}\item状態動詞などで開始点・終了点がわかりにくいものは,前工程の\event\タグの認定時で排除されているべきだが,わかりにくい場合には作業者の理解にゆだねる.\end{itemize} \section{アノテーション情報の分析} \label{sec:analysis}\subsection{事象表現の認定とクラス分類}\begin{table}[b]\begin{minipage}[t]{192pt}\caption{時間情報表現の分布}\label{table:timex}\input{02table06.txt}\end{minipage}\hfill\begin{minipage}[t]{220pt}\caption{事象表現の分布}\label{table:event}\input{02table07.txt}\end{minipage}\end{table}時間的順序関係を行う前に時間情報表現と事象表現の範囲を切り出す必要がある.時間情報表現の切り出しについては先行研究\cite{小西-2013}によりなされており,今回対象のBCCWJコアデータ新聞データ54ファイル上の分布は表\ref{table:timex}のようになっている.事象表現の認定とクラス分類の分布は表\ref{table:event}に示す.\subsection{時間的順序関係の認定}作業者三人により時間的順序関係認定作業を開始した.計13+3+1種類のラベルを「文書作成日時と事象表現の順序関係(``DCT'')」「同一文内の時間情報表現と事象表現間順序関係(``T2E'')」「隣接事象表現間順序関係(``E2E'')」「隣接文の末尾の事象表現間順序関係(``MATRIX'')」の4種類の表現対に対して付与した.以下,作業者三人分の作業結果を示し,考察する.表\ref{result:order}が13+3+1種類のラベルと4種類の表現対ごとに集計したものである.$\cap$で結ばれた三つの数字は,三人の作業者が何件その関係を認定したかを示す.右``=''以下の数字はその中で三人\modified{が}一致した件数を示す.まず,\modified{一致した}ラベルの件数として,始点・終点の一致を必要としない`after',`during',`contains',`before'の頻度が多かった.始点・終点のいずれかの一致を必要とするラベルのうち,もっとも\modified{一致件数が}多いものは時間軸上の完全の一致を示す`equal'であった.また`vague'についても複数の作業者が認定し,314件一致しているところから,文脈を用いても時間的順序関係が推定できないものが少なからずあることがわかる.\begin{table}[b]\caption{\tlink\時間的順序関係ラベルの評価:作業者間の認定傾向の比較}\label{result:order}\input{02table08.txt}\end{table}表\ref{result:agreement}に4種類の\modified{表現対}ごとの一致率を集計したものを示す.一致率の評価基準として,「ラベル13+3+1種類を区別するもの(ラベル13+3+1)」「部分集合であるか否かを区別せず,ラベル13+1種類を区別するもの(ラベル13+1)」「TempEvalで用いられているラベル5+1種類(`BEFORE',`BEFORE-OR-OVERLAP',`OVERLAP',`OVERLAP-OR-AFTER',`AFTER',`VAGUE'\footnote{``ラベル13+3+1''および``ラベル13+1''のラベルと区別するために大文字表記を用いる.})に縮退するもの(ラベル5+1)」の3種類を用いる.まず,もっとも厳しい一致率評価基準(ラベル13+3+1)でも65.3\%の三人の一致率(Cohen'skappa0.733)であった.我々の手法では事象構造の認定については複数人で合議的に行い,その後限られた関係について時間的順序関係アノテーションを行っているが,事象構造の認定と関係対に対する関係タグ付与作業を同時に行っている英語のデータTimeBank1.2における\tlink\の一致度(関係対の認定の一致率55\%と一致した関係対に対する関係タグの一致率77\%)と比較しても遜色ないレベルだと考える.4種類の関係については,``DCT''が最も一致率が高く,次に``T2E''が高かった.これは片方が時間情報表現である場合に,時間情報表現側の時間軸上の絶対位置が推定しやすいことによるからだと考える.\begin{table}[t]\caption{\tlink\時間的順序関係ラベルの評価:4種類の関係対ごとの一致率}\label{result:agreement}\input{02table09.txt}\end{table}一致率評価基準について始点・終点の境界値一致の認定を緩和することで,``E2E'',``MATRIX''の関係は若干一致率があがることから,作業者間で事象構造の時間的な境界値にずれが生じていることがわかる.表\ref{result:classagreement}に\event\の\klass\ごとの一致率を集計したものを示す.まず,\modified{どちらかに静態表現である{\ttSTATE}を含む表現対}の\modified{作業者間ラベル}一致率が低い傾向にある.これは静態表現の始点・終点の認識が作業者間で一致することが困難であることによると考える.左項が時間情報表現({\ttDCT},{\ttTIMEX})であり,右項が{\ttSTATE}である表現をみても,他の時間情報表現-事象表現との関係と比して\modified{作業者間ラベル一致率}が低い.事象表現を項にとるかどうかの観点でみると,右項が{\ttREPORTING},{\ttI\_ACTION}の関係が平均よりも高い傾向にある.しかしながら,時間的順序関係が定義されている事象表現対が係り受け構造上の係り受け関係にあるか,また述語項関係になっているかを判断するためには他のアノテーションとの重ね合わせが必要である.今後他機関が作成しているアノテーションを重ね合わせたうえで検討していきたいと考えている.\begin{table}[t]\caption{\tlink\時間的順序関係ラベルの評価:\event\klass\\modified{ごと}の作業者三人の一致率}\label{result:classagreement}\input{02table10.txt}\end{table}\modified{最後に意味論アノテーションにおける正解のあり方について言及する.テキストが表出する意味レベルの情報の正解は,言語受容者によって完全に復元することは困難であり,100\%正しいものを作成するためには言語生産者によるアノテーション作業が不可欠である.言語生産者によるアノテーション作業をBCCWJに対して行うことは困難であるため,本研究では作業者三人の結果を統合した形での正解は作成しない.言語受容者の個人の心的空間における時間的順序関係の認識はそれぞれ異なっていてしかるべきであり,受容者\modified{ごと}に正解があると考える.}\modified{個々の言語受容者の作業結果の正誤判定として,それぞれのアノテーション内での無矛盾性の認定が考えられる.Allenの二次の範囲代数を,三次以上に拡張すると人の処理能力を超え,機械的に処理するにも適切な演算が必要になるため,今後の課題とする\footnote{Allenの範囲代数を拡張すると,三次で409クラス,四次で23,917クラス,五次で2,244,361クラスになることが知られている.}.}\modified{このアノテーションに基づき解析器の構成を行う場合には何らかの正解を決める必要がある.正解の設定として,一人の作業者のアノテーションを正解とする方法,三人の作業者が一致している部分を正解とする方法,三人の作業者それぞれの学習モデルを作成し多数決を取る方法などの様々な方法が考えられる.高性能な構造学習器を構成するためにどのように正解を認めるかについては,工学研究者に委ねたい.} \section{おわりに} \label{sec:conclusion}本研究では『現代日本語書き言葉均衡コーパス』のコアデータ中の新聞データに対して,時間的順序関係のアノテーションを行い,アノテーションの一致傾向について報告した.時間的順序関係を付与する事象表現の認定にあたり,時間軸上のインスタンスの認定可能性や,取りうる項が事象である場合に他の事象表現にどのような影響を与えるのかに基づいて,事象表現を7+2種類に分類した.\modified{次に,}三人の作業者による時間的順序関係の一致率などを検討した結果,事象構造の時間軸上の始点・終点の認識は揺れるものの,\modified{時間軸上の前後関係は時間情報表現にまつわるもので73\%以上(ラベル5+1評価でDCT74.8\%,T2E73.4\%),事象表現にまつわるもので62\%以上(ラベル5+1評価でE2E62.7\%,MATRIX62.3\%)の一致率}で付与できることがわかった.\modified{本研究におけるアノテーションの評価は,今回策定した基準や作業者で閉じているために限定的である.今後,データを公開\footnote{http://github.com/masayu-a/BCCWJ-Timebank}し,他機関で同じ部分に付与されているさまざまなアノテーションを重ね合わせ,齟齬や矛盾を分析することでより深い分析が可能になると考えられる.}\modified{また,\ref{sec:intro}節で述べた(b)の意味での目的に応えるために,本データを学習データとして用いた日本語時間的順序関係推定器の開発を今後行っていきたい.}英語の時間的順序関係推定器においては,\makeinstance\タグに付与されたテンス・アスペクトの情報が有効な特徴量となる.一方,日本語においては,テンス・アスペクトは,準アスペクト表現を除くと「ル」-「タ」×「テイル」-「テイタ」の二軸の対立しかない.そのうえ「ル」-「タ」の対立は非過去-過去の対立でしかなく,「ル」は定動詞・不定動詞の両方を表現する.このため,形態素解析結果から直接得られるこれらの情報は時間的順序関係推定器の決定的な特徴量とはならない.一方,BCCWJの当該箇所には,他機関によりモダリティ情報・係り受け構造・述語項構造などが付与されている.これらを重ね合わせることで実用的な時間的順序関係推定器が作成できると考えている.\acknowledgment本研究を行うにあたり,助言いただきました日本IBMの吉川克正氏,アノテーションに従事していただいた方々に感謝いたします.本研究は文科省科研費特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築:21世紀の日本語研究の基盤整備」,国語研基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」および国語研「超大規模コーパス構築プロジェクト」によるものです.本論文の一部はThe27thPacificAsiaConferenceonLanguage,Information,andComputation(PACLIC27)で発表したものです\cite{asahara-2013}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Allen}{Allen}{1983}]{allen-1983}Allen,J.\BBOP1983\BBCP.\newblock\BBOQMaintainingknowledgeabouttemporalintervals.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf26},\mbox{\BPGS\832--843}.\bibitem[\protect\BCAY{Asahara,Yasuda,Konishi,Imada,\BBA\Maekawa}{Asaharaet~al.}{2013}]{asahara-2013}Asahara,M.,Yasuda,S.,Konishi,H.,Imada,M.,\BBA\Maekawa,K.\BBOP2013\BBCP.\newblock\BBOQ{BCCWJ-TimeBank:TemporalandEventInformationAnnotationonJapaneseText}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe27thPacificAsiaConferenceonLanguage,Information,andComputation(PACLIC27)}}.\bibitem[\protect\BCAY{Boguraev\BBA\Ando}{Boguraev\BBA\Ando}{2005}]{Boguraev-2005}Boguraev,B.\BBACOMMA\\BBA\Ando,R.~K.\BBOP2005\BBCP.\newblock\BBOQ{TimeML-CompliantTextAnalysisforTemporalReasoning}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe19thInternationalJointConferenceonArtificialIntelligence(IJCAI-05)}},\mbox{\BPGS\997--1003}.\bibitem[\protect\BCAY{Boguraev\BBA\Ando}{Boguraev\BBA\Ando}{2006}]{Boguraev-2006}Boguraev,B.\BBACOMMA\\BBA\Ando,R.~K.\BBOP2006\BBCP.\newblock\BBOQ{AnalysisofTimeBankasaResourceforTimeMLparsing}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation(LREC-06)}},\mbox{\BPGS\71--76}.\bibitem[\protect\BCAY{{DARPATIDES}}{{DARPATIDES}}{2004}]{TERN}{DARPATIDES}\BBOP2004\BBCP.\newblock{\Bem{TheTERNevaluationplan;timeexpressionrecognitionandnormalization}}.\newblock{Workingpapers,TERNEvaluationWorkshop}.\bibitem[\protect\BCAY{Grishman\BBA\Sundheim}{Grishman\BBA\Sundheim}{1996}]{MUC6}Grishman,R.\BBACOMMA\\BBA\Sundheim,B.\BBOP1996\BBCP.\newblock\BBOQ{MessageUnderstandingConference-6:abriefhistory}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING-96)}},\mbox{\BPGS\466--471}.\bibitem[\protect\BCAY{橋本\JBA中村}{橋本\JBA中村}{2010}]{Hashimoto-2010}橋本泰一\JBA中村俊一\BBOP2010\BBCP.\newblock{拡張固有表現タグ付きコーパスの構築—白書,書籍,Yahoo!知恵袋コアデータ—}.\\newblock\Jem{{言語処理学会第16回年次大会発表論文集}},\mbox{\BPGS\916--919}.\bibitem[\protect\BCAY{{IREX実行委員会}}{{IREX実行委員会}}{1999}]{IREX}{IREX実行委員会}\BBOP1999\BBCP.\newblock\Jem{{IREXワークショップ予稿集}}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2011}]{BCCWJ}国立国語研究所\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』利用の手引き}(第1.0\JEd).\bibitem[\protect\BCAY{小西\JBA浅原\JBA前川}{小西\Jetal}{2013}]{小西-2013}小西光\JBA浅原正幸\JBA前川喜久雄\BBOP2013\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する時間情報アノテーション.\\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\201--222}.\bibitem[\protect\BCAY{工藤}{工藤}{1995}]{工藤1995}工藤真由美\BBOP1995\BBCP.\newblock\Jem{アスペクト・テンス体系とテクスト—現代日本語の時間の表現—}.\newblockひつじ書房.\bibitem[\protect\BCAY{工藤}{工藤}{2004}]{工藤2004}工藤真由美\BBOP2004\BBCP.\newblock\Jem{日本語のアスペクト・テンス・ムード体系—標準語研究を超えて—}.\newblockひつじ書房.\bibitem[\protect\BCAY{Mani}{Mani}{2006}]{Mani-2006}Mani,I.\BBOP2006\BBCP.\newblock\BBOQ{MachineLearningofTemporalRelations}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe44thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2006)}},\mbox{\BPGS\753--760}.\bibitem[\protect\BCAY{中村}{中村}{2001}]{中村2001}中村ちどり\BBOP2001\BBCP.\newblock\Jem{日本語の時間表現}.\newblockくろしお出版.\bibitem[\protect\BCAY{Pustejovsky,Casta{\~n}o,Ingria,Saur\'{i},Gaizauskas,Setzer,\BBA\Katz}{Pustejovskyet~al.}{2003a}]{TimeML}Pustejovsky,J.,Casta{\~n}o,J.,Ingria,R.,Saur\'{i},R.,Gaizauskas,R.,Setzer,A.,\BBA\Katz,G.\BBOP2003a\BBCP.\newblock\BBOQ{TimeML:RobustSpecificationofEventandTemporalExpressionsinText}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponComputationalSemantics(IWCS-5)}},\mbox{\BPGS\337--353}.\bibitem[\protect\BCAY{Pustejovsky,Hanks,Saur\'{i},See,Gaizauskas,Setzer,Sundheim,Ferro,Lazo,Mani,\BBA\Radev}{Pustejovskyet~al.}{2003b}]{TimeBank}Pustejovsky,J.,Hanks,P.,Saur\'{i},R.,See,A.,Gaizauskas,R.,Setzer,A.,Sundheim,B.,Ferro,L.,Lazo,M.,Mani,I.,\BBA\Radev,D.\BBOP2003b\BBCP.\newblock\BBOQ{TheTIMEBANKCorpus}.\BBCQ\\newblockIn{\Bem{ProceedingsofCorpusLinguistics2003}},\mbox{\BPGS\647--656}.\bibitem[\protect\BCAY{Pustejovsky\BBA\Stubbs}{Pustejovsky\BBA\Stubbs}{2012}]{Pustejovsky-2012}Pustejovsky,J.\BBACOMMA\\BBA\Stubbs,A.\BBOP2012\BBCP.\newblock{\BemNaturalLanguageAnnotation}.\newblockO'Reilly.\bibitem[\protect\BCAY{Sekine,Sudo,\BBA\Nobata}{Sekineet~al.}{2002}]{Sekine-2002}Sekine,S.,Sudo,K.,\BBA\Nobata,C.\BBOP2002\BBCP.\newblock\BBOQ{ExtendedNamedEntityHierarchy}.\BBCQ\\newblockIn{\Bem{ProceedingofthethirdInternationalConferenceonLanguageResourcesEvaluation(LREC-02)}},\mbox{\BPGS\1818--1824}.\bibitem[\protect\BCAY{Setzer}{Setzer}{2001}]{Setzer-2001}Setzer,A.\BBOP{2001}\BBCP.\newblock{\Bem{TemporalInformationinNewswireArticles:AnAnnotationSchemeandCorpusStudy}}.\newblockPh.D.\thesis,{UniversityofSheffield}.\bibitem[\protect\BCAY{UzZaman,Llorens,Derczynski,Allen,Verhagen,\BBA\Pustejovsky}{UzZamanet~al.}{2013}]{TempEval3}UzZaman,N.,Llorens,H.,Derczynski,L.,Allen,J.,Verhagen,M.,\BBA\Pustejovsky,J.\BBOP2013\BBCP.\newblock\BBOQSemEval-2013Task1:TempEval-3:EvaluatingTimeExpressions,Events,andTemporalRelations.\BBCQ\\newblockIn{\Bem2ndJointConferenceonLexicalandComputationalSemantics(*SEM),Volume2:Proceedingsofthe7thInternationalWorkshoponSemanticEvaluation(SemEval2013)},\mbox{\BPGS\1--9},Atlanta,Georgia,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Verhagen,Gaizauskas,Schilder,Hepple,Kats,\BBA\Pustejovsky}{Verhagenet~al.}{2007}]{TempEval}Verhagen,M.,Gaizauskas,R.,Schilder,F.,Hepple,M.,Kats,G.,\BBA\Pustejovsky,J.\BBOP2007\BBCP.\newblock\BBOQ{SemEval-2007Task15:TempEvalTemporalRelationIdentification}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)}},\mbox{\BPGS\75--80}.\bibitem[\protect\BCAY{Verhagen,Saur\'{i},Caselli,\BBA\Pustejovsky}{Verhagenet~al.}{2010}]{TempEval2}Verhagen,M.,Saur\'{i},R.,Caselli,T.,\BBA\Pustejovsky,J.\BBOP2010\BBCP.\newblock\BBOQ{SemEval-2010Task13:TempEval-2}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponSemanticEvaluations(SemEval-2010)}},\mbox{\BPGS\57--62}.\end{thebibliography}\begin{biography}\bioauthor{保田祥}{2011年神戸大学人文学研究科博士後期課程修了.2013年より国立国語研究所コーパス開発センタープロジェクトPDフェロー.現在に至る.博士(文学).認知意味論の研究に従事.}\bioauthor{小西光}{2005年上智大学文学部卒業.2007年上智大学文学研究科博士前期課程修了.2008年より国立国語研究所コーパス開発センタープロジェクト奨励研究員.現在に至る.『日本語書き言葉均衡コーパス』『日本語話し言葉コーパス』『日本語大規模コーパス』の整備に携わる.}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.現在に至る.博士(工学).形式意味論の研究に従事.}\bioauthor{今田水穂}{2010年筑波大学人文社会科学研究科博士課程修了.筑波大学特任研究員を経て,2013年より国立国語研究所コーパス開発センタープロジェクトPDフェロー.現在に至る.博士(言語学).概念意味論の研究に従事.}\bioauthor{前川喜久雄}{1956年生.1984年上智大学大学院外国語学研究科博士後期課程(言語学)中途退学.国立国語研究所教授.言語資源系長.コーパス開発センター長.副所長.博士(学術).専門は音声学ならびに言語資源学.}\end{biography}\biodate\end{document}
V31N02-11
\section{はじめに} 自然言語処理において単語同士の上位下位関係や同義関係,類義関係等の意味知識を獲得することは機械翻訳や質問応答等の技術を開発する上で重要な課題である\cite{Article_01}.意味知識を獲得するのにあたり,膨大な語が存在する中から手動で知識を獲得するのは困難であり知識獲得の自動化が行われてきた.日本語ではこれまでにWikipediaの構造情報,他言語記事の情報(呉他2011;山田他2011)\nocite{Article_02,Article_03}やWWW上に存在するHTML文書の構造情報\cite{Article_04}から上位下位関係を獲得する手法や,航空といった特定分野\cite{Article_05}やシステムの要求仕様書\cite{Article_06}における同義語辞書を自動作成する手法が研究されてきた.また機械学習が発展してきた近年では,特に文章中の多義語に対して適切な意味を識別するタスクである語義曖昧性解消(WSD)において学習データとなるシソーラスの利用価値が高まっている.近年までWSDは教師あり学習による手法が主流であったため,学習データに利用するデータのアノテーションが必要であった.そのためコーパス内に存在するすべての単語を対象としたall-wordsWSDの様な大規模なアノテーションが必要なタスクは困難であった.この課題に対してKumarら\cite{Inproc_07}が提案するEWISEは,WordNetというシソーラスから単語の上位下位関係を学習データとして学習することでアノテーションのコストを削減し教師あり学習をしたモデルに匹敵する精度を出すことに成功した.また翌年にはEWISEをベースにしたEWISER\cite{Inproc_08}が発表され,言語資源であるシソーラスを活用した知識ベースの学習手法の有用性が示されてきた.しかし,類義語などの語彙知識獲得を行う研究では単語同士の関係に着目するのみであり,語義同士の関係は考慮されていない.単語同士の類義関係だと,多義語のどの意味で類義関係なのかが分からない.しかし,どの語義で類義なのかが分かると語義識別や言い換えに役立つ.語義レベルの関係の例として以下の「うまい」と「じょうず」という単語を例として挙げる.今までの研究では単語間の類似性や分布仮説\cite{Article_09,Article_10}を用いて「うまい」と「じょうず」という単語ペアを同義語であるとして獲得することを行ってきた.語義レベルとは単語の語義に注目し,どの語義が類義であるかという語義間の関係を獲得することである.本研究は,岩波国語辞典第五版\cite{Book_11}において意味区分された語義を対象に以下の例において「うまい」の語義2と「じょうず」の語義1が類義であると判定することを目指す.\begin{itemize}\itemうまい【甘い・旨い】\mbox{}\\語義1:“味がよい。「―汁を吸う」(転じて、骨を折らずに自分だけいい目をみる)▽「美味い」とも書く。”\\\textbf{語義2:“よい。すぐれている。旨「―考えだ」。じょうずだ。「話し方が―」▽「上手い」「巧い」とも書く。”}\\語義3:“自分にとって都合がよい。もうけになる。「自分だけ―事をする」▽まずい。派生\textbarさ\textbarげ\textbarみ\textbarがる”\\\itemじょうず【上手】\mbox{}\\\textbf{語義1:“ある物事をする技術がすぐれていること。巧みなこと。そういう人。「名人―」「―の手から水が漏る」(じょうずな人も時に失敗することがある)。また一般に、てぎわがよいこと。うまいこと。「―に立ち回る」▽下手(へた)。”}\\語義2:“《多く「お―」の形で》世辞。世辞を言うこと。派生\textbarさ関連うまい・すぐれる・ひいでる・巧み・得手・器用・巧緻(こうち)・巧妙・熟練・絶妙・達者・堪能(たんのう)・得意・優秀・老巧・老練”\end{itemize}\rightline{(岩波国語辞典第五版より引用)}\vskip\baselineskip\noindentまた日本語においては英語WordNetを翻訳した日本語WordNet\cite{Inproc_12}が存在するが,英語WordNetに存在しない類義関係をどう追加するのかといった課題があり,実用可能な完成度に至っていない.本研究では入力した2単語に対して語義レベルで類義判定することを目的とする.目的の実現のため語義定義文の変更とSentence-BERTによる深層距離学習を利用した類義判定手法を提案する.語義定義文に対して語義を表す記述以外の削除や不足する内容の追加等の変更を行うことで,変更前の語義定義文に比べて適切な語義の特徴を捉えた埋め込みベクトルが得られることが期待できる.また深層距離学習とは,埋め込み空間上において同じラベルが付与されたデータ同士の距離を小さくし,異なるラベルが付与されたデータ同士の距離を大きくする手法であり,これを利用することで本研究の目的とする語義レベルの類義判定用に埋め込み空間の調節がなされ,類義判定精度の向上が期待できる.上記の「うまい」と「じょうず」の語義の類義判定を行う際には,まず2単語の語義定義文の変更を行う.本文中の3.4節の変更方法を適用した結果下記の定義文が得られる.\vskip\baselineskip\begin{itemize}\itemうまい【甘い・旨い】\mbox{}\\語義1:味がよい。「うまい汁を吸う」\\\textbf{語義2:よい。すぐれている。旨「うまい考えだ」。じょうずだ。「話し方がうまい」}\\語義3:自分にとって都合がよい。もうけになる。「自分だけうまい事をする」\\\itemじょうず【上手】\mbox{}\\\textbf{語義1:ある物事をする技術がすぐれていること。巧みなこと。そういう人。「名人上手」「上手の手から水が漏る」。また一般に、てぎわがよいこと。うまいこと。「上手に立ち回る」}\\語義2:世辞。世辞を言うこと。\end{itemize}\vskip\baselineskip\noindent次に上記の変更を施した語義定義文から埋め込みベクトルを得て深層距離学習を行う.埋め込み空間上で「うまい」の語義2と「じょうず」の語義1の距離を小さくし,その他の語義のペアの距離を大きくすることで埋め込み空間を調節し,得られた学習モデルによって語義のペアが類義かどうかを適切に判定した結果を出力することを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 語義の類義判定に関連する研究として,単語間の同義判定\cite{Inproc_13}を行った研究が挙げられる.Hagiwara(2008)が提案した手法は,教師あり学習と単語の組み合わせが共通の文脈タイプに出現することに注目した分布的特徴を用いて同義判定を行う手法である.単語の同義判定においてはHagiwara(2008)が提案した文脈情報を用いたアプローチ以降研究されておらず,主に単語の同義語獲得について研究されてきたため本研究の目的と異なる.そこで同義判定に限らず単語間の関係を推測する手法\cite{Inproc_14}に注目する.Zhangら(2019)は,SEMeval-2010で定義されている名詞間に存在する18個の意味関係分類のためにfine-tuningした文章エンコーダを用いて得た文章ベクトルをラベル予測に用いる手法を提案した.Zhangら(2019)は関係分類に文章エンコーダの転移学習が一定の効果があると示している.文章エンコーダを転移学習させる手法は語義定義文を利用する語義の類義判定に適しており,単語に注目したこの手法を語義定義文に対応させるよう変更することで語義の類義判定にも効果が得られると考えられる.近年では,事前学習済み日本語BERTモデルを用いて岩波国語辞典に記載された語義の類義判定を行った研究\cite{Inproc_15}がある.石井ら(2023)の研究では,辞書特有の記号や表現が含まれる語義定義文から得た文章ベクトルは語義の説明に必要のない特徴を含んでしまうという仮説から,主に語義の類義判定に有効な語義定義文の変更方法を研究したものである.本研究は,石井ら(2023)の語義定義文の変更方法を利用し,更に類義判定に用いられた事前学習済み日本語BERTをfine-tuningすることで類義判定の精度向上を試みる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{語義間の類義判定手法} 本節では,まず,語義間の類義判定を行うシステムについて述べ,次に類義判定モデルのfine-tuningについて述べ,その後,類義判定に利用する学習データの作成方法について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{類義判定システム}語義間の類義判定の流れとしては,まず,fine-tuningを施した類義判定モデルに対象の語義定義文を入力し文章ベクトルを得る.得られた語義定義文の文章ベクトルはmeanpooling操作を行い,BERTが出力した単語ベクトルの平均を求めたベクトルに変換する.次に得られた2つの文章ベクトルに対してコサイン類似度を求め,閾値を越していた場合2つの語義は類義であると判定する.この一連の類義判定を行う類義判定システムを図1に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-2ia10f1.pdf}\end{center}\caption{語義の類義判定システム}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%BERT出力の平均を採用した理由としては,Reimersら\cite{Misc_16}がBERTに入力したトークン列の先頭に挿入された特殊トークン([CLS])における文章全体を表すベクトル及びBERTが出力した単語ベクトルの平均を用いてSemanticTextualSimilarity(STS)ベンチマーク\cite{Inproc_17}を行った結果,単語ベクトルの平均を用いた方が優れていたためである.またSTSベンチマークは2文間の類似度を測定するベンチマークであり,Reimersら(2019)は本研究との提案手法と同様に2つの文章ベクトルに対してコサイン類似度を求め2文間の類似度を求めているためである.語義定義文の文章ベクトルを得る際に利用する事前学習済みモデルは東北大学乾・鈴木研究室が公開している日本語BERTモデル(bert-base-japanese-whole-word-masking)を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事前学習済みモデルのfine-tuning}3.1節に示した本システムの類義判定精度を向上させるために類義判定モデルをfine-tuningする2つの手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Sentence-BERT(SBERT)手法}fine-tuning手法にReimersら(2019)が提案したSentence-BERT(SBERT)手法を採用する.これは提案する類義判定システムは語義定義文の文章ベクトルを用いて類義判定を行うことから,意味ベクトル空間上で類似した文章のベクトルを近く分布させるSBERT手法により類義判定に適した文章ベクトルを得るためである.SBERTによるモデル学習の流れを述べる.まず2つの語義定義文を日本語BERTに入力する.得られた出力に対してpooling操作を行い語義定義文の文章ベクトルを得る.Reimersら(2019)はpooling手法において,出力された全ての単語埋め込みの平均を用いるmeanpoolingを推奨しているため,meanpoolingを適用して定義文Aの文章ベクトルu,定義文Bの文章ベクトルvを得た.u,v及びu,vの距離\textbaru-v\textbarを(u,v,\textbaru-v\textbar)として結合し全結合層に入力し学習を行った.ここで,距離\textbaru-v\textbarは文章ベクトルu,vの各要素の差分をとり絶対値を求めたベクトルと定義する.学習する語義定義文のペアは類義であるか類義でないかを0,1でラベル付けしているため,損失関数には対照損失(ContrastiveLoss)を採用した.meanpoolingを用いたSBERTによるモデル学習の流れを図2に示す.また,BERTを利用して文章ベクトルを得る手法としてCLSトークンのベクトルを用いる方法があり,CLSベクトルを用いた場合の実験も行う.CLSベクトルを用いる場合は,定義文A及び定義文BのCLSベクトルp,qを求め,p,q及びp,qの距離\textbarp-q\textbarを(p,q,\textbarp-q{\textbar})として結合し全結合層に入力し学習を行う.CLSベクトルを用いたSBERTによるモデル学習の流れを図3に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-2ia10f2.pdf}\end{center}\caption{SBERT手法による類義判定モデル学習の流れ(meanpooling)}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%更に,SBERT手法のベースラインとして単語を対象とした類義語判定実験を行う.今回対象とした単語を日本語BERTのトークナイザを用いてトークン化すると,単語によって2つから3つ程のトークンが生成される為,ベースライン実験においてもpooling操作を行う場合とCLSベクトルを用いる場合を実験する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{31-2ia10f3.pdf}\end{center}\caption{SBERT手法による類義判定モデル学習の流れ(CLSベクトル)}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Sentence-BERT(SBERT)+Infersent手法}2章で示したZhangら(2019)の研究と本研究は意味関係の分類という点で類似しており,類義判定においても一定の成果が得られると考えられる.そこでSBERT手法に加えてZhangら(2019)の手法の基礎部分をSBERT手法と組み合わせたSBERT+Infersent手法を同時に提案する.Zhangら(2019)の提案する学習手法は,Conneauら\cite{Misc_18}が提案したInfersentを文章エンコーダの学習に採用しており,学習された文章エンコーダを更に意味関係の推測が行えるよう学習させるものである.本研究ではコサイン類似度を用いて類義の判定を行うため,文章エンコーダを学習させる部分を参考に学習に適用する.SBERT+Infersent構造は図4の流れで類義判定モデルをfine-tuningする.SBERTと比較すると以下の2つの違いがある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{31-2ia10f4.pdf}\end{center}\caption{SBERT+Infersent手法による類義判定モデル学習の流れ}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item2つの定義文から得られた文章ベクトルu,vを結合する際,文章ベクトルu,vの要素ごとに積を取るアダマール積u*vを追加している.\item損失関数に交差エントロピー誤差を使用する.\end{itemize}\noindent更に実験では特徴ベクトルの結合方法が与える影響を調査するため,特徴ベクトルu,vとu,vの距離を結合した(u,v,\textbaru-v\textbar),特徴ベクトルu,vのみを結合した(u,v)に変更した比較手法の実験を行う.これによってu*vという特徴ベクトルが必要かどうか,\textbaru-v\textbarを用いた距離学習が有効かどうかを示すことができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{辞書とシソーラスを用いた語義間の類義ラベル付け}本節では,語義同士に対して岩波国語辞典と分類語彙表を用いて類義か否かをラベル付けする手法について述べる.語義間の類義判定モデルを構築するために,語義同士が類義か否かをラベル付けした学習データが必要となる.このようなデータは作成されていないため,語義同士の類義ラベル付けを手作業で行った.対象は岩波国語辞典に記載されている単語とその語義である語義定義文とし,対象単語の類義語ペア内の語義の組み合わせに対して類義であるか否かをラベル付けしたデータを作成する.対象単語の類義語ペアを選出には分類語彙表のレコードを利用する\footnote{\url{https://clrd.ninjal.ac.jp/goihyo.html}}.レコードの項目は「レコードID番号/見出し語番号/レコード種別/類/部門/中項目/分類項目/分類番号/段落番号/小段落番号/語番号/見出し/見出し本体/読み/逆読み」となっており,これに含まれる分類番号と段落番号を利用する.レコードの各項目の説明を以下に示す.\vskip\baselineskip\begin{description}[leftmargin=3.2cm,style=nextline]\item[レコードID番号]:各レコードに先頭から正の整数値を割り当てたもの.\item[見出し番号]:見出しの異同によって数えた場合の番号.\item[レコード種別]:「書籍版データ」のレコードとそれに追加したレコードの区別を示す.\item[類]:分類枠である「体の類」「用の類」「相の類」「その他の類」の区別を示す.\item[部門]:類の下の分類で,意味的に大きなまとまりである部門を表す.\item[中項目]:部門より小さい意味的なまとまりを示す.\item[分類項目]:分類番号に対して与えられた項目名.\item[分類番号]:半角数字1けた+小数点(半角)+半角数字4けたで表す.\item[段落番号]:分類項目内に設けた意味上の語集団.\item[小段落番号]:段落の中に設けた意味上の語集団.\item[語番号]:小段落内での見出しの出現順番号.\item[見出し]:語句及び注記.\item[見出し本体]:見出しから()内の読み及び漢字,[]内の注記をはずしたもの.\item[読み]:見出しの読みを平仮名で表記.\item[逆読み]:上記の「読み」の欄を語末から並べたもの.\end{description}\vskip\baselineskip\noindentデータ作成の流れとしては,まず分類語彙表の分類番号と段落番号が同じ単語同士は類義語として判断し,その中から類義語のペアを選出する.類義語ペアの選出において少なくとも一方の単語は必ず語義が2つ以上存在するものを選出した.次に,選出した類義語ペアに含まれる語義について類義ラベル付けを行う.例えば,単語Aは3つの語義を持ち,単語Bは2つの語義を持つ場合は,AとBの語義定義文の全ての組み合わせ(6組)に対して人手によって類義であると判断したペアは1,類義でないと判断したペアに0を付与し2値ラベル付けを行った.本実験では,類義語ペア内の語義の組み合わせを対象に語義の類義判定を行う.ペアの中には類似した意味を複数持つ定義文が存在する場合があり,この例を図5に示す.「くどい」という単語の語義13612-0-0-0-0は「しつこい」という単語の語義21578-0-0-1-0と21578-0-0-2-0の2つの語義の意味を含むため,21578-0-0-1-0と13612-0-0-0-0,21578-0-0-2-0と13612-0-0-0-0は類義としている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{31-2ia10f5.pdf}\end{center}\caption{語義間の類義ラベル付けの例}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定義文の変更}定義文の変更については,石井ら(2023)が提案した変更方法を適用する.石井ら(2023)は,語義の類義判定に有効な語義定義文の文章ベクトルを得る変更方法として以下に示す設定A\textcircled{\scriptsize1}~\textcircled{\scriptsize4}を岩波国語辞典の定義文に適用しており,この変更方法を本研究に採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{31-2ia10f6.pdf}\end{center}\caption{語義説明の無い定義文の削除例}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{31-2ia10f7.pdf}\end{center}\hangcaption{辞書内表現・記号の削除・置換,全角英字を半角英字に置換,用例文内のハイフン「―」の置換(ひらがな置換)例}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item語義説明の無い定義文の削除A\par2重括弧「(())」,2重山括弧「《》」,亀甲括弧「〔〕」の表現は単語語義を説明しないためこの表現のみの定義文を削除する.設定Aの例を図6に示す.\item辞書内表現・記号の削除・置換,全角英字を半角英字に置換,用例文内のハイフン「―」の置換(ひらがな置換)\textcircled{\scriptsize1}\par2重括弧「(())」,2重山括弧「《》」,定義文の番号付けした山括弧「\textless{}\textgreater{}」表現や「↓」「△」「×」の記号これらは,単語語義を説明しないため削除する.特殊な記号を「▽」→「。」,「【】」→「『』」に置換.用例文内のハイフン「―」を見出し語(ひらがな)に置換.設定\textcircled{\scriptsize1}の例を図7に示す.\item用例文内のハイフン「―」の置換(一対一置換)\textcircled{\scriptsize2}\parひらがなは同音異義の単語が存在するため,同訓異字が存在しない見出し語において漢字に置換する.設定\textcircled{\scriptsize2}の例を図8に示す.\item追記情報の削除\textcircled{\scriptsize3}\par▽」から続く文,「派生|」から続く文,全角括弧「()」読み仮名,半角括弧「()」注釈番号は単語語義を説明しないため削除する.設定\textcircled{\scriptsize3}の例を図9に示す.\item全角括弧「()」表現を削除\textcircled{\scriptsize4}\par全角括弧「()」は,読み仮名の他に直前の単語の詳細,文の一部である場合がある.語義を簡素に表現するためこれらを削除する.設定\textcircled{\scriptsize4}の例を図10に示す.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{31-2ia10f8.pdf}\end{center}\caption{用例文内のハイフン「―」の置換(一対一置換)例}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{31-2ia10f9.pdf}\end{center}\caption{追記情報の削除例}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[t]\begin{center}\includegraphics{31-2ia10f10.pdf}\end{center}\caption{全角括弧「()」表現の削除例}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{語義データセット}本研究では3.3,3.4節に記載した手法をもとに,岩波国語辞典に記載された単語から名詞,動詞,形容詞に分類される単語ペアそれぞれ50組のデータを選出した.この50組のデータを訓練データ用に30組,検証データ用に10組,テストデータ用に10組に分けることでデータセットを作成した.また,名詞,動詞,形容詞を全て合わせたALLを作成した.ALLは各品詞の訓練データ,検証データ,テストデータを組み合わせたものとなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{10table01.tex}%\caption{学習データ内訳}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各データの内訳を以下の表1に示す.「単語ペア数」は類義語ペアの総数,「全定義文数」は各品詞における全単語に含まれる定義文の総数,「定義文ペア数」は全ての定義文からペアとなる2文を取り出したパターンの総数となる.尚テストデータにおける「定義文ペア数」は,各単語ペアに含まれる全ての定義文からペアとなる2文を取り出したパターンの総数を足し合わせた数である.「ラベル0サンプル数」は類義でない定義文ペアのサンプル数,「ラベル1サンプル数」は類義である定義文ペアのサンプル数を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{単語データセット(ベースライン)}語義定義文を用いた類義判定の有効性を示すため単語データセットを用意し,単語を対象とした類義判定を提案手法(SBERT)で行い結果を比較する.単語は語義データセットに含まれる名詞,動詞,形容詞を用いる.単語数は各品詞において訓練データに60個,検証・テストデータにそれぞれ20個存在する.学習及びテストを行う類義単語ペアの総数は全ての単語からペアとなる2単語を取り出したパターンの数となるため,各品詞の訓練データは1770組,検証・テストデータは45組となる.また語義データセット同様全ての品詞データを合わせたALLを用意した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}本研究の評価は類義の判定をする二値分類タスクであるため,macro-F1スコアを評価指標として求めた.類義の判定においては,類似度を測るコサイン類似度の閾値を0.3から0.95まで0.01刻みで変更し検証データを用いてmacro-F1が最高値となる閾値を求め,テストデータに適用しmacro-F1を求めた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}3.2節に示した提案手法のSBERTによる類義判定モデルfine-tuning時のハイパーパラメータを表2に示す.SBERTのデフォルトパラメータであるエポック数,評価ステップについても設定を変更してモデルの学習を行った.SBERT手法の学習では,BERT層及び全結合層を合わせたモデル全体のパラメータを更新した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{10table02.tex}%\caption{SBERT手法のハイパーパラメータ}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{10table03.tex}%\caption{SBERT+InferSent手法のハイパーパラメータ}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%SBERT+InferSent手法のハイパーパラメータを表3に示す.Zhangら(2019)が提案した手法では最適化手法にAdam,InfersentではSGDを用いているため両方の最適化手法を比較用手法に適用して結果を求める.SBERT+InferSent手法の学習では,BERT最終層及び全結合層のパラメータを更新した.fine-tuningについては,各品詞のテストデータに対応する品詞の訓練データをモデルに学習させ結果を求める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{10table04.tex}%\hangcaption{SBERT手法の実験結果(macro-F1).trainpoolingはモデル学習時,testpoolingは類義判定時に用いられるpoolingを示す.stepは評価ステップを示す.「※」は各品詞でmacro-F1が最高値となったepoch,stepの組み合わせを同じ品詞に適用していることを示す.}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果・考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{SBERT手法におけるfine-tuningの有効性}fine-tuning済みの類義判定モデルを利用して類義判定を行った結果とfine-tuningを施していない元の日本語BERTモデル(fine-tuning無し)を利用して類義判定を行った結果を表4に示す.表4中の「(ベースライン)」は4.1.2節で示した単語データセットを用いた実験結果を示し,「(定義文の変更無し)」は3.4節で示した定義文の変更を行わず,岩波国語辞典の定義文をそのまま用いた実験結果を示す.なおfine-tuningした類義判定モデルの結果は3回実験をして得られたmacro-F1の平均値を求めたものである.また,各品詞においてmacro-F1が最高値となった際の閾値を表5に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{10table05.tex}%\caption{各品詞においてmacro-F1の最高値を得た設定の閾値}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%今回の実験では,提案手法であるSBERTを用いてfine-tuningした類義判定モデルを用いた類義判定精度が一番高く,ALLにおいて0.8172の値を出した.このときの閾値の平均は0.60であり0.60が最適な閾値であるといえる.またfine-tuning済みの類義判定モデルはfine-tuning無しの場合に比べ,各品詞において0.13~0.28の向上が見られた.ベースラインとする単語を対象とした類義判定精度と比べると,どの品詞においても語義を対象とした精度の方が高い値を出した.単語ベクトルは単語そのものの特徴を含んだベクトルが得られるのに対して,語義定義文の文章ベクトルはより多くの語を含むため語義に必要のない特徴を含んだベクトルが生成される可能性が高い.そのため単語の類義判定よりも語義の類義判定の方が難しいタスクであると考えられることから,語義の類義判定を行う提案手法の精度に妥当性があるといえる.また,語義の類義判定精度が単語の判定精度を上回る結果となった要因として,単語の多義性と日本語BERTモデルの学習で使われる文脈の多様性により多義的な意味を含んだ単語ベクトルが生成されることが挙げられる.そのため語義を説明する文章である語義定義文を用いることで語義レベルの関係を高い精度で判定できるため,より高度な意味分析が可能になるといえる.fine-tuning無しの日本語BERTを用いて同様の類義判定を行った石井ら(2023)の実験では,類義判定が難しい例として以下に示す参照的な記述がなされる定義文を含む「すがお」「じがお」の単語ペアを挙げている.なお以下の語義定義文は岩波国語辞典の語義定義文に3.4節の変更を加えている.\vskip\baselineskip\begin{itemize}\itemすがお【素顔】\mbox{}\\語義1:“ふだんの顔。”\\\textbf{語義2:“化粧していない顔。地顔。転じて、ありのままの状態。「東京の素顔」”}\\語義3:“酒に酔っていない時の顔。しらふ。”\\\itemじがお【地顔】\mbox{}\\\textbf{語義1:“素顔。”}\end{itemize}\vskip\baselineskip「すがお」「じがお」の類義判定では,「すがお」の語義2と「じがお」の語義1のペアが類義であると判定したい.「じがお」の語義定義文は“素顔。”と記述されており,「すがお」の定義文を読むように誘導させる参照的な記述で書かれている.このように語義定義文が極端に短くなり有用な文章ベクトルを得られないことで類義判定が難しくなると考えられる.この「すがお」と「じがお」の語義ペアに対して,fine-tuning無しとfine-tuning済みの類義判定モデルを用いることでコサイン類似度がどれほど変化するのか調査した結果を表6に示す.表6におけるコサイン類似度の数値を見ると,類義であると判定したい語義ペア(「すがお」の語義2と「じがお」の語義1)のコサイン類似度については数値が約0.012低下してあまり変化をしていないのに対して,類義でないと判定したい語義ペアについては「すがお」の語義1と「じがお」の語義1のペアが約0.25,「すがお」の語義1と「じがお」の語義1のペアが約0.26と大幅に低下していることが分かる.したがって,fine-tuning無しの日本語BERTモデルを用いて求めた場合は正解ペアのコサイン類似度が語義ペアの組み合わせ中で最低値となるが,fine-tuning済み類義判定モデルを用いた場合は最高値となった.コサイン類似度の数値に閾値を設けて類義判定をしているため,正解ペアの数値と不正解ペアの数値において,正解ペアが最高値となりかつ正解ペアと不正解ペアの数値の乖離が大きいほど類義判定に望ましい結果となる.fine-tuning済み類義判定モデルの結果はこれを満たす数値を得られることからfine-tuning無しの日本語BERTモデル用いた場合と比べて判定精度が向上しているとわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{10table06.tex}%\caption{「すがお」「じがお」語義ペアのコサイン類似度(※正解の語義ペアと類似度を太字で表す)}\vspace{2\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に類義判定に失敗する例「にくい」「がたい」の類義語ペアを以下に挙げる.なお以下の語義定義文も同様に岩波国語辞典の語義定義文に3.4節の変更を加えている.\vskip\baselineskip\newpage\begin{itemize}\itemにくい\mbox{}\\語義1:“『憎い』やっつけてやりたいほど不快だ。”\\語義2:“しゃくにさわるほど気にくわない。”\\語義3:“しゃくにさわるほど、あっぱれだ。いやでも感心せざるを得ない。「なかなかにくい振舞だ」「き剛の者かな」保元”\\\textbf{語義4:“すらすらとは…できない。「読みにくい字」「飲みにくい薬」”}\\\itemがたい【難い】\mbox{}\\\textbf{語義1:“…しにくい。なかなか…できない。やすい。「動かし難い事実」”}\end{itemize}\vskip\baselineskip%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{10table07.tex}%\caption{「にくい」「がたい」語義ペアのコサイン類似度(※正解の語義ペアと類似度を太字で表す)}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表7にコサイン類似度の数値を示す.fine-tuning無しの日本語BERTを用いて求められたコサイン類似度の数値では,正解ペアの数値が一番高いが不正解ペアである「にくい」の語義3と「がたい」の語義1との数値の差が0.02しかなく類義判定が難しい結果となっている.一方fine-tuning済みの類義判定モデルを用いた場合は0.046の差を得ることができた為,fine-tuning無しの日本語BERTモデルを用いた場合に比べ理想的な数値を得ることができている.しかし,「にくい」と「がたい」の定義文ペアにおけるコサイン類似度の数値が全体的に低いことが原因で類義判定が上手くいかない.形容詞の閾値は3回の実験で0.78,0.77,0.79を取るときにmacro-F1が最高値になるためコサイン類似度の最高値が0.7384である「にくい」「がたい」の場合,形容詞における最適な閾値である0.78,0.77,0.79のいずれの値に対してもコサイン類似度の値が下回ってしまう.訓練データは各品詞の全定義文ペアで構成されているため,不正解ペアが学習データの多くを占める.そのため全体的なコサイン類似度の数値が低く,極端に低くなる例も現れてしまう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{SBERT+Infersent手法で利用する特徴ベクトルによる精度の変化}SBERT+Infersent手法の結果を表8に示す.3.2.2項で示したSBERT+Infersent手法とその比較手法の内でもっともmacro-F1が高い設定は,特徴ベクトルに(u,v,\textbaru-v\textbar),エポック数を10,最適化手法にadamを採用した0.7932となった.結果から最適化手法に交差エントロピー誤差を用いるよりも対象誤差を用いた方が,特徴ベクトルにおいては(u,v,\textbaru-v\textbar,u*v)を用いるよりも(u,v,\textbaru-v\textbar)を用いた方が今回の実験では有効であるといえる.更に特徴ベクトルにベクトルの距離である\textbaru-v\textbarを用いなかった場合の精度が一番低いため距離学習が有効であるといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{10table08.tex}%\caption{SBERT+Infersent手法の実験結果(macro-F1)}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{大規模言語モデルを用いた比較実験}本研究の提案手法の有効性を示すため,Sentence-T5(ST5)\cite{Misc_19}モデルとの比較実験を行った.ST5とは,大規模言語モデルであるText-to-TextTransferTransformer(T5)\cite{Article_20}を用いて,入力した文章から文章ベクトルを得る手法である.ST5はSTSベンチマークを含むタスクにおいてSBERTに比べて高い精度を示している.比較実験は,以下の4つの実験を行う.\begin{description}[leftmargin=4.0cm,style=nextline]\item[ST5+MLP]:ST5で得た文章ベクトルをMulti-LayerPerceptron(MLP)に入力し,テキスト分類を行う.\item[ST5+MLP閾値判定]:ST5+MLPモデルの出力値に閾値を設定する.\item[ST5+cos閾値判定]:ST5を用いて3.1節に示すコサイン類似度の閾値判定を行う.\item[ST5inSBERT]:SBERT手法のエンコーダをST5に変更する.\end{description}\noindentST5+MLPは,3.1節に示した定義文同士のコサイン類似度による閾値判定を行わずに,MLPから得た出力値を用いてテキスト分類を行い,これを類義判定の結果とした.ST5+MLPモデルは,SBERT+Infersent手法のエンコーダをST5に変更し,SBERT+Infersent手法における最高値を得た設定を引き継ぐ.尚モデルのパラメータにおいては,全結合層のみを更新している.ST5+MLP閾値判定は,ソフトマックス関数から得られたラベル1の確率値に閾値を設定し,閾値を超した場合は出力の結果をラベル1であるとした.閾値は0.0001から0.5000まで0.0001刻みで変更した.ST5+cos閾値判定は,事前学習済みのST5モデルを用いて3.1節に示す類義判定を行った.ST5inSBERTは,3.2.1項のSBERT手法のエンコーダをST5に変更し,SBERT手法において最高値を得た設定でモデル学習を行い,類義判定を行った.4つの実験で用いたST5モデルは,HuggingFace上に公開されている事前学習済み日本語ST5モデル(\texttt{sonoisa/sentence-t5-base-ja-mean-tokens})\footnote{\url{https://huggingface.co/sonoisa/sentence-t5-base-ja-mean-tokens}}を用いた.これら4つのST5を用いた実験の結果を表9に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{10table09.tex}%\caption{大規模言語モデル(Sentence-T5)を用いた実験結果(macro-F1)}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%類義判定の精度は,ST5+MLP手法において最低値0.6287となり,ST5inSBERT手法において最高値0.8199を出した.ST5inSBERT手法の結果においては,SBERT手法の最高値よりも高い値が得られた.ST5+MLP手法によるテキスト分類を用いたアプローチの精度が低い要因として,本研究に用いたデータセットが挙げられる.本研究で用意したデータセットは,2つの定義文が類義でないラベル0,類義であるラベル1の偏りが著しく,表1に示すようにラベル1が極端に少ないデータセットである.そのため,MLPを用いた一般的なテキスト分類の手法では,類義でないラベル0を多く学習するため,低い精度になったと考えられる.ST5+MLP閾値判定手法は精度が向上したものの,SBERT手法よりも精度が低い結果になった.ST5+cos閾値判定手法による類義判定の精度は,SBERT手法に匹敵する精度を出しており,BERTよりもST5から得られる文章ベクトルを用いることで高い精度が得られることが分かる.ST5inSBERT手法においては,類義判定におけるSBERT手法の最高値を更新したため,エンコーダに性能の高い言語モデルを用いることで更なる精度向上が見込める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,単語間の類義関係に着目し,「うまい」の語義「よい。すぐれている。」と「じょうず」の語義「ある物事をする技術がすぐれていること。」の様に,単語の語義を対象に類義であるか否かを判定する類義判定手法を提案した.岩波国語辞典の見出し語,語義定義文及び分類語彙表の分類番号から単語ペアに対する語義レベルでの類義データセットを作成し,Sentence-BERTやSentence-BERT+Infersentといった距離学習モデルに対して学習データでfine-tuningを行ったモデルを用いて単語間の類義判定を行った.実験の結果,コサイン類似度に閾値を設ける語義の類義判定において,正解ペアのコサイン類似度と不正解ペアのコサイン類似度の間にある程度理想的な差を生み出し,類義判定精度を高められるモデルが生成できることを示した.これには距離学習や最適化手法の対象誤差を用いたことが有効に働いたと考えられる.提案手法における距離学習や語義定義文の変更を行うことによって,ベースライン手法よりも類義判定を効果的にできることを示した.今後は,専門家の協力のもとでさらに大規模な類義データセットを構築し,高い精度で類義判定を行うことができる新たなシステムの考案を行いたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP22K12161による助成を受けて実施したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{10refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石井佑樹}{%2022年茨城大学工学部情報工学科卒.現在,茨城大学大学院理工学研究科博士前期課程に在籍.言語処理学会学生会員.}\bioauthor{佐々木稔}{%1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科准教授.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,計量国語学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V03N02-02
\section{はじめに} インターネット上の電子ニュース(以下,ネットニュースと記す)は,誰もが自由に記事を投稿することができ,それがそのまま広く配布されるという特徴を持った,新しいマスメディアである.情報発信者が限られている従来のマスメディア(新聞,ラジオ,テレビ)と比べ,情報発信の機会を広くに解放した点で,ネットニュースはマスメディアの新しい可能性を開いたが,逆に,情報発信者の拡大による情報の洪水と情報(テキスト)品質の多様化という新しい現象を引き起こしつつある.このため,求める情報を簡単に見つけることができなくなりつつある.我々は,この問題を解決する方策として,ダイジェストに注目している\cite{Madoka-master-94,Madoka-ipsj-conf-94,Madoka-ipsj95}.ダイジェストとは,元となる情報の特質をコンパクトにまとめて情報の種類別に整理したものであり,我々が大量の情報に接する際に効果的なナビゲーション機能を果たす.既存のダイジェストは,人手で編集されたものがほとんどであるが,はじめからオンラインテキストとして存在するネットニュースでは,このダイジェスト作成を完全に自動化することが可能である.我々は,既に,ネットニュースのダイジェスト自動生成の1つのプロトタイプとして,fj.meetingsのダイジェスト自動生成システムを作成し,実際に運用している\footnote{\verb+http://www.jaist.ac.jp/\~{}sato/nnad/home-j.html+}.本研究では,その次のステップとして,fj.wantedのダイジェスト自動生成について検討した.fj.wantedは,fj.meetingsとは異なり,かなり多様な投稿者が,多様なテキスト品質の記事を投稿しており,fj.meetingsのダイジェスト自動生成で用いた手法とは異なった手法が必要となる. \section{ニュースグループfj.wanted} ダイジェスト自動生成システムの作成に先立ち,94年9月8日から10月18日の間にfj.wantedに流れた記事231件(フォロー記事は除く)に対する調査を行なった.特に,その中の59件については,詳細な調査を行なった.ここでは,その調査結果を示す.\subsection{主題上の特徴}fj.wantedの記事の主題(目的)は,「何かを探している(求めている)ということを伝える」というものである.これらの記事の主題は,おおよそ,図\ref{fig:category}に示すような2段の階層的カテゴリに分類することが可能である\footnote{下位分類の1--5に分類できないもの(例えば,「ある物とある物を交換したい$=$交換してくれる人を探している」)は,0の「探しています」に分類する.}.この図において,かぎ括弧内は,求めるものの対象が何であるかを示している.以下では,これらのカテゴリを記事のカテゴリと呼ぶ.\begin{figure}\begin{center}\tree[h]{0.探しています[人,物,情報]}\leaf{1.譲って下さい[物]}\leaf{2.譲ります[物]}\leaf{3.貸して下さい[物]}\leaf{4.募集します[人]}\leaf{5.教えて下さい[情報]}\endtree\end{center}\caption{記事のカテゴリ}\label{fig:category}\end{figure}\subsection{文章上の特徴}fj.wantedの記事には,以下のような文章上の特徴が見られた.\begin{enumerate}\item[(1)]多くの記事において,その記事の内容を端的に表す1文(以下,サマリ文と呼ぶ)が存在する.\end{enumerate}調査した記事59件中,54件(91.5\%)にサマリ文が存在した.\begin{enumerate}\item[(2)]fj.wantedの記事で用いられる文章構造のほとんどは,単刀直入型か背景説明型である.\end{enumerate}単刀直入型と背景説明型とは,図\ref{fig:structure}に示すような文章構造(文章の流れ)をさす.この図において,かぎ括弧がつけられたものは,省略可能な要素である.調査した記事59件中,単刀直入型は47件(79.8\%),背景説明型は10件(16.9\%)であった.なお,これらの型において,「要約」の部分が1文であれば,それがサマリ文となる.\begin{figure}\begin{center}\begin{tabular}[t]{|l|}\multicolumn{1}{c}{単刀直入型}\\\hline1.[あいさつ・自己紹介]\\2.要約(1文or複数の文)\\3.[詳細説明]\\\hline\end{tabular}\hspace*{10mm}\begin{tabular}[t]{|l|}\multicolumn{1}{c}{背景説明型}\\\hline1.[あいさつ・自己紹介]\\2.背景説明\\3.要約(1文or複数の文)\\4.[詳細説明]\\\hline\end{tabular}\end{center}\caption{単刀直入型と背景説明型}\label{fig:structure}\end{figure}\subsection{表現上の特徴}fj.wantedの記事には,以下のような表現上の特徴が見られた.\begin{enumerate}\item[(1)]典型的な「求む」の表現が,多くの記事で用いられる.\end{enumerate}これらの表現のほとんどは,典型的な動詞群と文パターン(文末表現)によって構成されている.使われる典型的な動詞は,記事のカテゴリによって異なる.図\ref{fig:pattern_example}に例を示す.\begin{enumerate}\item[(2)]機械による言語処理を難しくする,以下のような特徴が見られる.\begin{itemize}\itemテキストが低品質である.(誤りが多い)\item会話体が存在する.(ex.「〜ってあるんでしょうか?」)\item品目名として,かなり特殊な固有名詞が多数現れる.\end{itemize}\end{enumerate}\begin{figure}\begin{center}\begin{tabular}{|rl|}\hline\multicolumn{2}{|l|}{特徴的な動詞}\\\hline0.&探しています,求めています,〜方はいらっしゃいませんか,...\\1.&譲って下さい,売って下さい,買います,...\\2.&譲ります,売ります,...\\3.&貸して下さい\\4.&募集します\\5.&教えて下さい,ご存知ないですか,...\\\hline\hline\multicolumn{2}{|l|}{典型的な「求む」の文パターン}\\\hlinea.&「〜を(動詞)下さい」\\b.&「〜を(動詞)下さる方を探しています」\\c.&「〜を探しています.どなたか(動詞)いただけないでしょうか」\\\hline\end{tabular}\end{center}\caption{典型的な「求む」の表現例}\label{fig:pattern_example}\vspace*{10mm}\end{figure} \section{サマリ抽出} 上記の調査結果に基づき,fj.wantedの各記事から\begin{enumerate}\item記事のカテゴリ\itemサマリ文\end{enumerate}の2つを記事のサマリとして抽出することとし,それを行なうモジュールを作成した.その概要を図\ref{fig:summary_extraction}に示す.この図に示すように,サマリ抽出は,文分割,特徴抽出,カテゴリ判定,サマリ文抽出の4つのステップによって行なうが,最後の2つのカテゴリ判定とサマリ文抽出はそれぞれ独立に行う.これは,以下のように,サマリ文として抽出すべき文とカテゴリ判定の根拠となる文が異なる場合があるからである.\begin{quote}AT互換機用のモニタを探しています。\\VGA以上の解像度を持つカラーモニターを2万円未満で譲っていただけないでしょうか。\end{quote}この例では,1文目がサマリ文であるのに対し,カテゴリ「譲って下さい」は2文目から求まる.\begin{figure}\begin{center}\small\fbox{\begin{tabular}{p{8zw}cp{8zw}}&記事&\\&$\downarrow$&\\&\fbox{1.文分割}&(先頭10文のみ)\\&$\downarrow$&\\&\fbox{2.特徴抽出}&\\&$\downarrow$&\\&特徴ベクトル&(各文に対して)\\&$\swarrow$\\\\$\searrow$&\\\multicolumn{3}{c}{\begin{tabular}{@{}c@{}}\fbox{3.カテゴリ判定}\\$\downarrow$\\カテゴリ\end{tabular}\\\begin{tabular}{@{}c@{}}\fbox{4.サマリ文抽出}\\$\downarrow$\\サマリ文\end{tabular}}\end{tabular}}\end{center}\caption{サマリ抽出の概要}\label{fig:summary_extraction}\end{figure}\subsection{文分割}ニュース記事の本文を文毎に分割し,先頭の10文を取り出す\footnote{この10という数は,実験的に決定した.なお,fj.wantedの記事の半数以上は,10文以下の記事である.}.記事には,色々な表示上の工夫がされていることがあり,文を切り出すことはそれほど単純ではない.ここでは,各種のヒューリスティックを組み込んだ専用プログラムによって文を切り出す.\subsection{特徴抽出}各文に対して,42個の特徴が存在するかどうかを調べ,特徴ベクトル(42bitのビット列)を作成する.ここでの「特徴」とは,例えば,\begin{description}\item[特徴2]「譲って下さい」に類する表現が存在する\end{description}といったものであり,これは,表\ref{table:yuzutte}に示すような表現が存在するかどうかを,文字列照合によって調べることによって判定する.42個の特徴の概要を表\ref{table:features}に示す.\begin{table}\caption{特徴2の表現}\label{table:yuzutte}\begin{center}\small\begin{tabular}{|r|l|l|l|}\hline譲って&\multicolumn{3}{l|}{\{欲しい$|$下さい$|$もらいたい$|$頂きたい\}}\\\cline{2-4}&もらえ&\multicolumn{2}{l|}{ると}\\\cline{3-4}&頂け&ます&か\\&&ません&でしょうか\\&&ない&\\\hlineお譲り&\multicolumn{3}{l|}{\{下さい$|$頂きたい$|$頂きたく\}}\\\cline{2-4}&頂け&\multicolumn{2}{l|}{ると}\\\cline{3-4}&願え&ます&か\\&&ません&でしょうか\\&&ない&\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{42個の特徴}\label{table:features}\begin{center}\footnotesize\begin{tabular}{rll}ID&特徴&以降の処理での利用\\\hline1&探しています&$\rightarrow$探しています\\2&譲って下さい&$\rightarrow$譲って下さい\\3&売って下さい&$\rightarrow$譲って下さい\\4&買って下さい&$\rightarrow$譲ります\\5&貸して下さい&$\rightarrow$貸して下さい\\6&教えて下さい&$\rightarrow$教えて下さい\\7&知らせて下さい&$\rightarrow$教えて下さい\\8&紹介して下さい&$\rightarrow$教えて下さい\\9&ダビングして下さい&$\rightarrow$譲って下さい\\10&譲ります&$\rightarrow$譲ります\\11&売ります&$\rightarrow$譲ります\\12&募集します&$\rightarrow$募集します\\13&知りたいの&$\rightarrow$教えて下さい\\14&買いたいの&$\rightarrow$譲って下さい\\15&欲しいの&$\rightarrow$譲って下さい\\16&求めています&$\rightarrow$探しています\\17&希望します&$\rightarrow$(譲って下さい)\\18&存在しますか&$\rightarrow$教えて下さい\\19&はあるのでしょうか&$\rightarrow$教えて下さい\\20&はいらっしゃいますか&$\rightarrow$探しています\\21&可能でしょうか&$\rightarrow$教えて下さい\\\hline\end{tabular}\begin{tabular}{rll}ID&特徴&以降の処理での利用\\\hline22&知りませんか&$\rightarrow$教えて下さい\\23&質問です&$\rightarrow$教えて下さい\\24&譲って下さる&$\rightarrow$譲って下さい\\25&売って下さる&$\rightarrow$譲って下さい\\26&買って下さる&$\rightarrow$譲ります\\27&貸して下さる&$\rightarrow$貸して下さい\\28&ダビングして下さる&$\rightarrow$譲って下さい\\29&知っている&$\rightarrow$教えて下さい\\30&情報を待っています&$\rightarrow$教えて下さい\\31&情報をお持ちの&$\rightarrow$教えて下さい\\32&届きません&$\rightarrow$譲って下さい\\33&価格&$\rightarrow$譲って下さい(+探)\\34&1万円&$\rightarrow$譲って下さい(+探)\\35&どのように/誰か/どこか&$\rightarrow$教えて下さい(+探)\\36&疑問文&\\37&です文&$\rightarrow$skip\\38&あいさつ&$\rightarrow$skip\\39&自己紹介&$\rightarrow$skip\\40&代理投稿&$\rightarrow$skip\\41&境界線&$\rightarrow$skip\\42&コメント&$\rightarrow$skip\\\hline\end{tabular}\end{center}\end{table}\subsection{カテゴリ判定}カテゴリ判定では,35個の規則を用いる.このうち,31個の規則は,特徴1--16,18-32に直接対応する規則で,これらの特徴の存在がそのままカテゴリの候補に対応する(表\ref{table:features}中の,「以降の処理での利用」欄を参照).残りの4つの規則のうちの3つは,特徴33--35に対応する規則で,他の規則によって「探しています」というカテゴリが候補となっている場合にのみ使用する.残りの1つの規則(特徴17に対応)は,他の規則によってカテゴリの候補が得られない場合にのみ使用する.具体的には,以下の手順によってカテゴリを決定する.\begin{enumerate}\itemカテゴリ候補リストを空とする.\item先頭の文の特徴ベクトルから順に,文の特徴ベクトルに対して以下を実行する.\begin{enumerate}\item[(a)]規則を適用し,その特徴ベクトルから得られる全てのカテゴリの候補をカテゴリ候補リストに追加する.\item[(b)]そのリストの中に,「譲って下さい/譲ります/貸して下さい/募集します」のいずれかが含まれる場合は,それを最終的なカテゴリとし,処理を終了する.\end{enumerate}\itemカテゴリ候補リストに「教えて下さい」が含まれている場合は,それを最終的なカテゴリとし,処理を終了する.\itemカテゴリ候補リストに「探しています」が含まれている場合は,それを最終的なカテゴリとし,処理を終了する.\itemカテゴリは不明とする.\end{enumerate}\subsection{サマリ文抽出}サマリ文の抽出では,以下の2つの方法を実装した.\begin{description}\item[表現パターンによる方法]特徴1--32を持った最初の文をサマリ文とする.但し,その前の文が「疑問文(特徴36)」である場合は,その文をサマリ文とする.\item[文章構造による方法]特徴37--42を持たない最初の文をサマリ文とする\footnote{これは,単刀直入型に対応した方法である.}.\end{description} \section{実験} 2節での調査の対象とした231件の記事(KNOWN)と,1994年12月5日から12月13日の間にfj.wantedに流れた80件の記事(UNKNOWN)に対してサマリ抽出の実験を行なった.ここでは,その実験結果について述べる.\subsection{カテゴリ判定}カテゴリ判定の実験結果を表\ref{table:cat_result}に示す.この表よりわかるように,既知の記事群(KNOWN)に対しては88.3\%,未知の記事群(UNKNOWN)に対しては81.3\%という高い精度で正しくカテゴリを判定できた.\begin{table}\caption{カテゴリ判定の実験結果}\label{table:cat_result}\begin{center}\begin{tabular}{|l|rr|rr|}\hline&\multicolumn{2}{c|}{KNOWN}&\multicolumn{2}{c|}{UNKNOWN}\\\hline全記事数&231&(100.0\%)&80&(100.0\%)\\\hlineカテゴリを正しく判定&204&(88.3\%)&65&(81.3\%)\\カテゴリを誤って判定&22&(9.5\%)&7&(8.8\%)\\判定不能&5&(2.1\%)&8&(10.0\%)\\\hline\end{tabular}\end{center}\end{table}カテゴリの判定に失敗した例とカテゴリが抽出できなかった例を,図\ref{fig:cat_error}と図\ref{fig:cat_fail}に示す\footnote{ここで,本論文におけるネットニュース記事の参照に関する考え方を述べておく.通常のガイドラインでは,ネットニュース記事を参照する場合には,そのメッセージIDを明記することが推奨されている.しかし,本論文では,メッセージIDを明記しないことにし,かつ,記事中の署名,所属に関する記述を編集することによって,そのニュース記事の投稿者に関する情報を明らかにしない方針を取った.それは以下の理由による.(1)本論文での参照している記事は,本論文では,処理対象の例としてのみ意味を持っている.(2)本論文でメッセージIDを明記することが投稿者の利益になるとは思われない.なお,本論文で例として参照しているニュース記事は,全て,1994年12月5日から12月13日の間にfj.wantedに流れた80件の記事(UNKNOWN)から取った.}.図\ref{fig:cat_error}の例では,正しいカテゴリは「譲って下さい」であるのに対し,「探しています」というカテゴリだと判定された.\subsection{サマリ文抽出}サマリ文抽出の実験結果を表\ref{table:summary_result}に示す.ここで,組み合わせた方法とは,まず,表現パターンによる方法でサマリ文の抽出を試み,抽出できない場合のみ文章構造による方法を用いる方法である.この表において,カギ括弧内は,サマリ文が存在する場合の成功率を示す.この表より,表現パターンによる方法は,抽出精度がよく,文章構造による方法と組み合わせることのよって,さらにほんの少しだけ抽出精度が向上することがわかる.\begin{figure}\begin{screen}\small\noindent\begin{tabular}{@{}p{\textwidth}@{}}\verb+<名前>@<所属>+\\\\キャノンのFDレンズを探してます。\\\\FD50F1.2(〜1.4まで)のレンズを手放そうと考えている方がありましたら一報連絡ください。\end{tabular}\end{screen}\caption{カテゴリ判定の失敗例}\label{fig:cat_error}\end{figure}\begin{figure}\begin{screen}\small\noindent\begin{tabular}{@{}p{\textwidth}@{}}オーディオ用アンプ\\メーカー等問いません。\\気長にお待ちしています。\\\\\verb+<名前>@<所属>+\end{tabular}\end{screen}\caption{カテゴリ判定の不能例}\label{fig:cat_fail}\end{figure}図\ref{fig:extract_error}にサマリ抽出の失敗例を示す.この例の場合,「私が欲しているのは,〜とゆーものです」というパターンが登録されていないため,表現パターンによる方法では抽出に失敗する.また,文章構造による方法では,最初の文が自己紹介文(特徴39)であり,第2文が「です文」(特徴37)であるため,この2文をスキップし,第3文をサマリ文として抽出してしまう.\begin{table}\caption{サマリ文抽出の実験結果}\label{table:summary_result}\begin{center}\begin{tabular}{|l|rrr|rrr|}\hline&\multicolumn{3}{c|}{KNOWN}&\multicolumn{3}{c|}{UNKNOWN}\\\hline全記事数&231&(100.0\%)&&80&(100.0\%)&\\サマリ文が存在&198&(85.7\%)&[100.0\%]&69&(86.3\%)&[100.0\%]\\\hline表現パターンによる方法&\multicolumn{3}{c|}{}&\multicolumn{3}{c|}{}\\\multicolumn{1}{|r|}{正しく抽出}&185&(80.1\%)&[93.4\%]&60&(75.0\%)&[87.0\%]\\\multicolumn{1}{|r|}{抽出誤り}&40&(17.3\%)&&14&(17.5\%)&\\\multicolumn{1}{|r|}{抽出不能}&6&(2.6\%)&&6&(7.5\%)&\\\hline文章構造による方法&\multicolumn{3}{c|}{}&\multicolumn{3}{c|}{}\\\multicolumn{1}{|r|}{正しく抽出}&156&(67.5\%)&[78.8\%]&44&(55.0\%)&[63.8\%]\\\multicolumn{1}{|r|}{抽出誤り}&75&(32.5\%)&&36&(45.0\%)&\\\hline組み合わせた方法&\multicolumn{3}{c|}{}&\multicolumn{3}{c|}{}\\\multicolumn{1}{|r|}{正しく抽出}&187&(81.0\%)&[94.4\%]&61&(76.3\%)&[88.4\%]\\\multicolumn{1}{|r|}{抽出誤り}&44&(19.0\%)&&19&(23.8\%)&\\\hline\end{tabular}\end{center}\end{table} \section{ダイジェストシステム} 上記のサマリ抽出モジュールを用いて,fj.wantedのダイジェストシステムを試作した.作成したシステムの概要を図\ref{fig:system}に示す.サマリ文抽出では,基本的には,表現パタンによる方法を用い,この方法によってサマリ文が抽出できない場合には,文章構造による方法を用いる.ダイジェスト編集では,得られた記事のサマリをカテゴリ別に整理し,HTML(HyperTextMarkupLanguage)形式で出力する.このとき,元の記事へのポインタを,ハイパーテキストのリンクとして埋め込む.ダイジェストリーダーとしては,WWW(World-WideWeb)のクライアントプログラム(xmosaic等)を用いる.\begin{figure}\begin{screen}\small\noindent\begin{tabular}{@{}p{\textwidth}@{}}\verb+<名前>@<所属>と申します。+\\\\私が欲しているのは、”HONDACIVIC25X[EF2]のサービスマニュアル”いわゆる、整備解説書とゆーものです。\\\\まあ、ディーラー系の部販に行けば手にはいるのですが、何せ1万円という値段は、今の私には大き過ぎるのです。(以下略)\end{tabular}\end{screen}\caption{サマリ抽出の失敗例}\label{fig:extract_error}\end{figure}\begin{figure}\begin{center}\small\fbox{\begin{tabular}{cccc}記事&記事&...&記事\\$\downarrow$&$\downarrow$&&$\downarrow$\\\fbox{サマリ抽出}&\fbox{サマリ抽出}&...&\fbox{サマリ抽出}\\$\downarrow$&$\downarrow$&&$\downarrow$\\サマリ&サマリ&...&サマリ\\$\downarrow$&$\downarrow$&&$\downarrow$\\\multicolumn{4}{c}{\framebox[70mm]{ダイジェスト編集}}\\\multicolumn{4}{c}{$\downarrow$}\\\multicolumn{4}{c}{ダイジェスト}\\\multicolumn{4}{c}{$\uparrow$}\\\multicolumn{4}{c}{\fbox{ダイジェストリーダー}}\end{tabular}}\end{center}\caption{ダイジェストシステムの概要}\label{fig:system}\end{figure}\clearpage\begin{figure}[h]\begin{center}\atari(139,73)\end{center}\caption{WWWでのダイジェストサービス}\label{fig:digest}\end{figure}本システムは,現在,WWWにおいて試験運用している\footnote{\verb+http://www.jaist.ac.jp/\~{}sato/nnad/home-j.html+}.図\ref{fig:digest}にダイジェストの表示例を示す. \section{議論} \begin{enumerate}\item[(1)]本研究により,fj.wantedに関しても実用的なダイジェストの自動生成が可能であることが明らかになった.\end{enumerate}当初,我々は,テキストと投稿者がかなり多様であるため,fj.wantedのダイジェスト自動生成は,難しいのではないかと考えていた.しかし,本研究の結果は,この予想を覆すものであった.fj.wantedのダイジェスト自動生成が可能であった最大の理由は,「fj.wantedの記事が,自分の求めるものが何であるかを読み手に伝えるという明確な目的を持った文章であり,そのような情報を伝達するために使われる文章構造と文章表現はかなり限定される」ということにあるだろう\footnote{逆の側面から見れば,このように文章構造や文章表現が限られているため,我々は明確にその文章の主題(目的)を理解することができるとも言えよう.}.このことが,言わば「斜め読み」的処理によるサマリ抽出を可能にしていると考えられる.\begin{enumerate}\item[(2)]さらなる精度向上を目指すならば,サマリ文がない記事(15\%)のサマリ生成が必要となる.\end{enumerate}サマリ文がない記事の多くは,照応や省略といった現象が現れているためにサマリ文となるような1文が存在しない記事である.このため,照応,省略の処理が十分な精度で実現できなければ,適切なサマリ文を生成できないと考えられる.\begin{enumerate}\item[(3)]投稿者によるサマリ作成は非現実的である.そのため,サマリの自動抽出は重要である.\end{enumerate}サマリを自動生成するのではなく,あらかじめサマリを付けて投稿してもらうという解も存在する.しかし,現在の記事のサブジェクト(subject)に書かれている情報からみて,我々は,それは非現実的だと考える.\begin{enumerate}\item[(4)]本方法は,他の掲示情報型ニュースグループや質問応答型\footnote{「ある質問記事に対して,それに対する答がフォロー記事として投稿される」という性質を持つニュースグループ.}ニュースグループの質問記事のダイジェストにも応用できると考えられる.\end{enumerate}応答記事の要約を含んだ形で,ダイジェスト(あるいは,FAQ(FrequentlyAskedQuestions))を自動生成することも考えられるが,その重要性は低いと考える.なぜならば,質問記事のリストを,質問の要約とそれへの応答記事へのポインタという形で示すことができれば,十分にダイジェストの役割を果たすと考えられるからである.\begin{enumerate}\item[(5)]テキストの主題による分類は重要である.\end{enumerate}テキストには,主題(目的)と分野(内容)\footnote{例えば,新聞記事では,経済,政治,スポーツといった分類が,この「分野による分類」に相当する.}という2つの直交する分類が存在し,この2つが,いわば情報の取捨選択の縦糸と横糸となっている.このうち,分野による分類はいままで多くの研究があるが,主題による分類は,それほど注目されていなかった.この主題による分類も,分野による分類と同様に,求める情報に到達することを支援するナビゲーション機能の実現において,強力な道具となると考えられる. \section{関連研究} ダイジェストの自動生成を実現する中心技術は,サマリ抽出にある.本システムでは,記事のサマリとして,記事のカテゴリとサマリ文を抽出した.これらに関連する研究は,主に,テキスト分類と要約という分野において研究されてきた.\subsection{テキスト分類}テキスト分類とは,ひとまとまりのテキスト(文献,ニュース記事等)を,その内容に基づいて,分類することである.通常,あらかじめカテゴリ集合が与えられ,その中から適切なカテゴリを割り当てることを行なう.Construe-TIS\cite{Construe-TIS-91}は,英語の新聞記事を対象とする分類システムで,キーワードから概念を認識し,認識した概念を組み合わせて最終的なカテゴリを決定する.このシステムは,キーワードとその前後の文脈情報という表層的な手がかりを利用し,かなりよい精度(90\%程度)で新聞記事を分類することができる.一方,ThinkingMachineCorporationは,Memory-BasedReasoningを用いて,DowJonesのニュース記事を分類するシステムを開発している\cite{Masand-92}.このシステムは,すでに分類済みの5万件のニュース記事を用いて,再現率約80\%,正解率約70\%で,分類コード割り当てを行なうことができる.これらのシステムは,いずれも英語を対象としたシステムであり,日本語を対象としたテキスト分類は,それほど試みられていない.また,前節で述べたように,これらの分類は,いずれもテキストの内容(分野)による分類であり,主題(目的)による分類は,ほとんど研究されていない.\subsection{要約}要約とは,あるひとまとまりのテキスト(例えば,論文)が表している意味内容を,非常に短いテキストで簡潔に表現することを言う.ここ1,2年,日本語を対象とした要約研究がいくつか行なわれている.原ら\cite{Hara-ipsj-nlp-94}は,複雑な言語解析を避け,項目名と特徴という表層的な情報を利用することで,特許広報の抄録を作成する方法を提案している.一方,GREEN\cite{Yamamoto-nlp-95}は,論説文を対象とした要約システムである.このシステムは,現状で利用可能な談話要素を取り込み,重要な文を抜き出すこととその文から修飾句を削減することによって要約を生成する.我々の立場は,前者と近いが,以下の二点において今までの研究と異なる.第一に,ネットニュースのダイジェストの生成の際に必要となるサマリは,通常の要約よりも非常に短いという点である.我々がダイジェストに求める機能は,「情報(記事)が必要であるか,不必要であるか判定できること」であり,これを満たすならば,サマリは短ければ短いほど好ましいと考える.第二に,対象としているテキストの品質が多様であるという点である.これまでの研究が対象としてきたテキストは,特許広報や新聞の論説記事など高品質なテキストである.これらのテキストの品質に対し,ネットニュースの記事のテキスト品質はかなり低い.\subsection{fj.meetingsダイジェストとの違い}ネットニュースのダイジェスト自動生成システムは,本システム以外に,筆者らが先に実現したfj.meetingsのダイジェスト自動生成システム\cite{Madoka-master-94,Madoka-ipsj-conf-94,Madoka-ipsj95}がある.このシステムと本システムとの大きな違いは,サマリとして抽出する情報と,その抽出法にある.fj.meetingsのダイジェスト作成では,会告記事から,その会議の名称(タイトル),開催期日,開催場所,論文締切期日といった情報項目を,その記事のサマリとして抽出する.このように,抽出すべき情報をあらかじめ限定できるのは,対象とする記事が会議に関する記事に限定されるからである.このため,サマリ抽出には,いわゆる情報抽出の手法を用いることができる.fj.meetingsのサマリ抽出では,センタリング,箇条書といったスタイル情報と抽出する情報項目に特有な言語表現パターンを組み合わせて利用する.これに対して本システムのダイジェスト作成では,各記事から,その記事の内容を端的に表す1文(サマリ文)を抽出する.これは,fj.wantedの記事から抽出すべき情報項目を,fj.meetingsの会告記事のように限定することができないからである.このため,サマリ抽出の手法は,情報抽出よりは要約に近い形となる.本システムでは,主に言語表現パターンを利用して,サマリ文を見つける方法をとっている. \section{おわりに} 本稿では,fj.wantedのダイジェストの自動生成を実現する方法について述べた.その中心技術は,ニュース記事からのサマリ抽出法である.この方法は,言わば「斜め読みを模擬した処理」であり,まず,表層的な表現を手がかりとして,42の特徴を抽出し,それらの特徴を用いて,記事のサマリ(カテゴリとサマリ文)を抽出する.未知の記事群に対するブラインドテストにおいて,本方法は,カテゴリ判定正解率81\%,サマリ文抽出正解率76\%という値を示した.本論文で述べた方法は,fj.wantedを対象としたものであるが,他の掲示情報型ニュースグループや質問応答型のニュースグループのダイジェスト作成にも,同様な手法が適用できると考えられる.また,本方法を発展させることによって,FAQの自動作成もある程度可能であろう.ダイジェストの自動生成では,オリジナルのテキストがすでにオンラインテキストとして存在することが前提となっている.現在のところ,ネットニュースはこの前提を満たす数少ない対象であるが,今後,多くのテキスト情報がオンラインテキストとして入手可能になるにつれて,他の対象に対しても,ダイジェストの自動生成の道が開けると考えられる.本論文で示したダイジェストは,ネットニュースに対するダイジェストの一例に過ぎない.この他に,いわゆる``What'sup?''(今,何が話題になっているか)を把握するための俯瞰ダイジェストや必要な記事をキーワードから探すリファレンスダイジェストなどが考えられる\cite{Madoka-master-94}.今後,これらのダイジェストをニュースリーダーと有機的に統合し,多角的にネットニュースにアクセスすることを可能にしていく必要があるであろう.それは,間接的には,ネットニュースの新しいマスメディアとしての可能性を広げていくことにつながっていくと考えられる.\newpage\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院博士課程研究指導認定退学.同年,京都大学工学部助手.1992年より北陸先端科学技術大学院大学情報科学研究科助教授.京都大学博士(工学).自然言語処理,機械学習,超並列人工知能などの研究に従事.}\bioauthor{佐藤円}{1986年慶應義塾大学法学部政治学科卒業.同年,(株)総合ビジョン入社.1990年(株)電通総研勤務.1994年北陸先端科学技術大学院大学情報科学研究科修士課程修了.現在,同博士後期課程在学中.計算機ネットワーク上のマスコミュニケーション,計算機使用者の倫理等に興味を持っている.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N04-09
\section{はじめに} 人と人,または人と計算機が音声を介してコミュニケーションを行なう際に必要となる音声対話処理における頑健性を議論する.例えば,音声を入力としてこれを翻訳し音声出力する音声翻訳などが本論文の想定する対象である.音声対話処理においては,不明瞭な発声や雑音,音声認識処理部の誤りに起因する誤りによって,言語処理部に対して誤りのない正確な入力が得られない場合があり,この結果従来の自然言語処理では問題とならなかった入力の不正確性が生じる.これに対し,従来行なわれてきた言語処理研究の主眼は,\vspace*{\baselineskip}\begin{itemize}\item如何にして入力の不正確性を除去するか\end{itemize}\vspace*{\baselineskip}\noindentという一点に集中していた.すなわち,言語処理として如何に音声認識の誤りを発見し,また訂正するか,という捉え方をしてきた.あるいはそもそも入力の不正確性は音声認識器に起因する問題であるので,理想の音声認識器を考えることで入力の不正確性に伴う問題を回避してきた.これに対し本研究では,現実的な環境を考えた場合に,音声認識誤りのない状況を仮定して言語処理を行なうことは今後しばらく賢明でないという立場を取る.あるいは音声認識の誤り訂正技術の進歩によっても,音声言語処理において誤入力のない状況を想定することは現実的な仮定でないと考える.よって,音声認識後の各処理部がこれら不正確な入力に対して性能を劣化させないという頑健性の考慮,すなわち,\vspace*{\baselineskip}\begin{itemize}\item如何にして不正確な入力に対して言語処理を行なうか\end{itemize}\vspace*{\baselineskip}\noindentが,音声言語処理においては重要である.ところで,対話においては相手と互いにコミュニケーションを取りながら進行していく.このため発話によって伝達される情報は自己完結的でなく,その結果発話の様々な要素の省略がより頻繁に起こりやすい.特に,本論文の対象である日本語対話では,その言語的性質から多くの場合に文の主語が省略される.日本語における主語の省略は,主語が必須格である英語やドイツ語などへの翻訳の際には大きな問題となり,主語の補完処理は必須の処理となる.以上のように,音声対話処理における入力誤りへの頑健性を考慮した主語補完処理は音声対話処理の実現のための重要な処理の一つである.これは田中の分類による言語表現の多様性分類\cite{田中穂積}に従えば,音響レベルにおけるエラー\footnote{田中の分類は言語表現の分類であるため音声認識誤りは考慮されていないが,処理の観点では誤発声や言い淀みと同様に考えてよいであろう.}を考慮しながら統語レベルの情報不足(省略)の問題解決をしなければならないことを意味している.実際の音声言語システムにおいてはこのように異なるレベルの多様性を同時に考慮する必要があるにもかかわらず,このような研究は従来行なわれていない.主語の補完手法に関しては,次節で述べるようにこれまで様々な手法が提案されてきた.ところが従来の主語補完手法は,誤りのない文に対して形態素解析,構文解析が成功した後に処理されることを仮定していた.このため誤りを含む可能性のある文に対する処理は考慮外であった.これに対し本論文では,入力の一部に誤りがある状況において,性能劣化を如何に最小限に抑えるかについて議論する.誤り部分が入力のどこなのかは明らかでなく,入力に誤りがないかもしれない.ただし,本研究では述語に誤りはなく,また省略の検出は正しく行なわれることを仮定する\footnote{述語が誤っている場合,及び入力文に省略があるという認識がない場合はそもそも省略補完問題として成立しないためである.}.また,属性として使用している言語外情報も,音声認識結果とは無関係の情報であるので,これも誤りはないと仮定する.本論文ではまず,本問題に関係する文献の紹介を行なった後,既提案の決定木学習に基づく主語補完手法\cite{主語補完}\footnote{文献\cite{主語補完}では主語以外の格要素に関しても考察を行なっているが,本論文では議論を主語に限定する.ただし,本論文において行なう議論はそのまま他の格要素についても同様に有効である.}を概観し,この頑健性について考察する.次に,より頑健性を持ったモデルを提案し,実験結果からこの有効性を議論する{}\cite{NLPRS99}.最後に,人工的な問題によるシミュレーションを行ない,モデルの問題依存性と属性組み合わせに関して議論する\cite{ICSLP2000}. \section{関連研究} 前述したように,音声認識誤りを含む要素列を入力とした主語補完{}\footnote{文献によっては問題を「ゼロ代名詞補完」と呼んでいるものもあるが,ここでは「主語補完」と呼称を統一する.}手法は,これまで知られていない.最近では,河原らが音声言語処理における頑健性について\cite{河原},丸山が話し言葉の諸相について\cite{丸山},それぞれ議論を行なっているが,本論文で取り扱う音響レベル,すなわち不正確な音声認識結果に対する自然言語処理の頑健性に関しては議論されていない.本研究では,音声認識誤りを修復,訂正するのではなく,入力のどこかに誤りがあるという状況下でどのように言語処理を行なうかという議論を行なう.同様の状況を想定して言語処理を進めている研究として,脇田ら\cite{脇田}の研究が知られている.脇田らは,本研究と同様,誤りを含む入力に対して機械翻訳させるという問題に対し,音声認識誤りを訂正するのではなく,翻訳結果の意味的な尤度を計算することで音声認識の誤り部分を特定し,その部分を翻訳結果からはずすことで翻訳する手法を提案している.照応処理の頑健性に関してはAoneandBenett\cite{Aone}が議論している.ここでは語彙,文法あるいは意味知識の網羅が現実では不可能なことに対処する頑健性の必要性を議論している.ただし,この論文で議論されている頑健性はすべて,利用する情報が不足している場合における頑健性であり,音声言語処理にとって重要な入力の不正確性に関しては考慮されていない.日本語の主語補完に関しては従来から様々な研究がなされてきているが,その多くは書き言葉を対象にしたものであり,話し言葉もしくは対話を対象にしたものは比較的少ない.書き言葉を対象にしたものでは,Nakaiwaetal.{}\cite{Nakaiwa}の用言意味属性と語用論的,意味論的制約を用いて外界省略の解消を行なったものがある.また村田ら\cite{村田}は物語を対象に,補完に関係する表層的な言語現象をヒューリスティックスで得点を付与し,それらの合計によって最尤の省略内容を補完している.また,江原らの研究\cite{江原}はニュース原稿を対象にしている.ここでは,複文を単文に分割した際に生じる省略主語を補完するという人工的に問題に対して,経験的に8項目の特徴パラメータを設定して,確率モデルによる手法を提案している.Dohsaka{}\cite{Dohsaka}は,日本語において発話から語用論的制約を抽出し,制約充足プロセスに基づいて文脈の下で解釈することによる文脈省略の補完手法を提案している. \section{主語補完手法} 本節では,日本語の格要素省略を補完する問題に対して我々が文献\cite{主語補完}において提案した手法の概要を紹介する.本論文では,このモデルをSDT(SingleDecisionTree)モデルと呼び,入力の不確かさに対する頑健性という観点から,SDTモデルがどの程度の頑健性を持つのかについて定性的な議論を行なう.さらに,入力の誤りに対して頑健な主語補完モデルを作成するためにはどうすればよいかについて検討する.\subsection{決定木を用いた補完手法}\label{節:SDTの頑健性}SDTモデルでは,決定木(DecisionTree)による知識表現手法を用いて主語補完知識の構築を行なう.決定木の学習では,(誤りのない)入力と正解となる主語情報を持った事例から,事前に用意した属性の有無によって質問を行ない,エントロピー基準によって事例の分類を行なっていく.論文\cite{主語補完}においては,一般的な決定木学習手法の一つであるC4.5\cite{Quinlan}のアルゴリズムによって二分木を作成した.本論文の設定する問題では,補完すべき主語を6種類に分類した.すなわち,一人称単数<1sg>,一人称複数<1pl>,二人称単数<2sg>,二人称複数<2pl>,照応的省略<a>,一般<g>である.決定木は,与えられた入力に対して当該省略がこのどのクラスに属するかを決定する.\begin{figure}\begin{center}\renewcommand{\baselinestretch}{}\large\normalsize\begin{boxit}\begin{verbatim}[1-1]:sem-code:here43[2-1]:sem-code:here78[3-1]:regexp:after(ておる助動詞)[4-1]:regexp:after(する補助動詞)[5-1]:speaker:here情報提供者[6-1]:regexp:before(を格助詞)...[6-2]<1pl>(5)[5-2]<1pl>(12)[4-2]:regexp:after(てる助動詞)[5-3]<1sg>(2)[5-4]:regexp:forward(ている助動詞)...[3-2]:regexp:after(か終助詞)[4-3]:regexp:before(に格助詞)[5-5]<1sg>(1)[5-6]:regexp:after(できる補助動詞)...[4-4]:regexp:after(できる補助動詞)[5-7]<1pl>(9)[5-8]:sem-code:before93...[2-2]:sem-code:here41[3-3]:regexp:after(た助動詞)[4-5]:regexp:before(を格助詞)...\end{verbatim}\end{boxit}\renewcommand{\baselinestretch}{}\large\normalsize\vspace{3mm}\caption{決定木の例}\label{表:決定木}\end{center}\end{figure}表\ref{表:決定木}に,本問題に対して作成された決定木の例を示す\footnote{図中において,説明のため決定木の各節点に[3-5]などのように識別番号を付与した.また決定木の一部を...と表記して省略した.}.この決定木では,木の根にあたる節点[1-1]で:sem-code:here43すなわち対象とする述語の意味属性(角川類語新辞典における分類番号上位2けた)が43かどうかによって学習事例が分岐し,これを満たす場合は[2-1]へ,満たさない場合は[2-2]へ進む.節点[6-2]は終端節点であり,解が<1pl>すなわち一人称複数であり,学習事例は5であったことを示す.表\ref{表:決定木}の各属性に見られるように,各属性は(属性の種類,照合位置,属性値)の三つ組によって表現される\footnote{後述するように,属性が言語外情報の場合は照合位置は必要ないが形式的に:hereという照合位置を与えている.}.以下の節では,属性の種類,照合位置について簡単に述べる.\subsection{属性集合}\label{節:属性}本論文では論文\cite{主語補完}と同様に,以下の3種類の属性を用いた.\begin{description}\item[内容語の意味属性(:sem-code)]省略の対象となる文において,どのような内容語が含まれているかに関する情報.内容語は大きく,用言に関する情報と格要素(体言)に関する情報に分かれる.内容語の意味属性としては角川類語新辞典\cite{角川類語}における中分類(100属性)を使用した.後述する照合位置が:hereと:beforeの2種類あるため,属性数は200である.\item[機能語(:regexp)]用言に後接する付属語群や終助詞,及び格助詞や接頭辞などの機能語の出現に関する情報.前述の内容語と異なり,これらの機能語は当該品詞に属する単語を直接参照した.属性数は166である.\item[言語外情報(:speaker)]言語外情報としては,発話された文の話者情報を利用した.本論文で使用するコーパスは話者が情報提供者か情報享受者の二者による対話を仮定している.例えば,ホテルにおける対話では,情報提供者であるフロントと情報享受者の客の二者による対話となる.話者によって主語省略の振る舞いが影響すると考えたため使用した.属性数は1である.\end{description}以上をまとめたものを表\ref{表:属性}に示す.全属性を用いて決定木を作成した場合,属性数は367となる.\begin{table}\begin{center}\caption{使用属性とその要素数}\label{表:属性}\vspace{3mm}\begin{tabular}{llr}\hline\hline対象&属性&属性数\\\hline内容語(用言)&意味属性&100\\内容語(格要素)&意味属性&100\\\hline機能語(格助詞)&が,に,を&9\\機能語(接続助詞)&ので,たら&21\\機能語(助動詞群)&れる,ている&132\\機能語(その他)&お,敬語動詞&4\\\hline言語外情報&話者情報&1\\\hline合計&&367\\\hline\end{tabular}\end{center}\end{table}\subsection{属性の照合方法}決定木学習時に行なう属性照合は,形態素列とのマッチングによって属性の照合を行なう.すなわち,補完対象の用言を中心にして,表\ref{表:照合位置}に示す5種類のうちどの位置に出現するかという情報をすべての属性に予め与えておく.\begin{table}\begin{center}\caption{属性の照合位置}\label{表:照合位置}\vspace{3mm}\begin{tabular}{ll}\hline\hline記号&照合位置\\\hline:before&用言の前(直前を含む)に$\cdots$という形態素を含む.\\:latest&用言の直前に$\cdots$という形態素を含む.\\:here&その用言が$\cdots$である.\\:next&用言の直後に$\cdots$という形態素を含む.\\:after&用言の後(直後を含む)に$\cdots$という形態素を含む.\\\hline\end{tabular}\end{center}\end{table}例えば,用言に関する属性は:here,格助詞に対しては:before,接頭辞に対しては:latestの位置情報を与える.意味属性に関しては,ある位置にある意味属性を持つ語が含まれているかどうかによって照合を行なう.\subsection{SDTモデルの頑健性}以上のSDTモデルの頑健性を考えた場合,以下の点において頑健性があると予想される.すなわち,入力に対して,本来の入力にはない形態素列が誤って挿入された場合における頑健性である.例えば,間投詞や言い淀みなど,音声言語に頻出する冗長語が入力の途中に挿入された場合に,SDTモデルにおいては全く悪影響を与えない.あるいは,音声認識の誤りにより内容語や機能語が挿入された場合であっても,それが偶然に決定木で照合される語句である場合以外は,補完結果が変化することはない.以上の頑健性は,属性照合の際に,ある照合範囲における特定の語句の有無のみを考慮しているために生じる.これにより,照合範囲に対象と無関係の語句が挿入された場合にも影響はなく,また照合対象である語句が照合範囲に偶然挿入される可能性は,一般には低い.ただし,以上は挿入誤りに対するある程度の頑健性のみであり,欠落誤り,置換誤りに対しては影響が出る可能性が高い.なぜなら,前述の照合方法は照合に不要な要素をいくら含んでも影響は少ないが,照合に必要な要素が欠落した場合には対応できないからである. \section{複数決定木モデル} \subsection{頑健性を強化するための方策}前節に示した省略補完モデルに対し,入力の不正確性に対して頑健なモデルにするにはどうすればいいかを考える.既存のモデルがある場合,このモデルに頑健性を持たせる手段として,本論文では複数の解答候補を用意し,そのうちの一つを何らかの方法によって最終的に選択する,という方策を取る.複数の解答候補を生成するには,解答に至るための情報源を別個にすればよい.すなわち,同一のモデルを使用してそのモデルの入力となる情報源を変化させることによって,各モデルに独自の判断をさせることが可能になる.これはちょうど,ある事象に対して,同一の道具で観察する視点を変化させることに相当する.ここで,以上の方策を取るためには以下の二つの問題を解決しなければならない.すなわち,\vspace*{\baselineskip}\begin{enumerate}\itemどのように別個の情報源を用意するか\item複数の解答候補からどのように最終解を選択するか\end{enumerate}\vspace*{\baselineskip}\noindentである.以上の問題点については,次節以降で述べる.\subsection{複数決定木モデル}本論文では入力の不正確性に対する頑健性を持った主語補完モデルを提案する.このモデルは,我々が文献\cite{主語補完}で提案した格要素省略補完モデルSDTを拡張したものであり,複数決定木モデルまたはMDT(MultipleDecisionTree)モデルと呼ぶ.概要を図{}\ref{fig:mdt-model}に示す.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=model.prn,width=130mm}\end{epsf}\begin{draft}\atari(129,89)\end{draft}\caption{SDTモデルとMDTモデルの比較}\label{fig:mdt-model}\end{center}\end{figure}MDTモデルは,複数の決定木を使用することによって頑健性を持たせたモデルである.このモデルでは,決定木学習の際に使用する属性集合を変化させることによって決定木を作成し,複数の解答候補を得る.図{}\ref{fig:mdt-model}に示すように,従来SDTでは単一の解$D_0$のみが得られるため,この解の信頼性が低い場合にも代替解を得ることができなかった.これに対し,本論文で提案するMDTモデルでは,複数の解,例えば($D_1$,$D_2$,$\cdots$,$D_n$)の解を得ることでき,この中から最も信頼性の高い解を選択することによって,MDTモデル全体としての頑健性が増す.ここで,各決定木の学習は,全く同一の学習事例集合に対して行なう.以下,どのように使用属性を変化させるかについては{}\ref{節:組合せ}節で,複数の解候補の中からどのようにして最終解を選択するかについては,{}\ref{節:選好}節で述べる.\vspace{2\baselineskip}\subsection{属性集合の組合せ}\label{節:組合せ}複数決定木モデルにおいては,各決定木の作成時に使用する属性を変化させる必要がある.我々は文献\cite{主語補完}における実験で,属性の種類が減少して同一種類の属性のみで決定木を作成した場合,補完精度の劣化が大きいことを確認した.すなわち主語補完のためには,様々な属性を総合的に考慮して補完する必要がある.このため表\ref{表:属性}で使用した3種類の属性をそのまま使用して各種類ごとに決定木を作成しても,(入力の不正確性とは関係なく)補完精度の劣化が大きいことが容易に予想される.そこで本論文では,これら属性集合を組み合わせることによって各決定木の属性集合を構成することにした.本論文の使用する属性は前述したように3種類であるので,図\ref{図:属性集合}に示すようにこれらの組合せによって3種類の属性集合を作成した.これにより,使用属性数の減少による各決定木の補完精度の劣化を抑えることができ,同時に複数解候補を作成することが可能になる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=attribute.prn,width=130mm}\end{epsf}\begin{draft}\atari(129,89)\end{draft}\vspace{-10mm}\caption{3種類の属性集合の関係}\label{図:属性集合}\end{center}\end{figure}\subsection{補完候補の選好基準}\label{節:選好}前節に示すように複数の属性を用意して複数の解答候補が得られたとき,このうちどれを最終的な解答とするかが第二の問題である.本節では,この問題について検討する.複数の解から一つの解を選択する際には多数決基準などが一般的であるが,本問題のように属性の組合せによって決定木を作成している場合に,多数決基準を使用するのは適当ではない.なぜなら,仮に図\ref{図:属性集合}のような状況で言語外情報が誤りを含んでいると仮定すると\footnote{前述したように,実際には言語外情報が誤ることはないという仮定をおいている.},3種類の決定木すべてが誤った解を出力する可能性があるからである.このように一属性が複数の解に影響するような組み合わせ方を行なった場合,解の多数決を取ることは適当ではないと考えた.そこで本論文では,各解答に対して信頼性を計算し,それの比較によって行なう選好基準を提案する.この際,解の信頼性に相当する値として,以下に述べる理由により,決定木学習時に解と同一の終端節点に辿り着いた事例数を用い,これが最多である解を選択する.いま,決定木のある属性において属性照合を誤ったと仮定する.この場合,本来到達すべき終端節点には到達せずに別の節点に到達する.この際,どの節点に到達したかは,これ以上の情報がない場合,一般にすべての節点が同一の確率である.ここで,誤って到達した節点の学習時の事例数を予想すると,全節点への到達可能性が同等なのだから,終端節点の学習事例数に関して最も頻出する事例数が最も可能性が高い.例えば,学習事例数$i$の終端節点が最も多い場合には,誤って到達した節点の学習時事例数は$i$の可能性が最も高いと予想するのが自然である.それでは実際にどのような事例数の終端節点が多いのかを調査したのが図\ref{fig:freq}である.図\ref{fig:freq}では,次節で述べる3種類の決定木それぞれについて,終端節点の事例数別に統計をとったものである\footnote{学習時事例数14以上はほとんど頻度がないため省略した.}.この図から明らかなように,どの決定木においても,学習時の事例数が1の節点が最も多く,その後漸減の傾向にある.すなわちこれらの決定木に関しては,学習時の事例数が少ない節点ほど誤って辿り着く確率が高い.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=freq1.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\caption{学習時事例数と節点数の関係}\label{fig:freq}\end{center}\end{figure}次に,図\ref{fig:mdt-model}に示すように,同一の学習事例集合に対して属性集合を($S_1$,$S_2$,$\cdots$,$S_n$)の$n$種類に変化させ,複数の決定木を作成することを考える.図\ref{fig:mdt-model}において,属性集合$S_1$による補完結果候補$D_1$よりも,属性集合$S_2$による補完結果候補$D_2$のほうが解の信頼性が高いと考えるのは自然である.なぜならば,これまでの議論により,属性照合を誤って解候補$D_2$に到達する可能性よりも属性照合を誤って解候補$D_1$に到達する可能性のほうが高いからである.入力に誤りがあるために本来の属性の照合ができなかった場合には,学習事例数のより少ない節点に到達する確率がより高いため,例のように学習事例数の多い節点に到達した場合には,確率的に解の信頼性が高いと見做すことができる.以上の理由により,我々は決定木学習時の終端節点の事例数によって解の選好を行なう.これにより,各決定木が出力した解答候補のうち,決定木が出力した終端節点の学習時事例数が最大の解答をMDTにおける解答とする.例えば図\ref{fig:mdt-model}では属性集合$S_2$における解答の学習時終端節点事例数が最も多いので,$D_2$をMDTとしての解答とする.\subsection{提案手法の頑健性}\label{節:定性議論}本手法の挙動を定性的に考察する.本論文の提案する手法によって入力に若干の誤りがあり,誤り箇所を特定できない場合に対して本手法は有効に機能することが予想できる.ただし選好基準から明らかなように,本手法は学習時において事例が集中した「大きな」節点に対してのみ有効に機能する.あるいはある節点に極端に事例が集中するような場合に,本論文の選好がより有効に機能する.この一方,学習時に事例数が1であった節点は,属性に誤りがあった場合に本手法では本来の正しい解を出力することが期待できない.すなわち,本手法はすべての事例に対して頑健になるわけではないが,事例が集中した節点を対象にしていることから多くの事例に対して頑健になることが予想できる.以上の議論の定量的な検証は\ref{節:定量議論}節において行なう. \section{主語補完実験} 本論文で提案したモデルの有効性を議論するため,主語補完実験を行なった.実験は,実際の音声認識結果を入力とした実誤りに対する精度と,人工的に誤りを作成した人工誤りに対する主語補完精度を評価した.本論文では6種類のクラスによる補完精度の違いを議論するのが目的ではないため,以下の実験結果ではクラス別の補完精度を示さず,全評価事例に対する平均を示す.実験では,性能評価尺度としてF値(F-measure)を用いた.F値は,再現率(recall)と適合率(precision)の調和平均であり,$R$を再現率,$P$を適合率としたとき,以下の式で定義する.\begin{equation}F=\frac{(\beta^2+1)\timesP\timesR}{\beta^2\timesP+R}\end{equation}\vspace{3mm}ここで,パラメータ$\beta$は適合率の再現率に対する相対的な重要性である.本論文では前述の理由によりこのパラメータを$\beta=1$として,再現率と適合率の重要性を同等に扱う.\subsection{音声認識結果に対する頑健性}本稿で提案したモデルの有効性を確認するため,実際の音声認識結果を入力とした実誤りに対する補完精度を測定した.また比較のため,音声認識誤りのない正解入力に対する補完精度も測定した.訓練事例数は1401事例,実験事例数は訓練に含まれない303事例である.対象ドメインはホテルの予約もしくは解約時の二者会話であり,ATR旅行会話コーパス\cite{Takezawa98}を使用した.音声認識装置は日英音声翻訳システムATR-MATRIXにおける音声認識用音響・言語モデル\cite{内藤}を使用した.実験では,認識装置の音響尤度と言語尤度の相対的重みを変化させることによって3種類の異なる誤り傾向をもつ音声認識結果を用いて行なった.各パラメータの音声認識精度を表\ref{表:認識器}に示す.なお,表に示した3種類のパラメータのうち,パラメータP2は使用した音声認識器において最高性能を示すパラメータであり,P1とP3は局所的に最大の音声認識性能を示すパラメータである.\begin{table}\begin{center}\caption{音声認識結果の特徴}\label{表:認識器}\begin{tabular}{l|rrr}\hline\hlineパラメータ&P1&P2&P3\\\hline発話数&968&968&968\\発話平均形態素&14.9&14.9&14.9\\単語認識率(\%)&78.48&78.89&72.09\\\hline発話平均誤り&3.44&3.49&4.09\\(挿入誤り)&0.56&0.51&0.64\\(欠落誤り)&0.76&0.84&0.88\\(置換誤り)&2.12&2.14&2.57\\\hline\end{tabular}\end{center}\end{table}実験は,音声認識誤りのない正解入力と,その同一の文集合の音声認識結果の2種類について行なった.実験文数は448文である.表\ref{表:実誤り}に,実誤りに対する性能を示す.実験の結果,用意したパラメータのいずれにおいてもMDTが最高性能を示した.また,誤りのない入力に対しても,MDTは最も高い主語補完性能を示した.実験は,単独の決定木を使用して補完を行なうSDTモデルによる実験と,本稿の提案するMDTモデルの両者について行なった.SDTモデルにおける属性集合は,図\ref{図:属性集合}における集合A,集合F,集合Cの三種類に対して行なった.以下では,これをそれぞれ,SDT/A,SDT/F,SDT/Cと表記する.また,MDTモデルは,上記の属性集合A,C,Fの三つからSDTを構成した.\begin{table}\begin{center}\caption{実認識に対する主語補完性能}\label{表:実誤り}\begin{tabular}{c|ccc|c}\hline\hlineパラメータ&P1&P2&P3&正解入力\\認識精度&78.48&78.89&72.09&100\\\hlineSDT/A&77.2&76.5&76.2&81.8\\SDT/C&73.9&74.9&73.2&80.8\\SDT/F&75.5&74.2&72.2&79.5\\\hlineMDT&78.2&78.8&77.5&83.5\\\hline\end{tabular}\end{center}\end{table}\subsection{人工誤りに対する実験}次に,モデルの頑健性と誤りの傾向との関連を議論するために,以下のような人工誤りに対してモデルがどのような特性を示すのかを実験した.実験は,以下の4種類の誤りについて行なった.\begin{itemize}\item挿入誤り\item欠落誤り\item置換誤り\item(挿入,欠落,置換の)混合誤り\end{itemize}\subsubsection{挿入誤り}挿入誤りは以下のように作成した.まず,誤りのない形態素列に対して,誤りを挿入する位置を無作為に一ヶ所決定する.この位置に対し,決定木学習を行なった訓練会話の形態素集合から任意の一語を無作為に選択し,この語を挿入する.挿入される語は,訓練会話の各形態素の出現割合と同一の期待値で決定されるため,格助詞などの高頻出語が挿入される可能性が高くなる.以上が一語を挿入する過程であり,$N$語を挿入する場合には以上の過程を$N$回繰り返す.挿入誤りの個数と性能との関係を図\ref{fig:insert}に示す.図より,MDTモデルは挿入誤りに対してほとんど性能劣化のないことが明らかになった.また三種のSDTモデルに関しても,若干の精度低下はあるものの誤り語数増加に伴う程度低下割合はゆるやかである.SDTモデルが挿入誤りに対してあまり性能が落ちないのは,\ref{節:SDTの頑健性}節で議論した要素照合手法が頑健性を持っていたことを示し,挿入誤りに関してはSDTモデルにもある程度の頑健性を持っていることが確認された.また,MDTモデルにほとんど性能劣化がないのは,上記SDTが持つ頑健性に加え,意思決定を複数行なった後に選択する本手法が有効に機能しているためと考えられる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=insert.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{挿入誤りに対する補完性能}\label{fig:insert}\end{center}\end{figure}\subsubsection{欠落誤り}欠落誤りは以下のように作成した.誤りのない形態素を入力として,欠落させる形態素を無作為に選択する.ただし,省略された主語に対する動詞もしくはサ変名詞は選択の対象からはずす.なぜなら,もし当該動詞もしくはサ変名詞が欠落された形態素が音声認識結果となった場合には,省略の検出が不可能となり,補完の対象とはならないからである.このため,省略の検出を処理の対象外とする本論文の立場では,このような欠落誤りを考慮対象から除外することは妥当である.欠落誤りの個数と性能との関係を図\ref{fig:delete}に示す.欠落誤りは補完に必要な情報の一部が欠ける誤りであるため,手がかりが欠如し,挿入誤りよりも性能の劣化をもたらす.図からわかるように,MDTモデルは三種類のSDTのうち最も高精度であるSDT/Cよりも常に高精度である.なお,図においてはSDT/Cモデルがほとんど性能劣化がないが,これは欠落誤りの対象に述語が含まれていないためである.SDT/Cモデルではこの情報を主要な情報として主語を決定しているため,述語以外の形態素の欠落に対してはあまり性能劣化を起こさない.これに対し,SDT/Cモデルの精度が相対的に優れているという情報をMDTは何ら持たないにもかかわらずMDTがSDT/Cの出力する解を比較的多く採用している点から,本論文で提案した選好の有効性を確認することができる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=delete.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{欠落誤りに対する補完性能}\label{fig:delete}\end{center}\end{figure}\subsubsection{置換誤り}置換誤りは以下のように作成した.誤りのない形態素を入力として,欠落させる形態素を無作為に選択する.ただし,省略された主語に対する動詞もしくはサ変名詞は欠落誤りと同様の理由で,欠落の対象からはずす.この後,この欠落の位置に,挿入誤りと同様,決定木学習を行なった訓練会話の形態素集合から任意の一語を無作為に選択し,この語を挿入する.以上が一語を挿入する過程であり,$N$語を挿入する場合には以上の過程を$N$回繰り返す.置換誤りの個数と性能との関係を図\ref{fig:substitute}に示す.置換誤りに対する性能は,欠落誤りと類似の傾向を示した.これは,本実験での置換作成過程が(欠落+挿入)であり,前述のように挿入誤りに対しては各モデルともかなり頑健であるためであると考えられる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=substitute.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{置換誤りに対する補完性能}\label{fig:substitute}\end{center}\end{figure}\subsubsection{混合誤り}混合誤りは以下のように作成した.正解入力に対して,まず誤りの種類を決定する.誤りは,挿入,欠落,置換の三種類が同じ確率で出現するように,無作為に決定する.誤り種類が決定した後は,前述した挿入,欠落,置換誤りの処理を行なう.複数形態素の誤りの場合は,以上の処理を複数回繰り返し,その都度誤り種類を無作為に選択する.混合誤りの個数と性能との関係を図{}\ref{fig:mix}に示す.図から,混合誤りに対してもMDTモデルの優位性を見ることができる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=mix.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{混合誤りに対する補完性能}\label{fig:mix}\end{center}\end{figure}\subsection{考察}\label{節:考察}まず,入力誤りに対する頑健性を議論する.図\ref{fig:insert}〜図\ref{fig:mix}より,本論文で提案するMDTモデルが比較手法(SDT)よりも頑健であることがわかる.特に,MDTモデルは挿入誤りに対して非常に頑健であり,10個に満たない形態素の挿入に対してはほとんど補完性能の劣化がないことが確認された.また表\ref{表:実誤り}より,実際の音声認識の結果,誤りを含んだ入力に対しても,SDTに比較して優位であることを確認した.MDTの精度は常にどのようなSDTよりも高精度であることから,MDTで採用した選好基準は,ある一定の条件下で最尤のSDTの出力を解とする性質を持っている可能性がある.もしこの仮説が正しければ,より高精度のSDTモデルを用意することでMDTとしての精度も向上することが期待できる.本研究では3種類の属性集合を用意したが,これは3種類である必要はなく,むしろ高性能であると予想されるSDTをできるだけ多く用意することで,MDT全体としてより頑健性が増すことが期待できる.どのようなSDTをどの程度用意すればよいのかについては,次節のシミュレーションで議論する.次に,入力の誤り傾向との関係を議論する.表\ref{table:recogerror}に,音声認識実験で誤った語の品詞別挿入誤りと欠落誤り数をパラメータ別に示した.この表と表\ref{表:実誤り}の比較から,内容語によるSDT/Cは普通名詞や本動詞の欠落の最も少なかったパラメータP2が,機能語によるSDT/Fは格助詞の欠落が最も少なかったパラメータP1が最も高い精度を示したと説明できる.表\ref{表:認識器}から,3種類のSDTの中で最も良好なSDT/AはP2よりもP1のほうが補完精度が高いが,MDTの補完精度はP2がP1を上回っている.これは,MDTが必ずしもSDT/Aの解を選好しているわけではないことを示している.たとえ音声認識精度が十分でなくても,ある特定の音声認識の誤りにあまり影響されないSDTを用意することができれば,それによって正解に至る解答候補を得ることができ,かつ正しく選好できる可能性が高い.\begin{table}\begin{center}\caption{各パラメータにおける誤り傾向}\label{table:recogerror}\begin{tabular}{c|rr|rr|rr}\hline\hlineパラメータ&\multicolumn{2}{c|}{P1}&\multicolumn{2}{c|}{P2}&\multicolumn{2}{c}{P3}\\誤り種類&挿入&欠落&挿入&欠落&挿入&欠落\\\hline普通名詞&336&277&270&254&335&302\\本動詞&130&99&128&107&138&119\\数詞&55&115&47&108&78&101\\\hline格助詞&102&76&104&85&123&101\\助動詞&71&63&68&60&65&73\\接頭辞&46&37&44&37&46&36\\\hline\end{tabular}\end{center}\end{table} \section{シミュレーション} 前節の評価実験で,誤りを含む入力に対して\ref{節:属性}節の属性集合からなるMDTモデルが主語補完問題に対し有効に機能することを確認した.しかし,以上の結果はいかなる問題に対してもMDTモデルが有効なのか,あるいは本論文における属性集合の組み合わせ方が偶然有効に機能したのかは明確でない.そこで,MDTモデルの問題依存性,並びに属性集合の組み合わせ方がモデルの精度にどのような影響を与えるのか,の2点を検証,議論するため,人工的な問題を設定してMDTモデルのシミュレーションを行なった\cite{ICSLP2000}.本節ではこの内容及び結果について述べる.\subsection{問題設定とMDTの設定}問題は以下のように設定した.まず,問題の全属性数は10,分類すべきクラス数は10とした.属性値は二値としたため作成される決定木は二分木であり,枝刈りは行なわない.学習事例は,以下の2種類の方法で順に作成した.\begin{description}\item[重複事例集合($S_D$)]まず1事例を無作為に作成する.ただし既作成の事例と矛盾しないようにする.すなわち各属性の値はすべて同一であるがクラスが異なる事例は新規事例に追加しない.この事例と属性値及びクラスが全く同一のコピー事例を(1〜100)事例の範囲で作成する.(1〜100)のうちいくつ重複させるかは無作為に決定する.以上の処理を,$S_D$全体で1000事例を越えるまで繰り返す.\item[単独事例集合($S_S$)]無作為に1事例を作成する.ただし,作成される事例は$S_D$と$S_S$内のどの事例とも矛盾しない.以上の処理を1000回繰り返す.\end{description}以上のような方法で,本シミュレーションでは$S_D$が1084事例,$S_S$が1000事例の合計($S$)2084事例を作成した.各決定木は,事例集合$S$を用いて作成する.次に,使用したMDTについて述べる.MDTは以下のようにSDTを組み合わせて構成した.すなわち,使用属性数が$i$以上の全属性組み合わせについてSDTをすべて作成し,これを組み合わることで構成した.以下ではこれをMDT($i$)と記述する.例えば,MDT(9)は9属性の全組み合わせ(10種類)と10属性の全組み合わせ(1種類)に対してそれぞれ作成した11個のSDTを組み合わせたモデルである.同様にMDT(8)は56個,MDT(7)は176個のSDTからなり,最多のMDT(1)は1023個のSDTから構成される.実験は以下のように行なった.学習時に使用した事例集合$S$に対し,各事例について1ヶ所(後述の\ref{節:誤り数との関係}節では2または3ヶ所,{}\ref{節:正解入力}節では0ヶ所)の属性を無作為に選び,その属性値に誤りを起こさせたものを入力とした.すなわち,今回作成する二分木は属性が2値であるため,無作為に選ばれた属性の属性値を反転させたものを入力とした.実験は,10属性以下で構成される全組み合わせのSDT(1023個)に対して精度を測定し,これをもとに10種類のMDT($i$)($i=1〜10$)の精度を計算した.また比較対象として,多数決基準,すなわち$i$属性以上のすべてのSDTが返す解のうち最多のものを解とする選考基準での精度も測定した.\subsection{シミュレーション結果}ある乱数におけるシミュレーションの結果を図\ref{図:1誤り}に示す.異なる乱数でシミュレーションを行なった場合も全く同様の傾向が見られた.図で,実線はMDT,点線は多数決基準の精度を示し,SDT単独の精度は点で表した.任意の1属性に誤りがある入力に対し,使用可能な全10属性からなるSDTは10.4\%,9属性以上のSDTによる多数決基準は16.0\%の正解率であるのに対し,MDT(9)は57.6\%の正解率を得ることができ,MDTの優位性を確認した.またMDT(9)は9属性以上で可能な全組み合わせに対して作成したSDTを用いていることより,どうやって不要な属性を減らすか,あるいはどのような組み合わせが適当かを考慮する必要がないため,MDTモデルはこの点において,SDTモデルで使用属性を吟味して精度向上を目指すアプローチよりも優位である.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=one.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{シミュレーション結果(誤り数:1)}\label{図:1誤り}\end{center}\end{figure}ただし,図が示す通り,MDTモデルは少数属性のSDTを追加していくに従い精度が低下する.逆に多数決基準は精度が向上し7属性以下の決定木を使用した場合には両者の精度が逆転した.このことから,MDTはどのような属性数の決定木を加えても精度向上するわけではないことがわかる.最高の精度は5属性以上による多数決基準によって得られた(58.7\%)が,現実的には少数属性の決定木を大量に作成して多数決を取ることは計算量の面で有利ではない\footnote{理論上,MDT(9)に対して5属性以上の多数決基準は58倍($=638/11$),全属性の多数決基準は93倍($=1023/11$)の処理時間と記憶容量が必要である.}ため,1誤りの場合はMDT(9)が最も実用的なモデルであると言える.図において各SDTがどのような精度であるかを観察すると,属性数が減少するに伴い,平均的に徐々に精度は向上している.一方,MDT($i$)が選択するSDTを観察すると,SDTの中で最少属性のもののうちから選択されている場合が圧倒的に多い.例えば,MDT(6)は6属性のSDTのうちの一つの解を選択している場合が圧倒的に多い.一般的に,終端節点の学習事例数は,多数属性で作成した決定木のそれよりも少数属性のほうが平均的に多いためこのように少数属性のSDTが選択されやすくなるのであろうが,相対的に精度の高い少数属性のSDTを選択してもMDTの精度が低下する理由は不明である.これは今後の課題としたい.\subsection{事例集合との関係}\label{節:定量議論}\ref{節:定性議論}節で議論したように,MDTモデルは事例が集中した節点を得るのに用いた属性に誤りがある場合に有効に機能すると予想される.ここではこれを検証する.本シミュレーションでは,終端節点に集中する事例$S_D$とそれ以外の事例$S_S$の2種類の方法で事例集合$S$を作成した.事例集合$S$に誤りを含めた場合に,図\ref{図:1誤り}に示すようにMDT(9)は全体で57.6\%の精度が得られたが,これを事例集合別に分類して集計すると,$S_D$は96.5\%,$S_S$は15.5\%の精度であり,極端に精度が異なる.この結果は,頻出する現象に対しては入力に誤りがあってもかなり高い精度で正解を得ることができるのに対し,稀に出現する現象は正解を得ることが期待できないことを示し,\ref{節:定性議論}節で行なった議論が正しいことを確認した.以上の結果から本手法が有効に機能する状況が推測できる.すなわち,決定木において一部の終端節点に事例が集中するような構造を持つ場合ほど,MDTは誤りを含む入力に対して頑健であることが予想される.\subsection{誤り数との関係}\label{節:誤り数との関係}図\ref{図:1誤り}においてMDT(9)の精度が最も高いのは,各事例に対して1個の属性値に誤りを起こしているためである可能性がある.ではもし誤りが1ではなく,2もしくは3である場合,MDTはどのような傾向を示すであろうか.これを示したのが図\ref{図:2誤り}(2誤りの場合)および図\ref{図:3誤り}(3誤りの場合)である.このシミュレーションにおいては,誤り数以外の条件は全く同じであり,誤りを含める対象の事例集合$S$も,図\ref{図:1誤り}と全く同一のものを使用した.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=two.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{シミュレーション結果(誤り数:2)}\label{図:2誤り}\end{center}\begin{center}\begin{epsf}\epsfile{file=three.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{シミュレーション結果(誤り数:3)}\label{図:3誤り}\end{center}\end{figure}図が示すように,各属性に無作為に2誤りを与えた場合はMDT(8)が,3誤りの場合はMDT(7)が最も高い精度を示していることがわかる.すなわち,誤りの数と用意するSDTとの間には相関関係がありそうである.すなわち,図\ref{図:1誤り},図\ref{図:2誤り},図\ref{図:3誤り}から類推すると,属性数が$N$で誤りが高々$i$ならば属性数が($N-i$)以上のすべてのSDTでMDTを構成するのが最善であろう.\subsection{正解入力での特性}\label{節:正解入力}最後に,誤りがない場合にMDTがどのような挙動を示すのかを検証する.図\ref{図:正解入力}に,事例集合$S$に誤りを与えずに各モデルに入力した場合,すなわち学習事例と入力が全く同一の場合のテスト(closedtest)を行なった結果を示す.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=closed.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{正解入力での特性}\label{図:正解入力}\end{center}\end{figure}この図から明らかなように,一般に属性数の減少に伴い精度は低下していくが,本提案モデルの精度の低下が最も激しい.ただし,正解入力は誤り0の入力であるので,これを前節で議論した誤り数と使用属性数の関係にあてはめると,全属性数で決定木を作成するのが最も適切であろうという予想が得られ,シミュレーション結果と一致する.本シミュレーションでは矛盾のないように属性を作成しているので,このような状況においては全属性による決定木が一つあれば十分で,入力に誤りのない場合は複数決定木モデルを使用する必要がない.ただし,主語補完問題のようにこのような状況が成立しない場合には,実験結果が示すように誤りが0であっても複数決定木モデルが有効に機能する可能性がある.これがどのような場合に有効なのかはシミュレーションでも究明することができなかった.今後の課題としたい. \section{結論と今後の課題} 音声言語処理では,従来の自然言語処理ではほとんど問題にならなかった入力の不正確性が生じる.これに対し,入力の誤り訂正技術への努力だけでは不十分であり,入力に誤りが含まれていることを前提とした問題解決モデルの構築が,これからの音声言語処理において重要である.本論文では,対話に頻出する主語省略の補完問題を取り上げ,複数の決定木を用いたモデル(MDTモデル)による問題解決手法を提案した.また同時に,複数の補完候補からの選好基準として,学習時の終端節点事例数を使用することを提案した.実験では,音声認識結果に対して正解テキスト入力と比べて数\%程度の性能低下で抑えられ,特に挿入誤りに対して頑健であることを示した.また,問題依存性および属性組み合わせに関する議論を行なうため人工的な問題を設定したシミュレーションを行なった.この結果,本モデルは問題非依存のモデルであり,主語補完にのみ有効に機能するわけではないことを示した.本論文で行なった主語補完実験とシミュレーションにより,MDTモデルの特性が明らかになった.これをまとめると,MDTモデルは以下の状況が満たされた場合においてより有効に機能する.\begin{enumerate}\item決定木内に学習事例が集中する節点が多く存在する問題(\ref{節:定量議論}節)\item(全属性数−誤り数)以上の属性から構成される決定木の全組み合わせをモデルの構成要素とした場合(\ref{節:誤り数との関係}節)\item入力に若干の誤りのある場合(\ref{節:正解入力}節)\end{enumerate}複数決定木モデルは,特に入力列の挿入誤りに対して頑健であると結論づけることができるが,欠落,置換誤りに関しては相対的に脆弱である.これらの誤りによる性能劣化は情報の欠落が原因であるのでやむを得ない面もあるが,今後の課題として情報欠落に伴う精度劣化を最小限に抑えることを目指す.また,主語補完実験においては無誤りでもMDTのほうが高性能であったが,これがどのような状況であったためかは明確でなく,実験においても結論を出すに至らなかった.今後はこの点に関しても検証してみたい.\section*{謝辞}本研究で,シソーラスに使用した「角川類語新辞典」\cite{角川類語}を機械可読辞書の形で提供いただき,その使用許可をいただいた(株)角川書店に深謝する.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aone\BBA\Bennett}{Aone\BBA\Bennett}{1995}]{Aone}Aone,C.\BBACOMMA\\BBA\Bennett,S.~W.\BBOP1995\BBCP.\newblock\BBOQEvaluatingAutomatedandManualAcquisitionofAnaphoraResolutionStrategies\BBCQ\\newblockIn{\BemProc.of33rdAnnualMeetingoftheACL},\BPGS\122--129.\bibitem[\protect\BCAY{Dohsaka}{Dohsaka}{1990}]{Dohsaka}Dohsaka,K.\BBOP1990\BBCP.\newblock\BBOQIdentifyingtheReferentsofZero-PronounsinJapanesebasedonPragmaticConstraintInterpretation\BBCQ\\newblockIn{\BemProc.ofEuropeanConferenceonArtificialIntelligence(ECAI)}.\bibitem[\protect\BCAY{江原,金}{江原,金}{1996}]{江原}江原暉将,金淵培\BBOP1996\BBCP.\newblock\JBOQ確率モデルによるゼロ主語の補完\JBCQ\\newblock\Jem{自然言語処理},{\Bbf3}(4),67--86.\bibitem[\protect\BCAY{河原,松本}{河原,松本}{1995}]{河原}河原達也,松本裕治\BBOP1995\BBCP.\newblock\JBOQ音声言語処理における頑健性\JBCQ\\newblock\Jem{情報処理},{\Bbf36}(11),1027--1032.\bibitem[\protect\BCAY{丸山}{丸山}{1996}]{丸山}丸山直子\BBOP1996\BBCP.\newblock\JBOQ話しことばの諸相\JBCQ\\newblock\Jem{第2回年次大会チュートリアル資料},\BPGS\41--58.言語処理学会.\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1997}]{村田}村田真樹,長尾眞\BBOP1997\BBCP.\newblock\JBOQ用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf4}(1),87--109.\bibitem[\protect\BCAY{内藤,政瀧,Harald,塚田,匂坂}{内藤\Jetal}{1998}]{内藤}内藤正樹,政瀧浩和,HaraldSinger,塚田元,匂坂芳典\BBOP1998\BBCP.\newblock\JBOQ日英音声翻訳システムATR-MATRIXにおける音声認識用音響・言語モデル\JBCQ\\newblock\Jem{春期講演論文集},\BPGS\2--Q--20.日本音響学会.\bibitem[\protect\BCAY{Nakaiwa\BBA\Shirai}{Nakaiwa\BBA\Shirai}{1996}]{Nakaiwa}Nakaiwa,H.\BBACOMMA\\BBA\Shirai,S.\BBOP1996\BBCP.\newblock\BBOQAnaphoraResolutionofJapaneseZeroPronounswithDeicticReference\BBCQ\\newblockIn{\BemProc.ofCOLING-96},\BPGS\812--817.\bibitem[\protect\BCAY{大野,浜西}{大野,浜西}{1981}]{角川類語}大野晋,浜西正人\BBOP1981\BBCP.\newblock\Jem{角川類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{Quinlan}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5:ProgramsforMachineLearning}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Takezawa,Morimoto,\BBA\Sagisaka}{Takezawaet~al.}{1998}]{Takezawa98}Takezawa,T.,Morimoto,T.,\BBA\Sagisaka,Y.\BBOP1998\BBCP.\newblock\BBOQSpeechandLanguageDatabaseforSpeechTranslationResearchin{ATR}\BBCQ\\newblockIn{\BemProc.of1stInternationalWorkshoponEast-AsianLanguageResourcesandEvaluation--OrientalCOCOSDAWorkshop},\BPGS\148--155.\bibitem[\protect\BCAY{田中}{田中}{1996}]{田中穂積}田中穂積\BBOP1996\BBCP.\newblock\JBOQ音声対話表現における多様性\JBCQ\\newblock\Jem{人工知能学会全国大会(第10回)論文集},\BPGS\47--50.\bibitem[\protect\BCAY{脇田,河井,飯田}{脇田\Jetal}{1998}]{脇田}脇田由実,河井淳,飯田仁\BBOP1998\BBCP.\newblock\JBOQ意味的類似性を用いた音声認識正解部分の特定法と正解部分のみ翻訳する音声翻訳手法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(4),111--125.\bibitem[\protect\BCAY{山本,隅田}{山本,隅田}{1999}]{主語補完}山本和英,隅田英一郎\BBOP1999\BBCP.\newblock\JBOQ決定木学習による日本語対話文の格要素省略補完\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(1),3--28.\bibitem[\protect\BCAY{Yamamoto\BBA\Sumita}{Yamamoto\BBA\Sumita}{1999}]{NLPRS99}Yamamoto,K.\BBACOMMA\\BBA\Sumita,E.\BBOP1999\BBCP.\newblock\BBOQMultipleDecision-TreeStrategyforError-TolerantEllipsisResolution\BBCQ\\newblockIn{\BemProc.ofNaturalLanguageProcessingPacific-RimSymposium(NLPRS'99)},\BPGS\292--297.\bibitem[\protect\BCAY{Yamamoto\BBA\Sumita}{Yamamoto\BBA\Sumita}{2000}]{ICSLP2000}Yamamoto,K.\BBACOMMA\\BBA\Sumita,E.\BBOP2000\BBCP.\newblock\BBOQMultipleDecision-TreeStrategyforInput-ErrorRobustness:ASimulationofTreeCombinations\BBCQ\\newblockIn{\BemProc.of6thInternationalConferenceonSpokenLanguageProcessing(ICSLP2000)}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2000年ATR音声翻訳通信研究所客員研究員,2000年〜ATR音声言語通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\ttE-mail:yamamoto@slt.atr.co.jp}}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了.ATR音声言語通信研究所主任研究員.博士(工学).自然言語処理,並列処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,電子情報通信学会各会員.{\ttE-mail:sumita@slt.atr.co.jp}}\bioreceived{受付}\biorevised{再受付}\end{biography}\end{document}
V10N02-04
\section{はじめに} \label{sec:hajime}実際に使用された文例を集めたコーパスは,コンピュータによって検索できる形で準備されることにより,自然言語の研究者にとって便利で重要な資料として利用価値が高まっている.コーパスの種類としては,文例のみを集めた生コーパス(新聞記事など多数がある),文例を単語分けして品詞情報などを付加したタグ付きコーパス(ここでは{\bf品詞タグ付きコーパス}と呼ぶ),さらに文の構文情報を付加した解析済みコーパス\cite{EDR2001}\cite{KyouDai1997}の三種類に分類される.付加情報を持つコーパスは,特にコンピュータによる自然語情報処理において重視されている.しかし,その作成には,対象言語の知識を持つ専門家を含む作成者の多大の時間と手間を要し,作成を容易にして量を揃えることが一つの課題である.最近,日本語の古典をCD-ROMなどに収容する「電子化」の動きが盛んである.これらの提供する古典テキストは生コーパスとして利用できる.さらに単語や品詞の条件による対話検索機能を含むものがあるが,通常は,品詞タグ付きコーパスとして利用することができない.つまり,古典文の品詞タグ付きコーパスはほとんど公開されていない.日本の古典の研究者が従来使用してきた研究補助手段として索引資料がある.特に,いわゆる{\bf総索引}は,「ある文献に出てくるすべての事項・字句とその所在箇所を示す索引」\cite{Nikkoku2001}であり,多数の古典に対して作成され利用されている\cite{Kobayashi2000}.総索引の多くは,単語とその品詞の組からそれを含む文を参照できるなど,言語の研究に必要な情報を含み,その情報内容は品詞タグ付きコーパスに匹敵する.しかし,品詞タグ付きコーパスは,単語・品詞などによる検索機能\cite{Oota1997}\cite{EDR1999}\cite{Suzuki1999}の実現が可能なほかに,単語の列,品詞の列,単語と品詞の対応などを網羅的に調べて統計的に処理する統計的(確率的)言語処理\cite{Kita1996}に利用することができることが重要である.総索引は単語と品詞からその本文での出現箇所を与えるが,単語や品詞の系列に関する情報を与えることはできない.そこで,古典の総索引を変換し品詞タグ付きコーパスを作成する方法を実現し,実際に,平安時代の歌物語三篇\cite{UTA1994}と日記五篇\cite{NIKKI1996}について実験した.品詞タグ付きコーパスの形式は,基本的には,{\bfEDR電子化辞書}の{\bf日本語コーパス}\cite{EDR2001}の形式に従った.使用した総索引資料は,本文編と索引編とから成り,後者は,単語の仮名表記・漢字表記・品詞情報を見出しとして,その単語の本文での出現位置の全てを行番号のリストとして与えている.索引語は,自立語・付属語を問わず全単語である.変換処理の条件と考慮事項は次の通りである.総索引の活用語の見出し表記は終止形で与えられ,その品詞情報として活用型と活用形の名称(ここでは,未然形などを「活用形の名称」と呼び,「活用形」は活用語が活用した具体的な文字列を示すものとする)が与えられるので,変換機能には活用表の知識を保持した.しかし,処理を簡単にするため,単語辞書や単語間の接続可能性などの文法知識は保持しないこととした.総索引は単語の出現位置情報を本文の行番号で与えるが,品詞タグ付きコーパスでは行内の単語位置にタグを付ける必要がある.そこで,ある単語の部分文字列が他の単語の文字列と一致することがあり,これらが同一行に出現する場合の行内の位置決めの問題が生ずる.これに対処するため一種の最長一致法を用いた.総索引の見出しの漢字表記が,まさに漢字のみの表現であり,送り仮名等の単語を構成する仮名文字部分を含んでいないため,本文との照合が完全には行なえないという問題に対しては,照合条件を緩める一種の先読み処理法を用いた.これらの対処によっても照合が完全でない部分については,変換途中に人手によるチェックと修正を行なうこととした.この作業を容易にするため,照合の不完全の部分を示す中間結果を出力した.総索引情報自体に誤りが皆無ではなく,そのための照合失敗もあり得るが,これも人手修正の対象である.この人手作業の結果を取入れて,最終的なコーパス形式の出力を行なう.タグ付きの日本語コーパスの作成例には,EDR電子化辞書の日本語コーパス\cite{EDR2001}や京大コーパス\cite{KyouDai1997}がある.これらは品詞タグの他に構文情報を含む.総索引からの品詞タグ付きコーパスの作成については発表を見ない.欧州では,{\bfコンコーダンス}(concordance)と呼ばれる索引資料が聖書や古典作品に対して作成されており,KWIC(KeyWordInContext)形式で単語の使用例と所在を示している.ただし,単語の品詞などの文法情報は与えられていない\cite{Witten1999}.そのため品詞タグ付きコーパスの変換には用いられないと考えられる.以下,まず\ref{sec:Conc&Corpus}節で総索引と品詞タグ付きコーパスの概要を記し,\ref{sec:trans}節で,実験に用いた総索引と品詞タグ付きコーパスの内容・形式と前者から後者への変換方法を示し,\ref{sec:result&}節で変換実験の結果とその検討を記す.最後に\ref{sec:musubi}節で,まとめと課題を記す. \section{総索引と品詞タグ付きコーパス} \label{sec:Conc&Corpus}一般の総索引と品詞タグ付きコーパスについて,内容の概略を記す.変換実験で使用した総索引および作成する品詞タグ付きコーパスの形式と内容については,次節で述べる.\subsection{総索引}\label{sec:concordance}総索引は,ある文献に出てくる全単語とその所在を示す索引であり,日本の古典に関して多数が出版されている.総索引は,単語の表記(見出し語)と品詞とから成るキーと,その本文での出現位置の一覧({\bf転置リスト})との対によって構成されるレコードを,見出し語の辞書順に並べた配列であると言える.本文における出現位置の一覧は,その見出し語の現れる本文の行の識別番号を昇順に並べたものが多い.総索引によっては,出現位置を示す行番号などに加えて,語の使用状況を示すために出現位置の周辺のテキストを見出し語に強調を置いて表示するKWICを提供するものがある\cite{Yamada1958}.しかし,総索引の電子化文書は少ない.最近,日本の古典の本文テキストが電子化文書として提供されることが盛んである.電子化された本文があれば文字列の照合は可能であり,実際にそのような機能とともに本文データを提供する電子化文書も公開されている.しかし,このような単なる文字列としての検索機能では,「たき(滝)」という単語の用例を探そうとして「めでたき」,「ありがたき」の部分文字列も得られてしまうなど基本的な問題がある\cite{Hayashi2000}.この問題を解決して要求に応えるには,単語の認定の必要がある.また,活用語を活用形によらずに検索するには活用語の基本形の情報を持つ必要がある.単語の表記と品詞との組で検索するには,品詞の認定の必要がある.最近,単語・品詞などを条件とする検索機能と古典テキストとを備えた電子化文書の公開もなされているが,対話型検索機能を介してのみ単語・品詞情報などの付加情報の利用が可能であり,それらの情報を直接には参照できないという制約を持つものが多い.この制約は重大であり,品詞タグ付きコーパスで可能な統計的言語処理への適用がこのためにできなくなる.その中で,検索機能とともに本文と索引データ自体を電子化文書として提供するものが現れた\cite{UTA1994}\cite{NIKKI1996}.この総索引データを利用すれば,品詞タグ付きコーパスへの変換が可能であると考えた.\subsection{品詞タグ付きコーパス}\label{sec:tagged-corpus}品詞タグ付きコーパスは,文を単語分けし,それに対応して品詞情報を加えた文例集である.日本文では,EDR電子化辞書\cite{EDR2001}の日本語コーパスや京大コーパス\cite{KyouDai1997}などが作成され活用されている.日本語の古典については,電子化文書の形での生コーパスの作成が盛んであるが,品詞タグ付きコーパスの作成例は見ない.作成者にとって,品詞タグ付きコーパスが生コーパスと異なるのは,単語の認定法・品詞の認定法の検討,本文に対して品詞などのタグ情報を対応づけるデータ構造の設計,個々の文例に関する単語分け・品詞付けの認定作業とそれらのデータの入力作業などの多大な人手を要するという点である(これらの多くは総索引の作成においても,同様に必要である).多くの人が利用するためには,タグの内容やデータ構造の汎用性や利用の容易性が要求される.実際,コーパスのタグ構造に対する要求は拡大しつつあり,汎用性を重視するコーパス形式の検討もなされている\cite{Tanaka2000}\cite{Hashida1999}.品詞タグ付きコーパスは,品詞タグ付き文例レコードの配列より成る.品詞タグ付き文例レコードは,各単語の表記と仮名表記と品詞情報とを含む品詞タグ付き単語情報を文例上の単語の出現順に並べた列より成る.品詞タグ付きコーパスの情報から単語や品詞による検索を行なうことが可能である.また,品詞タグ付きコーパスは,単語・品詞の連接関係などを網羅的に収集して利用する統計的言語処理の手段を提供するという,総索引では提供できない効果を持つ.総索引から品詞タグ付きコーパスへの変換を試みる意義はここにある.すでに出版された総索引は多数あり,それらを電子化してこの変換ができれば,それによって品詞タグ付きコーパスの充実が可能になる. \section{総索引から品詞タグ付きコーパスへの変換} \label{sec:trans}ここでは,総索引から品詞タグ付きコーパスへの変換処理について述べる.まず,変換実験の入力である総索引の形式・内容と出力である品詞タグ付きコーパスの形式・内容について記し,次に,本文テキストからのコーパス・レコードの切り出し法,総索引の形式・内容に関する変換処理上の問題点と解決策を記し,最後に変換処理手順を記す.\subsection{利用する総索引の情報内容と形式}\label{sec:ConcStyle}変換実験で用いた総索引は,平安時代の歌物語三篇(伊勢物語,平中物語,大和物語)\cite{UTA1994}と日記文学五篇(土佐日記,蜻蛉日記,和泉式部日記,紫式部日記,更級日記)\cite{NIKKI1996}に関するものである.これらは,本文編(歴史的仮名遣いに改め,濁点・句読点を補い,適宜,漢字を充て,会話部分を「」で括るなどの処置が施されている)と索引編とから成る.いずれも印刷文書と電子化文書の形態で公開されているが,ここでは処理対象の電子化文書の内容と形式に関して述べる(下の記述では適宜簡略化して示す).以下,本文編と索引編とに分けて,それぞれの形式と内容を記す.\noindent{\bf(1)本文編}本文編は,行番号と行文字列の対から成る{\bf行レコード}の配列である.行文字列は,歴史的仮名遣いによる漢字仮名混じり表現であり,句読点や引用の「」が付けられている.行の単位は底本の行体裁を尊重して決められているが,一つの単語は行内に収める仕様になっている(両索引の本文編凡例).もちろん,行末が文の途中であることがあり,また,文の開始が行頭とは限らない.なお,和歌と通常文とは行を分けている.多くの場合,和歌一首は2行に分けて収容されているが,通常文の中に和歌の一部が現れることがあり,この場合にも和歌の部分は別の行に置かれる.次に,行レコードの例を挙げる.\vspace{-8pt}\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent【行レコードの例】土佐日記冒頭行.0001,男もすなる日記という物を、女もしてみむとて\noindent【行レコードの例】伊勢物語から2行.1026,世にあふことかたき女になむ。1263,の前の海のほとりに遊び歩き\vspace{-8pt}\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent{\bf(2)索引編}索引編は,索引レコードの配列である.{\bf索引レコード}は次の内容から成る.作品名,所在行,仮名見出し語,漢字表記,品詞情報,K,W前節では,索引レコードの一般的形式として,単語と品詞のキーと,その単語の本文での出現位置の一覧(すなわち,転置リスト)との対であると述べたが,上のレコードは,単純なレコード構造を採用し,1レコードには1つの所在行のみを記している.本文の複数箇所に現れる単語については,出現箇所の個数分(転置リストの要素数分)のレコードを並べることになる.品詞情報は,見出し語の品詞を与えるが,これが活用語の場合には,活用型,活用形の名称をも与える品詞コードとして表現される.活用語の場合,仮名見出しは終止形で与えられるが,所在行での実際の活用形の仮名表現は見出し語と品詞情報とから作成できるようになっている.このため品詞情報には形容詞の活用型(カリ,ク,シク活用),形容動詞の活用型(ナリ,タリ活用),音便表現の使用(音便表現が用いられていることを示す.イ音便など音便の種類は電子化文書には存在しないので,これについては内部処理で補う)を表示できるようになっている.索引レコードの漢字表記は,仮名見出しのみでは利用者が単語を同定できないのでそれを補うためのものであり,本文では仮名表記であっても索引に漢字表記が記載されていることがある.別の問題は,この漢字表記が通常の国語辞典の見出しで使われている漢字表記とは異なり,送り仮名などを省略して漢字部分のみを記したものになっているということである.これらにより,索引語を本文上で照合する処理が単純でない.索引レコードのKとWは,それぞれその語が会話および和歌の中に現れていることを示す.次に,索引レコードの例を挙げる.\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent【索引レコードの例】索引レコードから3レコード.品詞情報F4は四段動詞連体形,F2は四段動詞連用形,A0は名詞を示す.仮名表記の次の漢字表記が「逢・合」であり「逢う・合う」でないこと,「遊歩」であり「遊び歩く」でないことに注意.最後の例の「からころも」は和歌の中で使われていることが,記号Wによって判る.伊勢,1026,あふ,逢・合,F4伊勢,1263,あそびありく,遊歩,F2伊勢,143,からころも,唐衣,A0,W\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\subsection{作成する品詞タグ付きコーパスの情報内容と形式}\label{sec:EDRStyle}変換実験で出力する品詞タグ付きコーパスの形式について記す.この形式は,基本的にEDR電子化辞書の日本語コーパスの形式\cite{EDR2001}に従って定めた.それは,すでに作成されているEDR日本語コーパスの検索機能などが使えるためである\cite{Oota1997}\cite{EDR1999}\cite{Suzuki1999}.EDR日本語コーパスは,{\bf日本語コーパス・レコード}の配列である.日本語コーパス・レコードは,レコード番号,文情報,構成要素情報,形態素情報,構文情報,意味情報,管理情報より成るが,構文情報と意味情報を除いた部分が今回の作成対象である.文情報は,管理番号,出典情報,用例文より成る.構成要素情報は構成要素の配列である.構成要素は,構成要素番号,表記,かな表記,品詞,概念選択より成るが,ここでは概念選択を除いた.形態素情報は,形態素の用例での表記を番号を付けて並べたものである.管理情報は更新日付等を記す.この結果,変換実験で出力する品詞タグ付きコーパスの{\bfレコード形式}は次の通りである.レコード番号,文情報,構成要素情報,形態素情報,管理情報ここで,構成要素情報は,構成要素番号,表記,かな表記,品詞と活用型,活用形名称から成る構成要素の配列である.なお,EDR電子化辞書の日本語コーパスの品詞情報は,まさに品詞のみしか記さず(活用語の活用型・活用形名称の記載がない),活用語は,語幹と活用語尾に分けて示し,活用語尾には「語尾」という品詞を与えている.この仕様であると,総索引に記載されている情報の一部を捨てることになり,また,品詞や活用型・活用形を含めた文法学習などへのコーパスの適用範囲を狭くしてしまう恐れがある.そこで,総索引の与える情報に対応して,活用語尾を含めて単語とし,品詞の他に活用型,活用形の名称を記すこととした.総索引では,活用語の見出し語は終止形で与えられたが,本コーパスで構成要素情報および形態素情報の活用語は,本文における活用形として与えられる.品詞のセットについては,おおむね,総索引のそれを採用するものとする.ただし,総索引では句読点や引用記号などは語として扱われないが,ここでは,EDR日本語コーパスの規則に従って語として扱い,記号という「品詞名」を付ける.次に,品詞タグ付きコーパスのレコードのうち,用例文と構成要素情報と形態素情報の例を挙げる.形態素情報は,本変換によるコーパス・レコードにおいては,構成要素情報の中の構成要素番号と表記の情報と常に同じ内容である.\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent【品詞タグ付きコーパスのレコード例】伊勢物語より.レコード番号・管理情報は省略.構成要素情報\verb+{}+は構成要素の配列.構成要素の最後のフィールドは活用形を示すが,活用語でない場合には*を置いている.昔,男ありけり。{1昔むかし名詞*2男おとこ名詞*3ありあり動詞ラ変連用4けりけり助動詞終止5。。記号*}/1:昔/2:男/3:あり/4:けり/5:。\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\subsection{本文テキストからのコーパス・レコードの切り出し}\label{sec:Sentence}次に,コーパスのレコード単位の切り出し法に関する問題点と,対処法について記す.コーパス・レコードの単位は文であるが,文の区切りを直接に示す情報は本文にも索引にも存在しない.そこで本文の句点によってレコードの区切りとする方法が考えられる.これに関して次の二つの問題がある.その第一は,{\bf会話部を含む文}に関するものである.文中に「」で囲まれた会話部があり,その中に一つあるいは複数の文が含まれることがある.この場合,会話部を含めて全体を1レコードとすべきである(EDR日本語コーパスでも会話部を含んで1レコードとしている).そこで,会話部分の外部の句点(。)のみを文の終りとして用いる必要がある.その第二は,{\bf和歌を含む文}に関するものである.本文上で,和歌には句読点が付けられていない.和歌が文の途中で現れるとき,これらはコーパス上でまとめて1レコードとすべきである.一つまたは複数の和歌が通常文とは別に現れることがあるが,この場合は和歌一首毎にコーパス・レコードとすべきである.しかし,和歌から通常文に続くか切れるかの判定ができない.索引語に和歌で用いられているとの表示(前記のW)があるが,文の開始の印はどこにもないので,和歌の後にある記述が単独の文か,和歌に続く文かは判定できない.そこで,後述の中間結果の上で,和歌部分(複数の場合もある)の開始と終了を表す記号【と】とを本文中に挿入し,人手によって再編集するときの標識とする.人手によってこの部分を調べ,文の区切りの場合にはその印を付けてコーパス・レコード切り出し処理に知らせることとした.なお,この和歌の標識はコーパス上でも保存し(品詞を「記号」とした),コーパス利用時の標識として用いることとした.次に,和歌を含む本文の例を示す.\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent【例】伊勢物語から.文の構成要素として和歌が使われる例.0179,みな人見知らず。渡し守に問ひ0180,ければ、「これなむ都鳥」と言ふを0181,聞きて、0183,名にしおはばいざこと問はむ都鳥0184,わが思ふ人はありやなしやと0185,とよめりければ、船こぞりて泣きにけり。\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\subsection{総索引の形式・内容の問題点と解決法}\label{sec:ConcProb}総索引の形式・内容の変換処理上の問題点と,それらに対して採用した対処策を次に記す.\begin{itemize}\item{\bf活用表の知識の保持}活用語の見出し表記は終止形で与えられ,その品詞情報として活用型と活用形名称が与えられている.先の索引レコードの例における,見出し語の動詞「あそびありく」に対して,「四段活用」が活用型を,「連用形」が活用形の名称を与えている.この情報によって,その活用形の文字列表現「あそびありき」を求めることが期待されている.そこで,変換機能には各活用語の活用表の知識を保持することとした.学校文法の活用表では同じ活用形名称に対して複数の活用形が記載されていることがあるが,本索引では品詞情報(活用型や活用形の種類の追加)によって活用形がほとんど一意に決められるように配慮されている.\\そこで,仮名表記・活用形名称を用いて活用形の仮名表現を作り照合に用いる.ただし,本文での活用語の表記が漢字を含む場合には,その読みが判らないため,活用形の仮名表現との後方文字の一致で照合とみなす後述の不完全照合を採用する.\item{\bf最長一致法}ある単語Aの部分文字列が他の単語Bの文字列と一致することがあり,両者が同一行に出現することがあり得る.この場合,単語Bの照合が本文の単語Aの途中位置においても成功してしまう.品詞間の連接関係などの文法的な知識は用いないという条件の下でこの問題に対処する方法として一種の最長一致法を用いた.すなわち,索引語と行テキストとの照合時に候補箇所を保存し,当該行に関する索引見出しの全てについて候補箇所を作成した上で,同じテキスト部分に複数の索引見出しとの照合候補がある場合,文字列の長さの最長の単語を採用する.もちろん,同一の長さの候補の間ではいずれかを決められない.\\なお,同一語が行内に複数個現れる場合,同じ作品名・行番号・見出し語の索引レコードがその個数だけ置かれている.\\次に,ある単語とその部分文字列である単語が同一行に現れる例を示す.\\\vspace{-14pt}\begin{verbatim}-----------------------------------------------------------------------\end{verbatim}【最長一致処理の必要な例】連語「その」と助詞「の」が三度現れる本文行.先頭の「の」は,連語「その」の部分とも助詞「の」とも考えられるが,長い方の前者を採用する.\\伊勢,1292,その家の女の子どもいでて,浮き海松の\begin{verbatim}-----------------------------------------------------------------------\end{verbatim}\item{\bf不完全照合法}通常の書物の索引項目は本文で使われる表記によって記載される.それは当然のことと考えられる.ところが,総索引の見出しの漢字表記の主目的は,仮名表記のみでは同定することができない見出し語を同定することのようである(索引編の凡例\cite{NIKKI1996}に,漢字表記の部分の説明として「見出し語の意味を区別するために適宜漢字を充てた」とある).すなわち,この漢字表記が本文で使われているとは限らず,本文では仮名表記であるかもしれない.しかし,本文で漢字を含む表記が用いられている単語については,索引の漢字表記のいずれかと照合できると考えた(この仮定が必ずしも成立しないことは実験結果の検討の項で述べる).\\ところが,さらに問題がある.それは,この漢字表記の記述がまさに漢字のみの表現であり,送り仮名などの単語を構成する仮名文字部分を含まないことである(本文「菊の露」に対して索引の見出し語の漢字表記は「菊露」).この結果,辞書を保持せずに処理を行なうという前提条件の下では本文との照合が完全には行なえないことになる.その対策として,照合条件を緩めて,1文字の不一致があっても先読みを進めて,続く文字列が一致すれば照合成功と扱う不完全照合法を採用することとした.また,本文での活用語に対して漢字が用いられている場合,索引の漢字の読みが不明のため,漢字仮名混じりの活用形が作れない.そこで仮名文字列として作成した活用形と本文の漢字仮名混じり表現との照合では,活用語尾を与えると見られる後方文字の一致で照合成功とみなすこととする.\\結局,索引語と本文との照合において,与えられている全ての漢字表記に基づく不完全照合とともに仮名表記に基づく照合も行ない,他の部分の照合状況と合わせて適切な候補を求めることとした.次に,漢字表記が本文の表記と一致しない例を挙げる.\begin{verbatim}-----------------------------------------------------------------------\end{verbatim}【索引の漢字表記と本文の表記の関係を示す例】\\索引レコード:大和,801,をぐらのやま,小倉山,A0,...\\本文レコード:大和,801,給へるに、紅葉、小倉の山にいろいろ\begin{verbatim}-----------------------------------------------------------------------\end{verbatim}\item{\bf人手修正の支援機能}上記の対策が十分でないことがあるために人手による確認を要する部分が生じる.一方,索引情報と本文情報の不整合(本文を正しいと考えるなら,索引情報の誤り)の場合もあり得る.これらの場合,その中間結果を人手で確認し,場合によっては修正する必要がある.この作業を容易にするため,不完全照合の部分についてはそのことを示す感嘆符!を,照合失敗部(不完全照合法を用いたが失敗した部分を含む)については疑問符?を出力することとした.疑問符を付した文字列については,必ず人手による修正の必要がある.いずれの表示もない箇所については,照合は正しく行なわれているはずである.なお,先に述べたように中間結果の中に和歌の開始・終了を表す標識を出力する.これは人手による和歌と通常文の分割作業の支援のためである.\end{itemize}\subsection{変換処理手順}\label{sec:Method}変換処理では全ての索引レコードと全ての本文レコードの参照が必要であるが,外側ループで取り出すのが索引レコードか本文レコードかの二通りの流れが考えられる.いずれも他方のレコードの取り出しを内ループで行なう.前者の方法では,索引データを順に読み込む毎にそれが参照する本文情報に関する本文行と索引との照合データを蓄える(あるいは,既作成のデータを取出して情報を追加する).後者の方法では,順に読み込む本文レコード毎に,その行を参照している全索引レコードを探して,本文のタグ付けのためのデータを1行ずつ完成させていく.ここでは処理の単純さのため,後者の方法を採用した.図\ref{Flow}に示すように,処理は3段階に分かれる.第1段階の本文と索引との{\bf照合処理}が変換の主処理であり,本文と索引との照合の結果として,人手確認・修正用の必要な部分についての表示を含めた中間結果を本文行単位に出力する.第2段階は中間結果の{\bf確認修正処理}であり,人手作業によって第1段階の中間結果の処理結果表示を参照し確認・修正を行なう.また,和歌と通常文の区切りが必要な位置にはそのことを示す印を付加した.第3段階は{\bfコーパス作成処理}で,修正済みの中間結果と本文に基づいて,文単位のコーパス・レコードとしてまとめながら品詞タグ付きコーパスを出力する.以下,各処理を詳述する.\begin{figure}[bt]\begin{center}\epsfile{file=Fig1.eps,scale=0.5}\end{center}\caption{変換処理手順}\label{Flow}\end{figure}\noindent{\bf第1段階:照合処理}次に示す本文1行に対する処理を,本文の全レコードに対して繰り返す.\noindent{\bf(1)本文レコードの読み込み}本文レコードの次の1行を読み込み,その作品名と行番号を得る.\noindent{\bf(2)索引レコードの読み込みと整備}索引ファイルから,上で求めた作品の該当行を所在行とする索引レコードを読み込み,活用語の場合,仮名見出しと品詞情報からその仮名による活用形を作成する.これを,該当行を所在行とする全ての索引レコードについて行ない,この関連索引データを保持する.\noindent{\bf(3)照合処理による照合候補の探索}本文1行に対する索引データが全て揃うと,その中で本文と索引情報との照合候補の作成を次の3ステップによって行なう(実際にはこれらの処理を2廻り行なった.1廻り目で確定した部分を他の単語の照合候補から除外して2廻り目の照合候補を絞った).照合の結果として,索引の単語が出現する本文テキスト上の位置と,一致した文字数を得る.照合が成功した場合,その語の部分には成功の印である*記号を出力する.照合が失敗した場合,その語の部分には失敗の印である?記号を出力する.\noindent{\bf漢字照合}:索引の見出しに漢字表記が存在する場合,その先頭文字が本文中にあれば,以降の漢字照合を行なう.照合に成功しないと一文字の先読みを行ない,不完全照合処理を行なう(複数個の漢字表記が記されている場合があり,その場合,それぞれについて行なう).活用語の場合は仮名による活用形を作成した後,活用語尾も含めて,一文字先読み・不完全照合処理を行なう.以上によって照合が成功した場合は,この語の部分に不完全照合を示す印として!記号を出力する.照合結果として,索引の単語が出現する本文上の先頭位置と一致文字数を得る.\noindent{\bf仮名読み照合}:索引に漢字表記が存在しないかどうかによらず仮名読みによる照合を行なう.照合の結果として,索引の単語が出現する本文テキスト上の位置と,一致文字数を得る.\noindent{\bf最長一致照合}:上の二つの処理により得られた候補のうち,次のようにして一致文字数の最大のものを第1候補とする.索引見出しに漢字表記がある場合,漢字照合結果があればその中から最長なものを選ぶ.漢字照合結果がなければ,仮名読み照合の結果から一致文字数の最大のものを第一候補とする.索引見出しに漢字表記がない場合にも,仮名読み照合の結果から一致文字数の最大のものを第1候補とする.\noindent{\bf(4)行単位の照合処理による照合候補の絞り込み}上で求めた照合候補の中から,第1候補が求められた部分について,本文に対するタグを作る.そうでない場合は,その語の部分には失敗の印である?記号を出力するとともに作成途中の情報を出力する.\noindent{\bf(5)人手作業用の中間結果の編集出力}行単位の照合処理の結果を編集して出力する.その出力形式とその例を図\ref{CheckF}に示す.その内容について項目別に記し,その後に例を挙げる.\\\noindent{\bf本文行の文字列}:次の例外を除き,本文行の文字列をそのまま記す.例外は和歌の場合であり,記号【】を挿入して和歌部分を囲む.前述のように,本文編で和歌(その部分)は通常文とは別の行に置かれている.また,索引編では索引語の当該行での使用が和歌の中の使用かどうかの区別(W印)がある.これらにより,変換処理において,行レコード全体が和歌部分か否か判定できる.判定の結果,行毎に記号【】を挿入するのではなく,連続する和歌行の先頭行の行頭に記号【を,連続する和歌行の最終行の行末に記号】を挿入した(これにより複数の和歌が【】で囲まれることがある.人手による修正時にこれを一首ずつに分けた).\\\noindent{\bf照合結果を示す特殊記号の列}:本文の文字位置に対応して,照合成功の*記号,不完全照合成功の!記号,照合失敗の?記号を示す.\\\noindent{\bf本文行に対する単語情報の列}:この単語情報は,第一候補番号の後に,一または複数の単語候補のリストを並べたものである.第一候補番号とは,後続の単語候補のうち,何番目の候補(先頭を0番目とする)を採用したかを示す番号である.個々の単語候補は次の情報より成る:\noindent{\bf記号K/M}:記号Kは照合が仮名見出しに依って得られたこと,記号Mは照合が漢字見出しに依って得られたことを示す.\\{\bf単語の漢字表記と仮名表記}:索引の漢字表記と索引情報より作成した仮名表記(活用語の場合は活用形の仮名表記)を示す.\\{\bf本文行内の単語の位置と長さ}:行内で単語の現れる先頭バイト位置と単語のバイト数を示す.\\{\bf品詞・活用型・活用形名称}:単語の品詞,および,活用語の場合はその活用型と活用形名称(ただし,活用語でない場合,活用形名称の代りに*印を置く).\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}【中間結果の例1】図\ref{CheckF}の場合について.\\・本文「富士の山」:索引の漢字表記が「富士山」であるため1文字先読みにより不完全照合に成功する(!印).\noindent・本文「見れ」:索引の漢字表記が本文の「見」と一致し,活用型と活用形名称より求めた仮名表記「みれ」の「れ」の一致により不完全照合に成功する(!印).\noindent・本文「五月のつごもり」:索引の漢字表記が「五月晦日」であり1字先読みで解決せず不完全照合でも失敗する(?印).\noindent【中間結果の例2】本文「遊び歩き」,索引:「あそびありく,遊歩,F2」の照合.\\「遊」のあと1文字が一致しないが先読みして「歩」が一致し,さらに四段活用連用形より仮名見出しの活用形「あそびありき」を得てその最後の文字「き」が本文の「歩」の次の「き」と一致する.これにより不完全照合の成功.\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}\begin{figure}[tb]\begin{center}\epsfile{file=Fig2.eps,scale=0.5}\end{center}\caption{中間結果の形式とその例}\label{CheckF}\end{figure}\noindent{\bf第2段階:人手による確認・修正}上の中間結果を人手によって参照して確認・修正する.この作業の結果の中間結果が第3段階の品詞タグ付きコーパス作成処理の入力となる.確認・修正作業内容は次の通りである.\noindent{\bf照合の確認と修正}:確認を要する不完全照合成功の!記号の場合,単語候補について,先頭バイト位置・バイト数が正しいかどうかを確認する.正しければ何もせず誤りがあれば修正する(後述のように,誤りは全くなかった).また修正を要する照合失敗の?記号が存在すれば,第1候補番号および単語候補の行内位置(先頭バイト位置)・長さ(バイト数)を修正する.一般に,他の部分の修正はしない.\noindent{\bf和歌と通常文の接続関係の判断とその反映}:和歌の開始終了標識を参照し,次の文と接続しない場合には和歌終了の直後にコーパス・レコードの終了を示す区切りを置く.また,和歌の開始終了標識が複数の和歌を含む場合,和歌毎に開始終了標識【】で区切り,コーパス・レコードの区切りを置くべきならばその区切り記号を置く.\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}【中間結果の確認・修正例】図\ref{CheckF}の「五月のつごもり」での失敗を次のように修正する.0(五月晦日さつきのつごもり1814名詞*)ここで修正したのは当該単語の長さ(バイト数)の部分のみである.単語候補の「五月晦日」は本文表記と一致しないがこれは修正しない.後述のように,第3段階でタグの漢字表記としては本文における単語の行内位置(ここでは18バイト目)・単語の長さ(ここでは14バイト)によって得られる表記を採用するので,上の修正のみで,正しく「五月のつごもり」となる.\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}\noindent{\bf第3段階:タグ付きコーパス作成処理}第2段階での修正結果の行単位レコードから,文単位のタグ付きレコードを構成する(\ref{sec:Sentence}).その区切り方の基本は,引用部「」の外にある句点(。)によって1レコードを構成するということである.ただし,和歌の前後については,第2段階で人手によって付けた特別の区切り記号によってレコード区切りを行なう.これに関するレコード内容としては次のような場合がある:単独の和歌の場合,通常文(の部分)と後続の和歌の場合,和歌と後続の通常文(の部分)の場合,通常文(の部分)の間に和歌を挟んだ場合.いずれの場合にも,コーパス・レコードの本文文字列の中に和歌の開始・終了を表す【】を用いる(和歌の一部が通常文の中で使われることがあるが,その部分も【】で囲んだ).コーパス・レコードの各単語部分については,中間結果の第1候補番号の単語候補の指す本文表記を単語表記とし,中間結果の単語候補の他の内容(ただし,タグの漢字表記部分は,行内位置情報と長さ情報によって本文表記を求めてこの文字列で置換える)をそのタグとする. \section{変換結果と検討} \label{sec:result&}前節の方法によって,実際に,平安時代の歌物語三篇\cite{UTA1994}と日記五篇\cite{NIKKI1996}について品詞タグ付きコーパスを作成する実験を実施した.本節では,まずこの変換実験で得たコーパスと変換・修正で発生した事象を記したあと,総索引の内容と形式に対する要望を記し,また変換方式の改良案を記す.\subsection{変換実験の結果と評価}\label{sec:Exp}変換実験で得られた品詞タグ付コーパスについて,作品別に,単語数,人手修正の結果判明した変換失敗単語数,失敗の要因などを表1に示す.表のA.単語数は,各作品の含む単語数とその合計を記す.合計は約15万語であった.ただし,ここでの単語数には,コーパス上で単語として扱った句読点や,引用の「」や和歌を囲む【】を含む.B.失敗数は,人手修正時に修正した単語の個数である.C欄には,失敗数の単語数に対する割合を示す.人手作業では,照合成功の*印,不完全照合の!印,照合失敗の?印が付けられた本文文字の,特に!印と?印の部分に注目して確認と修正を行なった.その結果,!印の部分には全く誤りはなく,?印の部分について誤りを修正した.それが合計9,530件(全体の6.4%)であった.D.漢字表記,E.行またがりは,失敗原因の二例についての内訳個数を示したものである.F欄には,失敗原因の失敗数に対する割合を示す.前者の「漢字表記」(漢字表記が本文の表記と一致しないこと)による失敗は全失敗の約半数を占めている.「行またがり」とは,本文上で一つの単語は単一行内に収めるという仕様が索引の全ての見出し語に適用できると考えて処理したところ,複合語の場合などでは行にまたがって配置されることがあったために失敗したものであるが,その数は少ない.これら以外の誤りとしては,連語の活用型が索引に記載されないことによるもの,特殊な活用型を用意していなかったための誤り(「同じ」など),同表記の複数個の単語が同一行に現れたときに各々の位置を特定できないための失敗などがあった.\begin{table}[tb]\begin{center}\caption{変換実験とその結果}\epsfile{file=TAB1.eps,scale=0.5}\end{center}\label{TAB1}\end{table}\subsection{総索引の内容と形式への要望}\label{sec:request}利用者の立場から総索引に対する要望が発表されている\cite{Miyajima1969}.そこでは,主として,「あることばを索引にのせる際のあつかいかた」の統一性に関する問題が国語学の専門の立場から述べられている.ことばを索引にのせる際の扱い方とは,{\bf単語の認定法}(「散りはつ」などの複合動詞,「かぎりなし」などの体言+用言の構成,「藤の花」などの体言+の+体言の構成を見出し語とするかどうか),{\bf見出し語の形態}(活用語の活用形ごとに見出し語とするより,終止形などでまとめた上に活用形によっても検索できることが望ましい),{\bfよみの決定法}(底本の漢字に対する読みが一意に決まらないことへの対処法),{\bf活用形の認定}などがある.統一としては,{\bf複数の総索引間の統一}(品詞セット,単語の認定法,見出しの立て方など)と{\bf総索引内での統一}の問題とを挙げている.今回の変換実験を通して,総索引の内容と形式に関する第一の要望は,本文で用いられている通りの漢字仮名混じり表記を索引レコードの漢字表記に含むということである.これは,変換処理のためだけでなく,人が参照する場合にも有用であると考えられ,また,索引情報が本文に現れる単語を網羅していることの確認を行なうためにも必要であろう.なお,仮名見出しの単語の同定を目的とし本文の表記の反映を意図しないという漢字表記の役割は,変換に用いた総索引のみでなく大多数の索引で採用されている.二十篇程参照した平安時代の仮名文学の索引文書の中で,その見出し語として本文の漢字仮名混じり表記を採用すると明記しているものは唯一つであった\cite{Yanai1999}.上の「注文」は三十余年前に発表されているが,その後に発行された総索引に十分反映されたとは考えられない.それだけ要求を満たすことが困難であるということかも知れない.しかし,現在では,総索引の作成の道具としてコンピュータを用いることができる.総索引の作成において,いかに統一的な方針を定めても,作業中に誤りが混入することが避けられないが,見出し語の網羅性,本文の表記と索引レコードの漢字表記の整合性,認定した複合語の全文への適用などの確認作業において,コンピュータの支援の効果は大きいはずである.実際,今回の変換実験において,総索引および本文の誤りと思われる次の問題が発見された.\noindent{\bf文字コードの不統一}:本文テキストは2バイトコードで表されているはずであるが,括弧や句読点については,1バイトコードが使われている箇所が多数あった.\noindent{\bf活用型の欠如}:補助動詞と連語については,索引上で活用型の表示がなく,活用形名称が使われているため,これについては活用形表現を作成することができず,必ず照合失敗を起すこととなった.これらについても活用型を表示することが望ましい.\noindent{\bf音便の種類の脱落}:総索引の印刷物には索引レコードに音便の種類(イ音便,促音便など)の表示があるが,電子化文書にはこの記述が抜けている.\noindent{\bf索引語の不足と過剰}:索引語が本文の単語を網羅していない.また,本文に存在しない単語が索引に存在すること.\subsection{変換方式の改良案}\label{sec:newmethod}今回採用した変換では,単語の知識を保持せず,文法知識を最小限に保持したものである.それによる実験の中で,索引情報の形式との関係でこれらの知識の必要性も考慮すべきであることが判明した.以下,変換方式の改良案として記す.今回は総索引の活用語に対して示されている活用型について活用表を用意した.これらの活用型は教科書に載っている標準的なものである.ところが,形容詞「同じ」のように標準の活用型を記されていながら,実は一部で例外的な活用(連体形として「同じき」でなく「同じ」が使われることが多い)をするものがある.このような語に応じた活用表を用意する必要がある.同じ文や行の中に,同じ表記で異なる語(品詞が異なる場合と品詞が同じ場合とがある)の出現があると,現在の変換法では単語の位置をいずれと決めることができない.助詞と助動詞の「に」や,推定と断定の助動詞「なり」の区別などである.この対策としては,助詞・助動詞の接続規則を保持することが考えられる.索引の漢字表記が今回の場合のように,送り仮名や活用語尾などの仮名部分を省略して漢字のみで与えられる場合の対策としては,単語辞書を持つことが考えられる.この単語辞書の漢字表記には本文で用いられる漢字仮名交じり表現が与えられる必要がある.しかし,索引の漢字表記が本文の表記と同じ漢字仮名交じり表記を与えているならば,単語辞書を用いることなく,より高精度の結果を与えることが可能であり,この方が自然な処置であると考える. \section{むすび} \label{sec:musubi}\subsection{結論}\label{sec:Conclusion}品詞タグ付きコーパスは,その上に単語・品詞検索などの検索機能を作成することが可能であり,また,単語列や品詞列を扱う統計的自然言語処理にも有用である.しかし,日本文,特に古文についての品詞タグ付きコーパスはほとんど作成されていない.そこで,多数の作成例がある日本語古典の総索引を品詞タグ付きコーパスに変換する方法を検討した.使用した総索引は本文編と索引編とから成り,後者は単語の仮名/漢字表記・品詞情報を見出しとし,その単語の本文での出現行番号のリストを与える.品詞タグ付きコーパスとしては,基本的にはEDR電子化辞書の日本語コーパスの形式を採用した.ただし,品詞情報を拡張し活用語については活用型・活用形情報をタグに反映するなどの変更を加えた.変換機能には活用表の知識のみを保持するが,単語辞書・単語間の接続規則などの知識は持たない簡単な実現法を目指した.ある単語の部分文字列が他の単語の表記と一致し,両者が同一行に出現することがあり得る問題に対し,一種の最長一致法を用いた.索引の見出しの漢字表記が送り仮名等の仮名文字を含まないため,照合条件を緩める先読みと不完全照合法を用いた.不完全照合法により照合できた部分の確認と索引自体の誤りその他による照合失敗部の修正とを容易に行なうため,それぞれの要因を区別する表示を付けた中間結果を出力し,人手によって検査・修正した.以上の結果,約15万単語の品詞タグ付きコーパスを得て,品詞タグ付きコーパスの増強に関して,本方法が有効であることを示した.不完全照合法による照合部分の確認の結果,誤りはなく,不完全照合法が有効に働いたことが判った.本実験における照合失敗すなわち変換誤りについては,その要因の検討を行なった.また,総索引の形式への提案,変換方法の改良案などについて述べた.\subsection{今後の課題}\label{sec:Future}品詞タグ付きコーパスの量と質の増強が今後の課題である.質の向上のためには,単語や品詞の認定などに関するコーパス内の統一性の確保はもちろん,コーパス間統一性も必要であり,相当な検討を要する.この検討においては,利用者および利用目的の多様性を確保するという観点も必要になる.コーパスの形式自体にも汎用性からの検討が必要である.これらについては既に実施中の検討と共通の点が多い\cite{Tanaka2000}\cite{Hashida1999}.古典の主要な文献については,すでに総索引が作成されている.これらについて,上記の検討を加えた上でその電子化を行なうならば,変換処理により,品詞タグ付きコーパスの充実を計ることが可能である.明治時代以降の文献については,EDRコーパスなどの少数例を除いて品詞タグ付きコーパスの例が少ない.また,単語・品詞の認定作業を経た総索引資料が極めて少なく,この点については古典文の場合よりも状況が悪い.今後の基礎的な努力が期待される.\acknowledgment本研究の初期検討を担当した瀧本景子氏,照合不完全部の確認と修正によりコーパスを完成させた田熊亜希子,佃美香,林朋子の各位に感謝します.本研究は\cite{UTA1994}および\cite{NIKKI1996}によって実施した.両著作の著者の方々に感謝したい.なお、本研究の一部は文部省科学研究費補助金(基盤研究C2No.13680492)によって実施した.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{上原徹三}{1969年京都大学大学院・工学研究科・修士課程修了.同年日立製作所中央研究所入所.1993年武蔵工業大学工学部教授.文書処理・日本語処理の研究に従事.博士(工学).情報処理学会,言語処理学会,計量国語学会,ACM各会員.}\bioauthor{金澤恵}{2001年武蔵工業大学工学部電子情報工学科卒業.現在,武蔵工大大学院・工学研究科・電気工学専攻修士課程2年.日本語処理の研究に従事.}\bioauthor{潮靖之}{1999年武蔵工業大学工学部電子通信工学科卒業.2001年同大学院・工学研究科・修士課程修了.現在,(株)東芝に勤務.}\bioauthor{矢古宇智子}{2001年武蔵工業大学工学部電子情報工学科卒業.現在,(株)日立INSソフトウェアに勤務.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V06N06-04
\section{はじめに} \label{section:intro}日本のテレビ番組における字幕付き放送の割合は10\%程度と低く,近年,字幕放送率向上を目指し,自然言語処理技術を応用した効率的な字幕生成が切望されている\cite{EharaAndSawamuraAndWakaoAndAbeAndShirai1997}.番組の音声情報を字幕化するには,文章を適度な長さに要約する必要があるため,本研究では,ニュース原稿(テキスト)を入力とした,字幕生成のための自動要約を試みた.本要約手法では,ニュース文の特徴を利用し,1文ごとの要約を行っている.テキスト自動要約研究の多くは,テキスト中の文もしくは文のまとまりを1単位とし,何らかの情報に基づき重要度を決定,抽出することで要約を行う.このような要約手法は,文献検索において原文の大意を把握するための補助などに用いられ,成果を上げている\cite{SumitaAndChinoAndOnoAndMiike1995}.ニュース番組における字幕生成では,ニュース原稿の第1文(全体の概要を述べる場合が多い)を抽出することによる要約が考えられるが,画面に表示されるVTRなどとの対応を考慮に入れると,必ずしも十分でない.文単位の抽出においては,照応や文の結束性を保つため,採用文の前文も採用するなどの対策が講じられているが\cite{ChrisD.Paice1990},不要な文まで芋蔓式に採用してしまう場合もあり,結束性と首尾一貫性をより高めるには後編集を行う必要があるなど,その困難さも同時に報告されている\cite{YamamotoAndMasuyamaAndNaito1995}.また,与えられたテキストから必要な情報を抜き出す手法として,情報抽出研究が注目されている\cite{JimCowieAndWendyLehnert1996}.この手法は,領域が限定された記事に対しては有効である.しかし,与えられたニュース原稿には「事件」,「政治」といった領域を限定する情報が与えられておらず,字幕文生成への情報抽出手法の適用は難しいと考えられる.ニュース文は新聞記事に比べ,1文中の文字数が多く,1記事あたりの文数が少ないという特徴を持つ\cite{WakaoAndEharaAndMurakiAndShirai1997}.このため,字幕用の要約文を生成するために,文を単位とした抽出を行うと,採用される情報に大きな偏りが生ずるという問題がある.若尾ら\cite{WakaoAndEharaAndShirai1998_7}は,自動短文分割後,重要文を抽出することによるニュース文の自動要約を行っている.これに対し,本手法は,ニュース原稿における各文はそれぞれ同様に重要であり,画面との対応や記事全体での結束性を重視するという立場から,ニュース文の構文構造を利用し,文中の修飾語句等を削除することによる,1文ごとの要約を行っている.1文の一部を抜き出すことで,より自然な文章を生成するには,残存部に係る部分の削除を避けなければならない.本手法では,ニュース文の各文における最後尾の動詞は重要であると仮定し,これに係ると考えられる部分を残すことにより,不自然な要約文の生成を防いでいる.また,本研究は,言い替えによる要約\cite{YamasakiAndMikamiAndMasuyamaAndNakagawa98}を後処理に適用し,最終的な字幕文を生成することを想定しているが,本論文では両手法を併用せず,本要約手法の分析に焦点を絞った.本要約手法についての背景,目的等は,\ref{section:news}節でも詳述する.自動要約研究においては,正しい要約を唯一に定義することが困難なことから,その評価についても様々な手法が用いられる.その一つに,人間の被験者の生成した要約文と,システムが生成した要約文を比較する評価法があるが,複数の被験者の要約が高い割合で一致することは難しいと考え\cite{OkumuraAndNanba1998},システムによる要約文を被験者に数値で評価させる手法をとった.同様の手法による評価を山本ら\cite{YamamotoAndMasuyamaAndNaito1995}が行っているが,数値のみで評価した場合,被験者が不適切と判断した箇所を特定するのが難しいという問題がある.山本らは被験者に対し,質問項目以外に感想を求めており,それを分析することで要約の不適切さの原因やその改善を検討している.本論文においては,要約が不適切な箇所をより特定し,分析を行うことを考え,実施したアンケートでは数値による評価に加え,要約が不適切と思われる箇所を被験者に指摘させた.自動要約の評価法に関しては,他に,要約を利用したタスクの達成率を見ることにより,間接的に要約文の評価を行うものがある.住田ら\cite{SumitaAndChinoAndOnoAndMiike1995}は,抄録文の文書集合から,設問に対応する文書を選択するというタスクを被験者に与え,選択された文書数と正解の文書数から再現率を求めている.しかし,本論文では字幕文生成の要約のため,適切なサブタスクを設定することが難しく,また,被験者の持つ知識の差を考慮した場合,その評価が難しいと予想されるため,用いなかった.以下,\ref{section:news}節でニュース文要約の目的,手法およびニュース原稿の特徴等について述べ,\ref{section:shuhokousei}節から\ref{section:sakujobunsetusentaku}節で,提案する1文ごとの自動要約手法について述べる.\ref{section:evaluation}節では,アンケート調査に基づき,本手法を評価する.\ref{section:observation}節では,自動要約実験およびアンケート調査によって明らかになった,本要約手法の問題点等を考察する.なお,入力コーパスとして,NHK放送技術研究所との共同研究のため提供された,NHK汎用原稿データベースを使用した. \section{ニュース文要約} \label{section:news}自動要約文は,多くの場合,文書のダイジェスト情報を把握することや,関連記事群の鳥瞰情報を得る等の目的で用いられる.このような目的で用いられる要約結果は,できる限り文字数が少なく,かつ,入力文の特徴もしくは必要とする情報を圧縮し,適切に抽出していることが求められる.これに対し,本研究における要約は,ニュース字幕の自動生成を目的とする.字幕の利用者として聴覚障害者等を想定した場合,本来ならニュース原稿の内容を全て字幕にするのが望ましい.しかし,より読みやすくするためには,適切な長さに要約する必要がある(冗長さの解消).実際,テレビ番組で使用されている字幕は文字数が制限されており\cite{WakaoAndEharaAndShirai1997},宮坂は,原稿を要約した字幕が,全文を用いた字幕より読みやすいことをアンケート結果から分析,報告している\cite{Miyasaka1998}.また,画面は時系列的に変化するため,利用者が読み直すことなく理解できる,より読みやすい(文として自然である)文章であることが字幕文には求められる(自然さの確保).さらに,要約による入力原稿重要部の欠落は極力避ける必要があり(忠実さの確保),生成された字幕は,できる限り画面の内容と同調していることが望ましい.このような理由から,本要約手法では,ニュース原稿の文ごとの短縮を目標としている(入力原稿は画面の内容と同調していると仮定).入力中の1文を全て削除した場合,画面に字幕が出力されない時間が生じ,字幕利用者に不安を与える可能性があるため,文そのものの削除は原則的に行っていない.より質の良い出力を得るには,記事全体を理解し,文脈を理解した上で要約を行うことが求められるが,現時点でそのような要約過程の全てを自動化するのは難しい.そこで,本研究では,まず,表層的な情報から連体修飾句などを冗長部と認定し,削除することによるニュース文要約を試みる.また,従来の自動要約には取り入れられていなかった構文解析を利用することで,文内の部分的な削除による構文構造の破壊に対処した.構文解析は,解析誤りによる要約文の品質低下への虞などから従来用いられていなかったと考えられ,本手法でも厳密な解析結果の利用は避けるべきと判断し,ニュース文要約に特化した簡易構文解析手法を考案した.ニュース文の要約手法として,言い替えによる要約\cite{YamasakiAndMikamiAndMasuyamaAndNakagawa98}があるが,現段階の要約率は90\%程度であり,単独で用いたのでは必ずしも十分でない.本要約手法は,後処理として言い替えによる要約を適用することを想定し,実用化する際には両手法を併用して要約率70\%程度の達成を目標としている.このため,本要約手法は,語尾の冗長な表現などには対処していない.また,本研究は現在,実用的な要約システム構築のための基礎研究の段階にあり,本要約手法自身の持つ性質,効果,限界を明確にするため,本論文では言い替えによる要約\cite{YamasakiAndMikamiAndMasuyamaAndNakagawa98}を併用しなかった.言い替えによる要約は江原ら\cite{EharaAndSawamuraAndWakaoAndAbeAndShirai1997}の一連の要約研究においてもほぼ同様の手法が提案されており,これを本要約手法の後処理に用いることも原理的に可能である.また,本研究は対象をニュース文に限定し,要約手法を検討した.以下に,ニュース文の主な特徴をまとめる.\subsection*{ニュース原稿の特徴}\label{section:tokucho}与えられたニュース原稿の特徴を以下に列挙する.なお,これらのうちの一部は若尾ら\cite{WakaoAndEharaAndMurakiAndShirai1997}によって既に指摘されている.\begin{enumerate}\item各記事ごとに,日付と原稿名が与えられている(ただし,原稿名が記事の要約にはなっていない場合も多い)\item段落構造が無い\cite{WakaoAndEharaAndMurakiAndShirai1997}\item最初の1文が全体の要約文になっている\cite{WakaoAndEharaAndMurakiAndShirai1997}\item新聞記事に比べ,1文が長く,1記事内の文数が少ない\cite{WakaoAndEharaAndMurakiAndShirai1997}\item複文((主・)述を含む節が文全体の主・述部または修飾部等になっている文)や,連用中止法による並列構造が多い\item新聞記事に比べ,話し言葉に近く,助詞の欠落や変則的な読点の使用が見られる\end{enumerate}本研究では,これらの特徴を踏まえ,要約手法を検討した. \section{本要約手法の構成} \label{section:shuhokousei}本要約手法は以下に示す部分からなる.\begin{description}\item[簡易構文解析部]形態素解析器JUMAN3.5による形態素解析後,構文解析器KNP2.0b5により入力文の文節情報を取り出し,入力文を文節に切り分け,ニュース文要約に特化した簡易的な係り受け解析を行う.\item[削除文節選択部]修飾部など,事実を伝える上で比較的冗長である文節を認定後,さらに簡易構文解析結果を利用し,削除部を認定する.\end{description} \section{簡易構文解析} \label{section:kannikoubunkaiseki}1文を部分的に削除することにより構文構造が破壊されることを防ぐためには,構文解析を行う必要がある.しかし,\ref{section:tokucho}節でも触れたように,ニュース文は新聞記事等に比べ口語体に近く,現在の構文解析技術を用いて高精度な解析を行うことは難しい.\label{part:001}このため,不適切な削除を避ける目的においてより頑健であることを重視し,ある程度の曖昧性の残存を許した,ニュース文要約に特化した係り受け解析を行う.このような観点から,簡易構文解析は,厳密な解析を避け,KNPが出力する文節情報を基に,適切な削除を補助する目的で行った.本論文では,ニュース原稿における1文の最後の述部(1文中で最後に現れる用言,以下単に述部と呼ぶ)を文全体の核と仮定し,述部に係る文節の削除は,文全体の自然さを破壊すると考える.このような不適切な削除を避けるため,簡易構文解析では,係り関係が連用である文節は述部に係ると認定するなど,より遠い用言に係ると推定される文節は,全て述部に係ると認定する.ここで,述部に係ると考えられる文節までで文を分割した各文節列を並列単位(\ref{section:heiretsutanni}節参照)とし,各並列単位の最後尾の文節(以下,連用文節と呼ぶ)を原則的に残すことで,不適切な削除を避ける(「〜は」などの文節も用言に係ると考え,連用文節に含める).連用文節の全てが,必ずしも述部に係るわけではないが,より遠い用言に係ると推定される文節は,多くの場合,他の連用文節のいずれかに係ると推定される.また,削除部の認定においては,冗長部に係る文節が残存することによる,不適切な要約文の生成を避ける必要がある.このため,簡易構文解析は,冗長と認定された文節に係る文節を特定し,不要となる部分が残存することを避ける.この場合も,厳密な解析を避け,連用文節以外の文節は,同一並列単位内に含まれる後部のいずれかの文節に係ると推定することで対処する.以下では,簡易構文解析について述べる.\subsection{文節の認定}入力文をKNPによって解析した結果,KNPが1文節として出力した形態素列を,それぞれ1文節とする.\subsection{並列単位の認定}\label{section:kakarisaki}\label{section:heiretsutanni}以下に示す規則に基づき,述部に係る文節を認定する.KNPが出力した文節パターン情報(文節の働きを示す情報)に基づき,\begin{itemize}\item係り関係が<連用>の場合(用言で,その活用形が連用形),\item係り関係が<同格未格\footnote{「『(体言)など』(同格か未格かわからない)」(KNPrule\_comment.txt).\label{part:006}}>,<未格\footnote{「未格.『〜は』,『〜すら』など」(KNPrule\_comment.txt).KNP内部での,副助詞だけで格助詞がない格要素の呼称.}>の場合,\itemパターンが,「では」,「に」(外の関係\footnote{被修飾語が修飾語(動詞)の格要素にならない\cite{youyaku_ruikei}.格要素になる場合を,「内の関係」と呼ぶ.}),「で」(並列\footnote{KNPでは,「(外の関係)」および「(並列)」の特定を,構文解析の前に行う.\label{part:007}})を示す場合\end{itemize}に,その文節は述部に係ると認定する.ただし,\begin{itemize}\item時間を表す名詞の場合,\item副詞の場合,\item最後の形態素が「と」,「も」の場合,\item直後の文節が動詞を含む場合\end{itemize}には,その文節は述部には係らないものとする.以上の結果,述部に係ると認定された文節を連用文節とし,連用文節までで文を分割したそれぞれの文節列を,並列単位とする(ただし,形態素数が1の並列単位は認めず,その場合は直後の並列単位と統合する).また,連用文節以外の文節は,同一並列単位内に含まれる後部のいずれかの文節に係ると認定する.\label{part:000}\subsection{簡易構文解析結果例}\label{section:koubunkaisekirei}簡易構文解析結果の例を以下に示す(付録\ref{section:ap_g_5}節で示す要約結果例の第1文).認定された並列単位の区切りを,「$\parallel$」で表す.また,各文節の区切りを,「$\mid$」で表す.\begin{quote}\begin{namelist}{x}\item[{[例文1]}]政府は、$\parallel$きょうの$\mid$閣議で、$\parallel$退職公務員などに$\mid$支給される$\mid$恩給を、$\mid$今年の$\mid$四月から$\mid$年額$\mid$二点$\mid$六六パーセント$\mid$引き上げる$\mid$恩給法の$\mid$改正案を$\mid$決定し、$\parallel$国会に$\mid$提出する$\mid$ことに$\mid$しています。\end{namelist}\end{quote}KNPにより,例文中の「政府は」は未格,「閣議で」および「決定し」は連用と解析されたため,述部に係ると認定した.この例においては,「退職公務員などに支給される恩給を、」は「引き上げる」に係ると解釈するのが正しいと考えられるが,KNPでは,そのような解析結果を得ることができなかった.この場合,「引き上げる」が冗長と認定されても,「退職公務員などに支給される恩給を、」が要約文に残存してしまう.実際に,要約結果では「引き上げる」が冗長と認定されるが,簡易構文解析結果を利用することにより,同一並列単位内に含まれ,かつ,「引き上げる」よりも前方の全ての文節が,削除部として認定された(削除部の認定法については,\ref{section:sakujobunintei}節で後述).簡易構文解析では,「退職公務員などに支給される恩給を、」が「引き上げる」に係るのか「決定し」に係るのかは特定しないが,この例のように,不適切な残存を避けるために有用である.また,「決定し、」に係ると解釈するのが妥当と考えられる「閣議で、」は,簡易構文解析によって連用文節と認定されているが,「決定し、」も連用文節と認定されるため,適切な要約を生成することができる. \section{削除文節選択} \label{section:sakujobunsetusentaku}ニュース文の中心的な内容が影響を受けない部分を削除することにより,要約を行う.本要約手法では,連体修飾語,および,例示を表す語など,削除によって意味的に変化が生じにくいと考えられる語を伴う部分を冗長部と定義し,削除候補とする.削除候補は文節を最小単位として選択するが,同一文節中に重要と考えられる語を含む場合や,係り先の文節(直後の文節)の最初の形態素が形式名詞および形式名詞に準ずる名詞(その語単独ではあまり意味を持たない語,以下形式的表現と呼ぶ)である場合などは削除しないなど,例外処理も設けている.以下,冗長部の認定,形式的表現,削除部の認定について述べる.\subsection{冗長部の認定}\label{section:jochobunintei}JUMANによる形態素解析結果において,活用形がタ形・基本形・連体形のいずれかに分類され,かつ,直後に名詞(形式名詞および副詞的名詞を除く)がある場合,そのような形態素を伴う文節は修飾部であると判断し,冗長部とした.また,例示などを示す表現を含む文節を,冗長部とした(「など」,「や」,「ほか」,「とともに」,「うち」,「として」,「結果」).ただし,同一文節中に(1)原稿名および第1文中の名詞,(2)主要語(山本ら\cite{YamamotoAndMasuyamaAndNaito1995}が定義,角川類語新辞典\cite{kadokawa}の大分類番号が\{0,5,7,8,9\}である語および固有名詞),\label{part:002}(3)重要と考えられる表現(主格や目的格となり得る格助詞や,「ため」など)\label{part:003}を含む場合,それらの情報も考慮して,冗長/非冗長を決定した.なお,重要/冗長を示す語は,あらかじめ人手でテーブルを作成し,その情報から認定する.\subsection{形式的表現}\label{section:keishikitekihyogen}文中の修飾部を削除する場合,形式的表現に係るものを削除すると,意味が取れなくなる可能性がある.このため,係り先に形式的表現がある場合は,削除候補としない.形式的表現は,あらかじめ人手で辞書を作成し,その辞書を用いることで認定する.現在形式的表現として43個の表現を登録している(「時期」,「見通し」,「構え」など).以下の例文では,形式的表現に係る部分(下線部)が強制的に採用された.\begin{quote}\begin{namelist}{x}\item[{[例文2]}]六月までの上半期では\underline{去年の同じ}時期に比べて...\end{namelist}\end{quote}\subsection{削除部の認定}\label{section:sakujobunintei}\ref{section:jochobunintei}節および\ref{section:keishikitekihyogen}節に示す処理の結果,冗長部と認定され,削除の対象となる文節が選択される.このとき,削除される文節に係る部分が残存することによる構文構造の破壊を防ぐため,簡易構文解析において係り先である可能性があると判断された文節が削除される場合,係り元の文節も削除する.この結果,冗長部と認定された文節と同一並列単位内に含まれ,かつ,冗長部と認定された文節より前方にある文節は削除部と認定される.以下の例文では,「言われる」および「発生するなど」が冗長部と認定され,その文節に係る可能性のある文節を削除した結果,最終的に文中の[$\cdots$]の部分が削除部として認定された.\begin{quote}\begin{namelist}{x}\item[{[例文3]}]\label{part:008}[首都圏最後の”水がめ”とも言われる]霞ケ浦は、[毎年、夏場になると大量のアオコが発生するなど]流域の都市化に伴って年々汚れが目立っていることから建設省では浄化対策として昭和五十年から土浦港を中心に、しゅんせつ工事を進めています。\end{namelist}\end{quote} \section{評価} \label{section:evaluation}\subsection{要約結果および評価方法}ニュース文要約においては,自然さの確保,忠実さの確保,冗長さの解消が重要であると考えられる(\ref{section:news}節参照).このため,被験者(工学部学生および大学院生)32名に対して本手法による要約文に関するアンケートを行い,本要約手法の有効性を評価した.アンケートは,10記事(1993年1月および2月のニュース原稿)を用い,それぞれの記事を入力とした際の自動要約結果および自動要約による削除部を明示した入力原稿を被験者に提示し,以下に示す項目について0〜5までの整数で評価値を付与させることで行った.また,評価値が5以外の場合,要約の失敗箇所を明確化するため,評価値の他に自動要約結果の不適切と考えられる部分を指摘させた.\begin{enumerate}\item自然さ各要約文章のみを独立した文章として読んだときに,自然かどうか\item忠実度(重要部欠落の指摘)原文と要約文とを比較し,原文で重要と考えられる部分を抽出しているか(抽出されていない箇所がある場合,上位5箇所を指摘)\item非冗長度(冗長部残存の指摘)原文と要約文とを比較し,原文で冗長と考えられる部分が残存していないか(残存している箇所がある場合,上位5箇所を指摘)\end{enumerate}\ref{section:shizensa}節以下では,これらの質問および得られた回答について述べる.なお,アンケートに用いた要約結果は,\begin{itemize}\item適切な原稿名が付与されているもの\item元原稿が文として読みやすいもの\item入力の記事長が短すぎないもの\itemKNPがエラー(「;;Cannot」で始まる行など)を出していないもの\label{part:004}\itemKNPが大きな解析誤り(係り受け解析の誤り)を起こしていないもの\item要約率が80\%前後のもの\end{itemize}の全てを満たすという条件の下で無作為に選んだ.また,事前に試行テストを行うことにより,回答時間を1記事当たり10分と設定して回答させた.原稿1から10の要約率を表\ref{table:youyakukekka}に示す.要約率の算出は,\[要約率=\frac{要約文の全文字数}{入力文の全文字数}\times100(\%)\]で行った.表\ref{table:youyakukekka}中の原稿文字数は,入力原稿の文字数(記号,句読点等も1文字と数える)を表す.表\ref{table:yukokaitousu}に,自然さ,忠実度,非冗長度の数値による評価に対する有効回答数を示す.また,付録に,原稿5および原稿9の要約結果を示す.\begin{table}[tbp]\scriptsize\begin{center}\caption{要約結果}\label{table:youyakukekka}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|r|}\hline&原稿1&原稿2&原稿3&原稿4&原稿5&原稿6&原稿7&原稿8&原稿9&原稿10\\\hline\hline要約率(\%)&82.3&76.7&82.8&77.7&85.1&79.5&71.9&80.0&66.7&75.4\\\hline原稿文字数&672&514&580&506&424&555&551&426&555&334\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\scriptsize\begin{center}\caption{有効回答数}\label{table:yukokaitousu}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|r|}\hline&原稿1&原稿2&原稿3&原稿4&原稿5&原稿6&原稿7&原稿8&原稿9&原稿10\\\hline\hline自然さ&32&32&32&32&32&30&30&30&29&30\\忠実度&32&32&32&32&31&30&30&29&29&30\\非冗長度&32&32&32&32&32&30&30&29&29&29\\\hline\end{tabular}\end{center}\end{table}\subsection{要約文の自然さ}\label{section:shizensa}要約文は字幕として表示されることを前提としているため,できるだけ読みやすい文章であることが求められる.このため,要約文が文章として自然であることが重要である.被験者が要約文の自然さを評価する際の判断基準を以下のように設定,提示し,要約文の自然さを尋ねた.\begin{itemize}\begin{namelist}{xxxxx}\item[5点:]ほぼ自然である.つまり,このような文章を書く人間もいると考えられる.\item[0点:]非常に不自然である.つまり,文もしくは文章全体としてのまとまりがなく,人間が用いないような表現が頻繁に見られる.\end{namelist}\end{itemize}なお,入力原稿は自然であると仮定している.自然さの評価は,あくまで削除によって不自然になった場合のみに注目して行うよう指示した.また,自然さに関しては,文全体で不自然と感じる場合もあり,被験者の判断が分かれることが予想されたため,文中の不適切な箇所の特定は難しいと判断し,行わなかった.表\ref{table:p_shizensa}に要約文の自然さの評価結果を示す.表は,各原稿に対して,1から5のそれぞれの評価値を与えた被験者の割合(各割合は小数点以下第2位を四捨五入しており,足して100\%にならない場合がある)と,各原稿の評価値の平均値を示している(1..10は1から10の全ての原稿で見た値).全体の平均点は4.07と,良好な値を得た.特に原稿5は高い評価値を得ている.しかし,原稿9においては,「ほぼ自然」と判断した被験者は全くおらず,どのような記事に対しても一様に自然な要約を行うには,問題が残る.原稿9については,\ref{section:chujitsudo}節で詳述する.\begin{table}[tbp]\begin{center}\caption{要約文の自然さの評価}\label{table:p_shizensa}\begin{tabular}{|c||r|r|r|r|r|r||r|}\hline評価値&\\5\\\&\\4\\\&\\3\\\&\\2\\\&\\1\\\&\\0\\\&平均点\\\hline\hline原稿1(\%)&37.5&59.4&3.1&0&0&0&4.34\\原稿2(\%)&25.0&43.8&25.0&6.3&0&0&3.88\\原稿3(\%)&34.4&53.1&12.5&0&0&0&4.22\\原稿4(\%)&18.8&50.0&31.3&0&0&0&3.88\\原稿5(\%)&87.5&9.4&3.1&0&0&0&4.84\\原稿6(\%)&36.7&43.3&16.7&3.3&0&0&4.13\\原稿7(\%)&20.0&43.3&36.7&0&0&0&3.83\\原稿8(\%)&23.3&30.0&40.0&6.7&0&0&3.70\\原稿9(\%)&0&31.0&48.3&17.2&3.4&0&3.07\\原稿10(\%)&76.7&23.3&0&0&0&0&4.77\\\hline原稿1..10(\%)&36.2&38.8&21.4&3.2&0.3&0&4.07\\\hline\end{tabular}\end{center}\end{table}\subsection{要約文の忠実度}\label{section:chujitsudo}要約文は,原文の重要部を適切に抽出している必要がある.重要部抽出の適切さを忠実度と表記し,以下のような判断基準を設けて忠実度を尋ねた.\begin{itemize}\begin{namelist}{xxxxx}\item[5点:]このような抽出を行う人間もいると考えられる.\item[0点:]重要部の欠落が非常に頻繁にみられる.\end{namelist}\end{itemize}要約文の文章としての自然さが損なわれた場合でも,内容が伝われば,ニュース字幕としてある程度有用である.このような観点から,要約文の忠実度は,原則的に要約文の文章としての自然さを無視した上で評価するよう注意させた.また,4点以下を与えた被験者には,欠落した重要部のうちで最も重要だと考えられる箇所から順に最大5箇所を指摘させた.表\ref{table:p_chujitsudo}に要約文の忠実度の評価結果を示す.全体の平均点は3.71で,良好ではあるが,自然さ,非冗長度(\ref{section:hijochodo}節参照)に比べて低い値となっている.また,自然さ,非冗長度の評価に比べ,1つの原稿に対する評価値にばらつきが目立ち,被験者によって重要部の認定に関する判断が異なることがうかがえる.\ref{section:shizensa}節の自然さ同様,原稿9の忠実度が最も低いと判定された.削除するのが不適切と指摘された箇所で特に数の多かったものは,「[日本を訪れる]外国人」(14名),「(文頭)[ところが]」(15名),「[外国人労働者の多くが働いている]建設現場」(10名),「[バブル経済の崩壊が建設業界にも及んだ]影響で」(28名),「[売り上げにもやや]陰りが出始めていますが」(18名)であった.特に,「[バブル...]影響で」の部分は,重要と指摘した28名の被験者のうち22名が(指摘箇所の中で)最も重要と答えている.本要約手法では,あらかじめ登録した形式的表現に係る文節を優先採用しているため,「影響」を新たに形式的表現に登録することで,このような不適切な削除は防ぐことができる.また,\ref{section:shizensa}節で原稿9の自然さが低いと評価されたのは,通常修飾語句を伴う「影響」に係る連体修飾句の削除や,「ところが」という接続詞の削除による文の結束性の低下が,不自然な印象を与えたためと考えられる.また,「ところが」は,それ自身では何も情報を伝えないが,適切な要約を生成する上で不可欠であると被験者が判断したため指摘されたと考えられる.\begin{table}[tbp]\begin{center}\caption{要約文の忠実度の評価}\label{table:p_chujitsudo}\begin{tabular}{|c||r|r|r|r|r|r||r|}\hline評価値&\\5\\\&\\4\\\&\\3\\\&\\2\\\&\\1\\\&\\0\\\&平均点\\\hline\hline原稿1(\%)&12.5&65.6&21.9&0&0&0&3.91\\原稿2(\%)&9.4&43.8&31.3&15.6&0&0&3.47\\原稿3(\%)&15.6&59.4&21.9&3.1&0&0&3.88\\原稿4(\%)&3.1&46.9&40.6&6.3&3.1&0&3.41\\原稿5(\%)&54.8&25.8&16.1&3.2&0&0&4.32\\原稿6(\%)&16.7&36.7&33.3&6.7&6.7&0&3.50\\原稿7(\%)&3.3&36.7&50.0&3.3&6.7&0&3.27\\原稿8(\%)&24.1&44.8&27.6&3.4&0&0&3.90\\原稿9(\%)&0&31.0&51.7&13.8&3.4&0&3.10\\原稿10(\%)&43.3&50.0&6.7&0&0&0&4.37\\\hline原稿1..10(\%)&18.2&44.3&30.0&5.5&2.0&0&3.71\\\hline\end{tabular}\end{center}\end{table}\subsection{要約文の非冗長度}\label{section:hijochodo}要約文生成は,原文中の比較的冗長であると考えられる部分の削除によって達成される.冗長部が残存しない度合を非冗長度と表記し,被験者に以下のような判断基準を与えて非冗長度を尋ねた.\begin{itemize}\begin{namelist}{xxxxx}\item[5点:]不要である部分はほとんどない.つまり,これ以上の削除は難しいと考えられる.\item[0点:]不要部の残存が非常に頻繁にみられる.\end{namelist}\end{itemize}\ref{section:chujitsudo}節同様,要約文の非冗長度は,要約文の文章としての自然さを無視した上で,評価させた.また,4点以下を与えた被験者には,冗長な残存部のうちで最も冗長だと考えられる箇所から順に最大5箇所を指摘させた.表\ref{table:p_hijochodo}に要約文の非冗長度の評価結果を示す.全体の平均点は4.16で,自然さ,忠実度と比較して最も高い値を得た.非冗長度を3以下と判断した被験者は全体で16\%程度と低く,要約結果は冗長さを解消していると言える.ただ,最も要約率が悪い原稿5に関しても非冗長度の値は高く,ニュース原稿自体がそれほど冗長ではないという被験者の判断がうかがえる.また,重要箇所の指摘に比べ,冗長箇所は全般に指摘が少なく,非冗長度の評価値を低いと判定した被験者にも同様の傾向がみられた.このことは,冗長と感じることはあっても,いざ削除するとなると,人手であっても冗長箇所を特定することが難しいことを示していると考えられる.原稿3は非冗長度が最も低いと判定された.しかし,原稿3の評価値を3以下と判定した被験者の冗長部の指摘箇所は一定せず,まちまちであった.このことからも,冗長箇所の特定の難しさがうかがえる.原稿3の冗長部指摘に関して,最も一致した意見は,第1文を全て削除するという指摘だった(4名).ニュース記事は多くの場合第1文が全体の概要になっているが,特に原稿3は第1文と第2文の内容がほとんど同じであり,これが冗長であるという印象を与えた原因であると考えられる.また,原稿2の非冗長度を0と判定した被験者がいるが,この被験者も原稿2の第2文を全て削除するという指摘をしている.\begin{table}[tbp]\begin{center}\caption{要約文の非冗長度の評価}\label{table:p_hijochodo}\begin{tabular}{|c||r|r|r|r|r|r||r|}\hline評価値&\\5\\\&\\4\\\&\\3\\\&\\2\\\&\\1\\\&\\0\\\&平均点\\\hline\hline原稿1(\%)&31.3&56.3&12.5&0&0&0&4.19\\原稿2(\%)&18.8&65.6&12.5&0&0&3.1&3.94\\原稿3(\%)&18.8&50.0&28.1&3.1&0&0&3.84\\原稿4(\%)&37.5&31.3&31.3&0&0&0&4.06\\原稿5(\%)&43.8&43.8&12.5&0&0&0&4.31\\原稿6(\%)&36.7&50.0&13.3&0&0&0&4.23\\原稿7(\%)&33.3&60.0&6.7&0&0&0&4.27\\原稿8(\%)&37.9&41.4&20.7&0&0&0&4.17\\原稿9(\%)&55.2&37.9&3.4&3.4&0&0&4.45\\原稿10(\%)&31.0&58.6&10.3&0&0&0&4.21\\\hline原稿1..10(\%)&34.2&49.5&15.3&0.7&0&0.3&4.16\\\hline\end{tabular}\end{center}\end{table} \section{考察} \label{section:observation}ここでは,実験で明らかになった問題点や,有効であった点等を述べる.本要約手法による冗長部認定法に関して,以下のような事項が観察された.\begin{itemize}\item本要約手法では原則的に修飾部や例示などを表す部分を冗長部と認定しているが,アンケート結果より,その認定法が十分でないことが分かった.また,従来要約文においては比較的不要とされてきた固有名詞への修飾部が重要と判断されるなど,重要な修飾部の認定の難しさが明らかとなった.以下,明らかになった(1)連体修飾部,(2)固有名詞への修飾,(3)例示を表す部分に関する問題点について述べる.\begin{enumerate}\item本要約手法では,修飾節に含まれる重要語や,直後が形式的表現かどうかを調べることにより,修飾部の誤った削除を避けているが,忠実度の評価値を見ても,その精度が十分ではないことがわかる.しかし,修飾部に限っても,どの修飾部が重要であるかの判定は容易でない.人手による要約文においては,非内容的で付随的である「内の関係」の連体修飾語は削除される傾向にあることが指摘されているが\cite{youyaku_ruikei},アンケート結果では,「内の関係」の連体修飾語を重要部として指摘する例が少なくなかった.例えば,\ref{section:chujitsudo}節で挙げた「[日本を訪れる]外国人」,「[外国人労働者の多くが働いている]建設現場」などがそれにあたる.この場合,「外国人」や「建設現場」を形式的表現と解釈するのは不適切であると考えている.\itemまた,一般に,固有名詞に係る修飾語句は削除可能とされるが,アンケート結果から,固有名詞に係る修飾部が必ずしも削除可能ではないことがわかった.原稿4「...[冷戦後の大幅な核軍縮を早期に実現するための前提条件になっている]START1・第一次戦略兵器削減条約を批准しこれで、...」(4名),原稿7「[手当てにあたった]○○大学付属家畜病院の××講師は...」(3名)などが重要部として指摘されている.\item本要約手法では,例示を表す「など」を伴う部分は比較的冗長と判断するため,削除される場合が多い.しかし,アンケート結果では「など」を伴う部分が重要と判断される場合も多かった.例えば,原稿10は,忠実度において最も高い評価を得ているが,同原稿中で削除された,「...[医薬品や注射針など]総額一千三百万円相当の緊急援助を...」(3名),「...[首都のルサカなど]全土に広がっています。」(4名),「...[コレラの治療薬一万人分と、注射針二百箱など、]合わせて一千三百万円相当の緊急援助物資を...」(6名)といった箇所が重要部として指摘されている.\end{enumerate}これらの例で指摘されている部分は,付随的ではあるが,記事の背景を特定するなど,読み手の理解を助ける働きを持つため,被験者によって重要であると判断されたことが予想される.字幕文は画面上で一方的に流されるため,理解を助ける部分は読みやすさを保持する意味でも重要であると言える.このような重要な修飾部(および例示等を表す部分)を認定する新たな手法を検討する必要があるが,表層的な情報のみを用いた有効な対策は見つかっていない.\item\ref{section:hijochodo}節で述べたように,アンケート結果からは,人手によっても冗長箇所を特定することは必ずしも容易でないことがうかがえる.このため,本要約手法の指摘する冗長箇所を人手による字幕文生成の支援として補助的に用いることで,字幕作成者の負担を軽減することができると考えられる.\item実施したアンケートでは,質問項目以外に被験者の意見・感想を求めた.その中に,「第1文の内容は,第2文以降で詳述されるため,第1文は大胆に省略すべき」という意見があったが,これは\ref{section:hijochodo}節の分析結果と一致する.しかし,本要約手法は,音声認識処理および要約処理をリアルタイムに行う字幕生成に応用することを最終的な目標としており,第1文の要約時には第2文以降の情報は用いないことが前提になるため,このような第1文の冗長性を判定することはできない.本要約手法は,画面との対応を考え,文間の重複部の削除を行っていないが,ニュースを字幕(文字)から得る場合には,重複する内容を冗長と感じる場合が観察された.第2文以降の重複部の削除が適切か,検討する必要がある.\end{itemize}評価結果では,自然さ,忠実さ,非冗長さのそれぞれについて,良好な評価値が得られたが,以上に示すように,冗長部の認定について,より精度の高い手法を検討する必要があることが分かった.本要約手法は,生成された要約文の自然さを重視し,構文構造を破壊するなどの不適切な削除を防ぐ目的で簡易構文解析手法を用いた.現状の技術では高い精度で厳密な構文解析を行うのが難しいため,簡易構文解析では,できるだけ表層的な情報を用いた,厳密でない係り受け解析を行っている.この結果,実施したアンケートでは,要約文の自然さについて良好な評価結果が得られた.このことから簡易構文解析結果はおおむね良好であると言えるが,前述の通り冗長部の認定は難しく,厳密で精度の高い構文解析が実現できたとしても,重要部の特定という,より難しい問題が残される.また,前述の冗長部認定に関する考察に関連して,簡易構文解析は1文中の最後の用言(述部)を核とし,その必須格等を残すことにより自然な要約文を生成するが,連体修飾句が新情報を表す場合など,むしろ修飾部が重要である場合も考えられる. \section{おわりに} より自然な字幕文の生成を目標に,主に修飾部を削除することによる,ニュース文の1文ごとの自動要約を試みた.また,要約結果の有用性を評価するために,アンケート調査を行い,良好な評価値を得た.しかし,構文解析の失敗や,重要部の欠落もあり,前もって想定できない様々な表現を含む,幅広い入力原稿に対して一様に精度の高い要約を行うには,より高度な処理を行う必要がある.特に,限定修飾の認定は難しく,本要約手法では形式的表現をあらかじめ列挙することなどで対処した.より高い精度を実現するには,領域に依存しない知識の利用が必須であると考える.\label{part:005}また,修飾部および例示を示す箇所の削除だけでは,高い削減率を得るのは難しく,精度の高い構文解析が実現しても,必ずしも品質の高い要約は得られないため,今後は文脈解析等,より高度な解析の有用性,実現性を検討する必要がある.しかし,高度な解析は,前段階の処理で生じた解析誤りをさらに拡大するなど,問題も多くはらむことが予想され,その対処法を考える必要があろう. \section{謝辞} 本研究でシソーラスに使用した「角川類語新辞典」\cite{kadokawa}を機械可読辞書の形でご提供いただき,その使用許可をいただいた(株)角川書店,および,KNPに関する問い合わせに懇切にお答えいただいた京都大学大学院情報学研究科黒橋禎夫先生に深謝する.なお,本研究の一部は文部省科学研究費基盤研究(B)および,(財)国際コミュニケーション基金の援助を受けて行った.\appendix \section{原稿5} \label{section:ap_g_5}\subsection*{原稿名:恩給法改正案}政府は、きょう(五日)の閣議で、[退職公務員などに支給される恩給を、今年の四月から年額二点六六パーセント引き上げる]恩給法の改正案を決定し、国会に提出することにしています。恩給は、[公務員給与の改定や]消費者物価の上昇などに伴って毎年引き上げられており、平成五年度についても、去年暮れの予算編成で、恩給年額と各種の最低保障額を二点六六パーセント引き上げることが決まっています。具体的には、長期在職者の場合の普通恩給では最低保障額が、六十五歳未満で二万五百円上がって七十九万千百円に、六十五歳以上七十五歳未満で二万七千三百円上がって百五万四千八百円に、また七十五歳以上では、引上げ率がさらに上乗せされて、三万二千五百円上がって百六万円になります。政府は、[こうした引き上げを盛り込んだ]恩給法の改正案を、きょうの閣議で決定した上で国会に提出することにしていますが、各党とも反対はないことから、改正案は今年度内に成立し、引き上げは今年四月から実施される見通しです。 \section{原稿9} \subsection*{原稿名:リレーニュース・外国人の地下足袋}[東京からは、建設現場などでの作業に欠かせない]地下足袋が、外国人労働者の増加に伴って、[二十九センチや三十センチといった]特大のものが売れているという話題です。仕事を求めて[日本を訪れる]外国人の数は昭和五十五年ころから急激に増え始め最近では全国各地で外国人労働者の姿を見掛けるようになりました。[ところが外国人労働者の多くが働いている]建設現場で困ったことが起きました。[足場を気にしながらの作業に欠かせない]地下足袋が、日本人用のものでは小さくて履けない、というのです。[こうした注文をきいた]東京・日本橋のメーカーでは、[十年ほど前から通常のものより一回りも二回りも大きい]木型を新たに用意して、[二十九センチや]三十センチという特大の地下足袋を作りはじめました。この特大の地下足袋はビルの建設ラッシュも手伝って順調に売れ行きを伸ばしてきました。[都内のある履物店には、イランなど]中東出身の若者達が特大の地下足袋を求めて毎日のように訪れていますが[中にはパーティーや]ジョギング用にとスーツ姿の外国人も買っていくということです。[最近はバブル経済の崩壊が建設業界にも及んだ]影響で、[特大の地下足袋の売り上げにもやや]陰りが出始めていますが、業界では不景気になれば今度は公共工事が増えて、また地下足袋の売り上げが伸びるのではないかと期待しています。\bibliographystyle{jnlpbbl}\bibliography{v06n6_03}\begin{biography}\biotitle{略歴}\bioauthor{三上真}{1999年豊橋技術科学大学大学院修士課程修了.現在,(株)日立ソフトウエアエンジニアリング勤務.在学中は,自然言語処理,特にTVニュース字幕生成のための要約の研究に従事.}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授.アルゴリズム工学,特に,並列グラフアルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年京都大学情報工学科助手.1980年豊橋技術科学大学情報工学系講師.1983年助教授.1990年教授.1985〜1986年カーネギメロン大学客員研究員.工博.1977年電子通信学会論文賞.1988年度IETE最優秀論文賞.著書「確率モデルによる音声認識」電子情報通信学会(1988年),「情報理論の基礎と応用」近代科学社(1992年),「パターン情報処理」丸善(1999年)など.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V27N01-05
\section{はじめに} 辞書は言葉に関するさまざまな特徴を集積したものである.発音・形態論情報・品詞・単語分類・統語情報・意味情報・位相・語源・語釈などにより整理される.単語の使用実態に基づく言葉の特徴として{\bf単語親密度}がある.単語親密度は,人々がどのくらいその単語を知っているのか・使うのかといった,人の主観的な評価に基づく指標である.NTTコミュニーケーション科学基礎研究所による『日本語の語彙特性』\cite{Amano-1999}は,単語親密度を含む情報を『新明解国語辞典第四版』の見出し項目約80,000語について付与した.また同データは朝日新聞の1985年から1998年の14年分の記事データにおける頻度情報も含む.しかしながら,評定情報の収集や頻度情報が20年以上前のものである.本研究では,最近の単語親密度を評定することを試みる.日本語のシソーラスである『分類語彙表増補改訂版』\cite{WLSP-2004}の電子化データ『分類語彙表増補改訂版データベース』(以下「分類語彙表DB」と呼ぶ)の語彙項目94,838語を対象に,単語親密度付与を行った.評定値の収集にあたっては,「知っている」の観点のほか,生産過程$\Leftrightarrow$受容過程や書記言語$\Leftrightarrow$音声言語の位相情報を含めるために,「書く」「読む」「話す」「聞く」の4つの位相情報についても質問事項に含めた.安価に,そして,継続的に調査を行うためにクラウドソーシングにより評定値の収集を行った.しかしながら,「日本語の語彙特性」の調査のように{研究協力者}に対する統制などに制約があり,研究協力者の個体差の影響を受ける問題がある.この問題を緩和するために,収集されたデータをベイジアン線形混合モデル(BayesianLinearMixedModel:BLMM)\cite{Sorensen-2016}によりモデル化を行う.またシソーラスに単語親密度を付与することにより,統語分類・意味分類に基づく親密度・位相情報の評価もできるようになった.本研究の貢献は以下の通りである:\begin{itemize}\item日本語の大規模シソーラスに対する単語親密度情報の網羅的収集を行った.\item単語親密度の評定にクラウドソーシングを用いた.\item単語親密度の観点において「知っている」だけでなく,「書く」「読む」「話す」「聞く」の4つの位相情報についても検討し,単語の位相情報も評価した.これにより,生産過程$\Leftrightarrow$受容過程や書記言語$\Leftrightarrow$音声言語の対照比較ができる.\item単語親密度の統計処理にベイジアン線形混合モデルを導入し,研究協力者の個体差の影響の軽減を行った.\item語彙項目は分類語彙表DBの見出し語を用いた.分類語彙表の統語・意味分類に対して親密度が推定できるほか,UniDicと分類語彙表の対応表\cite{Kondo-2018}と形態素解析器を用いて親密度を自動付与できる.さらに,『岩波国語辞典第五版』の語釈文と分類語彙表の対応表\cite{呉-2019}の整備も進んでおり,語釈文との対照できる.\end{itemize}本稿の構成は以下の通りである.2節では関連研究について示す.3節ではクラウドソーシングに基づく単語親密度推定手法について示す.4節で結果を示し,5節にまとめと今後の展開について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 『日本語の語彙特性』\cite{Amano-1999}の単語親密度は,主観的な単語のなじみの程度とし,18歳以上30歳未満の40人に対してアンケート調査により収集したものである.刺激を,「音声のみ」「文字のみ」「音声と文字の両方」の3つの手法で呈示し,1--7の7段階評定を「できるだけまんべんなく」付与するように教示したうえで収集した.対象は『新明解国語辞典』第四版の見出し語69,084語とし,表記ゆれに基づき88,569パターンの刺激による.評定データは1995年9月から1996年7月にかけて,NTT研究所内で収集された.機関内で収集したために,教示により統制してデータを収集しているが,公開評定データは40人の評定値の平均値による.研究協力者の個体差の影響を軽減するために,より洗練された統計処理が必要である.また,『日本語の語彙特性』は,客観的な単語のなじみの程度として,テキストコーパスの出現頻度に基づく評定情報も含まれている.14年分(1985--1998年)の朝日新聞の新聞記事を形態素解析器『すもも』で解析したうえで,頻度情報をデータベース化した.\citeA{Tanaka-2011}は,単語親密度と大規模コーパス頻度情報との相関について調査した.\citeA{水谷-2018}は単語基本語情報を推定するために,各種語彙表のほか,ウェブコーパスの頻度情報を用いた.\citeA{岡久-2019}は,単語の定義(語釈)−被定義(見出し語)関係を用いて,単語の基本度の推定を行った.語釈文の収集にクラウドソーシングを用いた.11,936語(被定義語)を対象として1語あたり10人分の語釈文を収集し,基礎データとした.定義−被定義関係は,シソーラスへの写像\cite{正津-2001}に用いられる.また,単語の基本度を数値化する基本的な考え方は\citeA{野呂-2007}による.\citeA{水谷-2019}は,『JUMAN++』の単語辞書に掲載されている単語26,000語を対象にクラウドソーシングを用いて,「習得時期」を「小学生になる前」「小学校低学年」「小学校高学年」「中学生になった頃」「単語の意味を知らない/見聞きしたことがない」の5段階で収集した.1単語あたり20人の評定値を収集し,平均値により単語難易度データベースを構築した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{手法} 本節では,単語親密度・位相情報の収集方法について示す.はじめに,収集対象の語彙項目の母集団である分類語彙表DBについて示す.次に,質問紙の構成について示す.最後に,統計処理手法について示す.なお,本手法は2017年に,形容詞・副詞・連体詞のみを対象として,全体の10分の1の規模で実行可能性を調査した\cite{浅原-2017}うえで,再設計したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分類語彙表の分類番号の例}『分類語彙表』は現代日本語を対象としたシソーラスで,岩波国語辞典の語彙項目から約30,000語が選ばれて採録された.1964年に初版\cite{WLSP-1964}が公刊された.その後,2004年に増補改訂版が公刊され,増補改訂版のCSVファイル(分類語彙表DB)が研究用途に公開された\footnote{商用利用は200,000円(税抜).}.分類語彙表DBは,区切り文字を入れて101,070の語彙項目からなり,4つの統語分類である類(体・用・相・他)と,階層的な意味分類が付与されている.各項目の分類は5ケタの数字による分類番号で示され,統語分類は1ケタ目,意味分類は小数点以下4ケタで表現する.意味分類の1ケタ目が部門,2ケタ目までは中項目,4ケタすべてが分類項目を表す.表\ref{tbl:wlsp}に,分類番号「1.1642」が割り当てられた「昨年」の例を示す.ここで,1ケタ目「1」は,体の類を表す.小数点以下4ケタの「.1642」は階層的な意味分類を表し,1ケタ目「.1」が部門「関係」を,2ケタ目まで「.16」が中項目「時間」を,4ケタ「.1642」が分類項目「過去」を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{分類語彙表DB}\label{tbl:wlsp}\input{05table01.tex}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{質問紙の構成}本節では,単語親密度を推定するにあたって利用した,質問紙の構成について示す.質問紙は,Yahoo!クラウドソーシング上のフォームで構成する.クラウドソーシングを用いることにより,96,557語\footnote{分類語彙表DB101,070項目のうち区切り文字240項目以外の100,830項目に対して調査を行ったが,クラウドソーシングの作業過程において4,253項目についてデータが得られなかった.得られなかった4,253項目については2019年11月に調査を行った.}に対して,短期間に低コストで評定情報を収集が可能である.まず,質問紙の構成として,書記刺激で呈示された語を知っているかどうか(KNOW)について確認する.音声刺激で呈示しない代わりに書記言語(書く(WRITE)・読む(READ))・音声言語(話す(SPEAK)・聞く(LISTEN))で利用されるかの観点を導入し,位相情報を推定する.さらに,生産過程(書く(WRITE)・話す(SPEAK))・受容過程(読む(READ)・聞く(LISTEN))の観点を導入した.以下に質問項目の5つの観点について示す:\begin{description}\item[KNOW:知っている]単語の意味を知っていますか?\\全く知らない(1)--(5)よく知っている\item[WRITE:書く]どのくらい普段書いているものに出現しますか?\\全く出現しない(1)--(5)よく出現する\item[READ:読む]どのくらい普段読んでいるものに出現しますか?\\全く出現しない(1)--(5)よく出現する\item[SPEAK:話す]どのくらい普段話すときに出現しますか?\\全く出現しない(1)--(5)よく出現する\item[LISTEN:聞く]どのくらい普段聞くときに出現しますか?\\全く出現しない(1)--(5)よく出現する\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-1ia5f1.eps}\end{center}\caption{クラウドソーシング上のフォームで構成した質問紙の例}\label{fig:crowdsource}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:crowdsource}に調査に用いた質問紙を示す.評定情報は,(1)全く知らない/全く出現しない,(2)あまり知らない/あまり出現しない,(3)どちらともいえない,(4)何となく知っている/たまに出現する,(5)よく知っている/よく出現するの5段階で収集するが,リッカート尺度としては収集しなかった.これは,2017年の事前調査で数値だけ見て,全く反対の評定値を付与した研究協力者が散見されたため,それを回避するために行った.また,調査環境の制約により,\citeA{Amano-1999}が実験室で行ったように音声刺激を呈示することは行わない.なお,本質問紙調査では,多義語の異なる語義についての評定(単語心象性)は行わない.研究協力者には「参考情報」として,質問紙の末尾に分類語彙表の分類項目を示す程度にとどめた.本調査は異なりで3,392人の20歳以上のYahoo!クラウドソーシングのアカウントを持っている方を対象に,2018年11月に実施した.1つの見出し語あたり少なくとも16回答を得た結果,有効データポイント数は1,617,184であった.収集の要した費用は1,455,494円であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-1ia5f2.eps}\end{center}\caption{統計モデル}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{統計モデル}収集した評定データは研究協力者ごと個体差がある.この個体差は,研究協力者の語彙力や回答の傾向に依存するバイアスである.この個体差をベイジアン線形混合モデルのランダム効果によりモデル化し,個体差の影響を軽減する.また,単語親密度情報も単語の特性としてランダム効果によりモデル化する.グラフィカルモデルを図\ref{fig:model}に示す.$N_{word}$は語彙項目×5観点(KNOW,WRITE,READ,SPEAK,LISTEN)の定義域,$N_{subj}$は研究協力者の数で,それぞれ単語・観点のインデックス$i:1\ldotsN_{word}$,研究協力者のインデックス$j:1\ldotsN_{subj}$とする.$y^{(i)(j)}$は語彙項目×5観点(KNOW,WRITE,READ,SPEAK,LISTEN)の値域で,$y$は平均$\mu^{(i)(j)}$標準偏差$\sigma$によって定義される正規分布とする:\[y^{(i)(j)}\simNormal(\mu^{(i)(j)},\sigma).\]$\sigma$は標準偏差としてのハイパーパラメータで,$\mu^{(i)(j)}$は,切片$\alpha$と語彙項目×5観点のランダム効果$\gamma_{word}^{(i)}$と研究協力者のランダム効果$\gamma_{subj}^{(j)}$の線形式で定義する:\[\mu^{(i)(j)=\alpha+\gamma_{word}^{(i)}+\gamma_{subj}^{(j)}}.\]語彙項目×5観点のランダム効果$\gamma_{word}^{(i)}$と研究協力者のランダム効果$\gamma_{subj}^{(j)}$は,それぞれハイパーパラメータ平均$\mu_{word}$,$\mu_{subj}$,分散$\sigma_{word}$,$\sigma_{subj}$によって定義される正規分布によりモデル化する:\begin{gather*}\gamma_{word}^{(i)}\simNormal(\mu_{word},\sigma_{word}),\\\gamma_{subj}^{(j)}\simNormal(\mu_{subj},\sigma_{subj}).\end{gather*}このうち単語親密度はランダム効果$\gamma_{word}^{(i)}$の推定値である.一方,研究協力者の個体差はランダム効果$\gamma_{subj}^{(j)}$の推定値であるが,結果的に研究協力者の語彙力の評価値となる.ハイパーパラメータはデータから推定を試みた結果,収束しなかったために,平均$\mu_{word}$,$\mu_{subj}$を0.0,標準偏差$\sigma_{word}$,$\sigma_{subj}$を1.0とした.推定にはRとStanを用いた.warm-up100iterationのあと,5,000iteration$\times$4chains並列でシミュレーションし,すべてのモデルは収束した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{推定した単語親密度・位相情報の分析} 本節では,推定された単語親密度の質的評価を行う.4.1節に,得られた5観点の評定値の分布と,研究協力者の個体差の分布について示す.4.2節で各観点の上位10語・下位10語について確認する.4.3節で分類語彙表の中項目(意味分類の第2レベル)による上位10カテゴリ・下位10カテゴリについて確認する.4.4節にベイジアン線形混合モデルの効果について示し,4.5節に『日本語の語彙特性』との比較を示す.4.6節に結果のまとめを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分布}図\ref{fig:word}に推定された単語親密度のヒストグラムを示す.x軸が単語親密度に相当する$\gamma_{word}^{(i)}$で,y軸がそのビン(ビンの幅0.1)に入る頻度である.5観点ごとに集計されており,KNOWが他の観点よりも高い単語親密度にある傾向がみられる.受容過程であるREADとLISTENが高く,生産過程であるWRITEとSPEAKは低い傾向がみられた.言語の運用において,知識>受容>生産の順に語彙数が分布していることがわかる.また,値が大体$-2$から2に分布しており,おおよそ5段階評価の値としてそのまま利用できる.図\ref{fig:subj}に推定された研究協力者の個体差のヒストグラムを示す.x軸が研究協力者の個体差$\gamma_{subj}^{(j)}$で,y軸がビン(ビンの幅0.1)に入る頻度である.標準正規分布でモデル化しているために,グラフもその形状になる.今回は利用しないが,この値は研究協力者の語彙力としてそのまま利用することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\begin{center}\includegraphics{27-1ia5f3.eps}\end{center}\caption{推定した単語親密度($\gamma_{word}^{(i)}$):5観点の分布}\label{fig:word}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\begin{center}\includegraphics{27-1ia5f4.eps}\end{center}\caption{推定した研究協力者の個体差の分布($\gamma_{subj}^{(j)}$)}\label{fig:subj}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%他の分布に基づく個体差のモデル化については今後の検討課題とする.例えば,研究協力者の分布について標準正規分布とせずにモデル化を試みたが収束しなかった.今後,年次でデータを収集し拡充することで,他の分布に基づくモデル化を進めるとともに,調査年の要因を入れることで経年変化の調査を進めたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{見出し語に対する評価}本節では,推定された単語親密度の上位10件・下位10件について確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{「知っている」}まず,最初に「知っている」(KNOW)の上位10件・下位10件について確認する.表\ref{tbl:top:know:word}と表\ref{tbl:bottom:know:word}に上位10件・下位10件の事例を評定値と『国語研日本語ウェブコーパス』(NWJC)\cite{NWJC}の検索系『梵天』文字列検索\cite{bonten}のヒット件数とともに示す.検索時にはルビは削除した.上位10件には日常生活でよく利用する用語が出現し,下位10件には近年あまり使われない語が出現する.なお,活用語は基本形で調査したため,活用しない語よりも頻度が低い傾向にある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2and3\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{「知っている」上位10件(KNOW)}\label{tbl:top:know:word}\input{05table02.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{「知っている」下位10件(KNOW)}\label{tbl:bottom:know:word}\input{05table03.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%梵天の文字列検索のヒット件数は活用語においては基本形のみの件数であり,低くなる傾向にある.さらにカタカナ語「スフ」は他の語の部分文字列になりやすいために件数が高くなる傾向がみられる.頻度情報との対照は,以上の注意が必要だが,基本的には高頻度語が上位に,低頻度語が下位に位置する.また,WRITE,READ,SPEAK,LISTENの単体の4観点についても基本的には同様の語彙がみられた.詳細な議論については,次小節以降の書記言語・音声言語もしくは生産過程・受容過程の観点による分析で示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{書記言語・音声言語}次に,書記言語(WRITE/READ)と音声言語(SPEAK/LISTEN)の傾向を確認した.『日本語の語彙特性』の調査では,書記刺激と音声刺激の2つの刺激により統制するが,本実験では直接言語運用実態を質問することによる.ここでは$\text{書記}-\text{音声}\(\text{WRITE}+\text{READ}-\text{SPEAK}-\text{LISTEN})$の値を評価した.この値が正である場合に書記言語選好であり,この値が負である場合に音声言語選好である.表\ref{tbl:char:word}に書記言語選好上位10件($\text{書記}-\text{音声}$が正の値)を示す.記号関連の「アンパサンド」「句読点」や,手紙や文書で用いられる「上記」「追伸」「記」「前略」「下記」などがみられた.表\ref{tbl:voice:word}に音声言語選好上位10件($\text{書記}-\text{音声}$が負の値)を示す.「先っちょ」「バイバイ」「まんま」「どっこいしょ」など,話しことばが多くみられた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4and5\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{書記言語選好上位10件}\label{tbl:char:word}\input{05table04.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{音声言語選好上位10件}\label{tbl:voice:word}\input{05table05.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{生産過程・受容過程}本節では生産過程(WRITE,SPEAK)と受容過程(READ,LISTEN)の差について評価する.具体的には,$\text{生産}-\text{受容}$$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN})$の正負により検討する.この観点は過去の研究では,管見の限り調査されていない.表\ref{tbl:pro:word}に生産過程選好上位10件を示す.基本的には受容過程のほうが生産過程よりも親密度が高くなる傾向になるために,値は正であっても小さい.得られた語彙は,特定分野の専門用語が多かった.例えば,「毛管」「絆創膏」のような看護医療用語であったり,「吟詠する」など詩吟の用語であったりした.表\ref{tbl:rec:word}に受容過程選好上位10件を示す.「殺害」「書類送検」などの報道記事などで出現する語や,当時の大河ドラマの主人公「西郷隆盛」が上位にみられた.生産過程選好か受容過程選好かは,特定の分野で用いられる用語か,マスメディアで用いられる用語かを反映させていることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6and7\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{生産過程選好上位10件}\label{tbl:pro:word}\input{05table06.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{受容過程選好上位10件}\label{tbl:rec:word}\input{05table07.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{『分類語彙表』の分類に基づく評価}本節では分類語彙表の分類に基づく評価を行う.分類語彙表の中項目まで(小数点以下2ケタ)で推定した結果の平均を取り,値の上位カテゴリ・下位カテゴリについて分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{「知っている」}表\ref{tbl:top:know:cat},表\ref{tbl:bottom:know:cat}に「知っている」分類語彙表の中項目カテゴリ上位・下位10件を示す.相・用の類が上位傾向にあり,体の類が下位傾向にある.「知っている」上位カテゴリは3.53(相-自然-生物)で「女性的」(KNOW=1.81),「男性的」(KNOW=1.71)などの単語が含まれる.「知っている」下位カテゴリは3.52(相-自然-天地)で「蕭条」(KNOW=-1.46),「巍巍」(KNOW=$-1.35$)などが含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8and9\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.4\hsize}\caption{「知っている」上位カテゴリ}\label{tbl:top:know:cat}\input{05table08.tex}\end{minipage}&\begin{minipage}{0.4\hsize}\caption{「知っている」下位カテゴリ}\label{tbl:bottom:know:cat}\input{05table09.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{書記言語・音声言語}表\ref{tbl:char:cat},表\ref{tbl:voice:cat}に書記言語選好カテゴリと音声言語選好カテゴリを示す.体の類の活動・主体が書記言語選好である傾向がみられる.一方,他の類の呼びかけ・感動や相の類が音声言語選好である傾向がみられる.最も書記言語選好であるカテゴリは1.31(体-活動-言語)で,「上記」$(\text{WRITE}+\text{READ}-\text{SPEAK}-\text{LISTEN}=3.87)$,「追伸」$(\text{WRITE}+\text{READ}-\text{SPEAK}-\text{LISTEN}=2.65)$などの用語が見られた.もっとも音声言語選好であるカテゴリは4.32(他-呼びかけ)で「もしもし」$(\text{WRITE}+\text{READ}-\text{SPEAK}-\text{LISTEN}=-1.75)$が含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10and11\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{書記言語選好カテゴリ}\label{tbl:char:cat}\input{05table10.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{音声言語選好カテゴリ}\label{tbl:voice:cat}\input{05table11.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12and13\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{生産過程選好カテゴリ}\label{tbl:pro:cat}\input{05table12.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{受容過程選好カテゴリ}\label{tbl:rec:cat}\input{05table13.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{生産過程・受容過程}表\ref{tbl:pro:cat},表\ref{tbl:rec:cat}に生産過程選好カテゴリと受容過程選好カテゴリを示す.一般的に,受容過程の値(READ,LISTEN)のほうが,生産過程の値(WRITE,SPEAK)よりも大きい傾向にある.このため,$\text{生産}-\text{受容}$$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN})$の値は,カテゴリレベルでは生産過程選好のものでも負になる.生産過程選好のカテゴリは4.50(他-動物の鳴き声)で「げろげろ」$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN}=0.45)$や「かーかー」$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN}=0.23)$が含まれる.受容過程選好のカテゴリは1.27(体-主体-機関)で「厚生労働省」$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN}=-2.23)$や「金融庁」$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN}=-2.18)$が含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベイジアン線形混合モデルの効果}本節ではベイジアン線形混合モデルを用いた効果について概説する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{27-1ia5f5.eps}\end{center}\caption{『日本語の語彙特性』の評定値の分布(書記音声刺激)}\label{fig:psylex}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{27-1ia5f6.eps}\end{center}\caption{統計処理前の評定値の分布(知っている)}\label{fig:orig}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{27-1ia5f7.eps}\end{center}\caption{統計処理後の評定値の分布(知っている)}\label{fig:smooth}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%混合モデルを用いた効果として,得られた評価情報を稠密にすることがあげられる.図\ref{fig:psylex}に『日本語の語彙特性』の書記音声刺激の評定値の分布を,図\ref{fig:orig}に統計処理前の評定値の分布(知っている)を,図\ref{fig:smooth}に統計処理後の評定値の分布(知っている)を,ビンの幅を0.01にしたヒストグラムにより示す.『日本語の語彙特性』においては各語40人の評定値のため1/40=0.025単位の離散的な値となる.本データにおいても各語16人の評定値のため,統計処理をしなかった場合には1/16=0.0625単位の離散的な値となる.同じ評定値を持つ語が多く,事例がないビンも出現し,分布が疎になる(図\ref{fig:psylex},図\ref{fig:orig}).例えば,評定値(知っている)が最高の5.0である項目は410事例あり,これらの同じ評定値が割り当てられている事例間の差異が得られない.一方,統計処理をした場合には,適切に平滑化が行われ,すべてのビンに項目が含まれ,分布が密になる(図\ref{fig:smooth}).本研究ではランダム切片に基づく平滑化を行う.この平滑化においては,評定値の研究協力者ごとの平均値が用いられる.回答する評定値が高い研究協力者群に対しては,その研究協力者ごとの平均値に応じて評定値を減じ,回答する評定値が低い研究協力者群に対しては,その研究協力者ごとの平均値に応じて評定値を増じる.これにより,研究協力者の回答の個体差をモデル化したうえで,1研究協力者内の語彙項目ごとの回答の差異に基づいて,語彙項目の評定値をモデル化することができる.他の平滑化手法として,ランダム傾きに基づく平滑化がある.この平滑化においては,研究協力者ごとの分散に応じて,評定値を増減する.ベイジアン線形混合モデルは,この平滑化を含む線形モデルを,事後分布を生成するランダムサンプリングによりベイズ推定するものである.本研究ではランダム切片モデルのみならず,ランダム傾きモデルについても検討したが,収束しなかった.今後,データを増やして,よりあてはまりのよいモデルを検討したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{『日本語の語彙特性』単語親密度との比較}本節では,『日本語の語彙特性』\cite{Amano-1999}の単語親密度との比較を行う.『日本語の語彙特性』と本データとで,表記と読みが同じ語彙項目が41,634対あった.『日本語の語彙特性』データにおいては,書記音声刺激・音声刺激・書記刺激の3つを比較対象とする.本データにおいては推定した11個の項目すべてを比較対象とする.本データは,表記と読みが同じであるが語義が異なる語彙項目がある.この場合,「知っている」の評定値が最も高いものを対照する.対照はスピアマンの順位相関係数に基づく.タイの場合は同順位の平均値を用いる補正を行う.表\ref{tbl:orthphon}に書記音声刺激に対する相関係数,表\ref{tbl:phon}に音声刺激に対する相関係数,表\ref{tbl:orth}に書記刺激に対する相関係数を示す.全ての検定において$p<0.01$であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[b]\caption{『日本語の語彙特性』書記音声刺激と本データとの比較(順位相関係数)}\label{tbl:orthphon}\input{05table14.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[t]\caption{『日本語の語彙特性』音声刺激と本データとの比較(順位相関係数)}\label{tbl:phon}\input{05table15.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[t]\caption{『日本語の語彙特性』書記刺激と本データとの比較(順位相関係数)}\label{tbl:orth}\input{05table16.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本データの「書記-音声」「生産-受容」以外の指標は,『日本語の語彙特性』のいずれとも正の相関があることがわかる.そのなかでも書記音声刺激・書記刺激と強い正の相関があることがわかる.「書記-音声」「生産-受容」については中程度の負の相関がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果のまとめ}まず,調査結果の分布をみると「知っている」>「読む」「聞く」>「書く」「話す」と,言語運用の負荷レベルで評定値に差異が出ることが明らかになった.「知っている」「書く」「読む」「話す」「聞く」の5観点の親密度上位語・下位語を確認すると,ほぼ同じ語が分布することが確認できた.このため,書記言語$\Leftrightarrow$音声言語,生産過程$\Leftrightarrow$受容過程の2軸で分析することを試みた.具体的には対となる値を引き算することで,評定値の偏りがある語の上位10件について検討した.書記言語選好・音声言語選好の対照分析においては,書きことば・話しことばの語彙を適切にモデル化できていることを確認した.また,生産過程選好・受容過程選好の対照分析においては,特定分野の用語・マスメディアの用語といった比較ができることがわかった.さらに分類語彙表の中項目までのカテゴリ情報で同様の分析を試みた.用・相の類のほうが体の類よりも親密度が高い語が多いことがわかった.また体の類の活動・主体が書記言語選好で,他の類の呼びかけ・感動が音声言語選好であった.生産過程選好のカテゴリとして他の類が多くみられる一方,受容過程選好のカテゴリは体の類の主体・活動,用の類の活動など,マスメディアで用いられやすい語が多かった.ランダム切片を用いたベイジアン線形混合モデルにより,同順位の語彙項目を多く含む疎な評定値を,研究協力者の個体差を考慮した密な評定値に変換できることを図\ref{fig:orig},図\ref{fig:smooth}の対比により示した.また,先行研究の『日本語の語彙特性』との相関について検討した(表\ref{tbl:orthphon},表\ref{tbl:phon},表\ref{tbl:orth}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では,分類語彙表DBの見出し語に対する単語親密度付与について解説した.短期間で安価に作業を進めるためにクラウドソーシングを用いて,1見出し語あたり16人の評定値を付与した.得られたデータをベイジアン線形混合モデルのランダム効果を用いて,親密度と研究協力者の個体差を同時にモデル化を行い,研究協力者の評定値のバイアスを吸収した.評定する観点として「知っている」だけでなく,「書く」「読む」「話す」「聞く」を含めた5観点を導入した.これにより,書記言語$\Leftrightarrow$音声言語・生産過程$\Leftrightarrow$需要過程の2軸の位相情報を導入する.軸の反対方向の観点との差分を取ることにより,言語使用に偏りがある語を抽出することができた.UniDic-分類語彙表対応表\cite{Kondo-2018}が整備されており,言語資源を組み合わせることで形態素解析結果に単語親密度を割り当てることも可能である.構築したデータは\texttt{https://github.com/masayu-a/WLSP-familiarity/}で配布するほか,辞書検索ツールCradleExpress\texttt{https://cradle.ninjal.ac.jp/}で閲覧可能である.以下,今後の課題について示す.本研究では,研究協力者の評定値の個体差を標準正規分布によりモデル化した.他のモデルについても検討したが,現状のデータポイント量では収束が困難であった.今後,年次でデータを拡充することで適切なモデル化をすすめたい.その際には調査年の要因を含めるとともに,語彙をUniDicの語彙素から表記ゆれを展開するなど表記間の差異についても検討したい.また,本データの単語親密度,『現代日本語書き言葉均衡コーパス』に対する分類語彙表番号付与データ\cite{kato-2018-wlsp},岩波国語辞典の語釈文\cite{呉-2019}の定義-被定義関係などを用いて,単語心象性の調査を行う.単語心象性は,多義語の語義ごとの親密度を推定するものである.刺激呈示時に語義の情報を結びつける必要がある.本研究では質問紙の末尾に参考情報として分類語彙表の分類項目の情報を示しているが,ほとんどの研究協力者が語義を意識していないと考える.用例や語釈文などの情報を用いて,明示的に語義を示すことで,語義ごとの親密度である単語心象性の調査を進めたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費基盤研究(A)17H00917,基盤研究(C)19K00591,基盤研究(C)19K00655,挑戦的研究(萌芽)18K18519,新学術領域研究18H05521の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{浅原正幸}{%2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\end{biography}\biodate\end{document}
V28N02-07
\section{はじめに} ニューラル機械翻訳(NeuralMachineTranslation,NMT)の発展\shortcite{luong:2015:emnlp,vaswani:2017:nips}により,ニュース記事のような文体の整った入力に対する翻訳品質は著しく向上し,一部の言語対においては既に人間の翻訳に匹敵するレベルにまで到達したと言われている\shortcite{hassan:2018,barrault:2019:wmt}.しかし,そのめざましい発展をもってしても,ソーシャルメディアに見られるようなユーザ生成コンテンツ(User-GeneratedContents,UGC)に対するNMTの適用可能性は依然として極めて限られている\shortcite{michel:2018:emnlp}.一方で,ソーシャルメディアなどの普及に伴い,UGCが我々の日常生活に与える影響は非常に大きなものとなっている.例えば,それらのサービスへの投稿はユーザの購買行動の決定にも重大な影響を及ぼすことが報告されている\footnote{\url{https://stackla.com/resources/reports/the-consumer-content-report-influence-in-the-digital-age/}}.そのような背景において,\citeA{berard:2019:wngt}はFoursquare\footnote{\url{https://foursquare.com/}}に寄稿されたレストランのレビューに着目し,異文化交流の促進に向けて実応用を見据えた翻訳タスクを設計した.近年ではUGCに対して頑健な翻訳システム構築への関心の高まりと共に,ソーシャルメディア上のテキストの翻訳精度を競うコンペティションも開催されている\shortcite{li:2019:wmt}.当該コンペティションにおいて,翻訳の評価は従来の機械翻訳出力に対する評価と同様に,あるひとつの包括的なデータセットに対してひとつの全体スコアを付与する手法で行われている(図\ref{fig:overview}a).しかし,我々はこの評価における改善は必ずしもモデルの頑健性を説明していないと考える.例えば,訓練データ規模の異なる2つのモデル出力に対してBLEUスコアの比較を行い,スコアの改善をもってあらゆる事象に対する頑健性を結論付けることは危険である.UGCにおける機械翻訳システムの性能向上への端緒を見出すためには,翻訳品質の低下を招く要因を明らかにし,実際にそれらが改善されていることを示すことのできる確かな基盤が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-2ia6f1.pdf}\end{center}\caption{一般的な機械翻訳評価の手法と我々のデータセットによる現象毎評価の比較.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで本研究では,機械翻訳システムの精緻な評価に向けた第一歩として日英機械翻訳に焦点を当て,日本語ユーザコンテンツに含まれる特定の言語現象が出力に及ぼす影響を調査する.具体的には,既存の評価データセットに対して,新たに固有名詞,名詞の省略,口語表現,異表記の4つの言語現象に着目したアノテーションを付与することで,言語現象毎評価データセット\textbf{PheMT}(\textbf{Phe}nomenon-wiseDatasetfor\textbf{M}achine\textbf{T}ranslationRobustness)を構築した(図\ref{fig:overview}b).文中の特定の表現に注目することにより,ある言語現象を正しく扱えるかどうかを翻訳正解率を用いてより直接的に測定することを可能にした.また,ある現象がモデルに及ぼす影響は,その現象の存在を取り除いた場合との差分により評価できるというアイデアのもと,人手による当該表現の正規化を行った.原文と正規化後の文を入力した際の評価指標の差異の測定により,個々のモデルが元来有する表現能力の違いに起因する影響を取り除き,当該表現が翻訳文全体の品質に与える影響を測定する.構築したデータセットを用いた評価と分析を通して,UGCという限定されたドメインにおいても依然として十分に翻訳することのできない対処すべき現象が存在することを明らかにする.本論文の貢献は以下の2点である.\begin{enumerate}\item{日英機械翻訳における詳細なエラー分析のための第一歩として,日本語ユーザコンテンツに頻繁に現れる言語現象に着目した評価データセットを構築した.}\item{構築したデータセットを用いた評価と分析により,広く商用に利用される機械翻訳システムを含む最先端のNMTモデルにおいても,依然として多くの課題が残されていることを明らかにし,今後の機械翻訳評価における一つの方向性として言語現象毎評価の可能性を示した.}\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 機械翻訳分野において,入力文中のノイズに頑健なシステムの構築に対する関心が高まっている.これに対して,\citeA{michel:2018:emnlp}はUGCの代表例となるオンラインディスカッションサイトReddit\footnote{\url{https://www.reddit.com}}に投稿されたコメントに対して,プロの翻訳家による参照訳を付与することで英日翻訳を対象としたMTNT(\textbf{M}achine\textbf{T}ranslationof\textbf{N}oisy\textbf{T}ext)データセットを構築した.彼らは,MTNTデータセットの原言語文が既存の他の機械翻訳ベンチマークと比較して誤植(タイポ)や文法誤りなどのノイズを多く含むことを明らかにすると共に,ベースラインモデルによる翻訳実験の結果からUGCに対する翻訳の難しさを示した.また,このデータセットは近年開催された機械翻訳システムの頑健性に関するコンペティションにおいても,訓練および評価のために用いられた\footnote{\url{http://www.statmt.org/wmt19/robustness.html}}.しかし,MTNTデータセットには,ニュースの見出しのように文語調なものから,隠語を含む特定コミュニティ内の崩れた会話まで多種多様な文体やドメインが含まれている.また,付加された翻訳文においても,その解釈の難しさから未訳や誤訳を含むものが一定数存在し,品質は玉石混淆であると言える.このようなデータセットを評価基盤として,機械翻訳における代表的な評価指標であるBLEUスコア\shortcite{papineni:2002:acl}を用いた比較を行った場合,スコアの改善が実際にどれほどノイズに対する頑健性に起因するのかを推定することは難しい.事実,コンペティションにおいて最も良いスコアを獲得したチームである\citeA{berard:2019:wmt}は,UGCに頻出する大文字・小文字の混同に対処するため各単語の先頭にタグを付与するなどの工夫を行い,人手評価をもって入力に対する頑健性が向上することを示したが,BLEUスコアを用いた評価では,単に訓練データ中からペアとして不十分なものを取り除くコーパスフィルタリングが最も改善に寄与したと報告している.コーパスフィルタリングは,データ駆動の機械翻訳システムにおいては不可欠な技術であるものの\shortcite{koehn:2018:wmt,junczys-dowmunt:2018:wmt},これはパラレルコーパスの構築にあたって生じたノイズへの対処を目的としており,本質的に\textbf{入力に対する頑健性}を対象としてはいない.したがって,現状のデータセットおよび評価をもってUGCという特異な入力に対するシステムの優位性を帰結することは早計であり,真に頑健な機械翻訳システムの構築に向けては,低コストで再現性が高く継続的な改善を実現可能な評価基盤を築くことの重要性は高いと考える.これらの問題意識のもと,本研究では入力に見られる特殊な言語現象に対する改善を重点的に測定できるような評価用データセットを構築することを目的とする.言語現象という観点から誤訳の原因究明を目指すアプローチは,誤植\shortcite{heigold:2018:amta,yonatan:2018:iclr,karpukhin:2019:wnut,niu:2020:acl},文法誤り\shortcite{nagase:2011:paclic,sennrich:2017:eacl,anastasopoulos:2019:naacl}からジェンダーバイアスの存在\shortcite{stanovsky:2019:acl}に至るまで広く受け入れられている.例えば,\citeA{isabelle:2017:emnlp}は英語からフランス語への翻訳において,主述の一致など構造の差異から生じる20種類以上の細分類を言語現象的観点から設定し,当該箇所の翻訳精度によりモデルを評価した.モデルの汎化性能の測定においては様々な性質のデータを用いて評価することが一般的であり,それぞれが単一の言語現象を対象とした少数データセットによる分析,という彼らの提案は機械翻訳システムに対する理解を促進する上で新たな側面を提供したと言える.一方で,彼らの手法は人手による絶対評価を要するため,言語学に関する高度な知識を持った公平な評価者の選定や評価データの拡張において課題がある.この問題に対し,\citeA{sennrich:2017:eacl}は対照データセットによる相対比較を用いた自動評価のアプローチを提案した.この研究では,それぞれの入力文に対し,正解の参照訳とその一部を改変した対照的な参照訳を作成し,モデルが正解に対して高い生成確率を与えることができた文の割合をもって評価が行われた.後に,\citeA{bawden:2018:naacl}は同様の手法を用いて,先行文脈を利用した機械翻訳における照応代名詞の影響を検証した.しかし,彼らが指摘するように,この手法はモデルが2つの参照訳を正しく順位付けできた場合にも,最も尤度の高い生成文が誤りを含まないことは保証しない.さらに,これらの手法は入力に曖昧性のない整った文を想定しているため,そのような特徴を有しないUGCの分析に適用することは難しいという問題がある.一方で,対照的なのは必ずしも参照訳である必要はない.\citeA{heigold:2018:amta}は,誤植を模した人工的な誤りをルールにより作成し入力文に加えることで,\textbf{入力文中の}誤りの存在がモデルの翻訳品質の低下にどれだけ寄与するかを調査した.さらに,\citeA{yonatan:2018:iclr,karpukhin:2019:wnut}はウェブサイトの編集履歴を用いることで,人間が生成しやすい誤りの分布を再現し,検証の範囲を自然な誤りに拡張した.しかし,これらの研究では誤りは疑似的なものであり,実際に人間が記述したテキストに対するモデルの頑健性は検証されていない.これに対して,\citeA{anastasopoulos:2019:naacl}は文法誤りに対するベンチマークであるJFLEGコーパス\shortcite{napoles:2017:eacl}に翻訳文を付与することで,人間が生成した誤りを直接入力文として用いた.彼らは,テスト時に含まれる誤りと同種の誤りを含む訓練事例を用いてモデルを学習することで,他種の誤りを加えて学習したモデルに比べ高い精度を達成することを示した.このように,機械翻訳システムの頑健性に関して特定の観点に着目した研究は多く行われている.しかし,これらの工夫をもってしてもなお,我々が取り組むUGCの翻訳においては,ニュース記事などを翻訳する場合に比べて著しい品質の低下が見られる.この背景には,UGCに特有の難しさが体系的に分類されていないことや,UGCを模したデータへの変換が極めて難しいことがあげられる.これに対して,我々はUGCに頻繁に見られる言語現象の定義を行い,UGC上の文からそれらの現象を取り除く正規化を行う事で対照データセットを作成する.また,先行研究の多くは文字体系を共有する比較的近い言語対を対象としており,我々の知る限りでは日本語-英語のような類似しない言語対における詳細なエラー分析のための基盤は未だ構築されていない.しかし,固有名詞の翻字に示されるように,文字体系を共有しない言語対に特有の問題も生じるため,取り扱う言語対に応じた柔軟な拡張が必要であると考えられる.我々のデータセットが,この極めて難しい言語対の翻訳に対する新たなアプローチの一助となることを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{現象毎データセットの構築} \label{sec:methodology}本節では現象毎データセット構築の手順について説明する.我々は,UGCにおける機械翻訳システム評価のための既存のベンチマークであるMTNTデータセットに新たに言語現象のアノテーションを行うことでデータセットを構築した.図\ref{fig:dataset_creation}に一連の手順の概要を示す.データセットの構築は主に,品質担保のための事前データ選定と現象該当箇所の抽出および正規化の2つの段階から成る.まず\ref{subsec:approp_anno}節では,翻訳品質の基準となる十分性スコアの定義と,MTNTデータセットに対する人手のアノテーションを行った結果として得られたスコアの分布について考察する.後述する\ref{subsec:methodology}節では,評価の対象とする言語現象の定義および,表現の抽出と正規化の手順について実例を交えて展開する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-2ia6f2.pdf}\end{center}\caption{現象毎データセット構築の流れ.}\label{fig:dataset_creation}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{品質担保のための事前データ選定}\label{subsec:approp_anno}現象毎データセットを構築するにあたっては,現象を含む文を収集しそこに新たに翻訳を付与する方法と,既存のパラレルデータに現象のアノテーションを行う方法の2つが考えられる.前者の方法には,原言語に含まれるニュアンスや文体を目的言語にも保持するかという観点から参照訳をコントロール可能であるという利点がある.例えば,「かわいいいい」のような表現ではcute,cuuuuteのいずれもが正解となり得るため,それぞれの形式にどの程度対応可能であるかを個別に把握することの重要性は高い.しかし,UGCに対して高品質な翻訳を大規模に付与する方法は自明ではなく,このようにボトムアップにデータセットを構築することは高いコストを伴う.そのため,我々は既存のベンチマークであるMTNTデータセットにラベルを付与し,分類・正規化を行うことでデータセットの構築を試みた.ここで,MTNTデータセットでは各言語対に対して翻訳方向毎にデータセットが用意されている.このことから,我々は対訳にはニュアンスの保持を期待しないものとしてデータセットの構築・分析を行った.また,MTNTデータセットを複数の現象に細分類する場合,評価用データの文数は限られているため,個々の現象データセットが極めて少ない文数に分割されてしまう恐れがある.そこで,我々はMTNTデータセットの訓練および開発用データを含めた全データを,評価用データ(PheMT)として用いることにした.しかし,通常,訓練データは規模が大きいため人手による品質の評価を経ていない場合が多く,実際に人手で数件確認した限りでも,MTNTデータセットの訓練データには多くの未訳や誤訳が含まれていた.そこで,我々は翻訳品質の基準として十分性スコアを定義し,MTNTデータセット中の全文に対し,クラウドソーシングを用いて評価を行うことで現象毎データセットの品質を担保することにした.十分性スコアの付与に先立って,まず簡単なルールベースのフィルタリングを行った.具体的には,最低限の品質を満たさない文対として,(i)対話コーパスのフィルタリングのために定義された不適切語リスト\footnote{\url{https://github.com/1never/open2ch-dialogue-corpus}}中の単語を含む(ii)原言語文と目的言語文が一致する(未翻訳)(iii)他の文対と完全に一致するのいずれかを満たすものを除外した.さらに,アノテーションタスクの平易化のため(iv)一方もしくは両方の言語が1語のみ,もしくは80語以上からなるものを除外した.フィルタリングの適用後,残った文対について1(不適切)--5(適切かつ流暢)の5段階のリッカート尺度で分類するタスクを行った.各スコアへの分類基準の策定にあたっては,機械翻訳システムの出力を人手評価する際に一般的に用いられる,適切性(adequacy)と流暢性(fluency)の2つの観点\shortcite{white:1994:amta,li:2019:wmt}を用いた.しかし,我々が今回評価対象とする翻訳文は人手で生成されたものであるため,流暢性に関してはある程度担保されていると考えるのが自然である.そこで,流暢性の観点として翻訳語(機械翻訳らしさ)を参照し\shortcite{graham:2019,freitag:2020},表~\ref{tab:appropriateness_criterion}に示す5段階の基準を設定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{06table01.tex}\caption{翻訳十分性スコアの評価基準.}\label{tab:appropriateness_criterion}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%タスクの実行に際し,翻訳文の人手評価は本来目的言語の母語話者を評価者として行われるべきであるが,UGCの文意を正確に把握するためには当該言語に対する高度な理解を必要とするため,英語が堪能な10名の日本語母語話者に評価を依頼した\footnote{1名あたりの担当文約2,200文に対し,標準報酬を2万円に設定した.10名の募集に対し,80名以上の応募者の中から,職業としての翻訳経験,海外在留経験,もしくは同等のスキルを有するワーカを選出した.}.評価者によるスコアのぶれを低減するため,1文あたり3名の評価者を割り当て,平均をもって各文の十分性スコアとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-2ia6f3.pdf}\end{center}\caption{MTNTデータセットの各分割に対する十分性スコアの分布.}\label{fig:appropriateness}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:appropriateness}に本タスクによって付与されたMTNTデータセットの各分割に対する十分性スコアの分布を示す.この結果から,青色および黄色で示される学習,開発用セットにおけるスコアの分布が,評価用に作成された他の分割(テスト,ブラインドセット\footnote{コンペティションにおいてシステムの順位を決定するために用いられたデータセット.評価期間の終了まで参加者には公開とされた.})に比べ,低スコア側で高くなったことがわかる.このことは,評価データを単純に拡張する事が招く品質の低下と,フィルタリングの必要性を示唆していると言える.現象毎データセットの構築にあたっては,両言語により伝わる情報を等価と見なすことのできる,平均スコアが4.0以上の文対のみを用いることとした.表\ref{tab:approp_results}には十分性スコアの各スコア帯における原文と翻訳文の一例を示す.また,我々はこれらのアノテーションが妥当かつ信頼性の高いものであるかを検証するため,アノテーションの一致率を調査するとともに,一部の文対に対して英語母語話者により同様の品質評価を実施した.まず,アノテータ間一致率について,順序尺度に最適化されていることや,欠損値を含むデータにも適用可能なことからKrippendorffのalpha係数\shortcite{krippendorff:2011}を測定した結果,一致率の値は0.32となった.これは,\citeA{landis:1977}の基準においてfairagreement(まずまずの一致)とされる値であり,一致率としては少し低いと考えられる.原因としては,評価対象文であるMTNTデータセットの翻訳が人手で生成されていることから意味の等価性に重点を置いた評価基準を設定したものの,実際には機械翻訳にかけたような流暢でない翻訳文も散見され,文法性の許容範囲に主観の入る余地が生まれてしまったことが想定される.さらに,各ワーカの付与したスコアの分布に着目すると,10名のワーカの平均点の範囲は3.32--4.44点と広いものの,四分位範囲は0.46点に収まっていた.これは,図\ref{fig:score_all}に示すように評価対象文の大多数に高い点数を付与するようなワーカの存在に起因すると考えられる.そこで,スコアの平均が最も高い・低い各2名の結果を外れ値として除外し,再度alpha係数を測定したところ,値はmoderateagreement(中等度の一致)となる0.48まで向上した.ワーカの質には依然として議論の余地が残るものの,利用可能な文数とのトレードオフにより信頼性の高い部分集合を用いるなど品質の調整は可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{06table02.tex}\caption{十分性スコアの各スコア帯における翻訳文例.}\label{tab:approp_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{28-2ia6f4.pdf}\end{center}\caption{各ワーカの付与した十分性スコアの分布.}\label{fig:score_all}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,妥当性に関して,具体的にはクラウドワーカによる平均点が4.0以上・未満の文からそれぞれ50文対を無作為に取り出した合計100文対に対して,翻訳業を生業とする英語母語話者にクラウドソーシング実施時と同様の指針を提示して評価を依頼した.評価の結果を図\ref{fig:validity_check}に示す.図から,平均点が4.0以上であった50文対に対して新たに3点以下が付与されたものは7文対であり,4.0未満の28文対に対して4分の1と少ないことから評価の妥当性は保たれていると考えられる.また,表\ref{tab:validity}にはとりわけ点数の低かった3文対とその判断の根拠(原文)を示す.この結果から,スコアに乖離が生じた例の中には文脈情報の不足により評価が困難なものも多いように思われる.文章単位の情報が利用可能な状況では改善の余地はあるものの,そのような例を完全に取り除くことは難しいと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-2ia6f5.pdf}\end{center}\caption{平均点4.0以上・未満の各50文対に対する英語母語話者による品質評価.}\label{fig:validity_check}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{06table03.tex}\caption{低スコアが付与された文対とその判断の根拠.}\label{tab:validity}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上の結果を踏まえ,言語現象の評価に用いる文を可能な限り多く確保するため,今回の実験ではアノテーションの信頼性によるフィルタリングは行わなかった.その結果,条件を満たした文数は評価対象とした7273文の約57.1\%にあたる4152文であった.また,訓練データを評価のために用いる際のもう一つの問題点として,複数の翻訳文を持つ原言語文の存在があげられる.特に,MTNTデータセットはその構築過程において,一連の発言であるコメント単位で翻訳を行い,文単位に自動で分割する処理を経るため,アラインメントの誤りに起因する重複部分を多く含む特徴がある.そこで,我々は原言語文を空白で区切った際の最初の分割が同一のものを集計し,最も高いスコアが付与された一文のみを参照訳として保持することで対処した.これにより,現象ラベルの付与対象は3896文となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価データセットの構築手法}\label{subsec:methodology}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{(i)言語現象ラベルの定義}評価の対象とする言語現象のラベルを定義するにあたって,我々はUGCに特有のどのような要因が他の言語処理タスクにおいて問題となっているかを調査した.\citeA{sasano:2013:ijcnlp}は日本語形態素解析の文脈において,インターネット上のテキストに含まれる標準的でない綴りの影響に着目している.彼らは,母音の長音化や小文字化などのルールを人手で設計し,ルールに基づいた正規化適用後の表現が事前定義済みの語彙に含まれる場合に,形態素ラティスに追加することで解析誤りを抑制できることを報告した.さらに,同様のルールに基づいて作成した正規-崩れ文字列パターンのシードデータからアラインメントを学習することで,より複雑な崩れ表記にも対応できることが示されている\shortcite{saito:2014:nlp}.また,ニューラルネットワークを利用したテキスト正規化モデルにおいても,疑似データの作成時に類似のルールを適用することで精度の向上が確認されている\shortcite{ikeda:2016:wnut}.しかし,これらの崩れ表記が機械翻訳などの言語横断的タスクに及ぼす影響は未だ十分に検討されていない.そこで,我々はこれらの先行研究に倣い,口語表現および異表記の2種類の現象ラベルを定義した.さらに,我々はUGCを含む様々なテキストにおいて頻繁に見られる固有名詞および名詞の省略の2種類の現象に着目した.固有表現が機械翻訳システムに及ぼす影響については翻字や転写の文脈で注目を浴びつつある\shortcite{shao:2016:news,rosca:2016,ugawa:2018:coling}.我々は,これらの現象が実際にUGCにおいてどれだけ現れるかを検証するため,予備実験としてMTNTデータセットの訓練データから無作為に取り出した500文に対するアノテーションを行った.実験の結果から,名詞の省略について全体の10\%以上,固有名詞については40\%以上の文に含まれる極めて頻出の現象であることが分かった.我々は,以上の4種類の現象について最新の機械翻訳システムに及ぼす影響を調査する.各ラベルの具体的な定義とその分類例を表~\ref{tab:label_definition}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{06table04.tex}\caption{言語現象ラベルの定義と分類例.}\label{tab:label_definition}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{(ii)該当表現の抽出と正規化}言語現象毎データセットの構築にはクラウドソーシングを用いた.問題の難易度およびワーカ間の一致率を考慮し,アノテーション手順を各文への現象ラベルの付与,該当表現およびアラインメントの抽出,正規化の3つの段階に分けてデータセットを構築した.また,回答の品質を担保するため,すべてのタスクにはチェック設問を設け,各設問に対しチェック設問を通過した5名のワーカの回答を集約した.初めに,\ref{subsec:approp_anno}節の十分性スコアにより選定したMTNTデータセット中の文対に対して,原言語(日本語)文を表\ref{tab:label_definition}に定義する4種類の現象ラベルに分類するタスクを行った(図\ref{fig:dataset_creation}Step1).各設問は,ある文に対して各現象の有無をチェックする4つの小設問からなる.ワーカの過半数にあたる3名以上が同一の現象に対して「含む」と回答した場合のみ,その現象を含むと見なした.続いて,現象ラベルとその該当表現の対応づけを行った(図\ref{fig:dataset_creation}Step2).具体的には,日本語文と現象ラベルのペア1つに対し,最大5箇所を本文中の形式で抜き出すタスクとして設計した.つまり,前述の分類タスクにおいてある文が複数の現象を含むと分類された場合,注目する現象毎に別の設問として取り扱われる.また,抽出された各表現について目的言語中から対応する表現(アラインメント)の抜き出しを行った.これらのタスクに対する回答は過半数の完全一致が得られたもののみを使用した.さらに,各現象の影響を取り除き対になる評価文を作成するため,抽出された表現の正規化を行った(図\ref{fig:dataset_creation}Step3).ここで「正規化」とは,表\ref{tab:label_definition}の定義に従い辞書中の表記から逸脱した表現を,対応する標準形の表現に書き直すことを意味する.つまり,ある現象に分類される表現に対し,その現象に分類される理由を取り除くような逆向きの変形を適用する.例えば,名詞の省略に分類される「アプデ」という表現は,この表現を名詞の省略ではなくするような変形,つまり省略元の表現への書き換えにより「アップデート」に正規化される.同様に,長音記号の挿入により口語表現となる「ねむーーい」という表現は,長音記号を除去することで「ねむい」に正規化される.ここで,口語表現と異表記は標準形と同音であるか否かにより定義上排他的であるものの,一部の口語表現では正規化適用後により一般的な漢字表記(上記例「眠い」)を持つ異表記に転化する場合も見られた.このような例では,口語表現の範囲外となる漢字化は行わないよう指示し,当該現象の切り分けを行った.また,同一の表現が複数の現象に分類される場合には,注目する現象毎に当該現象のみを取り除くような正規化を行う.例えば,「すまほ」という表現は,名詞の省略と異表記に分類されるべき表現であるが,これはそれぞれ「すまーとふぉん」「スマホ」に正規化されると期待される.なお,実際にはこのような複合はあまり見られなかった.我々は,これらのタスクの結果を集約し,該当表現を正規化後の表現に置き換えることで,(原文,正規化後文,アラインメント,参照訳)の4つ組としてデータセットを構築した.この際,同一の現象ラベルに属する表現が一文中に複数含まれる場合には,当該文が複数回評価されることによる過剰評価の影響を防ぐため,評価データから削除した.なお,「標準形」という概念が存在しない固有名詞に関しては,正規化タスクは行わず,原文とアラインメントを用いて評価を行うこととした.一連の手順により構築したデータセットの一例を表\ref{tab:dataset_examples}に示す.また,各現象データセットの構成文数,ユニークな表現数,および正規化前後の文字単位による編集距離は表\ref{tab:stat_pheno_wise}のとおりであった.この結果から,口語表現や異表記は構成文数に対するユニークな表現の割合が高く,変化のパターンには多様性があることが窺える.また,口語表現は異表記に比べて正規化による編集距離が小さく,推論時の表層的な手がかりの利用可能性が品質の改善に寄与することが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[p]\input{06table05.tex}\hangcaption{構築したデータセット中の文例.Orig.,Norm.,Ref.はそれぞれ,MTNTデータセット中の原文,正規化タスク適用後の文,参照訳を表す.}\label{tab:dataset_examples}\vspace{1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[p]\input{06table06.tex}\caption{各現象データセットの構成文数.}\label{tab:stat_pheno_wise}\vspace{1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[p]\input{06table07.tex}\caption{各内製モデルの主な特徴.\textsc{Large},\textsc{Cat}の両モデルには同一のBPEモデルを適用した.}\label{tab:model_desc}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{翻訳モデル} 本節では,構築したデータセットによる評価および分析の対象とした翻訳モデルについて説明する.我々は訓練データの規模や前処理の方法が異なる5種類のモデルを用意し,それぞれ5つの乱数シードで実験を行った.表\ref{tab:model_desc}に各モデルの主な特徴,表\ref{tab:dataset_details}には学習に用いたデータセットの内訳を示す.また,実験は我々が独自に訓練したモデルに加え,Google翻訳などの商用翻訳システムに対しても行った.実際にユーザからの入力を受け付けることで改善が行われる商用のシステムでは,UGCに対する頑健性がより高いことが期待される.そのようなシステムに対して実験を行うことで,より重要性の高い現象の存在を明らかにすると共に,質の高い翻訳を得るためにユーザが行うことのできる工夫としての正規化の有用性を確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{06table08.tex}\caption{訓練データセットの内訳.}\label{tab:dataset_details}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,訓練データの規模のみが異なる2つのモデルの比較を通して,ある現象が大規模なデータの収集により解決されうるかどうかを調査する.評価指標の差分による頑健性の評価に改善が見られない場合,前処理やモデリングにおいて特別な工夫を要する現象であり,より重要性が高いと考えることができる.\textsc{Small}モデルはWMT2019にて開催されたコンペティションにおいて訓練データとして公式に提供されたTEDtalks,KFTT(\textbf{K}yoto\textbf{F}ree\textbf{T}ranslation\textbf{T}ask),JESC(\textbf{J}apanese-\textbf{E}nglish\textbf{S}ubtitle\textbf{C}orpus)の3つのデータセットを用いて学習したモデルである.一方で,\textsc{Large}モデルにはこれらのデータに加え,現在一般に利用可能な日英パラレルコーパスとして最大規模であるJParacrawlv2.0\shortcite{morishita:2020:lrec}を用いた.また,データセットの前処理として,JESCにあたる部分の英語文がすべて小文字で記述されていたため,TEDtalks,KFTT,MTNTデータセットを用いて学習した\texttt{moses}ツールキット\shortcite{koehn:2007:acl}のrecaserを適用することで,文字種情報の復元を行った.さらに,文中のunicode絵文字および顔文字を特殊トークンに置換し,後処理において復元を行った\shortcite{murakami:2019:wmt}.また,翻訳時にコピーされることが望ましいユーザ名についても同様の処理を適用した\footnote{@から始まる連続15文字以内の英数字の出現を正規表現により置換した.推論時には,MTNTデータセットの情報源であるRedditの記法に倣い,\textit{u/name}または\textit{g/name}の形で表される表現をユーザ名と見なした.}.トークンの単位にはサブワードを用い,\texttt{sentencepiece}\shortcite{kudo:2018:emnlp}により,両言語共有で語彙数が32,000となるようにByte-Pair-Encoding(BPE)を適用した\shortcite{sennrich:2016:acl}.続いて,トークンの分割単位がモデルの頑健性に及ぼす影響を調べるため,\textsc{Large}モデルの訓練データに異なる分割を適用してモデルの学習を行った.\textsc{Char}モデルは,入出力を文字の系列と見なすことで,原言語側の一連の文字の並びから目的言語側の異なる文字の並びへの翻訳を行う\shortcite{wang:2015}.数値やコードスイッチングを適切に扱うため,ここでも両言語の語彙は共有とした.先行研究において,文字ベースの翻訳モデルはBPEを用いたモデルに比べ誤植などの誤りに対する頑健性が高いことが示されている\shortcite{durrani:2019:naacl}.我々は,UGCを取り扱う上でも分割手法の差異が翻訳品質に影響を及ぼすかについて改めて確認する.さらに,我々のデータセットによる評価が,特定の現象に対する工夫を反映できることを検証するため,残る\textsc{Pron},\textsc{Cat}の2モデルについては,原言語(日本語)側に特殊な前処理を施した.具体的には,日本語形態素解析ツールキット\texttt{MeCab}\shortcite{kudo:2004:emnlp}を用いて取得した各形態素の読みを結合することで発音ベースのコーパスを作成し,これを用いて学習を行った.日本語ではすべての単語の読みは表音文字であるひらがなまたはカタカナを用いて表すことができるが,\textsc{Pron}モデルの訓練には\texttt{MeCab}の標準出力であるカタカナに変換されたデータを用いた.この前処理は,特に異表記に対する頑健性の向上を目的としている.中でも,異表記の定義に含まれるひらがな・カタカナの混同に適切に対処することを期待した.例えば,表\ref{tab:label_definition}中の「アリガトウ」という表現は通常ひらがなで記述されるが,発音への変換を経ることで同一の表現(アリガトウ)に集約することが出来る.これにより,推論時に未知の表現が減少し,翻訳品質が改善すると考えられる.さらに,このような音声的情報は同音異義語の翻訳曖昧性解決にも有効であることが示されている\shortcite{liu:2019:acl}.一方で,\textsc{Cat}モデルでは通常のコーパスと発音ベースのコーパスの結合コーパスを用いて学習を行った.コーパスの結合の方法には,それぞれのコーパス中の文を別々の文として縦方向に結合する方法と,\texttt{<sep>}などの特殊トークンを用いて同一文内で横方向に結合する方法が考えられるが,このモデルでは前者の方法を採用した\footnote{モデル名はUnix系OSにおける\texttt{cat}コマンドに由来する.特殊トークンによる\texttt{paste}モデルについても実験を行ったが,有意義な結果を得ることができなかったため本論文では省略する.}.また,発音ベースのコーパスに相当する部分をさらにひらがなに転写し,\textsc{Large}モデルと同一のBPEモデルを用いてサブワードに分割した.元文と発音に転写された文の2文から同一の目的言語文を出力するように学習を行う事で,一般的でない表記から生じる予期しない分割に対しても頑健な表現を得ることを期待した.すべてのモデルには\texttt{fairseq}ツールキット\shortcite{ott:2019:naacl}に実装されたTransformer-baseアーキテクチャを用い,ハイパーパラメータは~\citeA{murakami:2019:wmt}の設定に準じた.また,広く商用に利用されている機械翻訳システムとして,Google翻訳\footnote{\url{https://translate.google.co.jp}},およびDeepL翻訳\footnote{\url{https://www.deepl.com/translator}}の2つのシステムの出力結果についても分析を行った\footnote{本論文で用いた商用システムの翻訳結果は2020年6月10日現在のものである.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{現象毎評価} 本節では,構築した現象毎データセットを用いた評価によりニューラル機械翻訳システムの現状を概観する.具体的には,MTNTデータセット中の原文と正規化後の文のそれぞれをモデルに入力し,単一参照訳BLEU\shortcite{papineni:2002:acl,post:2018:wmt},およびアラインメントを用いた翻訳正解率の差分をもって評価を行う.それぞれの文は評価対象とする現象の有無の一点においてのみ異なるため,任意の評価指標によるスコアの差分の大きさは,当該現象がモデルに与える影響の大きさと考えることができる.この際,同一の差分であればスコアの絶対値が小さい場合により影響が大きいという直感のもと,差分を正規化後のスコアで除算した\shortcite{niu:2020:acl}.つまり,原文に対する翻訳を$x_{\mathrm{orig}}$,正規化後の文に対する翻訳を$x_{\mathrm{norm}}$,参照訳またはアラインメントを$y$,翻訳文と参照訳(アラインメント)を受け取りスコアを返す任意の評価指標を$\mathrm{score}(x,y)$としたとき,頑健性スコア\textsc{Robust}は以下のように定義される.\begin{equation}\textsc{Robust}=\frac{\mathrm{score}(x_{\mathrm{orig}},y)-\mathrm{score}(x_{\mathrm{norm}},y)}{\mathrm{score}(x_{\mathrm{norm}},y)}\times100\label{eq:robust}\end{equation}頑健性スコア\textsc{Robust}は,正規化後の入力に対して到達可能な翻訳品質に対する相対的な品質の低下(上昇)と捉えることが出来る.我々はBLEUスコアのような文レベルの評価指標に加え,局所的な翻訳可能性を測定する正解率を相補的に用いることで,現状のモデルにおける改善点を明らかにするためのより詳細な分析を提供する.続く\ref{sec:result_quantitative}節では定量評価,\ref{sec:result_qualitative}節では定性評価の結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{06table09.tex}\hangcaption{%我々のデータセットにおけるBLEUスコアの測定結果(内製モデル).*5シードの平均値$\pm$標準偏差.Orig.は原文,Norm.は正規化後の文に対するスコアを表す.\textsc{Robust}は式(\ref{eq:robust})による.}\label{tab:bleu_in-house_seed_extended}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定量評価}\label{sec:result_quantitative}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{内製モデル}表\ref{tab:bleu_in-house_seed_extended}および\ref{tab:acc_in-house_seed_extended}にはそれぞれ,現象毎データセットに対する我々のモデルのBLEUスコア,当該箇所の翻訳正解率を示す.この結果から,訓練データ規模が小さい場合(\textsc{Small}モデル)は,正規形の存在する名詞の省略,口語表現,異表記のすべての現象において,原文入力時に品質の低下が見られることがわかった.さらに,特に評価指標に正解率を用いた場合,\textsc{Small}モデルの名詞の省略に対する頑健性スコアが他のモデルに比べ著しく低いことが確認された.固有名詞や名詞の省略では,\textsc{Large}モデルにおいて原文入力時の正解率も大幅に向上したことから,訓練データを拡充しカバー率を向上することである程度対処可能な現象であると考えられる.しかし,一般に正規化により翻訳文の品質が低下することは考えにくく,正のスコアを示す頑健性スコアの解釈には疑問も残る.これに対して,我々は正規化後に翻訳文の品質が低下する例にはどのようなものがあるかを確かめるため,名詞の省略データセットの細分類を行った.その結果,省略形がアルファベットの頭字語である場合に,特に\textsc{Large}モデルで正規化前の入力に対する正解率が高く,それ以外の入力のパターンでは正解率の低下が確認された.これは,主に参照訳中にそのまま現れることの多い頭字語が,正規化により過剰に説明されてしまい表層の一致が取れなくなってしまったことに起因すると考えられる.しかし,実際にはPCの翻訳がpersonalcomputerでも問題ないように,頭字語の翻訳には複数の正解が許容される場合がある.従って,正規化後の上界はより高いと考えられ\textsc{Large}モデルにおいても依然として課題は残されていると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{06table10.tex}\hangcaption{我々のデータセットにおける正解率(\%)の測定結果(内製モデル).*5シードの平均値$\pm$標準偏差.Orig.は原文,Norm.は正規化後の文に対するスコアを表す.\textsc{Robust}は式(\ref{eq:robust})による.}\label{tab:acc_in-house_seed_extended}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%口語表現と異表記の2現象に注目すると,\textsc{Large}モデルは,BLEUスコアにおいて\textsc{Small}モデルよりも2--3ポイント程度優位であるものの,この改善は頑健性の向上に起因するものではないと考えられる.中でも,口語表現の正解率について,正規化後の入力にさえ\textsc{Small}モデルがより高い値を示したことは注目に値する.このことは,これらの現象が最先端の翻訳モデルにおいても十分に扱うことが難しく,データセットの拡充に加えて特別な対処を必要とすることを示唆している.続いて,トークンの分割単位が各現象への頑健性に及ぼす影響を確認する.\textsc{Large}モデルと\textsc{Char}モデルに対する結果の比較から,文字ベースの分割は特に口語表現に対する頑健性を向上させることが確認できる.これは,\ref{subsec:methodology}節で述べたとおり,口語表現データセットの正規化前後の編集距離が他のデータセットに比べ小さいことに起因すると考えられる.先行研究における誤植と同様,周囲の文字が大きな手がかりとなるような現象に対しては,文字単位に分割することの有用性が確認できる.しかし,同時にBLEUスコアの絶対値や正規化後の表現に対する正解率において減少も見られることから,現象の存在が明らかである場合を除いてはBPEに基づく分割が優位であるように思われる.一方で,異表記については一種の綴りの誤りと見なすことができるため,文字単位で扱うことによる頑健性の向上を期待したがその改善は限定的であった.これは,一般にある単語内の数文字の変化からなる誤植や口語表現に対して,単語単位で生じる異表記の問題としての難しさを示唆していると言える.また,我々のデータセットによる評価が,特定の現象に対する頑健性に感受性を有するかについて,\textsc{Pron}モデルの結果から確認する.表\ref{tab:bleu_in-house_seed_extended}から,原文入力時のBLEUスコアに注目すると,一般に\textsc{Pron}モデルは流暢性において他のモデルよりも劣ることがわかる.一方で,このモデルにおいて頑健性の向上が期待される異表記のスコアに注目すると,同量のデータで学習した3モデル中では最小の$-3.90$,$-26.47$ポイント(BLEU,正解率)となった.スコアが大きく改善した一因には,表音文字への統一により表現力が低下したことに起因する正規化後の正解率低下も考えられるものの,原文入力時の10\%に迫る改善は従来の自動評価では見いだせない解決策を切り拓く可能性の一例であると言える.これに対して\textsc{Cat}モデルは,原文入力時の異表記の正解率について大幅な向上を達成しながら,同時にBLEUスコアの低下も抑えている点で\textsc{Pron}モデルの流暢性の問題を克服したモデルであると言える.正解率は全モデル中最大の28.34\%を示し,\textsc{Large}モデルからは15\%以上の飛躍が見られた(表\ref{tab:acc_in-house_seed_extended}).また,口語表現に注目すると,BLEUスコアでは\textsc{Large}モデルから大幅な向上は見られないものの,正規化の適用により翻訳できる表現の割合に違いが生じていることがわかる.これは,\ref{subsec:methodology}節で述べたように口語表現と異表記における階層性に起因すると考えられ,同様に\textsc{Cat}モデルの異表記に対する頑健性を支持していると言える.このような改善が見られた理由としては,ひらがな化から生じる予期しない分割に対する適応可能性の向上があげられる.日本語では多くの高頻度の機能語は数文字のひらがなから構成される.そのため,ひらがな化された表現は単一の語としてではなく,より高頻度の機能語を生成するように分割されてしまう場合がある\shortcite{sasano:2013:ijcnlp}.発音に転写したコーパスの混合により,意図しない機能語を含む難しい系列からも正しい出力を行うように強いることで,共起関係がよりうまく捉えられたと考えられる.この結果から,UGCを取り扱う際には起こりうる言語の変化に対してその特性などからの考察を行う事が重要であることが窺える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{商用システム}驚くべきことに,広く商用に利用される機械翻訳システムをもってしても,我々の異表記データセットに対する評価の結果からは改善の余地が見られることがわかった(表\ref{tab:res_off-the-shelf}).結果から,双方のシステムで原文入力時に比べ正解率で約15\%,BLEUスコアについても最大2.3ポイントの大きな低下が確認された.つまり,我々がユーザとしてこれらのシステムを用いる上では,複数の表記を許容できる表現についても,より一般的な表記に置き換える一工夫で,得られる翻訳の質を大きく高めることができると言える.また,BLEUスコアにおいて優れているシステムは必ずしも正解率で勝ってはいなかった.例えば,名詞の省略に対するDeepL翻訳の正解率はGoogle翻訳に比べ2.0ポイント低かったものの,同一のデータセットにおいてBLEUスコアでは1.7ポイント高い値を示した.これは,2つのシステムが未知の表現に面した際の異なる挙動に由来すると考えられる.我々の実験では,DeepL翻訳が一般的でない表現を省略することで全体の翻訳を流暢に保つのに対し,Google翻訳はモデルの以後の出力に悪影響を及ぼすようなフレーズであっても何らかの出力を行う傾向が見られた.実用上は,あるシステムの適合率と再現率のどちらが重視されるべきかは応用先に依存する.現象毎の観点の提供に加え,適合率に基づくBLEUと再現率に基づく正解率の二面からの評価を行うことは,モデルの選択に大いに役立つと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{06table11.tex}\hangcaption{我々のデータセットにおけるBLEUスコアおよび正解率の測定結果(商用システム).*Orig.は原文,Norm.は正規化後の文に対するスコアを表す.\textsc{Robust}は式(\ref{eq:robust})による.}\label{tab:res_off-the-shelf}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定性評価}\label{sec:result_qualitative}本節では,モデルによって生成された出力が正規化の有無によりどのように変化したかを分析する.表\ref{tab:output_examples}は我々のモデルによる実際の出力の一例である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{06table12.tex}\caption{内製モデルによる実際の出力例.*\{正規化前/正規化後\}}\label{tab:output_examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表中の例(a)にはひらがなで記述された一般的でない表現「ぎゃくたい」が漢字(虐待)に置換された場合の出力の変化を示す.この例において,\textsc{Large}モデルでは原文を入力した際,誤ってwanttoというフレーズを出力してしまった.このような出力となった理由として,当該表現がBPEモデルによって4つのトークンに過度に分割されていたことがあげられる.特に,しばしば願望を表す助動詞として用いられる「たい」という分割の存在によりこのような誤訳が生じたと推測される.一方で,\textsc{Cat}モデルでは入力文は同一のBPEモデルで分割されているにも関わらず,ひらがなの入力に対しても正しい訳であるabuseを出力することができた.多くの場合,助動詞「たい」に先行する文字は「したい」や「食べたい」のように「い」または「え」の子音で構成される.発音ベースのコーパスを加えることにより,願望の意味で用いられない熟語中の「たい」などの負例が十分数出現したため,出力が改善したと考えられる.異表記は日本語のように多様な文字を用いる言語に特有な現象であるものの,類似の問題はアルファベットを用いる言語にも存在する.例えば(a)の例は,単語の一部が既存の他の単語に連想されることで生じた誤りであるが,誤植の一部では同様の問題が生じる.そのような場合に,その表現が誤りであることを文脈から正しく判断し,正確な翻訳を行う事は現在の翻訳システムにとって大きな課題である.次の例(b)は名詞の省略データセット中の例である.この例では,\textsc{Large}モデルは原文中の表現「サバゲー」を,誤って「サバ」と「ゲー」の二語の組みあわせとして翻訳している.一方で\textsc{Cat}モデルでは,同様に正しく翻訳することはできなかったものの,対象の表現をアルファベットへ転写することで対処した.この結果から,\textsc{Cat}モデルはサバとゲームが共起しにくいといった情報をよりうまく捉えているように思われる.また,データセット中には「生保」のようにある表現が文脈に応じて複数の表現の省略となりうる例\footnote{生命保険,または生活保護.}も存在した.こういった曖昧性に対してモデルをさらに頑健にするためには,単語や文内に限らずより広い文脈を考慮することが求められていると言える.最後に(c)の例では,文中の「平昌」という固有名詞を\textsc{Small}モデルは扱うことができなかったのに対し,\textsc{Large}モデルは正しく翻訳することができた.これは,訓練データを新たに加えたことでテストデータ中に既知の固有名詞が増加したことに由来すると考えられるが,我々は訓練データの規模の増大が固有名詞に対するモデルの頑健性を説明する理由として必ずしも十分ではないと考えている.その理由として,固有名詞にはある時期を境とした出現頻度の変化が生じやすいことがあげられる.例えば,「平昌」という表現を例にあげると,これは同所でオリンピックが開催された2018年前後の記事を含むコーパスでは出現数が大幅に増加することが見込まれる.\textsc{Small}モデルの訓練に使用されたコーパスは2018年以前に作成されたものであることから,当該表現の相対的な出現数の少なさが翻訳を困難にしたと考えられる.我々は,日々新たに生まれる未知の固有名詞に対して真に頑健なシステムを評価するためには,評価データが訓練データよりも常に時系列的に新しくなるように分割を行うべきだと考える.しかし,現実的には入手可能ないかなる訓練データよりも新たなデータを作成することは不可能である.そのため,このような要因の存在を認識し留意した上で,我々のデータセットを用いた評価を固有名詞に対する一定の指針として用いることは有意だと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} \label{sec:discussion}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{WMTコンペティション参加システムの現象毎分析}現象毎データセットの潜在的な活用事例を探るため,我々はWMT2019にて行われた機械翻訳システムの頑健性に関するコンペティションに投稿されたシステム出力の現象毎分析を行った.コンペティションの公式サイト\footnote{\url{http://matrix.statmt.org/matrix/systems_list/1917}}より,MTNTデータセットのブラインドセットにあたる部分について5つのシステムの出力をダウンロードした.その後,構築したデータセットよりブラインドセットに由来する部分を抽出し,評価の対象となる固有名詞136文,名詞の省略48文,口語表現21文と異表記11文を得た.システム出力には,それぞれの文に対し3名の翻訳者による人手評価で1(非常に悪い)--100(非常に良い)のスコアが付与されている\shortcite{li:2019:wmt}.我々は,3名のスコアの平均を翻訳文のスコアとし,各現象データセットに対して平均を取ることで,モデルのある現象に対する人手評価スコアを算出した.図\ref{fig:corr}には,各現象に対する人手評価スコアと翻訳正解率の相関を示す.図より,特に固有名詞と名詞の省略について人手評価と正解率の間にはピアソンの積率相関係数$r>0.9$の非常に強い正の相関があることがわかった.正解率という,文中の局所的な翻訳可能性に注目した指標が文全体の翻訳品質と高い相関を示したことは注目に値する.これは,人間が翻訳の良さを判断する上で特定の表現をより重点的に考慮する可能性を示唆している.ひとつの理由としては,人間にとって翻訳文中に固有名詞が含まれるかどうかの判断は容易であることがあげられる.こうした表現の訳抜けは,他の表現の訳抜けに比べて評価への影響が大きいと考えられる.一方で,今回比較したシステムは個々の性能差も大きいことから,相関が現象に関連する部分のみに起因すると帰結することは難しい.今後の方向性としては,類似の性能を示すモデルを用いて同様の検証を行うとともに,他の評価指標との相補的な利用を模索し,よりよい人手評価の近似について検討することが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{28-2ia6f6.pdf}\end{center}\hangcaption{WMTコンペティション投稿システム出力に対する人手評価スコアと翻訳正解率の相関.$r$はピアソンの積率相関係数を表す.}\label{fig:corr}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,日英機械翻訳システムの精緻な評価に向けた第一歩として,ユーザ生成コンテンツに着目した言語現象毎評価データセットを提案した.具体的には,固有名詞,名詞の省略,口語表現,異表記の4つの現象に対するモデルの頑健性について評価・分析を行った.分析の結果,広く商用に利用される翻訳システムを含む多くのモデルが,異表記を含む入力に対して不安定であることがわかった.これは,現在の主流であるモデルや訓練データの大規模化が異表記のような特異な入力に対する頑健性の十分条件ではなく,異文化・多言語交流を促進する翻訳システムの構築に向けては特別な工夫を要することを示唆している.また,過去に開催されたコンペティションにおけるシステムの人手評価スコアを用いて,現象毎に人手評価と翻訳正解率の相関関係を調査した.実験の結果,特に固有名詞と名詞の省略について両者の間に非常に強い正の相関が見られたことから,従来の適合率に基づく評価に加えて,我々の評価を用いることで人手評価をよりよく近似する可能性を確認した.我々は,機械翻訳システムのさらなる発展のため構築したデータセットを公開している\footnote{\url{https://github.com/cl-tohoku/PheMT}}.我々のデータセットが,より実用的な機械翻訳システムの構築に向けて,機械翻訳コミュニティを一歩前進させるための先駆けとなることを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の内容の一部は,The28thInternationalConferenceonComputationalLinguistics(COLING2020)で発表されたものです\shortcite{fujii:2020:coling}.また,本研究の一部はJSPS科研費JP19H04162,JP20J21694の支援を受けて行いました.本論文の執筆にあたり,有益なコメントを頂きました査読者,担当編集委員の皆様に感謝申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{藤井諒}{2019年東北大学工学部電気情報物理工学科を卒業,同年より東北大学情報科学研究科博士前期課程に在籍中(2021年3月修了予定).多言語処理に関心があり主に機械翻訳に関する研究に従事している.}\bioauthor{三田雅人}{理化学研究所革新知能統合研究センター自然言語理解チームテクニカルスタッフ.2016年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.日本マイクロソフト株式会社のエンジニアを経て,2018年より現職.同年,東北大学情報科学研究科博士後期課程に進学.文法誤り訂正を中心とした自然言語処理による言語学習/教育支援に関心がある.言語処理学会,ACL各会員.}\bioauthor{阿部香央莉}{2020年東北大学大学院情報科学研究科博士前期課程修了.現在,東北大学情報科学研究科博士課程取得に向け研究を進めている.2020年度日本学術振興会DC1採択.多言語処理を伴う機械翻訳や言語類型学的観点からの言語処理分析に関心がある.言語処理学会,ACL各会員.}\bioauthor{塙一晃}{理化学研究所革新知能統合研究センター自然言語理解チームテクニカルスタッフ.2019年東北大学大学院情報科学研究科博士前期課程修了.同年より現職.2020年東北大学大学院情報科学研究科博士後期課程に進学.主に自然言語処理に関する研究に従事.言語処理学会,ACL各会員.}\bioauthor{森下睦}{NTTコミュニケーション科学基礎研究所研究員.2017年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年より現職.主に機械翻訳,言語資源構築に関する研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{鈴木潤}{2001年から2018年まで日本電信電話株式会社コミュニケーション科学基礎研究所研究員(主任研究員/特別研究員).2005年奈良先端科学技術大学院情報科学研究科博士後期課程修了.現在,東北大学データ駆動科学・AI教育研究センター教授.}\bioauthor{乾健太郎}{東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.情報処理学会論文誌編集委員長,同会自然言語処理研究会主査,言語処理学会論文誌編集委員長等を歴任,2020年より言語処理学会副会長.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V31N03-04
\section{はじめに} 人間は,小説を読む際,そこに出てくるセリフが誰のセリフなのかを理解しながら読み進めることができる.これは,テキスト中に,話者を特定する手がかりが十分に与えられているからである.代表的な手がかりとして,次のものがある.\begin{enumerate}\itemセリフの前後の地の文において,『Aは言った』のような形式で,話者が明記される\item連続するセリフでは,話者が交替する(話者交替)\itemセリフの口調や発話内容から,話者が特定できる\end{enumerate}これらの手がかりのうち,どの手がかりが多く与えられるかは,個々の小説によって異なる.たとえば,英語の小説\textit{PrideandPrejudice}では,前後の地の文で話者が明記されるセリフが,全体の約25\%を占めると報告されており\cite{He},コンピュータによる話者の自動推定の研究でも,話者の明記や話者交替を主な手がかりとして利用する方法が主流である\cite{He,Muzny}.一方,日本語のライトノベル\cite{Ohmori2004,Ishii2022}では,話者が明記されるセリフは比較的少ない.さらに,話者候補が明記されていても話者を特定できない場合もある.次の例におけるセリフ$U_3$と$U_4$が,その一例である\footnote{$N_i$は地の文を,$U_j$はセリフを表す.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{screen}$N_1$:そう即答したステフに。\\$N_2$:しかし兄妹は、対照的にうつむく。\\$U_3$:「……いい、な……」\\$U_4$:「……ああ、そう言い切れるのは、ホントに羨ましいよ」\\$N_5$:だが------兄は静かな声で、しかし問答無用に。\\$N_6$:ステファニー・ドーラの、その希望を切り捨てる。\\$U_7$:「だがその願いは叶わない」\\\rightline{『ノーゲーム・ノーライフ』\cite{ノーゲーム・ノーライフ}pp.~143--144より}\end{screen}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この例のセリフ$U_3$と$U_4$は,兄妹のいずれかのセリフであることが文$N_2$から推測できる.しかし,どちらが兄で,どちらが妹のセリフであるかは,周辺の地の文だけからでは判定できない.この2つのセリフの話者を推定する主要な手がかりは,セリフの口調にある.読者は,この場面に至るまでに,兄妹がそれぞれどのような口調を使うかを無意識に学習しており,それに基づいてセリフの話者を同定する.ライトノベルではこのようなセリフが多いため,ライトノベルを対象とした話者の自動推定では,セリフの口調に基づいて話者を推定することが必要になると考えられる.なお,本研究では,口調を,セリフの表記に現れるスタイル的特徴を包括する概念と定義する.すなわち,口調とは文末表現などの特定の要素を指し示すものではなく,文末表現や一人称,語彙,セリフの長さなど多様な特徴の複合体と捉える.与えられたセリフの話者を推定する方法としてすぐに思い付くのが,話者をクラスとして,セリフを話者クラスに分類する分類器を実現する方法である.しかし,登場人物は個々の小説で異なるため,このような分類器の学習には,対象小説の登場人物のセリフを集め,それに話者ラベルを付与した学習データが必要となる.話者の明記などの手がかりを用いて話者が確定するセリフを自動収集することは可能であるが,分類器の学習に十分な量の学習データを集めるのは難しい.そこで本研究では,多くの小説に横断的に見られる口調に着目し,セリフと話者を直接結びつけるのではなく,口調を介してセリフと話者を結びつける方法を採用する.具体的には,対象小説以外の小説のセリフデータを利用して,セリフを口調の特徴を埋め込んだベクトルに変換する\textbf{口調エンコーダ}を実現する.そして,口調エンコーダによってもたらされるベクトル(口調ベクトル)を用いて,少量のラベル付きセリフデータから話者を推定する方法を実現する.本研究の目的は,このような,口調を手がかりに利用した話者推定システムを実現し,日本語のライトノベルの話者推定に対する口調の有効性を確かめることである.話者の自動推定とは,セリフに対する話者ラベルの自動付与を意味する.つまり,話者の自動推定が実現できれば,各セリフに話者ラベルを付与した小説テキストデータの作成が容易となる.このようなテキストは,発話の理解や小説の理解を目指す研究のための基礎資料となる.同時に,特定のキャラクターを模した対話システム\cite{なりきりAI,なりきりAI2,なりきり対話}の実現のために必要な,対象のキャラクターのセリフの収集を容易にする.本論文の貢献は次の通りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\itemセリフの口調をベクトル化する方法として,文エンコーダと分類器を組み合わせた口調エンコーダの基本構成を提案した.さらに,口調エンコーダの実装として80種類の構成を検討し,どのような構成が優れているかを実験的に明らかにした.\item口調ベクトルを利用した話者推定法として,\textbf{口調に基づく話者同定}を提案した.この手法では,セリフ実例から話者の口調を表すベクトル(代表口調ベクトル)を算出し,話者を同定したいセリフの口調ベクトルと各話者候補の代表口調ベクトルの距離に基づき,話者を同定する.この手法が必要とするセリフ実例の数は,各話者に対して10件程度であり,大量のセリフ実例を必要としない点に特徴がある.さらに,口調に基づく話者同定では,あらかじめ話者候補を絞り込んでおくことが効果的であることを確かめた.\item日本語のライトノベルを対象とした話者推定システムとして,口調に基づく話者同定の前段に,話者候補生成モジュールを配置したシステムを提案した.このシステムでは,前段のモジュールで話者が確定したセリフを代表口調ベクトルの算出に使用するため,あらかじめセリフ実例を準備する必要がない.\item上記の話者推定システムを5つの作品に実際に適用し,口調エンコーダで生成した口調ベクトルが,話者推定に活用できることを実験的に明らかにした.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{口調に関する研究}本論文における「口調」と関連する用語として,金水が定義した「役割語」\cite{役割語}や,メイナードが定義した「キャラ語」\cite{キャラ語}がある.前者の役割語は,話者の特定の人物像を想起させる特定の言葉遣いを指し,主にセリフの語尾に現れる特定の語彙に着目している.本論文の「口調」は,役割語よりも広い範囲の現象をカバーする.後者のキャラ語は,「あるキャラクターに限って一貫して使われるカラフルな話のスタイル」と定義されており,「キャラ語にはコミュニケーションのありとあらゆるレベルの操作が含まれる」と説明されている.本論文の「口調」は,概念としては,このキャラ語にほぼ対応する.自然言語処理の分野では,口調に関する研究として,日本語のキャラクターのセリフを分析し,どのような言語特徴がキャラクターを特徴付けるかを分析した研究\cite{miyazaki-towards}がある.この研究は,セリフにおけるキャラクターらしさが単一の言語特徴によってもたらされるのではなく,語彙や機能語,文末表現,構文の複雑さなど複数の言語特徴から構成されることを示した.また,\citeA{otohenka}は,キャラクターを特徴付ける1つの要素として音変化(「ひどい」から「ひでえ」への変化等)を分析し,音変化のパターンを137種類に分類した.これらの研究は,セリフのキャラクターらしさは複数の要素から構成され,音変化のような1つの言語特徴のみに着目しても,かなり複雑な体系となっていることを示している.そのため単純なルールでセリフから口調を弁別することは困難であると予想される.口調のベクトル化に関連した研究として,\citeA{発話文表現文型辞書}がある.この研究は,発話意図ごとにその発話意図を表現する言語形式(表現文型)を整理し,話し方の特徴を表す6軸20要素のベクトルをそれぞれの表現文型に付与した.しかし,このベクトルは人手で付与されたベクトルであり,客観性に乏しい.ニューラルネットを用いて口調ベクトルの獲得を試みた研究には,本研究の前身\cite{口調ベクトル}以外に,\citeA{style_vec}や\citeA{銭本2023}がある.前者の\citeA{style_vec}では,CBOW\cite{word2vec}をベースにした学習により,単語のスタイル表現をベクトル化した.そして実験の結果,「俺」のベクトルが「おまえ」のベクトルに近くなるなど,単語の意味ではなく単語のスタイルで埋め込み表現を作成できたことを示した.この研究は単語をベクトル化した研究だが,本研究はセリフ全体のベクトル化を試みるものである.後者の\citeA{銭本2023}は,本研究と同様,セリフ全体をベクトルに変換する手法を提案している.この研究では,2つのセリフの話者が同一であるデータ(正例)と異なるデータ(負例)からなる学習データに対して対照学習を適用し,口調の特徴を表すベクトルを獲得した.しかし,学習データの作成には,比較的単純なヒューリスティックを用いており,学習データに含まれる正例のうち,実際に口調が似ているセリフの割合はおよそ半数だったと報告している.また,得られたベクトルが具体的にどれだけ口調を弁別する能力を有しているかは,明らかにされていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{話者推定に関する研究}英語の小説では,セリフの直前直後に``repliedKitty''などの形で,発話動詞の主語として話者が明示的に示されることが多いため\cite{He},地の文が話者推定の重要な手がかりとなる.英語小説を対象とした話者推定の研究の代表的なものに,地の文および発話内から取得できる複数の明示的な手がかりを特徴量としたSVMを使った手法\cite{He}や,セリフやその前後の文が特定のパターンにマッチするかに基づいて推定を行う手法\cite{Muzny}がある.さらに,\citeA{sea}は,セリフとその周囲の文を入力とするニューラルネットを用いることで,明示的な手がかりだけでなく文脈を考慮した話者推定を実現した.日本語小説を対象とした話者推定の研究には,青空文庫を対象とした研究\cite{du}や,BCCWJ発話者アノテーションデータ\cite{BCCWJ}を対象とした研究\cite{zenimoto_BCCWJ}が存在する.しかし,これらの手法は表層的な手がかりのみを利用しており,十分な推定精度は得られていない.ニューラルネットを用いてセリフの話者を推定することを試みた研究\cite{fundamental}もあるが,あらかじめ定めた話者集合に対して学習した分類器を話者推定に用いており,未知の話者のセリフには対応していない.話者推定に口調を利用する研究は,本研究の前身\cite{口調ベクトル,話者推定}以外にも,\citeA{zenimoto_gender}が存在するが,これはセリフから話者の性別分類を行ったものであり,同性間での推定や3人以上候補がいる状況での話者推定は行えない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{本研究のアプローチ} label{本研究のアプローチ}話者推定問題は,与えられたセリフの話者を推定する問題である.候補となる話者の集合があらかじめ与えられる場合は,セリフに話者ラベルを付与する多クラス分類問題となる.本研究でも,推定すべき話者の集合は,あらかじめ与えられるものとする.話者推定問題を分類問題として解くのであれば,セリフと話者の組からなる訓練例を大量に用意し,機械学習によって話者分類器を構成するという方法が,すぐに思いつく.しかしながら,この方法は現実的ではない.なぜなら,それぞれの小説において,登場人物の集合は異なるからである.もし,話者を推定したい小説に対してそのような訓練例が大量に準備できるのであれば,話者推定問題はほとんど解けてしまっていることになる.もちろん,まったく実例がない設定では,登場人物のセリフの特徴を知る術がない.そのため,最小限の実例は不可欠である.実際の小説では,地の文にセリフの話者が明記される場合があり,これを利用すれば,少量の実例を取得することは可能である.しかしながら,このような方法で自動収集可能な実例は,各登場人物に対して高々数十件程度であり,このような少量の実例だけから話者のセリフの特徴を十分に把握することは難しい.そのため,なんらかの工夫が必要である.本研究では,多くの小説に横断的に見られる口調に着目し,推定対象以外の小説のセリフを利用して,任意のセリフを,その口調の特徴を埋め込んだベクトルに変換する機構(\textbf{口調エンコーダ})を実現する.口調エンコーダが実現できれば,以下の方法で話者推定が可能となる.\begin{quote}\textbf{口調に基づく話者同定法}\begin{enumerate}\item代表口調ベクトルの算出\\それぞれの人物に対して少数のセリフ実例を用意し,それぞれのセリフ実例を口調ベクトルに変換する.これらの口調ベクトルの平均を,その人物の口調を表すベクトル(代表口調ベクトル)とみなす.\item話者の推定\\話者を推定したいセリフを口調ベクトルに変換し,それぞれの人物の代表口調ベクトルとの距離\footnote{どのような距離を用いてもよいが,本研究ではユークリッド距離を用いた.コサイン類似度を用いることも検討したが,ユークリッド距離を用いた方が人物間の差がはっきりと出たため,本研究ではユークリッド距離を採用した.}を計算し,距離が最小であった人物を,そのセリフの話者であると推定する.\end{enumerate}\end{quote}この方法では,次の2つのことを仮定している.\begin{enumerate}\item同一作品中の主要登場人物は,それぞれ異なる口調で話す\item各人物は,作品を通して一貫した口調で話す\end{enumerate}日本語のライトノベルでは,登場人物毎に異なる口調(話し方のスタイル)を用い,その口調によってセリフの話者を暗示させる「セリフの書き分け」という技法がしばしば用いられる.このような小説では,前者の仮定(1)はおおよそ成立する.一方,後者の仮定(2)は,登場人物が状況や対話相手に応じて口調を使い分ける場合には,成立しない.上記の方法にはこのような限界があるが,まずは,上記のような単純な方法で,話者推定に口調が利用できるかどうかを確かめる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{口調エンコーダの実現} label{口調のベクトル化}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{口調エンコーダの構成と実装}\label{口調エンコーダの構成}セリフを口調ベクトルに変換する方法として,図\ref{図:モデル構成}に示す基本構成を採用する.この図に示すように,口調エンコーダを,(1)文の埋め込み(ベクトル)を作成する文エンコーダと,(2)その出力(CLSトークンに対応する埋め込み)を入力とする3層の分類器から構成する.後者の分類器の役割は,文の埋め込みを,より口調の特徴が陽に現れるようなベクトルに変換することである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}\begin{center}\includegraphics{31-3ia3f1.pdf}\end{center}\caption{口調エンコーダの基本構成}\label{図:モデル構成}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この口調エンコーダの実装には,多くの選択肢がある.それらのうち,本研究では表\ref{表:口調エンコーダ}に示す5つのポイントに対し,合計で80($=2\times2\times2\times2\times5$)種類の組み合わせを考え,どのような構成が優れているのかを実験的に明らかにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[tbp]\input{03table01.tex}\caption{口調エンコーダの実装における選択肢}\label{表:口調エンコーダ}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.1\subsubsection{文エンコーダとして何を用いるか}文エンコーダとして,BERTとLUKEの2つの選択肢を検討する.BERT\cite{bert}は,代表的な文エンコーダである.本研究では事前学習済みモデルとして,東北大学乾研究室が作成したbert-base-japanese-whole-word-masking\footnote{\url{https://huggingface.co/tohoku-nlp/bert-base-japanese-whole-word-masking}}を使用する.BERTから得られる文埋め込みの次元数$d_i$は768次元である.LUKE\cite{luke}はエンティティの学習に特化した文エンコーダで,日本語の事前学習済みモデルが多くのタスクで高い性能を示すことが報告されている.本研究では,株式会社StudioOusiaが作成したluke-japanese-large-lite\footnote{\url{https://huggingface.co/studio-ousia/luke-japanese-large-lite}}を事前学習済みモデルとして使用する.LUKEから得られる文埋め込みの次元数$d_i$は,1024次元である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.2\subsubsection{文エンコーダの追加学習を行うか}\label{エンコーダの追加学習を行うか}文エンコーダとして用いるBERTとLUKEは,どちらも日本語Wikipediaで事前学習されている.しかし,口調エンコーダの入力は小説のセリフであり,通常の書き言葉のテキストとは文体が大きく異なるテキストである.そこで,小説のセリフの実例を用いて,文エンコーダの追加学習を行うことを検討する.学習データにはBCCWJ小説会話文\cite{BCCWJ}の146,096セリフを用い,単語マスキングによる穴埋めタスクで追加学習を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.3\subsubsection{どんな分類器を採用するか}分類器の役割は,文の埋め込みを,より口調の特徴が陽に現れるようなベクトルに変換することである.このような変換を実現する分類器として,口調タイプ分類器と話者分類器の2つの選択肢を検討する.\textbf{口調タイプ分類器}は,分類クラスとして口調タイプを用いる分類器である.ここで,口調タイプとは,たとえば「男性で乱暴な口調」,「女性で敬語」など,あらかじめ定めた口調のプロトタイプを意味する.この分類器は,口調の特徴を直接的に学習することを意図している.その実現には,口調タイプの集合を設計し,セリフとその口調タイプが組になった学習データが必要となる.一方,\textbf{話者分類器}は,分類クラスとして話者を用いる分類器である.口調が,セリフから話者を推定するための重要な手がかりになるのであれば,話者分類器でも口調の特徴を間接的に学習できると考えられる.この分類器の実現には,セリフとその話者が組となった学習データを準備すればよく,口調タイプの設計が不要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.4\subsubsection{どの層を口調ベクトルとして採用するか}口調ベクトルとして採用する層として,分類器の中間層,および,出力層の2つの選択肢を検討する.中間層のベクトルには,口調タイプ(あるいは話者)を分類するための有用な特徴が埋め込まれていることが期待できる.出力層のベクトルを用いる場合は,口調を,あらかじめ設定した口調タイプ(あるいは話者)の混合として捉えることに相当する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.5\subsubsection{中間層の次元数をいくつに設定するか}中間層の次元数は,分類器の種類によらず自由に設定できる.ここでは,中間層の次元数として[16,32,64,128,256]の5種類の選択肢を検討する.中間層を口調ベクトルとして採用する場合,口調ベクトルの次元数は,この中間層の次元数と同じになる.一方,出力層を口調ベクトルとして採用する場合は,出力層の次元数(あらかじめ設定した口調タイプ数あるいは話者数)で固定になる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{データ作成}\label{データ作成}口調エンコーダの学習用データの作成には,次の7作品の小説を利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item[a.]有川浩『図書館戦争』,『図書館危機』\cite{図書館戦争,図書館危機}\item[b.]武田綾乃『響け!ユーフォニアム』1・3巻\cite{響けユーフォニアム1,響けユーフォニアム3}\item[c.]佐島勤『魔法科高校の劣等生』1巻\cite{魔法科高校の劣等生}\item[d.]川原礫『ソードアート・オンライン』1巻\cite{ソードアートオンライン}\item[e.]三浦しをん『舟を編む』\cite{舟を編む}\item[f.]三浦しをん『風が強く吹いている』\cite{風が強く吹いている}\item[g.]西尾維新『化物語』上・下巻\cite{化物語上,化物語下}\end{itemize}これらの小説から,次の手順で口調タイプ分類器および話者分類器の学習用データを作成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item上記の小説の書籍媒体をOCRで読み込み,セリフのみを抽出したのち,誤字脱字を修正してデータ化した.\item各セリフに人手で話者の付与を行った.ただし,この過程で話者が判定不能なセリフ(少量)は「話者不明」とした.なお,これらのセリフデータは,小説会話文の発話意図分析\cite{発話DB}のための基礎データとして作成されたものである.\itemこれらの小説の主要な登場人物50人を定め,それぞれの人物ごとにセリフを収集した.ただし,セリフが短すぎる場合,話者の口調が反映されていないことも多いため,10文字未満のセリフは除外した.総セリフ数は16,705セリフ,総文字数は480,999文字である.このように作成した話者付きのセリフデータを,話者分類器の学習用データとした.\item50人の登場人物を第一著者が10種類の口調タイプに分類した.各セリフを登場人物を介して口調タイプと結びつけ,これを口調タイプ分類器の学習用データとした.\end{enumerate}表\ref{表:口調タイプ}に,学習に使用した登場人物50人と口調タイプの対応を示す.この表のa--gは,上記の作品に付与した記号に対応する.また,付録\ref{各口調タイプのセリフ例}の表\ref{表:各口調タイプのセリフ例}に,各口調タイプのセリフ例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{landscape}\begin{table}[t]\input{03table02.tex}\caption{学習用データにおける話者と口調タイプの対応}\label{表:口調タイプ}\end{table}\end{landscape}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,ここでの口調タイプは,口調タイプ分類器の学習を可能にするために,本研究を実施する時点で利用可能だったセリフデータを10グループに分類しただけであり,ライトノベルの口調がこれら10種類のタイプに分類できるということを主張するものではない.それぞれの登場人物の口調は,いずれかの口調タイプに属するというよりは,口調に関連する各種の特徴が混合されたものと考えるのが妥当であり,口調をベクトルとしてモデル化する意図はそこにある.さらに付け加えると,今回作成した学習データは,理想的な学習データには程遠い.第一に,本来は,それぞれのセリフに口調タイプを付与するべきであるが,コスト的に実施不可能であったため,登場人物に口調タイプを割り当てた.そのため,それぞれの口調タイプのデータには,異なる口調のセリフも含まれている.第二に,利用可能なセリフデータを使用したため,口調タイプのバランスが取れていない.具体的には,「男性-優しい」というタイプは存在するが,それに対応する「女性-優しい」というタイプは存在しない.第三に,約1.6万件というセリフ数は,分類器の学習データとしては比較的小規模である.以上のように,今回作成した学習データには,大きな改善余地がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3\subsection{実験}\label{口調エンコーダ:実験}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3.1\subsubsection{口調エンコーダの学習}\ref{口調エンコーダの構成}節で述べた80種類の構成を実装し,口調タイプ分類(10クラス分類),もしくは話者分類(50クラス分類)を行うように学習した.なお,表\ref{表:学習条件}に示す設定で,分類器の重みと文エンコーダの重みを同時に学習した.学習には,\ref{データ作成}節で述べたデータを使うが,このうち90\%を口調エンコーダのパラメータ更新に用い(学習データ),残りの10\%を検証データとする.また,1エポックごとに検証データで損失を計算し,これが下がらなくなるまで学習を続けた\footnote{学習に要したエポック数は,2から7(平均3.6)であった.ただし,LUKEと話者分類器を組み合わせた構成を除く.これらの構成は学習が不安定であり,損失が下がらなかった.}.学習は,それぞれの組み合わせに対して,シード値を変えて5回行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[b]\input{03table03.tex}\caption{口調エンコーダの学習条件}\label{表:学習条件}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3.2\subsubsection{評価方法}\label{評価方法}本研究における口調のベクトル化の目的は,話者推定に口調を利用することである.そのため,性能評価には,話者同定タスクを用いる.話者同定の方法には\ref{本研究のアプローチ}章で述べた\textbf{口調に基づく話者同定法}を用いるが,代表口調ベクトルの算出において用いるセリフ実例は,推定対象のセリフ数と同程度用意した\footnote{各話者の口調を十分に捉えられないことを避けるため,このような設定にした.\ref{セリフ実例数と推定精度}節で話者同定に必要なセリフ実例数を調査したが,その結果,ここで使ったセリフ実例数は十分な値だったことが示された.}.具体的には,以下の設定で話者同定を行う.\begin{itemize}\item使用する小説\\同一シリーズの作品である,『氷菓』\cite{氷菓}および『愚者のエンドロール』\cite{愚者のエンドロール}を使用する.『氷菓』のセリフを代表ベクトル算出のための実例の収集に用い,『愚者のエンドロール』のセリフを話者同定の対象セリフとする\footnote{書籍媒体をOCRで読み込み,誤字脱字の修正を行ったのち,セリフに対する話者のアノテーションを人手で行うことでデータを作成した.}.\item話者候補\\シリーズに共通する主要人物4名を,セリフの話者候補とする.\item使用するセリフ\\主要人物のセリフで,かつ,10文字以上のセリフを,セリフ実例,および,話者同定対象セリフとして使用する.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[b]\input{03table04.tex}\caption{主要人物の情報}\label{表:古典部}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{表:古典部}に,本実験で使用する主要人物とそのセリフ数,および,学習データ(表\ref{表:口調タイプ})で設定した口調タイプの中で,該当すると考えられる口調タイプを示す.ただし,人物Dの口調は,設定した10種類の口調タイプには該当するものがない.この人物の口調にタイプラベルを付与するとすれば,「女性-優しい」となろう.口調タイプの前に示しているIDは,表\ref{表:口調タイプ}の口調タイプのIDに対応する.話者推定の評価指標にはmacro-F1(シード値が異なる5つのモデルのmacro-F1の平均値)を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3.3\subsubsection{結果}\label{口調エンコーダ:結果}実験結果を図\ref{図:結果:口調エンコーダの構成}に示す.ただし,図2aは,文エンコーダとしてLUKEを用いた構成の結果を,図2bは,文エンコーダとしてBERTを用いた構成の結果を,それぞれ示している.これらの図におけるBERT+やLUKE+の「+」は,「追加学習あり」を意味する.なお,LUKEと話者分類器を組み合わせた口調エンコーダの構成(20種類)は,いずれも学習が不安定であり,評価指標も著しく低かったため,実験結果からは除外した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[b]{\vskip-5pt}\begin{center}\includegraphics{31-3ia3f2.pdf}\end{center}%\includegraphics[width=12cm]{figure/whole_result.png}\caption{各構成の口調エンコーダ対する話者推定の結果}\label{図:結果:口調エンコーダの構成}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%評価指標が最も高かった構成は,以下の構成である.\begin{itemize}\item文エンコーダ:LUKE\item文エンコーダの追加学習:なし\item分類器:口調タイプ分類器\item口調ベクトルとして採用する層:中間層\item中間層の次元数:64次元\end{itemize}さらに,図\ref{図:結果:口調エンコーダの構成}では,次のことが観察される.\begin{itemize}\item文エンコーダ\\ほとんどの場合でLUKEの方がBERTよりも評価指標が高い.これは,LUKEの方がBERTより文エンコーダとして優れていることを示唆する.\item文エンコーダの追加学習\\BERTでは追加学習の効果が見られるが,LUKEでは効果が見られない.この点については,\ref{未知の口調に対する追加学習の効果}節で検討する.\item分類器\\ほとんどの場合で口調タイプ分類器の方が話者分類器よりも評価指標が高い.これは,口調の特徴を直接的に学習する方が,話者の分類を介して間接的に学習するよりも効果的であることを示唆する.\item口調ベクトルとして採用する層\\口調タイプ分類器では,中間層の次元数が同一(64次元)の場合,中間層を採用した方が若干評価指標が高い.一方,話者分類器で出力層を口調ベクトルとして採用した場合は,評価指標はかなり低い値となる.これは,口調を50人の話者の混合として捉えることが難しいことを示唆する.\item中間層の次元数\\口調タイプ分類器においては,ほとんどの場合で64次元が最も評価指標が高い.\end{itemize}なお,付録\ref{各モデルの評価結果}の表\ref{表:各モデルにおける話者推定の結果}に,全構成の5つのシード値に対する結果を示す.以降の実験では,特に断らない限り,評価指標が最も高かった構成(LUKE/口調タイプ分類器/中間層/64次元)を口調エンコーダとして使用する\footnote{口調エンコーダのパラメータは,シード値を変えて実験を行って得られたモデルの内,最も高いmacro-F1(67.0\%)を示したモデルのパラメータを使用する.}.セリフを口調ベクトルに変換する際には,この学習された口調エンコーダにセリフを入力し,そのときの中間層の値を口調ベクトルとして出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.4\subsection{口調ベクトルを用いたセリフ間の距離}本節では,簡単な実験で,口調ベクトル間の距離が,口調の類似性を反映しているかどうかを確認する.具体的には,2つの動詞と6種類の文末表現を組み合わせた12種類のセリフを用い,各セリフの組に対して,口調ベクトル間のユークリッド距離を算出する.その結果を表\ref{表:ユークリッド距離}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[t]\input{03table05.tex}\caption{口調ベクトル間の距離の例}\label{表:ユークリッド距離}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,セリフ1~4と,5~8,9~12は,それぞれ同じような口調を使っているセリフである.この表に示すように,対角線ブロックに含まれる距離の値は,他のブロックの値よりも小さい.一部に直感に合わない値も散見されるが\footnote{セリフ11の「行こうよ」というセリフが,セリフ5~8に近いと判定されるなど,一部は直感に合わない結果となっている.},おおむね,我々の直感に合った大小関係を示している.これらの結果から,口調ベクトルにはセリフの口調の特徴が埋め込まれており,口調ベクトル間の距離に基づいて,2つのセリフの口調が似ているかどうかを判定できる可能性を示唆する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{口調ベクトルの話者弁別性能} \label{口調ベクトルの話者弁別性能}本節では,口調ベクトルの話者弁別性能を調査する.まず,話者ごとの推定結果を観察することで,口調ベクトルを使った話者同定の特徴を確かめる.次に,セリフ実例数と推定精度の関係,および,話者候補数と推定精度の関係を調査する.なお,特に断らない限り,実験設定は\ref{評価方法}節と同様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{話者ごとの同定結果の分析}\ref{口調エンコーダ:結果}節では,話者全体に対する結果(macro-F1)を示した.ここでは,それぞれの話者に対する同定結果を表\ref{表:口調ベクトルを用いた話者推定の結果の詳細}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[t]\input{03table06.tex}\caption{口調ベクトルを用いた話者推定の結果の詳細}\label{表:口調ベクトルを用いた話者推定の結果の詳細}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この表に示すように,それぞれの話者のF1の値は,63\%から70\%をとる.その一方,recallやprecisionの値は,F1よりもばらついている.話者Bは必ず敬語を使う話者であり,他の話者は限られた状況でしか敬語を使わない.この4人の話者内において,話者Bの口調の際立った特徴は「敬語の使用」であり,実際の推定結果を観察しても,敬語を含むセリフのほとんどは,実際の話者に関わらず,話者Bのセリフと推定されている.話者Bのrecallが高く(88\%),precisionは低い(57\%)のは,このような理由によるものと考えられる.話者Cは,男性ではあるが優しい話し方をする話者である.話者Cのセリフは,話者Aや話者Dに誤判定される場合が比較的多く(それぞれ38件と26件),これがrecallを押し下げている(55\%).その一方で,その逆のケース,すなわち,話者Aのセリフや話者Dのセリフが話者Cと誤判定されることは少ない(それぞれ13件と5件).そのため,precisionの値が高くなっている(83\%).このように,話者Xのセリフが話者Yと誤判定される数と,話者Yのセリフが話者Xと誤判定される数に大きな乖離がある場合がある.この乖離の原因には,いくつかの要因が考えられが,そのひとつに,複数の口調の使い分けの有無がある.普段は敬語を使わない話者Aが敬語を使った場合,そのセリフは話者Bと誤判定されやすいが,話者Bは敬語を使わないことがないため,話者Bのセリフが話者Aと誤判定されことはほとんどない.これが誤判定の数の乖離を生む.考えられるもうひとつの要因は,他の話者の口調との類似性と特徴の強度である.話者C(「男性-優しい」)のセリフは,男性口調の特徴が強いと話者Aに誤判定されやすく,優しい口調の特徴が強いと話者Dと誤判定されやすいと考えられる.その一方で,話者Dのセリフは,男性である話者Aや話者Cに誤判定されことが少ない.これは,話者Dのセリフが,女性口調の特徴をより強く持つためではないかと考えられる.表\ref{表:誤推定例}に,推定に成功したセリフと推定に失敗したセリフの実例を示す.推定に成功したセリフは,それぞれの話者が常用する口調と同じ口調のセリフが多い.これに対し,推定を誤ったセリフには,その話者が常用する口調とは別の口調が使われているものが多い.例えば,セリフ例9の正解話者はAだが,この話者は乱暴な口調を使うことが多いのにも関わらず,セリフ例9では敬語を使っており,敬語を常用する話者Bと誤推定されている.このように,直感的に納得できる誤りが多かったが,中には不可解な事例も少数ながら存在した.例えば,セリフ例14は男性的な口調が用いられているセリフだが,推定先として女性の話者Dが選ばれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{03table07.tex}\caption{推定を誤ったセリフ例}\label{表:誤推定例}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{セリフ実例数と推定精度}\label{セリフ実例数と推定精度}口調に基づく話者同定では,代表口調ベクトルの計算に,その話者のセリフの実例が一定数必要である.本節では,セリフ実例数と推定精度の関係を調べる.セリフ実例数を$n$とする場合の推定精度を以下の方法で求める.\begin{quote}各話者のセリフの中から$n$個のセリフをランダムに選び,これをセリフ実例として代表口調ベクトルを計算する.この代表口調ベクトルを用いて,口調に基づく話者同定を行う.1つの$n$の値につき上記の手続きを5回実行し,macro-F1の平均を$n$に対する評価指標とする.\end{quote}その結果を図\ref{図:セリフ実例数}に示す.この図に示すように,$n=10$までは評価指標は大きく向上するが,それより$n$を大きくしても,評価指標の向上はほとんどみられない.この結果より,各話者に対して10件程度のセリフを用意すれば十分であることが示唆される.10件程度のセリフであれば,日本語のライトノベルであっても,小説テキストから地の文の手がかりを用いて収集可能と考えられる.このような収集方法と組み合わせれば,事前に各話者のセリフ実例を用意することなく,口調に基づく話者同定が適用可能となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[t]\begin{center}\includegraphics{31-3ia3f3.pdf}\end{center}\caption{セリフ実例数とmacro-F1の関係}\label{図:セリフ実例数}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.3\subsection{話者候補数と推定精度}\label{話者候補数と推定精度}一般に,クラス分類は,対象となるクラス数が少なければ分類が容易になり,推定精度が向上する.そこで本節では,対象となる話者のクラス数(話者候補数)と推定精度の関係を調べる.話者候補数を$k$とする場合の推定精度を以下の方法で求める.\begin{quote}各セリフの話者候補を,そのセリフの真の話者に,その他の主要人物のランダムな$(k-1)$人を加えた$k$人として話者推定を行う.それ以外の設定は\ref{評価方法}節と同様である.これを,1~4の$k$の値に対して行い,$k=1,4$の場合はmacro-F1を$k$に対する評価指標とする\footnote{$k=1$は話者候補を真の話者のみにすることに相当し,$k=4$は話者候補を主要人物全員とすることに相当するため,ランダム性は存在しない.}.$k=2,3$の場合は,上記の手続きを5回実行し,得られたmacro-F1の平均を$k$に対する評価指標とする.\end{quote}結果を図\ref{図:話者候補数}に示す.候補が4人のときは評価指標は67.0\%だったが,3人に減らすと72.5\%,2人に減らすと80.7\%にまで向上した.この結果より,話者候補数を限定すれば評価指標が向上することが確かめられた.したがって,口調に基づく話者同定を適用する際には,可能な限り話者候補を限定することが望ましい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[t]\begin{center}\includegraphics{31-3ia3f4.pdf}\end{center}\caption{話者候補数とmacro-F1の関係}\label{図:話者候補数}{\vskip-5pt}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,本実験では話者候補が1人から4人の状況を考えたが,実際の小説においても4人を超える話者が同時に会話に参加することはほとんどない.会議など,参加者が多数存在する特殊な状況もあるが,その場合は話者が明記されていることが多い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{複数の手がかりを利用した話者推定} \label{複数の手がかりを利用した話者推定}本章では,話者候補生成と口調に基づく話者同定を組み合わせた新しい話者推定法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1\subsection{問題設定}話者推定問題の理想的な問題設定は,小説テキストを与えれば,そこに含まれるすべてのセリフに話者を付与したテキストを出力するという問題設定である.これを実現するためには,セリフの話者の自動推定以外に,小説の登場人物の自動検出が必要となる.しかしながら,登場人物の自動検出の実現は,それほど容易ではない\footnote{ライトノベルでは,一般的ではない人名が使われる場合もある.このような人名の自動検出は,一般的な固有表現抽出器を使うだけでは難しい.さらに,抽出した複数の人名表現(姓や名)が同一人物を指すかどうかを判定する処理も必要となる.}.本研究の主目的は,セリフの話者の自動推定であり,かつ,自動推定に話者の口調が利用できることを確かめることである.そこで,登場人物の自動検出は切り離し,登場人物のリストはあらかじめ与えられるものとする.もうひとつの検討事項は,すべての登場人物のセリフを対象とするかという点である.一般に,小説は,複数人の主要登場人物を中心に展開され,セリフの多くもこれらの人物のセリフである.さらに,主要登場人物のみがセリフの口調の書き分けの対象となることが多く,出現数の少ない人物は口調が書き分けられないことが多い.そこで,ここでは話者推定の対象セリフを,主要登場人物のセリフに限定することとする.以上を踏まえ,次のような問題設定を採用する.\begin{itemize}\item与えられるもの\begin{enumerate}\item小説本文のテキストデータ.ただし,\ref{小説テキストの構造化}節で述べるような構造化がなされ,話者を推定すべきセリフが明示化されているものとする.\item主要人物のリスト.それぞれの人物に対して,人物ID,および,その人物の人名表現(姓,名,フルネーム)が与えられるものとする.\item小説の視点.一人称小説か,三人称小説かの区別.\item一人称小説の場合,どの人物IDの一人称視点で書かれており,その人物が地の文で自分を表すのにどんな一人称表現を用いているか.\end{enumerate}\item推定すべきもの\begin{enumerate}\itemそれぞれの推定対象セリフに対して,その話者である人物ID.\end{enumerate}\end{itemize}以降の説明では,「人物」と「人名表現」を使い分ける.「人物」はID,「人名表現」は表記を意味するものとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2\subsection{システムの構成}話者推定システムの構成を図\ref{図:全体像}に示す.この図に示すように,本システムは\textbf{話者候補生成}と\textbf{口調に基づく話者同定}の2つのモジュールから構成される.前者の話者候補生成では,それぞれのセリフに対して,話者候補となる人物のリスト(話者候補リスト)を決定する.ここで,話者候補が1名となったセリフは,その時点で話者を確定させる.後者の口調に基づく話者同定では,話者が確定したセリフを用いて各人物の代表口調ベクトルを計算し,話者が確定していないセリフの話者を推定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F5\begin{figure}\begin{center}\includegraphics{31-3ia3f5.pdf}\end{center}\caption{話者推定システムの全体像}\label{図:全体像}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3\subsection{小説テキストの構造化}\label{小説テキストの構造化}話者推定システムに入力するテキストは,以下の方法であらかじめ構造化する.\begin{enumerate}\item章または節への分割\\小説中に明示的な章や節の区切りが存在する場合,これらの区切りでテキストを分割する.なお,空行は必ずしも節の区切りとは限らないので,分割しない.\itemブロックへの分割\\その後,テキストを改行コードで分割する.分割した単位をブロックと呼ぶ.ブロックの先頭と末尾が引用符(『「』および『」』)である場合,それをセリフと認定する.それ以外のブロックを地の文の段落と認定する.\item段落の文への分割\\以下に示す5種類の区切り記号を用いて,段落を文に分割する.\begin{quotation}[\。,\?,\!,\!!,\!?\]\end{quotation}\item形態素・構文解析\\セリフ,および,文を,MeCab(IPAdic)(京都大学情報学研究科―日本電信電話株式会社コミュニケーション科学基礎研究所)\nocite{MeCab}とCaboCha\cite{cabocha}を用いて形態素・構文解析する.\end{enumerate}なお,実験に用いるテキストでは,各セリフに正解話者をあらかじめ人手で付与しておき,システムに入力する際には,人手で付与した正解話者をマスクするとともに,どのセリフが話者推定の対象セリフであるかを明示化する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4\subsection{話者候補生成}\label{話者候補推定}話者候補生成では,各セリフに対してそのセリフの話者候補を決定する.話者候補生成の概要を図\ref{図:話者候補推定}に示す.この図に示すように,話者候補生成は5つのステップから構成される.なお,「話者交替に基づく候補限定」と「一人称に基づく候補限定」は,全セリフの話者候補が変わらなくなるまで交互に繰り返す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F6\begin{figure}\begin{center}\includegraphics{31-3ia3f6.pdf}\end{center}\caption{話者候補生成}\label{図:話者候補推定}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.1\subsubsection{周辺文脈からの候補抽出}各セリフに対して,その周囲に現れる人名表現を集めることで,話者候補リストを作成する.以下にその手順を示す.\begin{enumerate}\item対象のセリフの$N_b$文前から$N_a$文後までを候補抽出範囲とする.ただし,候補抽出範囲内にセリフが含まれる場合,そのセリフを候補抽出範囲には含めるが,$N$のカウントはしない.なお,候補抽出範囲は,章や節の単位を超えないこととする.\item候補抽出範囲に主要人物リストに含まれる人名表現(姓,名,またはフルネーム)が出現した場合,その人名表現の人物を話者候補リストに含める.ただし,対象とする小説が一人称小説の場合,一人称視点の人物は必ず話者候補リストに含める.\end{enumerate}$N_b$と$N_a$の値は,『氷菓』および『愚者のエンドロール』を用いた予備実験により,$N_b=10,N_a=3$と定めた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.2\subsubsection{話者明記に基づく話者同定}\label{話者明記に基づく話者推定}セリフの前後の文に人名表現が発話動詞の主語として出現する場合に,セリフの話者を確定させる.具体的には,以下に示す4つのパターンを用い,セリフの前後がこれらのいずれかのパターンと一致した場合に,そのセリフの話者を確定させる.\begin{description}\item[パターン1]\mbox{}\\\begin{tabular}{l@{:}l}$N_{-1}$&(任意の地の文)\\$U_0$&(推定対象のセリフ)\\$N_1$&と$\cdots$$A$$\cdots$(発話動詞$V$)$\cdots$\end{tabular}\item[パターン2]\mbox{}\\\begin{tabular}{l@{:}l}$N_{-1}$&$\cdotsA\cdots$\\$U_0$&(推定対象のセリフ)\\$N_1$&と$\cdots$(発話動詞$V$)$\cdots$\end{tabular}\item[パターン3]\mbox{}\\\begin{tabular}{l@{:}l}$N_{-2}$&(任意の地の文)\\$N_{-1}$&$\cdotsA\cdots$(発話動詞$V$)$\cdots$\\$U_0$&(推定対象のセリフ)\end{tabular}\item[パターン4]\mbox{}\\\begin{tabular}{l@{:}l}$U_0$&(推定対象のセリフ)\\$N_1$&$\cdotsA\cdots$(発話動詞$V$)$\cdots$\\$N_2$&(任意の地の文)\end{tabular}\end{description}ここで,$N_i$は地の文,$U_0$は推定対象セリフを表す.$A$は,主要人物リストに含まれる人名表現を表す.ただし,一人称小説の場合は,一人称視点の人物の一人称表現も$A$として認める.発話動詞$V$は,「言う・答える」などの発話を示唆する動詞\footnote{発話動詞は,国立国語研究所の「分類語彙表増補改訂版データベース(ver.1.0)」\cite{分類語彙表}から940語を収集した.}である.上記のパターンには明記していないが,$A$を含む文節の係り先文節に発話動詞$V$が存在すること,および,発話動詞$V$の直後に否定を表す助動詞が存在しないことも,条件とする.なお,4つのパターンは上から順に照合する.たとえば,次の例の場合,パターン3により$U_0$の話者は一人称視点の人物となる.\begin{screen}\begin{tabular}{l@{:}l}$N_{-2}$&いかにも心外だ。\\$N_{-1}$&俺は抗議した。\\$U_0$&「俺が灰色だって?」\\\end{tabular}\\\rightline{『氷菓』\cite{氷菓}p.7より}\end{screen}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.3\subsubsection{発話内人名に基づく候補限定}セリフ内に人名が出現した場合,自己紹介など特殊な状況を除けば,その人物は話者とはならない.この手がかりを次のように実装する.\begin{quote}対象のセリフの中に人名表現が出現する場合,対応する人物を話者候補から除外する.\end{quote}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.4\subsubsection{話者交替に基づく候補限定}\label{話者交替に基づく候補限定}小説でセリフが連続する場合,話者は交替する.この手がかりを次のように実装する.\begin{quote}あるセリフの話者が人物$S$で確定しており,かつ,その直前または直後がセリフだった場合,それらのセリフの話者候補から$S$を除外する.これにより新たに話者が確定したセリフが得られた場合は,そのセリフに対してもこの手続きを適用する.\end{quote}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.5\subsubsection{一人称に基づく候補限定}\label{一人称に基づく候補限定}各人物は,小説を通して一貫した一人称表現を用いるのが普通である\footnote{特定の聞き手や状況によっては普段と異なる一人称表現を使う場合もある.この場合,正解話者を話者候補から除外してしまうことになる.}.この手がかりを次のように実装する.\begin{enumerate}\itemその時点までに話者が確定したセリフから,一人称表現を収集し,出現回数が最も多かった一人称表現を,その人物が用いる一人称表現とする\footnote{一人称表現がひとつも得られない場合は,不定とする.}.なお,ステップ4と5の繰り返し処理で,二度目以降にこの処理を行う場合は,その時点でまだ一人称表現が決定していない人物のみを対象とする.\itemセリフ中に一人称表現$X$が含まれる場合,そのセリフの話者候補から,$X$以外の一人称表現を使う人物を除外する.\end{enumerate}表\ref{表:一人称}に,一人称表現として認定する語の一覧を示す\footnote{一般的に小説で使われることが多いと思われる一人称表現を採用した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[t]\input{03table08.tex}\caption{一人称表現として認定する語}\label{表:一人称}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.5\subsection{口調に基づく話者同定}\label{口調ベクトルを利用した話者推定}3章で示した\textbf{口調に基づく話者同定法}を用いて,話者が確定していないセリフの話者を決定する.まず,話者が確定しているセリフを用いて,各話者の代表口調ベクトルを求める.次に,話者を決定したいセリフの口調ベクトルと,そのセリフの各話者候補の代表口調ベクトルとの距離を計算し,最も距離が小さい話者候補をそのセリフの話者とする.ただし,地の文を挟まずにセリフが連続する場合,話者交替の条件をみたす必要がある.これを実現するために,セリフが連続する場合には,一連のセリフに対するすべての可能な話者の割当てに対して代表口調ベクトルと口調ベクトルの距離の和を取り,これが最小となる話者の割当てを採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7 \section{話者推定の実験} \label{話者推定の実験}本章では,\ref{複数の手がかりを利用した話者推定}章のシステムを用いた話者推定の実験について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.1\subsection{推定対象小説}本実験では,次の5つの作品を使用する\footnote{書籍媒体をOCRで読み込み,誤字脱字の修正を行ったのち,セリフに対する話者のアノテーションを人手で行うことでデータを作成した.}.\begin{enumerate}\item「古典部シリーズ」(『氷菓』と『愚者のエンドロール』を繋げて扱う)\item『ノーゲーム・ノーライフ』\cite{ノーゲーム・ノーライフ}\item『涼宮ハルヒの憂鬱』\cite{涼宮ハルヒの憂鬱}\item『かがみの孤城』\cite{かがみの孤城}\item『謎解きはディナーのあとで』\cite{謎解きはディナーのあとで}\end{enumerate}これらの5作品のうち,「古典部シリーズ」は,\ref{口調エンコーダ:実験}節で口調エンコーダの評価に使用したが,それ以外の小説は口調エンコーダの学習,評価のいずれにも使用していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[t]\input{03table09.tex}\footnotesize*は一人称視点の人物を表す.\caption{各作品の主要人物}\label{表:主要人物}{\vskip5pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{表:主要人物}に,これらの作品の主要人物とそのセリフ数,および,口調タイプを示す.なお,口調タイプは,学習用データに該当する口調タイプがあれば,その口調タイプとIDを示し,該当するタイプがない場合は,その口調の特徴を表すラベルを示している.表\ref{表:主要人物}に示すように,「古典部シリーズ」,『ノーゲーム・ノーライフ』,『涼宮ハルヒの憂鬱』の3作品では,主要人物の口調タイプはすべて異なる.これに対して,『かがみの孤城』では女性2人の口調が「女性-普通」に,男性3人の口調が「男性-普通」に該当し,これらの人物が使用する口調間に大きな差はみられない.また,『謎解きはディナーのあとで』では,人物A(宝生麗子)は「女性-敬語」と「女性-てよだわ言葉」に該当する2種類の口調を,人物C(風祭)は「男性-敬語」と「男性-軽薄」に該当する2種類の口調を状況や対話相手に応じて使い分けている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.2\subsection{ベースライン手法}口調に基づく話者同定と比較するベースライン手法として,次の2つの手法を設定する.\begin{itemize}\itemFrequent法\\それぞれの話者$s$に対して,話者候補生成により確定したセリフ数$K_s$を求める.話者が未確定のセリフの話者を,そのセリフの話者候補のうち,$K_s$の値が最も大きい人物とする.\itemNearest法\\話者が未確定のセリフの話者を,そのセリフの話者候補のうち,人名が文字単位で最もセリフの近くに出現する人物とする.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[b]\input{03table10.tex}\caption{話者推定の結果}\label{表:推定結果}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.3\subsection{話者推定結果}\label{話者推定結果}話者推定の実験結果を表\ref{表:推定結果}に示す.この表では,各作品に対して以下の値を示した.\begin{itemize}\item作品固有の値\begin{itemize}\item主要人物数\item小説の視点(一人称人物または三人称)\itemセリフ数\item内,話者近接数:セリフの話者の人名表現がセリフの直前直後の文で出現するセリフ数,および,その割合(発話動詞の主語となっていることを条件としない)\item話者候補生成の結果\item話者確定数:話者が確定したセリフ数,および,セリフ全体に対するその割合\item正解率:話者が確定したセリフの正解率\item話者未確定数:話者が確定しなかったセリフ数,および,セリフ全体に対するその割合\item平均候補数:話者が確定しなかったセリフの,平均話者候補数\item正解含有率:話者が確定しなかったセリフの,話者候補の中に正解話者が含まれている割合\end{itemize}\item話者未確定セリフに対する話者同定の結果\begin{itemize}\itemFrequent法,Nearest法,提案手法:それぞれの手法の,話者が未確定のセリフに対する推定結果(macro-F1/micro-F1)\item各話者のF1:口調に基づく話者同定の,各話者のF1\end{itemize}\item話者推定システム全体の結果\begin{itemize}\itemFrequent法,Nearest法,提案手法:それぞれの手法の,全セリフに対する推定結果(macro-F1/micro-F1)\end{itemize}\end{itemize}まず,話者未確定セリフに対する話者同定の結果に注目する.「古典部シリーズ」,『ノーゲーム・ノーライフ』,『謎解きはディナーのあとで』の3作品において,提案手法(口調に基づく話者同定)は,macro-F1とmicro-F1\footnote{micro-F1は,全セリフのうち,話者を正しく同定した割合(精度)を表す.}の両方の指標において,ベースラインを上回った.『涼宮ハルヒの憂鬱』は,macro-F1ではNearest法より若干劣るが\footnote{人物CとEのF1が極端に低いことがmacro-F1の値を押し下げている.},micro-F1はNearest法を上回っている.実際,口調に基づく話者同定は,話者候補が複数の場合に適用するので,チャンスレベルは50\%以下である.すなわち,micro-F1の値が0.5を超えていれば,口調エンコーダによって作られた口調ベクトルは,話者の判別に役立っているといえる.これに対して,『かがみの孤城』では,提案手法は,macro-F1とmicro-F1の両方でNearst法を下回った.この理由は,この作品に固有な性質によると考えられる.本論文の冒頭で述べたように,セリフの話者を特定する手がかりとして,どのような種類の手がかりが多用されるかは,個々の作品によって異なる.『かがみの孤城』は,セリフの話者の人名表現がセリフの前後の文に出現する割合(話者近接数の割合)が5作品中一番高く(62.2\%),さらに,主要人物数が8名であるにも関わらず,話者候補生成で話者が特定できたセリフの割合が高い(29.7\%).これは,口調以外の特徴でセリフの話者を同定できる割合が高いことを意味する.このような作品では一般に,セリフの口調を書き分ける必然性に乏しい.実際,話者Hを除けば,話者間にはっきりした口調の違いはなかった\footnote{推定結果においても,話者H以外は,表\ref{表:主要人物}に示した口調タイプに関わらず様々な話者が推定先に選ばれていた.}.このような場合,口調に基づく話者同定の有効性は低い.ただし,micro-F1の値は46.5\%であり,チャンスレベル\footnote{平均話者候補数は3人を超えているため,チャンスレベルは1/3以下である.}を上回っているため,話者の判別にまったく効果がない訳ではない.次に,話者候補生成の結果に注目する.話者候補生成では,次のことが望ましい.\begin{enumerate}\item話者が確定したセリフ数(絶対数)とその割合が高い方が望ましい.\item話者が確定しなかったセリフに対しては,平均話者候補数が少なく,正解含有率が高い方が望ましい.\end{enumerate}どの作品においても,話者が確定したセリフ数は150件以上得られており,最低限のセリフ実例数(各話者10件程度)はおおよそ確保されている\footnote{『ノーゲーム・ノーライフ』の人物Bの確定セリフ数は22件(正解含有率54\%),人物Dの確定セリフ数は6件(正解含有率17\%)であった.このように,人物によっては十分な確定セリフ数が得られていないものもあった.}.一方,正解率は,90\%に満たないものが3作品ある.セリフ実例の品質は代表口調ベクトルの品質を左右するため,正解率が高いことが望ましいが,本実験結果より,必ずしも100\%でなくても,口調に基づく話者同定は機能することがわかる.話者が確定しなかったセリフの平均話者候補数は,2.15人から3.31人である.一人称小説では,一人称視点の人物を必ず候補に含めるため,平均話者候補数は比較的大きな値となる.一方,正解含有率は87.6\%から97.1\%である.正解含有率は,口調に基づく話者同定の精度(micro-F1)の上限を与えるため,この値も90\%以上が望ましい.話者候補から正解話者が除外される原因を,付録\ref{話者候補生成におけるエラー}の表\ref{表:話者候補生成におけるエラー}に示す.話者候補生成で,確実性の高い手がかりのみを使えば,上記の正解率・正解含有率を高くすることができる.その一方で,話者確定セリフ数は少なくなり,話者不確定セリフの平均候補数も多くなる.話者候補生成では,このトレードオフをうまくバランスさせる必要がある.最後に,話者推定全体の結果に注目する.『かがみの孤城』を除く4作品では,提案手法は,macro-F1およびmicro-F1において,ベースライン手法を上回った.これらの結果より,ライトノベルの話者推定において,口調に基づく話者同定を利用した提案手法は,有力な手法のひとつとなりうる.しかしながら,全体の精度(micro-F1)は70\%から80\%程度であり,さらなる精度向上が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.4\subsection{文エンコーダに対する追加学習の効果}\label{未知の口調に対する追加学習の効果}先の実験で用いた小説には,口調エンコーダ(口調タイプ分類器)の学習で設定した10種類の口調タイプ以外の口調を用いる人物が含まれる.文エンコーダの追加学習で利用したBCCWJ小説会話文のセリフデータには,10種類の口調タイプ以外に分類される口調も数多く含まれている.\ref{口調エンコーダ:結果}節で述べたように,文エンコーダとしてLUKEを用いた場合には,追加学習の効果は得られず,BERTを用いた場合のみ追加学習の効果が得られた.ここでは,この点をさらに追求する.具体的には,以下に示す追加実験を行う.\begin{enumerate}\item『謎解きはディナーのあとで』を用いて,10種類の口調タイプに含まれない「男性-執事口調」の人物BのF1を調べる.\item以下に示す4種類の口調エンコーダを比較する\footnote{口調エンコーダのパラメータには,シード値を変えて実験を行った中で最も高いmacro-F1を示したものを用いる.}.\begin{enumerate}\itemBERT(BERT/口調タイプ分類器/中間層/64次元)\itemBERT+(BERT+/口調タイプ分類器/中間層/64次元)\itemLUKE(LUKE/口調タイプ分類器/中間層/64次元)(\ref{話者推定結果}節で用いた構成)\itemLUKE+(LUKE+/口調タイプ分類器/中間層/64次元)\end{enumerate}\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[b]\input{03table11.tex}\caption{『謎解きはディナーのあとで』を対象とした各口調エンコーダでの推定結果}\label{表:未知の口調}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%追加実験の結果を表\ref{表:未知の口調}に示す.ここで示した数値は,口調に基づく話者同定の対象となる,話者未確定セリフ497件に対する結果である.この表に示すように,文エンコーダとしてBERTを用いた場合,追加学習により「男性-執事口調」を用いる話者BのF1は大きく向上している.一方LUKEを用いた場合は,追加学習により若干悪化した.BERTで追加学習を行わなかった場合のF1は,かなり悪い.これは,BERTが未知の口調の特徴をうまく捕えていないことを示唆する.BERTにおいて追加学習を行った場合のF1の向上は,追加学習において,より多くのセリフを「見る」ことによって,より多くの口調の特徴を文埋め込みに埋め込むことが可能となり,その結果,口調の特徴をより反映した口調ベクトルが作成できるようになったと解釈できる.一方,LUKEを文エンコーダとして用いた場合は,追加学習なしでもある程度の推定精度が得られている.これは,文エンコーダとしてLUKEがBERTより優れていることを示唆する.追加学習の効果がなかった理由は不明であるが,LUKEは,BERTより多くのパラメータを内在する\footnote{BERT-baseのパラメータ数は110Mだが,LUKE-large-liteのパラメータ数は414Mである.}ため,新しい口調を学ぶためにより多くの学習データを必要とするのかもしれない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8 \section{おわりに} 本論文では,小説のセリフを,そのセリフの口調の特徴を埋め込んだ口調ベクトルに変換する口調エンコーダ,および,口調ベクトルを用いた話者同定手法を提案するとともに,この方法を組み込んだ小説の話者推定システムを提案した.これら一連の提案により,小説の話者の自動推定にセリフの口調が活用できることを明らかにした.口調エンコーダは,文エンコーダと分類器を組み合わせて実現する.その実装として80種類の構成を検討し,文エンコーダLUKEと64次元の中間層を持つ口調タイプ分類器を組み合わせ,64次元の中間層の値を口調ベクトルとして採用する構成が,最も優れていることを実験的に明らかにした.口調に基づく話者同定手法は,セリフ実例から話者の口調を表すベクトル(代表口調ベクトル)を算出し,話者を同定したいセリフの口調ベクトルと各話者候補の代表口調ベクトルの距離に基づき,話者を同定する.この手法が必要とするセリフ実例の数は,各話者に対して10件程度であり,大量のセリフ実例を必要としない点に特徴がある.この手法は,多クラス分類問題として話者同定タスクを解くため,話者候補数を限定したほうが高い精度が得られる.日本語のライトノベルを対象とした話者推定システムは,口調に基づく話者同定の前段に,話者候補生成モジュールを配置したシステムである.このシステムでは,前段のモジュールで話者が確定したセリフを代表口調ベクトルの算出に使用するため,あらかじめセリフ実例を準備する必要がない.本システムを用いて5つの作品に対して話者推定実験を行ったところ,4つの作品でベースラインを上回る結果が得られた.ベースラインを下回った1つの作品は,セリフの話者を特定させるために,口調以外のより明示的な手がかりを多用している作品であった.今回実現した話者推定システムを,小説テキストに対する話者アノテーション支援ツールとして利用することを想定した場合,以下の点を解決する必要がある.\begin{itemize}\item多様な作品に対応するため,より多くの手がかりを活用できるシステムに拡張する必要がある.\item本システムは,主要人物のセリフのみを推定対象としているが,その他の人物のセリフも対象に含める必要がある.\end{itemize}特に,2つ目の課題の解決は重要である.現在のシステムは,話者推定の対象セリフ(主要人物のセリフ)が事前に判明しているという設定を採用しているが,この設定は現実的ではない.実用的なツールにするためには,少なくとも主要人物以外の人物のセリフに対して,「主要人物以外」と判定する機能の実現が不可欠である.本論文で提案した口調エンコーダは,任意のセリフを口調ベクトルに変換することができる.これにより,任意の2つのセリフの口調の類似性を判定することができる.この類似性判定能力は,セリフの話者推定以外にも,多くの活用法がある.たとえば,複数のセリフ候補の中から,キャラクターの代表口調ベクトルに類似するセリフを選択することにより,キャラクターらしいセリフの生成が可能になる.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP21H03497の助成を受けたものです.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\input{03ishikawa.bbl.tex}%%%%\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage\appendix \section{各口調タイプのセリフ例} \label{各口調タイプのセリフ例}各口調タイプのセリフ例を表\ref{表:各口調タイプのセリフ例}に示す.これらのうち,口調タイプ分類器の学習で使用したのは,ID付きの10種類の口調である. \section{口調エンコーダの評価結果の詳細} \label{各モデルの評価結果}\ref{評価方法}節で述べた方法で,口調エンコーダの評価を行った結果を表\ref{表:各モデルにおける話者推定の結果}に示す.結果1~5には,各構成の口調エンコーダに対し,シード値を5種類に変えて学習を行った結果を昇順で示している.%また,平均にはこれらの平均を示している. \section{話者候補生成におけるエラー} \label{話者候補生成におけるエラー}表\ref{表:話者候補生成におけるエラー}に話者候補生成において,正解話者が話者候補から除外される原因を示す.なお,エラー例において,エラーが起きたセリフを太字で示し,エラーの原因となった箇所に下線を引いている.また,本実験の対象作品では見られなかったが,作品によっては一人称に自分の名前を使う人物も存在する.の場合,「一人称に基づく候補限定」で正解話者が候補から除外されてしまう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table}[b]\input{03table12.tex}\caption{各口調タイプのセリフ例}\label{表:各口調タイプのセリフ例}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T13\begin{table}[t]\input{03table13a.tex}\end{table}\begin{table}[t]\input{03table13b.tex}\caption{各口調エンコーダの評価結果}\label{表:各モデルにおける話者推定の結果}\end{table}\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T14\begin{table}[t]\input{03table14.tex}\caption{話者候補生成におけるエラー}\label{表:話者候補生成におけるエラー}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石川和樹}{%2024年名古屋大学大学院工学研究科博士前期課程修了.同年,WED株式会社入社.言語処理学会会員.}\bioauthor{小川浩平}{%2010年公立はこだて未来大学博士後期課程修了.ATR知能ロボティクス研究所研究員,大阪大学基礎工学研究科助教及び講師を経て,2019年より名古屋大学大学院工学研究科准教授.博士(システム工学).情報処理学会,ヒューマンインタフェース学会,ACM各会員.}\bioauthor{佐藤理史}{%1988年京都大学大学院工学研究科博士後期課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.博士(工学).言語処理学会,人工知能学会,日本認知科学会,ACM各会員.}\end{biography}\biodate\end{document}
V27N04-08
\section{はじめに} 我々は文章を読解する際,単語や句,節,文などを単独の表現として読解するのではなく,周辺の表現との意味的なつながりを理解しながら読み進めている.このようなつながりを談話関係と呼び,談話関係を解析するタスクを談話関係解析と呼ぶ.具体例を示す.\ex.\label{ex:sample}\begin{enumerate}\renewcommand{\labelenumi}{(\roman{enumi})}\item恐ろしいほど雨が降っていたせいで,\item昨日は外出できなかった.\item一昨日の天気予報では降らないと言ってたんだけどなぁ.\end{enumerate}例\ref{ex:sample}の(i)と(ii)は「雨が降っていたのが原因で外出できなかった」という意味的なつながりを持つので,「(i)が原因,(ii)が結果」という談話関係を持つ.同様に,(i)と(iii)は「一昨日は降らないと言っていたのに,雨が降った」という意味的なつながりを持つので,逆接の談話関係を持つ.一方,(ii)と(iii)は(i)と(ii)や,(i)と(iii)のような強い意味的なつながりを持たないと解釈できる.談話関係解析は自然言語処理の基盤的な解析の一つであり,英語ではPennDiscourseTreeBank(PDTB)\cite{Prasad:LREC2008}やRSTDiscourseTreebank(RST-DT)\cite{Carlson2001}と呼ばれるコーパスを使って様々な研究が行われている.しかし,日本語では因果関係抽出など談話関係の一部を取り扱った研究\cite{takahashi:nlp2016}や形態素・構文・意味解析結果をもとに文書全体の談話関係を解析する研究\cite{umesawa:jnlp2001}はあるが,コーパスベースの談話関係解析の研究はほとんどない.本研究では日本語の談話関係解析を実用化するため,日本語の談話関係解析タスクを定義し,談話関係タグ付きコーパスを高速な手法で構築する.本研究ではPDTB2.0\cite{Prasad:LREC2008}を参考にして日本語の談話関係タグ付きコーパスを構築する.PDTBを参考にする理由は,RST-DTは文書全体の談話関係を1つの木構造で表現するためアノテーションが非常に困難であることと,隣接する談話単位間に談話関係タグを付与するPDTBの設計思想が世界的に広がっているからである.PDTBでは談話単位,談話標識,談話関係タグの3項目のアノテーションが実施されている.談話単位とは談話関係を付与する単位であり,PDTBでは談話単位ができる限り短くなるようにアノテーションされている.談話標識とは「なので」や「しかし」といった談話関係を直接示す表現を指す.談話標識を持つ談話関係(以降,明示的と呼ぶ)は談話標識が大きな手がかりとなるため解析精度は非常に高い一方,談話標識を持たない談話関係(以降,非明示的と呼ぶ)の解析は非常に難しいことが知られている\cite{sharedtask:conll2016}.前述の例\ref{ex:sample}では,(i)と(ii)の関係は「~せいで」という談話標識を持つので明示的な談話関係,(i)と(iii)の関係は談話標識を持たないので非明示的な談話関係に分類される.談話関係タグは談話単位間に存在する談話関係を表すタグであり,PDTB2.0は3階層,下位30種類からなる談話関係タグセットを定義している.PDTBは談話単位について具体的な認定基準を定めておらず,アノテータの判断で様々な長さのまとまりが談話単位としてアノテートされており,自動認識が容易ではない.近年は,大規模ラベルなしコーパスからの事前学習の有効性が認識されている\cite{BERT:NACCL2019}が,PDTBに基づく談話単位の自動認識の難しさは,大規模ラベルなしコーパスを効果的に活用する上で障害となっている.また,高度なテキスト理解の実現のためには,談話関係解析を述語項構造解析などの他の自然言語処理タスクと連携させることが有望な方策だが,談話単位の独自性が,やはりタスク間連携の妨げとなっている.また一部の談話関係タグの出現頻度が非常に低いため,これまでの研究では一部のタグが無視されている.本研究では,談話関係タグ付きコーパスを高速に構築する手法を提案する.本手法のポイントは以下の4点である.\begin{itemize}\itemWebページの冒頭3文を収集したコーパスにタグ付けを実施する.\itemルールベースの解析器を構築し,談話単位の自動認識を行う.\item談話標識を自動認識する高精度な解析器を整備する.\itemタグセットをPDTB2.0よりも簡潔な2階層,下位7種類とする.\end{itemize}談話関係タグのアノテーションは,熟練のアノテータによる小規模だが高品質なものとクラウドソーシングを用いた大規模なものの2種類を構築する.クラウドソーシングを用いた場合,安価かつ高速に大規模なアノテーションを行うことができるが,一般的に専門家に比べて品質が劣ると言われている.そこで,コーパスの品質向上を目指して,タスクを分割する,クラウドワーカーに言語テストを提示するなどの工夫を用いる.本研究では,500文書からなる高品質なコーパスと6,445文書からなる高速かつ大規模なコーパスが構築された.分析の結果,クラウドソーシングを用いた大規模コーパスは熟練のアノテータによるものに比べて低品質であることがわかった.これは,様々な工夫をしたものの談話関係タグ付けタスク本来の困難さが依然として残っていたことや,注意深く・真面目に取り組んでいるワーカーとそうでないワーカーの差が激しかったことが原因だと考えられる.そのため,タスクをさらなる分割や談話標識の自動認識の活用を通して,クラウドワーカーに提示するタスクをより簡潔にする必要がある.本研究で構築した談話関係解析タグ付きコーパスを用いて談話関係解析器を訓練する.実験の結果,クラウドソーシングのアノテーションはニューラルネットワークベースの談話関係解析器を学習する際に一定の効果があることが分かった.また,本研究で整備した談話標識の自動認識は明示的な談話関係のみに焦点を絞った解析とみなすことができる.そこで談話標識の自動認識について評価したところ,高精度であることが分かった.このことから,談話標識の自動認識は精度が高い談話関係解析結果のみを抽出して別のタスクに応用するという用途において利用可能だと考えられる.したがって,今回整備した自動認識は因果関係抽出\cite{takahashi:nlp2016}や言論マップ\cite{Murakami2009},商品レビューを整理する応用システム\cite{kiyomaru:nlp2020}など,談話関係解析を応用した研究に適用可能である.本研究は,日本語のコーパスベースの談話関係解析の研究はほとんどないという現状を打破するために行った研究である.そのため,タグセットの簡単化や短い文章を対象してアノテーションを行うなど,問題を限定して設計を行っている.現状の規模でも日本語のコーパスベースの談話関係解析の研究に貢献できると考えているが,さらなる発展のためにはコーパスの拡張が必要である.本研究で構築した日本語談話関係タグ付きコーパスを公開している\footnote{http://nlp.ist.i.kyoto-u.ac.jp/?日本語談話関係解析}.また,節と談話標識の自動認識ルールは日本語構文・格解析器KNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/?KNP}に実装されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{談話関係解析}談話関係解析は英語を筆頭に中国語,スペイン語,ドイツ語など様々な言語で研究されている.英語ではPennDiscourseTreebank\cite{Prasad:LREC2008}とRSTDiscouresTreebank\cite{Carlson2001}と呼ばれるコーパスが代表的である.PDTBは英語の新聞記事(2,159文書)を対象として,2つの談話単位間に談話関係タグを付与したコーパスである.RST-DTは英語の新聞記事(385文書)に対して,隣接する談話単位間に談話関係タグを付与している.PDTBとの違いは,談話単位を階層的に構造化することで,文書全体の談話関係を1つの木構造で表現している点である.本研究では,PDTBを参考に日本語の談話関係解析タスクを設計する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-4ia7f1.eps}\end{center}\caption{PDTB2.0における談話関係タグセット.\protect\cite{Prasad:cl2014}より引用.}\label{fig:pdtb}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%PDTB2.0\cite{Prasad:LREC2008}\footnote{2019年3月に公開されたPDTB3.0では談話関係タグセットが一部変更されている\cite{prasad:COLING2018}.}の談話関係タグセットは図\ref{fig:pdtb}に示すとおり,3階層,下位30種類のタグからなる.しかしPDTBのタグセットは非常に複雑であるため,``Reason''など何千回と出現するタグがある一方で``Relevance''など出現頻度が50回以下のタグが存在する不均衡コーパスとなっている.そのため,PDTBを用いた談話関係タグ分類の研究ではタスクを簡単化するために出現頻度が低いタグを除外した設定で行われる\cite{Pitler2009a,Lin:2009:EMNLP,sharedtask:conll2015}.英語以外の言語では,中国語の談話関係解析が近年研究されている.中国語にはPDTBを参考にして構築された談話関係タグ付きコーパス\cite{cdtb}があり,これを用いたsharedtaskが2016年に開催された\cite{sharedtask:conll2016}.その他にも,RSTで構築されたスペイン語\cite{rstdt_sp}やドイツ語コーパス\cite{rstdt_ge},6ヶ国語(英語,ドイツ語,ポーランド語,ポルトガル語,ロシア語,トルコ語)のTEDtalkのtranscriptsに対してPDTBの方式でアノテーションした多言語コーパス\cite{ZEYREK:lrec2018}が近年構築されている.日本語では,金子ら\cite{kaneko2014}の研究がある.金子らは,SDRT\cite{Asher2003}と呼ばれる談話関係理論を日本語に合わせて再構築した上で,時間関係と因果関係,談話関係をアノテーションした日本語評価データを構築した.しかし,金子らのコーパスはデータ規模が66文(196セグメント)と非常に小規模であり,機械学習に用いるのは困難である.本研究では,PDTBを参考に日本語の談話関係解析タスクを定義し,大規模なコーパスの構築ならびに談話関係解析器の構築を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングを用いたコーパス構築}クラウドソーシングとは,ネットを通じて不特定多数の人(以降,クラウドワーカーと呼ぶ)にタスクを発注する手法であり,多くの言語リソースの構築に利用されている\cite{D08-1027,squad}.Snowらは単語の類似度判定やRTEなど5つのアノテーションタスクを実施した.彼らはクラウドソーシングを用いることで,単語の類似度判定のアノテーションタスク300問が11分弱で完了したと報告している.Rajpurkarらは536記事107,785問からなる大規模な機械読解コーパスを構築した.その際,Wikipediaの記事をクラウドワーカーに提示し,その記事に関する問題文と正解のペアを作成させることで,コーパスの大規模化を実現している.これらの研究から,クラウドソーシングを用いると,安価でかつ高速に大規模なアノテーションを行うことができることが分かる.本研究では,談話関係タグ付きコーパスを構築する際にクラウドソーシングを用いることで,安価でかつ大規模なアノテーションを行う.クラウドソーシングを用いた場合の問題として,専門家に比べて品質が劣ると言われている.この問題に対し,複数のクラウドワーカーに同じタスクを解かせ,その結果を集約するという品質改善手法がよく知られているが,それ以外にもWhitehillら\cite{Whitehill2009}やGuillaumeら\cite{Bruno2016},Habernalら\cite{Argotario},Yangら\cite{yung:ACL2019}が品質向上の手法を提案している.Whitehillらは非常に質の悪いクラウドワーカーの意見を無視するため,重み付き多数決を用いた後処理手法を提案した.具体的には,クラウドソーシングで得られたアノテーション結果をもとに,クラウドワーカーの専門知識量やタスクの難易度などを推論することで,質の悪いクラウドワーカーを推定し,彼らの意見の重みを下げるという手法である.GuillaumeらやHabernalらはゲーミフィケーションを用いたアノテーションを提案している.ゲーミフィケーションとは,ゲームデザインなどの要素をゲーム以外の物事に応用することである.ゲーミフィケーションをクラウドソーシングを用いたアノテーションに取り入れる場合,クラウドワーカーが繰り返しゲームをプレイすることで,アノテーションに必要な知識を学習し,その結果アノテーションの質が向上することが期待される.このゲーミフィケーションを使用し,Guillaumeらは係り受け関係などの文構造のアノテーション\cite{Bruno2016}を,Habernalらは意見に対する賛否分類や根拠抽出\cite{Argotario}のタスクをゲーム形式で実施した.Yangらは談話標識を含まない2つの談話単位を提示し,談話単位間の談話関係のアノテーションを実施した.この際,クラウドワーカーに談話単位間に挿入できる談話標識を2度問うことで,アノテーションの品質向上を目指した.本研究では,クラウドソーシングのタスクを簡易化することで,品質の向上を試みる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{日本語における談話関係解析タスクの設計} \label{sec:define}日本語における談話関係解析タスクを設計するために,本節では談話単位と談話関係タグセットを定義する.この際,PDTBのように談話単位や談話関係タグセットの定義が複雑かつ難解だと,アノテーションに長い時間と莫大なコストがかかってしまう.そこで本研究では,談話単位と談話関係タグセットを簡単化,明瞭化する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{談話関係を付与する単位}\label{subsec:argument}本研究では述語項構造を中心とした連続する句\footnote{詳細は\ref{sec:clause}節で説明する.}の列を節と定義し,節を談話単位とする.なお,1つの節からなる文も節と呼ぶこととする.談話単位として節を採用した理由は,文を単位とすると談話関係と捉えるには粗すぎ,句を単位とすると逆に粒度が小さすぎるからである.また,節は連続する句の集合体と定義したため節間の境界は句の境界と一致する.これにより,具体的な認定基準が言及されていないPDTBの談話単位よりも明解であるだけでなく,ルールベースで節分割ができるような分かりやすい単位となっている.節の分割基準は以下の通りである.\begin{enumerate}\renewcommand{\labelenumi}{(\roman{enumi})}\item文末,主節,並列節の末尾を節の境界とする\item主節に対する従属度が低い従属節の末尾を節の境界とする\item主節に対する従属度が中程度で,かつ項を1つ以上持つ従属節の末尾を節の境界とする\item連体修飾節,補文節の末尾は節の境界としない\item括弧内の句は節の境界としない\end{enumerate}主節,並列節,従属節の定義は『基礎日本語文法』\cite{kisonihongo}に従う.従属度が低い従属節とは,主節とは独立した文法的要素を持つ従属節を指す.従属度が中程度の従属節とは,文法的要素の一部を主節に依存する従属節を指す.本研究では,従属度が中程度であっても,項を1つ以上持てば主節とは独立した文法的要素を持つと判断し,その末尾を節の境界とする.なお,従属節の分類は南の研究\cite{minami1993}と『現代日本語文法6』\cite{gendainihongo_6}を参考にした.具体例を示す.\ex.\label{split1}【泳ぐので】【入念に準備運動をする.】\ex.\label{split2}【友達と話していたら,】【約束の時間に遅れてしまった.】本稿中の例において,節を【…】で示す.また,前側に出現した節を\textbf{前節},後側の節を\textbf{後節}と呼ぶ.例\ref{split1}の前節は(ii)を,例\ref{split2}の前節は(iii)を満たすため,2節に分割している.対して,例\ref{split3}と例\ref{split4}は節の分割を行わない例である.\ex.\label{split3}【\underline{話していたら},約束の時間に遅れてしまった.】\ex.\label{split4}【\underline{ワンタッチでフタが開けられる}タンブラーを買った.】例\ref{split3}の下線部は(i)(ii)(iii)のいずれも満たしていないため,分割しない.例\ref{split4}の下線部は(iii)を満たすが,連体修飾節であるので(iv)を満たさない.よって節の分割をしない.日本語における談話関係解析タスクは,節ペアの談話関係タグを分類するタスクと定義する.なお,節ペアは隣接していなくても良いこととする.具体例を示す.\ex.\label{pair1}【センター試験の対策は過去問研究につきる.】特に数学はそうである.【センター数学は,他の入試とはあらゆる面で異なる特殊な試験である.】\ex.\label{pair2}【パーマがまだ残っているということで,】それを活かして【カットをしていただきました.】以降,2つの【…】によって談話関係解析の対象となる節ペアを表す.文を節に分割する際,係り受け関係を無視して分割している.そのため,談話単位として不十分な場合が生じる.具体例を示す.\ex.\label{clause_error1}【\underline{テーブルは}時間があれば】【こまめに拭いていらっしゃるようですが,】床は掃除していないのですね.例\ref{clause_error1}の場合,「テーブルは」は後節の「拭いていらっしゃる」に係っている.しかし節は連続する句の集合体と定義しているため,下線部は前節に含まれてしまう.このように,節が入れ子構造になっている場合の取り扱いは今後の課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{談話関係タグセット}PDTB2.0\cite{Prasad:LREC2008}の談話関係タグセットを参考に,日本語の談話関係タグセットを設計する.PDTB2.0は図\ref{fig:pdtb}に示すとおり,3階層,下位30種類のタグからなる.しかし,PDTBは何千回と出現するタグがある一方で出現頻度が50回以下のタグも存在する不均衡コーパスとなっている.そのため,現在行われている談話関係解析タスクではいくつかのタグを統合した設定や出現頻度が低いタグを除外した設定で行われる.具体的には,上位タグである``TEMPORAL''(時間),``CONTINGENCY''(関係可能性),``COMPARISON''(転換),``EXPANSION''(展開)に集約した4値分類\cite{Pitler2009a}や,中位タグのうち出現頻度が非常に低い``Condition''(条件)や``Exception''(例外)を学習データから除外した11値分類\cite{Lin:2009:EMNLP}が有名である.日本語の談話関係タグセットはPDTB2.0よりも簡単かつ明瞭なものを目指し,談話関係解析を応用したアプリケーションを想定した上で談話関係タグの取捨選択を行った.例えば,談話関係解析を応用したアプリケーションとして,賛否両論があるトピックに対する俯瞰的なマップを生成する言論マップ\cite{Murakami2009}やDisputeFinder\cite{Ennals2010}が挙げられる.これらのシステムでは,時間経過や詳細化,換言といった関係よりも,因果,根拠,比較などの比較的強い談話関係が重要となる.そこで,因果や根拠を示すPDTB2.0の``CONTINGENCY''タグや,比較を示すPDTB2.0の``COMPARISON''タグ,『論理トレーニング』\cite{Noya2006}を参考に,2階層,下位7種類からなるタグセットを設計した(表\ref{Table:Tagset}).表中の\textbf{上位タイプ}は上位のタグ3種類の総称,\textbf{下位タイプ}は下位のタグ7種類の総称である.``関係なしまたは弱い関係''(以降,``談話関係なし''と呼ぶ)は談話単位間に意味的なつながりがない場合だけでなく,詳細化や換言などの付加的な関係,時間関係も含まれる.各談話関係タグの詳細は付録\ref{sub:annotation_manual1}に掲載している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{談話関係タグセット}\label{Table:Tagset}\input{07table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%順接系および逆接系の下位タイプ``逆接''については,談話関係の方向が存在する.具体例を挙げる.\ex.\label{direction1}【ボタンを押したので,$_{原因・理由}$】【お湯が出た.】\ex.\label{direction2}【お湯が出た.】【ボタンを押したためだ.$_{原因・理由}$】例\ref{direction1}では,前節の「ボタンを押した」ことが原因で,後節の「お湯が出た.」という結果になったと解釈できる.このような前節が従,後節が主となる場合を\textbf{順方向}と呼ぶ.逆に,例\ref{direction2}では前節の「お湯が出た」理由を後節で述べている.このような前節が主,後節が従となる関係を\textbf{逆方向}と呼ぶ.以降,例\ref{direction1}・例\ref{direction2}のように,従属的な節の末尾に関係名を記載することによって談話関係と方向の両方を示す.すなわち,順方向の場合には前節の末尾に,逆方向の場合には後節の末尾に関係名を記載する.PDTBではbecauseやhoweverといった談話標識が含まれる場合と談話標識が含まれない場合の分類を行い,前者を明示的(Explicit),後者を非明示的(Implicit)と定義している.日本語の談話関係タグセットもPDTBを参考にし,「なので」や「しかし」といった談話標識を含む場合を明示的,談話標識を含まない場合を非明示的とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{談話関係タグの判断基準}\label{sub:annotation_manual2}節間の談話関係を定義する際,談話関係の判断が難しい例がいくつか存在する.そこで,談話関係を付与する際の基準を具体例とともに示す.なお,本節の内容は談話関係タグのアノテーションマニュアルに記載した判断基準であり,談話関係タグを複数候補から一つに絞るために行った実処理とは一部異なる.\ex.\label{difficult0}【まずは気軽に相談してください.$_{条件}$】【臨床心理士などが,いつでも相談にのります.】\ex.\label{difficult1}【生乳本来の風味と栄養を大切にするため,$_{目的}$】【低温殺菌を行っているおいしい牛乳です.】例\ref{difficult0}は前節を条件とみなした順方向の``条件''と,後節を前節の理由とみなした逆方向の``原因・理由''の両方の解釈ができる.このように複数の談話関係が考えられる場合,順方向の関係を優先する.したがって例\ref{difficult0}には順方向の``条件''を付与する.順方向を優先する理由は,順方向の関係の方が文の意味理解が容易であるためである.日本語は必ず前から後ろに係る特徴を持っている.また,複数の節からなる複文は文末の述語を終身とした節(主節)が文全体をまとめる働きをする.これら2点から順方向の関係の方が,逆方向の関係よりも自然な流れとなり,意味理解が容易となると考える.同様に例\ref{difficult1}は前節が「低温殺菌を行っている」の目的とみなした順方向の``目的''と,「生乳本来の風味と栄養を大切にする」から「美味しい牛乳です」とみなした順方向の``原因・理由''の両方の解釈ができる.このように,複数の談話関係が考えられ,かつ談話関係の方向が同じとなる場合は,談話標識を手がかりにタグを決定する.例\ref{difficult1}の場合,前節に「~するため」という目的を示す談話標識が含まれるため,順方向の``目的''を付与する.\ex.\label{difficult2}【これは義詮が正行の人柄を慕い,$_{原因・理由}$】【そばに葬るように遺言したためといわれる.】\ex.\label{difficult6}【このイルミネーションをプロのカメラマンに頼んで】【写真におさめる家庭もあるとか.$_{目的}$】例\ref{difficult2}の「~といわれる」や例\ref{difficult6}の「~とか」ような定説や伝聞を示す修飾表現が節末に含まれることがある.この場合,これらの表現を無視する.例\ref{difficult2}の場合,「~といわれる」の部分を無視すると前節が後節の理由にあたるので順方向の``原因・理由''を,例\ref{difficult6}は前節が手段,後節が目的なので逆方向の``目的''を付与する.\ex.\label{difficult3}【前回のコラムでは「管理職は人を管理するな.】仕事を管理せよ」と書きました.人を管理すると,【どうしても個人的な好き嫌いの管理になる.$_{原因・理由}$】例\ref{difficult3}のように鉤括弧や丸括弧の内部と外部が同一節内に含まれる場合は,他の節と関係をもっている括弧の内部のみ,もしくは括弧の外部のみを考慮して談話関係を付与する.例\ref{difficult3}の場合,「どうしても個人的な好き嫌いの管理になる」ので「管理職は人を管理するな」と解釈できるので,鉤括弧の外部を無視し,``原因・理由''とする.\ex.\label{difficult4}【強風が吹いたので,】傘が壊れた.【なので,また傘を買った.】\ex.\label{difficult5}【たった幅107.5mm×奥行き68.0mm×高さ13.5mmというサイズで非常に小型のスイッチングハブです.$_{原因・理由}$】場所を取らないので,【設置場所を選びません.】最後に例\ref{difficult4},例\ref{difficult5}のようにA$\rightarrow$B$\rightarrow$Cの三段論法が成立する場合,AC間は原則``談話関係なし''とする.ただし,AC間に直接的な談話関係が認められる場合にはその関係を付与する.例\ref{difficult4}の場合,三段論法が成立するが前節と後節の間に直接的な談話関係が認められないので,``談話関係なし''を付与する.例\ref{difficult5}は三段論法が成立しているうえに,節ペアに直接的な談話関係が認められる\footnote{前節が後節の理由となる.}ので,順方向の``原因・理由''を付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{談話単位と談話標識の自動認識} 日本語の談話関係タグ付きコーパスは談話単位,談話標識,談話関係タグの3項目をアノテーションする.しかしPDTBのように全てを人手でアノテーションする場合,長い時間と莫大なコストがかかる.そこで本研究では,談話単位と談話標識を自動認識することとし,談話関係タグのみを人手でアノテーションすることで高速な構築を目指す.本節では,構築した談話単位と談話標識の自動認識について述べる.談話単位と談話標識の自動認識は日本語構文・格解析器KNPに実装されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{節の自動認識}\label{sec:clause}\ref{subsec:argument}節の定義をもとに,節の区切れ目となる基本句を認定するルールを整備した.基本句とはKNPで用いられる基本単位の1つであり,1つの自立語と後続する付属語から構成される.節の区切れ目となる基本句は以下のルールを全て満たすものと定義する.\begin{itemize}\item従属節の強さを示す素性\footnote{分類は南\cite{minami1993}に準ずる.}が,B$-$,B,B$+$,Cのいずれかである.\item従属節の強さを示す素性がB$-$,Bの場合,少なくとも1つは項を持つ.\item連体詞ではない.\item「~という」,「~のように」などの機能的もしくは修飾的な表現を伴わない.\item「~する時」,「~する後」などの副詞的名詞を伴う場合は,表\ref{tab:toki}のルールを満たす.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{副詞的名詞の分類}\label{tab:toki}\input{07table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{談話標識の自動認識}\label{sec:dc_prediction}日本語の談話標識は,前節に含まれる場合と後節に含まれる場合の2種類に分類される.具体例を示す.\ex.\label{clause_function1}【今日は雨の予報\underline{なので},】【傘を持って行こう.】\ex.\label{clause_function2}【彼は今日は休みだ.】【\underline{なぜなら},風邪を引いたからだ.】\ex.\label{clause_function3}【今日は風が強い.】【台風が近づいている\underline{からだろう}.】例\ref{clause_function1}の下線部のように前節に含まれる談話標識を$<$節-機能$>$,例\ref{clause_function2},例\ref{clause_function3}の下線部のように後節に含まれる談話標識を$<$節-前向き機能$>$と定義する.前節に含まれる談話標識の中には節ペアの関係が特定できない談話標識が一部含まれる.具体例を示す.\ex.\label{cf_utagai1}【大学に行く\underline{のに},】【電車とバスを使う.】\ex.\label{cf_utagai2}【雨が降っている\underline{のに},】【隣町まで出かける.】例\ref{cf_utagai1}と例\ref{cf_utagai2}はともに談話標識「~のに」を持つが,例\ref{cf_utagai1}は目的の関係を,例\ref{cf_utagai2}は逆接の関係を持つ.このように節ペアの関係が特定できない談話標識を$<$節-機能疑$>$と定義する.本研究では,節ペア内に$<$節-機能$>$もしくは$<$節-前向き機能$>$を持つ場合,明示的と認定する.ただし,明示的と認定した節ペアに談話関係がない場合がある.具体例を示す.\ex.\label{dc_error0}\begin{enumerate}\renewcommand{\labelenumi}{(\roman{enumi})}\item40歳代以降,年齢とともに増える傾向にあります.\item\underline{しかし},年を取ったら\item必ずかかる避けられない病気ではありません.\end{enumerate}例\ref{dc_error0}の(i)と(ii)は談話標識「しかし」を含むため明示的と認定されるが,この節ペアには談話関係は存在しない.この現象が起こる原因は,節を自動分割する際に係り受け関係を無視しているからである.例\ref{dc_error0}の「しかし」は(iii)の「病気ではありません」に係っているが,節分割をする際に係り受け関係を無視しているため,表層的に隣り合っている(ii)に含まれてしまう.このように,節が入れ子構造になっている場合の取り扱いは今後の課題とする.$<$節-機能$>$,$<$節-機能疑$>$,$<$節-前向き節機能$>$の一覧を具体例を交えて表\ref{tab:cf_tagset}に示す.表中の\textbf{節ペアの関係}とは談話標識をもとに談話関係タグを細分類したものであり,全部で12種類存在する.談話標識を分類する際,『基礎日本語文法』\cite{kisonihongo},『現代日本語文法6』\cite{gendainihongo_6},『現代日本語文法7』\cite{gendainihongo_7}を参考にした.一部の談話標識は$<$節-機能$>$となる場合と,$<$節-機能疑$>$となる場合がある.具体例を付録\ref{sub:ambiguous_clause_function}に掲載している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\caption{節-機能のラベルセット}\label{tab:cf_tagset}\input{07table03.tex}\vspace{4pt}\small機能分類の欄が空欄の場合は節-機能,``疑''は節-機能疑,``前向き''は節-前向き機能を示す.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,表\ref{tab:cf_tagset}に示した談話標識を分類するルールベースの自動認識器を日本語構文・格解析器KNPに実装した.実装したルールの具体例を挙げる.\ex.談話標識「タ形+ため」($<$節-機能-原因・理由$>$)\begin{itemize}\itemルール:以下のルールを全て満たす基本句に付与する.\begin{itemize}\item基本句が節の区切れ目である.\item基本句が名詞「ため」か名詞「為」である.\item直前の基本句の活用形が「タ形」である.\end{itemize}\item例文:\\【雨が降ってきた\underline{ため,}$_{<節-機能-原因・理由>}$】【試合は中止となった.】\end{itemize}\ex.談話標識「~たら」($<$節-機能-条件$>$)\begin{itemize}\itemルール:以下のルールを全て満たす基本句に付与する.\begin{itemize}\item基本句が節の区切れ目である.\item基本句の活用形が「タ形条件形」である.\item係り先である基本句が以下の条件のいずれか1つを満たす.\begin{itemize}\item「~のに」「~だろうに」などの反事実条件を示す表現が含まれる.\item反復条件を示す表現「~ものだ」が含まれる.\item時制が過去でない.\item時制が過去だが,「できる」などの可能表現を伴う.\item時制が過去だが,「かもしれない」や「する恐れがある」などの\\蓋然性を示すモダリティ表現を伴う.\end{itemize}\end{itemize}\item例文:\\【仕事が終わっ\underline{たら}$_{<節-機能-条件>}$】【連絡してください.】\\【彼がきて\underline{たら}$_{<節-機能-条件>}$】【勝てた\underline{のに}.】\\【もしサボってい\underline{たら}$_{<節-機能-条件>}$】【先生に怒られてた\underline{かもしれない}.】\end{itemize}このようなルールを200例以上整備し,KNPに実装した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{談話関係タグ付きコーパスの構築} \label{sec:build_corpus}本節では,談話関係タグ付きコーパスの構築方法について述べる.本研究では,様々なドメインを含んだコーパスを対象とし,談話単位である節と談話標識,談話関係タグをアノテーションする.その際,節と談話標識は\ref{sec:clause}節と\ref{sec:dc_prediction}節で整備した自動認識器を用いて自動認識することとし,談話関係タグのみを人手でアノテーションすることで,高速なコーパス構築を目指す.また,談話関係タグは文書中に含まれる全ての節ペアに対して,2種類のアノテータがそれぞれ付与する.1つ目は言語学を習得した熟練のアノテータによるものである.このタグ付けでは高品質なアノテーションが期待される.2つ目はクラウドソーシングを用いた談話関係タグ付けである.このタグ付けでは高速かつ大規模なアノテーションが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タグ付け対象文書}本研究では談話関係をタグ付けするコーパスとして,新聞記事コーパスではなく,様々なドメインの文書が含まれる京都大学ウェブ文書リードコーパス\cite{KWDLC}\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KWDLC}を選択した.このコーパスを選んだ理由として,Webページの冒頭3文を収集したコーパスであることがあげられる.談話関係は周辺の表現や意味的な繋がりを理解しなければ解けないタスクであるため,文書が長くなると読解が困難となり,その結果タスク難易度が上昇する.さらに,本研究では文書中に含まれる全ての節ペアに対してタグ付けを行うため,1文書の文数が多くなると,タグ付けする節ペアの数も膨大になる.これに対し,京都大学ウェブ文書リードコーパスは1文書の長さが3文であるため,文書の読解が容易であると同時に,タグ付けする節ペア数も平均で6個程度に抑えられる.そのため,既存のコーパスよりも比較的容易にタグ付けできると期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション方法}\label{sub:annotation_method}本コーパスは,文書中に含まれる全ての節ペアに対し,談話標識と表\ref{Table:Tagset}に示した談話関係タグのいずれか1つを付与する.なお,談話標識が節ペア中に存在しない場合はアノテーションしない.例\ref{anno_sample_doc}を用いてタグ付け方法を説明する.\ex.\label{anno_sample_doc}一人で悩んでいてはいつまでたっても解決できません.まずは気軽に相談してください.臨床心理士などが,いつでも相談にのります.\ref{sec:clause}節で整備した自動認識器を用いると,例\ref{anno_sample_doc}は以下の4節に分割される.\begin{enumerate}\setlength{\leftskip}{1.0cm}\renewcommand{\labelenumi}{(\roman{enumi})}\item一人で悩んでいては,\itemいつまでたっても解決できません.\itemまずは気軽に相談してください.\item臨床心理士などが,いつでも相談にのります.\end{enumerate}この4節の全組み合わせに対して談話関係のタグ付けを行う.具体的には以下の6例にタグ付けをする.\ex.\label{anno_1_2}【一人で悩んでいては$_{条件}$】【いつまでたっても解決できません.】まずは気軽に相談してください.臨床心理士などが,いつでも相談にのります.\ex.\label{anno_1_3}【一人で悩んでいては】いつまでたっても解決できません.【まずは気軽に相談してください.】臨床心理士などが,いつでも相談にのります.\ex.\label{anno_1_4}【一人で悩んでいては】いつまでたっても解決できません.まずは気軽に相談してください.【臨床心理士などが,いつでも相談にのります.】\ex.\label{anno_2_3}一人で悩んでいては【いつまでたっても解決できません.】【まずは気軽に相談してください.】臨床心理士などが,いつでも相談にのります.\ex.\label{anno_2_4}一人で悩んでいては【いつまでたっても解決できません.】まずは気軽に相談してください.【臨床心理士などが,いつでも相談にのります.】\ex.\label{anno_3_4}一人で悩んでいてはいつまでたっても解決できません.【まずは気軽に相談してください.$_{条件}$】【臨床心理士などが,いつでも相談にのります.】例\ref{anno_1_2}は前節が条件となる節ペアなので順方向の``条件''を付与する.例\ref{anno_1_3}は節ペアに談話関係がないため``談話関係なし''を付与する.同様に,例\ref{anno_1_4},例\ref{anno_2_3},例\ref{anno_2_4}も談話関係がないため``談話関係なし''を付与する.例\ref{anno_3_4}は前節を条件とみなした順方向の``条件''と,後節を前節の理由とみなした逆方向の``原因・理由''の両方の解釈ができる.この場合,順方向の関係を優先するため例\ref{anno_3_4}は順方向の``条件''を付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{専門家による談話関係タグ付け}\label{pro_annotation}本研究では,言語学を習得した熟練のアノテータ(以降,専門家と呼ぶ)3名が3ヶ月かけて,談話関係タグと談話関係の方向のアノテーションを行った.このアノテーションを以降,{\bf専門家セット}と呼ぶ.{\bf専門家セット}は京都大学ウェブ文書リードコーパスから文書を無作為に抽出した500文書からなる.本セットのアノテーション時に専門家に提示したタスク画面を図\ref{fig:pro_ann}に示す.この際,\ref{sec:clause}節で整備した自動認識器によって分割された節を談話単位とし,自動分割結果の人手修正は行わなかった.{\bf専門家セット}の談話関係タグは,専門家による多数決によって決定した.全員の意見が一致しなかった場合は,合議により談話関係を決定した.なお,専門家の意見が2:1に別れた場合,少数派であった談話関係タグも付記という形でコーパスに記載している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-4ia7f2.eps}\end{center}\caption{専門家による談話関係タグ付けのタスク画面}\label{fig:pro_ann}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,{\bf専門家セット}のタグ付け完了後に追加のアノテーションを実施した(以降,{\bf比較セット}と呼ぶ).追加のアノテーションを行った理由は,各専門家の習熟度を調べるためと専門家間のタグ付け結果の一致率を調べるためである.{\bf比較セット}は京都大学ウェブ文書リードコーパスから無作為に抽出した300文書からなる.各文書は{\bf専門家セット}のアノテーションを行った3名の専門家のうち2名が談話関係タグと談話関係の方向のアノテーションを行った.{\bf比較セット}は\ref{sec:pro_result}節,\ref{sec:annotate_interargreement}節の分析で使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングを用いた談話関係タグ付け}専門家がアノテーションを実施する場合,長い時間と莫大なコストがかかるという問題がある.この問題を解決するために本研究ではクラウドソーシングを用いた.クラウドソーシングとはネットを通じて不特定多数のクラウドワーカーにタスクを発注するシステムであり,この方法を使用することで短時間かつ安価で大規模なアノテーションが実施できる.しかし,クラウドソーシングでアノテーションされたコーパスは専門家によるものと比較して品質が劣るという欠点がある.この欠点を軽減するため,本研究では2つの手法を取り入れる.1つ目は10人に対して同じ設問を実施し,クラウドワーカーの多数決で談話関係を決定することで信頼性の向上を目指した.2つ目は専門家と同じ形式でタスクを実行するとクラウドワーカーには難しいため,タスクを分割することで簡単化を試みた.具体的には,「節ペアの談話関係の有無の判定」と「談話関係があると判定された節ペアを対象とした談話関係タグの判定」の2段階に分割してクラウドソーシングを実施する.また後者のタスクでは,言語テストを追加することで,クラウドワーカーが理解しやすい設計を目指した.以降,クラウドソーシングの詳細について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3and4\begin{figure}[t]\begin{minipage}[t]{199pt}\includegraphics{27-4ia7f3.eps}\caption{クラウドソーシングのタスク画面(1段階目)}\label{fig:level1}\end{minipage}\hfill\begin{minipage}[t]{199pt}\includegraphics{27-4ia7f4.eps}\caption{クラウドソーシングのタスク画面(2段階目)}\label{fig:level2}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{1段階目:談話関係の有無の判定}\label{subsec:first_step}本研究では,文書中に含まれる全ての節ペアに対して談話関係タグを付与する.そのため,\ref{sub:annotation_method}節の例\ref{anno_1_3}や例\ref{anno_2_4}のように,意味的なつながりを持たない節ペアが多く含まれる.そこで,意味的なつながりを明らかに持たない節ペアを除外するために,各文書に含まれる節ペアごとに談話関係があるかないかの2値分類を1段階目で行う.まずクラウドワーカーに,ある文書に含まれるすべての節ペアを提示する(図\ref{fig:level1}).クラウドワーカーは談話関係を持つ節ペアをすべて選択する.10人に対して同じ設問を実施し,1人以上が談話関係があると選択した節ペアを談話関係がある可能性があると判定した.なお,明示的である節ペアはクラウドワーカーの投票結果にかかわらず,談話関係がある可能性があると判定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{2段階目:談話関係タグ判定}\label{subsec:second_step}2段階目では,1段階目で談話関係がある可能性があると判定された節ペアを対象とする.まず,クラウドワーカーにアノテーション対象である節ペアとその前後の文を提示する(図\ref{fig:level2}).クラウドワーカーは提示された節ペアに対して,表\ref{Table:Tagset}の下位タイプの中から最も適切な関係を選択する.この際,談話関係の方向は無視している.10人に対して同じ設問を実施し,多数決によって談話関係タグを決定する.最多投票となった談話関係タグが複数ある場合は,最多投票のタグを全て付与する.なお,``談話関係なし''が最多投票となった場合は第1段階の結果を無視し,談話関係がないと判定する.2段階目のタスクは\ref{pro_annotation}節のアノテーションタスクとほぼ同一であり,タスク難易度は非常に高い.タスク難易度を下げるために付録\ref{sub:annotation_manual1}の内容を整理し,クラウドワーカーにマニュアルとして提示したが,予備実験の結果,クラウドワーカーはマニュアルを読まずにアノテーションを行っていることが分かった.そのため,クラウドワーカーのアノテーション品質を向上させるためには,マニュアルよりもシンプルでかつ直接的な方法でアノテーション基準を伝える必要がある.そこで,タスク概要欄とタスクの選択回答欄に言語テストを追加して提示した.第2段階においてクラウドワーカーに提示した談話関係タグのアノテーション基準を以下に示す.\begin{itemize}\item原因・理由\\(「1したがって2」と言えるが,「1さらに2」と言えない関係.1・2が逆でも可.)\\例:【1雨が降った.】よく見ると【2道が濡れている.】\\\\【1今,すごく眠たい.】【2昨日徹夜しちゃたから.】\\※「2したがって1」と言える\item目的\\(「1するために2」と言える関係.1・2が逆でも可.)\\例:【1今日切符を買った.】【2明日京都に行く予定だ.】\item条件\\(「1すれば2」と言える関係.1・2が逆でも可.)\\例:【1明日晴れれば,】午前は買い物に行こう.【2午後は映画に行こう.】\itemその他根拠\\(「1だから2だろう」と言える関係.1・2が逆でも可.)\\例:【1ここにカバンがある.】【2まだ社内にいるだろう.】\item対比\\(「1しかし2」と言え,「1そして2」と言える関係.1・2が逆でも可.)\\例:【1大阪は晴れだが,】【2東京は雨だ.】\item逆接・譲歩\\(「1しかし2」と言えるが,「1そして2」と言えない関係.または「1だとしても2」と言える関係.1・2が逆でも可.)\\例:【1カップ麺を大量に買いだめしたが,】【2保管する場所がない.】(事実的な逆接)\\\\【1彼がいたとしても】【2この試合は勝てなかっただろう.】(仮定的な逆接)\item上記いずれの関係もない[時間経過・詳細化・定型表現など]\footnote{表\ref{Table:Tagset}の``談話関係なし''に相当.}\\例1:時間経過(【家に着いてから】【雨が降ってきた.】)\\例2:詳細化(【昨日,テストを受けた.】【それは英語のテストだった.】)\\例3:定型表現(【様々なコメントをいただき,】【ありがとうございます.】\\\\【3~4日後に発送します.】【予めご了承ください.】)\end{itemize}\vspace{0.5\Cvs}これは,提示した表現を利用してクラウドワーカーに言語テストを行ってもらうことを目的としている.例えば``条件''の場合,1と2の間に「すれば」を挿入しても問題ない場合は``条件''と判定するようにクラウドワーカーを誘導している.また,``原因・理由''と``対比''のアノテーション基準には複数の言語テストを記載している.これは予備実験を行ったところ,以下の例\ref{ex:add_explain}のように談話関係がないのに,談話関係があるとワーカー判定した節ペアが``原因・理由''と``対比''で多く見られたためである.\ex.\label{ex:add_explain}【神に捧げるといわれる伝統芸能バリ島・ダンスやガムラン音楽は観光客にも人気が高い.】神々の島,神秘の楽園といわれ,【美しいビーチもあわせもつリゾート地であります.】例\ref{ex:add_explain}の場合,「リゾート地である」したがって「人気が高い」と言えると解釈され,予備実験では``原因・理由''であると判断された.そこで,「1さらに2」と言えないという条件を追加することで,例\ref{ex:add_explain}のような節ペアが``原因・理由''にならないようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{クラウドセットの構築}Yahoo!クラウドソーシング\footnote{\url{http://crowdsourcing.yahoo.co.jp/}}を用いて,京都大学ウェブ文書リードコーパス全体(6,445文書\footnote{京都大学ウェブ文書リードコーパス(約5,000文書)に加え,諸事情により公開していない約1,400文書に対しても談話関係を付与している.また6,445文書中には{\bf専門家セット}としてアノテーションした500文書も含まれている.},40,067節ペア)に対してアノテーションを行った.この際,Yahoo!クラウドソーシングに実装されているチェック問題という機能を活用した.チェック問題とは,事前に正解を用意しておいた簡単な問題を出題し,その問題が不正解だったクラウドワーカーをタスクから除外する仕組みである.この仕組みを使用することで,クラウドワーカーが注意深く・真面目に取り組んでいるかどうかを識別することができ,その結果アノテーション品質の向上が期待できる.アノテーションの結果,京都大学ウェブ文書リードコーパス全体の52.1\%にあたる20,878ペアが第1段階を通過し,そのうち6,312ペアに``談話関係なし''以外のタグが付与された.これは,コーパス全体の15.7\%に相当する.クラウドソーシングの所要時間は,第1段階が約1週間,第2段階が約10日だった.クラウドソーシングの費用は,第1段階が約83,000円,第2段階が約108,000円だった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{談話関係タグ付きコーパスの分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスの規模}\label{sec:corpus_scale}本研究で構築したコーパスは,6,445文書,40,067節ペアからなる.内訳は,{\bfクラウドセット}のみに含まれる節ペアが35,830ペア,{\bfクラウドセット}と{\bf専門家セット}の両方に含まれる節ペアが2,320ペア,{\bfクラウドセット}と{\bf比較セット}の両方に含まれる節ペアが1,917ペアである.{\bfクラウドセット},{\bf専門家セット},{\bf比較セット}における談話関係タグの傾向を表\ref{fig:trend}に示す.なお,表中の``{\bfクラウドセット}''は{\bfクラウドセット}のうち,{\bf専門家セット}と重複している2,320ペアのアノテーション傾向である.1つの節ペアに複数の談話関係タグが付与されている場合は按分している.表\ref{fig:trend}より,談話関係タグ付きコーパスは``談話関係なし''が約8割を占める不均衡コーパスであることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{クラウドセット,専門家セット,比較セットにおける談話関係タグの傾向}\label{fig:trend}\input{07table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{専門家のアノテーション品質}\label{sec:pro_result}本節では,専門家3名の中におけるアノテーションの一致率を求めることで,{\bf専門家セット}と{\bf比較セット}のアノテーション品質を評価する.アノテーションの一致率を計算する際,一般的にはCohenの$\kappa$係数を用いる.しかし,{\bf専門家セット}は3名の専門家がアノテーションを行ったためこの指標が使えない.そこで本研究ではKrippendorffの$\alpha$を用いる\cite{krippendorff04}.Krippendorffの$\alpha$とは3名以上のアノテータがいる際に使われる指標であり,データが欠損している場合にも使用できる.Krippendorffの$\alpha$は以下の式で表される.\begin{equation}\alpha=1-\frac{D_{0}}{D_{e}}\nonumber\end{equation}D$_{0}$はアノテータ間で意見の不一致が実際に起こった観測値であり,D$_{e}$はアノテータ間で意見の不一致が偶然起こる期待値である.$\alpha$は$-1$~1の間の値をとり,1が完全一致,$-1$が完全不一致を示す.{\bf専門家セット},{\bf比較セット}におけるKrippendorffの$\alpha$を表\ref{fig:krippendorff}に示す.{\bf専門家セット}の一致率が1になっていない理由は,少数意見として談話関係タグが付記された節ペアが182例あるからである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{専門家セット,比較セットにおけるKrippendorffの$\alpha$}\label{fig:krippendorff_pro}\input{07table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{fig:krippendorff_pro}より,{\bf専門家セット}は非常に高い一致,{\bf比較セット}は高程度の一致だと分かる.このことから,{\bf専門家セット}と{\bf比較セット}は高品質であると言える.表\ref{fig:trend}をもとに,専門家間で意見が異なった節ペアを分析する.{\bf比較セット}を比較すると,専門家Cと他2名との間で``原因・理由''の傾向が大きく異なることが分かる.そこで専門家Cが``原因・理由''を選んだが,他の専門家が違うタグを付与した例を分析する.\ex.\label{cause_other3}【ハンガリーでは住民の93.6%(2002年)がハンガリー語を話し,】【国語化している.】\\評価コーパス:談話関係なし(少数意見:原因・理由(順方向))\\$[専門家A,B:談話関係なし,専門家C:原因・理由(順方向)]$\ex.\label{cause_other1}ロドニーはフィラデルフィアのジョセフ・マッキーンの下で法律を学び,【1793年に弁護士として認可を受けた.】【ロドニーはウィルミントンとニューキャッスルで弁護士業をおよそ3年間営んだ.】\\専門家A:談話関係なし,専門家C:原因・理由(順方向)\ex.\label{cause_other4}【公園内には魯迅の記念館と墓がある.】設置当初は「虹口公園」だったが【魯迅の死後「魯迅公園」と改称された.】\\評価コーパス:原因・理由(順方向)(少数意見:談話関係なし)\\$[専門家A,C:原因・理由(順方向),専門家B:談話関係なし]$例\ref{cause_other3}のように{\bf専門家セット}に付与したタグは``談話関係なし''だが,少数意見として``原因・理由''を併記している例が{\bf専門家セット}内に60例ある.一方で例\ref{cause_other4}のように{\bf専門家セット}では``原因・理由''だが,少数意見として``談話関係なし''を併記している例が36例ある.これらの例の大半は,``原因・理由''の関係を明示的に伝える書き方になっていないため,例\ref{cause_other1}のようにタグ付けを行うアノテータの文章読解力に依存している場合や,例\ref{cause_other4}のようにアノテータの背景知識に依存している場合であった.したがって,``原因・理由''と``談話関係なし''の識別は文章を読み解くアノテータの主観が大きく直結しているのではないかと推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングのアノテーション品質}\label{sec:crowd_result}クラウドソーシングで構築した{\bfクラウドセット}のアノテーション品質を調査する.{\bf専門家セット}を正解としたときの{\bfクラウドセット}の適合率,再現率,F値を求めた.結果を表\ref{fig:result_major}に示す.表中のALLは{\bf専門家セット}全体の適合率,再現率,F値を示す.明示的は{\bf専門家セット}内の明示的な談話関係を持つ節ペアのみの,非明示的は非明示的な談話関係を持つ節ペアのみの適合率,再現率,F値を示す.$[下位タイプMicro-F]$は``談話関係なし''を除いた下位タイプ6種類のマイクロ平均を,$[上位タイプMicro-F]$は``談話関係なし''を除いた上位タイプ2種類のマイクロ平均を,$[談話関係あり]$は談話関係があるかないかの2値分類にした際の適合率,再現率,F値を示している.表\ref{fig:result_minor}は{\bf専門家セット}の談話関係タグとは一致しなかったものの,少数意見として付記された談話関係タグと一致した場合も正解とした場合を示している.表\ref{fig:result_minor}の$[下位タイプMicro-F]$のF値は0.570であり,{\bfクラウドセット}の品質は{\bf専門家セット}と比べあまり良くない.そこで,どのような談話関係タグが誤って付与されたかを分析した.表\ref{fig:result_major}の混同行列を表\ref{fig:confusion_matrix}に示す.``原因・理由''と``談話関係なし''間の関係の識別が難しいことが分かる.具体例を示す.\ex.\label{cause_norel1}かつては大型コンピューター開発生産事業を行っていた.【現在はテレコム・イタリアに買収され,】【主にシステムソリューション事業を運営している.】フィアットなどと共にイタリアを代表する歴史的会社である.\\{\bfクラウドセット}:原因・理由,{\bf専門家セット}:談話関係なし\ex.\label{cause_norel2}【道後温泉は日本を代表する温泉の一つです.】古くからの温泉なので,【随所に歴史の面影があります.】\\{\bfクラウドセット}:原因・理由,{\bf専門家セット}:談話関係なし\ex.\label{cause_norel3}【節税対策の基本について「節税対策チェックリスト」をご用意しました.】【皆様の節税対策にお役立てください.】銀行出身者ならではの資金調達のコツをご紹介します.\\{\bfクラウドセット}:談話関係なし,{\bf専門家セット}:原因・理由(順方向)%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{専門家セットを正解とした時のクラウドセットの適合率,再現率,F値}\label{fig:result_major}\input{07table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\hangcaption{専門家セットを正解とした時のクラウドセットの適合率,再現率,F値(少数意見も正解とみなした場合)}\label{fig:result_minor}\input{07table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{専門家セットとクラウドセットの混同行列}\label{fig:confusion_matrix}\input{07table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%例\ref{cause_norel1}のように,言語テスト(「1したがって2」と言えるが,「1さらに2」と言えない)を通らないのに``原因・理由''と判定されたものがある一方,例\ref{cause_norel2}のように言語テストを通過する例も多く見受けられた.さらに,例\ref{cause_norel3}のように「1したがって2」だと違和感があるが,同じ原因・理由を示す談話標識「1ですので2」であれば言語テストを通過する例も見られた.このことから,``原因・理由''の言語テストは改善の余地がある.また,定型表現に対する認識の違いも``原因・理由''のF値が低い要因である.\ex.\label{Fixed1}情報技術学院で開催中の『パソコンセミナー』は,カリキュラム変更のため一時中止させていただく事になりました.【参加希望の生徒様には,大変ご迷惑をおかけしますが,】【ご了承ください.】『パソコンセミナー』の開催予定は未定です.\\{\bfクラウドセット}:談話関係なし,{\bf専門家セット}:談話関係なし\ex.\label{Fixed2}【オーム社主催の第二種電気工事士試験突破研究会を下記要領で開催いたします.】合格に必要なポイントをわかりやすく解説いたします.【どうぞお気軽にお越しください.】\\{\bfクラウドセット}:談話関係なし,{\bf専門家セット}:原因・理由(順方向)専門家のアノテーションでは,例\ref{Fixed1}の「ご了承ください」のような謝罪や感謝,話題導入を示す定型表現は``談話関係なし''とし,例\ref{Fixed2}の「お気軽にお越しください」のような定型的な表現は文脈に応じて談話関係タグを付与している.しかし,クラウドワーカーは例\ref{Fixed2}も``談話関係なし''と判断している.このことから,定型表現の定義がクラウドワーカには十分に伝わっていなかったものと推測される.次に,表\ref{fig:result_major}において適合率,再現率ともに低い``根拠''について分析する.``根拠''の適合率が低い理由は,{\bf専門家セット}では``原因・理由''となっている節ペアを``根拠''と誤答していることが原因だと推測される.具体例を示す.\ex.\label{cons1}まだ最終回の放送前ですが【『崖っぷちのエリー』の打ち上げがありました.】【実は先週,浅間神社のシーン撮影でクランクアップしていたのです.】大杉さんや渡辺えりさんらを始め,著名な皆さんは人を惹き込む力を持っている.\\{\bfクラウドセット}:根拠,{\bf専門家セット}:原因・理由(逆方向)クラウドワーカーには``原因・理由''の言語テストとして「『1したがって2』と言え,『1さらに2』と言えない」を提示した.しかし,例\ref{cons1}のように「『1さらに2』と言えない」例が存在した.この例は,``原因・理由''に比較的近い``根拠''の言語テスト(「1すれば2だろう」)を通過する.したがって,クラウドワーカーは言語テストの結果に従い,``原因・理由''ではなく,``根拠''と判断していたと推測される.``根拠''の再現率が低い理由は,表\ref{fig:confusion_matrix}より,クラウドワーカーが``談話関係なし''と誤答していることが原因だと分かる.具体例を示す.\ex.\label{cont_error1}【朝と夕方,イワツバメが上空を賑やかに飛び回っています.】センター近くにある玄倉大橋に,ずら~っと巣を作るのですが,【現在,巣材集めの真っ最中のようです.】湿った地面に降り立っては,泥や枯れ草をくちばしにくわえて飛び立っていきます.\\{\bfクラウドセット}:原因・理由,{\bf専門家セット}:根拠(順方向)``根拠''は``原因・理由'',``目的'',``条件''には該当しないが,節ペアの関係が根拠に基づく推量や認識を伴う節ペアに付与する.そのため,例\ref{cont_error1}のように,他の順接系よりも談話関係は比較的弱くなり,``談話関係なし''との分類が難しくなる傾向にある.専門家は前後の文脈から``根拠''の分類ができていたが,専門家でないクラウドワーカーには分類が難しく,その結果誤答が増えたのではないかと推測する.最後に,適合率が0.133と著しく低い``対比''について調べたところ,{\bf専門家セット}では``逆接''となっている節ペアに対して``対比''と誤答していたからだと推測される.具体例を以下に示す.\ex.\label{cont_cons1}青森県は“青い森”というように自然に恵まれています.森や山が多くあります.【いわゆる高山はありませんが,】【高くないゆえに,その土地の人たちと密接にかかわってきました.】\\{\bfクラウドセット}:対比,{\bf専門家セット}:逆接・譲歩(順方向)\ex.\label{cont_cons2}【国の公用語はフィリピノ(タガログ)語.】ただし,ビサヤ諸島のビサヤ語など,地方によってはタガログ語以外のフィリピノ語が使われている.【マニラ近郊のカビテ州の一部やミンダナオ島の一部では,スペイン語を多く含むチャバカノ語も話されている.】\\{\bfクラウドセット}:対比,{\bf専門家セット}:逆接・譲歩(逆方向)``対比''と``逆接''の区別はどちらかの節に主眼がおかれているか,それとも2節が対等関係にあるかどうかで識別している.{\bfクラウドセット}を分析すると,例\ref{cont_cons2}のようにアノテータによって解釈が分かれる例が多く存在しており,専門家は文章の内容をしっかりと理解した上で``対比''と``逆接''を分類していたことが分かる.一方,例\ref{cont_cons1}のように明らかに片方に主眼がおかれている例も多く,クラウドワーカーは文章の内容を深く理解せず,言語テストなどの表層的な手がかりをもとに分類を行っていると推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{専門家とクラウドソーシングのアノテーションにおける一致率}\label{sec:annotate_interargreement}第2段階におけるクラウドソーシングのアノテーションの一致率を\ref{sec:pro_result}節で述べたKrippendorffの$\alpha$を用いて求めた.結果を表\ref{fig:krippendorff}に示す.なお,第2段階のクラウドソーシングには3,411名のクラウドワーカーが参加した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\caption{クラウドセット,専門家セット,比較セットにおけるKrippendorffの$\alpha$}\label{fig:krippendorff}\input{07table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{fig:krippendorff}より{\bfクラウドセット}はわずかに一致するレベルであり,この点からもクラウドソーシングの品質が良くないことが分かる.クラウドソーシングが低品質である理由を分析すると,タスク本来の困難さが依然として残っていたことと,注意深く・真面目に取り組んでいないクラウドワーカーの除外が不十分であったことが原因だと推測される.今回のクラウドソーシング(第2段階)のタスクは専門家が行ったアノテーションタスクとほぼ同一であり,タスク難易度は依然として非常に高い.そのため,タスク概要欄とタスクの選択回答欄に言語テストを追加して提示することで簡単化を試みた.しかし,表\ref{fig:krippendorff}と\ref{sec:crowd_result}節より,今回提示した言語テストではタスクの難易度はあまり下がらず,その結果低品質になったと推測する.また,Yahoo!クラウドソーシングに実装されているチェック問題という機能を活用し,注意深く・真面目に取り組んでいないクラウドワーカーの除外を試みた.ここでいう,注意深く・真面目に取り組んでいないクラウドワーカーとは以下の例\ref{dammy6}のような談話関係タグ付けタスクを誤答するワーカーを指す.\ex.\label{dammy6}今日の試合は乱打戦で見応えがあった.【試合も勝ったし,大満足.】【ただ,最終回は胃が痛かった.】\\(正解:逆接)しかしクラウドソーシング(第2段階)で実施したチェック問題の結果を調査すると,チェック問題の正答率が80\%以上であったクラウドワーカーが約9\%存在した.これらのワーカーはインストラクションを読む等,注意深く・真面目に取り組んでいるワーカーであると推定される.一方,7択問題のチャンスレート(約14\%)より正解率が低いクラウドワーカーが約41\%存在した.チャンスレートより正解率が低いことから,これらのワーカーは注意深く・真面目に取り組んでいないワーカーであるとと推定される.本タスクではチェック問題を使うことで注意深く・真面目に取り組んでいないワーカーの大半は除外できたものの,注意深く・真面目に取り組んでいないワーカーの約1割はチェック問題を通過していたことがわかった.このことから注意深く・真面目に取り組んでいないクラウドワーカーの除外が不十分であり,その結果,注意深く・真面目に取り組んでいるワーカーとそうでないワーカーの差が激しく,クラウドソーシングの一致率が低くなったと推測する.低程度の一致率となったクラウドソーシングの一致率を向上させる方法として,アノテーションタスクをより簡潔にする方法を検討する.もともと,クラウドソーシングを用いた談話関係アノテーションはタスク難易度が高いことから2段階に分割するという対策を取っていた.しかし,Krippendorffの$\alpha$が0.256と低程度の一致であることから,2段階に分けても依然として難易度が高いと考えられる.そこで,クラウドソーシングを現状の2段階から,``談話関係有り判定'',``談話関係上位タイプ判定'',``談話関係下位タイプ判定''の3分割に分割する方法を検討する.\ref{sec:crowd_result}節の表\ref{fig:result_major}の$[上位タイプMicro-F]$のF値が0.818であることから,``談話関係上位タイプ判定''はクラウドワーカーにとって比較的難易度が低いタスクであることが分かる.したがって,``談話関係上位タイプ判定''で上位タイプを確定させたのち,順接系なら下位タイプ4種類の分類タスク,逆接系なら下位タイプ2種類の分類タスクを実施することで今よりも高品質なアノテーションが期待される.また,アノテーションタスクをより簡潔にする方法として\ref{sec:dc_prediction}節で整備した談話標識の自動認識を活用する方法も考えられる.今回のクラウドソーシングでは,談話標識を持つ節ペアは談話関係がある可能性があると判定し\ref{subsec:second_step}節のタスクのみを実施したが,談話標識の自動認識を活用すれば,\ref{subsec:second_step}節のタスクも省略できるため,より効率的なアノテーションが実施可能である.しかし,\ref{sec:dc_prediction}節の例\ref{dc_error0}のように明示的と認定した節ペアに談話関係がない場合があるため,全自動で行った場合誤ったタグが付与される可能性がある.そのため,談話標識の自動認識を活用する場合は全自動では行わず,談話標識を持つ節と談話関係をクラウドワーカーに提示した上で,文章中のどの節と関係を持つかを選ばせるタスクを実施することになると考えられる.このタスクであれば\ref{subsec:second_step}節のタスクより平易であるので,今よりも高品質なアノテーションが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本談話関係タグ付きコーパスの限界}本研究は,日本語のコーパスベースの談話関係解析の研究はほとんどないという現状を打破するために行った研究である.そのため,問題を限定してタスクやコーパスの設計を行っている.例えば,PDTBでは``TEMPORAL''(時間),``CONTINGENCY''(関係可能性),``COMPARISON''(転換),``EXPANSION''(展開)の4つを対象としている.しかし本コーパスでは,賛否両論があるトピックに対する俯瞰的なマップを生成する言論マップ\cite{Murakami2009}やDisputeFinder\cite{Ennals2010}などの談話関係解析を応用した具体的なアプリケーションでの使用を想定した上で,順接系(PDTBにおける``CONTINGENCY''),逆接系(PDTBにおける``COMPARISON'')のみを対象としている.そのため,因果,根拠,比較の談話関係を利用したアプリケーションは本コーパスを用いて構築することが可能であるが,時間経過(PDTBにおける``TEMPORAL'')や詳細化,換言(共にPDTBにおける``EXPANSION'')を利用したアプリケーションは構築することができない.PDTBを用いた談話関係解析タスクではいくつかのタグを統合,除外した設定で行われていること\cite{Pitler2009a,Lin:2009:EMNLP}から,PDTBと同規模のタグセットを設定する必要はないと考えているが,時間経過や詳細化,換言など頻出する関係を対象としたアノテーションは今後の検討課題である.今回選択した京都大学ウェブ文書リードコーパスは冒頭3文からなるコーパスである.そのため,文書の中・終盤でのみ現れる言語現象や談話関係の出現傾向の違いがある場合,本コーパスではカバーできない.本コーパスを用いて談話関係タグ付きコーパスを構築するにあたって前述した言語現象や談話関係の出現傾向の違いは存在しないと想定して設計しているが,文書中の位置による言語現象や談話関係の傾向の違いの分析は今後の検討課題である.また,新聞記事の文間全てを対象に明示的な談話関係のタグ付けを行っているPDTBに比べ,京都大学ウェブ文書リードコーパスは冒頭3文からなるため,4文以上離れた文間の談話関係解析には向いていない\footnote{非明示的な談話関係のアノテーションは,PDTB2.0では原則として同一段落内の隣接している文間のみを,PDTB3.0では同一段落内の隣接している文間と同一文内を対象としている.}.PDTBと同じ基準となる,同一段落内の文間全ての談話関係タグ付けは今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{談話関係解析器の構築} 本節では,非明示的な談話関係も認識可能な談話関係解析器を構築し,性能評価を行う.この際,小規模な{\bf専門家セット}のみを訓練データとして使用した場合と,大規模な{\bfクラウドセット}を訓練データとして使用した場合の2種類の実験を比較することで,クラウドソーシングで構築したコーパスの有効性を調べる.また{\bf専門家セット}を評価セットとし,\ref{sec:dc_prediction}節で整備した談話標識の自動認識の精度を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{訓練データ}本実験のタスクは,表\ref{Table:Tagset}の下位タイプ7値分類とし,2種類の実験設定で行う.1つ目は,高品質な{\bf専門家セット}(2,320節ペア)を用いた5分割交差検定である.この実験では談話関係解析器の性能を評価する.2つ目は,前述の5分割交差検定の訓練セットに{\bfクラウドセット}を追加した設定である.具体的には,{\bf専門家セット}の5分の4と{\bfクラウドセット}全体を訓練データ,{\bf専門家セット}の5分の1をテストセットとした変則的な5分劃交差検定を実施した.なお,{\bfクラウドセット}には複数の談話関係タグが正解として付与されている節ペアが存在するが,本実験ではこれらの節ペアを訓練セットから除外した38,376節ペアを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モデル設定}本実験では談話標識を手がかりとした解析器と河原らの解析器\cite{kawahara:coling2014},BERT\cite{BERT:NACCL2019}を用いた解析器,ハイブリッド方式の解析器の4種類のモデルを使用する.{\bf談話標識を手がかりとした解析器}とは,\ref{sec:dc_prediction}節で構築した談話標識の自動認識器を用いて節ペアの談話関係を推定するモデルである(以降,DCと呼ぶ).節ペアの談話関係タグは以下のルールに従って決定する.\begin{enumerate}\def\theenumi{\roman{enumi}}\item自動認識器を用いて節ペア内の$<$節-機能$>$と$<$節-前向き機能$>$を抽出する.その際,$<$節-機能$>$と$<$節-前向き機能$>$のどちらも抽出された場合は$<$節-機能$>$を優先する.\item$<$節-機能$>$が抽出された場合,$<$節-機能$>$を含む節を前節,直後の節を後節とみなし,表\ref{tab:cf_tagset}と照らし合わせ談話関係タグを決定する.\item$<$節-前向き機能$>$が抽出された場合,$<$節-前向き機能$>$を含む節を後節,直前の節を前節とみなし,表\ref{tab:cf_tagset}と照らし合わせ談話関係タグを決定する.\item$<$節-機能$>$と$<$節-前向き機能$>$が抽出されなかった場合,もしくは節ペアが隣り合っていない場合,``談話関係なし''を付与する.\end{enumerate}{\bf河原らの解析器}(以降,opalと呼ぶ)は,機械学習ツールopal\cite{yoshinaga:coling2010}を使用している.opalは多項式カーネルを用いたオンライン学習が可能なモデルである.今回はpassive-aggressiveアルゴリズムを多クラス分類に拡張\cite{matsushima:SDM2010}したものを利用した.訓練に使用する素性は日本語形態素解析器Juman++v2\cite{arseny:EMNLP2018}と日本語構文・格解析器KNPを用いて抽出した.用いた素性を表\ref{Table:features}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\caption{談話関係解析器の素性}\label{Table:features}\input{07table10.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%{\bfBERT}はTransformerをベースとしたモデルで,pre-trainingとfine-tuningの2ステップからなる.本実験では日本語Wikipediaを利用した日本語学習済モデル\cite{柴田2019a}\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/index.php?BERT日本語Pretrainedモデル}}を利用し,訓練データを用いてfine-tuningする.DevlinらはBERTのfine-tuning時のモデルとして,文ペア分類問題用,1文分類問題用,質問応答(SQuAD)用,系列ラベリング問題用の4種類のモデルを提案している.本研究では文ペア分類問題用のモデルを使用する.このモデルは[CLS]に対応するTransformer最終層のEmbeddingを利用して分類タスクを解いている.本実験ではGoogleが公開しているTensorflow実装\footnote{\url{https://github.com/google-research/bert}}を使用し,epoch数は3に設定した.{\bfクラウドセット}を訓練データとして用いた場合,{\bf専門家セット}に比べて品質が悪いため,ノイズとなる可能性が高い.この問題に対処するために,Patriniらが提案したforwardcorrection\cite{patrini:cvpr2017}をBERTを用いた談話関係解析器に適用する.forwardcorrectionとは,ノイズラベル$\tilde{{\bfy}}$を真のラベル${\bfy}$に変換する行列${\bfT}\in[0,1]^{c\timesc}$を求めることで,ノイズが混在しているデータをニューラルネットワークの訓練データとして頑健に使うことができる手法である.具体的には,BERTのclassifierのloss関数を以下の式に変更する.\begin{align*}L(\theta;D_{e},D_{c})&=\sum_{D_{e}}L({\bfx},{\bfy})+\sum_{D_{c}}L({\bfx},\tilde{\bfy})\\&=-log\sum_{D_{e}}p({\bfy}|{\bfx})-log\sum_{D_{c}}\hat{p}(\tilde{\bfy}|{\bfx})\\&=-log\sum_{D_{e}}p({\bfy}|{\bfx})-log\sum_{D_{c}}\sum_{j=1}^{c}p(\tilde{\bfy}={\bfe}^{i}|{\bfy}={\bfe}^{j})\hat{p}({\bfy}={\bfe}^{j}|{\bfx})\\&=-log\sum_{D_{e}}p({\bfy}|{\bfx})-log\sum_{D_{c}}\sum_{j=1}^{c}{\bfT_{ji}}\hat{p}({\bfy}={\bfe}^{j}|{\bfx})\\T_{ij}&=p(\tilde{\bfy}={\bfe}^{j}|{\bfy}={\bfe}^{i})\end{align*}$D_{e}$,$D_{c}$はそれぞれ{\bf専門家セット}と{\bfクラウドセット}を指す.また,${\bfx}$が入力,$p({\bfy}|{\bfx})$が{\bf専門家セット}のタグの出現確率,$\hat{p}(\tilde{{\bfy}}|\bfx)$が{\bfクラウドセット}のタグの出現確率,$p(\tilde{\bfy}={\bfe}^{i}|{\bfy}={\bfe}^{j})$が{\bf専門家セット}のタグ${\bfy}$が{\bfクラウドセット}のタグ$\tilde{{\bfy}}$に変化する確率を表す.本実験では,訓練データに含まれる{\bf専門家セット}(1,856節ペア)と{\bfクラウドセット}の混同行列を計算し,それを正規化した行列を{\bf$T$}とした.{\bfハイブリッド方式の解析器}(以降,hybridと呼ぶ)とは,談話標識を手がかりとした解析器とBERTを組み合わせた解析器である.まず,談話標識を手がかりとした解析器で談話関係解析を行う.その後,解析結果が``談話関係なし''であった節ペアに対してBERTを用いた談話関係解析を実施し,談話関係タグを決定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}実験結果を表\ref{fig:dra}に示す.表中の$[談話関係あり]$は``談話関係なし''を除く6種類のマイクロ平均を示している.$[談話関係あり]$のF値はばらつきがあるが,Accuracyの値はどれも高い.これは談話関係タグ付きコーパスの80\%以上が``談話関係なし''となっている不均衡コーパスだからである(表\ref{fig:trend}参照).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\caption{談話関係解析結果}\label{fig:dra}\input{07table11.tex}\vspace{4pt}\smallDCは談話標識を手がかりとした解析器,opalは河原らの解析器,hybridはDCとBERTを組み合わせたハイブリッド方式の解析器,BERT+forwardcorrectionはforwardcorrectionを適用したBERT,hybrid+forwardcorrectionはDCとforwardcorrectionを適用したBERTを組み合わせたハイブリッド方式の解析器を示す.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%クラウドセットの有効性を調べるために,同一モデルに対して,訓練データとして専門家セットのみを用いた場合とクラウドセットを追加した場合を比較した.opalはF値が0.387から0.311へと約7\%悪化したのに対し,BERTは0.088から0.374へと大幅にF値が向上した.クラウドセットは品質が悪いものの規模が大きいという特性を持つ.高次元離散素性を用いる分類器は品質の悪さの影響を強く受けたのに対して,ニューラルネットの学習には大規模な訓練データが不可欠であり,クラウドセットの規模が品質の悪さを打ち消してあまりあることがわかる.さらに,BERT+forwardcorrectionはBERTと比べてF値が約3\%向上し,opalのF値を上回った.forwardcorrectionが品質の問題を軽減し,精度向上をもたらすことが確認できる.以上のことから,クラウドセットはニューラルネットの学習に不可欠であり,その際にforwardcorrectionのようなノイズ耐性を備えた学習手法が有効であると結論づけられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{談話標識の自動認識精度評価}\ref{sec:dc_prediction}節で整備した談話標識の自動認識は明示的な談話関係だけに焦点を絞ったルールベースの解析器とみなせる.そこで,\ref{sec:dc_prediction}節のルールを実装した{\bf談話標識を手がかりとした解析器}を用いて談話標識の自動認識の性能を評価する.テストセットは{\bf専門家セット}(2,320節ペア)とした.実験の結果,表\ref{fig:dra}のDCの適合率より精度が高いことが分かる.したがって,談話標識の自動認識は高精度な明示的談話関係解析器として利用可能である.DCの解析誤り例を以下に示す.なお,抽出された談話標識には下線を引いている.\ex.\label{DC_error1}電報にもエコロジーを意識したものがあるのをご存知でしょうか.電報には台紙などで紙を使います.【1年間で送られる電報の数を\underline{考えれば,}】【消費される紙の量も相当でしょう.】\\{\bf専門家セット}:根拠(順方向),DC:条件\ex.\label{DC_error2}文学資料閲覧のための施設です.埼玉ゆかりの文学者の作品や文学関係の資料が閲覧できます.コピーサービスは1枚10円で行っておりますが,【貸出はできません\underline{ので}】【御了承ください.】\\{\bf専門家セット}:談話関係なし,DC:原因・理由\ex.\label{DC_error3}\begin{enumerate}\renewcommand{\labelenumi}{(\roman{enumi})}\item「パーキンソン病は小刻み歩行を主な症状とする病気です.\item例外的に20歳台から発症する方や,80歳を越えてから\item【発症される方もあります.】\item【脳の中の黒質という数が減ることが\underline{原因です}.】\end{enumerate}{\bf専門家セット}:談話関係なし,DC:原因・理由DCの誤りを分析すると,例\ref{DC_error1}や例\ref{DC_error2}のような,談話標識以外の要素によって談話関係が定義される例が多く存在した.例えば例\ref{DC_error1}の場合,後節に推量表現「~でしょう」があるので``根拠''となるが,DCは条件を示す談話標識「~ば」のみに着目しているため誤答した.同様に,例\ref{DC_error2}は後節の定型表現を見落としていたため,誤答している.例\ref{DC_error3}は抽出された談話標識「原因です」が示す先は前節にあたる(iii)ではなく,(i)である.例\ref{DC_error3}や\ref{sec:dc_prediction}節の例\ref{dc_error0}のような節が隣り合っていない明示的なペアについての扱いは,今後の検討課題である.しかし,例\ref{DC_error1}や例\ref{DC_error2},例\ref{DC_error3}において,抽出された談話標識自体は妥当であることから,\ref{sec:dc_prediction}節で整備した自動認識器自体には問題がないと推測する.一方,談話標識の自動認識が誤っている例は11例あった.具体例を示す.\ex.\label{DC_error4}むかしむかし,この世界をつくったインデアンの神さまが旅にでました.そして,雪がいっぱいつもった村にきました.【村にはいる\underline{と},】【おばあさんがないています.】\\{\bf専門家セット}:談話関係なし,DC:条件\ex.\label{DC_error5}噂の大ちゃんですね!【心配したぞ!】【\underline{でも}冒険したせいかちょっとりりしくなった?】{\bf専門家セット}:談話関係なし,DC:逆接談話標識「~と」は,文脈によって``条件''を示す場合と``談話関係なし''(時間経過)を示す場合がある.例\ref{DC_error4}では,後節の時制が過去でないことから``条件''と識別したが,誤答している.また,$<$節-前向き機能$>$については$<$節-機能疑$>$のような節ペアの関係に曖昧性がある場合を想定したタグを設定していない.しかし,例\ref{DC_error5}の「でも」は話題提示を示しており,談話関係とは関係ない標識である.これらのルールの修正は今後の課題である.本研究で構築した談話標識の自動認識は,明示的な談話関係の解析器として高精度であることが表\ref{fig:dra}より分かった.そのため精度が高い解析結果のみを抽出して,他のアプリケーションに応用するという用途において利用可能だと考える.実際,本研究で構築した談話標識の自動認識は談話関係解析を応用したアプリケーションで使用されている\cite{Saito2019a,kiyomaru:nlp2020}.Saitoらは因果関係や対比関係を持つ文ペアを大規模コーパスから収集し学習データとして用いることで,あるイベントの極性を高精度で推測するモデルを構築した.この際,本研究で整備した談話標識の自動認識を使用することで高品質な文ペアを収集している.清丸らは商品・サービスのレビューを原因・結果・解決策の3種類に集約することで情報を整理し,解決の糸口となる新たな知見や気づきを喚起するシステム「因果関係グラフ」を提案した.その際,談話標識の自動認識を使用することで因果関係を持つレビューを抽出している.これらの研究から,本研究で整備した自動認識は因果関係抽出や知識抽出,言論マップなどの談話関係解析を応用したアプリケーションに適用可能であることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本研究では日本語の談話関係解析を実用化するため,英語の談話関係タグ付きコーパスPDTB2.0を参考に,日本語の談話関係解析タスクを定義した.また,様々なドメインを含んだコーパスに,談話単位と談話標識,談話関係タグをアノテーションすることで日本語の談話関係タグ付きコーパスを構築した.この際,高速にコーパスを構築するため,談話単位である節と談話標識はルールベースの認識器を用いて自動認識することとした.また,人手でアノテーションをする談話関係タグはPDTB2.0の``CONTINGENCY''と``COMPARISON''などを参考に2階層,下位7種類という非常に簡潔なタグセットにした.談話関係タグのアノテーションは,3名の専門家がタグ付けした小規模なものとクラウドソーシングを用いてタグ付けした大規模なものの2種類を実施した.クラウドソーシングを行う際には,談話関係アノテーションタスクの難易度を考慮し,タスクを2段階に分割する,クラウドワーカーに言語テストを提示するという2つの手法を用いて,タスクの簡易化とアノテーション品質の向上を試みた.その結果,6,445文書(40,067節ペア)からなる談話関係タグ付きコーパスが完成した.また,専門家のアノテーション結果と比較することでクラウドソーシングを用いた場合のアノテーション傾向と品質について分析した.分析の結果,クラウドソーシングを用いたアノテーションは品質が良くなく,改善の余地があることが分かった.改善方法としてはタスクのさらなる分割や談話標識の自動認識の活用が考えられる.本研究で構築したコーパスを用いて談話関係解析を訓練した.実験結果より,クラウドソーシングのアノテーションはニューラルネットワークベースの談話関係解析器を学習する際に有効であることが分かった.また,非明示的な談話関係を含む談話関係の解析は依然として挑戦的な課題だが,明示的な談話関係に限れば,本研究で整備した談話標識の自動認識が高精度な解析器として利用可能であることを示した.この解析器は,因果関係抽出や知識獲得,談話関係解析を応用したアプリケーションなどへの応用が期待できる.本研究で構築したコーパスはすでに公開されている京都大学ウェブ文書リードコーパスの一要素として公開した.また,節と談話標識の自動認識ルールは日本語構文・格解析器KNPの一要素として公開した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment研究開始時において澤田晋之介氏の多大なる貢献がありました.また,クラウドソーシングを実施するにあたり,颯々野学氏,小林隼人氏,柴田知秀氏,町田雄一郎氏からご助言をいただきました.石川真奈見氏,二階堂奈月氏,堀内マリ香氏には専門家として本コーパスのタグ付け作業にご協力いただきました.この場を借りて皆様に感謝申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix\renewcommand{\theequation}{A.\arabic{equation}}\setcounter{equation}{0}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{談話関係タグの基準} \label{sub:annotation_manual1}表\ref{Table:Tagset}に示した7つの談話関係タグごとの基準を詳細に記す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{順接系}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{原因・理由}「~ので」,「だから」のような原因・理由を示す談話標識が節ペアに含まれている,もしくは原因・理由を示す談話標識を節ペアに挿入しても意味的なつながりが変化しない場合,``原因・理由''のタグを付与する\footnote{PDTB2.0および3.0の``CONTINGENCY.Cause''に相当する.}.この関係をもつ節ペアには方向があり,一般に,一方の節が原因もしくは理由,他方の節が結果となる\footnote{PDTB2.0では順方向の``原因・理由''を``CONTINGENCY.Cause.result'',逆方向の``原因・理由''を``CONTINGENCY.Cause.reason''としている.PDTB3.0では前述のタグに加え``CONTINGENCY.cause+belief''も``原因・理由''に相当する.}.例を示す.\ex.\label{ex:strong_cause}【必死に勉強したので,$_{原因・理由}$】【試験に受かった.】\ex.\label{ex:weak_cause}【お客様一人ひとりにあったまつ毛のスタイルや,ケアの方法をご提案しています.$_{原因・理由}$】【何でもお気軽にご相談ください.】\ex.\label{ex:first_person_cause}【明るく,分かりやすく,楽しく教えていきたいです.】【勉強は誰もが嫌いなものです.$_{原因・理由}$】なお,例\ref{ex:weak_cause}のような比較的弱い因果関係を持つ場合や,例\ref{ex:first_person_cause}のような書き手の主観的な理由も``原因・理由''とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{目的}「~するため」のような目的を示す談話標識が使われている,もしくは目的を示す談話標識を節ペアに挿入しても意味的なつながりが変化しない場合,``目的''とする\footnote{PDTB3.0の``CONTINGENCY.purpose''に相当する.PDTB2.0では``目的''を直接的に示すタグは存在しない.}.この関係をもつ節ペアにも方向があり,一般に,一方の節が目的,他方の節が手段となる.例を以下に示す.\ex.【試験に受かるために,$_{目的}$】【必死に勉強した.】\ex.【都会から離れて,】【体をリフレッシュする.$_{目的}$】%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{条件}「~すれば」「~すると」のような条件を示す談話標識が使われている,もしくは条件を示す談話標識を節ペアに挿入しても意味的なつながりが変化しない場合,``条件''とする\footnote{PDTB2.0の``CONTINGENCY.Condition''に相当する.PDTB3.0では前述のタグに加え,否定条件を示す``CONTINGENCY.negative-condition''も``条件''に相当する.}.この関係をもつ節ペアにも方向があり,一般に,一方の節が条件,他方の節が結果となる.例を以下に示す.\ex.【酒を飲むと$_{条件}$】【すぐ顔が赤くなる.】\ex.\label{ex:condition1}【雨が降れば,$_{条件}$】【道がぬれる.】例\ref{ex:condition1}のように仮定的な条件の場合も``条件''とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{根拠}``原因・理由'',``目的'',``条件''には該当しないが,節ペアの関係が根拠に基づく推量や認識と解釈できれば,``その他根拠''とする\footnote{PDTB2.0および3.0では中位・下位ラベルを伴わない``CONTINGENCY''としてアノテーションされている.}.この関係をもつ節ペアには方向があり,一般に,一方の節が根拠,他方の節が推量や認識となる.例を以下に示す.\ex.【試験に受かったのだから,$_{根拠}$】【必死に勉強したのだろう.】\ex.【ツバメは,巣材集めの真っ最中のようです.】【毎日,泥や枯れ草をくちばしにくわえて飛び立っていきます.$_{根拠}$】%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{逆接系}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対比}「~の一方で~」のような対比を示す談話標識が使われている,もしくは対比を示す談話標識を節ペアに挿入しても意味的なつながりが変化しない場合,``対比''とする\footnote{PDTB2.0および3.0の``COMPARISON.Contrast''に相当する.}.一方の節が他方の節を含意している場合も含む.この関係をもつ節ペアは方向をもたないため,本稿では前節と後節の間に談話関係タグ``対比''を記す.例を以下に示す.\ex.【大阪は雨だが,】$_{対比}$【東京は晴れだ.】\ex.【本施設は会員の方は使えますが,】$_{対比}$【非会員の方は使えません.】%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{逆接}節ペアの関係を表す際,「~しかし~」のような逆接を示す談話標識や「確かに~だが~」のような譲歩を示す談話標識が使われている,もしくは逆接や譲歩を示す談話標識を節ペアに挿入しても意味的なつながりが変化しない場合,``逆接''とする\footnote{PDTB2.0および3.0の``COMPARISON.Concession''に相当する.}.``対比''は方向をもたないが,逆接はどちらかの節に主眼があるので方向をもつ.例を以下に示す.\ex.【昨日は雨が降っていた.$_{逆接}$】【しかし,野球の試合があった.】\ex.【明日は1日休みだ.】【もしかすると急に仕事が入るかもしれないが.$_{逆接}$】\ex.\label{reverse_cond}【彼が来たとしても,$_{逆接}$】【状況は改善されなかっただろう.】例\ref{reverse_cond}のような仮定的な逆接表現(以降,``逆条件''と呼ぶ)の場合も``逆接''とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関係なしまたは弱い関係}節ペアに意味的なつながりがない,もしくは節ペアの関係が時間経過\footnote{PDTB2.0および3.0の``TEMPORAL''に相当.}や,例示,補足,列挙,要約・敷衍・換言・含意,付加など\footnote{PDTB2.0および3.0の``EXPANSION''に相当.}の弱い関係,謝罪や感謝,話題導入を示す定型表現である場合,``関係なしまたは弱い関係''とする.例を以下に示す.\ex.【毎日暑い日が続きますね.】【父の手術も無事に終わり,】少しだけほっとしてます.\ex.\label{ex:other1}【これ以外の環境ではご利用いただけない可能性がありますので,】【あしからずご了承ください.】\ex.\label{ex:other2}【画像を利用する際にコメントなどを頂戴し】【ありがとうございます.】\ex.\label{ex:other3}【コンビニのドル箱商品といえば】【やはり「おにぎり」です!】例\ref{ex:other1}は``原因・理由''とも解釈できるが,後節の「ご了承ください」が定型表現なので``関係なしまたは弱い関係''とする.同様に例\ref{ex:other2}は後節が定型表現,例\ref{ex:other3}は文全体が話題導入を示す定型表現なので``関係なしまたは弱い関係''となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{曖昧性がある談話標識の分類} \label{sub:ambiguous_clause_function}談話標識「~のに」「~ため」「~ても」は$<$節-機能$>$となる場合と,$<$節-機能疑$>$となる場合が存在する.以下で具体的に説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{~のに}「~のに」は原則として$<$節-機能疑-目的$>$と$<$節-機能疑-逆接$>$が付与されるが,「タ形+のに」,「~なのに」の場合のみ$<$節-機能-逆接$>$が付与される.\ex.【大学に行く\underline{のに},$_{<節-機能疑-目的><節-機能疑-逆接>}$】【電車とバスを使う.】\ex.【彼が来\underline{たのに},$_{<節-機能-逆接>}$】【誰も反応しない.】\ex.【信号が青\underline{なのに}$_{<節-機能-逆接>}$】【立ち止まっている.】%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{~ため}「~ため」は直前の述語によって,付与されるラベルが変化する(表\ref{tab:tame}参照).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\caption{``~ため''の分類}\label{tab:tame}\input{07table12.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{~ても}「~ても」は係り先の基本句の時制によって付与されるラベルが変化する.係り先の時制が過去である場合は$<$節-機能疑-条件-逆条件$>$と$<$節-機能疑-逆接$>$が,係り先の時制が非過去(現在もしくは未来)である場合は$<$節-機能-条件-逆条件$>$を付与する.\ex.\label{temo_past_1}【彼が来\underline{ても},$_{<節-機能疑-条件-逆条件><節-機能疑-逆接>}$】【状況は改善されなかった.】\ex.\label{temo_past_2}【彼が来\underline{ても},$_{<節-機能疑-条件-逆条件><節-機能疑-逆接>}$】【状況は改善されなかっただろう.】\\※例\ref{temo_past_1}は逆接,例\ref{temo_past_2}は逆条件の関係を持つ.\ex.【不審な点がなく\underline{ても}$_{<節-機能-条件-逆条件>}$】【受付近くの応接スペースで応対する.】%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{岸本裕大}{%2014年京都大学工学部電気電子工学科卒業.2016年同大学大学院情報学研究科修士課程修了.2020年同大学院博士課程単位取得認定退学.同年エニシア株式会社に入社.談話関係解析の研究に従事.修士(情報学).情報処理学会,言語処理学会,各会員.}\bioauthor{村脇有吾}{%2011年京都大学大学院情報学研究科博士後期課程修了,博士(情報学).同年京都大学学術情報メディアセンター特定助教,2013年九州大学大学院システム情報科学研究院助教,2016年京都大学大学院情報学研究科助教,現在にいたる.テキスト解析および計算言語学に関する研究に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{河原大輔}{%1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構主任研究員,京都大学大学院情報学研究科准教授を経て,2020年より早稲田大学基幹理工学部情報通信学科教授.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{%1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V15N05-02
\section{はじめに} \label{sec:intro}言語横断情報検索や言語横断質問応答,機械翻訳などの2つの言語に関わる処理を実現するには,その言語対に対する大規模対訳辞書などの言語横断言語資源が必要である.情報流通技術の発達に伴って,様々な言語で記述された情報を活用することが可能となりつつあり,複数言語を対象とする自然言語処理技術はますます重要な課題となることが予想される.しかし,世界には数多くの言語が存在するため,あらゆる言語対を対象として豊富な言語資源を整備することは,非現実的である.現実には,需要の大きい一部の言語対については大規模な言語資源が利用できるが,それ以外の多くの言語対については,小規模な対訳辞書しか利用できない場合が多い.もし,新規の言語対に対して対訳辞書を自動的に構築することができれば,このような状況を改善するのに非常に役立つと考えられるが,広く知られている通り,完全に自動的に高精度の対訳辞書を構築することはかなり困難である.そのため,本論文では,新規対訳辞書の自動構築というタスクに代わって,既存の小規模な対訳辞書を拡充するというタスクに着目する.まず,入力言語,中間言語,出力言語という3つの言語を考えた時,入力言語から出力言語への小規模な対訳辞書(以後,{\bfseries種辞書}と呼ぶ)と,入力言語から中間言語への大規模な辞書および,中間言語から出力言語への大規模な辞書という3つの辞書が利用できる状況を考える.この時,種辞書を拡充するというタスクは,以下の2つの条件を満たす語の訳語を推定するというタスクとして定義される.第1に,その語は,種辞書には登録されていない未知語である.第2に,入力言語から中間言語への対訳辞書と中間言語から出力言語への対訳辞書の両方を参照することにより,その語の出力言語上での訳語候補が得られる.タスクの設定から明らかに,種辞書の拡充というタスクは,2つの仮定に依存している.まず,(a)小規模な種辞書が存在しなければならず,次に,(b)先に述べた条件を満たす適切な中間言語が存在しなければならない.最初の仮定(a)から,完全に新規の言語対に対しては,このタスク設定は適用できないという制限が発生する.しかし,最近のネットワークとコンピュータの発達にともない,そのような完全に新規の言語対は少なくなりつつあり,非常に小規模な対訳辞書でも良ければ,多くの言語対について対訳辞書が利用できるようになってきている.また,英語を中間言語として考えると,多くの言語対について,後の仮定(b)が成り立つことは経験的に知られている.したがって,種辞書の拡充というタスクは,対訳辞書の自動構築よりも多くの仮定に依存していることは事実であるが,この仮定は多くの場合に問題にならないと考えられ,かつ,これらの仮定を導入することによって利用可能となる知識を用いれば,より簡単に訳語推定が可能になると期待される.種辞書の拡充というタスクは,新規対訳辞書の自動構築や,既存辞書に登録されていない新規な未知語に対する訳語の推定といった関連研究とは,2つの点で異なっている.\cite{日仏対訳辞書}は,英語を中間言語として利用し,和英辞書と英和辞書および英仏辞書と仏英辞書という4種類の辞書を利用して,新規の和仏対訳辞書を作成する方法を提案している.このような新規対訳辞書の自動構築というタスクでは,対象とする言語対についてはまったく対訳辞書が存在しない状況を想定しており,入力言語—出力言語の対訳辞書から得られる情報を考慮することは行われていない.それに対して,本論文で提案する辞書拡充というタスクは,小規模な種辞書から得られる情報をなるべく有効に利用しようとしている点で,先行研究とは異なる.\cite{ウェブから対訳を推定}は,既存の対訳辞書に登録されていない新規な未知語を対象として,大規模なコンパラブルコーパスなどを用いて訳語の推定を行っている.このような研究は,既存の対訳辞書から得られる情報を用いているという点では,辞書拡充というタスクと類似している.しかし,このような新規な未知語の多くは名詞であるため,多くの先行研究では,未知の名詞の訳語推定に特化した検討がされている.それに対して,非常に小規模な種辞書の拡充を行うには,名詞のみの訳語推定では不十分であり,動詞・形容詞などについても訳語の推定を行う必要が生じる.この問題については,\ref{subsec:辞書の分析}節で再び議論する.以下,\ref{sec:expansion}節では,中間言語を用いて対訳辞書を拡充する方法を提案する.\ref{sec:experiment}節では,入力言語をインドネシア語,中間言語を英語,出力言語を日本語として,対訳辞書の拡充を行った実験について報告する.特に,拡充された辞書を,実際の言語横断情報検索システムに組み込んで,評価した結果について報告する.\ref{sec:related_works}節では関連研究について述べ,最後に結論を述べる. \section{中間言語を用いた対訳辞書の拡充} \label{sec:expansion}\subsection{対訳辞書の拡充}ある入力言語から,ある出力言語への対訳辞書を作成するとき,以下のような状況を仮定する.\begin{quote}\textbf{仮定:}ある中間言語を考えると,入力言語から出力言語への小規模な対訳辞書(以下,\textbf{種辞書}と呼ぶ)と,入力言語から中間言語への大規模な対訳辞書および中間言語から出力言語への大規模な対訳辞書が存在する.\end{quote}このような仮定は,英語を中間言語とすると,かなり多くの言語対に対して成り立つことが期待できる.本論文では,上述の仮定の下で,入力言語から中間言語への大規模対訳辞書には登録されているが,種辞書には登録されていない語の訳語を推定することによって,種辞書を拡充するというタスク(対訳辞書の拡充)を扱う.\subsection{中間言語と共起ベクトルを用いた拡充方法}\label{subsec:提案手法}本論文で提案する拡充方法は,以下の2段階からなる.\begin{enumerate}\item入力言語のコーパスを用いて,翻訳したい単語と,種辞書に登録されている見出し語の単語共起ベクトルを作成する.次に,その単語共起ベクトルを,種辞書を用いて,出力言語上のベクトルに変換する.\item入力言語から中間言語への対訳辞書と,中間言語から出力言語への対訳辞書を利用して,訳語候補を列挙する.出力言語のコーパスを用いて,それぞれの訳語候補について単語共起ベクトルを作成し,前段階で得られたベクトルとの類似度に基づいて,訳語を決定する.\end{enumerate}提案手法の概略を,\figref{fig:提案手法}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f1.eps}\caption{提案手法}\label{fig:提案手法}\end{center}\end{figure}最初に,入力言語上の単語共起ベクトルを,種辞書を用いて,出力言語上のベクトルに変換する.言語を問わず,コーパス上における単語$w_{i},w_{j}$の共起頻度は$f(w_{i},w_{j})$と表す.種辞書$D$の全見出し語を$x_{i}(i=1,2,\ldots,n)$とすると,入力言語の単語$x_{s}$の共起ベクトル$\bf{v}(x_{s})$は,次式のように表される.\begin{equation}\bf{v}(x_{s})=(f(x_{s},x_{1}),\ldots,f(x_{s},x_{n}))\label{eq:src_vector}\end{equation}つまり,この共起ベクトル$\bf{v}(x_{s})$の各次元は,入力言語の単語と対応している.この共起ベクトル$\bf{v}(x_{s})$を,種辞書を用いて,各次元要素が出力言語の単語と対応するようなベクトル$\bf{v}_{t}(x_{s})$に変換する.\begin{equation}\bf{v}_{t}(x_{s})=(f_{t}(x_{s},z_{1}),\ldots,f_{t}(x_{s},z_{m}))\label{eq:trans_vector}\end{equation}ここで,$z_{j}(j=1,2,\ldots,m)$は,種辞書に現れる全ての訳語である.また,$f_{t}(x_{s},z_{k})$は,単語$x_{s}$に関する入力言語コーパス上の共起頻度を,出力言語の単語$z_{j}$との共起の程度を示すように変換する関数であり,次のように定義する.\begin{equation}f_{t}(x_{s},z_{j})=\sum_{i=1}^{n}f(x_{s},x_{i})\cdot\delta(x_{i},z_{j})\end{equation}ここで,$\delta(x_{i},z_{j})$は,単語$z_{j}$が単語$x_{i}$の訳語であるかどうかを示す関数であり,単語$x_{i}$を種辞書で調べたときに得られる訳語集合を$D(x_{i})$とすると,次式によって表される.\begin{equation}\delta(x_{i},z_{j})=\begin{cases}1&\mbox{if}\z_{j}\inD(x_{i})\\0&\mbox{otherwise}\end{cases}\end{equation}次に,訳語候補を,以下の手順で列挙する.最初に,入力言語の単語$x_{s}$について,入力言語から中間言語への対訳辞書を検索して,中間言語上の訳語集合$\bf{Y}_{s}$を得る.続いて,得られた訳語$\bf{y}_{s}\in\bf{Y}_{s}$を用いて,中間言語から出力言語への対訳辞書を検索し,出力言語上の訳語候補集合$\bf{Z}_{s}$を得る.ただし,訳語$\bf{y}_{s}$は,一般に,複数の語からなることがあり得る.通常の対訳辞書において,入力言語の単語$x_{s}$に相当する単語が中間言語上に存在する場合には,その相当する単語を訳語として使うことができるが,相当する単語が中間言語上に存在しない場合には,複数の語からなる句または説明文の形の訳語が使われる.そこで,訳語$\bf{y}_{s}$が単語1語からなっていた場合は,そのまま中間言語から出力言語への対訳辞書を検索し,訳語$\bf{y}_{s}$が複数の語からなっていた場合は,訳語$\bf{y}_{s}$を構成する語全てを1つずつ用いて中間言語から出力言語への対訳辞書を検索し,得られた全ての訳語候補集合の和集合を訳語$\bf{y}_{s}$の訳語候補集合とする.訳語候補$\bf{z}_{s}\in\bf{Z}_{s}$についても同様に,複数の語からなることがあり得る.ある訳語候補$\bf{z}_{s}$が単語列$z_{s}^{1}z_{s}^{2}\cdots{}z_{s}^{l}$である時,訳語候補$\bf{z}_{s}$の共起ベクトルを構成語全てを用いて次式のように求める.\begin{equation}\bf{u}(\bf{z}_{s})=\left(\sum_{k=1}^{l}f(z_{s}^{k},z_{1})\,\ldots,\\sum_{k=1}^{l}f(z_{s}^{k},z_{m})\right)\label{eq:dst_vector}\end{equation}ベクトル$\bf{v}_{t}(x_{s})$とベクトル$\bf{u}(\bf{z}_{s})$のcosine類似度$s(\bf{v}_{t}(x_{s}),\bf{u}(\bf{z}_{s}))$を計算し,適当な条件を満たした訳語候補$\bf{z}_{s}$を,単語$x_{s}$の訳語として出力する.本論文では,条件として,(1)類似度の大きい訳語候補から順に出力する,(2)類似度が適当な閾値より大きい訳語候補を出力する,という2通りの方法を考える.この評価については,\ref{subsec:閾値の比較}節で述べる.\paragraph{例}\入力言語としてインドネシア語,出力言語として日本語,中間言語として英語を用いた場合,提案手法による対訳辞書の拡充が,どのようにして行われるかを具体例を用いて示す.拡充対象となる語は,インドネシア語—日本語辞書(種辞書)には登録されていないが,インドネシア語—英語辞書には登録されている語である\footnote{実際には,正解訳語の判定を安定して行うために,元々の辞書に登録されている語を一部取り除いた辞書を種辞書,取り除いた語をテスト単語として実験を行った.詳細については,\ref{subsec:condition}節を参照.}.そのような語`peradaban'をインドネシア語—英語辞書を用いて翻訳すると,2つの英訳語`civilization',`culture'が得られる.次に,この2つの英訳語を,英語—日本語辞書を用いて翻訳すると,13通りの訳語候補が得られる.\begin{quote}文明,文明人,文化,文化生活,教化,開化,教養,都会,人口密集地,養成する,培養する,培養,菌株\end{quote}これらの訳語候補に対して\eqnref{eq:dst_vector}によって求めたベクトル$u(\mbox{文明}),u(\mbox{文明人}),\ldots,u(\mbox{菌株})$と,\eqnref{eq:trans_vector}によって求めたベクトル$v_{t}(\mbox{`peradaban'})$とのcosine類似度と,それぞれの訳語候補が実際に訳語として正しいかどうかを人手で判定した結果を,\tabref{tbl:example}に示す.この場合,13通りの訳語候補から類似度順に上位3個の訳語候補を訳語として出力すると,出力された3個の訳語中で正しい訳語は1個だけであるから,精度は33\%となり,正しい2個の訳語中で出力された訳語は1個だけであるから,再現率は50\%となる.類似度が0.2より大きい訳語候補を選択した場合には,精度は20\%,再現率は100\%である.この手順を,対象となる全ての語に対して行うと,インドネシア語—英語辞書と英語—日本語辞書によって訳語候補が見つかる全ての語を含む拡充された辞書が得られる.\begin{table}[t]\caption{インドネシア語単語`peradaban'に対する訳語候補の例}\label{tbl:example}\begin{center}\input{02table01.txt}\end{center}\end{table}\subsection{共起ベクトルの補正}共起ベクトルを求めるとき,単純な共起頻度$f(w_{i},w_{j})$を用いる代わりに,適当な補正を加える方法が有効である可能性がある.その方法として,本論文では,共起頻度を補正する方法と,LatentSemanticAnalysis(LSA)に基づいてベクトルを変換する方法の2通りを検討する.まず,情報検索においてしばしば用いられる$TF\cdotIDF$の考え方を応用して,以下の2通りの補正された頻度を,単純な共起頻度$f(w_{i},w_{j})$の代わりに用いる方法を比較する.\begin{align}f_{\rmIDF}(w_{i},w_{j})&=\frac{f(w_{i},w_{j})}{df(w_{j})}\label{eq:IDF}\\f_{\rmTFIDF}(w_{i},w_{j})&=\frac{f(w_{i},w_{j})\cdot{}tf(w_{j})}{df(w_{j})}\label{eq:TFIDF}\end{align}ここで,$tf(w)$は,ある単語$w$の単語出現頻度であり,$df(w)$は,ある単語$w$の文書出現頻度である.LSAに基づく方法では,まず,日本語コーパス上での単語—文書共起行列$A$を求める.この行列$A$の$i$行$j$列の要素は,単語$w_{i}$の文書$d_{j}$中における頻度である.この時,行列$A$の行数は,種辞書に出現する語数$m$に等しく,列数は,コーパスに含まれる文書数$d$に等しい.このような行列$A$は,次式のように,3つの行列$U,D,V$に特異値分解することができる.\begin{equation}A_{m\timesd}=U_{m\timesr}D_{r\timesr}V^{\rmT}_{d\timesr}\end{equation}ただし,$r$は行列$A$の階数である.この時,適当な小さい階数$r'$(ただし,$r'<r$)を選ぶと,階数$r'$における行列$A$の最適近似は次式によって表される.\begin{equation}U'_{m\timesr'}D'_{r'\timesr'}V'^{\rmT}_{d\timesr'}\end{equation}ただし,$U',D',V'$の各要素は,それぞれ,行列$U,D,V$の対応する要素と等しい.ここで,左特異行列$U'$の各行は,その行に対応する語が,単語—文書という共起の観点から見て,他の語とどのように類似しているかを表すベクトルと考えることができる.このようにして得られた語の類似性を表すベクトルを用いて,\eqnref{eq:trans_vector}で求められたベクトル$v_{t}(x_{s})$と,\eqnref{eq:dst_vector}で求められたベクトル$u(z_{s})$を,以下のように補正する.\begin{align}v_{\mathrm{LSA}}(x_{s})&=v_{t}(x_{s})\U'\label{eq:LSA1}\\u_{\mathrm{LSA}}(z_{s})&=u(z_{s})\U'\label{eq:LSA2}\end{align}このように補正することにより,類似語と共起している場合の訳語選択を,より適切に行えるようになる可能性がある.これらの補正方法の評価については,\ref{subsec:補正の比較}節で述べる. \section{評価実験} \label{sec:experiment}入力言語をインドネシア語,中間言語を英語,出力言語を日本語として,対訳辞書の拡充を行った実験について述べる.\subsection{実験条件}\label{subsec:condition}本論文では,日本語コーパスとして,毎日新聞CD-ROM(1993年$\sim$1995年)を,形態素解析器MeCab~\cite{mecab}で形態素解析したデータを用いた.共起ベクトルを用いて単語間の意味的な類似度を測定するには,なるべく類似したドメインに対するコーパスの方が良い結果が得られると予想される.しかし,インドネシア語に対する既存の言語資源は大変少ないため,インドネシア国内向けに編集・公開されているウェブ新聞\footnote{\url{http://www.kompas.com/},\url{http://www.tempointeraktif.com/}}の記事を,インドネシア語コーパスとして用いた.各コーパスの諸元は\tabref{tbl:コーパスの諸元}の通りである.\begin{table}[b]\caption{コーパスの諸元}\label{tbl:コーパスの諸元}\begin{center}\input{02table02.txt}\end{center}\end{table}\begin{table}[b]\caption{語彙サイズと品詞分布}\label{tbl:語彙サイズと品詞分布}\begin{center}\input{02table03.txt}\end{center}\end{table}インドネシア語から日本語への対訳辞書としては\cite{IEDIC}を,インドネシア語から英語への対訳辞書としては\cite{IEDIC}を,英和辞書としては英辞郎\cite{EJDIC}を用いた.各辞書の語彙サイズを\tabref{tbl:語彙サイズと品詞分布}に示す\footnote{\tabref{tbl:語彙サイズと品詞分布}において,「その他」は,品詞情報が付与されていない見出し語全て(複数語からなる慣用句など)を含む.}.対訳辞書の拡充手法を正確に評価するには,インドネシア語から英語への対訳辞書に収録されているが,種辞書には収録されていない語,つまり実際の拡充対象となる語を対象として,各種評価を行う必要がある.しかし,そのような語については正解訳語のリストが存在せず,安定した評価が難しい.そのため,本論文では,インドネシア語から日本語への対訳辞書から,500個の訳語対をテスト用として取り出し,残りの訳語対のみを登録した辞書を種辞書として実験を行う.この時,インドネシア語コーパスを用いて,拡充対象となる語の頻度分布を調査し,得られた頻度分布と,テスト用訳語対のインドネシア語単語の頻度分布が概ね等しくなるように,テスト用訳語対を選択した.結果を\figref{fig:テスト単語}に示す.また,選択されたテスト単語(500語)に対する訳語候補数を\tabref{tbl:テスト単語対の諸元}に示す.インドネシア語1語に対して英語訳語候補は平均1.73個,日本語訳語候補は平均3.03個存在する.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f2.eps}\end{center}\caption{インドネシア語—日本語の訳語対のインドネシア語コーパス中の頻度分布}\label{fig:テスト単語}\end{figure}\begin{table}[b]\caption{テスト単語対の諸元}\label{tbl:テスト単語対の諸元}\begin{center}\input{02table04.txt}\end{center}\end{table}評価尺度としては,次式によって定義される精度,再現率,$F_{\beta=1}$値,訳語含有率を用いた.{\allowdisplaybreaks\begin{align*}\mbox{精度}&=\frac{a}{b}\\\mbox{再現率}&=\frac{c}{d}\\F_{\beta=1}&=\frac{2\times\mbox{精度}\times\mbox{再現率}}{\mbox{精度}+\mbox{再現率}}\\\mbox{訳語含有率}&=\frac{e}{f}\end{align*}}ただし,出力された候補の内,正解と判定された候補の数を$a$,出力された候補の総数を$b$とする.また,正解の内,出力された正解の数を$c$,正解の総数を$d$とする\footnote{正解と同義の表現が出力された場合は,人手で判定を行った.そのとき,1つの正解に対して複数の出力が対応付けられ,$a$と$c$が等しくならないことがある.}.$e$は出力された候補中に少なくとも1つの正解が含まれていたテスト単語の数,$f$はテスト単語の総数(500)である.\subsection{出力する訳語の選択方法による比較}\label{subsec:閾値の比較}\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f3.eps}\end{center}\caption{出力する訳語の選択方法による比較}\label{fig:閾値の比較}\end{figure}類似度によって整列された訳語候補リストから,どの部分を訳語候補として出力することが適切かを検討する.上位$n$候補を取り出した場合と,類似度$s$が閾値より大きい候補を取り出した場合の精度・再現率を\figref{fig:閾値の比較}に示す.\figref{fig:閾値の比較}では,ベースラインとして,3通りの訳語選択方法を想定している.第1の方法および第2の方法は,逆引きによって訳語候補を選択する手法\cite{日仏対訳辞書}である.逆引き用辞書としては,\cite{EJDIC}に含まれている和英辞書を使い,中間言語(英語)上で一致度を求めた\footnote{この方法は,\cite{日仏対訳辞書}では「1回逆引き法」として言及されている方法である.}.提案法と同様に,一致度の上位$n$候補を取り出した場合を第1のベースライン,一致度が閾値$x$より大きい候補を取り出した場合を第2のベースラインとする.第3のベースラインは,まったく訳語選択を行わずに,インドネシア語から英語への対訳辞書と英和辞書を検索して得られた日本語訳語候補全てを訳語として選択する手法である.\figref{fig:閾値の比較}より,提案法には,類似度と閾値を比較して訳語を選択すると,低い閾値を用いた場合には,良い精度が得られず,高い閾値を用いた場合には,精度は改善されるが,出力される訳語が極端に少なくなってしまう問題があることが分かる.つまり,提案法に対しては,適当な閾値と比較して訳語を選択する方法よりも,上位$n$候補を選択する方法が適している.適切な$n$は,拡充した辞書を利用する実際の応用アプリケーションによって変化すると予想されるが,本論文では,最も良い$F_{\beta=1}$値が得られた$n=3$を用いることにする.上位$n$候補を訳語として選択した場合の提案法は,逆引きを用いた2通りのベースラインに対して,全ての評価尺度で優っている.また,提案法は,まったく訳語選択を行わないベースラインに対して,精度および$F_{\beta=1}$値で優っている.\subsection{共起ベクトルの補正方法の比較}\label{subsec:補正の比較}単純な共起頻度を用いて共起ベクトルを求めた場合,\eqnref{eq:IDF}のように文書出現頻度を用いて共起頻度を補正して共起ベクトルを求めた場合,\eqnref{eq:TFIDF}のように単語出現頻度と文書出現頻度を用いて共起頻度を補正して共起ベクトルを求めた場合,さらに\eqnref{eq:LSA1}と\eqnref{eq:LSA2}のようにLSAに基づいて共起ベクトルを補正した場合を比較した.LSAに基づく方法では,$10\sim500$の範囲で$r'$の適切な値を実験的に求めたところ,最も良い結果が得られた$r'=500$を選んだ.結果を\tabref{tbl:補正の比較}に示す.表より,これらの補正による効果は殆んど観察されず,単純さから,共起頻度を用いて共起ベクトルを求める方法が良い.\begin{table}[b]\caption{共起頻度の補正方法による比較}\label{tbl:補正の比較}\begin{center}\input{02table05.txt}\end{center}\end{table}以下,このような結果が得られた理由について考察する.ある訳語候補集合から,1つの訳語候補を訳語として選択するか否かを判定する場合,その候補と共起する語の重要度は,その語が,一般的にどのように振る舞うかによって決まるのではなく,その語が,訳語候補集合に含まれる他の候補と,その候補とを区別するのに役立つか否かによって決まると予想される.それに対して,\eqnref{eq:IDF},\eqnref{eq:TFIDF}および\eqnref{eq:LSA1}と\eqnref{eq:LSA2}はいずれも,語の一般的な振舞いにのみ注目して補正を行っているため,効果が得られなかったのではないかと考えられる.\subsection{品詞別の比較}\label{subsec:辞書の分析}\tabref{tbl:語彙サイズと品詞分布}より,2つの辞書の品詞別分類に大きな差はなく,約7,000語から約30,000語にインドネシア語の語彙が拡大するとき,名詞ばかりが増えるのではなく,動詞・形容詞についてもほぼ均等に増加していることが分かる.そのため,小規模な種辞書を拡充する場合には,未知語(殆んどが名詞)に対する訳語獲得とは異なり,名詞だけではなく,動詞や形容詞についても訳語を推定する必要がある.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f4.eps}\end{center}\caption{品詞による比較}\label{fig:品詞による比較}\end{figure}このような性質を持つ辞書拡充タスクに対する提案法の有効性を検討するため,テスト用の訳語対集合を,インドネシア語の品詞によって名詞・動詞・形容詞の3つに分類し,それぞれに対して訳語推定を行った.結果を\figref{fig:品詞による比較}に示す.ベースラインは,逆引きによって訳語候補を選択する手法($n=10$)と,全く訳語候補の選択を行わない手法の2つである.\figref{fig:品詞による比較}より,提案法は,ベースラインと比較して品詞による性能の変化が小さく,辞書拡充タスクに適していることが分かる.\subsection{頻度別の比較}テスト用の訳語対集合を,インドネシア語の開発用コーパス上の頻度によって分類した場合の結果を\figref{fig:頻度の比較}に示す.頻度が精度・再現率・訳語含有率に与えている影響は,それほど大きくない.したがって,本来の目的である種辞書中に存在しない単語に対する訳語も,同程度の精度で得られると期待できる.実際に,そのような単語を対象として行った実験結果については,\ref{subsec:CLIR_experiment}節で述べる.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f5.eps}\end{center}\caption{頻度による比較}\label{fig:頻度の比較}\end{figure}\subsection{種辞書の大きさによる比較}\label{subsec:seed_compare}次に,種辞書の大きさが,訳語推定に対して与える影響について検討する.種辞書の訳語対を,インドネシア語の開発用コーパス上の頻度順によって整列し,上位$n$対のみを残すことによって,$n$対からなる小規模な種辞書を作成した.この種辞書を用いて,テスト用訳語対に対して訳語候補の上位3候補までを出力した場合の精度の変化を\figref{fig:種辞書の大きさによる精度の変化}に示す.図より,訳語推定を行うには3,000語程度の種辞書が必要であり,特に1,000語未満の種辞書を用いると極端に推定精度が悪化することが分かる.\begin{figure}[t]\begin{center}\includegraphics{15-5ia2f6.eps}\end{center}\caption{種辞書の大きさによる精度の変化}\label{fig:種辞書の大きさによる精度の変化}\end{figure}\subsection{言語横断情報検索における効果}\label{subsec:CLIR_experiment}言語横断情報検索は,\pagebreak大規模な対訳辞書を必要とする典型的な自然言語処理技術の1つであり,他の言語横断なタスクに比べて,カバー率の高い対訳辞書を特に必要とするタスクである.上位3候補を訳語として出力する提案法は,僅かな精度の低下と引き換えに,大きな再現率の改善を得ている(\figref{fig:閾値の比較}).よって,提案法は,言語横断情報検索に適していると考えられるので,本節では,現実の言語横断情報検索システムにおける提案法の効果を検討する.具体的には,インドネシア語—日本語の言語横断情報検索タスクを対象として,既存の小規模なインドネシア語—日本語辞書を提案法によって拡充した場合に得られる効果について述べる.最初に,対象とするインドネシア語—日本語の言語横断情報検索タスクの内容について説明する.このタスクは,日本国内の事象についてのインドネシア語の質問文を入力とし,その質問文に対する適切な情報を含む日本語文書を出力とする.評価用テストセットコレクションおよび評価尺度としては,NTCIR3ウェブ情報検索タスク\cite{eguchi_NTCIR3}において使用されたものを用いる.ただし,このテストセットコレクションは,日本語の文書集合(約100\,GB)と,この文書集合中に回答が含まれている日本語の質問文(47個),および,その英訳文からなり,インドネシア語の質問文は用意されていない.そのため,英訳された質問文を,日本に留学中のインドネシア語を母語とする大学院生(2名)に翻訳してもらい,インドネシア語の質問文を用意した.NTCIR3ウェブ情報検索タスクでは,評価尺度としてMeanAveragePrecision(MAP)値を用いる.ただし,出力された文書の評価にあたっては,one-click-distancedocumentmodelを採用し,同時に,正解の関連の度合いについても2段階の評価を行っている\footnote{正確には3段階の評価を行っているが,実際に検討しているのは2段階のみである.}.そのため,以下の4種類のMAP値が評価尺度として用いられる.\begin{itemize}\itemRC:ハイパーリンクを考慮することなく,正解と強く関連している文書の精度\itemRL:ハイパーリンクを考慮すると,正解と強く関連している文書の精度\itemPC:ハイパーリンクを考慮することなく,正解と部分的に関連している文書の精度\itemPL:ハイパーリンクを考慮すると,正解と部分的に関連している文書の精度\end{itemize}言語横断情報検索システムとしては,\cite{IJCLIR}を用いる.このシステムの検索手順は以下の通りである.まず最初に,入力されたインドネシア語質問文からインドネシア語キーワードを抽出する.次に,インドネシア語キーワードを,対訳辞書を用いて,日本語キーワードに翻訳する.最後に,日本語キーワードを用いて,日本語文書集合を検索し,条件に合致する文書を出力する.この部分には,\cite{fujii03b}による情報検索システムをそのまま用いている.このように,本システムは,言語横断情報検索システムとして,対訳辞書を用いた非常に基本的な構成を採用しており,対訳辞書による違いが検討しやすいと考える.次に,提案手法によって種辞書を拡充した場合の効果について検討する.質問文中に含まれる単語の異なり数は301であり,その内,種辞書に含まれない未知語の異なり数は106(35\%)である.それに対して,提案手法によって辞書の拡充を行い,20,457語の見出し語からなる辞書を作成したところ,28語について訳語を得ることができ,未知語の異なり数は78(26\%)まで減少した.この28語は,テスト単語を取り除く前の元々のインドネシア語—日本語辞書にも含まれていなかった完全な未知語である.日本に留学中のインドネシア語を母語とする大学院生(1名)に,この28語に対して出力された訳語の正解判定を依頼したところ,約52\%の精度で正しい訳語が出力されていることが分かった.この結果は,\ref{subsec:閾値の比較}節における結果と概ね一致していることから,本論文の提案手法は完全な未知語についても有効である.\begin{table}[b]\caption{言語横断情報検索における効果}\label{tbl:IR実験結果}\begin{center}\begin{small}\input{02table06.txt}\end{small}\end{center}\end{table}辞書を変更した場合の情報検索性能の変化を\tabref{tbl:IR実験結果}に示す.ここで,手法(1)〜(3)が既存の比較手法であり,手法(4)〜(6)が提案手法によって拡充した辞書を辞書を用いた結果である.また,手法(3)と手法(6)は,他の手法とは異なり,\cite{IJCLIR}によって提案された方法を用いて,対訳辞書を用いて得られた訳語候補の絞り込みを行っている.この絞り込みには,訳語候補の日本語コーパスにおける相互情報量と,その訳語候補を用いて検索して発見された文書の信頼度が,組み合わせて用いられる.この絞り込みは,検索時に同時に行わざるを得ないため,システムの処理速度の低下が欠点である.手法(7)は,\cite{日仏対訳辞書}の手法を,インドネシア語—英語—日本語について適用して作成した辞書を用いた結果である.\tabref{tbl:IR実験結果}では明らかに,手法(7)がもっとも性能が悪い.このように,\cite{日仏対訳辞書}の手法は,元とする辞書の品質によっては,非常に低品質の辞書しか得られないという問題が生じることがある.手法(1)と手法(4),手法(2)と手法(5)を比較すると,いずれの場合も,拡充した辞書を用いることによって情報検索性能が改善している.したがって,本提案手法を用いて拡充した辞書は,情報検索において有用と考えられる.手法(3)と手法(6)の間には,性能の差は殆んどなく,訳語候補の絞り込みを行うと,本提案手法によって辞書を拡充した効果が現れなくなることが分かる.しかし,手法(5)は,訳語候補の絞り込みを行っていないにも関わらず,手法(3)および手法(6)とほぼ同等の性能を達成している.よって,本提案手法を用いて拡充した辞書は情報検索において有用であり,同時に,訳語候補の絞り込みという高負荷な処理を行うことなしに,訳語候補の絞り込みを行った場合と同等の性能を達成できる.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f7.eps}\end{center}\caption{種辞書の大きさが情報検索性能に与える影響}\label{fig:RL_comparison}\end{figure}\ref{subsec:seed_compare}節で述べた方法により,見出し語数の異なる種辞書を複数用意し,種辞書の大きさが検索性能に与える影響を調べた.結果を\figref{fig:RL_comparison}に示す.手法(2),(5)はともに,種辞書に含まれている見出し語の数が増えるにつれて性能が改善しているが,種辞書に含まれる見出し語の数が少ない場合には,手法(2)と手法(5)の差が大きくなっている.このように,本提案手法は,種辞書に含まれる見出し語数が少ない場合には,種辞書をそのまま使う場合に比べて効果が大きいと考えられる. \section{関連研究} \label{sec:related_works}\ref{sec:intro}節でも述べた通り,本研究と関連が深いタスクとして,2つの方向がある.第1は,新規の言語対に対する対訳辞書を自動構築するという研究であり,第2は,既存の対訳辞書に登録されていない未知語に対する訳語を推定するという研究である.新規の言語対に対する対訳辞書を自動構築する研究は,さらに,大きく2つのアプローチに分けることができる.第1のアプローチは,既存の対訳辞書をまったく仮定せず,対象としている言語対のコーパスから直接に対訳辞書を構築しようとするアプローチである.第2のアプローチは,ある中間言語を導入して,その中間言語との間の対訳辞書を利用することにより,新規言語対の対訳辞書を構築するというアプローチである.第1のアプローチでは,基本的に,単語の周辺の文脈を何らかの方法で表現し,入力言語と出力言語で類似した文脈に出現する語を訳語対とする.例えば,\cite{fung95}は,英語と中国語を対象として,ある単語の直前と直後に現れる単語の種類数を求め,その種類数によって単語の文脈的な特異性を表し,良く似た特異性を備えた英語単語と中国語単語とを訳語対としてまとめるという方法を提案している.\cite{rapp95}は,英語とドイツ語を対象として,非常に基本的な単語の訳語対(6個)とコンパラブルコーパスを用意しておき,これらの訳語との共起頻度に基づいて定義した単語間の類似度を用いて訳語対を求める方法を提案している.新規対訳辞書を自動構築する第2のアプローチとしては,本研究と同様に,英語を中間言語として用いる試みが幾つか報告されている.\cite{日仏対訳辞書}は,英語を中間言語として利用して,和仏対訳辞書を作成する方法を提案している.この方法では,和英辞書と英仏辞書を利用して,日本語単語に対するフランス語訳語候補を獲得し,仏英辞書と英和辞書を利用して,得られたフランス語単語に対する日本語訳語候補を調べる(逆引きを行う)ことによって,訳語候補の絞り込みを行い,訳語推定精度を改善している.この方法で,名詞を対象とした場合の精度は76\%,再現率は44\%である.白井ら\cite{shirai01}は,田中らと同様の方法を用いて,英語を中間言語として日本語と韓国語の対訳辞書を作成している.Bondら\cite{bond01}も同様に,英語を中間言語として利用して,日本語とマレー語の対訳辞書を作成している.張ら\cite{日中対訳辞書}は,英語を中間言語として利用して,日中対訳辞書を作成する方法を提案している.この方法では,和英辞書と英中辞書を利用して,日本語単語に対する中国語訳語候補を獲得し,日本語と中国語の品詞情報と漢字情報を利用して訳語候補の順位付けを行っている.この方法で,第1位に順位付けられた訳語候補のみを出力した場合の精度は81.4\%である.これらの先行研究は,対象となる言語対の辞書が全く存在しない状況を想定しており,入力言語—出力言語の対訳辞書から得られる情報を考慮することは行われていない.それに対して,本論文の手法では,対象となる言語対について小規模な種辞書が存在する状況を想定しており,その種辞書から得られる情報をなるべく有効に利用しようとしている点で,これらの先行研究とは異なる.既存の対訳辞書には含まれていない語について訳語推定を行い,かつ,その推定にあたっては既存の対訳辞書を最大限に利用しようするという2つの点において,本論文で提案する種辞書の拡充というタスクと,未知語の訳語推定というタスクは関連が深い.例えば,\cite{tanaka02}は,対象となる言語対のコンパラブルコーパスを用意し,周辺に共起する単語を文脈ベクトルとして表現し,文脈ベクトルの類似度を求めて訳語を推定するという方法を提案している.ただし,推定対象は,複合名詞に限られており,動詞や形容詞には対応していない.\cite{kaji01}も,類似の方法を提案し,複合語と単純語の両方に対して評価を行っている.ただし,\cite{kaji01}は,非常に大規模な既存の対訳辞書(50,000語)を用いている点で,本論文とは問題設定が異なっていると考えられる.本論文で提案している辞書の拡充というタスクにもっとも近い問題設定としては,\cite{tanaka96,fung98,chiao02,gaussier04}がある.例えば,\cite{tanaka96}は,英語と日本語のコンパラブルコーパスと小規模な対訳辞書を用意し,英語コーパス上で観測された単語共起と,日本語コーパス上で観測された単語共起とを比較して,単語共起として類似した振る舞いをしている単語を訳語として選択するという方法を提案している.本論文の提案手法は,入力言語から中間言語への対訳辞書と,中間言語から出力言語への対訳辞書の情報をも利用することによって,より小さい種辞書で,より再現率の高い訳語推定を行っている.また,本論文では,得られた訳語を人手で判定して評価を行うだけでなく,実際の言語横断情報検索システムに組み込んだ性能評価を行っている. \section{むすび} 本論文では,インドネシア語—英語辞書および英語—日本語辞書を利用して訳語候補を取り出し,インドネシア語コーパスと日本語コーパスの共起情報を用いて訳語候補の絞り込みを行って,小規模なインドネシア語—日本語辞書を拡充する方法を提案した.提案手法を用いて実際に辞書を拡充したところ,上位3候補を出力した場合には精度45.9\%,再現率60.7\%で拡充することができた.さらに,実際のインドネシア語—日本語言語横断情報検索システムに,提案手法を用いて拡充した辞書を組み込んで実験を行った.この実験により,提案手法によって拡充された辞書は,実際の言語横断情報検索システムにとって有用であり,特別な訳語絞り込み手法を適用することなしに,訳語絞り込み手法を適用した場合と同等の性能を得ることができることを示した.この提案手法は,実際の言語横断情報検索システムにおいて有効であることが示されているが,収録されている見出し語は約20,000語とまだ少なく,より大規模な辞書への拡充が必要と予想される.そのためには,本提案手法によって拡充された辞書とコーパスを用いて,中間言語には依存せずに辞書を拡充するブートストラップ的な方法の検討が必要と考えられる.\begin{thebibliography}{}\bibitem[\protect\BCAY{{AgencyforTheAssessmentandApplicationofTechnology}}{{AgencyforTheAssessmentandApplicationofTechnology}}{}]{IEDIC}{AgencyforTheAssessmentandApplicationofTechnology}\BBOP?\BBCP.\newblock\BBOQKamusElektornikBahasaIndonesia\BBCQ\\newblock\url{http://nlp.aia.bppt.go.id/kebi}.\bibitem[\protect\BCAY{Bond,Yamazaki,Sulong,\BBA\Ogura}{Bondet~al.}{2001}]{bond01}Bond,F.,Yamazaki,T.,Sulong,R.~B.,\BBA\Ogura,K.\BBOP2001\BBCP.\newblock\BBOQDesignand{C}onstructionofamachine-tractable{J}apanese-{M}alay{L}exicon\BBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\mbox{\BPGS\62--65}.\bibitem[\protect\BCAY{Chiao\BBA\Zweigenbaum}{Chiao\BBA\Zweigenbaum}{2002}]{chiao02}Chiao,Y.-C.\BBACOMMA\\BBA\Zweigenbaum,P.\BBOP2002\BBCP.\newblock\BBOQLookingforcandidatetranslationalequivalentsinspecialized,comparablecorpora\BBCQ\\newblockIn{\BemProceedingsofthe19thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\1--5}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Eguchi,Oyama,Ishida,Kando,\BBA\Kuriyama}{Eguchiet~al.}{2003}]{eguchi_NTCIR3}Eguchi,K.,Oyama,K.,Ishida,E.,Kando,N.,\BBA\Kuriyama,K.\BBOP2003\BBCP.\newblock\BBOQOverviewoftheWebRetrievalTaskattheThird{NTCIR}Workshop\BBCQ\\newblockIn{\BemProceedingsoftheThirdNTCIRWorkshoponresearchinInformationRetrieval,AutomaticTextSummarizationandQuestionAnswering}.\bibitem[\protect\BCAY{Fujii\BBA\Ishikawa}{Fujii\BBA\Ishikawa}{2003}]{fujii03b}Fujii,A.\BBACOMMA\\BBA\Ishikawa,T.\BBOP2003\BBCP.\newblock\BBOQ{NTCIR}-3Cross-Language{IR}Experimentsat{ULIS}\BBCQ\\newblockIn{\BemProceedingsoftheThirdNTCIRWorkshop}.\newblock\url{http://research.nii.ac.jp/ntcir/workshop/OnlineProceedings3/NTCIR3-CLIR-FujiiA.pdf}.\bibitem[\protect\BCAY{Fung}{Fung}{1995}]{fung95}Fung,P.\BBOP1995\BBCP.\newblock\BBOQCompilingBilingualLexiconEntriesfromaNon-Parallel{E}nglish-{C}hineseCorpus\BBCQ\\newblockInYarovsky,D.\BBACOMMA\\BBA\Church,K.\BEDS,{\BemProceedingsoftheThirdWorkshoponVeryLargeCorpora},\mbox{\BPGS\173--183}\Somerset,NewJersey.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Fung\BBA\Yee}{Fung\BBA\Yee}{1998}]{fung98}Fung,P.\BBACOMMA\\BBA\Yee,L.~Y.\BBOP1998\BBCP.\newblock\BBOQAnIRapproachfortranslatingnewwordsfromnonparallel,comparabletexts\BBCQ\\newblockIn{\BemProceedingsofthe17thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\414--420}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Gaussier,Renders,Matveeva,Goutte,\BBA\Dejean}{Gaussieret~al.}{2004}]{gaussier04}Gaussier,E.,Renders,J.,Matveeva,I.,Goutte,C.,\BBA\Dejean,H.\BBOP2004\BBCP.\newblock\BBOQAGeometricViewonBilingualLexiconExtractionfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe42ndMeetingoftheAssociationforComputationalLinguistics(ACL'04),MainVolume},\mbox{\BPGS\526--533}\Barcelona,Spain.\bibitem[\protect\BCAY{Purwarianti,Tsuchiya,\BBA\Nakagawa}{Purwariantiet~al.}{2007}]{IJCLIR}Purwarianti,A.,Tsuchiya,M.,\BBA\Nakagawa,S.\BBOP2007\BBCP.\newblock\BBOQIndonesian-JapaneseTransitiveTranslationusingEnglishforCLIR\BBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(2),\mbox{\BPGS\95--123}.\bibitem[\protect\BCAY{Rapp}{Rapp}{1995}]{rapp95}Rapp,R.\BBOP1995\BBCP.\newblock\BBOQIdentifyingWordnanslationsinNon-ParallelTexts\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\320--322}.\bibitem[\protect\BCAY{Shirai\BBA\Yamamoto}{Shirai\BBA\Yamamoto}{2001}]{shirai01}Shirai,S.\BBACOMMA\\BBA\Yamamoto,K.\BBOP2001\BBCP.\newblock\BBOQLinkingEnglishWordsinTwoBilingualDictionariestoGenerateAnotherLanguagePairDictionary\BBCQ\\newblockIn{\BemProceedingsofICCPOL2001},\mbox{\BPGS\174--179}.\bibitem[\protect\BCAY{Tanaka\BBA\Iwasaki}{Tanaka\BBA\Iwasaki}{1996}]{tanaka96}Tanaka,K.\BBACOMMA\\BBA\Iwasaki,H.\BBOP1996\BBCP.\newblock\BBOQExtractionoflexicaltranslationsfromnon-alignedcorpora\BBCQ\\newblockIn{\BemProceedingsofthe16thconferenceonComputationallinguistics},\mbox{\BPGS\580--585}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Tanaka}{Tanaka}{2002}]{tanaka02}Tanaka,T.\BBOP2002\BBCP.\newblock\BBOQMeasuringthesimilaritybetweencompoundnounsindifferentlanguagesusingnon-parallelcorpora\BBCQ\\newblockIn{\BemProceedingsofthe19thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\1--7}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{梶博行\JBA相薗敏子}{梶博行\JBA相薗敏子}{2001}]{kaji01}梶博行\JBA相薗敏子\BBOP2001\BBCP.\newblock\JBOQ共起語集合の類似度に基づく対訳コーパスからの対訳語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),\mbox{\BPGS\2248--2258}.\bibitem[\protect\BCAY{田中\JBA梅村\JBA岩崎}{田中\Jetal}{1996}]{日仏対訳辞書}田中久美子\JBA梅村恭司\JBA岩崎英哉\BBOP1996\BBCP.\newblock\JBOQ第3言語を介した対訳辞書の作成\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(6),\mbox{\BPGS\1915--1924}.\bibitem[\protect\BCAY{張\JBA馬\JBA井佐原}{張\Jetal}{2005}]{日中対訳辞書}張玉潔\JBA馬青\JBA井佐原均\BBOP2005\BBCP.\newblock\JBOQ英語を介した日中対訳辞書の自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\63--85}.\bibitem[\protect\BCAY{工藤}{工藤}{2006}]{mecab}工藤拓\BBOP2006\BBCP.\newblock\JBOQ形態素解析器{M}e{C}ab\JBCQ\\newblock\url{http://chasen.org/~taku/software/mecab/}.\bibitem[\protect\BCAY{道端秀樹}{道端秀樹}{2002}]{EJDIC}道端秀樹\JED\\BBOP2002\BBCP.\newblock\Jem{英辞朗}.\newblockアルク.\bibitem[\protect\BCAY{宇津呂\JBA日野\JBA堀内\JBA中川}{宇津呂\Jetal}{2005}]{ウェブから対訳を推定}宇津呂武仁\JBA日野浩平\JBA堀内貴司\JBA中川聖一\BBOP2005\BBCP.\newblock\JBOQ日英関連報道記事を用いた訳語対応推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(5),\mbox{\BPGS\43--69}.\end{thebibliography}\begin{biography}\bioauthor{土屋雅稔}{1998年京都大学工学部電気工学第二学科卒業.2004年京都大学大学院情報学研究科知能情報学専攻博士課程単位認定退学.博士(情報学).2004年豊橋技術科学大学情報処理センター助手.2007年より豊橋技術科学大学情報メディア基盤センター助教.自然言語処理に関する研究に従事.}\bioauthor{脇田敏行}{2007年豊橋技術科学大学情報工学系卒業.}\bioauthor[:]{AyuPurwarianti}{GraduatedfromToyohashiUniversityofTechnologyforherDr.ofEng.degreein2007.Since2008,shehasbeenjoiningBandungInstituteofTechnologyasaResearchAssociateintheSchoolofInformaticsandElectricalEngineering.HerresearchinterestisinnaturallanguageprocessingareaespeciallyforIndonesianlanguage.}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年,京都大学情報工学科助手.1980年豊橋技術科学大学情報工学系講師.1990年教授.1985--1986年カーネギメロン大学客員研究員.音声情報処理,自然言語処理,人工知能の研究に従事.工学博士.1977年電子通信学会論文賞,1988年IETE最優秀論文賞,2001年電子情報通信学会論文賞,各受賞.電子情報通信学会フェロー.情報処理学会フェロー.著書「確率モデルによる音声認識」(電子情報通信学会編),「音声聴覚と神経回路網モデル」(共著,オーム社),「情報理論の基礎と応用」(近代科学社),「パターン情報処理」(丸善),「SpokenLanguageSystems」(編著,IOSPress)など.}\end{biography}\biodate\clearpage\end{document}
V15N03-03
\section{はじめに} 質問応答技術は自然言語によって表現された質問に文書でなく情報そのもので回答する事を可能とするもので,情報アクセスの新しい形として期待されている\cite{Voorhees00}.事実に関する独立した質問に一問一答形式で回答するものを中心に研究が始められたが,近年は様々な面で研究の展開が見られ,そのひとつに対話性の重視があげられる.質問応答技術を牽引してきたといってよいTREC\cite{Voorhees05,TREC}では,TREC2001において対話的な利用を前提とした文脈処理の能力を評価する試みがなされている\cite{Voorhees01}.その後,TREC2004から,相互に独立した質問ではなく,あるトピックに関する一連の質問の集まりという形で課題を与えるようになっている\cite{Voorhees04}.文脈処理の能力を評価するものでないとはいえ,あるトピックに関して一連の質問を行うという利用場面が自然であると考えられている点が注目される.また,あるトピックに関する複数の質問にどの程度回答できるかを,複数文書要約の評価指標とすることが試みられており\cite{Mani98},ここでも,あるトピックに関する一連の質問に回答できることが重視されている.一連の質問に回答するという利用形態は質問応答システムの進むべき方向のひとつとしても議論されており,例えば,新人レポータがある事件の記事を執筆するために,彼の記事で答えられるべき大きな質問をより簡単な質問の集まりに言い換えてシステムに訊ねるという形で,アナリストやレポータが利用しうる質問応答システムへの発展が提案されている\cite{Burger01}.また,ARDAのAQUAINTprogram\cite{AQUAINT}ではアナリストが分析的に用いる質問応答システムの構築がその目的とされており,より積極的に対話的な質問応答の研究が進められている.質問の分解を含めて,分析的説明的な質問にどう答えるか,明確化等の利用者とのやりとりはどうするか等が研究の関心となっている\cite{Hickl04,Small03}.本稿では,あるトピックに関して対話的に行われる一連の情報アクセスを質問応答システムが支援する能力,情報アクセス対話の対話相手として情報を提供するために質問応答システムが持つべき能力を定量的に評価するためのタスク,IADタスク\footnote{IADは情報アクセス対話(InformationAccessDialogue)の頭文字からとった.}を提案する.質問応答システムが情報アクセス対話に参加するために必要となる様々な能力\cite{Burger01}の中で,IADタスクでは,そもそも情報アクセス対話を扱うためにはどのような質問に答えられる必要があるのか,そして,対話の実現の基本となる対話文脈を考慮した質問の解釈,つまり照応解消や省略処理等のいわゆる文脈処理はどの程度必要なのかに着目し,その能力を評価する.IADタスクは,情報アクセス技術に関する一連の評価ワークショップNTCIRWorkshop\cite{NTCIR}において,NTCIR-4のQAC2Subtask3\cite{Kato04,Kato05a},NTCIR-5のQAC3\cite{Kato05b,KatoJ06}として実施されたものに基づいている.対話的な質問応答というそもそものアイディアはNTCIR-3のQAC1Subtask3\cite{Fukumoto03}に遡るが,NTCIR-4のQAC2Subtask3での実施においてタスクの抜本的な改変を行い本稿で述べる形態を固め,同時にタスクの裏付けについての実験を行った.その後,そこでの経験を基に幾つかの洗練を行って,NTCIR-5のQAC3として実施している.ここで,評価タスクの提案という本稿の特殊性について一言述べておく.研究や技術の進展や加速のために共通の評価が必要であり.それを得るための評価タスクが重要であることは,議論の余地がまったくないとはいえないまでも\cite{Sekine05},大概の合意を得ていると思われる\cite{Ogawa02}.一方で個々の評価タスクについて考えると,ある評価タスクが価値あるものであるためには,それが評価する研究や技術が評価されるに値するものであり,かつ,その評価のために適切に設計されている必要がある.前者は研究や技術の価値の議論であり,後者も何をもって適切とするかが絡んで必ずしも明快な議論とはならない.本稿では,ここで提案するIADタスクにおいて高い評価を得たシステムあるいは技術が可能とする利用場面を示し,前者の根拠とする.加えて,後者については,少なくとも2回の実施を通じて明らかとなった問題について一定を解決を与えていることを根拠とする.設計ということで一部に恣意的な決定を含んでいるし,この評価タスクであらゆるデータが収集できるわけではない.実施できなければならないという現実性との妥協もある.そのような一連の留保を前提にしているとはいえ,本提案が,課題設定の独自性,評価に関する様々な配慮,情報収集のための仕組み等の点で,新規かつ有益なものであることを主張する.本稿の構成は以下の通り.\ref{Sec2}節でIADタスクの枠組みを説明する.タスク設計の中心となる質問シリーズを説明し,それがトピック推移の観点から収集型とブラウジング型に分類されることを述べる.加えて,IADタスクの枠組みの根拠となった実験結果を示し,このタスクによって評価される技術が可能とする質問応答技術の利用場面を示唆する.\ref{Sec3}節では,評価の枠組みとして,回答の列挙に複数の体系を許し回答の2種類の質を考慮した多段階評価手法を提案する.そして,なぜそのような枠組みが必要であるかを実例に基づいて説明する.\ref{Sec4}節ではより多くの情報を得るための補助的な仕組みとしての参照用テストセットについて説明し,それがシステムの文脈処理能力をある程度まで切り離した評価を可能とすることを示す.\ref{Sec5}節では関連する取り組みを述べ,それとの比較を通じて本提案の有効性を示し,特に収集型とブラウジング型への分類を含む質問シリーズの構成方法が重要であることを述べる.\ref{Sec6}節で全体をまとめる.また,IADタスクに対して,最先端のシステムがどのような結果を示すのかを付録にまとめた. \section{タスクの枠組み} \label{Sec2}IADタスクは,対話的な情報アクセスでの質問応答システムの利用を考え,そこで必要な照応解消や省略処理等のいわゆる文脈処理の能力を評価することを目的とする.様々なバラエティを持つ情報アクセス対話の中で,特に,与えられたトピックについてのレポートを書くための素材となる情報を得るような対話を想定している.これはある事件の記事を執筆するために,必要な情報を比較的簡単な質問の集まりとしてシステムに訊ねるという形態とも近い.\subsection{質問シリーズ}IADタスクでは,システムに一連の質問(シリーズと呼ぶ)を与え,それに次々と回答させてゆく.シリーズの先頭以外の質問は,それ以前の質問の一部もしくはその回答を参照する照応表現を含んでいる\footnote{省略やゼロ代名詞,英語の定名詞句に相当する一般名詞の反復を含む.表層から明らかでないので不適切かもしれないが,「表現」と呼ぶことにする.}.この一連の質問とそれへの回答が情報アクセス対話を構成する.実際の利用場面ではシステムは対話的に質問に回答することが期待されるが,本タスクではその対話性は模擬されるだけで,複数のシリーズ(テストセットと呼ぶ)をバッチ的に与え,それに回答することをシステムに求める.ここで,システムはある質問がシリーズの先頭であるという情報は利用してよいが,ある質問に回答する際にそれに続く質問を参照することは許されない.これは本タスクが対話的な状況でのシステムの利用を模擬していることからの制約である.対話の展開があらかじめ定められていることは対話本来のダイナミクスを失わせているが,その一方で,本タスクの実施に参加したシステムがすべて同じ質問に回答するので,相互比較可能な結果が得られることに加え,正解をプーリングすることでテストセットが再利用可能となるという利点を有している.IADタスクでは大きく分けて収集型とブラウジング型という2種類のシリーズを設定している.これは,情報アクセス対話が,利用者があるトピックについてのレポートや要約を作成するための情報を収集する等の目的でそれに関する一連の質問を行なうような対話(収集型)と,利用者の興味の赴くところに従って対話の進行と共にトピックが変わっていくような対話(ブラウジング型)との2つの極を持つという直観に基づいている.タスクにおいて,あるシリーズがどちらの型に属するかは与えられず,システムはそれを自分で判定しなければならない.IADタスクが想定している情報アクセス対話は与えられたトピックについての様々な情報を収集するもので,当然収集型の対話が支配的であるが,後述するように実際の場面ではその部分部分にブラウジング的な要素が含まれる.これが本タスクにブラウジング型を含め,かつシリーズの型の同定をシステムに求めている理由である.なお,シリーズ単位で型を区別したことには分析が容易になることへの期待がある.IADタスクのシリーズの例を図\ref{samples}に示す.収集型は,広い意味で共通のトピックに関する質問からなり,そのトピックはシリーズ先頭の質問で導入される.すべての照応表現がそのトピックを参照するというのがもっとも厳しい意味での収集型(狭義の収集型と呼ぶ)である.図\ref{samples}のSeries2-14はそのような収集型で,先頭質問で述べられている「小沢征爾」を補うことで,すべての質問の文脈処理が行える.一般には,複数の照応表現を持ち,その一方がトピックを参照するような質問や,トピックが関連した出来事やその一般化を参照するような表現をもつ質問等も収集型のシリーズに含まれる.Series2-20はその例で.第3問は複数の照応表現を含み,第6問は先頭質問文で述べられているトピックであるジョージ・マロリーが関連したイベントを参照している.ブラウジング型はそのような大域的なトピックを持たず,質問中の照応表現は,直前の質問の回答や以前の質問中で言及された事物を参照している.Series2-22はブラウジング型の例である.\begin{figure}[b]\input{03fig1.txt}\caption{シリーズの例}\label{samples}\end{figure}\subsection{個々の質問の範囲}IADタスクのシリーズを構成する質問は,疑問代名詞を含む文の形式を持ち,名称を正解とする質問である.ここで,名称というのは,人名や組織名等いわゆる固有表現に留まらず,日付け,数量を含み,種の名称,機械や身体的部分等の一般名称を含む.統語的には複合名詞が正解の範囲とほぼ重なるが,小説や映画のタイトル等そこから外れるものも含まれる.システムはこれらの名称をそれを含んだ部分でなく,過不足なく抜き出してひとつの回答とし,複数の正解があると判断される場合はそれらをリストとして列挙することを求められる.質問の正解が知識源中に存在することは保証されていないので,回答が存在しないこと,空リストが正解ということもありうる.各回答(回答リストの要素)は,それを抜き出した文書であり,それが正解であることの根拠となる文書の識別子を伴っていなければならい.回答リストの要素として日付や数量を含む名称の表現を過不足なく抜き出すことを要求すること,回答リストとしてすべての回答の過不足ない列挙を求めることは,文書でなく情報そのもので回答するという質問応答の流れから当然と考えるが,実際にタスクとして実施する場合,細部の検討が必要となる.日付や数量の表現については,質問への自然な回答を可能とするため,以下の表現も正解範囲であることを明示する必要がある.なお,名称という正解範囲の根拠づけは\ref{Sec2_3}節において,過不足のない列挙の問題は評価に関する\ref{Sec3}節において論じる.\begin{description}\item[数値表現に属性の詳細化具体化を行うための表現が付属したもの]「年間300台」「タテ50~cmヨコ30~cm」「一人当たり3リットル」「重さ3トン」等.\item[範囲表現(定型的,慣用的なもの)]「10〜12\%」「8世紀後期から9世紀初期」「四国から九州まで」「30人以上」「30人以上50人以下」等.「東京大阪間」「羽田—千歳」「千葉県内」等,空間的な範囲表現(区間表現)も含む.\item[概数表現(蓋然表現)]「約100人」「3億円程度」等.「シカゴ近郊」「東京都近辺」「舞浜駅前」「大使館裏」等,空間的な蓋然表現も含む.\end{description}これらを正解の範囲としない場合,まず,「どのくらい利用されていますか」に年間なのか月間なのかが不明確であるような「300台」と回答する,「どのくらいの大きさですか」に「50~cm」と長さで回答する等の不自然さを強いることになる.不自然さの問題に加え,これらを許さないことは正解の網羅的な列挙や重複の判断でも問題となる.「タテ50~cmヨコ30~cm」と回答できずに「50~cm」「30~cm」の両方を挙げる必要があるとか,「10〜12\%」において,「12\%」は抜き出しという形で得られるが,「10」だけでは単位が含まれないので正解として抜き出せないとか,「約100人」は「102人」と同一の情報としていいかもしれないが「100人」はどうか等の問題が生じてくる.\subsection{タスクの根拠}\label{Sec2_3}IADタスクの根拠として,レポート作成の情報を得るための対話的情報アクセスで名称を正解の範囲とする質問応答システムが使われうるのか,そして,その状況での質問にはどのような照応表現がどの程度含まれるかを調査した\footnote{ここで用いたデータ収集の手法はテストセット構築にも利用できる.なお,これらの調査は本提案の基となったNTCIR-4,5での実施におけるテストセット構築と並行して行ったものである.}.\subsubsection{データ収集}調査は,IADタスクが前提とする状況で利用者から発せられるであろう質問を収集し,分析することで行った.新聞記事から選択した人物,組織,出来事等のトピックを被験者に提示し,それに関するレポートを執筆するという状況を設定した.レポートは与えられたトピックの事実関係をまとめたもので予測や意見はそこに含めないものとし,質問の文型は疑問代名詞を含むWh型に限定するように指示した.以下の2種類の収集を実施した.\begin{description}\item[アンケート方式による調査]レポートに含めたいと考える情報を質問文の形式で表現するように指示することで,レポート執筆のための一連の質問を作成させた.作成する質問数は1トピックあたり10問を目安とした.作成した質問に次々と回答が得られるという想定で,ひとつのトピックについて複数の質問を作成させ,質問中に代名詞等の表現を含めることを許した.これにより自然な質問の系列が作成されることを期待した.60のトピックについて,30人の被験者に一人あたり30トピックを割り当てた.トピックの提示は20文字程度の短い記述,それについての短い記事,それについての記事5編,と3種類の方法を均等に混ぜた.集めたデータのうち,40トピックについての各9系列を構成するWh質問,3,401文を分析した\footnote{トピックの提示方法の詳細,分析データ選択の過程等については\cite{KatoJ04a}に詳しい.}.\item[WOZ方式による調査]レポート執筆という状況設定で,質問を事前に考えたのち,WOZ方式で模擬された質問応答システムと情報アクセス対話を行うことで情報収集を行わせた.質問数は1トピックあたり10問を目安とした.20のトピックについて,6人の被験者に各10トピックを割り当て,被験者にはトピックと100文字程度の概要を提示した.WOZ役の協力者は4名で,事前に担当するトピックについて800文字から1,600文字程度の要旨を作成するという事前準備をしており,作成した要旨,新聞記事全文検索システム,自分の記憶を用いて,利用者からの質問に対話的に回答した.対話はキーボードを用いて行った.被験者には事実に関する簡単な質問に回答できる質問応答システムを利用していると説明し,WOZ役にも理由や意見を訊ねる質問については回答できないと応答する,必要な場合は問い返しを行ってかまわない,回答は簡潔を旨とするが自然な協調的振る舞いを禁じるものではない等,その役割を教示した.集めたデータすべて,20トピックについての各3系列を構成する質問等,620文を分析した\footnote{13\%程度のYesNo質問や命令文が含まれている.それらの扱いを含めて,ここで論じていない明確化発話や協調的応答の分析については\cite{Kato06}に詳しい.}.\end{description}\subsubsection{質問と回答のタイプに関する分析}質問の種類,質問が何をたずねているかを分類した結果を表\ref{qtype}に示す.ここで,4W質問は「小沢征爾氏は誰に師事しましたか」のように具体的な人名等を訊ねる質問で,「〜って誰ですか」「〜とは何ですか」という質問は定義・説明・記述を訊ねる質問に分類している.WOZ方式の収集において,YesNo質問の場合はそれに対する協調的応答の内容から判断して訊ねている内容を決定した.\begin{table}[b]\caption{質問で訊ねている内容の分類}\label{qtype}\input{03table1.txt}\end{table}\begin{table}[b]\caption{(推測される)回答による分類}\label{atype}\input{03table2.txt}\end{table}表\ref{atype}は回答のタイプによる分類である.ここで,「一般名称」は名称から数量や日付の表現,固有表現(固有名称)を除いたものである.「固有名称」には小説や映画のタイトルが含まれる.この分類は表\ref{qtype}に示した分類と強く関連する.例えばWhy質問に回答するためには一般に節や文が必要となる.しかし一方で,4W質問に分類された質問がすべて名称によって回答できるわけではない.例えば,場所を訊ねる質問でも「ロブスタが好んで住むのはどこですか」には名称での回答は困難で,一定の量の記述や説明を必要とする.アンケート方式では,この分析を質問だけを見ることで行ったため,幾つかの質問については確定的な分類が行えなかった.「たぶん名称」と分類されたものは「AIBOの由来は何ですか」のような質問で,AIBOが何かのアクロニムであれば名称の範囲に収まるが,その由来が長い物語となるかもしれないものである.このように質問だけからは予想される回答が複数のカテゴリにまたがるものは他の分類の間でも存在するが,簡単のためにそれらは複雑な方に分類した.WOZ方式の場合,分類はWOZ役の発話に基づいて行ったが,発話全体の形式ではなく.質問への回答そのものに注目した.例えば,「いつ生まれましたか」への回答の「3月13日に生まれました」の場合,その分類は節や文ではなく日付表現である.\subsubsection{照応表現の特徴に関する分析}質問中に含まれる照応表現として,前方照応のための手段を,指示代名詞(連体詞を含む),ゼロ代名詞,英語等の定名詞句に相当する前出名詞の繰り返し,省略の4つに分けて,その出現頻度を調べた.2つの状況を比較するために(出現頻度/(質問文数−系列先頭の質問文数))で計算される相対頻度をまとめたものを表\ref{coref}に示す.合計は100\%を越えるが,例えば,「{\emそれまで}誰が{\emその}国の指導者だったのですか」のように複数の照応表現がひとつの質問文中に含まれる場合があるためである.\begin{table}[b]\caption{質問中に表れる照応表現}\label{coref}\input{03table3.txt}\end{table}省略を除く照応表現のうち,与えられたトピック,つまり大域的トピック以外を参照するものの割合は,アンケート方式で29\%,WOZ方式で22\%であり,そのうち同じ質問文中に大域的トピックを参照する表現を持たないものがそれぞれ92\%,81\%であった.このような質問の存在は質問系列中で焦点が推移しており,大域的トピックでないものが焦点となっていることを示している.系列の先頭以外で,照応表現を含まない質問のうち,アンケート方式で55\%,WOZ方式で68\%が,焦点となっているものを代名詞化しないでそのまま表現するケースであった.これは例えば,人物を姓のみで参照する場合や,ニホンカワウソやハイブリッド車等.名詞で表現されるクラスが焦点となっている場合で,前出名詞の繰り返しとも考えられるものである.それ以外は焦点の変化と関連する.例えば,あるニュース番組のダイオキシン汚染に関する誤報道をトピックとした場合に,その番組に対する一連の質問に続いて「ダイオキシンの毒性はどのくらいですか」と訊ねるような場合,逆にチャールズ皇太子が与えられたトピックで,その息子達に関する質問が幾つか続いた後に,「チャールズ皇太子の長年の恋人とは誰ですか」と焦点が戻る場合等がある.WOZ方式では質問の回答に含まれた内容へと焦点が移る場合もあった.\subsubsection{考察}表\ref{atype}からわかるように,レポート作成のための質問のうち,アンケート方式で58\%--75\%,WOZ方式で62\%が数量等を含む名称を回答とする質問となる.レポートを執筆するための情報を訊ねる質問を収集した状況では,節や文で回答することが多いと思われる「なぜ」を訊ねる質問は少なく,説明や定義を求める質問も予想されたほど多くはない.これは,「小沢征爾って誰ですか」という質問が,例えば彼の誕生日や出身地を訊ねるような具体的な質問に展開されているためであると考えられる.60\%強という数字は決定的ではないが,名称を正解の範囲とするような質問応答システムはこのような状況で充分に有用であると判断できる.ちなみに,アンケート方式で収集した質問のうち,名称を回答とする737問について,その正解が新聞記事集合から得られるかを調査したところ,84\%について正解が得られ,新聞記事等の大規模文書を知識源とすることが現実的であることもわかる.更に重要なことは,このような状況で得られた質問文に様々な照応表現が含まれることである.照応表現が頻出することに加えて,その参照先は単に情報収集の中心となる大域的なトピックに限られるような簡単なものではない.情報アクセス対話は,その焦点が対話の進行によって推移し,サブダイアログも含む複雑なものともなりうるため,それに応じた文脈処理が必要であることがわかる.ここで示された状況が,IADタスクの設定で模擬されている.IADタスクが評価するのは,ここで示された状況に対応し,対話的な情報アクセスを実現するための質問応答技術であり,このタスクで高い評価を得た技術は,本節の実験で模擬されたような対話的な情報アクセスの実現に有効である. \section{評価手法} \label{Sec3}\subsection{対話性に伴う問題}IADタスクでは,各質問に対して,存在しないことを含めていくつ存在するかわからない正解を過不足なく収集し,それらすべてを列挙したリストをひとつ返すことを求める.正解数は問題毎に異なり事前に与えられないので,個々の質問に関する評価は精度と再現率の両方を考慮した$F$値を採用する.システムの総合評価はその評価のテストセット全体の平均である.情報検索一般とは異なる質問応答の特殊性から普通の$F$値ではなく,様々な配慮が必要となるが,これについては\ref{Sec3_2}節で述べる.ある回答が正解であるかは,回答とそれと合わせて提示される根拠記事の適切性によって判断される.質問と無関係な記事を根拠としていれば文字列として正解と同一であっても不正解として扱われる.対話的な情報アクセスという特徴から質問の解釈が文脈に依存し,それが正解に影響するという問題がある.IADタスクでは,質問の正解は判定者である人間が適切と判断した文脈の下でおこなった解釈によって決定され,システムの解釈やシステムのそれ以前の回答とは無関係であるとする.例えば,図\ref{samples}のSeries2-22の2番目の質問の正解は,常にニューヨーク・ヤンキースの本拠地であるヤンキースタジアムが建てられた1923年であり,システムが最初の質問にシェイスタジアムと誤って答え,2番目の質問にそれが建てられた年である1964年を``正しく''回答しても不正解とする.一方,最初の質問にシェイスタジアムと答えていても,適切な根拠記事と共に1923年を回答していれば,2番目の質問については正解と判断される.特に後者については若干の違和感があるが,システムが文脈を内包的に管理し,2番目の質問を「ニューヨーク・ヤンキースの本拠地となっている球場は何年に造られたものですか」と解釈したと考えれば,不正解にする理由はない.また,収集型のシリーズでは,質問文は直前の質問や回答よりもシリーズの先頭で導入されたトピックを参照していることが多く,直前の質問に正解することが現在の質問に正解する必要条件になっている場合は必ずしも多くない.これらの理由に加えて,システムが起こしうる誤った解釈すべてについてその後の正解がどうあるべきかを事前に判断するのは不可能ということから,このような方式としている.\subsection{評価尺度}\label{Sec3_2}対話性の問題以外に,可能な正解すべてを列挙したリストをひとつ返すことを求めるリスト型課題の評価には以下のような難しさがある\cite{KatoJ04b}.\begin{description}\item[重複の扱い]同じ事物を指す複数の表現,人名における役職の有無,外人名の異表記,貨幣単位の違い,時間帯の違い(現地時間と日本時間)等があるため,同じ事物を指すこれらの表現を複数個回答リストに含めたような重複があると考えられる場合の扱いを決めなければいけない.\item[回答の質に関する問題]同じ事物を指す上記の表現の中には,フルネームと略称のように情報の質が異なるものがある.日付や場所の場合は「00年」「00年1月3日」,「日本」「千葉県浦安市」のように粒度(詳細度)の異なるバリエーションがある.これら表現の質の問題を扱い,評価に反映させる必要がある.加えて,表現の問題ではなく,回答自体(指示されている事物)の質が異なると思える場合がある.例えば,記事中で事実もしくは伝聞として述べられているが,誤報もしくは発表者側の誤りにより事実と異なる数値や日付,記事中では確定的な予定として述べられているがその後に変更となった日付等を正当な正解と同じように扱ってよいのかには疑問が残り,その質の差に見合った評価が求められる.\item[列挙の体系の問題]可能な正解すべてを列挙するといっても,その列挙の体系が複数ある場合がある.「東海三県」と「三重県」「愛知県」「岐阜県」のように(一定の知識を前提とすれば)同じ情報が違う形で伝えられる場合がある.例示を含んだ「川魚,エビ,カニ等の魚介類」において.「川魚」「エビ」「カニ」「魚介類」は明らかに並べられるものではないが,「川魚」「エビ」「カニ」という列挙と「魚介類」という回答とのどちらが優れているかは自明ではない.この問題は粒度と関連して生じることが多い.あるイベントの開催地をそれが行われた国名で列挙するか都市名で列挙するかの選択もある.また,あるイベントが「12月10日」と「12月20日」の2回行われたとき,その開催日を「12月」と答えてしまうと2回行われたという情報は伝わらない.この場合「12月」と「12月10日」のふたつを答えても,伝わる情報は「12月10日」だけを答えた場合と同じである.表現の粒度の問題は表現の質の問題であるが,この例のようにその粒度が荒くなって他の回答と区別できなくなった時,そこにとどまらなくなる.加えて範囲表現等を正解範囲に含めているため,例えば,「8世紀後期から9世紀初期」をひとつの要素とするリストと「8世紀後期」「9世紀初期」のふたつを要素とするリストとを等しく扱わなければならない.\end{description}これらの難しさを考慮し,可能な限り直観に合う評価を行うため,以下のような評価の枠組みを提案する.中心となるのは,正解セットという考え方の導入と回答の2種類の質を区別した多段階評価である.各質問について,複数の正解セット$\mathit{CAS}$を用意する.ひとつの正解セットとは,ひとつの列挙の体系に対応するもので,上の例では,{「東海三県」}がひとつ,{「三重県」「愛知県」「岐阜県」}がひとつのセットをなす.また,{「12月」}がひとつ,{「12月10日」「12月20日」}がひとつである.正解セット毎にそのセットの正解を網羅した際の係数$h$($0.0<h\leq1.0$)が与えられる.多くの場合,その係数は1.0であるが,上例の{「12月」}のセットの場合,このセットを網羅しても他方のセットの正解を網羅した場合の半分の情報しか与えられないとして,例えば係数$h=0.5$が与えられる.ある正解セットは,同じ事物を指す様々な正解表現$e$の集まり(これを表現集合$\mathit{ES}$と呼ぶ)の集まりである.人名における役職の有無や貨幣単位の違いのように同じ事物を指し,重複した回答として扱うべき表現に加えて,フルネームと略称のように情報を表現の質が異なるものや日付や場所において粒度が異なるものも,同じ事物を指す複数の表現として,ひとつの表現集合に含まれる正解表現となる.実際には正解判定は表現と根拠記事との対に対して行われるので,異なる根拠記事を持つ同じ表現も同じ表現集合に属するとして扱う.それぞれの表現集合についてそれが指すものの質に関する係数$g$($0.0<g\leq1.0$)が付与される.表現集合中の正解表現それぞれには表現の質に関する係数$f$($0.0<f\leq1.0$)が付与される.システムが返した回答リスト$O$が与えられた時,ある正解セット$\mathit{CAS}_i$に関する精度$P_{\mathit{CAS}_i}$と再現率$Q_{\mathit{CAS}_i}$は図\ref{mmfdef}の式で与えられる.これに基づいて$F_{\mathit{CAS}_i}$値が求められ,最も大きい$F_{\mathit{CAS}_i}$値を与える正解セット$\mathit{CAS}_i$を用いた評価がその回答リストに対する評価となる.なお,正解が存在しない質問については,回答数が0の場合(空リストを回答とした場合)に$F$値1.0,それ以外は0とする.この定義による$F$値を$\mathit{MF}$値\footnote{若干の修正を含んでいるということでModifiedの$M$を付けた.},テストセットについてのその平均を$\mathit{MMF}$値と呼ぶ.\begin{figure}[t]\input{03fig2.txt}\caption{評価尺度の$\mathit{MF}$値の定義}\label{mmfdef}\end{figure}この評価が意図しているのは,\begin{itemize}\item表現の質は係数$f$で表現し,質の低い表現を選んだ場合は精度再現率の分子となる正解数の当該部分にそれを乗じることでよりよい表現を回答した場合と差を付ける.\item正解そのものの質は係数$g$で表現し,再現率の分子分母の正解数両方にそれを乗じることで,再現率に正解の質を反映させる\item同一物を指示する異表現はその同定をシステムの能力の一部と考え,同じ表現集合に属する正解を複数回答した場合は,その中で表現の質が最もよいものひとつを正解とし,それ以外は誤答として扱うことで精度を下げる.\item正解の列挙については,ひとつの列挙の体系に基づいて回答することを期待し,それぞれの正解セットに従って採点を行い,最も高い評価となるセットの値を採用する.ただし,各セットでの採点において,そのセットでは誤答であるが,他のセットでの正解であるような回答は回答数に含めないことで,誤答と区別する.これにより様々な正解セットに含まれる正解を混在させた時の精度の減少を防ぎ,ペナルティをなくす.\end{itemize}一例として,「東京ディズニーランドはどこにありますか」という質問に「千葉県浦安市」「舞浜駅前」のふたつの正解があるとする.このふたつが同じ場所を指す異表現と考えるなら,同じ正解セットの同じ表現集合にこのふたつを含めることになる.その場合,一方を回答リストに含めればよく,両方を含めた場合,精度が下がる.これらふたつは違う情報であり,両方を列挙すべきであると判断した場合は,同じ正解セットの異なる表現集合に含める.この場合,両方を回答リストに含めないと再現率が下がる.このふたつは異なる回答の仕方でありどちらもひとつで充分な情報を持っているとの判断であれば,これらふたつを異なる正解セットとする.この場合,一方を回答すればよく,両方を含めても精度は下がらない.両方回答すべき(同じ場所の別表現ではない)であるが,「千葉県浦安市」の方がより適切とする場合は,「舞浜駅前」の正解そのものの質に関する係数$g$を落とす.この場合,例えば「千葉県浦安市」だけで再現率0.67,「舞浜駅前」のみで0.33というような重み付けが可能となる.更に「千葉県」も正解とするが,これは「千葉県浦安市」と同じ場所を指し,表現として劣ると判断するのであれば,「千葉県浦安市」と同じ表現集合に含め,その表現に関する係数$f$を落とせばよい. \section{参照用テストセット} \label{Sec4}一問一答形式の質問応答システム,特にリスト型課題にまだ研究の余地がある現状においては,システムの能力は様々な要因に左右され,情報アクセス対話における質問応答の能力だけでは決まらない.例えば,ある質問の正答率が低い時にその難しさがその文脈処理の側面にあるのかどうかは明らかでない.情報アクセス対話における質問応答でのシステム全体の能力を測定することがIADタスクの目的であるが,その改善に向けた分析が可能となるような材料が収集できることも望まれる.そのような情報を得るための道具立てとして,あるテストセット(本節では主テストセットと呼ぶ)を用いたIADタスクの実施と並行して,その主テストセットから作成される2種類の参照用テストセットを用いて同じタスクを実施することを提案する.第一の参照用テストセットは,主テストセットに含まれる照応表現をすべて人手で解消し,それを補った独立の質問からなるセットである.第二の参照用テストセットは,主テストセットに含まれる照応表現のうち,代名詞+助詞や連体詞等,表層に現れているものをすべて機械的に除去した独立の質問からなるセットである.こちらは意味的には,大半の質問が誰のものかを指定しないで誕生日を訊ねるような特定化が不充分なものとなるが,日本語であることが幸いして統語的には文法的である.図\ref{samples}に示した質問シリーズseries2-20に対応するこれら参照用テストセットの部分を図\ref{refsamples}に示す.第一の参照用テストセットの結果は文脈処理の上限,第二の結果は文脈処理なしで回答できる下限を示している.もちろん,文脈処理の結果得られる表現はひとつではないし,文脈処理が悪い影響を与えることも多いので,これらの結果は参考にとどまるが,このような参照用テストセットは技術の特徴を検討するのに有益である.参照用テストセットによる実施が貴重な情報を提供する例として,NTCIR-4での実施での例を挙げる.表\ref{rsmmf}は主テストセットのシリーズ最初の問題と2番目以降の問題について,上位10システムの$\mathit{MMF}$値を平均したものと,第一の参照用テストセットについて,それに対応する値とを比較したものである.主テストセットでは当然,2番目以降の問題の平均$\mathit{MMF}$値が大きく落ちているが,参照用テストセットでもそれに対応する問題で平均$\mathit{MMF}$値が低くなっている.予想される理由は,あるトピックに関する一連の質問を行うと比較的簡単なものが先頭に来ることである.このような分析により,単にシリーズ最初の問題と2番目以降の問題についての$\mathit{MMF}$値を比較して,文脈処理の困難さを過度に主張するという間違った結論を避けることができる.ちなみに,2番目以降の問題について,参照用テストセットと主テストセットの平均$\mathit{MMF}$値の差は有意であることから,文脈処理の不十分さが2番目以降の問題の成績を悪くしていることも確認されている.\begin{figure}[t]\input{03fig3.txt}\caption{参照用テストセットを構成する質問の例}\label{refsamples}\end{figure}\begin{table}[t]\caption{質問の位置による評価(平均$\mathit{MMF}$値)の差}\label{rsmmf}\input{03table4.txt}\end{table}\begin{table}[t]\caption{シリーズの型の違いによる評価(平均$\mathit{MMF}$値)の差}\label{rsseries}\input{03table5.txt}\end{table}同様にシリーズの種類毎にみた上位10システムの平均$\mathit{MMF}$値を表\ref{rsseries}に示す.シリーズをすべての照応表現が最初の質問で導入されたトピックを参照するという厳しい意味での収集型である狭義の収集型,その他の収集型,ブラウジング型に分類したものである.主テストセットではブラウジング型の平均$\mathit{MMF}$値が低いが,参照用テストセットにおいてはそれに対応する質問群について最も高い値が得られている.参照用テストセットにおけるこの違いは,シリーズ先頭の質問が比較的容易なのと同じ理由で,ブラウジング型のシリーズに含まれる様々なトピックに関する個々の質問は比較的容易なものになっていることによるのであろう.比較的簡単な個々の質問もブラウジング型のシリーズとして組織化されると難度の高いものになるということで,ブラウジング型シリーズにおける文脈処理が困難であることを再確認することができる.第2の参照用テストセットの用途のひとつは,それぞれの質問について,その正解を得るために本当に文脈処理が必要かの情報が得られることである.例えば,図\ref{samples}のSeries2-20の第7問に対応するものの平均$\mathit{MF}$値は,ふたつの参照用テストセットの間で殆ど差がなく,その値は主テストセットでの値よりも高い.これは,エベレストで最後に目撃された人間はマロリーの他には多くない(いない)ために,キーワードとしてマロリーがなくても正解を求められるためと思われる.同様の例で,「豊田章一郎氏が会長を務めていた自動車会社はどこですか。」「そこが97年に発売したハイブリッド車は何という名前ですか。」と続くシリーズにおいて,第2の質問に対応するものの$\mathit{MF}$値もふたつの参照用テストセットの間で殆ど差がないが,日本でこの年に発売されたハイブリット車は1車種のみであり,会社名による限定が必要ないためであった.これらの情報は背景となる知識源の内容と関連し,事前に問題を検査して得るのは難しいが,参照用テストセットによって容易に明らかにすることができる. \section{関連研究} \label{Sec5}本稿での提案と最も近い取り組みは,TREC2001で行われたContextTaskで,これは質問応答システムの文脈追跡(文脈処理)能力を測定するために一連の質問に回答させるというもので,基本的な目的は本稿の提案と同じである\cite{Voorhees01}.このタスクの実施では,システムがある質問に正解できるかがそれ以前の質問に正解したかに依存しないという「予想に反する」結果が得られている.これは最初の質問によってそのシリーズの質問すべての回答を含んだ少数の記事が同定されてしまい,その後の質問に正解できるかは文脈処理の能力よりも特定のタイプの質問に回答できるかに依存してしまうためであるとされている.このため,このようなタスクは現状では文脈処理能力を測定するのに不適切と判断され,その後のTRECでは実施されていない.このような結果となったひとつの理由は,シリーズを構成する質問の数が3から4と少ないことにあると思われる.IADタスクではひとつのシリーズは7つ程度の質問で構成することを考えている.また,IADタスクでいうところのブラウジング型を含んでいないことも大きな原因であろう.TRECのContextTaskについては,隣り合う質問の回答のうち85\%が同じパラグラフに存在したという報告\cite{Harabagiu01}があるが,NTCIR-4で用いたテストセットでは,隣り合う質問の少なくともひとつの回答が同じ記事(一概に比較できないが段落より大きい単位と言ってよいと考える)内に存在する割合は,収集型でも83\%であったが,ブラウジング型では66\%であった.シリーズ全体を考えれば,ブラウジング型の場合,ニューヨーク・ヤンキーズからキャンベルスープまでを含んだ記事はありえないので,最初の質問に関する処理だけでその後の質問に正解できる記事が得られることはありえない.収集型についても,すべてが狭義の収集型ではないので,そのトピックに関する記事すべてを検索してもそこから正しく回答を選択することは,何らかの文脈処理なしでは困難である.狭義の収集型についても,例えば,「小沢征爾」をキーワードとする記事は知識源中に155件あり,そのうちの22件が彼のウィーンフィルへの移籍を扱っているが,その中で彼の誕生日に言及しているものは2件のみである.また,収集型については,確かにある質問に回答できることと以前の質問への正解率との関係は不明確であるが,狭義の収集型であれば,そこに関係のある必然性はないし,そのことが文脈処理の不必要性の議論につながるとは思えない.加えて重要なことは,このようなタスク設計がレポート作成を目的とした情報アクセス対話という場面設定の状況に近いということであり,そこに現れる状況に対処する技術として必要とされている点である.評価尺度についての$\mathit{MF}$値の提案は,IADタスクに限定されるものではなく,リスト型課題に共通するものである.TRECのQATrackでも,2003年より正解数を指定しないリスト型課題が開始されている\cite{Voorhees03}.評価には単純な$F$値が用いられている.2003年のこの課題の質問は37問とあまり多くなく,``Listthenamesofchewinggums.'',``Whoarefemaleboxers?''等,すべてが事物の列挙を求めるもので,その殆どは,``WhatChineseprovinceshaveaMcDonald'srestaurant?''のように回答のクラスが巧みに指定されており,粒度の問題が生じるような表現,例えば``WhereinChinadoesMcDnaldhavearestaurant?''は避けられている.質問文のみからの判断であるが,問題が出る可能性のあるのはわずかに``Whatfoodscancauseallergicreactioninpeople?''の1問だけである.TRECにしてこのような状況であり,本稿で議論したようなリスト型課題の問題に注目した提案は著者の知る限り全く行われていない.参照用のテストセットという考えについては,これもTREC-9において,同じ正解を意図した表現の異なる質問を多数テストセットに含めるという試みがなされている\cite{Voorhees04}.参照用のテストセットという明確な考えはなく,そこから何が得られたかも明らかにされていないが,より深い分析のための情報を得る試みであったと思われる.この試みはその後続けられていない.一問一答型の質問応答システムも質問解析,文書選択,回答抽出等の複数のモジュールから構成されることを考えると,本稿で提案した参照用テストセットだけで充分な情報が得られるわけではないが,少なくとも情報アクセス対話のための質問応答技術をある程度まで区別する役割を果たしていると考える.対話的な質問応答システムの評価ということでは,テストセットの枠組みに基づかない,より実際に近い状況での実験の報告がある\cite{Liddy04,Kelly06}.これらの実験と本稿で提案したテストセットによる評価は,情報検索技術の評価における検索実験での,現実状況での検証と研究室での検証\cite{Kishida98}とにそれぞれ対応すると考えられる.前者は実際の利用場面により近い環境での評価となり,多種多様な情報が得られるが,それらの情報は複雑かつ非定型で分析も難しく,実験の実施も一般に高価である.一方で後者は,本来の利用場面の複雑さを切り捨て,理想化単純化された状況での能力を測定することになるが,得られるデータの相互比較が比較的容易で,テストセットの再利用が可能なこと等,その実施も安価である.このように,これらにはそれぞれの長所短所があり,相補的な役割を持っていると考えている. \section{おわりに} \label{Sec6}あるトピックに関して一連の情報アクセスを対話的に行うという状況で用いられる質問応答システムの能力を定量的に評価するためのタスク,IADタスクを提案した.対話的な情報アクセスを模擬した実験を通じて,数量等を含む名称を正解の範囲とするような質問応答システムがそのような状況で有効であること,そのようなシステムは様々な照応表現を処理できる必要があることを示し,タスクが評価する技術の重要性を示唆した.IADタスクは,対話的情報アクセスを対象として,そこで必要な質問応答技術が効果的に評価できるというその枠組みの独自性に加えて,質問中の参照表現を人手で解消もしくは機械的に削除した参照用テストセットを併用することで,情報アクセス対話におけるシステムの文脈処理能力をある程度まで切り離して評価できる枠組みを持っている.評価尺度についても自然な質問への応答を考えた場合に問題になる事例に配慮して,回答の列挙に複数の体系を許し回答の2種類の質を考慮に入れた多段階評価手法という,リスト型課題一般の評価手法に関する新しい提案を含んでいる.\section*{付録}\begin{figure}[b]\centerline{\includegraphics{15-3ia3f4.eps}}\caption{$\mathit{MMF}$値による評価}\label{mmf1}\end{figure}\begin{figure}[b]\centerline{\includegraphics{15-3ia3f5.eps}}\caption{シリーズの型による$\mathit{MMF}$値の差異}\label{mmf2}\end{figure}提案するIADタスクが最先端の質問応答技術にとって,決して不可能な課題ではなく,同時に既に解決された課題でもないことを示すために,NTCIR-5におけるQAC3での実施において,高い評価を得た3チーム,7システムについてその評価を示す.この実施では「施工ミス」「送電線切断」「墜落炎上」のような事象の複合名詞表現を正解範囲に含んでいたが,その位置づけが不明確なことから,今回の提案ではそれを除いている.その点を除けば,この実施は,本稿で提案しているIADタスクであり,事象の複合名詞表現を正解とする質問は少数であるため,全体の傾向への影響は少ない.図\ref{mmf1}は,テストセット全体,各シリーズの先頭質問,2番目以降の質問について,$\mathit{MMF}$値を示したものである.図\ref{mmf2}は,シリーズを収集型とブラウジング型に分類して,テストセット全体とそれらの$\mathit{MMF}$値を比較している.これらのシステムに用いられている技術については,NTCIR-5でのQAC3実施に関する報告\cite{Kato05b,KatoJ06}に加え,\cite{Murata07,Akiba06,Mori07}に詳しい.\acknowledgmentNTCIR-4のQAC2Subtask3,NTCIR-5のQAC3に参加していただき,貴重なコメントいただきました皆様に感謝します.加えて,qac-jのメイリングリストでの議論に積極的に加わってくださった皆様にも感謝します.また,本稿の中に直接活かすことはできませんでしたが,村田真樹,秋葉友良,森辰則の3氏は,NTCIR-4でのテストセットを用いた再度の実施を快く引き受けてくださいました.御尽力にお礼申し上げます.本研究の一部は,国立情報学研究所との共同研究として支援されています.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akiba}{Akiba}{2006}]{Akiba06}Akiba,T.\BBOP2006\BBCP.\newblock\BBOQExploitingDynamicPassageRetrievalforSpokenQuestionRecognitionandContextProcessingtowardsSpeech-drivenInformationAccess\BBCQ\\newblockIn{\BemProceedingsofTheInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\1530--1535}.\bibitem[\protect\BCAY{ARDA}{ARDA}{2007}]{AQUAINT}ARDA.\newblock\BBOQAQUAINTHomePage:AdvancedQuestion\&AnsweringforIntelligence\BBCQ,\Turl{http://\linebreak[2]www.ic-arda.org/\linebreak[2]InfoExploit/\linebreak[2]aquaint/}.\bibitem[\protect\BCAY{Burger,Cardie,et~al.}{Burgeret~al.}{2001}]{Burger01}Burger,J.,Cardie,C.,et.~al.\newblock\BBOQIssues,TasksandProgramStructurestoRoadmapResearchinQuestion\&Answering(Q\&A)\BBCQ,\Turl{http://www-nlpir.nist.gov/\linebreak[2]projrcts/\linebreak[2]duc/\linebreak[2]roadmapping.html}.\bibitem[\protect\BCAY{Fukumoto,Kato,\BBA\Masui}{Fukumotoet~al.}{2003}]{Fukumoto03}Fukumoto,J.,Kato,T.,\BBA\Masui,F.\BBOP2003\BBCP.\newblock\BBOQQuestionAnsweringChallenge(QAC-1)AnEvaluationofQuestionAnsweringTasksattheNTCIRWorkshop3\BBCQ\\newblockIn{\BemAAAI2003SpringSymposiumNewDirectionsinQuestionAnswering},\mbox{\BPGS\122--133}.\bibitem[\protect\BCAY{Harabagiu,Moldovan,et~al.}{Harabagiuet~al.}{2001}]{Harabagiu01}Harabagiu,S.,Moldovan,D.,et.~al\BBOP2001\BBCP.\newblock\BBOQAnsweringcomplex,listandcontextquestionswithLCC'sQuestion-AnsweringServer\BBCQ\\newblockIn{\BemProceedingsofTREC2001}.\bibitem[\protect\BCAY{Hickl,Lehmann,Williams,\BBA\Harabagiu}{Hicklet~al.}{2004}]{Hickl04}Hickl,A.,Lehmann,J.,Williams,J.,\BBA\Harabagiu,S.\BBOP2004\BBCP.\newblock\BBOQExperimentswithInteractiveQuestionAnsweringinComplexScenarios\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2004WorkshoponPragmaticsofQuestionAnswering},\mbox{\BPGS\60--69}.\bibitem[\protect\BCAY{加藤\JBA福本\JBA桝井\JBA神門}{加藤\Jetal}{2004a}]{KatoJ04b}加藤恒昭\JBA福本淳一\JBA桝井文人\JBA神門典子\BBOP2004a\BBCP.\newblock\JBOQリスト型質問応答の特徴付けと評価指標\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2004-NL-163},\mbox{\BPGS\115--112}.\bibitem[\protect\BCAY{加藤\JBA福本\JBA桝井\JBA神門}{加藤\Jetal}{2004b}]{KatoJ04a}加藤恒昭\JBA福本淳一\JBA桝井文人\JBA神門典子\BBOP2004b\BBCP.\newblock\JBOQ質問応答技術は情報アクセス対話を実現できるか\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2004-NL-162},\mbox{\BPGS\145--150}.\bibitem[\protect\BCAY{加藤\JBA福本\JBA桝井\JBA神門}{加藤\Jetal}{2006}]{KatoJ06}加藤恒昭\JBA福本淳一\JBA桝井文人\JBA神門典子\BBOP2006\BBCP.\newblock\JBOQ情報アクセス対話に向けた質問応答技術の評価ふたたび—NTCIR-5QAC3での試み—\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2004-NL-172},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{Kato,Fukumoto,\BBA\Masui}{Katoet~al.}{2004a}]{Kato05b}Kato,T.,Fukumoto,J.,\BBA\Masui,F.\BBOP2004a\BBCP.\newblock\BBOQAnOverviewofNTCIR-5QAC3\BBCQ\\newblockIn{\BemProceedingsofFifthNTCIRWorkshopMeeting},\mbox{\BPGS\361--372}.\bibitem[\protect\BCAY{Kato,Fukumoto,\BBA\Masui}{Katoet~al.}{2004b}]{Kato04}Kato,T.,Fukumoto,J.,\BBA\Masui,F.\BBOP2004b\BBCP.\newblock\BBOQQuestionAnsweringChallengeforInformationAccessDialogue---OverviewofNTCIR4QAC2Subtask3---\BBCQ\\newblockIn{\BemWorkingnotesontheFourthNTCIRWorkshopMeeting},\mbox{\BPGS\291--296}.\bibitem[\protect\BCAY{Kato,Fukumoto,Masui,\BBA\Kando}{Katoet~al.}{2005}]{Kato05a}Kato,T.,Fukumoto,J.,Masui,F.,\BBA\Kando,N.\BBOP2005\BBCP.\newblock\BBOQAreOpen-domainQuestionAnsweringTechnologiesUsefulforInformationAccessDialogues?---Anempiricalstudyandaproposalofanovelchallenge---\BBCQ\\newblock{\BemACMTALIP(Trans.ofAsianLanguageInformationProcessing)},{\Bbf4}(3),\mbox{\BPGS\243--262}.\bibitem[\protect\BCAY{Kato,Fukumoto,Masui,\BBA\Kando}{Katoet~al.}{2006}]{Kato06}Kato,T.,Fukumoto,J.,Masui,F.,\BBA\Kando,N.\BBOP2006\BBCP.\newblock\BBOQWoZSimulationofInteractiveQuestionAnswering\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2006WorkshoponInteractiveQuestionAnswering},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Kelly,Kantor,Morse,et~al.}{Kellyet~al.}{2006}]{Kelly06}Kelly,D.,Kantor,P.,Morse,E.,et.~al\BBOP2006\BBCP.\newblock\BBOQUser-CenteredEvaluationofInteractiveQuestionAnsweringSystems\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2006WorkshoponInteractiveQuestionAnswering},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{岸田}{岸田}{1998}]{Kishida98}岸田和明\BBOP1998\BBCP.\newblock\Jem{情報検索の理論と技術}.\newblock勁草書房.\bibitem[\protect\BCAY{Liddy,Diekema,\BBA\Yilmazel}{Liddyet~al.}{2004}]{Liddy04}Liddy,E.~D.,Diekema,A.~R.,\BBA\Yilmazel,O.\BBOP2004\BBCP.\newblock\BBOQContext-BasedQuestion-AnsweringEvaluation\BBCQ\\newblockIn{\BemProceedingsofthe27thAnnualInternationalACMSIGIRConference},\mbox{\BPGS\508--509}.\bibitem[\protect\BCAY{Mani,House,et~al.}{Maniet~al.}{1998}]{Mani98}Mani,I.,House,D.,et.~al\BBOP1998\BBCP.\newblock\BBOQTheTIPSERSUMMACtextsummarizationevaluationfinalreport\BBCQ\\newblock\BTR\MTR98W0000138,TheMITRECorporation.\bibitem[\protect\BCAY{Mori,Kawaguchi,\BBA\Ishioroshi}{Moriet~al.}{2007}]{Mori07}Mori,T.,Kawaguchi,S.,\BBA\Ishioroshi,M.\BBOP2007\BBCP.\newblock\BBOQAnsweringContextualQuestionsBasedontheCohesionwithKnowledge\BBCQ\\newblock{\BemInternationalJournalofComputerProcessingofOrientalLanguages(IJCPOL)},{\Bbf20}(2\&3),\mbox{\BPGS\115--135}.\bibitem[\protect\BCAY{NII}{NII}{2007}]{NTCIR}NII.\newblock\BBOQNTCIR(NII-NACSISTestCollectionforIRSystems)ProjectHomePage\BBCQ,\Turl{http://\linebreak[2]research.nii.ac.jp/\linebreak[2]ntcir/\linebreak[2]index-ja.html}.\bibitem[\protect\BCAY{NIST}{NIST}{2007}]{TREC}NIST.\newblock\BBOQTRECHomePage\BBCQ,\Turl{http://\linebreak[2]trec.nist.gov/}.\bibitem[\protect\BCAY{小川\JBA佐々木\JBA増山\JBA村田\JBA吉岡}{小川\Jetal}{2002}]{Ogawa02}小川泰嗣\JBA佐々木裕\JBA増山繁\JBA村田真樹\JBA吉岡真治\BBOP2002\BBCP.\newblock\JBOQ参加者から見たNTCIR\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf17}(3),\mbox{\BPGS\306--311}.\bibitem[\protect\BCAY{関根\JBA影浦\JBA奥村\JBA乾}{関根\Jetal}{2005}]{Sekine05}関根聡\JBA影浦峡\JBA奥村学\JBA乾健太郎\BBOP2005\BBCP.\newblock\JBOQ研究の場としての評価型ワークショップになるために\JBCQ\\newblock\Jem{言語処理学会第11回年次大会併設ワークショップ「評価型ワークショップを考える」}.\bibitem[\protect\BCAY{Small,Shimizu,et~al.}{Smallet~al.}{2003}]{Small03}Small,S.,Shimizu,N.,et.~al\BBOP2003\BBCP.\newblock\BBOQHITIQA:ADataDrivenApproachtoInteractiveQuestionAnswering:APreliminaryReport\BBCQ\\newblockIn{\BemAAAI2003SpringSymposiumNewDirectionsinQuestionAnswering},\mbox{\BPGS\94--104}.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2001}]{Voorhees01}Voorhees,E.~M.\BBOP2001\BBCP.\newblock\BBOQOverviewoftheTREC2001QuestionAnsweringTrack\BBCQ\\newblockIn{\BemProceedingsofTREC2001}.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2003}]{Voorhees03}Voorhees,E.~M.\BBOP2003\BBCP.\newblock\BBOQOverviewoftheTREC2003QuestionAnsweringTrack\BBCQ\\newblockIn{\BemProceedingsofTREC2003},\mbox{\BPGS\14--27}.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2004}]{Voorhees04}Voorhees,E.~M.\BBOP2004\BBCP.\newblock\BBOQOverviewoftheTREC2004QuestionAnsweringTrack\BBCQ\\newblockIn{\BemProceedingsofTREC2004}.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2005}]{Voorhees05}Voorhees,E.~M.\BBOP2005\BBCP.\newblock\BBOQQuestionAnsweringinTREC\BBCQ\\newblockInVoorhees,E.~M.\BBACOMMA\\BBA\Harman,D.~K.\BEDS,{\BemTRECExperimentandEvaluationinInformationRetrieval}.TheMITPress.\bibitem[\protect\BCAY{Voorhees\BBA\Tice}{Voorhees\BBA\Tice}{2000}]{Voorhees00}Voorhees,E.~M.\BBACOMMA\\BBA\Tice,D.~M.\BBOP2000\BBCP.\newblock\BBOQBuildingaQuestionAnsweringTestCollection\BBCQ\\newblockIn{\BemProceedingsofthe23rdAnnualInternationalACMSIGIRConference},\mbox{\BPGS\200--207}.\bibitem[\protect\BCAY{村田\JBA内山\JBA白土\JBA井佐原}{村田\Jetal}{2007}]{Murata07}村田真樹\JBA内山将夫\JBA白土保\JBA井佐原均\BBOP2007\BBCP.\newblock\JBOQシリーズ型質問文に対して単純結合法を利用した逓減的加点質問応答システ厶\JBCQ\\newblock\Jem{システム制御情報学会論文誌},{\Bbf20}(8),\mbox{\BPGS\338--346}.\end{thebibliography}\begin{biography}\bioauthor{加藤恒昭}{1983年東京工業大学大学院総合理工学研究科修士課程修了.同年,日本電信電話公社(現NTT)に入社.2000年東京大学大学院総合文化研究科言語情報科学専攻准教授,現在に至る.1993年米国ロチェスター大学客員研究員.2005年米国USC/ISI客員研究員.博士(工学).質問応答,情報編纂,語彙意味論に関する研究に従事.}\bioauthor{福本淳一}{1986年広島大学大学院工学研究科博士前期課程修了.同年,沖電気工業(株)に入社.1992--94年英国マンチェスター科学技術大学Ph.~D.コース.2000年立命館大理工学部助教授.2004年米国USC/ISI客員研究員.2006年立命館大情報理工学部教授,現在に至る.Ph.~D.質問応答システム,情報抽出,談話構造解析の研究に従事.}\bioauthor{桝井文人}{1990年岡山大学理学部・地学科卒業.同年,沖電気工業(株)に入社.2000年三重大学工学部情報工学助手.2004--05年北海道大学情報科学研究科研究員.現在,三重大学大学院工学研究科助教.博士(工学).自然言語処理,教育工学,設備保全などの研究に興味を持つ.}\bioauthor{神門典子}{1994年慶応義塾大学文学研究科博士課程修了.博士(図書館・情報学).同年学術情報センター助手.米国シラキウス大学情報学部,デンマーク王立図書館情報大学客員研究員を経て,1998年学術情報センター助教授.2000年国立情報学研究所助教授.2004年同教授.現在に至る.テキスト構造を用いた検索と情報活用支援,言語横断検索,情報検索システムの評価等の研究に従事.}\end{biography}\biodate\end{document}
V12N03-05
\section{はじめに} label{intro}照応現象に関する理論のうち,最も広く論じられているのは中心化理論(centeringtheory)である.中心化理論は,注意の中心,照応,結束性の間の相互作用を説明している.しかし,照応現象等の背後にある基本原理を明らかにするものではない.もし中心化理論の背後に何らかの基本原理が存在するならば,それは談話における発話者と受話者の行動決定を説明する原理であろう.その基本原理は,客観的に計量可能な尺度に基づいて述べられるべきである.しかし,中心化理論において重要な役割を担っている顕現性(salience)という概念は,客観的に計量可能な尺度として定式化されていない.顕現性とは,人間の注意状態に関連する何らかの尺度であるが,従来研究ではCfランキングというヒューリスティクスで近似される.本稿では,参照確率という計量可能な尺度として顕現性を定式化し,その計測手法を示す.一方,中心化理論の背後にある基本原理の説明として,Hasidaら\citeyear{hasida1995,hasida1996}が提唱する意味ゲーム(meaninggame)がある\footnote{Hasidaらのアプローチを最適性理論の上で発展させる試みも行われている\cite{rooy2003,kibble2003}}.意味ゲームとは,ゲーム理論に基づいて意図的なコミュニケーションを説明するモデルであり,発話者と受話者をプレイヤーとする2人ゲームである.Hasidaらは,顕現性を上記のように参照確率とみなし,照応詞の単純さをプレイヤーの利得の一部とみなすと,この意味ゲームモデルから中心化理論が導けることを示した.彼らはコミュニケーションの一例として特に照応を取り上げて,照応現象の説明はゲーム理論に帰着できると主張している.しかし,この主張の根拠は特定の事例に関する思考実験であり,実言語データに基づいて検証されていない.本稿では日本語の新聞記事コーパスを用いて照応の意味ゲームモデルを検証し,この主張が正しいことを示す. \section{中心化理論の概略と問題点} label{sec:centering}以下では,中心化理論の概略を述べ,基本原理の欠如という問題点と顕現性に関する問題点を指摘する.\subsection{理論の概要}中心化理論では,談話を発話(utterance)の列$[U_1,U_2,\cdots,U_n]$として扱う.各発話において注意が向けられている実体のことを中心(center)と言い,発話ごとに中心が更新される.また,中心の決定の際に用いられる尺度である顕現性(salience)は,ある文脈で具現化(realize)\footnote{言語表現(ゼロ照応を含む)によって実世界の実体を参照すること.}された実体の「目立ち具合」を表す.中心には以下のような種類がある.\begin{itemize}\item{\itCb}$(U_i)$:$U_i$の後向き中心(backward-lookingcenter).先行文脈で具現化され,$U_i$でも引き続き具現化されている実体.そのような実体が複数ある場合は,$U_{i-1}$において最も顕現性が高かった実体.\item{\itCf}$(U_i)$:$U_i$の前向き中心(forward-lookingcenters).$U_i$で具現化された実体を顕現性の順にソートしたリスト.\item{\itCp}$(U_i)$:$U_i$の優先中心(preferedcenter).{\itCf}$(U_i)$の要素のうち最も顕現性の高い実体.\end{itemize}中心化理論は以下の2つのルールから構成される\cite{walker1994}.\begin{breakbox}\begin{itemize}\item[{\bfルール1}:]{\itCf}$(U_{i-1})$の要素の幾つかが$U_i$において代名詞によって具現化されているならば,そのうちの一つが{\itCb}$(U_i)$である.\item[{\bfルール2}:]中心の遷移には下記の4種類があり,その選好の順序は\\Continue$>$Retain$>$Smooth-Shift$>$Rough-Shiftである.\end{itemize}\begin{center}{\small\begin{tabular}{l}\begin{tabular}{|c||c|c|}\hline&{\itCb}$(U_i)=${\itCb}$(U_{i-1})$&{\itCb}$(U_i)\neq${\itCb}$(U_{i-1})$\\\hline\hline{\itCb}$(U_i)=${\itCp}$(U_i)$&Continue&Smooth-Shift\\\hline{\itCb}$(U_i)\neq${\itCp}$(U_i)$&Retain&Rough-Shift\\\hline\end{tabular}\\\end{tabular}}\end{center}\end{breakbox}ルール1は,同一発話内に代名詞と非代名詞がある場合,代名詞の方が{\itCb}を指しやすいという選好である.ルール2は,結束性(cohesion),すなわち発話間の語彙的つながりの強さに関するルールである.発話$U_{i-1}$から$U_i$への中心遷移の仕方を4種類に分け,それらを結束性が高い順に並べた選好である.\subsection{問題点}中心化理論の第1の問題点として,上記の2つのルールは,中心,照応,結束性の相互作用について述べているものの,そのような現象の根底にある基本原理を説明してはいない.また,第2の問題点として,中心化理論において本質的な役割を担う顕現性が客観的に計量可能な尺度として定式化されていない.すなわち,中心化理論の先行研究において顕現性の意味を明確に定義した研究は無く\footnote{文生成の研究においては,視覚における鮮やかさや,語自体が持つ印象の強さ,言及された至近性などによって顕現性が決定されるとした研究例がある\cite{reed2002}.},顕現性は注意状態に関係する何らかの尺度として,Cfランキングと呼ばれるヒューリスティックな順序によって近似されてきた.しかし,そもそも顕現性の定義に上記のような不備があるので,Cfランキングの妥当性を経験的に検証することは不可能である.基本的にCfランキングは文法機能のみによって決まり,その順序は下記のように言語によって異なる.\begin{tabbing}1234\=5678\=\kill\>英語のCfランキング:\\\>\>主語$>$直接目的語$>$間接目的語$>$補語$>$付属語\\\>日本語のCfランキング\cite{walker1994}:\\\>\>主題(文法orゼロ)$>$視点$>$主語$>$間接目的語$>$直接目的語$>$その他\end{tabbing}しかし,文法機能以外の要因も顕現性の決定に関わっているとする研究もある\cite{strube1999,reed2002}.また,文法機能の順序によって決定できるのは同じ発話内で参照されている実体の順序のみであるが,先行詞の候補が異なる発話に分散していることも多いので,異なる発話間の実体も順序付けする必要がある.顕現性の問題点を以下にまとめる.\begin{itemize}\item[A]客観的に計量可能な尺度として定義されていないので,Cfランキング等の妥当性の経験的検証が不可能である.\item[B]顕現性に影響する要因は文法役割以外にもあるが,Cfランキングはそれを捉えていない.\item[C]Cfランキングでは直前の発話で参照された実体しか扱えない.\end{itemize}問題点Bに関して,Strubeら\citeyear{strube1999}は聞き手にとっての情報の新しさという要因を導入してCfランキングを拡張した機能的中心化理論(FunctionalCentering)を提案した.問題点Cに関して,Nariyama\citeyear{nariyama2001}は,先行文脈中の名詞句から成るSRL(SalientReferentList)を発話単位毎に更新する手法を提案した.しかし,そもそも問題点Aを解決しなければこれらの試みの妥当性を論ずることも困難である. \section{顕現性の定式化と計測} label{sec:ref_prob}\ref{sec:centering}節で述べたように,中心化理論では顕現性はCfランキングと呼ばれるヒューリスティクスによって近似されるが,そもそも顕現性が客観的に計測できる尺度として定式化されていないため,Cfランキングの妥当性を経験的に検証することは不可能である.これは,理論としての不備である.本節では,顕現性を参照確率(referenceprobability)という計測可能な尺度として定式化することを提案する.参照確率とは,実体が次の発話で参照(具現化)される確率である.これにより,\ref{sec:centering}節で述べた問題点が解消される.\subsection{計測方法}以下に顕現性の定式化と計測方法を示す.\begin{itembox}[l]{顕現性の定式化}\begin{itemize}\item[{\bf顕現性の定義}]発話列$[U_1,U_2,\cdots,U_i]$のどこかで実体$e$が参照されているとき,発話$U_i$における実体$e$の顕現性とは,$e$が$U_{i+1}$で参照される確率(参照確率)である.\item[{\bf参照確率の計測}]\begin{itemize}\item発話列$\{U_1,U_2,\cdots,U_i\}$のどこかで実体$e$を参照している表現$w$がある.\item特徴量ベクトル{\itfeature}$(w,U_i)$を抽出する.\item充分に大きな言語コーパスにおいて,{\itfeature}$(w,U_i)$と等しい特徴量ベクトルを持つ事例$(w_x,U_j)$を全て抽出する.そのうち,$w_x$が指し示す実体が$U_{j+1}$においても参照されている事例の相対出現頻度を計測する.\itemこの相対出現頻度が,$U_{i+1}$における$e$の参照確率である.\itemこの参照確率を,$U_i$における$e$の顕現性とする.\end{itemize}\end{itemize}\end{itembox}ここで,以下のような具体例において「太郎君」が$U_{i+1}$で参照される確率の計測方法を説明する.\begin{breakbox}\noindent\hspace{1.5cm}$U_{i-2}$:さきほど($\phi_0$ガ)\underline{太郎君}を見かけたが、\\\hspace{1.5cm}$U_{i-1}$:(\underline{$\phi_1$}ガ)眠そうだった。\\\hspace{1.5cm}$U_{i\phantom{-0}}$:昨夜はとても暑かったし、\\\hspace{1.5cm}$U_{i+1}$:\underline{\hspace{2.2cm}}\begin{picture}(0,0)\put(-57,30){\line(4,1){70}}\multiput(-56,29)(1,-2){16}{\line(1,-2){0.3}}\put(-40,5){\small$\cdots\cdots\cdots\cdots\cdots参照確率Pr(太郎君,U_{i+1})$}\end{picture}\end{breakbox}\noindent事例の特徴量として,たとえば次の3素性のみを用いたとする.\\\hspace{1.5cm}-$dist$:現発話と,先行文脈中で実体$e$を最近参照した表現の発話距離\\\hspace{1.5cm}-$gram$:先行文脈中で$e$を最近参照した表現が係る助詞(≒文法役割)\\\hspace{1.5cm}-$chain$:先行文脈中の$e$の共参照連鎖(coreferencechain)の長さ\\このとき,この事例の特徴量ベクトルは以下のようになる.\\\hspace{1.5cm}${\itfeature}(太郎君,U_i)=(dist=2,gram=ガ,chain=2)$\\このとき,コーパス中で${\itfeature}(w,U_j)={\itfeature}(太郎君,U_i)$となるような事例,つまり\begin{breakbox}\noindent\hspace{1.5cm}$U_{j-k}$:\underline{\hspace{4mm}}\underline{$w_{0}$}\underline{\hspace{1cm}}\\\hspace{1.5cm}\phantom{$U_{j-h}$:}$\vdots$\\\hspace{1.5cm}$U_{j-1}$:\underline{$w$}が\underline{\hspace{1.3cm}}\\\hspace{1.5cm}$U_{j\phantom{-0}}$:\underline{\hspace{2.2cm}}\\%($w_xが参照する実体をU_{j-1}では参照していない$)\\\hspace{1.5cm}$U_{j+1}$:\underline{\hspace{2.2cm}}\begin{picture}(0,0)\put(-63,32){\line(1,2){17}}\put(20,35){\small条件C:{\itfeature}$(w,U_j)=(dist=2,gram=ガ,chain=2)$}\multiput(-63,31)(1,-2){16}{\line(1,-2){0.3}}\put(-45,6){\small$\cdots\cdots\cdots\cdots参照確率Pr(w,U_{j+1})=\frac{(C\wedge(U_{j+1}でwを参照している))が成り立つ事例数}{Cが成り立つ事例数}$}\end{picture}\end{breakbox}\noindentという表層的なパターンを持つ事例の出現頻度と,そのうちの$U_j$において$w$が参照する実体が参照される相対出現頻度を計測しておいたとすると,この相対頻度が,$U_i$において「太郎君」が参照される確率の近似値となる.ただし,実際のコーパスの事例数には限りがあり,特徴空間上の全てのベクトルについて充分な事例数があるわけではないので,任意の特徴量ベクトルを持つ事例の確率を外挿する必要がある.そのためには,コーパス中の事例集合を用いて回帰分析を行えばよい.回帰分析のアルゴリズムについては限定しない.ただし,複数の要因を統合して参照確率を外挿するためには複数の説明変数を扱う多重回帰が可能なアルゴリズムでなければならない.本稿では,以下の2つの回帰アルゴリズムによって参照確率の計測を行う.\begin{itemize}\item3素性による多重ロジスティック回帰\item8素性によるSVR(SupportVectorRegression)\end{itemize}本稿で多重ロジスティック回帰に用いる3素性とSVRに用いる8素性を表\ref{tab:features}に示す.\begin{table}\begin{center}\begin{tabular}{|l|l|l|l|}\hline&多重&{\itdist}&参照表現と指示対象候補の最近参照箇所との発話距離の自然対数\\&logi-&{\itgram}&指示対象候補の最近参照箇所の文法機能(助詞)\\S&stic&{\itchain}&(指示対象候補の先行文脈中の共参照連鎖の長さ+1)の自然対数\\\cline{2-4}V&&{\itexp}&指示対象候補の最近参照箇所の表現種別(ゼロ/代名詞/定名詞/一般)\\R&&{\itlast\_{}topic}&指示対象候補が最近のトピックであるか否か\\&&{\itlast\_{}sbj}&指示対象候補が最近の主語であるか否か\\&&{\itp1}&指示対象候補が一人称であるか否か\\&&{\itpos}&指示対象候補の最近参照箇所の品詞(名詞/述語)\\\hline\end{tabular}\end{center}\caption{本稿で参照確率の回帰分析に用いる素性}\label{tab:features}\end{table}多重ロジスティックで用いる説明変数を3素性に絞ったのは,モデルの表現能力に対して問題空間が疎になることを防ぐためである. \section{意味ゲーム} label{meaning_game}本節では意味ゲームの概要を説明し,意味ゲームから中心化理論のルール1,2に相当する選好を導出する.\subsection{意味ゲームの概要}Hasidaら\citeyear{hasida1995,hasida1996}が提唱した意味ゲームは,意図的なコミュニケーション(非自然的意味の伝達)のゲーム理論的な定式化である.Hasidaらは,意図的・言語的コミュニケーションの一例として特に照応現象を論じた.意味ゲームでは,発話者による意図決定および受話者による解釈の組み合わせの,コミュニケーションの成功以外の要因による期待効用は以下の式で表される.$$\sum_{wがeを参照する}{\itPr}(e){\itUt}(w)$$${\itPr}(e)$は実体$e$が参照される確率(参照確率),${\itUt}(w)$は$e$を参照する表現$w$の効用である.ここでは簡単のため以下のように仮定する.\begin{itemize}\itemコミュニケーションは確実に成功する.すなわち,発話者の意図した意味を受話者は必ず理解する.\item実体$e$の参照確率${\itPr}(e)$は,先行文脈を含む発話者・受話者の間での共有信念に基づいて定まり,それ自身共有信念に属する.したがって,発話者,受話者双方にとって${\itPr}(e)$は等しい.\item参照表現$w$が単純なほど表層的処理(発話/筆記/聞き取り/読み取り)のコストが低く,発話者,受話者双方の利得${\itUt}(w)$が高い.表現が複雑であればコストが高く,${\itUt}(w)$が低い(ただし,${\itUt}(w)$の値は発話者と受話者において異なっていてもよい).\end{itemize}これらの仮定により,期待効用を最大化する解が発話者・受話者間で共通となる.副作用として,誤解が起こりやすいような発話はモデルの対象外となるが,文法的知識などの共有信念に基づいて理解可能な談話現象をモデル化できれば充分であり,理解不能な発話はそもそも扱う必要が無いと我々は考える.これら3つの仮定をおくことにより,プレイヤー間で共有された期待効用が最大になる解(発話意図と解釈の組み合わせ)がPareto最適解\footnote{どのプレーヤについても単独で戦略を変えることによって自分の利得が高くならないようなプレーヤ達の戦略の組合せを(Nash)均衡と言い,全プレーヤにとってより望ましい均衡がないような均衡をPareto最適であると言う.}となる.\subsection{ルール1の導出}\label{subsec:rule1}Hasidaらは,照応の意味ゲームから中心化理論のルール1を導いている.たとえば次のような意味的制約の影響が小さい談話においては,heがFredを指し,themanがMaxを指す場合が多い.\begin{tabbing}談話(1)\\\=$U_1$:FredscoldedMax.\\\>$U_2$:Hewasangrywiththeman.\end{tabbing}\begin{tabbing}\$p_1$:Fred(主語)の参照確率\=$>$$p_2$:Max(目的語)の参照確率\\\$u_1$:he(代名詞)の効用\>$>$$u_2$:theman(定名詞)の効用\\%\\(効用=コストの低さ)\\\end{tabbing}\begin{center}\begin{picture}(140,40)\put(-5,45){Fred}\put(25,45){Max}\put(95,45){Fred}\put(125,45){Max}\put(5,10){\line(0,1){30}}\put(35,10){\line(0,1){30}}\put(105,10){\line(1,1){30}}\put(135,10){\line(-1,1){30}}\put(-5,0){`he'}\put(20,0){`theman'}\put(90,0){`he'}\put(115,0){`theman'}\end{picture}\\\\期待効用\\$p_1u_1+p_2u_2\\\\>\\\\p_1u_2+p_2u_1$\phantom{期待効用\\}\\$∵(p_1u_1+p_2u_2)-(p_1u_2+p_2u_1)=(p_1-p_2)(u_1-u_2)>0$\end{center}談話(1)の$U_2$における後向き中心はFredなので,期待効用を最大化する解(代名詞heがFredを指し,非代名詞themanがMaxを指すような解)は,中心化理論のルール1の予測と合致している.つまり上記は,ゲーム理論からルール1が導けることの例証になっている.ここで,ルール1と意味ゲームの概念の対応関係を表\ref{tab:rule1_and_game}に示す.\begin{table}{\small\begin{center}\begin{tabular}{|c|c|}\hlineルール1&意味ゲーム\\\hline\hline代名詞&効用の高い参照表現\\\hline非代名詞&効用の低い参照表現\\\hline顕現性&参照確率\\\hline後向き中心&参照確率の高い実体\\\hline\end{tabular}\end{center}}\caption{ルール1と意味ゲームの対応}\label{tab:rule1_and_game}\end{table}上記のHasidaらによる例証は,一般の事例では図\ref{fig:crossed_or_uncrossed}(b)の解よりも(a)の解の方が選ばれやすいことを表し,以下のように記述できる.\vspace{2mm}\begin{breakbox}\noindent{\bf選好1a}:同一発話内に複数の参照表現があるとき,そのうち効用が高い参照表現が,参照確率の高い実体を参照しやすい.\end{breakbox}\noindentまた,この選好は一般\footnote{参照表現が3つ以上の場合,及びそれらが同一発話内に無い場合にも予測の範囲を広げる,という意味での一般}には以下の選好と等価である.\vspace{2mm}\begin{breakbox}\noindent{\bf選好1b}:参照表現の効用とその指示対象の参照確率の間には正の相関関係がある.\end{breakbox}\noindentこの意味ゲームから導かれた選好1bは1つの発話の中に参照表現が1つしかない場合にも及ぶので,中心化理論のルール1よりも強い予測を導く.\begin{figure}[tb]\begin{center}\includegraphics[width=14cm]{crossed_or_uncrossed.eps}\caption{交差の有無}\label{fig:crossed_or_uncrossed}\end{center}\end{figure}\subsection{ルール2の導出}\label{subsec:rule2}ルール2は,中心の遷移(transition)と結束性(cohesion)に関する選好である.中心遷移は2つの条件式の組み合わせによって4種類に分けられ,結束性に関する優先順位がつけられる.1つ目の条件式{\itCb}$(U_i)=${\itCb}$(U_{i-1})$は,後向き中心$Cb$が直前発話からそのまま受け継がれていることを表す.2つ目の条件式{\itCb}$(U_i)=${\itCp}$(U_i)$は,$Cb$が$U_i$中で参照されている実体のうちで最も顕現性が高いことを表す\footnote{前者の条件式は直前発話$U_{i-1}$と現発話$U_i$の結束性に対応し,後者の条件式は現発話$U_i$と次の発話$U_{i+1}$の結束性の予測に対応すると考えられる.}.われわれは,ルール1の場合と同じく,ルール2における順序も発話の期待効用の高さの順序として導かれると考える.1つ目の条件式が成り立つとき,{\itCb}の参照確率が高くなると同時に,選好1bの予測から{\itCb}を参照する照応詞の効用も高くなると考えられ,したがって現在の発話の期待効用が増すからである。また,2つ目の条件式が成り立つときも,やはり{\itCb}の参照確率と効用が高くなり,期待効用が高くなると考えられるからである.さらに,RetainとSmooth-Shiftは共に一方の条件式のみが成り立つタイプであるが,1つ目の条件式が直前の発話から現在の発話への結束性を表す(したがって現在の発話の期待効用を直接高める)のに対し,2つ目の条件式は現在の発話から次の発話への結束性の予測に過ぎないので1つ目の条件式の方が2つ目の条件式よりも期待効用への影響が強く,したがってRetainの方がSmooth-Shiftよりも期待効用が大きくなると予想される.これらの予想が正しいならば,ルール2は意味ゲームに基づき以下のように一般化できると考えられる.\vspace{2mm}\begin{breakbox}\noindent{\bf選好2}:期待効用の高い解(発話意図と解釈の組み合わせ)が選ばれやすい.この期待効用の高さが結束性の強さに対応する.\end{breakbox}本稿では,コーパス中の事例を中心遷移4タイプに分類し,各タイプの期待効用の平均の順序がルール2の順序と合致するという予想を検証する. \section{統計的検証} label{verification}本節では,意味ゲームから導出した選好1a,選好1b,選好2を統計的に検証する.その際,統語構造や照応を表すGDAタグ\cite{GDA}を人手で付与した毎日新聞の記事1356記事から成るコーパスを用いる.表\ref{tab:examples}にコーパスに含まれる事例数と,正例・負例の頻度分布を示す.正例は,先行文脈で参照された実体$e$が次の発話$U_{i+1}$でも参照されている事例,負例は,$e$が$U_{i+1}$では参照されていない事例である.表\ref{tab:anaphors}に参照表現の種類別の頻度分布を示す.\begin{table}\begin{center}\begin{tabular}{|c|r|r|}\hline&事例数&割合\\\hline\hline正例&16728&1.6\%\\負例&1057053&98.4\%\\\hline全事例&1073781&100.0\%\\\hline\end{tabular}\end{center}\caption{全事例数と正例・負例の割合}\label{tab:examples}\begin{center}\begin{tabular}{|c|r|r|}\hline参照表現の種類&事例数&割合\\\hline\hlineゼロ代名詞&5876&35.1\%\\代名詞&843&5.0\%\\指示詞が係る名詞句&1011&6.0\%\\その他の名詞句&8998&53.8\%\\\hline計&16728&100.0\%\\\hline\end{tabular}\end{center}\caption{参照表現のタイプ別分布}\label{tab:anaphors}\end{table}ところで,文を発話単位と見なす手法では,複文における文内の照応を扱うことができない.Kameyama\citeyear{kameyama1998}は時制節を発話単位とする拡張を提案した.本稿では時制節か非時制節かの区別は行わず,1つの述語が統率する述語節を発話単位と見なして統計的検証を行った.また,Hasidaらは参照表現の効用について,参照表現が単純なほど発話者・受話者の表層的処理のコストが低く,効用が高いと仮定した.将来的には参照表現のコストの低さを計量可能な尺度として定式化する必要があるが,現段階では中心化理論と同様に代名詞と非代名詞の区別だけを考慮する.代名詞の方が非代名詞よりもコストが低いので,代名詞の効用が非代名詞の効用よりも高いと仮定する.具体的な値の設定においては,代名詞と非代名詞という2タイプのみを仮定しているので2タイプの効用の値の大小だけが問題であり,少なくとも選好1a,1bの検証は絶対値や比の設定に影響を受けない\footnote{選好2の検証は絶対値や比の設定に影響を受ける可能性がある}.本稿では,代名詞(ゼロ代名詞含む)の効用の値を2,非代名詞の効用の値を1と仮定して期待効用を計算し,検証を行う.\begin{table}[tb]\begin{center}\begin{tabular}{l}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|r|r|}\hline助詞&は&が&の&を&に&も&で&から&と\\\hline出現頻度&35329&38450&88695&50217&46058&8710&24142&7963&19383\\参照頻度&1908&1107&1755&898&569&105&267&76&129\\参照確率(\%)&5.40&2.88&1.98&1.79&1.24&1.21&1.11&0.954&0.666\\\hline\end{tabular}\\\begin{tabular}{|l|r|r|}\hline助詞&その他の助詞&助詞無し\\\hline出現頻度&512006&153197\\参照頻度&8027&1315\\参照確率(\%)&1.57&0.858\\\hline\end{tabular}\end{tabular}\end{center}\caption{助詞別の参照確率}\label{tab:gramfunc_order}\end{table}\subsection{回帰分析による参照確率の計測}ここでは,回帰分析による参照確率の計測方法として,多重ロジスティック回帰を用いる方法と,SVRを用いる方法について述べる.回帰分析に用いる説明変数には,助詞(文法役割)を表すパラメタ$gram$が含まれる.コーパス中の1356記事における出現頻度上位9助詞について,事例数を数えることで参照確率を計測した結果を表\ref{tab:gramfunc_order}に示す\footnote{幾つかの要因を統合して参照確率を求める場合にはコーパスの事例数が疎になるため回帰分析が必要になるが,文法機能のみから参照確率を求めるためには充分な事例数があるので,ここでは単に相対頻度を数えることで計測できる.}.以下に述べる多重ロジスティック回帰とSVRでは,パラメタ$gram$の値として表\ref{tab:gramfunc_order}の値を用いる.\subsubsection{多重ロジスティック回帰}多重ロジスティックモデルは,ある事象が発生する確率を$P$としたとき,その対数オッズ$log(\frac{P}{1-P})$が説明変数の線形結合式$\lambda$で表せるという仮定に基づいた回帰モデルである.\ref{sec:ref_prob}節の表\ref{tab:features}で示した3素性($dist,gram,chain$)を説明変数とする多重ロジスティック回帰式は以下のようになる.\begin{eqnarray*}P&=&(1+exp(-\lambda))^{-1}\\&=&(1+exp(-(b_0+b_1{\itdist}+b_2{\itgram}+b_3{\itchain})))^{-1}\end{eqnarray*}ただし,全$1,073,781$事例を使って多重ロジスティック回帰をするには膨大な時間がかかるため,本稿では$12,000$事例ずつサンプリングして5回の多重ロジスティック回帰を行った.多重ロジスティック回帰には統計ソフトウェアR\cite{R}を用いた.表\ref{tab:5logistic_models}は,その結果得られた5つのモデルのパラメータである.これら5つのモデルによって求まる確率の平均$$\frac{1}{5}\sum_{k=1}^5(1+exp(-(b_{k,0}+b_{k,1}{\itdist}+b_{k,2}{\itgram}+b_{k,3}{\itchain})))^{-1}$$を参照確率とした.\begin{table}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hlineモデル$k$&$b_{k,1}$&$b_{k,2}$&$b_{k,3}$&定数($b_{k,0}$)\\\hline\hline1&-0.7636&9.036&2.048&-2.825\\2&-0.7067&10.47\phantom{0}&2.270&-3.055\\3&-0.7574&6.433&2.399&-2.952\\4&-0.5911&9.170&2.129&-3.288\\5&-0.6578&4.836&2.178&-3.043\\\hline\end{tabular}\end{center}\caption{5回の多重ロジスティック回帰による5つのモデルの係数}\label{tab:5logistic_models}\end{table}\subsubsection{SVR}\ref{sec:ref_prob}節の表\ref{tab:features}で示した8素性を用い,参照確率の計測を行うためのSVRモデルを作成した.多重ロジスティック回帰の入力は0または1の値から成る事例集合であったが,SVRによって確率を外挿するためには入力を平滑化しておく必要がある.本稿では全事例から無作為に$60,000$事例を抽出し,$k=100$のk-NN法によって平滑化したのち,TinySVM\cite{tinysvm}を用いて2次多項式カーネルによるSVRを行った.\subsection{意味ゲームから導かれる選好1a,選好1bの検証}まず,\ref{subsec:rule1}節で述べた選好1aの検証として,コーパス中の同一発話中に出現する参照表現を2つずつ対にし,選好1aが成り立っているペアの比率を計測し,95\%信頼区間を求める.また,選好1bの検証として,参照表現の効用と指示対象の参照確率の相関係数を計測し,95\%信頼区間を求める.表\ref{tab:per_uttr}は1発話内の参照表現数である.選好1aの検証のために同一発話内の参照表現を2つずつ対にしたところ,914組であった.その914組のうち,代名詞と非代名詞のペアは360組であり,それ以外は同種同士のペアであった.同種の参照表現のペアにおいては効用に差が無いので,代名詞と非代名詞の参照表現対360組中で選好1aが成立している比率を計測する.また,「効用と参照確率には正の相関がある」という選好1bの検証のため,全16728照応詞の効用とその指示対象の参照確率のPearson積率相関係数を求める.それらの結果を表\ref{tab:rule1}に示す.多重ロジスティック回帰による参照確率を用いた場合は75.3\%の事例で選好1aが満たされており,選好1bにあたる相関係数は+0.373であった.SVRによる参照確率を用いた場合も74.4\%の事例で選好1aが満たされており,選好1bにあたる相関係数は+0.386であった.ペアのどちらかが一人称である場合に限定しても,それぞれ同程度の比率で選好1aが成り立っていた.\begin{table}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline1発話内の&&&参照表現の&参照表現の\\参照表現数&発話数&参照表現数&割合(\%)&ペア数\\\hline\hline0&47728&0&0.0&0\\1&14960&14960&89.4&0\\2&854&1708&10.2&854\\3&20&60&0.4&60\\\hline計&63562&16728&100.0&914\\\hline\end{tabular}\end{center}\caption{1発話内の参照表現数}\label{tab:per_uttr}\end{table}\begin{table}\begin{center}\begin{tabular}{|c|c||rr|rr|}\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{|c|}{選好1a成立}&\multicolumn{2}{|c|}{選好1a不成立}\\\hline\hline多重&選好1a成立比率(360組中)&75.3\%&(271/360)&24.7\%&(89/360)\\\cline{2-6}logi-&選好1a成立比率(一人称を含まない組)&76.9\%&(227/295)&23.1\%&(68/295)\\\cline{2-6}stic&選好1a成立比率(一人称を含む組)&67.7\%&(44/65)&32.3\%&(21/65)\\\cline{2-6}&全16728事例における選好1b相関係数&\multicolumn{4}{|c|}{+0.373}\\\hline\hlineS&選好1a成立比率(360組中)&74.4\%&(268/360)&25.6\%&(92/360)\\\cline{2-6}V&選好1a成立比率(一人称を含まない組)&74.2\%&(219/295)&25.8\%&(76/295)\\\cline{2-6}R&選好1a成立比率(一人称を含む組)&75.4\%&(49/65)&24.6\%&(16/65)\\\cline{2-6}&全16728事例における選好1b相関係数&\multicolumn{4}{|c|}{+0.386}\\\hline\end{tabular}\end{center}\caption{選好1a,選好1bの検証}\label{tab:rule1}\end{table}\begin{table}\begin{center}\begin{tabular}{|c|c||c|c|}\hline\multicolumn{2}{|c||}{}&実測値&95\%信頼区間\\\hline\hline多重lo-&選好1a成立比率&0.753&[0.705,0.796]\\\cline{2-4}gistic&選好1b相関係数&0.373&[0.360,0.386]\\\hlineSVR&選好1a成立比率&0.744&[0.696,0.789]\\\cline{2-4}&選好1b相関係数&0.386&[0.373,0.399]\\\hline\end{tabular}\end{center}\caption{選好1a成立比率と選好1b相関係数の95\%信頼区間}\label{tab:confi}\end{table}\begin{table}\begin{center}\begin{tabular}{|c||c|c|}\hline&選好1b相関係数の実測値&95\%信頼区間\\\hline\hline多重logistic&0.357&[0.343,0.371]\\\hlineSVR&0.386&[0.372,0.400]\\\hline\end{tabular}\end{center}\caption{1発話内に1照応詞の場合(14960事例)に限った選好1b相関係数と95\%信頼区間}\label{tab:confi_1}\end{table}また,選好1aの成立事例の母比率を二項分布と仮定した場合の95\%信頼区間と,選好1bで予測する相関係数をt分布と仮定した場合の95\%信頼区間を表\ref{tab:confi}に示す.これは,母集団における選好1a成立比率が7割以上である確率,および選好1bで予測する正の相関係数が0.343以上である確率が97.5\%であることを表している.これにより,表\ref{tab:rule1}の2つの回帰手法による参照確率の双方において,意味ゲームから導かれた選好1a,選好1bは有意であることが示せた.\subsubsection{中心化理論のルール1と意味ゲームから導かれた選好1bの適用範囲の比較}中心化理論のルール1が意味を持つのは,1つの発話が複数の参照表現を含む場合である\footnote{1つの発話が1つの参照表現しか含まない場合,その参照表現がCbを指すことはCbの定義から明らかなので,ルール1は何も言っていないに等しい.}.それに対して,意味ゲームから導かれる選好1bは指示対象の参照確率と参照表現の効用との正の相関関係を予測し,その適用範囲は1つの発話内に参照表現が1つしかない場合も含む.よって,選好1bの方がルール1よりも一般的である.さらに,表\ref{tab:confi_1}は,1つの発話内に1参照表現の事例に限っても正の相関があることを示している.すなわち,意味ゲームの予測は中心化理論が及ばない範囲においても成立する.\subsubsection{従来の日本語Cfランキングの妥当性}意味ゲームから導かれる選好1a,1bの予測能力の良さは,顕現性と効用との相関の高さに帰着できる.従来のCfランキングは文法機能のみに基づく顕現性の順序であるので,文法機能のみに基づいて相関を最大化するように設定した顕現性の順序と比較することで従来のCfランキングの妥当性を検討する.各助詞の出現を説明変数とし,効用(代名詞:2,非代名詞:1)を目的変数とする単回帰分析を行った.相関を最大化する顕現性としてこの回帰係数を用いることができる.表\ref{tab:only_gram}に示す単回帰分析の結果では,直接目的語(ヲ格)$>$間接目的語(ニ格)という順序が観測される.しかし,Walkerら\citeyear{walker1994}による従来の日本語Cfランキングは,間接目的語$>$直接目的語という順序を含む点において,誤りと考えられる.また表\ref{tab:confi}より,他の要因も統合した参照確率としての顕現性を用いたモデルの相関係数は,表\ref{tab:only_gram}の相関係数よりも更に高い.このモデルが前提としている文法役割に対応する参照確率(表\ref{tab:gramfunc_order})でも,やはり直接目的語(ヲ格)$>$間接目的語(ニ格)という順序が観測された.この意味でも,従来の日本語Cfランキングの妥当性は低いと言えるだろうただし,直接目的語$>$間接目的語という順序が本研究に用いたコーパスに特有である可能性も否定できない.他の種類のコーパスに関する調査は今後の課題である.\begin{table}\begin{center}\begin{tabular}{l}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|}\hline助詞&は&も&が&から&を&と&に&の&で\\\hline回帰係数&5.46&5.37&5.27&5.14&5.12&5.05&5.05&5.04&4.98\\\hline切片&\multicolumn{9}{|c|}{-3.86}\\\hline\end{tabular}\\効用との相関係数:+0.248\\\end{tabular}\end{center}\caption{文法機能(助詞)のみによる顕現性}\label{tab:only_gram}\end{table}\subsection{意味ゲームから導かれる選好2の検証}\begin{table}\begin{center}\begin{tabular}{|c||rr|rr|rr|rr|}\hline&\multicolumn{2}{|c|}{Continue}&\multicolumn{2}{|c|}{Retain}&\multicolumn{2}{|c|}{Smooth-Shift}&\multicolumn{2}{|c|}{Rough-Shift}\\\hline\hlineゼロ代名詞&56.0\%&(1315/2347)&1.7\%&(41/2347)&38.3\%&(898/2347)&4.0\%&(93/2347)\\代名詞&43.6\%&(102/234)&2.1\%&(5/234)&50.9\%&(119/234)&3.4\%&(8/234)\\\hline代名詞計&54.9\%&(1417/2581)&1.8\%&(46/2581)&39.4\%&(1017/2581)&3.9\%&(101/2581)\\\hline\hline定名詞句&20.9\%&(56/268)&3.0\%&(8/268)&64.2\%&(172/268)&11.9\%&(32/268)\\一般名詞句&20.0\%&(522/2611)&1.8\%&(48/2611)&67.4\%&(1761/2611)&10.7\%&(280/2611)\\\hline非代名詞計&20.1\%&(578/2879)&1.9\%&(56/2879)&67.1\%&(1933/2879)&10.8\%&(312/2879)\\\hline\hline合計&36.5\%&(1995/5460)&1.9\%&(102/5460)&54.0\%&(2950/5460)&7.6\%&(413/5460)\\\hline\end{tabular}\end{center}\caption{本稿のデータ(新聞記事)による中心遷移の分布}\label{tab:tran}\end{table}\begin{table}\begin{center}\begin{tabular}{|c||rr|rr|rr|rr|}\hline&\multicolumn{2}{|c|}{Continue}&\multicolumn{2}{|c|}{Retain}&\multicolumn{2}{|c|}{Smooth-Shift}&\multicolumn{2}{|c|}{Rough-Shift}\\\hline\hlineゼロ代名詞&55.9\%&(76/136)&2.2\%&(3/136)&25.0\%&(34/136)&16.9\%&(23/136)\\\hlineゼロ代名詞以外&7.8\%&(7/90)&43.3\%&(39/90)&10.0\%&(9/90)&38.9\%&(35/90)\\\hline\hline合計&36.7\%&(83/226)&18.6\%&(42/226)&19.0\%&(43/226)&25.7\%&(58/226)\\\hline\end{tabular}\end{center}\caption{Iidaのデータ(新聞記事)による中心遷移の分布}\label{tab:iida_tran}\end{table}\begin{table}\begin{center}\begin{tabular}{|c||rr|rr|rr|rr|}\hline&\multicolumn{2}{|c|}{Continue}&\multicolumn{2}{|c|}{Retain}&\multicolumn{2}{|c|}{Smooth-Shift}&\multicolumn{2}{|c|}{Rough-Shift}\\\hline\hlineゼロ代名詞&47.3\%&(43/91)&4.4\%&(4/91)&30.8\%&(28/91)&17.6\%&(16/91)\\\hline\end{tabular}\end{center}\caption{竹井のデータ(小説)による中心遷移の分布}\label{tab:takei_tran}\end{table}\begin{table}\begin{center}\begin{tabular}{|l||r|r|r|}\hlineTransition&事例数&期待効用の平均&期待効用の分散\\\hline\hlineContinue&1995&0.874&0.361\phantom{0}\\Retain&102&0.473&0.242\phantom{0}\\Smooth-Shift&2950&0.287&0.175\phantom{0}\\Rough-Shift&413&0.109&0.0336\\\hline\end{tabular}\\Transition(cont.:4,ret.:3,s.s.:2,r.s.:1)と期待効用の相関係数:+0.520\\\end{center}\caption{中心遷移タイプ毎の期待効用の平均と分散}\label{tab:tran_exputil}\end{table}\ref{subsec:rule2}節で述べた,意味ゲームに基づく選好2の検証を行う.まず,表\ref{tab:tran}は,コーパスから計測した多重ロジスティック回帰による参照確率を顕現性と見なした場合の中心遷移の頻度分布を示している.比較のため,表\ref{tab:iida_tran}にIida\citeyear{iida1996}による中心遷移分布データと,表\ref{tab:takei_tran}に竹井ら\citeyear{takei2000}による中心遷移分布データを示す.いずれのデータによる頻度分布も,ContinueとSmooth-Shiftへの偏りが顕著である.しかし,頻度分布の順序が選好順序と一致するとは必ずしも言えない.何故なら,各事例において4種類の遷移がすべて選択可能とは限らないためである\cite{kibble2001}.そこで,頻度分布ではなく,期待効用の値によってルール2の順序を検証する.すなわち,遷移の種類毎に期待効用の平均値を計測し,その順序がルール2の順序と合致するか否かを検証する.表\ref{tab:tran_exputil}は,遷移の種類毎の期待効用の平均と分散を表している.期待効用の平均値はContinue$>$Retain$>$Smooth-Shift$>$Rough-Shiftとなっており,従来研究における選好順序と合致する結果となった.また,4種類の遷移の期待効用の平均値の多重比較を行った.表\ref{tab:kruskal}に,R\cite{R}を用いてKruskal-Wallisの検定を行った結果を示す.これにより,4種類の遷移の期待効用の平均値には有意差があることを示した.表\ref{tab:wilcoxon}に,Rを用いてHolmの方法で調整したWilcoxonの順位和検定を多重実行した結果を示す.これにより,4種類の遷移の期待効用値の順序が有意であること,すなわちルール2の順序と合致するという結果が統計的に有意であることがわかる.\begin{table}\begin{center}\begin{tabular}{|r|r|r|}\hline$\chi^2$値&自由度&有意確率\\\hline\hline1780.7&3&$<2.2\times10^{-16}$\\\hline\end{tabular}\end{center}\caption{Kruskal-Wallisの検定}\label{tab:kruskal}\end{table}\begin{table}\begin{center}\begin{tabular}{|rcl|c|}\hline\multicolumn{3}{|c|}{比較するタイプ}&有意確率\\\hline\hlineContinue&:&Retain&$5.89\times10^{-13}$\\Continue&:&Smooth-Shift&$<2.2\times10^{-16}$\\Continue&:&Rough-Shift&$<2.2\times10^{-16}$\\Retain&:&Smooth-Shift&$1.64\times10^{-6}$\\Retain&:&Rough-Shift&$<2.2\times10^{-16}$\\Smooth-Shift&:&Rough-Shift&$<2.2\times10^{-16}$\\\hline\end{tabular}\end{center}\caption{Holmの方法で調整したWilcoxonの順位和検定の多重実行}\label{tab:wilcoxon}\end{table} \section{考察} label{discuss}\subsection{参照確率としての顕現性の効果}参照確率によって顕現性を定式化することにより,\ref{sec:centering}節で述べた顕現性に関する問題点を以下のように解消した.\begin{itemize}\item[A]客観的に計測可能になり,実言語データに基づく統計的検証ができるようになった.\item[B]多重回帰が可能な回帰アルゴリズムを用いることにより,顕現性を決定する要因となる複数の素性(説明変数)の統合がヒューリスティックな手法よりも容易になった.\item[C]直前の発話だけでなく,先行文脈全ての実体を扱えるようになった.\end{itemize}\subsection{選好1aが成り立たない場合}本稿では,意味ゲームから導いた選好1a,選好1bをコーパスを用いて検証し,統計的に有意であることを示した.選好1aが成り立っていた事例は多重ロジスティック回帰で75.3\%,SVRで74.4\%であったが,ここでは選好1aが成り立たない事例について考察する.多重ロジスティック回帰で用いた3素性から成るモデルと,SVRで用いた8素性から成るモデルには,選択制限や常識的知識などの意味的な素性は含まれていない.選好1aが成り立っていなかった事例は,多重ロジスティック回帰で24.7\%,SVRで25.6\%であったが,これらの事例はモデルに含まれていない要素の作用によって選好が覆されていると考えられる.つまり,選択制限などの素性をモデルに取り込めば,より強い選好となることが予想される.以下に,選好1aが覆されていた具体例を示す.\begin{breakbox}{\small政府は二日、...政策の骨格を固めた。柱の一つでもあり、米国が強く求めている減税は、来年度以降も今年度に近い規模の所得・住民税減税を恒久的に実施する意向を($\phi$ガ)表明した。}\end{breakbox}\begin{center}{\small\begin{tabular}{|c|c|c|}\cline{1-1}\cline{3-3}$\phi$&\phantom{0000}&減税\\\cline{1-1}\cline{3-3}減税&&政府\\\cline{1-1}\cline{3-3}\multicolumn{1}{c}{}&&米国\\\cline{3-3}\multicolumn{1}{c}{}&&日本\\\cline{3-3}\multicolumn{1}{c}{}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\vdots}\\\end{tabular}\begin{picture}(0,0)\put(-63,15){\line(12,5){30}}\put(-63,28){\line(12,-5){30}}\end{picture}}\end{center}上記事例では,意味的な制約が含まれていない本稿のモデルによればPareto最適解は$\{\phi\leftarrow減税,減税\leftarrow政府\}$であるが,実際の正解は意味的な制約によって覆されている.\begin{breakbox}{\small同事務所に十日、「国産米があったのでレジに持っていくと一万八千円と言われびっくりした。($\phi_1$ノ)売り場に表示もなかった」という主婦からの通報があり、十一日に同店を($\phi_2$ガ)調査。}\end{breakbox}\begin{center}{\small\begin{tabular}{|c|c|c|}\cline{1-1}\cline{3-3}$\phi_2$&\phantom{0000}&大阪のスーパー\\\cline{1-1}\cline{3-3}同店&&食糧庁\\\cline{1-1}\cline{3-3}\multicolumn{1}{c}{}&&表示\\\cline{3-3}\multicolumn{1}{c}{}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\vdots}\\\cline{3-3}\multicolumn{1}{c}{}&&食糧庁大阪食糧事務所\\\cline{3-3}\multicolumn{1}{c}{}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\vdots}\\\end{tabular}\begin{picture}(0,0)\put(-132,24){\line(12,5){30}}\put(-132,37){\line(4,-7){30}}\end{picture}}\end{center}上記事例では,意味的な制約が含まれていない本稿のモデルによればPareto最適解は$\{\phi_2\leftarrow大阪のスーパー,同店\leftarrow食糧庁\}$であるが,実際の正解は文脈的知識や常識などの意味的な制約によって覆されている.以上のように,選好1aが満たされていなかった事例においては,本稿で用いたモデルに含まれていない意味的・言語外的な制約が働いて選好が覆されていた.よって,語の意味的な近さや選択制限などの意味的な制約をモデルに追加することにより,選好1a,選好1bはより強い選好になるであろうと予想される.また,本稿では代名詞・非代名詞という区別に基づいて参照表現の効用を決定したが,顕現性の定義と同様に,参照表現の効用も客観的に計測可能な尺度として定義することが望ましい.これについては今後の課題とする.\subsection{選好2の検証の厳密性}本稿では選好2の検証として,実際のコーパスにおける4種類の遷移の期待効用の平均が中心化理論における選好順序と合致していることを示し,分散検定によってこの結果が統計的に有意であることを示した.本稿で示した全体の傾向における順序は,ルール2を意味ゲームに帰着できることを示唆している.ただし,この検証によって示したのは全体の傾向における順序であり,各事例における解候補間の順序ではないため,より厳密には各事例における解候補間で期待効用の順序が付けられることを示す必要がある. \section{おわりに} 中心化理論は広く論じられている照応の理論であるが,照応現象の基本原理の解明には至っておらず,また理論において重要な役割を担う顕現性の意味が不明確だという問題点がある.本稿では,照応現象の背後にある基本原理はゲーム理論によって捉えることができるという観点に立ち,顕現性を参照確率として定式化することにより,意味ゲームから中心化理論のルール1,2に相当する選好を導出できることを説明し,この選好の妥当性を以下のように実言語データに基づいて検証した.まず,意味ゲームから導出したルール1,2に対応する選好をコーパスを用いて統計的に検証した.ルール1に対応する選好1bについては,指示対象の参照確率と参照表現の効用との正の相関を観測した.これに関連して、従来提案されてきた日本語のCfランキングは参照確率の順序と異なり,誤りであることがわかった.さらに,ルール1は1つの発話に複数の参照表現を含む場合にのみ意味を持つが,意味ゲームから導いた選好1bが予測する相関関係は1発話に1参照表現しか含まない場合においても成り立つことを示した.つまり,意味ゲームはルール1よりも強い予測を導く.ルール2に対応する選好2の検証としては,期待効用の順序がルール2の順序と合致することを観測した.以上より,意味ゲームは基本原理の明確さおよび予測能力の強さゆえに中心化理論よりも優れた作業仮説である.ゆえに,中心化理論のような領域に依存した理論は,照応現象に関しては不要と考えられる.\acknowledgment有意義なコメントを頂いた査読者の皆様,本研究を進めるにあたってコメントや励ましのお言葉を頂いた旧サイバーアシスト研究センターの皆様に感謝致します.またGDAコーパス作成に携わった方々に深謝致します.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Hasida}{Hasida}{1996}]{hasida1996}Hasida,K.\BBOP1996\BBCP.\newblock\BBOQIssuesinCommunicationGame\BBCQ\\newblockIn{\BemProceedingsofCOLING'96},\BPGS\531--536.\bibitem[\protect\BCAY{Hasida}{Hasida}{1998}]{GDA}Hasida,K.\BBOP1998\BBCP.\newblock\JBOQ大域文書修飾GlobalDocumentAnnotation(GDA)\JBCQ\\newblockhttp:{\slash}{\slash}i-content.org{\slash}gda/.\bibitem[\protect\BCAY{Hasida,Nagao,\BBA\Miyata}{Hasidaet~al.}{1995}]{hasida1995}Hasida,K.,Nagao,K.,\BBA\Miyata,T.\BBOP1995\BBCP.\newblock\BBOQAGame-TheoreticAccountofCollaborationinCommunication\BBCQ\\newblockIn{\BemProceedingsoftheFirstInternationalConferenceonMulti-AgentSystems}.\bibitem[\protect\BCAY{Iida}{Iida}{1997}]{iida1996}Iida,M.\BBOP1997\BBCP.\newblock\BBOQDiscourseCoherenceandShiftingCentersinJapaneseTexts\BBCQ\\newblockInWalker,M.,Joshi,A.,\BBA\Prince,E.\BEDS,{\BemCenteringTheoryinDiscourse},\BPGS\161--180.OxfordUniversityPress.\bibitem[\protect\BCAY{Kameyama}{Kameyama}{1998}]{kameyama1998}Kameyama,M.\BBOP1998\BBCP.\newblock\BBOQIntrasententialCentering:ACaseStudy\BBCQ\\newblockInWalker,M.,Joshi,A.,\BBA\Prince,E.\BEDS,{\BemCenteringTheoryinDiscourse},\BPGS\89--112.OxfordUniversityPress.\bibitem[\protect\BCAY{Kibble}{Kibble}{2001}]{kibble2001}Kibble,R.\BBOP2001\BBCP.\newblock\BBOQAReformulationofRule2ofCenteringTheory\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(4).\bibitem[\protect\BCAY{Kibble}{Kibble}{2003}]{kibble2003}Kibble,R.\BBOP2003\BBCP.\newblock\BBOQTowardstheEliminationofCenteringTheory\BBCQ\\newblockInKruijff-Korbayova,I.\BBACOMMA\\BBA\Kosny,C.\BEDS,{\BemProceedingsofthe7thWorkshopontheSemanticsandPragmaticsofDialogue},\BPGS\51--58.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{2002}]{tinysvm}Kudoh,T.\BBOP2002\BBCP.\newblock\BBOQTinySVM:SupportVectorMachines\BBCQ\\newblockhttp://chasen.org{\slash}~taku{\slash}software{\slash}TinySVM/.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2001}]{nariyama2001}Nariyama,S.\BBOP2001\BBCP.\newblock\BBOQMultipleargumentellipsesresolutioninJapanese\BBCQ\\newblock{\BemInProceedingsofMachineTranslationSummitVIII},241--245.\newblockSpain.\bibitem[\protect\BCAY{R-Project}{R-Project}{2004}]{R}R-Project\BBOP2004\BBCP.\newblock\BBOQTheRProjectforStatisticalComputing\BBCQ\\newblockhttp://www.r-project.org/.\bibitem[\protect\BCAY{Reed}{Reed}{2002}]{reed2002}Reed,C.\BBOP2002\BBCP.\newblock\BBOQSaliencyandtheAttentionalStateinNaturalLanguageGeneration\BBCQ.\newblock\BPGS\440--444\Lyon,France.\bibitem[\protect\BCAY{Strube\BBA\Hahn}{Strube\BBA\Hahn}{1999}]{strube1999}Strube,M.\BBACOMMA\\BBA\Hahn,U.\BBOP1999\BBCP.\newblock\BBOQFunctionalCentering:GroundingReferentialCoherenceinInformationStructure\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf25(3)},309--344.\bibitem[\protect\BCAY{竹井光子,高田美佳,相沢輝昭}{竹井光子\Jetal}{2000}]{takei2000}竹井光子,高田美佳,相沢輝昭\BBOP2000\BBCP.\newblock\JBOQ日本語ゼロ代名詞補完のためのグローバルトピックの役割\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf135}(10),71--78.\bibitem[\protect\BCAY{vanRooy}{vanRooy}{2003}]{rooy2003}vanRooy,R.\BBOP2003\BBCP.\newblock\BBOQRelevanceandBidirectionalOT\BBCQ\\newblockInBlutner,R.\BBACOMMA\\BBA\Zeevat,H.\BEDS,{\BemPragmaticsinOptimalityTheory},\BPGS\173--210.PalgraveMacmillan.\bibitem[\protect\BCAY{Walker,Iida,\BBA\Cotes}{Walkeret~al.}{1994}]{walker1994}Walker,M.,Iida,M.,\BBA\Cotes,S.\BBOP1994\BBCP.\newblock\BBOQJapaneseDiscourseandtheProcessofCentering\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(2).\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{白松俊(非会員)}{2000年東京理科大学理工学部情報科学科卒業.2003年同大学院修士課程修了.同年,科学技術振興機構CREST研究補助員.GDAコーパスを用いた照応研究に従事.2005年,京都大学大学院博士後期課程入学.}\bioauthor{宮田高志(正会員)}{1991年東京大学理学部情報科学科卒業.1996年同大学院博士課程修了.理学博士.同年,奈良先端科学技術大学院大学情報科学研究科助手,2001年より科学技術振興機構CREST研究員,情報検索・構文解析の研究に従事.}\bioauthor{奥乃博(非会員)}{1972年東京大学教養学部基礎学科卒業.博士(工学).NTT,JST,東京理科大学を経て,現在,京都大学情報学研究科教授.音環境理解・ロボット聴覚研究に従事.1990年度人工知能学会論文賞,平成14年度船井情報科学振興賞等受賞.IPSJ,JSAI,JSSST,RSJ,ACM,IEEE等会員.}\bioauthor{橋田浩一(正会員)}{1981年東京大学理学部情報科学科卒業.1986年同大学院博士課程修了.理学博士.同年,電子技術総合研究所入所,現在,産業技術総合研究所情報技術研究部門副研究部門長.知的コンテンツの研究開発に従事.}\end{biography}\end{document}
V13N04-03
\section{はじめに} \label{sec:intro}我々の物の理解の仕方に関する知識は多くの自然言語処理タスクにおいて重要である.物をどのような観点から理解するかということを述べる{\bf属性}の知識はその一つである.例えば,「車」の属性は「重量」,「エンジン」,「ハンドル」,「操作感」,「製造会社」などである.言い換えれば,属性とは,我々があるものについて知りたいときにそれに対する値(本論文の言い方では,「答え」)が知りたくなるような項目である.従って,属性知識の応用としては,情報の要約\cite{yoshida_wda,yoshida_ai2004_en},質問応答\cite{Fleischman_2003,takahashi_2004}などが考えられる.また,最近では機械学習や単語クラスタリングの際の素性として有用であることも示されている\cite{almuhareb-poesio:2004:EMNLP}.このような属性知識は,WordNet\cite{WordNet}のように人手で作成することも可能であるが,作成コストとカバレッジが問題となる.本研究では,これらの問題を解決するため,与えられた概念クラスの{\bf属性語}\footnote{本研究では,属性が実際に言語で表現される時の文字列を属性語と呼ぶ.テキストからの自動獲得では,実際に獲得できるのは属性語であり,複数の属性語が同じ属性を表すことがあり得るが,これらの認識は本研究の対象外とする.}をWebから自動獲得する手法を提案する.属性語の自動獲得を目指した研究はそれほど多くはない.既存研究には,質問応答を念頭において〈対象,属性,値〉という事実の集合を獲得しようとするもの\cite{Fleischman_2003,takahashi_2004}や,情報要約の際に副産物的に属性的な単語を生成するもの\cite{yoshida_wda,yoshida_ai2004_en}などがあるが,概念クラスの属性語を明示的に獲得し,その精度を詳しく評価したものはなかった.我々は,属性知識の段階での問題の性質を明らかにし,属性語をあらかじめ高精度で獲得しておくことが,最終的には質問応答などのために値まで獲得する場合などでも大きく役に立つという考えから,属性語の獲得に焦点をしぼる.属性語は語彙知識の一つと言える.これまで語彙知識の自動獲得としては,上位下位関係の獲得\cite{Hearst_1992,Shinzato_2004_NAACL04_eng},全体部分関係の獲得\cite{Barland_ACL1999},言い換え関係の獲得\cite{Barzilay01}などが試みられてきた.上位下位関係や全体部分関係など名詞間の関係の獲得に関しては,目的の関係を特異的に示す言語的あるいは書式的なパターン,その他の統計的な手がかりを相補的に用いて獲得するアプローチがある程度の成功をおさめている\cite{Hearst_1992,Barland_ACL1999,Shinzato_2004_NAACL04_eng}.以下で概要を述べるが,本研究で提案する獲得手法もこの範疇に入る.本研究で提案する獲得手法では,クラス$C$(例えば,「車」)の属性語を獲得するために,まず,$C$を含む文書をWebから検索エンジンを用いて発見し,収集する\footnote{本論文では,混乱が無いと思われる場合には,クラスとクラスを表す語(クラス語)の両方を$C$と表記する.}.収集された文書から属性語の候補を抽出し,それらを言語的パターン・HTMLタグ・単語の出現に関する統計値を利用したスコアに従って順位付けし,スコアの高い候補を属性語として出力する.このスコアは,属性語に関する我々の観察が反映されるように設計されている.前述したように,言語的パターンは他の語彙知識獲得手法でも用いられてきた\cite{Fleischman_2003,almuhareb-poesio:2004:EMNLP,Hearst_1992,Barland_ACL1999,takahashi_2004}.特に,本研究で用いる言語的パターンは,「$C$の$A$」という助詞「の」を介したパターンである(ただし,$A$は属性語候補).このパターンは,直感的に有用と考えられ,関連研究である\cite{takahashi_2004}でも同様のパターンが用いられている.また,属性知識の特殊な場合である全体部分関係を英語を対象として獲得した\cite{Barland_ACL1999}でも「$A$of$C$」という類似したパターンが用いられている.この獲得手法の新規性は,広範なクラスに対して属性語を獲得することを目的としてWebを情報源として用いること,その際,クラスと関連の高い文書に注目するためWeb検索を用いること,それにともない,HTMLタグといったWeb特有の手がかりを利用できることにある.ただし,手法はできるだけ簡素になるようにした.標準的な言語パターンを用い,頻度やdf・idfなどの単純な積をスコアとして用いる.また,正解データの作成はコストがかかることから,\cite{Fleischman_2003}のような教師付き学習を用いるアプローチではなく,教師無しで獲得することを目指した.実験では,この提案手法で各クラスに対して上位20個の属性語を出力した時に,約73\%の適合率で厳密な属性語が獲得でき,約85\%の適合率で緩い属性語が獲得できることを示す\footnote{厳密な属性語・緩い属性語の違いについては本文で詳細を述べる.}.属性語獲得の研究では,属性語の定義,言い換えれば,獲得された属性語に対する評価基準が確立されていないことも問題になる.本研究では,質問解答可能性という考えに基づいた言語テストによる評価手順を示すことで,この問題の解決を目指す.属性語を定義するには,例えば「もし$A$が,$o$をクラス$C$に属するインスタンスとした場合に$v=A(o)$のように関数的に働き,$v$が$o$をクラス$C$の他のインスタンスから区別するのに重要であるならば,$A$は$C$の属性語である」のように分析的に定義することも可能であるが,このような分析的な定義は人手の評価で直接用いるには複雑で難しく,評価結果の信頼性も低くなると予測される.そこで,本研究では,いくつかの簡単な言語テストを用いた評価方法を提案する.言語テストは,評価者の直感を利用したYES-NOテストであり,評価者の負担が軽減され評価結果の信頼性も向上すると考えられる.提案する評価方法は「属性とは答えが知りたくなるような項目である」という我々の元々の直感を反映したもので,「その値を問うような質問文を生成でき,それに対して答えが存在するならば属性語である」という考え(質問解答可能性)に基づく.本研究ではこの考えに基づいた評価手順を設計する.属性語の判定のための言語テストはこれまでにも提案されている.例えば,Woodsは「the$A$of$o$is$v$」という表現が可能かどうかで判定できることを述べている\cite{Woods_1975}.しかし,この言語テストを自動獲得された属性語の評価に実際に適用した研究はこれまで行われていない.また,本文で詳しく述べる通り,この基準だけでは,特に日本語に置き換えたときに,重要でない語が属性語と判定されてしまうなどの誤判定が発生する可能性がある.本研究で提案する判定方法は,質問解答可能性の考え方に基づいた言語テストによって,より重要な属性語に焦点をあてるとともに,いくつかの補足的な言語テストを組み合わせることで,より正確な判定を目指したものである.最後に,いくつかの文献が指摘する通り,属性には「重さ」などの性質,「エンジン」などの部分,「操作感」などのtelic的属性,「製造会社」などのagent的属性など多くのサブタイプがある\cite{Guarino1992,GenerativeLexicon}.しかし,これらの区別が無いとしても,属性は前述した応用で有用であり,また,区別のための評価基準は複雑で安定した評価が困難になるということから,本研究ではこれらの区別は無視することにした.本論文の構成は以下の通りである.節\ref{sec:method}\,で,属性語獲得のための提案手法の詳細を述べる.次に,節\ref{sec:criteria}\,で属性語の評価基準とそれに基づく評価手順を示す.節\ref{sec:experiment}\,で,提案手法を提案評価手順で評価した実験の結果を示し,節\ref{sec:discussion}\,でいくつかの考察と今後の課題を述べる. \section{獲得手法} \label{sec:method}この節では,属性語の自動獲得手法の詳細を述べる.\subsection{属性語の性質に関する観察}\label{sec:obs}はじめに,獲得手法の基になった属性語の性質に関する我々の観察を示す.具体的には,属性語には以下に挙げる三つの性質があることが分かった.\begin{description}\item[性質(1)]属性語は,助詞「の」を含む「$C$の$A$」という言語的パターンでクラス語と共起する傾向がある.\item[性質(2)]属性語は,Web文書中でHTMLタグを用いて強調表示されたり,リストや表の要素として出現する傾向がある.\item[性質(3)]属性語は,クラス語を含む文書に出現しやすく,他の文書にはあまり出現しない傾向がある.\end{description}以下では,これらの性質を利用した獲得手法を提案する.\subsection{属性語候補の獲得}提案手法では,まずはじめに,属性語の候補となる語を以下のようにWebから収集する.クラス$C$の属性語を獲得する場合,クラス語$C$を含む文書をWeb検索エンジンを用いて求め,ダウンロードする.本研究ではこの文書集合を局所文書集合(localdocumentset)と呼び,$LD(C)$と表記する.このような収集の方法は前節で述べた属性語の性質(3)を反映していると考えられる.次に,この$LD(C)$中の全ての名詞\footnote{形態素解析器JUMAN\cite{JUMAN_eng}によって普通名詞・サ変名詞・地名・未定義語(のうちカタカナかアルファベット)と判定された語である.}を取り出し,これを属性語の候補とする.複合語が属性語になる可能性もあるが,簡単のため,本研究では一語からなる属性語のみを扱うことにした.\subsection{属性語候補の順位付け}前節の方法で得られた属性語候補は,節\ref{sec:obs}\,で述べた属性語の性質のうち性質(3)を考慮しているとはいっても,属性語でない語も多く含んでいる.そこで,属性語候補を他の性質も反映したスコアによって順位付けし,上位の語のみを属性語として出力するようにする.本研究で提案するスコア関数はいくつかのサブスコアを掛け合わせた以下の形をしている.\begin{equation}V(C,A)=n(C,A)\cdotf(C,A)\cdott(C,A)\cdotdfidf(C,A).\label{eq:score}\end{equation}$A$は属性語候補であり,$C$はクラスである.$n(C,A)$と$f(C,A)$は言語的パターンに関するサブスコアで性質(1)を反映している.$t(C,A)$はHTMLタグに関するサブスコアで性質(2)を反映している.$dfidf(C,A)$は単語の出現に関する統計値によるサブスコアで,性質(3)を反映したものである.これらのサブスコアを掛け合わせることで,正しい属性語に高いスコアが与えられることを期待している.サブスコアの組み合わせ方には,他にいくつも選択肢が考えられるが,ここでは最も単純な方法の一つを選択した.以下では,これらのサブスコアの詳細を述べる.\subsection{サブスコアの詳細}まず,$n(C,A)$は性質(1)を反映したスコアである.性質(1)で述べたように,属性語の獲得には助詞「の」を介して$C$が$A$に係る言語的パターン「$C$の$A$」が大きな手かがりになると期待される.従って,$n(C,A)$としては$C$と$A$が「の」を介して係った回数などが考えられる.本研究では,$n(C,A)$として$C$と$A$が局所的文書集合$LD(C)$中で表\ref{table:pattern}\,に挙げたパターンのいずれかで共起した回数を用いる.「$C$の$A$」の係り受けの回数は「$C$の$A${\sfP}」({\sfP}は助詞あるいは句読点)というパターンの出現回数である程度近似できると考えられるからである\footnote{助詞あるいは句読点の存在によって,例えば「$C$の$A${\sfN}」({\sfN}は名詞)のように$A$が複合名詞の一部になっている場合を間違ってカウントしてしまうことを防ぐことができる.}.\begin{table}[b]\caption{スコア$n(C,A)$のための言語的パターン}\label{table:pattern}\begin{center}\begin{tabular}{|lllll|}\hline$C$の$A$は&$C$の$A$を&$C$の$A$から&$C$の$A$で&$C$の$A$へ\\$C$の$A$が&$C$の$A$に&$C$の$A$まで&$C$の$A$より&$C$の$A$,\\\hline\end{tabular}\end{center}\end{table}$f(C,A)$は33年分の係り受け解析済みの新聞記事中\footnote{読売新聞1987年--2001年,毎日新聞1991年--1999年,日経新聞1983年--1990年(全体で3.01GB)を日本語係り受け解析器\cite{Kanayama_2000}で解析したもの.}で$C$と$A$が「$C$の$A$」という係り受けで共起した回数である.$n(C,A)$に加えて$f(C,A)$を用いる理由は,マッチさせる文書の量を増やして信頼性の高いスコアを得るためである.本研究を進める過程で,我々が用いたものも含め商用の検索エンジンではクエリにマッチする文書のごく一部のURL(最大で一千文書程度)しかユーザに提示しないという制限があり,現実にはクラス語を含む文書を大量に収集できないという問題があることが分かった.解決策としては,表\ref{table:pattern}\,で挙げたパターンでのフレーズ検索のヒット件数を用いることも考えられたが,実験で述べるように属性語候補の数は2万程度になり,商用検索エンジンに大きな負担をかけることになる.そこで,本研究では我々が既に持っていた大量の係り受け解析済み新聞記事を用いることにした.将来的には,検索結果の取得に制限のない独自のWebリポジトリを構築し,大量のWeb文書から共起回数を求める予定である.\begin{figure}[t]\setbox0\vbox{\verb!<B>!タイ風・カレー\verb!</B><BR>!材料\verb!<BR>!鶏肉400\,g,なす2個,バイマックルー2枚,ナンプラー大さじ1.5\verb!<BR>!赤唐辛子1.5本,砂糖小さじ1,ココナッツミルク,バジル\verb!<P>!スパイス\verb!<BR>!コリアンダー,クミン\verb!<P>!作り方\verb!<BR><OL><LI>!材料をペースト状にして,カレーペーストを作る\verb!</LI><LI>!カレーペーストを熱した鍋に加えて香りを・・・}\begin{center}\fbox{\box0}\end{center}\caption{HTML文書の例}\label{fig:html}\end{figure}$t(C,A)$は$A$が$LD(C)$中にHTMLタグで囲まれて出現した回数,より正確には,\linebreak「\verb!<!{\ittag1}\verb!>!$A$\verb!<!{\ittag2}\verb!>!」という形式で$A$が出現した回数である.ただし,回数をカウントする際には,HTMLタグ間の文字数(つまり$A$の長さ)は最大でも20と制限する.長い文字列は単語ではなく文になっていることが多く,ほとんど属性にはなり得ないからである.また,ここでの\verb!<!{\ittag1}\verb!>!と\verb!<!{\ittag2}\verb!>!は開始タグ(\verb!<A>!など)・閉じタグ(\verb!</A>!など)のどちらでもよいことにする.例えば,図\ref{fig:html}\,のHTML文書では,「タイ風・カレー」「材料」「スパイス」「コリアンダー,クミン」「作り方」などの語がカウントされる.このスコアは属性語の性質(2)を反映したもので,Web文書中で強調表示される語,改行などによりフォーマットされる語,列挙や表の要素になる語などに高い値を与えることを目的としている.最後に,$dfidf(C,A)$は性質(3)を反映したスコアである.このスコアでは$A$を含む文書に多く出現し,しかも,特徴的な語(ストップ語のような普遍的な語でない語)に高い値を与えることが目標である.本研究では,上位語と下位語の関連度を測るために新里ら\cite{Shinzato_2004_NAACL04_eng}が用いたスコアを参考にして,以下の式で計算されるスコア関数を用いることにした.\[dfidf(C,A)=df(A,LD(C))\cdotidf(A),\;\;\;idf(A)=\log{\frac{|G|}{df(A,G)}}.\]ここで,$df(A,x)$は文書集合$x$中で$A$を含む文書の数を表している.$G$は大域的文書集合(globaldocumentset)と呼ばれるランダムに収集された大量のWeb文書であり,Web全体を近似した文書集合である.これを用いて$idf$を計算することによりWebにおける特徴的な語を知ることができる.\clearpage \section{属性語のための評価基準} \label{sec:criteria}自動獲得された属性語の良さを評価するには,何らかの定まった評価手順が必要になる.本研究では,我々が質問回答可能性と呼ぶ基準に基づいた評価手順を提案する.質問回答可能性とは,ある語に関して,その値を問う質問文を生成でき,答えが存在する,ということである.我々は,質問回答可能性が成り立つならばその語は属性語であるという仮定をした.これは,我々の属性の利用方法(QAや要約)を考えると,直感的に妥当な仮定だと思われる.例えば,「車」について考えると,「この車の製造会社はどこか?」といった質問文が可能であり,誰かが「A社」と答えることができる(質問回答可能性が成り立つ)ので,「製造会社」は属性語と考えても良いということになる.ある人が「車」について知りたいとき「製造会社」が何であるかは重要な情報であるので,これは妥当であろう.\begin{figure}[t]\begin{center}\epsfxsize=\textwidth\epsfbox{eval_proc.eps}\end{center}\caption{属性語の評価手順}\label{fig:eval-proc}\end{figure}提案する評価手順では,評価者は最大で4つのYES-NO質問に答えることで判定を行う.これら4つの質問とは,評価者に提示される順に,下位語テスト(節\ref{sec:hyp-test}),QAテスト(節\ref{sec:qa-test}),接尾拡張QAテスト(節\ref{sec:qa-suffix-test}),一般性テスト(節\ref{sec:gen-test}),である.QAテスト・接尾拡張QAテストの2つが,質問回答可能性を直接用いたテストである.下位語テスト・一般性テストは,QAテストを補強するためのものである.評価手順の全体の流れは,図\ref{fig:eval-proc}\,に示すようになる.以下の節では,各テストの詳細を説明する.\subsection{QAテスト}\label{sec:qa-test}実際の順番とは異なるが,まず,本研究の提案の中心的な判定手順である質問回答可能性テスト(QAテスト)から説明する.我々は,前述した質問回答可能性基準に従って,図\ref{fig:qa-test}\,に示すQAテストを設計した.\begin{figure}[b]\begin{boxedminipage}[t]{\textwidth}\begin{center}\begin{flushleft}{\bf下に挙げる質問文の中に,文法的に正しく,常識的に自然で,\\\hspace{2cm}答えが仮想的にでも想像できるものはありますか?}\end{flushleft}\vspace{2mm}\begin{tabular}{p{3.5cm}p{4cm}p{3.5cm}}1.\この$C\;\;$の$A$は何?&4.\この$C\;\;$の$A$はどこ?&7.\この$C\;\;$の$A$はどう?\\2.\この$C\;\;$の$A$は誰?&5.\この$C\;\;$の$A$はどれ?&\\3.\この$C\;\;$の$A$はいつ?&6.\この$C\;\;$の$A$はいくつ?&\\\end{tabular}\end{center}\end{boxedminipage}\caption{QAテスト($C$はクラス語,$A$は判定しようとしている属性語)}\label{fig:qa-test}\end{figure}このQAテストについて,いくつか注意点がある.第一に,属性語に対する値は実際にはクラスのインスタンスに対して定義されるため,このQAテストでは,$C$を「この」で限定することで(ある)インスタンスを指すようにして質問が不自然になるのを防いでいる.また,質問文中で$C$の後にスペースを入れることで評価者が適切な係り受け(「この$C$」が$A$に係る)を想像できるようにした.第二に,$A$に対する適切な質問の種類をあらかじめ(自動で)決めることは難しいので,テストでは図\ref{fig:qa-test}\,に挙げたように考えられる全ての種類の質問を生成し,そのいずれかが許容できるかを判定するようにした.第三に,質問は文法的に正しいだけでなく「常識的に自然」でなければならない.本研究の実験では,この「自然」さを「その質問が通常の会話の第一発話としてあり得るか」で判断するようにした.我々の考えでは,属性語はインスタンスを述べる際に重要なものでなければならない.そこで,この「自然」さを満たす属性がそのような重要な属性語であるという仮定を置いた.例えば,おそらく全ての「会社」は「机」を所有しているが,我々の考えでは「机」は「会社」の属性語ではない.「この会社の机は何ですか?」といった質問は文法的に正しいけれども,「会社」についての通常の会話の第一発話としては不自然であるから,この「自然」さのチェックによって「机」が属性語になるのを防ぐことができる\footnote{もちろん,「机」は事務機器の販売員にとっては「会社」の重要な属性語かもしれないが,本研究ではあくまでも普通の人々にとって通常の状況で重要な属性語を獲得することを目標とする.}.重要な点は,Woodsの言語テスト\cite{Woods_1975}(「the$A$of$o$is$v$」が可能か)だけでは「thedeskof(=usedin)Com-XisDesk-Y」のように言えてしまうので,「机」を棄却することができないことである.また,質問は質問者が重要であると考えることについてするのであるから,質問文を判定に用いることでより重要さを重視することができる.最後に,質問への答えは必ずしも言語で表現できなくてもよい.例えば,「地図」「姿」「設計図」などに対する値は言語では表現できず,他の手段で表現されるが,これらも重要な属性語であることは明らかである.Webページには言語以外の表現(画像,音声など)を含めることができるため,それらを値とする属性への言及も増えると考えられる.そのため,Webから属性語を獲得する場合,そのような属性語も獲得される可能性が大きい.従って,質問への答えが言語に限らないことをあらかじめ評価者に明確にしておいた.\subsection{接尾拡張QAテスト}\label{sec:qa-suffix-test}獲得された属性語のいくつかは,正しいと思われるにもかかわらず前節のQAテストで棄却されてしまうことがある.大きな理由の一つは,獲得された属性語が,実際に意味している属性の標準的な属性語とは異なる文字列として獲得される場合があることである.これは,日本語が省略的であること,我々の獲得手法が実際にコーパスに現れた表層形を処理して獲得すること,また,1単語の属性語しか獲得しないことなどに起因している.例えば,下の例文中で「生徒」は属性「生徒数」の意味で用いられている.\begin{center}(a)この学校の生徒は500人です.\end{center}このような文を手がかりにすると,提案手法では「生徒」が「学校」の属性語として獲得される可能性が高い.一部が省略されている属性語でも,実際に(a)のような文で使用されることから応用の面で有用であると考えられるので,正しいと判定されるのが我々の立場では好ましい.ところが,省略があると前節のQAテストで棄却されてしまうことがある.例えば,上の「生徒」を判定する場合,これが「生徒数」を意味しているときには,QAテストの質問の中では「この学校の生徒はいくつ?」が一番適当であるが,これは,人数に「いくつ」は使えないため文法的ではない.そのため,「生徒」は棄却されることになる\footnote{「生徒」を個々の構成員を表す属性として判定するとしても,「この学校の生徒は誰?」は文法的であっても「常識的に自然」の要請を満たしていないとして棄却されてしまう可能性がある.}.日本語では,省略された部分のほとんどは属性語の後に適切な接尾辞を付加するか,「の+名詞化形容詞・形容動詞」を付加することで復元することができる.例えば,上の例では接尾辞「数」を付ければ良い.そこで,最初のQAテストで棄却された場合には,適切な付加を行って属性語を拡張した上で,それを評価すべき語としてQAテストを再度行うようにした.上の例では,「生徒数」をQAテストで再び評価する.実際のテストで許される拡張は,図\ref{fig:suffix}\,に示した通りである.可能な接尾辞については,図\ref{fig:suffix}\,に示した適用範囲が広いと思われるものに限定し,これでカバーできないものは,名詞化した形容詞・形容動詞を適切に付加してもらうことで対処した\footnote{接尾拡張QAテストは,初めのQAテストでの疑問文が網羅的であれば必要なかったかもしれない.しかし,我々は,簡単で限定的なテストで大部分をカバーし,カバーしきれないものをより複雑なテストで再確認するほうが評価の負担が減り評価の安定性が向上すると考えた.}.このテストを,接尾拡張QAテストと呼ぶことにする.\begin{figure}[t]\begin{boxedminipage}[t]{\textwidth}\begin{center}\begin{itemize}\item{\sf「$A$(の)$S$」}($S$=数,方法,名,者,時間,時刻,時期,場所,金額,程度,具合)\item{\sf「$A$の$Y$さ」}({\sf$Y$さ}=形容詞・形容動詞の名詞化「高さ」「重さ」など)\end{itemize}\end{center}\end{boxedminipage}\caption{接尾拡張QAテストで許される拡張($A$は元の属性語)}\label{fig:suffix}\end{figure}\subsection{一般性テスト}\label{sec:gen-test}我々の当初の目的は与えられたクラスに対する属性語を獲得する,つまり,クラスの全てのインスタンスに共通の属性語を獲得することであった.しかし,評価者によっては,全てのインスタンスに共通の属性語ではないが興味深い属性語を正しいものとして判定することが予備実験において分かった.例えば,クラス「映画」に対する「字幕」や「車」に対する「後席」などである.全ての映画に字幕がある訳ではないので,厳密には「字幕」は映画の属性語ではない(例えば,日本では字幕はほとんど外国映画に対して付与される)し,全ての車に後席がある訳ではないので厳密には「後席」は「車」の属性語ではない.しかし,厳密に属性語ではなくてもそれを持つようなインスタンスの割合・重要性が高い場合には,正しいと評価される傾向があることが推測される.このような属性語はその割合・重要性から実用的に有用であると考えられる.このような全てのインスタンスに共通する属性語とそうでない属性語の性質を調べることができるように,QAテストで受理された属性語に関しては,それがそのクラスの「ほとんど全て」のインスタンスに共通するかを最後に判定するようにした.このテストを一般性テストと呼ぶ.一般性テストで受理された属性語を「厳密な属性語」と呼び,QAテストで受理されて一般性テストで棄却された属性語を「非一般属性語」と呼ぶ.また,「厳密な属性語」と「非一般属性語」を合わせて「緩い属性語」と呼ぶことにする.実験では,厳密な属性語としての獲得精度,緩い属性語としての獲得精度を調査比較する.\subsection{下位語テスト}\label{sec:hyp-test}最後に,下位語テストについて説明する.我々の提案手法では,誤って獲得された属性語の中にクラス$C$の下位語やインスタンスと考えられる語が多く含まれることが分かった.もし,評価対象の$A$が$C$の下位語やインスタンスなら,それは$C$の属性語にはなり得ないが,「$C$の$A$」という表現が自然になってしまうためQAテストで混乱を引き起こしやすい.例えば,「アニメ」のインスタンスとして「ドラゴン{\sfX}」があるとすると,「アニメのドラゴン{\sfX}」という表現は自然であり,「ドラゴン{\sfX}」は明らかに「アニメ」の属性語でないのにQAテストで誤って受理されてしまう可能性がある.そこで,QAテストの前に図\ref{fig:hypo}\,で示される下位語テストにより$A$が$C$の下位語やインスタンスであるかを判定し,下位語やインスタンスでない場合にだけQAテスト以降に進むようにした.\begin{figure}[t]\begin{boxedminipage}[h]{\textwidth}\begin{center}\begin{flushleft}{\bf$A$と$C$の間に,以下に挙げる関係のどれか一つでもなりたっていますか?}\\「$A$は$C$の一種である」「$A$は$C$のひとつである」「$A$は$C$の一人である」\end{flushleft}\end{center}\end{boxedminipage}\caption{下位語テスト}\label{fig:hypo}\end{figure}逆に,$A$が$C$の上位語である場合には,上位語であっても必ずしも$A$が属性語でないとは言えないのでそのようなテストは行わない\footnote{例えば,「アニメ」に対する「映像」のように,「映像」は「アニメ」の上位語であるが,「このアニメの映像はどう?」—「きれい」などの質問回答ができるので属性語である.上位語であって属性語でない場合にはQAテストでほとんど棄却できる.}. \section{実験} この節では,提案獲得手法を前節で述べた評価手順で評価した実験について述べる.\label{sec:experiment}\subsection{実験設定}まず,評価のために32個のクラスを用意した.Webに現れるようなクラスで評価を行うため,この32個のクラスは,新里らの上位下位関係獲得手法\cite{Shinzato_2004_NAACL04_eng}によってWebから獲得された共通の上位語をもつ単語クラス1,589個の中から選んだものであり,このときの上位語をクラス語として用いる.単語クラスに含まれる下位語は,クラス語の意味が曖昧な場合に意味を特定するための情報として評価者が参照できるようにした.また,我々の目的は上位下位関係獲得の評価ではないので,上の獲得手法でうまく獲得されている単語クラスを選んだ.さらに,この32個のクラスからランダムに22個のクラスを選び(表\ref{table:classes}),評価の対象とした\footnote{評価にかかる時間・コストの制約のためにこのような選択を行った.}.提案獲得手法で用いられる局所文書集合$LD(C)$の収集にはWeb検索エンジンである{\sfgoo}(http://www.goo.ne.jp)を用いた\footnote{$C$が検索エンジンの形態素解析により分割されてしまうのを防ぐため,フレーズ検索(完全一致)で検索している.}.$LD(C)$の大きさはクラス平均で857文書(URL)であった.また,この$LD(C)$から得られた属性語候補はクラス平均で約2万語であった.サブスコア$dfidf(C,A)$の計算に必要な大域文書集合$G$としてはWebからランダムに収集した$10^6$文書を用いた\footnote{これは,論文\cite{Shinzato_2004_NAACL04_eng}で用いられた文書集合と同じものである.}.\begin{table}[t]\begin{center}\caption{評価で用いた22個のクラス}\label{table:classes}\begin{tabular}{|p{12.8cm}|}\hline都市,博物館,祝日,警察,施設,大学,新聞,ごみ,神社,鳥,病院,植物,川,小学校,曲,図書館,支店,サイト,町,センサー,研修,自動車\\\hline\end{tabular}\end{center}\end{table}各クラスについて提案手法および後で述べる比較手法による上位50個の属性を出力し,評価対象とした.効率的に評価するため,上記の全ての手法による属性語を一つの集合にまとめ(重複があれば取り除く),評価の公平性を保つためランダムに並べ替えた.このように重複を除くと,評価すべき属性語は全てのクラスで合わせると$3,678$個だった.これらの属性語を,提案評価手順を実装したGUIツールを用いて4人の評価者がそれぞれ4日間かけて評価した.この評価結果から,それぞれの手法の上位50個の出力に対する評価が生成できる.この実験に関して,評価者間の一致度を示すkappa値\cite{landis1977}は,厳密な属性語の評価としては$0.533$,緩い属性語の評価としては$0.593$となり,両者とも「中程度」の一致を示した.\subsection{提案手法の精度}\begin{figure}[t]\begin{center}\begin{tabular}{cc}\epsfxsize=0.45\textwidth\epsfbox{wid.evaluator.eps}&\epsfxsize=0.45\textwidth\epsfbox{wid.average.eps}\end{tabular}\end{center}\caption{緩い属性語としての精度}\label{fig:wid}\par\vspace{1\baselineskip}\begin{center}\begin{tabular}{cc}\epsfxsize=0.45\textwidth\epsfbox{gen.evaluator.eps}&\epsfxsize=0.45\textwidth\epsfbox{gen.average.eps}\end{tabular}\end{center}\caption{厳密な属性としての精度}\label{fig:gen}\end{figure}図\ref{fig:wid}\,に提案獲得手法による緩い属性語としての精度,図\ref{fig:gen}\,に厳密な属性語としての精度を示す.それぞれの図において左のグラフは各評価者(Evaluator1-4)による適合率,右は評価者に関する平均・3人一致(3-consensus)・4人一致(4-consensus)の適合率である\footnote{平均に関しては縦棒で$\pm$標準偏差を示す.}.グラフの$X$軸は上位何個まで集計するかを,$Y$軸はそのときの適合率を表している.大まかに言って,グラフの$X$軸は再現率に対応する\footnote{出力されるべき全ての属性を知ることはできないので再現率を正確に計算することはできない.これらのグラフは,正確な再現率を$X$軸とした場合より,適合率が高い手法に多少不利なグラフになっている.}.上位$n$個における評価者$k$による適合率$P_k$は,$\mathcal{C}$を評価に用いたクラスの集合とすると,\[\frac{1}{n|\mathcal{C}|}\sum_{C\in\mathcal{C}}(\mbox{$C$の上位$n$個の出力の中で$k$が正しいと判定した属性語の数})\]で計算される.評価者に関する平均の適合率は,$\frac{1}{|\mathcal{K}|}\sum_{k\in\mathcal{K}}P_k$で計算される($\mathcal{K}$は評価者の集合).また,$M$人一致の適合率は,\[\frac{1}{n|\mathcal{C}|}\sum_{C\in\mathcal{C}}(\mbox{$C$の上位$n$個の出力の中で$M$人以上が正しいと判定した属性語の数})\]で計算される.グラフをみると,適合率自体は評価者に大きく依存するが,提案手法の順位付けと適合率の間の正の相関は共通して存在することが分かる.これは提案手法の妥当性をある程度示していると言える.また,緩い属性語としての評価と厳密な属性語としての評価を比べると,厳密な属性語の方が獲得が難しいことが分かる.加えて,厳密な属性語としての評価(つまり,一般性テスト)は評価者によって大きく傾向が違うことが分かる.緩い属性語の評価の場合にはプロットはほとんど交差していない.これは評価者間で許容度の差はあっても評価の傾向は変わらないことを示している.一方,厳密な属性語の場合には,プロットが交差しており,評価者によって評価の傾向が異なることを示している.緩い属性語の場合に一番許容的であった評価者3(図中,Evaluator3)が厳密な属性語の場合にはそうでもない点などは興味深い.これらのことから,一般性テストは他のQAテストなどに比べて一致を得るのが難しいテストになっていることが推測され,先に示したkappa値の違いもそれを示唆している.提案手法による獲得精度はおおむね期待の持てるものである.どの評価尺度を採用するのが妥当かは難しい問題であるが,例えば\cite{Barland_ACL1999}で用いられた多数決基準(本実験の場合,3人一致)を用いるとすれば,提案手法は上位20個の属性語を出力した場合,緩い属性語は0.852,厳しい属性語は0.727の適合率で獲得できることになる.表\ref{table:example}\,に,実際に獲得された属性語の上位20個をいくつかのクラスに対して示す.これらをみると,実際に興味深い属性語が獲得できていることが分かる.\begin{table}[th]\begin{center}\caption{提案手法による上位20個の属性語.\\括弧中前の数字は緩い属性語として判定した評価者の数,\\後の数字は厳密な属性語として判定した評価者の数である.}\label{table:example}\begin{tabular}{|p{1.2cm}|p{12cm}|}\hline\multicolumn{1}{|c|}{クラス}&\multicolumn{1}{|c|}{属性語}\\\hline鳥&写真[4/4]名前[4/2]種類[4/4]イラスト[3/3]特徴[4/4]病気[4/2]生活[4/4]話題[3/2]関係[0/0]イメージ[4/4]巣[4/4]鳴き声[4/4]姿[4/4]情報[4/4]世界[0/0]声[4/4]動物[0/0]ページ[3/2]生態[4/4]羽[4/4]\\\hline病院&ホームページ[4/1]施設[3/3]情報[4/4]紹介[4/4]窓口[4/4]認定[3/3]名称[4/2]医師[4/4]精神科[4/2]評判[4/4]対応[4/4]電話[2/2]診療[4/4]治療[4/4]医療[3/3]機能[3/3]院長[4/4]評価[4/4]診察[4/4]ページ[2/2]管理[4/3]一部[1/1]\\\hline植物&名前[4/2]種類[4/4]写真[4/4]種子[4/4]栽培[4/3]観察[4/3]特徴[4/4]説明[4/4]画像[4/4]調査[4/3]データ[4/4]進化[3/3]解説[4/4]リスト[2/2]葉[4/3]保存[2/2]デザイン[1/1]生育[4/4]\\\hline川&水位[4/4]上流[4/4]名前[4/2]環境[4/4]水質[4/4]歴史[4/4]源流[4/4]写真[4/4]水[4/4]水面[4/4]場所[4/4]流れ[4/4]水辺[4/4]水源[4/4]四季[3/3]特徴[4/4]中[1/1]ほとり[4/4]自然[4/4]せせらぎ[4/4]\\\hline小学校&活動[4/4]取り組み[4/3]運動会[4/4]子ども[4/4]ホームページ[4/0]校長[4/4]教室[4/4]校歌[4/4]児童[4/4]校舎[4/4]行事[4/4]学習[3/3]給食[4/3]ページ[2/2]体育館[4/4]学級[3/3]メール[0/0]学年[1/1]始業式[4/4]音楽[2/2]\\\hline曲&歌詞[4/1]タイトル[4/2]演奏[4/4]リスト[0/0]イメージ[4/4]作詞[4/1]楽譜[4/4]名前[4/2]内容[3/3]ジャンル[4/4]情報[4/4]ポイント[4/4]世界[1/1]メロディー[4/4]最後[3/2]題名[4/2]中[0/0]作曲[4/4]テーマ[4/4]データ[4/2]\\\hline図書館&資料[4/4]ホームページ[4/2]ページ[3/1]歴史[4/4]設置[4/4]システム[4/4]蔵書[4/4]コピー[2/2]本[4/4]場所[4/4]利用[4/4]サービス[4/4]データベース[4/3]図書[4/4]新聞[4/4]休館[4/4]目録[3/3]展示[4/2]施設[2/2]情報[4/4]\\\hline支店&所在地[4/4]パソコン[2/1]紹介[4/4]歴史[3/3]営業[4/3]電話[2/2]ホームページ[4/1]住所[4/4]窓口[4/3]駐車場[4/3]\\\hlineサイト&情報[4/4]掲示板[4/2]内容[4/4]運営[4/4]リンク[3/2]登録[3/2]紹介[4/3]写真[2/1]中[1/1]コンテンツ[4/4]\\\hline町&人口[4/4]歴史[4/4]ホームページ[4/0]観光[4/4]情報[3/3]財政[4/4]施設[4/4]文化財[4/2]環境[4/4]温泉[3/1]話題[3/2]四季[3/3]イベント[4/3]図書館[4/3]文化[4/4]風景[4/4]シンボル[4/3]産業[4/3]農業[4/2]議会[3/3]\\\hlineセンサー&情報[4/4]感度[4/3]種類[4/3]位置[4/4]取り付け[4/4]開発[4/4]精度[4/4]サイズ[4/4]仕様[4/4]温度[2/1]データ[4/4]セット[4/4]設置[4/4]機能[4/4]技術[4/4]特長[4/4]ページ[3/3]高さ[3/2]採用[3/3]応用[4/4]\\\hline研修&内容[4/4]目的[4/4]実施[4/4]テーマ[4/3]プログラム[4/4]講師[4/4]予定[4/4]名称[4/2]メニュー[4/4]報告[4/4]対象[4/4]成果[4/4]充実[2/2]場[3/3]あり方[2/2]詳細[4/4]機会[1/1]定員[4/4]受講[4/4]ほか[0/0]\\\hline\end{tabular}\end{center}\end{table}\subsection{各サブスコアの効果}次に,提案手法のスコア(式\ref{eq:score})における各サブスコアの効果を調べるため,式\ref{eq:score}\,から各サブスコアを除いたスコアを用いたときに精度がどの程度変化するかをみた.まず,評価者平均精度の変化でみると,全てのサブスコアに関して効果がある(各サブスコアを除く事で精度が低下する)ことが観察された.さらに,各評価者ごとにみると,評価者によらず似た傾向の精度の変化があることが分かった.これは,前の実験で示したように評価自体は評価者によってかなり異なる事を考えると興味深い.この点をより詳しく分析するため,各サブスコアを除いた場合に関して,評価者ごとに精度の変化を計算し,変化の評価者に関する平均・標準偏差などを求めた.図\ref{fig:feature.diff}\,はそのようにして求めた平均・標準偏差をプロットしたものである.このグラフから,全般的に,ほぼ順位にかかわらず,全ての評価者で効果があることが分かる.左のグラフで示された緩い属性語の場合を詳しくみると,$f(C,A)$と$t(C,A)$の効果が特に大きい.また,$n(C,A)$は$f(C,A)$と同様に効果はあるが絶対値は小さいことが分かる.これは,前述したように利用できる文書の量の差によるものと考えられる.$dfidf(C,A)$は,低ランクまででみると正の効果を示しているが,高ランク域(1位--5位)ではわずかではあるが負の効果になっている.右のグラフの厳密な属性語の場合にも,全般としては正の効果があることが分かる.しかし,効果の程度は全般に小さくなり分散も大きくなっている.特に,$t(C,A)$の効果は緩い属性語の場合に比べて大幅に小さくなっている.一方で,$f(C,A)$の効果は逆に大きくなっている.\begin{figure}[t]\begin{center}\begin{tabular}{cc}\epsfxsize=0.48\textwidth\epsfbox{wid.feature.diff.eps}&\epsfxsize=0.48\textwidth\epsfbox{gen.feature.diff.eps}\end{tabular}\end{center}\caption{各サブスコアの効果.左:緩い属性語の場合右:厳密な属性語の場合.\\$n(C,A)$の効果は「Proposed-pattern(web)」,$f(C,A)$の効果は「Proposed-pattern(news)」,\\$t(C,A)$の効果は「Proposed-tag」,$dfidf(C,A)$の効果は「Proposed-dfidf」で示す.}\label{fig:feature.diff}\end{figure}\subsection{局所文書集合収集のためのキーワードの比較}\label{sec:exp-hyper}提案手法では,順位付けで用いられる局所文書集合を収集する際の検索エンジンに対するキーワードとしてクラス語を使用した.しかし,もし上位下位関係知識が利用できる場合には,クラスに属する下位語をキーワードとして局所集合を収集する事も可能であり,その場合に属性語の獲得精度がどのように影響されるかは興味深い問題である.そこで,この実験では提案手法のようにクラス語を用いる場合と下位語を用いる場合を比較した.実験で用いたクラスには,上位下位関係獲得手法\cite{Shinzato_2004_NAACL04_eng}により下位語が対応付けられているので,これを検索キーワードとして用いた.ここでは,収集された文書の質を比較するため,収集された文書から提案手法で収集された文書数とほぼ同数の文書をランダムで取り出して用いた.このようにして得られた局所文書集合を用いてスコア中の$n(C,A)$を計算する際には,$C$の代わりに下位語$H$を用いた場合に得られる頻度を全ての下位語について和をとって$n(C,A)$の値とした(つまり,$n(C,A)=\sum_Hn(H,A)$).他のサブスコアの値については提案手法と同じ値を用いた.図\ref{fig:hyponym.diff}\,に,前節の実験と同じ方法で緩い属性語と厳密な属性語について提案手法と比較手法の精度の差(差の平均$\pm$標準偏差)を示す.負の差は比較手法の精度が提案手法に比べて悪いことを表す.従って,この結果から,少なくともこの設定では局所文書集合の収集にはクラス語のほうが適していることが分かる.\begin{figure}[t]\begin{center}\begin{tabular}{cc}\epsfxsize=0.45\textwidth\epsfbox{wid.hyponym.diff.eps}&\epsfxsize=0.45\textwidth\epsfbox{gen.hyponym.diff.eps}\end{tabular}\end{center}\caption{クラス語と下位語の比較.左:緩い属性語の場合.右:厳密な属性の場合.}\label{fig:hyponym.diff}\end{figure} \section{今後の課題} \label{sec:discussion}本研究では,提案手法によってある程度の高精度で属性語を自動獲得できることを示したが,本格的な応用のためには,獲得精度のさらなる向上が必要である.また,属性語の性質についても更なる考察が必要である.以下に挙げる点が,今後の課題として考えられる.\begin{description}\item[質問回答可能性に基づいた手がかり]提案手法が現在用いている順位付けのスコア(式\ref{eq:score})は,節\ref{sec:criteria}\,で述べた評価基準の背後にある質問回答可能性などの考えを直接は反映していない.$n(C,A)$あるいは$f(C,A)$などで,「$C$の$A$」という言語的パターンの頻度としてわずかに反映されているだけである.属性語を提案評価手順で評価できるものと仮定するならば,獲得手法でも質問回答可能性などを手がかりとして直接利用することでより高い精度を達成できると考えられる.質問回答可能性を直接反映させるためには,例えば,Web上のFAQページから得られる統計値を使うことなどが考えられる.また,上位下位関係のデータベースが利用できるならば,評価手順中の下位語テストを反映したようなスコアを設計する事も可能である.実験では,厳密な属性語の獲得の精度が緩い属性語の獲得の精度に比べて低いことが分かったが,順位付けのスコアに属性語の一般性を直接捉えるようなサブスコアがないことを考えると,ある程度予測できることである\footnote{検索キーワードや言語パターン中でクラス語を用いる事で一般性が間接的に捉えられると考えられるが,クラス語だけでは曖昧性などの問題も起きていると考えられる.}.この場合にも,上位下位関係のデータベースを用いれば,例えば,下位語の何割にその属性語が当てはまるかなどの統計値を用いて属性語の一般性を反映したようなスコアも設計できると考えられる.\item[Webの最大限の利用]現在の提案手法では,前で述べた通り検索エンジンの制限からWebの文書を完全には利用できていない.利用できるWeb文書が増えればサブスコア$n(C,A)$の信頼性が上がり精度向上に役立つと考えられる.現在我々は,独自に収集したWeb文書に対して制限のない検索エンジンを構築することで,これを実現させることを計画している.大量のWeb文書があると下位語の過疎性も軽減されるので,節\ref{sec:exp-hyper}\,で述べた上位語(クラス語)と下位語の有用性についてもより詳しく分析することが可能になる.\item[実応用に向けた再現率の調査]獲得された属性語,また,本研究で提案した評価基準の妥当性は,究極的には実応用でどれだけ有用かによって判断される.実応用では,必要な属性語のどの程度が獲得できるかという属性語の再現率も重要になってくる.本研究ではこの点については分析していないので,例えばあるクラスについて考え得る属性語を人手で列挙し,そのうちどれくらいが実応用で必要になるかなどの分析を行いたいと考えている.また,本研究では上位下位関係獲得手法でうまく獲得できたクラスを評価に用いた.そのため,比較的易しい(頻繁に現れる)クラスについてのみ評価している可能性は否定できない.そこで,より難しい(稀な)クラスについての評価も必要になる.\item[属性の型の獲得]ある属性に対してどの質問が可能か,どのような接尾拡張が可能か,言い換えると,属性の値にどのような語が可能か(属性の型)という知識は,最終的に〈対象,属性,値〉の組まで獲得したい場合や,属性の種類(性質なのか全体部分かなど)を決定したい場合に重要になると考えられる.本研究では,獲得の際にはこの点を無視し,評価の際には評価者の判断に任せていた.今後は,このような知識も提案手法のような単語や言語的パターンの統計値を用いた方法などを用いて獲得したいと考えている.\end{description} \section{結論} \label{sec:conclusion}本研究では,Webから言語的パターン・HTMLタグ・単語の統計量を手かがりとして属性語を獲得する手法を提案した.また,獲得された属性語を評価するための質問回答可能性に基づいた評価手順を提案した.この評価手順を用いて提案獲得手法を評価し,属性語を高精度で獲得できること,また,用いた各手がかりが精度に貢献していることを確認した.\acknowledgment実験で使用したデータに関してアドバイスをいたただいた新里圭司氏に深く感謝いたします.また,実験で評価者として参加していただいた北陸先端科学技術大学院大学の学生の皆様に感謝いたします.\clearpage\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Almuhareb\BBA\Poesio}{Almuhareb\BBA\Poesio}{2004}]{almuhareb-poesio:2004:EMNLP}Almuhareb,A.\BBACOMMA\\BBA\Poesio,M.\BBOP2004\BBCP.\newblock\BBOQAttribute-basedandvalue-basedclustering:Anevaluation\BBCQ\\newblockIn{\BemProc.ofEMNLP2004},\mbox{\BPGS\158--165}.\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2001}]{Barzilay01}Barzilay,R.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQExtractingparaphrasesfromaparallelcorpus\BBCQ\\newblockIn{\BemProc.ofEACL2001},\mbox{\BPGS\50--57}.\bibitem[\protect\BCAY{Berland\BBA\Charniak}{Berland\BBA\Charniak}{1999}]{Barland_ACL1999}Berland,M.\BBACOMMA\\BBA\Charniak,E.\BBOP1999\BBCP.\newblock\BBOQFindingpartsinverylargecorpora\BBCQ\\newblockIn{\BemProc.ofACL'99}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{WordNet}Fellbaum,C.\BED\\BBOP1998\BBCP.\newblock{\BemWordNet:Anelectroniclexicaldatabase}.\newblockTheMITPress.\bibitem[\protect\BCAY{Fleischman,Hovy,\BBA\Echihabi}{Fleischmanet~al.}{2003}]{Fleischman_2003}Fleischman,M.,Hovy,E.,\BBA\Echihabi,A.\BBOP2003\BBCP.\newblock\BBOQOfflinestrategiesforonlinequestionanswering:Answeringquestionsbeforetheyareasked\BBCQ\\newblockIn{\BemProc.ofACL2003},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Guarino}{Guarino}{1992}]{Guarino1992}Guarino,N.\BBOP1992\BBCP.\newblock\BBOQConcepts,attributesandarbitraryrelations:Somelinguisticandontologicalcriteriaforstructuringknowledgebase\BBCQ\\newblock{\BemDataandKnowledgeEngineering},{\Bbf8},\mbox{\BPGS\249--261}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{Hearst_1992}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticacquisitionofhyponymsfromlargetextcorpora\BBCQ\\newblockIn{\BemProc.ofCOLING'92},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{Kanayama,Torisawa,Mitsuishi,\BBA\Tsujii}{Kanayamaet~al.}{2000}]{Kanayama_2000}Kanayama,H.,Torisawa,K.,Mitsuishi,Y.,\BBA\Tsujii,J.\BBOP2000\BBCP.\newblock\BBOQAhybrid{Japanese}parserwithhand-craftedgrammarandstatistics\BBCQ\\newblockIn{\BemProc.ofCOLING2000},\mbox{\BPGS\411--417}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1999}]{JUMAN_eng}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1999\BBCP.\newblock\BBOQ{Japanese}morphologicalanalysissystem{JUMAN}version3.61manual\BBCQ.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{landis1977}Landis,J.~R.\BBACOMMA\\BBA\Koch,G.~G.\BBOP1977\BBCP.\newblock\BBOQThemeasurementofobserveragreementforcategorialdata\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{Pustejovsky}{Pustejovsky}{1995}]{GenerativeLexicon}Pustejovsky,J.\BBOP1995\BBCP.\newblock{\BemTheGenerativeLexicon}.\newblockTheMITPress.\bibitem[\protect\BCAY{Shinzato\BBA\Torisawa}{Shinzato\BBA\Torisawa}{2004}]{Shinzato_2004_NAACL04_eng}Shinzato,K.\BBACOMMA\\BBA\Torisawa,K.\BBOP2004\BBCP.\newblock\BBOQAcquiringhyponymyrelationsfrom{Web}documents\BBCQ\\newblockIn{\BemProc.ofHLT-NAACL04},\mbox{\BPGS\73--80}.\bibitem[\protect\BCAY{Woods}{Woods}{1975}]{Woods_1975}Woods,W.~A.\BBOP1975\BBCP.\newblock{\BemRepresentationandunderstanding:Studiesincognitivescience},\BCH\What'sinalink:Foundationsforsemanticnetworks.\newblockAcademicPress.\bibitem[\protect\BCAY{Yoshida,Torisawa,\BBA\Tsujii}{Yoshidaet~al.}{2003}]{yoshida_wda}Yoshida,M.,Torisawa,K.,\BBA\Tsujii,J.\BBOP2003\BBCP.\newblock{\BemWebDocumentAnalysis},\BCH\Chapter10(Extractingattributesandtheirvaluesfrom{Web}pages).\newblockWorldScientific.\bibitem[\protect\BCAY{Yoshida,Torisawa,\BBA\Tsujii}{Yoshidaet~al.}{2004}]{yoshida_ai2004_en}Yoshida,M.,Torisawa,K.,\BBA\Tsujii,J.\BBOP2004\BBCP.\newblock\BBOQIntegratingtablesonthe{World}{Wide}{Web}\BBCQ\\newblock{\BemTransactionsoftheJapaneseSocietyforArtificialIntelligence},{\Bbf19}(6),\mbox{\BPGS\548--560}.\bibitem[\protect\BCAY{高橋\JBA乾\JBA松本}{高橋\Jetal}{2004}]{takahashi_2004}高橋哲郎\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQテキストから属性関係を抽出する\JBCQ\\newblock\Jem{情報処理学会研究報告自然言語処理2004-NL-164},\mbox{\BPGS\19--24}.\end{thebibliography}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{徳永耕亮}{2003年日本大学工学部機械工学科卒業.2005年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.修士(情報科学).同年,(株)日立製作所入社.}\bioauthor{風間淳一}{1999年東京大学理学部情報科学科卒業.2004年東京大学大学院情報理工学系研究科コンピュータ科学専攻博士課程修了.博士(情報理工学).同年,北陸先端科学技術大学院大学情報科学研究科助手.}\bioauthor{鳥澤健太郎}{1992年東京大学理学部情報科学研究科卒業.1995年同大学大学院理学系研究科情報科学専攻博士課程退学,同年より同専攻助手.1998年より2001年まで科学技術振興事業団さきがけ研究21研究員兼任.2001年より北陸先端科学技術大学院大学情報科学研究科助教授.計算言語学の研究に従事.博士(理学).}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V08N03-02
\section{はじめに} label{hajime}一般に,手話言語は視覚言語としての側面を持つ.この視覚言語としての特性の一つは,音声言語が単語を線条的に配列し.文を構成するのに対して,単語を空間的かつ同時的に配列することで文を構成できる点である\cite{Baker1980}.また,単語の語構成においても,例えば,右手で「男」を示し,左手で「女」を同時的に空間に配置し,両手を左右から近付けることで「結婚」を,逆に「結婚」の手話表現を示し,両手を左右に引き離すことで「離婚」を表現している.すなわち,音声言語に比べて,単語を造語する際の{\gt写像性}({\iticonicity})が高い言語であると捉えることができる.また,手話単語の造語法の特徴には,この事物,事象の仕草(ジェスチャ)という写像性を持つと同時に,ある手話単語の構成要素(手の形,手の位置,手の動き)のパラメータの一部を変更したり,他の手話単語との複合表現により,別の意味を担う単語見出しに対応できる点が挙げられる\cite{Ichida1994}.例えば,日本語の単語見出し「破産」に対する日本手話の手話表現は,破産との因果関係「家が潰れる」を比喩的に表象し,「家」の手話表現,すなわち,屋根の形を構成する両手を中央で付け合わせる仕草で表現している.また,「家族」は左手で「家」の手話を構成しながら,右手で「人々」の手話を同時に提示することで表現される.さらに,「学校」は,「教える」と「家」の複合語表現として定義されている\cite{Honna1994}.このように,手話単語を構成する手指動作特徴の各パラメータは,手話単語の構造を記述する表記法として重要である\cite{Yonekawa1984}と同時に,単語の表す概念の一部を写像的に表現していると捉えることができる.これは,単語間の手指動作特徴の類似性を調べることで,その類似の特徴パラメータが示す概念特徴とは何か,すなわち,概念特徴が表現するどの部分を特徴素として抽出しているのかを解明する一つの手がかりとなると考える.さて,一般に,単語見出しは単語が担う複数の概念を表す総称的なラベルの一つである.また,意味特徴モデル\cite{Smith1974}では,概念は幾つかの特徴素の集合として表現されるとしている.この概念の特徴素には二つの種類があり,その一つは,ある概念を定義し,かつ不可欠な要素を列挙する{\gt定義的特徴}であり,他方は{\gt性格的特徴}である.例えば,日本語の単語見出し「ウグイス」の定義的特徴としては,``翼がある,飛べる,ホーホケキョと鳴く''などである.これに対して,性格的特徴は,``早春に飛来する,梅に止まる''などである.このように,性格的特徴は,ウグイスらしさを記述しているが,概念の定義として不可欠な特徴素ではない\cite{Ohsima1986}.ここで,先に示した「家」の手話表現は建物としての概念の定義的特徴を視覚的に写像しているのに対して,「破産」は,性格的特徴による表現と捉えることができる.本研究では,市販の辞書に収録されている日本手話の手話単語を対象に,複数の手話単語間に存在するであろう手指動作特徴の類似性と,その類似の手指動作特徴を含む単語間に共有される概念の特徴素とは何かを明らかにするため,手指動作特徴間の類似性による単語の部分集合(クラスタ)を求める方法について検討を行った.この類似の動作特徴を含む手話単語のクラスタの獲得は,言語学分野における,手話単語の構造や造語法を解明する手がかりとして,重要であるばかりでなく,手話言語を対象とする計算機処理にも有益な知識データの一つとなると考える.例えば,日本語と手話の橋渡しとなる手話通訳システムや電子化辞書システムでは,単語の登録や検索が重要な要素技術の一つであり,手指動作特徴からの日本語単語見出しの効率の良い検索方法の実現は重要である.このように,手指動作特徴の類似性に基づく分類方法は,検索辞書の構築に有効利用できると考える.例えば,ニュース原稿を手話通訳する現場から,新たに手話単語を造語する必要性が報告\cite{Shigaki1991}されており,造語する場合の観点として,ある動作特徴の果たしている意味は何か,あるいは,類似の動作特徴を含む他の単語との整合性があるか(既に定義されている単語との競合はないか)が重要であり,これらを効率よく調べる手段を提供できる可能性がある.このような背景から,本論文では,与えられた手話単語の有限集合を手指動作特徴間の類似性に基づき,単語のクラスタ(部分集合)を求めるための一つの分類方法を提案し,その有効性を検証するために行った実験結果について述べる.本提案手法の特徴は,市販の手話辞典に記述されている日本語の手指動作記述文を手指動作パターンの特徴系列と捉え,手指動作記述文間の類似関係から同値関係を導出し,与えられた単語集合を同値類に分割する点にある.なお,関連する研究として,従来,手話単語の構造を記述する表記法に焦点を当てた研究が言語学と工学の分野から幾つか報告されている.例えば,\cite{Stokoe1976}は,ASL(Americansignlanguage)の手話単語を対象に手の形,手の位置,手の動きを手指動作特徴の特徴素とする表記法を提案し,\cite{Kanda1984,Kanda1985}は日本手話の表記法についての検討結果を報告している.また,手話の画像処理\cite{Kamata1991}や画像通信\cite{JunXU1993}の観点からの表記法も提案されている.これらの表記法は,手話の表現を厳密に再現することを目的としているため,\cite{Naitou1996}が指摘しているように,複雑なコード体系を用いている.一方,\cite{Adachi2000}は複雑なコード体系により記号化された表現ではなく,市販の辞書中に記述されており,初学者にも親しみやすい(扱いやすい)自然言語文として表現されている手指動作記述文間の類似関係を手話単語間の類似関係とみなし,手指動作記述文間の類似度を計算することで,類似の動作特徴を含む手話単語対の抽出方法を提案している.この手法の利点の一つは,データ収集の容易さと同時に対象単語数の大規模化が容易に行える可能性がある点である.本研究では,同様に単語間の類似性を手指動作記述文間の類似性とみなす考え方を採り入れ,さらに,「単語と単語」との直接的な類似関係による単語間の関係に,推移律を満たす関係式を新たに導入することで,集合の同値関係を規定し,間接的な類似関係をも考慮した「単語対と単語対」との類似関係に焦点をあて,与えられた単語集合から同値類を抽出し分類することを特徴としている.以下,2章で,手指動作記述文間の類似度の計算方法を概説し,3章で,類似関係を表す類似行列の推移行列への変換手続きによる分類方法について述べ,4章で,本提案手法の妥当性を検証するために行った実験結果を示し,5章で考察を行う. \section{手指動作記述文間の類似度} \subsection{手話単語間の類似度の考え方}\label{idea}一般に,パターン認識においては,構造を持つオブジェクト間の関係を計る尺度として,距離や類似度を定義する必要がある\cite{Tanaka1990}.本論文では,手話単語が$n$個の手指動作特徴を持つとし,$n$次元空間上の点で表現する.この空間上での$n$次元の特徴ベクトルのなす角を用いて,手話単語間の類似度を近似する.ここで,手話単語とそれに対応する手指動作特徴を自然言語文に写像した手指動作記述文に1対1の対応関係があるとすると、手話単語間の類似度問題は,手指動作記述文間の類似度問題と捉えることができる.\subsection{手指動作記述文間の類似度の計算方法}\ref{idea}節で示した類似度の考え方から,手話単語間の類似度を,対応する手指動作記述文間の類似度とみなす.ここでは,二つの手話単語$A,B$に対する手指動作記述文の文字列を$A=a_1a_2\cdotsa_m,B=b_1b_2\cdotsb_n$とし,両者の最長共有部分列の長さを$LCS$と表記するとき,次式で示した手話単語$A,B$の類似係数$S(A,B)$を$A,B$間の類似度とみなす\cite{Adachi1993a}.\begin{equation}\label{sim}S(A,B)=\frac{LCS(A,B)^2}{mn}=\frac{LCS(A,B)}{m}\frac{LCS(A,B)}{n}\end{equation}ここで,$LCS(A,B)$は,動的計画法を利用して次式で計算できることが知られている\cite{Thomas1990}.また,$LCS(A_i,B_j)$は部分列$A_i$と$B_j$の最長共有部分列の長さを示し,$LCS(A_i,0)=LCS(0,B_j)=0\(1\lei\lem,1\lej\len)$とする.なお,$LCS$は複数の最長共有部分列を導出する可能性があるが,その長さは一意に決定できる.\begin{equation}LCS(A,B)=LCS(A_m,A_n)\end{equation}\[LCS(A_i,B_j)=\left\{\begin{array}{ll}LCS(A_{i-1},B_{j-1})+1&a_i=b_j\\\max\{LCS(A_i,B_{j-1}),LCS(A_{i-1},B_j)\}&\mbox{otherwise}\end{array}\right.\]例えば,$A=``右手を右に倒す'',B=``右手を左に倒す''$とした場合,表\ref{lcs}に示すように$LCS(A,B)=LCS(A_{6},B_{6})=6$となり,$S(A,B)=0.73469388$となる.なお,表中の括弧で示した部分は両者の文字が一致する箇所($a_i=b_j$)を示す.\begin{table}[htb]\caption{$LCS(A,B)$の計算例}\label{lcs}\tabcolsep=3pt\footnotesize\begin{center}\begin{tabular}{c|ccccccc}&右&手&を&左&に&倒&す\\\hline右&(1)&1&1&1&1&1&1\\手&1&(2)&2&2&2&2&2\\を&1&2&(3)&3&3&3&3\\右&(1)&2&3&3&3&3&3\\に&1&2&3&3&(4)&4&4\\倒&1&2&3&3&4&(5)&5\\す&1&2&3&3&4&5&(6)\\\end{tabular}\end{center}\end{table} \section{手話単語の分類方法} \subsection{有限集合の同値関係}一般に,ある有限集合$X$の直積$X\timesX$における二項関係を$R(x,y)$と表記する.ここで,反射律と対称律を満たす$R(x,y)$を類似関係と呼び,その関係を行列で表現したものを類似行列と呼ぶ.\begin{eqnarray*}R(x,x)&=&1,\forallx\inX\\R(x,y)&=&R(y,x)\end{eqnarray*}さらに,類似関係が推移律を満たす場合,$R(x,y)$を同値関係と呼び,行列で表現したものを推移行列(あるいは同値関係行列)と呼ぶ.例えば,次式は推移関係を示している\cite{Ito1986}.\[R(x,z)\ge\max_{y}\min\{R(x,y),R(y,z)\}\]なお,この同値関係により,与えられた有限集合の要素を同値類に分割できることが知られている\cite{Klir1988}.本論文で提案する分類方法は,与えられた手話単語の有限集合を手指動作記述文間の類似性に基づく同値関係により,集合要素を同値類へ分割するものである.前章で定義した類似度$S(x,y)$は以下に示すように,反射律と対称律の二つの条件を満たしていることは明らかである.\begin{center}\begin{tabular}{ll}反射律&$S(x,x)=1$\\対称律&$S(x,y)=S(y,x)$\\\end{tabular}\end{center}そこで,以下の関係式を導入し,推移律を満たす同値関係を導出する.\begin{equation}\label{eq:suii}S(x,z)\ge\max_{y}\min\{S(x,y),S(y,z)\}\end{equation}すなわち,推移律は,類似度$S(x,y)$と$S(y,z)$から得られる{\gt間接}の関係と,類似度$S(x,z)$から得られる{\gt直接}の関係により一義的に定義される.次節では,具体的な例を用いて,同値関係による分類方法について詳細に述べる.\subsection{分類方法}\label{tejun}$X=\{a,b,c,d,e\}$を与えられた手話単語の有限集合とし,集合$X$の要素間の類似関係$S(x,y)$は,以下に示す類似行列$S$で表現されているとする.ここで,対称律により,例えば,$S(a,b)=S(b,a)=0.2$であり,反射律により,対角線成分はすべて1となる.\[S=\begin{array}{r@{}l}&\begin{array}{ccccc}\makebox[2.5em]{a}&b&\makebox[2.0em]{c}&d&\makebox[2.0em]{e}\end{array}\\\begin{array}{l}a\\b\\c\\d\\e\end{array}&\left(\begin{array}{ccccc}1&0.2&0.5&0.3&0.8\\0.2&1&0.3&0.5&0.3\\0.5&0.3&1&0.2&0.7\\0.3&0.5&0.2&1&0.2\\0.8&0.3&0.7&0.2&1\end{array}\right)\end{array}\]次に,手話単語$a$と$b$の関係を例として,推移関係を満たす類似度を求める手続きについて述べる.まず,$a$と$b$との間接の関係は,(1)$S(a,c)=0.5$,$S(c,b)=0.3$,(2)$S(a,d)=0.3$,$S(d,b)=0.5$,(3)$S(a,e)=0.8$,$S(e,b)=0.3$\noindentであり,それぞれの組の中で最小の類似度の集合を$S_{min}$と表記すると,$S_{min}=\{0.3,0.3,0.3\}$となり,その最大値は$0.3$となる.一方,手話単語$a$と$b$の直接の関係は,$S(a,b)=0.2$である.この直接と間接の関係にある類似度を比較して,大きい方の値を推移関係における$S(a,b)$の類似度とする.この例では間接の類似度の方が大きく,$S(a,b)=0.3$となる.ここで,類似行列$S$における類似度$S(x,z)$と区別するため,推移行列を$T$と表記し,$T$における類似度を$T(x,z)$と表記すると,式(\ref{eq:suii})は次式で表現でき,推移行列$T$は以下のように表現される.\begin{equation}\label{eq:trans}T(x,z)=\max\Bigl(S(x,z),\max_{y}\min\{S(x,y),S(y,z)\}\Bigr)\end{equation}\[T=\begin{array}{r@{}l}&\begin{array}{ccccc}\makebox[2.5em]{a}&b&\makebox[2.0em]{c}&d&\makebox[2.0em]{e}\end{array}\\\begin{array}{l}a\\b\\c\\d\\e\end{array}&\left(\begin{array}{ccccc}1&0.3&0.7&0.3&0.8\\0.3&1&0.3&0.5&0.3\\0.7&0.3&1&0.3&0.7\\0.3&0.5&0.3&1&0.3\\0.8&0.3&0.7&0.3&1\end{array}\right)\end{array}\]さらに,推移行列$T$を対角線成分に近い程,行列成分(類似度の値)が大きくなるように行列の要素間の交換を行うと,以下の推移行列$T_{sort}$が得られる.\[T_{sort}=\begin{array}{r@{}l}&\begin{array}{ccccc}\makebox[2.5em]{a}&e&\makebox[2.0em]{c}&d&\makebox[2.0em]{b}\end{array}\\\begin{array}{l}a\\e\\c\\d\\b\end{array}&\left(\begin{array}{ccc|cc}1&\multicolumn{1}{c|}{0.8}&0.7&0.3&0.3\\0.8&\multicolumn{1}{c|}{1}&0.7&0.3&0.3\\\cline{1-2}0.7&0.7&1&0.3&0.3\\\hline0.3&0.3&0.3&1&0.5\\0.3&0.3&0.3&0.5&1\end{array}\right)\end{array}\]これにより,与えられた手話単語の有限集合$X$は,ある適切な閾値$\alpha$を設定することで,$\alpha$における同値関係$T_{\alpha}$により,互いに素な部分集合に直和分割される.ここで,集合$X$の閾値$\alpha$による分割を$X/T_{\alpha}$と表記し,閾値($1\ge\alpha\ge0$)を段階的に変化させることにより,以下に示すように,$\alpha$による階層構造を構成することができる.\begin{eqnarray*}X/T_{1.0}&=&\{a,b,c,d,e\}\\X/T_{0.8}&=&\{\(a,e),\c,d,b\}\\X/T_{0.7}&=&\{\(a,e,c),\d,b\}\\X/T_{0.5}&=&\{\(a,e,c),\(d,b)\}\\X/T_{0.3}&=&X/T_{0.0}=\{\(a,e,c,d,b)\\}\end{eqnarray*}同様に,行列$T_{sort}$は以下に示すように,一般に,デンドログラム(樹系図)と呼ばれる階層的なクラスタリング結果を内包していると捉えることができる.なお,本論文では便宜上,以下に示す連分数の表現形式を用いて階層関係を表現することにする.\[\cfrac{0.3}{\dfrac{0.5}{b,d}+\cfrac{0.7}{\cfrac{0.8}{a,e}+c}}\]以上の手続きで得られた推移行列を用いると,単語対と単語対との類似度が一義的に決定される. \section{実験と結果} ここでは,本手法の妥当性を検証するため,与えられた手話単語の集合を同値類に分割する実験を行った結果を示し,得られた同値類に含まれる手話単語を分析し,どのような手指動作特徴の類似性により手話単語が結束しているのかを明らかにし,手指動作特徴と単語の意味との関係,すなわち,手話単語の造語法を解明する上での手がかりや手話単語の電子化辞書を構築する上での有用な情報が得られたか否かで評価を行う.\subsection{実験データ}\label{pre}議論を明確にするため,本論文では顔,特に``口''の部分を手指動作特徴の要素(手の位置)として用いる手話単語の有限集合を実験対象とし,以下の手順で実験データを準備した.最初に,手話辞典\cite{MaruyamaKoji1984}からキーワードとして,``口''または``唇''を含む手指動作記述文(以下,記述文と略記する.)を抽出し,人手により計算機に入力した.次に,表\ref{marge}に示すように,同一の記述文($S(x,x)=1$に相当)をマージし,最終的に,101記述文とその単語見出しをペアとする構造の実験データを準備した\footnote{記述文中の「唇」は,「口」と同一視し,文字の置換処理により「口」に統一した.}.なお,表\ref{marge}中の単語見出しの添字の意味は,数字が複合語を構成する記述文の出現する配列順序を示す.一方,英字は同一の単語見出しに対して,異なる手話表現が辞書に定義されていることを意味する.例えば,表\ref{marge}中の「恥ずかしい.A.1」と「恥ずかしい.B.1」は,単語見出し「恥ずかしい」に対して,二つの手話表現A,Bが辞書に定義されており,A,Bともに同一の記述文を複合語表現の最初に用いていることを示す.\begin{table}[htb]\caption{同一の手指動作記述文を含む単語群}\label{marge}\tabcolsep=3pt\footnotesize\begin{center}\begin{tabular}{|l|}\hline右手の人差指を下唇にあてて右に引く\\\hline遺伝.1,火事.1,赤十字.1,速達.2,ソ連.1,日曜日.B.1,日赤(日本赤十字社の略称).1,\\はしか.1,恥ずかしい.A.1,恥ずかしい.B.1,はにかむ.1,火.1,貧血.1,もみじ.1,りんご.1,\\火曜日.1,血液.1,錆.1,出血.1,信号.1\\\hline人差指を立てて唇にあてる\\\hline家出.1,隠す.1,スパイ.1,亡命.1\\\hline人差指と親指を伸ばしてそのつけ根を口の前におき二指を開閉する\\\hline鳥取.1,鳥.1\\\hline人差指で口のところに小さく円を描く\\\hline読話.1,口話.1\\\hline小指を下唇にあてる\\\hline海.1,しょうゆ.1\\\hline五指を折り曲げた右手を口の前でまわす\\\hline辛い,カレーライス.1\\\hline右手の親指を口の前で右から左に往復させる\\\hline通訳,紹介\\\hline\end{tabular}\end{center}\end{table}\subsection{実験方法と結果}以下では,\ref{tejun}節で述べた分類手順に従い,その過程で得られた結果を段階的に示しながら実験方法の説明を行う.まず最初に,\ref{pre}節で得られた記述文間の類似度を式(\ref{sim})で求める.表\ref{sim_kekka}は類似度$0.6$以上の単語対として抽出された25組を示す.その結果,図\ref{s_matrix1}に示すように$31\times31$の類似行列が得られる.ここで,行列は対角線成分($S(x,x)=1$)と表\ref{sim_kekka}の単語対に対応する要素成分($S(x,y)\ge0.6$)を記号``$\ast$''で示す.すなわち,図\ref{s_matrix1}に示した類似行列は,閾値$\alpha$を$0.6$に設定し,閾値$\alpha$以上の成分を1とみなし,$\alpha$未満の成分は0とした閾値行列と捉えることができる.\begin{table}[htb]\caption{類似度$0.6$以上の手話単語ペア}\label{sim_kekka}\tabcolsep=3pt\footnotesize\begin{center}\begin{tabular}{c|l||c|l}\hline類似度&手話単語ペア&類似度&手話単語ペア\\\hline\hline0.97&(梅干し.1,梅.1)&0.68&(言い訳.2,打ち消す.1)\\\hline0.94&(言う,言い訳.2)&0.66&(アドバイス.2,言葉.1)\\\hline0.89&(遺伝.1,苺.1)&0.66&(お世辞.1,打ち消す.1)\\\hline0.88&(遺伝.1,日曜日.A.1)&0.65&(渋い,唐辛子.1)\\\hline0.85&(餅.2,そば(蕎麦))&0.64&(言う,取り寄せる.1)\\\hline0.85&(読話.1,口実.1)&0.63&(辛い,こしょう.1)\\\hline0.77&(日曜日.A.1,苺.1)&0.63&(言う,お世辞.1)\\0.75&(ニュース.2,発言)&0.62&(発言,白状)\\\hline0.75&(こしょう.1,唐辛子.1)&0.62&(風邪.1,咳)\\\hline0.74&(言う,打ち消す.1)&0.62&(辛い,渋い)\\\hline0.69&(ソース.1,こしょう.1)&0.62&(赤字.1,紅茶.1)\\\hline0.69&(ラーメン.2,餅.2)&0.61&(取り寄せる.1,言い訳.2)\\\hline0.69&(恥ずかしい.B.2,はにかむ.2)&&\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[htb]\begin{center}\atari(71,121)\end{center}\caption{類似行列}\label{s_matrix1}\end{figure}次に,この類似行列を式(\ref{eq:trans})を用いて推移関係を満たす類似度を求め,図\ref{tr_matrix2}に示す推移行列が得られる.ここで,例えば.図\ref{s_matrix1}に示した類似行列の単語ラベル「辛い」に注目すると,直接的な類似関係として単語対(辛い,渋い)と(辛い,こしょう.1)の二つがあることが分かる.一方,図\ref{tr_matrix2}に示した推移行列では,間接的な類似関係(辛い−こしょう.1−ソース.1),(辛い−こしょう.1−唐辛子.1)により,新たに,単語対(辛い,ソース.1)と(辛い,唐辛子.1)の類似関係が,類似度$0.6$以上の二項関係として導出されていることが分かる.\begin{figure}[htb]\begin{center}\atari(72,120)\end{center}\caption{推移行列}\label{tr_matrix2}\end{figure}さらに,図\ref{tr_matrix2}に示した推移行列を対角線成分に近いほど類似度の値が大きくなるように成分間の交換を行い,図\ref{tr_matrix3}に示した推移行列(閾値行列)が最終的に得られ,31単語見出しは11個の同値類に結束されたことが分かる.同様に,類似度$0.5$以上では,図\ref{tr_matrix5}に示すように41単語見出しが16個の同値類に結束された.\begin{figure}[htb]\begin{center}\atari(72,120)\end{center}\caption{類似度の閾値を0.6に設定した場合の分割例}\label{tr_matrix3}\end{figure}以下では,同値類に結束された手話単語間の類似の手指動作特徴は何かを明らかにするため,単語間の記述文を比較し,類似の手指動作特徴が示す概念特徴と手話単語の造語法との関係について分析を行う.また,閾値$\alpha=0.6$と$0.5$の場合の分類結果を比較し,単語間の階層性についても議論する.\begin{figure}[htb]\begin{center}\atari(82,146)\end{center}\caption{類似度の閾値を0.5に設定した場言の分割例}\label{tr_matrix5}\end{figure}分析の結果,$\alpha=0.6$で結束された「遺伝.1」を含む同値類の手話単語は,表\ref{marge}に示した同義の手話単語見出しも含め,単語見出し「赤」に対する手話表現を複合語の構成要素とする部分集合を構成していることが分かった.また,手指動作表現は「唇の色」あるいは「口紅を引く(塗る)仕草」を表現し,``赤い''という属性概念に対応していると捉えることができる.同様な例として,単語見出し「黒」,「白」に対応する手話表現はそれぞれ「掌で頭(髪の毛)をこする」,「人差指で歯を示す」というように,「黒い髪」,「白い歯」を強調的に示すことで色に関する属性概念を表現している.一方,同値類(赤字.1,紅茶.1)は,右手で「赤」に対する手指動作を表現し,左手でそれぞれ,「帳簿」,「カップ」を示す手指動作表現を行っている.このように,左手の手指動作表現に対する記述文の差異が類似度に反映され,結果として異なる同値類を構成している.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bf赤字.1}]掌を上に向けた左手を胸の前におき右手の人差指を下唇にあてて軽く右に引く\item[{\bf紅茶.1}]わん曲させた左手を胸の前におき右手の人差指を下唇にあてて軽く右に引く\end{list}\noindentなお,図\ref{tr_matrix5}に示すように,$\alpha=0.5$では,この二つの同値類は併合され,``赤''の属性概念を示す単語集合となり,以下に示す階層関係を構成している.この場合には,片手手話と両手手話という差異を示していると捉えることができる.また,1章で述べた写像性という観点でみると,空間的かつ同時的に配列する手話の特徴を示しており,手指動作記述文では左手の特徴を記述した後に右手の特徴を記述する傾向がみられる.\[\cfrac{0.5}{\cfrac{0.6}{赤字,紅茶}+\cfrac{0.6}{遺伝,苺,日曜日,etc}}\]同様に,同値類(辛い,ソース.1,こしょう1,唐辛子.1,渋い)は「五指を折り曲げた右手を口の前で平面的に動かす」という手指動作特徴により結束され,特に,(辛い,ソース.1,こしょう.1,唐辛子.1)は回転動作を共有し,「辛い」という味覚に関する属性概念を示している.一方,「渋い」は上下の動作であり,味覚に関する別の属性値を担っている.また,$\alpha=0.5$では,この同値類に「苦い」が結束され,左右の動作を示している.この結果,この同値類に結束された単語集合は(辛い、苦い、渋い)という味覚概念を示していると同時に,手の形に共通性がある.一方,同様に味覚に関する概念を表している「甘い」は,「甘やかす.1」と結束され,「辛い」と回転動作の共通性がみられるが,手の形が五指を広げたものであり,この手の形の差異が別の同値類を構成している要因と考えられる.このように,手指動作特徴の要素である「手の形」が「甘い」と,「辛い」を代表とする``甘くない''概念を担う単語集合との対立観点と捉えることができる.以下に記述文間の類似性による階層関係を示す.\[\cfrac{0.5}{苦い+\cfrac{0.6}{辛い,渋い}}+\cfrac{0.5}{甘い}\]なお,手話表現は手指動作表現だけでなく,顔の表情や口形なども重要な単語の構成要素であるが,本論文では,手指動作特徴に焦点をあて分析を行った.他の同値類においても,例えば,同値類(ラーメン.2,餅.2,蕎麦)は,``箸で口に運ぶ仕草''を表現した手指動作特徴を共有する単語集合であり,「食べる」に関する概念を示す,また,「言う」を含む同値類は,``口から出ていく仕草''を表象し,「発言」とラベル付けが可能な概念を共有する単語集合と捉えることができ,類似の手指動作特徴により同値類を構成し,手指動作特徴が示す概念との対応関係が確認された.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bfラーメン}]=指文字ラ+箸で食べる仕草\item[{\bf蕎麦}]=箸で食べる仕草\item[{\bf餅}]=餅をつく仕草+箸で食べる仕草\end{list}\noindentこのように,本実験により得られた同値類を分析した結果,「口」を手指動作特徴の要素(手の位置)とする単語集合は,例えば,「赤」,「発言」,「味覚」,「食べる」などとラベル付けが可能な概念特徴を共有する部分集合に分類できることが分かった.このように,「口」を手の位置とする手指動作特徴を持つ単語集合の分類実験から,類似の動作特徴を含む手話単語を結束し,手指動作特徴の表す概念との関係など手話単語の造語法を明らかにする一つの手がかりを示している.また,分類結果は電子化辞書システムなどの構築に有用な知識データと捉えることができ,本提案手法の有効性を示す結果が得られたと考える. \section{考察} 実験により,本提案手法を用いて手話単語の造語法の特徴を示す幾つかの同値類を抽出し,手指動作特徴と概念との対応関係を示す重要な手がかりの一部を提供することができたと考える.以下では,明らかになった問題点を整理し,今後の課題と利用法について考察を行う.\subsection{問題点と今後の課題}「味覚を表す概念」とラベル付けが可能な同値類として,例えば,類似度の閾値を$0.5$とした場合,(辛い,渋い,苦い)と(甘い)が異なる同値類として結束された.この両者の対立観点は,「手の形」に関する手指動作特徴と捉えることができる.すなわち,「右手の五指を折り曲げる」という手の形と「右手の五指を伸ばした」という手の形の対立である.また,(辛い,甘い)の単語対については,「回転」動作を表す手指動作特徴を共有している.一方,(辛い,渋い,苦い)の単語は,それぞれ,(回転,上下,左右)の動作を表す手指動作特徴の差異が認められる.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bf辛い}]五指を折り曲げた右手を口の前でまわす\item[{\bf渋い}]五指を折り曲げた右手を口の前で二度ほど上下する\item[{\bf苦い}]五指を折り曲げた右手を口の前におき二度ほど左右に動かす\item[{\bf甘い}]掌を口の前にあてて二度ほど回転させる\end{list}\noindentここで,記述文間の差異が類似度の値にどのように影響したかについて分析を行うと,(甘い)の手形を「掌」で表現し,(辛い)に代表される手形を「五指を折り曲げた」で表現しており,この文字列の差異が類似度に反映されている.また,回転動作に対して,(甘い)は「まわす」であり,(辛い)は「回転させる」と表現されている.本来は共通の動作を示すべき表現の差異が類似度の計算に反映されている.一方,「甘い」以外の味覚表現の単語群は,手の形に関する記述文に共通性(五指を折り曲げる)がある.また,「辛い」に対する手話表現を用いる単語見出し(ソース.1,唐辛子.1,こしょう.1)は,表\ref{marge}に示した単語見出し「カレーライス.1」と同様に,事前に同一の手話表現としてマージされるべきものであるが,``表現(表記)のゆれ''により,機械的な文字列照合での一致ができなかった.「赤」や「言う」を用いる単語についても同様である.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bfソース.1}]五指を折り曲げた右手を口の前におきぐるぐる回転させる\item[{\bf唐辛子.1}]五指を折り曲げた右手を口の前で二度ほど回転させる\item[{\bfこしょう.1}]五指を折り曲げた右手を口の前で回転させる\end{list}\noindentこのように,本論文の実験では,市販の手話辞典に記載の記述文をそのまま利用したが,記述文の記述形式を正規化する方法を今後検討したい.その際に,手指動作特徴(手の形,手の位置,手の動き)の各要素に対する記述文中での占める割合を重み付けした類似度を検討する必要があると考える.また,「赤」という属性値を持つ単語集合として結束された同値類の手話単語は,単語間の弁別要素として複合語を構成する他の手話表現を利用しているが,複合語として比較した結果,(遺伝,血液),(火,火曜日),(赤十字,日赤),(恥ずかしい,はにかむ)の単語対は同一の手話表現であった.なお,(火,火曜日)と火事は,弁別要素となる動作表現として,片手と両手で表現する差異が認められる.このように,複合語として表現される手話単語を全体として,その手指動作特徴の類似性を計算する手法についても今後の課題とする.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bf火.2}]掌を上にしてわん曲させた右手を上にひねりながら上にあげていく\item[{\bf火事.2}]掌を向かい合わせてわん曲させた両手を炎のように動かしながら上にあげていく\end{list}\subsection{利用法について}ニュース原稿を手話通訳する現場サイドから,市販の辞書に収録されていない(未定義語としての)手話単語を新たに造語する必要性が指摘されている\cite{Shigaki1991}.その中で,「政党」と「政治団体」は明確に区別して報道する必要がある.そのため,(団体,サークル,集団)を表す手話表現の手指動作特徴の要素である手の形だけを指文字の「と」に変更して手話単語「党(とう)」を造語した事例が報告されている.また,\cite{Tokuda1998}は手話通訳システムにおける問題点の一つである日本語の単語見出しと手話単語の日本語ラベルとのギャップを解消する手話単語辞書の補完方法として,日本語辞書の概念説明文や語釈文から手話辞書に未定義の日本語単語見出しに対応する手話表現を造語(類推)する場合の問題点を指摘している.これは,\ref{hajime}章で述べたように,概念特徴として語釈文などの定義的特徴よりも性格的特徴から,視覚的な「写像」が容易な特徴素を抽出し,手話表現に利用される傾向があることを示している.例えば,「速達」や「日曜日」の手話表現に「赤」の手話表現を用いている.すなわち,``手紙に押される赤いスタンプ''や``カレンダー上で赤い数字で示される''というような性格的特徴に位置付けられる概念特徴に基づき手話単語を造語している.このように,手話単語を手指動作特徴の類似性により分類することは,既に定義されている単語の語構成を明らかにし,未定義語を類推する場合に有効利用できると考える.\cite{Honna1994}が報告しているように,新しく定義された単語と既に定義されている単語との不整合を解消するため,既存の手話単語を変更する必要性が生じる場合がある.その際に,手話単語の造語成分となる手指動作特徴の担う概念の整理と分類は今後,ますます重要になると考える.例えば,本実験に使用した手話辞典では,「赤字」は定義されているが,「黒字」が未定義語である.このような場合に,類義語として「赤字」が検索され,その語構成「赤+記帳する仕草」から「赤」を「黒」に置換することで妥当な手話表現「黒字」\cite{Ito1982}を類推することができると考える.同様な考えから,\cite{Adachi1993}は,辞書に収録(定義)されている手話単語の複合語の造語成分と構成順序に着目した分類を用いて,類義語の造語成分の一部を置換することで未定義語の手話表現を類推する方法を提案している.ここで,造語成分を分析,整理する手がかりとして本手法を有効に利用できると考える.さらに,本手法により得られた推移行列を検索辞書と捉えれば,自然言語で表現された記述文を入力とし,類似の動作特徴を含む単語集合(同値類)を提示する類似検索機構に有効利用できると考える.ここで,類似の動作特徴を含む単語を提示する類似検索の機能は,手話単語を弁別する要素と単語の造語法を理解できるなど,手話の学習効果を高める効果が期待できると考える.この検索方法の検討と実現は今後の重要な検討課題としたい.このように,市販の手話辞典の手指動作記述文間の類似性を計る尺度となる類似度の計算方法の改良や手指動作記述文の正規化など残された課題もあるが,本提案手法により与えられた単語集合を同値類に分割することで,手話単語の造語法の解明と計算機処理に有用な手がかりを比較的容易に抽出、収集することができると考える.また,対象データが市販の手話辞典から収集できることは,データ量の確保が容易であり,複雑なコード体系による表現でなく,自然言語文として表現される点は,人手による編集や分析作業を容易にする可能性が高いと考える. \section{むすび} 本論文では,市販の手話辞典に定義されている手話単語の手指動作記述文間の類似性に着目した手話単語の分類方法を提案した.本手法の特徴は,手指動作記述文間の類似関係を手指動作特徴間の関係とみなし,同値関係に基づき手話単語を同値類に分割する点にある.具体的には,手指動作記述文間の類似度を計算し,手話単語間の類似行列を求める.次に,推移関係式により推移行列を導出し,与えられた手話単語の有限集合を同値関係による同値類に分割する.また,類似度の閾値を段階的に変化させることで,同値関係に基づく単語集合の階層分類が可能であることを示した.実験の結果,類似の手指動作特徴により結束された同値類を抽出し,手指動作特徴の類似性と手話単語の造語法との関係を解明する手がかりを示す結果が得られた.手話を対象とした自然言語処理システムにおいて,手指動作特徴に基づく手話単語の検索機能の実現は不可欠な要素技術の一つであり,同値関係に基づく推移行列を検索辞書と捉えた,手話単語の類似検索方法の検討が今後の重要な課題である.\acknowledgment本研究を進めるにあたり,有益なご示唆,ご討論を頂いた宇都宮大学鎌田一雄教授,熊谷毅助教授に心より感謝する.また,データ整理,実験等に協力頂いた研究室の学生諸氏に感謝する.なお,本研究の一部は文部省科研費,厚生省科研費,実吉奨学会,電気通信普及財団,放送文化基金,トヨタ自動車,栢森情報科学振興財団,大川情報通信基金の援助によった.\bibliographystyle{jnlpbbl}\bibliography{B}\begin{biography}\biotitle{略歴}\bioauthor{安達久博}{1981年宇都宮大学工学部情報工学科卒業.1983年同大学院工学研究科修士課程修了.同年,東京芝浦電気株式会社(現.(株)東芝)入社.同社総合研究所情報システム研究所に所属.この間,(株)日本電子化辞書研究所(EDR)に4年間出向.1992年より宇都宮大学工学部助手.現在,聴覚障害者の情報獲得を支援する手話通訳システムに関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,計量国語学会,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V09N02-03
\section{はじめに} 本論文では,コーパスから事象間の関係を抽出する問題において,事象間の一対多関係を推定する問題を取り上げた.コーパスから事象間の関係を推定する場合,それらの事象は共起出現することに基づく推定を行うことが多い.しかし,そこで用いられている手法は暗黙のうちに,推定する関係が一対一関係であると想定しているものがほとんどである.しかし抽出すべき事象間の関係は一対一関係であるとは限らず,あらかじめ関係が一対多関係であることがわかっている場合もある.このような場合,これまでの一対一関係を前提とした手法が有効であるかどうかは明らかではない.一方,データベースにおいて連想規則を抽出する問題において,その規則が表す事象間の関係が一対多関係であることを考慮した手法が用いられている\cite{Agrawal96}.しかし,この手法がコーパスから事象間の関係を推定する問題に効果的であるかどうかは明らかではない.ここで,事象間の関係が一対多関係である場合,それらの事象が持つ出現パターン間の関係は一致ではなく,包含関係であることが観測される.そこで,本論文では,出現パターンの包含関係に強いとされる類似尺度を探し,この条件にあてはまる類似尺度として,文字認識の分野で提案されている補完類似度\cite{Hagita95}に着目した.そして,この類似尺度をコーパスから事象間の一対多関係を抽出する問題に適用し,その有効性を評価する.さらに,評価実験を通して,これまでにコーパスから事象間の関係を推定することに用いられている類似度やデータベースにおいて連想規則を発見することに用いられる尺度と,補完類似度との間で性能の比較を行う.これまでに用いられている類似尺度として,平均相互情報量,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数を選んだ.これらは関係の抽出に用いられる代表的な類似尺度である.また,一対多関係を推定する問題において,非対称性を持つ尺度と対称性を持つ尺度との性能差を測るために,平均相互情報量を改良し,非対称性を持たせた非対称平均相互情報量を定義し,比較対象とする尺度に加えた.実験対象となる事象としては地名(都道府県市郡名)を選んだ.地名は実世界において一対多関係を持つ事象である.実験は,人工的に生成したデータ集合と実データに対して行った.人工的に生成したデータ集合は実在する地名の一対多関係から擬似的に関係を取り出し,それをデータとして生成したデータ集合である.このデータ集合において,現存する一対多関係を再現する能力を測定した.実データを用いた実験では,実際の新聞記事における地名の出現パターンから現存する一対多関係を推定する能力を測定した.これらの実験の結果において,補完類似度はこれまでのコーパスからの関係抽出に用いられてきた類似尺度よりも優れ,連想規則の抽出に用いられる類似尺度よりもよい特性を示した.この論文は以下のような構成になっている.まず2節に,一対多関係を推定する問題を定義するために必要な要素を定義する.次に3節では,評価対象とする類似尺度の概要と,補完類似度,これと比較対象となる尺度,平均相互情報量,自己相互情報量,非対称平均相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度を示す.4節では,実験の概要と,モデルに従って生成された人工的なデータにおける実験,実データを用いた実験を示す.5節で考察し,6節で関連研究を示す.最後に7節でまとめる. \section{問題定義} この節では,本論文で扱う問題についての定義を示す.扱う事象は事柄を表す名前(ラベル)とする.ここでは,ラベル間には隠れた関係があり,ラベルの集合からその関係を推定するという問題を定義する.\begin{df}ラベルの定義ラベル$l$は関係を定める対象であり,あるラベルと他のラベルが同一であるかないかを判定できる事柄を表す名前である.本論文では,ラベルの集合を$L$と表す.\begin{eqnarray*}L&=&\{l|lはラベル\}\end{eqnarray*}\end{df}\begin{ex}ラベル集合$L$の例\begin{eqnarray*}L_{example}&=&\{北海道,沖縄県,札幌市,那覇市,釧路市,東京都\}\end{eqnarray*}\end{ex}\begin{df}一対多関係の定義一対多関係$\langlex,y\rangle$はラベル間で定義される関係である.一対多関係においては,次の二つの式が成り立つ.\begin{eqnarray*}&&{}^{\forall}a\inL;{}^{\forall}b\inL;{}^{\forall}c\inL;\langlea,c\rangle\wedge\langleb,c\rangle\rightarrowa=b\\&&{}^{\exists}a\inL;{}^{\exists}b\inL;{}^{\exists}c\inL;\langlea,b\rangle\wedge\langlea,c\rangle\wedgeb\neqc\end{eqnarray*}最初の定義は,関係の右のラベルが等しい場合には関係の左のラベルも等しいことを意味している.二番目の定義は,この関係には一対一ではないラベルが存在するということを意味している.これらの定義が成立する式の集合を$R$と定義し,関係集合と呼ぶことにする.\begin{eqnarray*}R&=&\{\langlel_c,l_p\rangle|l_c,l_p\inL\}\\\end{eqnarray*}\end{df}\begin{ex}関係集合$R$の例\begin{eqnarray*}R_{example}&=&\{\langle北海道,札幌市\rangle,\langle北海道,釧路市\rangle,\langle沖縄県,那覇市\rangle\}\end{eqnarray*}\end{ex}\begin{df}雑音のないデータ集合の定義ラベル集合$L$があり,関係集合$R$があるとする.このとき,ラベル集合の部分集合$d$があり,この$d$で構成される集合が観測できるデータ集合$D$であると考える.ここで,$2^L$はLのべき集合を表す.このとき,観測できるデータ集合$D$は次のように定義できる.\begin{eqnarray*}D&=&\{d|d\in2^L\wedge{}^{\forall}l\ind;{}^{\exists}\langlel_c,l_p\rangle\inR;((l=l_c\wedgel_p\ind)\vee(l=l_p\wedgel_c\ind))\}\end{eqnarray*}この式は,観測できるそれぞれの$d$にあるラベルはある関係集合の要素から対で取り出されたラベルで,必ず関係の相手であるラベルも$d$にあるということを意味している.\label{no-noise}\end{df}\begin{ex}雑音のないデータ集合の例\begin{eqnarray*}L_{example}&=&\{北海道,沖縄県,札幌市,那覇市,釧路市,東京都\}\\R_{example}&=&\{\langle北海道,札幌市\rangle,\langle北海道,釧路市\rangle,\langle沖縄県,那覇市\rangle\}\\&&のとき,\\D_{example}&=&\{\{沖縄県,那覇市\},\{北海道,札幌市,釧路市\},\\&&~\{北海道,札幌市,沖縄県,那覇市\}\}\end{eqnarray*}\end{ex}\begin{df}出現パターンの包含関係の定義ここで,ラベルを引数とする関数$\tilde{D}$を定義する.この関数は与えられたラベルを含むデータ集合$D$の要素$d$を返す関数である.\begin{eqnarray*}\tilde{D}(l)&=&\{d|l\ind\}\end{eqnarray*}この関数を使うと,あるラベル$l_c$の出現パターンが他のラベル$l_p$の出現パターンを包含することを次のように定義できる.\begin{eqnarray*}\tilde{D}(l_p)\subseteq\tilde{D}(l_c)\end{eqnarray*}\end{df}また,関係集合$R$において,左のラベル$l_c$の集合を$L_c$,右のラベル$l_p$の集合を$L_p$としたとき,関係が一対多関係であるならば,次の式が成り立つ.\begin{eqnarray*}&&L_c\capL_p=\phiならば,{}^{\forall}\langlel_c,l_p\rangle\inR;\tilde{D}(l_p)\subseteq\tilde{D}(l_c)\end{eqnarray*}言い換えると,この状況において関係集合が一対多関係であることは,すべての関係について,左のラベル$l_c$の出現パターンは右のラベル$l_p$の出現パターンを包含するという関係になるということである.\begin{df}雑音のないデータ集合から関係を推定する問題雑音のない集合から関係集合を推定する問題は,ラベル集合$L$と観測できるデータ集合$D$から関係集合$R$を求めることである.ここで,求められた集合を$\hat{R}$と記述することにする.$\hat{R}$を得たとしても,その要素である関係が実際に成り立っているかを簡単には決定できないため,この問題を厳密に解くことは難しい.実際には,$\hat{R}$にあるラベル間の関係$\langlel_c,l_p\rangle$が真実の関係集合$R$に含まれるかどうかを判定することによって推定を行う.そして,$\hat{R}$の要素が$R$の要素である確率が高いほどよい推定と考える.\end{df}\begin{df}雑音のあるデータ集合の定義\label{with-noise}実世界のデータベースの多くは「雑音のあるデータ集合」である.雑音$d_N$のあるデータ集合$D^*$は,雑音のないデータ集合$D$を構成する各集合$d$に,$d$に含まれているどのラベルとの間においても,関係集合$R$にある関係が成り立たないラベルを追加した集合$d^*$の集合と考える.すなわち,雑音$d_N$は,$d$に含まれるどのラベルとの間にも正解集合$R$にある関係が成り立たないラベル$l_N$を持つ集合である.ここで,$2^L$は$L$のべき集合を表す.このとき,観測できるデータ集合$D^*$は次のように定義できる.\begin{eqnarray*}D^*&=&\{d^*|{}^{\exists}d_N\in2^L;{}^\existsd\inD;{}^\foralll_N\ind_N;{}^\foralll\ind;\\&&\,\,\,\,\langlel_N,l\rangle\not\inR\wedge\langlel,l_N\rangle\not\inR\wedged^*=d\cupd_N\wedge|d|\gg|d_N|\}\end{eqnarray*}\end{df}\begin{ex}雑音のあるデータ集合の例\begin{eqnarray*}L_{example}&=&\{北海道,沖縄県,札幌市,那覇市,釧路市,東京都\},\\R_{example}&=&\{\langle北海道,札幌市\rangle,\langle北海道,釧路市\rangle,\langle沖縄県,那覇市\rangle\},\\D_{example}&=&\{\{沖縄県,那覇市\},\{北海道,札幌市,釧路市\},\\&&~\{北海道,札幌市,沖縄県,那覇市\}\}\\のとき,&&\\D^*_{example}&=&\{\{沖縄県,那覇市,札幌市\},\\&&~\{北海道,札幌市,釧路市,東京都,那覇市\},\\&&~\{北海道,札幌市,沖縄県,那覇市,東京都\}\}\end{eqnarray*}\end{ex}\begin{df}雑音のあるデータ集合から関係を推定する問題雑音のある集合から関係を推定する問題は,ラベル集合$L$と雑音のあるデータ集合$D^*$から$R$を求めることである.対象とするデータ集合に雑音があるため,関係の推定は難しくなっている.この問題についても,求められた関係集合の要素が関係集合$R$の要素である確率で評価を行う.\end{df}\vspace{2zw}\begin{df}多重度の定義ここで,データ集合が持つ関係の特性を表すため,多重度を定義する.多重度はデータ集合から得られた正解である関係$\langlel_c,l_p\rangle$に関して,一つのラベル$l_c$は平均的にいくつのラベル$l_p$と関係を持つかを表す一対多の比率である.与えられたデータ集合を$D$とする.$D$から求められる関係集合$R^+$を以下のように定義する.\begin{eqnarray*}R^+&=&\{\langlel_c,l_p\rangle|{}^\existsd\inD;l_c\ind\wedgel_p\ind\wedge\langlel_c,l_p\rangle\inR\}\end{eqnarray*}同様に,$D$から求められる$L_c$を以下のように定義する.\begin{eqnarray*}L_c^+&=&\{l_c|{}^\existsd\inD;{}^\existsl_p\ind;\langlel_c,l_p\rangle\inR\}\end{eqnarray*}このとき,$D$が持つ多重度$M$は次のように定義できる.\begin{eqnarray*}M(D)&=&\frac{|R^+|}{|L_c^+|}\end{eqnarray*}\label{multi}\end{df}\begin{ex}多重度の例\begin{eqnarray*}D^*_{example}&=&\{\{沖縄県,那覇市,札幌市\},\\&&~\{北海道,札幌市,釧路市,東京都,那覇市\},\\&&~\{北海道,札幌市,沖縄県,那覇市,東京都\}\}\\のとき,&&\\M(D^*_{example})&=&\frac{|\{\langle沖縄県,那覇市\rangle,\langle北海道,札幌市\rangle,\langle北海道,釧路市\rangle\}|}{|\{北海道,沖縄県\}|}\\&=&1.5\end{eqnarray*}\end{ex}通常,これらの関係を推定する際には,一対多関係にある$l_c,l_p$の間の何らかの形をした類似尺度を用いる.既存の多くの方法では,類似尺度が$l_p$と$l_c$に対して対称であることが多い.これは,これらの方法が$\tilde{D}(l_p)\simeq\tilde{D}(l_c)$であることを暗黙のうちに仮定していると解釈することができる.これに対して,本論文では,実際に$\tilde{D}(l_p)\subseteq\tilde{D}(l_c)$となる問題における一対多関係の推定に注目した. \section{評価対象となる類似尺度} 本論文では,さまざまな類似尺度について一対多関係を推定する問題における性能を比較する.比較においては,類似尺度が利用する情報を基本的な情報にそろえ,利用する情報に影響を受けないようにし,公正な比較となるようにしたい.そこで,本論文で扱う類似尺度は下記に示すパラメータ$a,b,c,d$で利用できる情報をもとに計算できる類似尺度とした.実際に使用されている類似尺度の多くはこの$a,b,c,d$から計算される.次にこれらのパラメータの定義を示す.このパラメータによって,本論文で扱う類似尺度は表現される.\newpage\begin{df}パラメータ\label{para}ラベル$lab_1,lab_2$に対する二値パターンをそれぞれ二値n次元のベクトル$\vec{F}=(f_1,f_2,$$...,f_i,...,f_n)(f_i=0または1),$$\vec{T}=(t_1,t_2,...,t_i,...,t_n)(t_i=0または1)$とする.このとき,$\vec{F}$が$\vec{T}$にどれだけ類似しているかを以下のパラメータを用いて推定する.ただし,$n=a+b+c+d$である.\begin{eqnarray}a&=&\sum_{i=1}^nf_it_i\label{csm_a}\\b&=&\sum_{i=1}^nf_i(1-t_i)\label{csm_b}\\c&=&\sum_{i=1}^n(1-f_i)t_i\label{csm_c}\\d&=&\sum_{i=1}^n(1-f_i)(1-t_i)\label{csm_d}\end{eqnarray}\end{df}それぞれのパラメータは,\begin{itemize}\itema:二つのラベルが同時に現れるデータの数,\itemb:$lab_1$が現れ,$lab_2$は現れないデータの数,\itemc:$lab_2$が現れ,$lab_1$は現れないデータの数,\itemd:二つのラベルがどちらとも現れないデータの数\end{itemize}を表す.これらのパラメータを情報としてとらえると,$a,d$は二つの出現パターンがどれだけ一致しているかを見るための情報となり,$b,c$は二つの出現パターンがどれだけ一致しないかを見るための情報となる.実験では,これらの情報から出現パターン間の類似度を計算し,その類似度が高ければ,二つの出現パターンは包含関係ではないかと推定する.このとき用いる類似尺度は,$\langlelab_1,lab_2\rangle$が関係集合$R$の要素である場合,高いスコアを与える関数であるとする.また,対称性を持つ類似尺度の場合,包含するラベルであるかそれとも包含されるラベルであるかを判断することができないため,本論文では,対称性を持つ類似尺度の場合は,出現回数の多いラベルを包含するラベルとして出現パターンの包含関係を推定した.本論文では,一対多関係を推定する問題において,文字認識の分野で提案されている補完類似度に注目し,これとこれまでに提案されている類似尺度の性能を比較する.\subsection{補完類似度}この節では,補完類似度\cite{Hagita95,Sawaki95a,Sawaki95b}について説明する.本来,補完類似度は文字認識の分野のもので,劣化印刷文字を高い精度で認識できるように考案された類似度である.劣化印刷文字とは,かすれていたり汚れている文字のことである.補完類似度を用いた文字認識方法を補完類似度法といい,これは文字を二値画像特徴として扱い,補完類似度を用いて,そのパターンとテンプレートとする文字のパターンとの類似度を計算し,文字を認識する方法である.この手法は,汚れた文字においては人間による文字認識と同等の精度を持ち,かすれた文字においては人間による文字認識よりも高い精度を持つ\cite{Sawaki95a}.この結果は,補完類似度が劣化印刷文字のパターンがテンプレート文字のパターンに包含される形にあるのであれば,文字であると認識できるように,高い類似度を保持する特徴を持つためである.本論文で扱う出現パターンは頻度情報を考慮しない二値パターンであるため,仮にこれを文字のパターンと置き換えたとすれば,二つのラベルの出現パターンが異なる部分はかすれや汚れと解釈することができる.以下に補完類似度の定義,性質をそれぞれ示す.\subsubsection{補完類似度の定義}この節では,補完類似度(ComplementarySimilarityMeasure)の定義を示す.定義\ref{para}のパラメータを用いて,$\vec{F}$の$\vec{T}$に対する補完類似度を次のように定義する.この定義は文献\cite{Hagita95,Sawaki95a,Sawaki95b}に示されている定義である.\begin{df}補完類似度\begin{eqnarray}S_c(\vec{F},\vec{T})&=&\frac{ad-bc}{\sqrt{(a+c)(b+d)}}\label{csm}\end{eqnarray}\end{df}この定義式から,補完類似度はパラメータ$a,b,c,d$で表す出現情報をすべて考慮した類似尺度である.\subsubsection{補完類似度の性質}文字認識に限らず,二つのパターンの類似度を求める場合,二つのパターンの一致している部分だけに注目した類似尺度が用いられることが多い.これらの類似尺度は二つのパターンをを入れ換えても同じ値を持つ.この性質を持つ類似尺度は対称性を持っているといわれる.一方,補完類似度では分子にパラメータ$b,c$を用いて二つのパターンの相違を考慮した形の定義式となっている.補完類似度の定義式(\ref{csm})に含まれる項$bc$は,$\vec{F}$が$\vec{T}$を完全に包含するなら$c=0$となるため,0となり,また反対に,$\vec{T}$が$\vec{F}$を完全に包含するなら$b=0$となるため,この場合も0となる.このような場合,補完類似度では定義式の分子が一致情報($ad$)と不一致情報($bc$)の差分をとる形であるため,包含関係を持つパターン対に対して高い類似度を保持する.また,補完類似度は,二つのパターンを入れ替えると値が変わる.このため,補完類似度は非対称性を持つ.\subsection{相互情報量}相互情報量(MutualInformation)は二つの確率変数の依存性を表す尺度として一般的に知られており,多くの処理に適用されている\cite{Nagao96,Manning99,Matsumoto00}.この節では,相互情報量の一般的な定義式を示し\cite{Honda65,Nakagawa92},その後,定義\ref{para}のパラメータを用いて定義式を表現し直す.二つの確率変数$X,Y$について平均相互情報量$I(X;Y)$の定義式を示す.$X$は$x_1,x_2,...,x_n$をとり,$Y$は$y_1,y_2,...,y_m$をとるとしたとき,平均相互情報量は次式で表される.ただし,$p(x_i,y_j)$は$X$が$x_i$を,$Y$が$y_j$を同時にとる確率である.\begin{eqnarray}\mbox{\hspace*{-2em}}I(X;Y)&=&\sum_{i=1}^n\sum_{j=1}^mp(x_i,y_j){\log}\frac{p(x_i,y_j)}{p(x_i)p(y_j)}\label{mi-gen}\\\mbox{\hspace*{-2em}}&=&p(x_1,y_1){\log}\frac{p(x_1,y_1)}{p(x_1)p(y_1)}+p(x_1,y_2){\log}\frac{p(x_1,y_2)}{p(x_1)p(y_2)}\nonumber\\\mbox{\hspace*{-2em}}&+&p(x_2,y_1){\log}\frac{p(x_2,y_1)}{p(x_2)p(y_1)}+p(x_2,y_2){\log}\frac{p(x_2,y_2)}{p(x_2)p(y_2)}\label{mi-parts}\end{eqnarray}次に,この定義式をパラメータを用いた表現に直すために,確率変数$X,Y$はそれぞれラベル$lab_1,lab_2$を表すとする.このとき,ラベルの出現パターンは二値パターンであるため,事象はデータにラベルが出現するか出現しないかのどちらかとなり,データ集合に対して,\begin{itemize}\item$p(x_1)$はデータにラベル$lab_1$が出現する確率,\item$p(x_2)$はデータにラベル$lab_1$が出現しない確率,\item$p(y_1)$はデータにラベル$lab_2$が出現する確率,\item$p(y_2)$はデータにラベル$lab_2$が出現しない確率\end{itemize}となる.これらの確率を言い換えると,データ集合に対する各事象を出現するデータの割合である.したがって,ラベル$X$に対するベクトルを$\vec{F}$,ラベル$Y$に対するベクトルを$\vec{T}$とし,定義\ref{para}のパラメータを用いると,式(\ref{mi-gen})は次のように表現できる.\begin{df}平均相互情報量\mbox{\hspace*{-2em}}\begin{eqnarray}I(X;Y)&=&\frac{a}{n}{\log}\frac{an}{(a+b)(a+c)}+\frac{b}{n}{\log}\frac{bn}{(a+b)(b+d)}\nonumber\\&+&\frac{c}{n}{\log}\frac{cn}{(c+d)(a+c)}+\frac{d}{n}{\log}\frac{dn}{(c+d)(b+d)}\label{mi}\end{eqnarray}\end{df}実験では,式(\ref{mi})を用いて平均相互情報量を計算した.この定義式から,平均相互情報量は出現情報をすべて考慮した類似尺度である.また,平均相互情報量は対称性を持つ.一方,平均相互情報量の第一項に基づく尺度が関連性の高い単語対を発見するために多く提案されている\cite{Church90,Rosenfeld96,Kita99}.この尺度は,ある単語が現れることによる情報量が他の単語と共起することを知ることによって増加する情報量を測る尺度である.これらの尺度における基本的な定義式を次に示す\cite{Church90}.本論文では,この尺度を自己相互情報量と呼ぶことにする.\begin{df}自己相互情報量\begin{equation}I(x_1;y_1)=\log\frac{an}{(a+b)(a+c)}\label{p-mi}\end{equation}\end{df}この定義式から,自己相互情報量は出現情報のうちどちらとも出現しないという情報を考慮せず,共起するという情報を中心とした類似尺度である.また,この尺度は対称性を持つ尺度である.本論文では,この自己相互情報量も比較対象として加えることにした.上記の相互情報量は対称性を持つ尺度であるが,事象間の関係が一対多関係である場合,それらの事象が持つ出現パターン間の関係は包含関係にあるということが観察されるため,平均相互情報量の第一項と第三項に基づく非対称な尺度も考えられる.第一項は共起出現することによって増加する情報量を表し,第三項はラベル$X$は出現しないとき,ラベル$Y$が出現することを知ることによって増加する情報量である.本論文では,この尺度を非対称平均相互情報量と呼ぶことにする.\begin{df}非対称平均相互情報量\begin{equation}I_{ac}(X;Y)=\frac{a}{n}{\log}\frac{an}{(a+b)(a+c)}+\frac{c}{n}{\log}\frac{cn}{(c+d)(a+c)}\label{ac-mi}\end{equation}\end{df}この定義式から,非対称平均相互情報量はパラメータ$c$が大きいと,類似度が低くなり,逆に$c$が小さいと,類似度が高くなるという性質を持つ.つまり,$c=0$の場合,高い類似度を保持する.本論文では,この非対称平均相互情報量も比較対象として加え,出現パターンの包含関係をとらえるために,非対称性は重要な性質であるかどうかを検討する.\subsection{$\phi$相関係数}統計処理に用いられる相関係数は,二値データのときに$\phi$相関係数(PhiCoefficient)となる\cite{TU-class94}.この関数は事象の独立性を検定するために用いられる$\chi^2$統計量から計算される事象間の共起の強さを測る尺度である\cite{TU-class94,Manning99}.この節では,$\phi$相関係数の定義を示す.二つの質量変数を$D,E$とし,データとして$(D_1,E_1),...,(D_n,E_n)$が与えられたとする.これらを定義\ref{para}のパラメータを用いて表現する.ただし,$\phi$相関係数は二値データの場合用いられる相関係数であるので,データは$(1,1),(1,0),(0,1),(0,0)$の四つである.このとき,$D$と$E$の$\phi$相関係数は次のように与えられる.\begin{df}$\phi$相関係数\begin{equation}\gamma_{DE}=\frac{ad-bc}{\sqrt{(a+b)(a+c)(b+d)(c+d)}}\label{phi}\end{equation}\end{df}この定義式から,$\phi$相関係数は出現情報をすべて考慮した類似尺度である.この尺度は対称性を持つ尺度である.ここで,$D_i$の列をベクトル$\vec{F}$,$E_i$の列をベクトル$\vec{T}$と置き換えると,この定義式の分子は補完類似度の定義式(\ref{csm})と同じである.また,分母を比較すると,補完類似度は$\phi$相関係数の分母から$\sqrt{(a+b)(c+d)}$を取り除いたものであることがわかる.本論文では,この違いが一対多関係の推定にどのように影響するのかを観察する.\subsection{ベクトル空間モデルにおける類似尺度}単語間の関係または単語と文書間の関係を推定するために,ベクトル空間モデルを利用する場合がある.これは,単語を多次元空間にベクトルで表現し,ベクトル間の類似度を測ることによって関係を推定する.ベクトル空間モデルにおける類似尺度はこれまでに多く提案されている\cite{Manning99}.本論文では,代表的なコサイン関数(Cosine),ダイス相関係数(DiceCoefficient)を選び,一対多関係の推定において性能を比較した.それぞれの尺度の定義式とその定義式をパラメータを用いて表現した式を次に示す.ここで,$F,T$はそれぞれ$lab_1,lab_2$に対するベクトルとする.\begin{df}コサイン関数\begin{eqnarray}cos(F,T)&=&\frac{|F\capT|}{\sqrt{|F|\cdot|T|}}\nonumber\\&=&\frac{a}{\sqrt{(a+b)(a+c)}}\end{eqnarray}\end{df}コサイン関数はベクトル空間における類似尺度のなかでもっとも知られている類似尺度である.しかし,この尺度は二つのベクトルの大きさが非常に異なる場合でもある程度高い類似度を与えてしまう.\begin{df}ダイス相関係数\begin{eqnarray}S_d(F,T)&=&\frac{2|F\capT|}{|F|+|T|}\nonumber\\&=&\frac{2a}{(a+b)+(a+c)}\end{eqnarray}\end{df}ダイス相関係数はコサイン関数が持つ問題点を軽減するために,正規化を施した類似尺度である.これらの定義式から,コサイン関数とダイス相関係数は出現情報のうちどちらとも出現しないという情報を考慮せず,共起するという情報を中心とした類似尺度である.また,これらの尺度は対称性を持つ尺度である.\subsection{信頼度}これまでに,データベースの中から連想規則を抽出する問題に関する研究が多くされている\cite{Adriaans96,Dzeroski96,Fayyad96a,Fayyad96b}.たとえば,連想規則を高速に発見する手法として{\itApriori}アルゴリズムが提案されている\cite{Agrawal96}.この手法には,データベースからの情報抽出において,重要な尺度とされている支持率(Support)と信頼度(Confidence)に基づく尺度が用いられている.ここで,支持率はデータベースにおいて注目した事象を含むデータの割合であり,信頼度は前提を満たすデータの集合において帰結も含むデータの割合である.言い換えると,信頼度は支持率によって表現できる条件付き確率である.{\itApriori}では,支持率を用いて信頼度を計算し,ユーザが指定した信頼度の下限値($minconf$)よりもその信頼度が高い場合,``面白い''連想規則としている.次に定義式を示す.\begin{eqnarray*}\frac{support(XY)}{support(X)}&\geq&minconf\end{eqnarray*}$support(XY)$は$X$(前提)と$Y$(帰結)のどちらともが現れるデータの支持率,$support(X)$は$X$(前提)が現れるデータの支持率である.この式の左辺で求められる値が信頼度であり,これは前提$X$が現われるという条件のもとで帰結$Y$が現われるという条件付き確率である.本論文ではこれを単に信頼度と呼ぶこととする.この左辺を定義\ref{para}のパラメータを用いて表現すると,$support(XY)$は$a/n$,$support(X)$は$(a+c)/n$と書くことができるので,信頼度は次のように表現することができる.\begin{df}信頼度\begin{equation}conf(Y|X)=\frac{a}{a+c}\end{equation}\end{df}この定義式から,信頼度は一方の出現情報だけを考慮するので,非対称性を持つ尺度である.信頼度で使用されているパラメータは$a,c$であるが,これは出現頻度の小さいラベルを含むデータだけから計算でき,それ以外のデータに関する情報を利用しない類似尺度である.本論文では,信頼度はデータベースにおける連想規則を得るための基本的な尺度とされているため,比較対象に加えた. \section{評価実験} \subsection{概要}本論文では,注目するラベルとして日本の地名を選んで,実験を行った.地名を選択した一つ目の理由は,地名間には実際に一対多関係が成り立つためである.たとえば,県名と市名には地理的な包含関係があり,地名間の関係は一対多関係である.また,二つ目の理由は,この関係は電話帳や地図,ポスタルガイドなどの既存データから抽出できるため,機械的に正解判定を行うことができることである.これらの理由から,注目するラベルを日本の地名,その地名間において推定する一対多関係を地理的な包含関係とし,正解関係はポスタルガイドから抽出した.正解とした地名の一対多関係は二つの地名について,一方の地名がもう一方の地名を地理的に包含する関係とした.たとえば,大阪府は大阪市を地理的に包含するので,「大阪府,大阪市」は一対多関係があるとする.このように,一方の地名が都道府県名,もう一方の地名がそれに続く市郡名である場合,それらの地名には一対多関係があるとし,この一対多関係を正解関係として一つの関係を抽出した.以上のことより,本論文では,地名(都道府県市郡名)をラベル集合$L$,抽出した1239個の一対多関係を正解集合$R$とした.実験では,データ集合に現れる地名を組み合わせてできるすべての組について,出現パターンの類似度を測ることによって,その組が一対多関係であるかを推定する.そして,組を類似度の降順にソートし,実験結果とする.最後に,上位$m$(任意の数)組を評価の対象となる組とし,その組について正解判定を行い,再現率で性能を評価する.次に再現率の定義を示す.\begin{eqnarray*}再現率&=&\frac{評価対象とした組のうち正解した数}{全正解数}\end{eqnarray*}また,データ集合が持つ関係の特性を見るため,多重度についても考察する.\subsection{人工的に生成したデータ集合を用いた実験}\label{art-data}この節では,モデルに従ったデータを用いて,八つの類似尺度の振る舞いを観察する.ここで用いたモデルは,雑音のないデータモデルと,雑音のあるデータモデルである.実験において,生成するデータ集合の大きさを無限に大きくすることはできない.そこで,生成するデータ集合の大きさを1000個としたが,その数が全正解数1239よりも小さいため,全く使用されない正解もある.したがって,どんな手法を用いても欠けている情報を復元することはできないので,再現率は$1$にならないことになる.各地名の出現パターンは1000次元のベクトルで表され,各次元に対応するデータにある地名が出現するのであれば1,そうでなければ0が割り当てられたその地名についての二値ベクトルである.この実験における評価方法は,評価の対象となる組を500組ずつ増やしたときの再現率をグラフにし,性能を評価する.また,評価の対象となった組から,特徴的ないくつかの組を取り出し,それらの組に対して各尺度が与えた順位と類似度について考察する.\subsubsection{雑音のないデータ集合を用いた実験}\label{sec:without}この節では,雑音のないデータ集合に対する類似尺度の振る舞いを観察する.雑音のないデータ集合$D_a$は定義\ref{no-noise}に沿って,ラベル集合$L$と正解関係を要素とする関係集合$R$から作成した.アルゴリズムを図\ref{algo:art_data}に示す.\begin{figure}[hpbt]{\small\begin{quote}\hspace*{2em}$begin$\\\hspace*{2em}$D_a:=\phi;~~i:=0;$\\\hspace*{2em}$while~~i~<~1000~~do$\\\hspace*{2em}$\mbox{\hspace*{2em}}begin$\\\hspace*{2em}$\mbox{\hspace*{2em}}j:=0;~~d_i:=\phi;$\\\hspace*{2em}$\mbox{\hspace*{2em}}while~~j~<~2~~do$\\\hspace*{2em}$\mbox{\hspace*{4em}}begin$\\\hspace*{2em}\hspace*{4em}$R$からランダムに$\langlel^j_c,l^j_p\rangle$を取り出す;\\\hspace*{2em}$\mbox{\hspace*{4em}}d_i:=d_i\cup\{l_c^j,l_p^j\};$\\\hspace*{2em}$\mbox{\hspace*{4em}}j:=j+1$\\\hspace*{2em}$\mbox{\hspace*{4em}}end;$\\\hspace*{2em}$\mbox{\hspace*{2em}}D_a:=D_a\cup\{d_i\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}i:=i+1$\\\hspace*{2em}$\mbox{\hspace*{2em}}end$\\\hspace*{2em}$end;$\end{quote}}\caption{雑音のないデータ集合を作成するアルゴリズム}\label{algo:art_data}\end{figure}このアルゴリズムに沿って作成したデータ集合の要素であるデータはたとえば,$d_i=\{静岡県,清水市,神奈川県,横浜市\}$というデータである.これは,正解である関係集合$R$から$\langle静岡県,清水市\rangle$と$\langle神奈川県,横浜市\rangle$の二つを取り出し,その四つのラベルを要素として作成した集合である.要素数を4とした理由は,4未満であると問題が簡単すぎるので,4が意味のある最低の数と考えたためである.このように作成したデータ$d_i$を1000個持つデータ集合$D_a$を作成した.このデータ集合は雑音のないデータ集合である.これを用いて実験を行った.実験結果を図\ref{graph:art_data}に示す.この四つのグラフはそれぞれ同じ方法で作成した異なるデータ集合に用いて実験を行った結果である.\begin{figure}[bhpt]\atari(141.8,100)\caption{雑音のないデータ集合における実験}\label{graph:art_data}\end{figure}\begin{table}[thbp]\centering\caption{雑音のないデータ集合における順位と類似度の例}\label{without-comp}\begin{tabular}{|c||r|r|r|r|r|r|}\hline組&$\alpha$&$\beta$&$\gamma$&$\delta$&$\epsilon$&$\zeta$\\\hline\hline正解判定&不正解&不正解&不正解&正解&正解&正解\\\hline$a$&1&1&1&1&4&6\\\hline$b$&0&1&7&49&46&23\\\hline$c$&0&1&3&0&2&0\\\hline$d$&999&997&989&950&948&971\\\hline{\small補完類似度}&625&1770&3247&1362&269&3\\{\small}&(31.607)&(31.544)&(15.336)&(300.57)&(47.911)&(75.440)\\\hline{\small平均相互情報量}&281&950&2327&2020&224&2\\{\small}&(0.0114)&(0.0074)&(0.0038)&(0.0043)&(0.0121)&(0.0316)\\\hline{\small自己相互情報量}&18&334&1288&1779&2437&1176\\{\small}&(9.9658)&(7.9658)&(4.9658)&(4.3219)&(3.7370)&(5.1078)\\\hline{\small非対称平均相互情報量}&349&965&2327&2017&246&2\\{\small}&(0.0100)&(0.0070)&(0.0038)&(0.0043)&(0.0119)&(0.0306)\\\hline{\small$\phi$相関係数}&18&352&1715&2038&1321&406\\{\small}&(1.0000)&(0.4990)&(0.1722)&(0.1379)&(0.2198)&(0.4496)\\\hline{\smallコサイン関数}&18&334&1708&2040&1284&406\\{\small}&(1.0000)&(0.5000)&(0.1768)&(0.1414)&(0.2309)&(0.4549)\\\hline{\smallダイス相関係数}&18&271&1101&3029&1158&559\\{\small}&(1.0000)&(0.5000)&(0.1667)&(0.0392)&(0.1429)&(0.3429)\\\hline{\small信頼度}&18&2314&3439&1280&1684&1009\\{\small}&(1.0000)&(0.5000)&(0.2500)&(1.0000)&(0.6667)&(1.0000)\\\hline\end{tabular}\end{table}これらのグラフは,上位の組の数を横軸,そのときの再現率を縦軸とする.また,このデータ集合における再現率は約$0.8$で収束する.これは,$D$のなかに含まれていない正解があることを示している.このグラフでは,上位に位置する組において,補完類似度の再現率の高さが目立ち,また補完類似度がもっとも早く収束している.すべてのグラフにおいて,補完類似度に続き,信頼度,非対称平均相互情報量,平均相互情報量が高い性能を示している.言い換えると,これらのグラフは雑音のないデータ集合を用いた実験において,補完類似度がもっとも一対多関係を推定する能力が高く,次に信頼度,非対称平均相互情報量,平均相互情報量の順に高いことを表している.この結果はすべてのグラフにおいて同じ結果を得ている.また,非対称平均相互情報量は平均相互情報量と比べ,一対多関係を推定する能力が高いことを表しているが,有意な差を見ることはできなかった.しかし,このことから,非対称性は一対多関係を推定するために有効な性質の一つと考えられるが,補完類似度と非対称平均相互情報量の性能差を見ると,非対称性を持つだけでは高い性能を得られないことがわかる.平均的な性能が高いだけでは,その性能が何によってもたらされたかがわからない.そのため,次にそれぞれの類似尺度の振る舞いに特徴的な組を選び出し,定性的な分析を行う.表\ref{without-comp}は定性的な分析として,図\ref{graph:art_data}の左上のグラフにおいて評価の対象に含まれた特徴的な6組を取り出し,それらの組に対してそれぞれの尺度で位置した順位とそのとき与えられた類似度を,パラメータ$a,b,c,d$とともに示す.$\alpha$は正解ではない組「四日市市,宇治市」である.この組は一度だけ出現し,それが共起出現であった組($a=1,b=0,c=0$)である.この組は補完類似度では625位に位置し,その他の尺度ではより高い順位に位置する.特に,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度では上位に位置する.これらの尺度では各尺度における最大値がスコアとなっている.自己相互情報量は定義式にある分母が$1$となるため,データ総数の対数$\logn$を与え,コサイン関数,ダイズ相関係数,信頼度は$1.0$を類似度として与えてしまう.これは,$d$を考慮していないことが一つの要因といえる.また,$\phi$相関係数は定義式の分母が平方根であり,$d$を分子に一つ分母に二つ持っている.このため,分子と分母が同じになり,$1$を類似度として与えてしまう.つまり,$\phi$相関係数は,$d$が$a,b,c$よりも非常に大きい場合,分子と分母がほぼ同じになり,正解ではない組にも$1$に近い値を与えてしまう性質を持つ.このような組が500位までに多く存在する.このため,上位500までを見たとき,自己相互情報量,コサイン関数,ダイス相関係数,信頼度の再現率が,補完類似度,平均相互情報量,非対称平均相互情報量に比べ低いことの原因である.$\beta$は正解ではない組「川崎市,富士市」である.この組は補完類似度,平均相互情報量,非対称平均相互情報量,信頼度では1000位近くまたはそれ以降の順位に位置するが,その他の尺度では300位前後に位置する.これは$d$を考慮しないことと,$d$が$a,b,c$に比べ大きいことが原因と考えられる.このような組が1000位までに多く存在する.このため,上位1000までを見たとき,自己相互情報量,コサイン関数,ダイス相関係数の再現率が,補完類似度,平均相互情報量,非対称平均相互情報量,信頼度に比べ非常に低いことの原因である.$\gamma$は正解ではない組「海部郡,静岡市」である.この組はダイス相関係数では1101位に位置し,その他の尺度ではより低い順位に位置する.これはパラメータ$b,c$によって$d$を使用しなくても下位と判定されるが,$d$を使用しないのは問題であり,$d$を使用する尺度はより下位と判定する.$\delta$は正解である組「東京都,多摩市」である.これは出現パターンが完全な包含関係にある組($c=0$)であり,一度だけ共起出現する組($a=1$)である.このような組が補完類似度では1000位から2000位の間に多く存在するが,平均相互情報量ではパラメータ$b$があるため,もっと低い順位に位置する.このことが図\ref{graph:art_data}において補完類似度と平均相互情報量の上位1000から2000の間に見られる再現率の開きの原因である.また,非対称平均相互情報量では,パラメータ$c$が$0$となるため,定義式の第一項の値が類似度となる.しかし,パラメータ$b$が第一項に含まれているため,補完類似度に比べ,低い順位に位置し,平均相互情報量より少し高い順位に位置している.このことが平均相互情報量と同様に,図\ref{graph:art_data}において補完類似度と非対称平均相互情報量の上位1000から2000の間に見られる再現率の開きの原因である.また,この原因は,平均相互情報量に非対称性を持たせたことによる性能向上がわずかであったことの要因である.$\epsilon$は正解である組「京都府,中郡」である.これは出現パターンが完全な包含関係ではない組($c>0$)である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では300位以内に位置するが,その他の尺度では1000位以降に位置する.特に,自己相互情報量は2437位と他のものより非常に低い順位に位置する.これもパラメータ$b$が大きいことが原因である.$\zeta$は正解である組「石川県,金沢市」である.これは出現パターンが完全な包含関係にある組($c=0$)であり,6回共起出現する組($a=6$)である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では3,2位に,$\phi$相関係数,コサイン関数,ダイス相関係数では500位以内に,自己相互情報量と信頼度でも1200位以内に位置し,どの尺度でも比較的高い順位に位置している.これはこのデータ集合において大きいパラメータ$a$をこの組が持つためである.表\ref{without-comp}における以上の考察からは,このデータ集合において,補完類似度,非対称平均相互情報量,平均相互情報量が一対多関係を推定する候補として残るが,図\ref{graph:art_data}のグラフに示されるように,1000位以降では非対称平均相互情報量と平均相互情報量の性能よりも信頼度の性能が高かった.また,実験のために生成した四つの雑音のあるデータ集合には平均すると,46の都道府県名が出現し,多重度は19.0であった.言い替えると,このデータ集合には46の都道府県名で平均すると,一つの都道府県名あたり19個程度の市郡名との関係が存在するということである.このことから,実験結果を,46ラベルに対して多重度19を持つデータ集合における一対多関係を推定する問題において,補間類似度はもっとも高い性能を得たと見ることができる.\subsubsection{雑音のあるデータ集合を用いた実験}\label{sec:with}この節では,雑音のあるデータ集合に対する類似尺度の振る舞いを観察する.雑音のあるデータ集合$D^*_a$は定義\ref{with-noise}に沿って,ラベル集合$L$と正解関係を要素とする関係集合$R$から作成した.具体的には,\ref{sec:without}節で生成した雑音のないデータ集合$D_a$の要素$d_i$にそれぞれ雑音を追加したデータ$d^*_i$を作り,そのデータを要素とするデータ集合を作成した.アルゴリズムを図\ref{algo:noise_data}に示す.作成されたデータはたとえば,$d^*_i=\{静岡県,清水市,神奈川県,横浜市,京都府\}$というデータである.これは,雑音のないデータ$d_i=\{静岡県,清水市,神奈川県,横浜市\}$に雑音「京都府」を追加した集合である.「京都府」は$d_i$のどの要素とも正解集合$R$に含まれる関係を持っていない.本論文では,この性質を持つデータの要素を雑音と呼んでいる.このように作成したデータ$d^*_i$を1000個持つデータ集合$D^*_a$を作成した.このデータ集合は雑音のあるデータ集合である.これを用いて実験を行った.雑音を各データに一つずつ入れた理由は,定義\ref{with-noise}に示すように雑音の数は4より十分小さい数であり,かつ雑音が常にあるというデータ集合全体としてみると雑音が非常に多い状況を想定したためである.\begin{figure}[th]{\small\begin{quote}\hspace*{2em}$begin$\\\hspace*{2em}$D^*_a:=\phi;~~i:=0;$\\\hspace*{2em}$while~~i~<~1000~~do$\\\hspace*{2em}$\mbox{\hspace*{2em}}begin$\\\hspace*{2em}$\mbox{\hspace*{2em}}D_aからd_iを取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Lからランダムにl(l\not\ind_i)を一つ取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}d^*_i:=d_i\cup\{l\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}D^*_a:=D^*_a\cup\{d^*_i\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}i:=i+1$\\\hspace*{2em}$\mbox{\hspace*{2em}}end$\\\hspace*{2em}$end;$\end{quote}}\caption{雑音のあるデータ集合を作成するアルゴリズム}\label{algo:noise_data}\end{figure}\begin{figure}[hbtp]\atari(143,105.3)\caption{雑音のあるデータ集合における実験}\label{graph:art_noise}\end{figure}\begin{table}[hbtp]\centering\caption{雑音のあるデータ集合における順位と類似度の例}\label{with-comp}\begin{tabular}{|c||r|r|r|r|r|r|}\hline組&$\alpha$&$\beta$&$\gamma$&$\delta$&$\epsilon$&$\zeta$\\\hline\hline正解判定&不正解&不正解&不正解&正解&正解&正解\\\hline$a$&5&1&1&1&2&4\\\hline$b$&83&5&0&61&122&53\\\hline$c$&36&5&0&0&1&2\\\hline$d$&876&989&999&938&875&941\\\hline{\small補完類似度}&7739&6961&661&2531&2488&197\\{\small}&(7.020)&(17.791)&(31.607)&(29.677)&(29.768)&(47.367)\\\hline{\small平均相互情報量}&9651&4680&266&4461&4786&289\\{\small}&(0.0004)&(0.0036)&(0.0114)&(0.0040)&(0.0060)&(0.0113)\\\hline{\small自己相互情報量}&7849&3426&55&4431&6879&5093\\{\small}&(0.4707)&(4.7959)&(9.9658)&(4.0116)&(2.4266)&(3.5479)\\\hline{\small非対称平均相互情報量}&10104&4682&315&4429&4777&214\\{\small}&(0.0004)&(0.0035)&(0.0100)&(0.0040)&(0.0035)&(0.0112)\\\hline{\small$\phi$相関係数}&7738&3823&55&4646&5578&3213\\{\small}&(0.0248)&(0.1616)&(1.0000)&(0.1230)&(0.0903)&(0.2043)\\\hline{\smallコサイン関数}&6399&3818&55&4660&5459&3165\\{\small}&(0.0832)&(0.1667)&(1.0000)&(0.1270)&(0.1037)&(0.2163)\\\hline{\smallダイス相関係数}&3604&3051&55&7000&7099&3182\\{\small}&(0.0775)&(0.1667)&(1.0000)&(0.1159)&(0.0315)&(0.1270)\\\hline{\small信頼度}&7763&7681&1710&1628&2756&2631\\{\small}&(0.1220)&(0.1667)&(1.0000)&(1.0000)&(0.6667)&(0.6667)\\\hline\end{tabular}\end{table}実験結果を図\ref{graph:art_noise}に示す.この四つのグラフはそれぞれ同じ方法で作成した異なるデータ集合に用いて実験を行った結果である.これらのグラフは,上位の組の数を横軸,そのときの再現率を縦軸とする.この実験では,雑音があることによって,雑音のないデータ集合と比べ不一致情報が多くなる.このため,すべての類似尺度の性能は雑音のないデータ集合と比べ,全体的に低い.不一致情報とは,データにラベルがどちらか一方しか現われないという情報であり,パラメータ$b,c$で表される出現情報である.これらのグラフでは,上位に位置する組において,補完類似度の再現率の高さが目立つ.すべてのグラフにおいて,補完類似度に続き,信頼度,非対称平均相互情報量,平均相互情報量が高い性能を示している.言い換えると,これらのグラフは雑音のあるデータ集合を用いた実験において,上位の組の数が小さいとき,補完類似度がもっとも一対多関係を推定する能力が高く,次に信頼度,非対称平均相互情報量,平均相互情報量の順に高いことを表している.この結果はすべてのグラフにおいて同じ結果を得ている.また,非対称平均相互情報量は平均相互情報量と比べ,一対多関係を推定する能力が高いことを表しているが,有意な差を見ることはできなかった.雑音のないデータ集合を用いた実験と同じく,このことから,非対称性は一対多関係を推定するために有効な性質の一つと考えられるが,補完類似度と非対称平均相互情報量の性能差を見ると,非対称性を持つだけでは高い性能を得られないことがわかる.前節と同様に,性能差の原因を定性的に調べるため,類似尺度の振る舞いに特徴的な組を選び出した.表\ref{with-comp}は定性的な分析として,図\ref{graph:art_noise}の左上のグラフにおいて評価の対象に含まれた特徴的な6組を取り出し,それらの組に対してそれぞれの尺度で位置した順位とそのとき与えられた類似度をパラメータ$a,b,c,d$とともに示す.$\alpha$は正解ではない組「埼玉県,岩手県」である.この組は不一致情報を多く持つ組($b=83,c=36$)である.この組はどの尺度でも3600位以降の低い順位に位置している.$\beta$は正解ではない組「徳島市,浜田市」である.この組もどの尺度でも3000位以降の低い順位に位置している.不一致情報が$\alpha$よりも少ないので,$\alpha$よりも高い順位に位置している.$\gamma$は正解ではない組「大分市,新城市」である.この組は一度だけ出現し,それが共起出現であった組($a=1,b=0,c=0$)である.この組はどの尺度でも$\beta$に比べ非常に高い順位に位置する.特に,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数では上位に位置する.これらの尺度では各尺度における最大値がスコアとなっているためである.$\delta$は正解である組「大阪府,羽曳野市」である.この組は出現パターンが完全な包含関係にある組($c=0$)である.この組は補完類似度と信頼度では,その他の尺度と比べ高い順位に位置している.信頼度がこの組をもっとも高い順位に位置付けている.これは,信頼度は完全な包含関係にある組に対して最大値を与えるためである.このデータ集合においては,信頼度が最大値を与える組は2533組あったが,そのなかには正解も不正解もあり,完全な包含関係を優遇することは必ずしも有効ではないと観測される.$\epsilon$は正解である組「北海道,登別市」である.この組は出現パターンが完全な包含関係ではない組($c>0$)である.この組も補完類似度と信頼度では,その他の尺度と比べ高い順位に位置している.$\zeta$は正解である組「岐阜県,羽島市」である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では,その他の尺度と比べ高い順位に位置している.この組における補完類似度と平均相互情報量の順位の差は,平均相互情報量がこの組よりも$\gamma$のような組に高いスコアを与えるためである.平均相互情報量では$\gamma$のような組が$\zeta$よりも上位に77個も位置する.補完類似度と非対称平均相互情報量の順位の差も同じ原因によるものである.このことが図\ref{graph:art_noise}に見られる補完類似度とそれぞれ平均相互情報量,非対称平均相互情報量の上位500組を対象とした場合の再現率における開きの原因である.表\ref{with-comp}における以上の考察からは,このデータ集合において,補完類似度,非対称平均相互情報量,平均相互情報量が一対多関係を推定する候補として残るが,図\ref{graph:art_noise}のグラフに示されるように,2000位以降では非対称平均相互情報量と平均相互情報量の性能よりも信頼度の性能が高かった.また,雑音のないデータ集合と同じく,実験のために生成した四つの雑音のあるデータ集合には平均すると,46の都道府県名が出現し,多重度は19.0である.言い替えると,このデータ集合には46の都道府県名で平均すると,一つの都道府県名あたり19個程度の市郡名との関係が存在するということである.このことから,実験結果を,46ラベルに対して多重度19を持つデータ集合における一対多関係を推定する問題において,補間類似度はもっとも高い性能を得たと見ることができる.\subsubsection{多重度に関する実験}この節では,補完類似度の性能が多重度にどう依存するのかを実験する.具体的には,人工的に一対多関係の正解集合を作成し,その一対多の程度を変化させ,正解集合から生成したデータに対する類似尺度の振る舞いを観察する.人工的なデータでは,正解集合から公平にサンプルされるので,正解集合の一対多の比率と多重度は一致する.\begin{figure}[hbtp]{\small\begin{quote}\hspace*{2em}$begin$\\\hspace*{2em}$Sは重複のない10000個の乱数を要素とする集合;$\\\hspace*{2em}$L:=\phi;~~nは定数;~~mは定数;~~R_m^n:=\phi;~~i:=0;$\\\hspace*{2em}$D^{n*}_m:=\phi;~~j:=0;$\\\hspace*{2em}$while~~i<n~~do$\\\hspace*{2em}$\mbox{\hspace*{2em}}begin$\\\hspace*{2em}$\mbox{\hspace*{2em}}Sから乱数l_cを一つ取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Sからl_cを削除する;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Sからm個の乱数(l_p^1,...,l_p^m)を取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Sからl_p^1,...,l_p^mを削除する;$\\\hspace*{2em}$\mbox{\hspace*{2em}}r_i:=\{\langlel_c,l_p^1\rangle,...,\langlel_c,l_p^m\rangle\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}R_m^n:=R_m^n\cupr_i;$\\\hspace*{2em}$\mbox{\hspace*{2em}}L:=L\cup\{l_c,l_p^1,...,l_p^m\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}i:=i+1$\\\hspace*{2em}$\mbox{\hspace*{2em}}end;$\\\hspace*{2em}$while~~j~<~1000~~do$\\\hspace*{2em}$\mbox{\hspace*{2em}}begin$\\\hspace*{2em}$\mbox{\hspace*{2em}}i:=0;~~d^{*}_{j}:=\phi;$\\\hspace*{2em}$\mbox{\hspace*{2em}}while~~i~<~2~~do$\\\hspace*{2em}$\mbox{\hspace*{4em}}begin$\\\hspace*{2em}$\mbox{\hspace*{4em}}R_m^n$からランダムに$\langlel_c^i,l_p^i\rangle$を取り出す;\\\hspace*{2em}$\mbox{\hspace*{4em}}d^{*}_{j}:=d^{*}_{j}\cup\{l_c^i,l_p^i\};$\\\hspace*{2em}$\mbox{\hspace*{4em}}i:=i+1$\\\hspace*{2em}$\mbox{\hspace*{4em}}end;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Lからランダムにl(l\not\ind^{*}_{j})を一つ取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}d^{*}_{j}:=d^{*}_{j}\cup\{l\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}D^{n*}_m:=D^{n*}_m\cup\{d^{*}_{j}\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}j:=j+1$\\\hspace*{2em}$\mbox{\hspace*{2em}}end$\\\hspace*{2em}$end;$\end{quote}}\caption{乱数集合から関係集合とデータ集合を作成するアルゴリズム}\label{algo:randomnum-data}\end{figure}実験に用いる正解関係$\langlel_c,l_p\rangle$を要素とする関係集合$R_m^n$とデータ集合$D^{n*}_m$は図\ref{algo:randomnum-data}に示すアルゴリズムを用いて作成した.アルゴリズムに現れる$n,m$はそれぞれ$R_m^n$において$l_c$であるラベルの数,一つの$l_c$と関係を持つ$l_p$の数である.すなわち,$m$はデータ集合$D^{n*}_m$が持つ多重度である.たとえば,$n=25$,$m=5$とした場合,作成される正解とする関係集合$R_m^n$は25種類の$l_c$を持ち,それぞれの$l_c$が5種類の関係,つまり$l_p$を5個持つような125対を要素とする集合である.これは,$R_m^n$に$\langle5,10\rangle,\langle5,32\rangle,\langle5,777\rangle,\langle5,24\rangle,\langle5,63\rangle$といった一つの$l_c$に対して五つの関係があることを意味する.このような集合から作成されるデータ集合$D^{25*}_{5}$の要素であるデータはたとえば,$d^{*}_{j}=\{5,10,12,321,45\}$というデータである.これは,$R_m^n$から$\langle5,10\rangle$と$\langle12,321\rangle$の二つを取り出し,その二つの関係に含まれるラベルと関係を持たないラベル45を追加したデータである.\ref{sec:without}節と\ref{sec:with}節の実験で用いたデータ集合は,$n=46$,$m=19(=多重度)$であったので,その前後の値で実験を行う.実験結果は,$n$を25としたとき$m$を1,2,5,10,20,50,100,200と変化させた場合と,$n$を50としたとき$m$を1,2,5,10,20,50,100,200と変化させた場合の推定能力である.推定能力はR-精度によって,評価した.\begin{figure}[htbp]\newlength{\minitwocolumn}\setlength{\minitwocolumn}{0.5\textwidth}\addtolength{\minitwocolumn}{-0.5\columnsep}\begin{minipage}[h]{\minitwocolumn}\centering\atari(66,44.1)\caption{25ラベルに対して多重度を変化させた\\場合の精度変化}\label{graph:dup25}\end{minipage}\begin{minipage}[h]{\minitwocolumn}\centering\atari(66.4,44.6)\caption{50ラベルに対して多重度を変化させた\\場合の精度変化}\label{graph:dup50}\end{minipage}\end{figure}実験結果を図\ref{graph:dup25},\ref{graph:dup50}に示す.これらのグラフは,多重度を横軸,そのときのR-精度を縦軸とする.図\ref{graph:dup25}は25ラベルに対して多重度を変化させた場合の精度変化を示し,図\ref{graph:dup50}は50ラベルに対して多重度を変化させた場合の精度変化を示す.図\ref{graph:dup25}では,多重度2までは実験に使用した類似尺度の精度はすべて同じであるが,この時点で自己相互情報量は他の尺度より精度が低下し始める.多重度10から次第に精度の差が現れ,この時点以降の多重度では補完類似度の精度がもっとも高い.補完類似度に続き,信頼度,非対称平均相互情報量,平均相互情報量の順に高い精度を示している.また,図\ref{graph:dup50}では,多重度5から精度の差が現れ,多重度100までは補完類似度の精度がもっとも高く,多重度200では補完類似度,信頼度,平均相互情報量,非対称平均相互情報量の精度は等しい.図\ref{graph:dup50}においても図\ref{graph:dup25}と同様,補完類似度に続き,信頼度,非対称平均相互情報量の精度,平均相互情報量の順に高い精度を示している.この二つのグラフから,多重度が1,2程度であれば,実験に使用したどの類似尺度を用いても関係を推定する能力に差はないが,多重度が高い場合,補完類似度は他の類似尺度よりも一対多関係を推定する能力が高いことがわかる.このことから,補完類似度は一対多関係を推定する類似尺度として有効であることが示唆される.\subsection{実データを用いた実験}\label{real}\subsubsection{実験方法}この節の実験では,現実の新聞記事から日本の地名を抽出し,データ集合を作成した.実験は次の流れで行う.まず,新聞記事の集合からラベル集合$L$に含まれる地名を一つでも持つ新聞記事をデータ$d^{**}$として抽出し,その新聞記事の集合を観察できるデータ集合$D^{**}$とする.次に,地名毎に出現パターンに対応する二値ベクトルを作成し,ラベル間の出現パターンの類似度を測定する.この測定値をもって,地名間にある一対多関係の推定とする.データ集合の作成方法を説明する.新聞記事の集合は毎日新聞一年分とし,七年分に対して年版毎にデータ集合を作成した\cite{Mainichi91-97}.まず,日本語形態素解析システム「茶筌」\cite{Matsumoto97}に地名辞書を追加した後,新聞記事の形態素解析を行い,その結果から地名と,その地名を含む記事の識別番号を抽出した.次に,記事の識別番号をデータの識別番号$i$として扱い,その記事に含まれる地名を要素とする集合を作り,その集合をデータ$d^{**}_i$とした.このように作成した$d^{**}_i$を要素するデータ集合を観測できる集合$D^{**}$とした.本論文では,この方法で年版毎に作成した集合に対して,一対多関係の推定を行った.ここで,このコーパス中には単に「大阪」とだけ出現し,これが「大阪府」と「大阪市」のどちらを表すのかわからない地名が出現する.この地名についてはどちらかに解釈し正解であれば正解とした.「大阪府,大阪」の場合,「大阪」を「大阪市」と解釈し,また,「大阪,大阪市」の場合,これは「大阪」を「大阪府」と解釈し,正解とした.実験の前に,新聞記事に一つの都道府県名に対して,平均的にいくつの市郡名との関係が実際に出現するかを調査した.極端な場合,実質的に県庁所在地だけしか出現しないならば,コーパス上では多重度は1となってしまうこともありうるため,実際の地名データの多重度を調査しておく必要がある.実データにおける多重度を計測した結果,表\ref{tab:dupchk}に示されるように,すべての年度において多重度は20前後であった.このことから,本節の実験を,都道府県名50に対して多重度20を持つ実データからラベルの一対多関係を推定する問題と見ることができる.\begin{table}[htb]\centering\caption{年版ごとの多重度}\label{tab:dupchk}\begin{tabular}{|c||c|c|c|c|c|c|c|}\hline年版&91&92&93&94&95&96&97\\\hline\hline多重度&21.7&20.5&20.6&22.5&20.6&19.6&19.3\\\hline\end{tabular}\end{table}評価においては,正解関係1239個を用いて正解判定を行った.実験では,それぞれの類似尺度を用いて,各年版に対するデータ集合$D^*$に含まれるすべての地名の組合せについて類似度を計算する.その組合せは非常に多く,すべてを評価対象とすることは現実的ではない.そこで,上位1239個についての適合率をとり,性能を比較することにした.この比率はR-精度と呼ばれ,情報検索などで用いられる性能尺度である.次に適合率の定義を示す.\begin{eqnarray*}適合率&=&\frac{評価対象とした組のうち正解した数}{評価対象とした組数}\end{eqnarray*}\subsubsection{評価結果}年版毎における各類似尺度のR-精度を表\ref{r_prec2}に示す.表\ref{r_prec2}をグラフで表したものが図\ref{r_prec}である.表\ref{r_prec2}とこのグラフは,すべての年版において補完類似度がもっとも高い性能を持つことを表している.{\small\begin{table}[thbp]\centering\caption{実データにおけるR-精度}\label{r_prec2}{\small\begin{tabular}{|c||c|c|c|c|c|c|c|}\hline年版&91&92&93&94&95&96&97\\\hline\hline補完類似度&0.699&0.559&0.431&0.362&0.315&0.485&0.416\\\hline平均相互情報量&0.529&0.371&0.287&0.256&0.190&0.322&0.285\\\hline自己相互情報量&0.001&0.012&0.021&0.009&0.026&0.028&0.025\\\hline非対称平均相互情報量&0.534&0.375&0.290&0.259&0.193&0.325&0.287\\\hline$\phi$相関係数&0.001&0.052&0.086&0.041&0.142&0.157&0.148\\\hlineコサイン関数&0.001&0.054&0.086&0.043&0.148&0.161&0.155\\\hlineダイス相関係数&0.001&0.055&0.103&0.039&0.113&0.128&0.146\\\hline信頼度&0.024&0.123&0.158&0.061&0.239&0.220&0.232\\\hline\end{tabular}}\end{table}}\begin{figure}[bhtp]\centering\atari(137.3,96.1)\caption{実データにおけるR-精度のグラフ}\label{r_prec}\end{figure}人工的に生成したデータでは,信頼度が非対称平均相互情報量と平均相互情報量よりも性能が高い場合があったが,実データでは,非対称平均相互情報量と平均相互情報量が信頼度よりも性能が高い.言い換えると,実データを用いた実験において,補完類似度がもっとも一対多関係を推定する能力が高く,次に非対称平均相互情報量,平均相互情報量,信頼度の順に高いことを表している.この結果はすべての年版において言えることであるため.また,人工的に生成したデータと同様に,非対称平均相互情報量は平均相互情報量と比べ,一対多関係を推定する能力が高いことを表しているが,有意な差を見ることはできなかった.しかし,このことから,非対称性は一対多関係を推定するために有効な性質の一つと考えられるが,補完類似度と非対称平均相互情報量の性能差を見ると,非対称性を持つだけでは高い性能を得られないことがわかる.\begin{table}[thbp]\centering\caption{実データにおける順位と類似度の例}\label{real-comp}\begin{tabular}{|c||r|r|r|r|r|r|}\hline組&$\alpha$&$\beta$&$\gamma$&$\delta$&$\epsilon$&$\zeta$\\\hline\hline正解判定&不正解&不正解&正解&正解&正解&正解\\\hline$a$&1&155&32&13&130&1860\\\hline$b$&0&381&249&202&697&4473\\\hline$c$&0&310&55&0&130&1124\\\hline$d$&53328&52483&52993&53114&52372&45872\\\hline{\small補完類似度}&12868&107&1239&1075&76&1\\{\small}&(*230.91)&(1616.94)&(781.54)&(829.37)&(1808.49)&(6550.99)\\\hline{\small平均相互情報量}&15761&28&1031&1495&52&1\\{\small}&(*0.0003)&(0.0120)&(0.0031)&(*0.0020)&(0.0101)&(0.0639)\\\hline{\small自己相互情報量}&21&73197&49151&20654&74144&153602\\{\small}&(15.7026)&(*5.0516)&(*6.1253)&(*7.9544)&(*5.0109)&(*2.3920)\\\hline{\small非対称平均相互情報量}&18167&28&1018&1492&50&1\\{\small}&(*0.0003)&(0.0114)&(0.0030)&(*0.0019)&(0.0098)&(0.0576)\\\hline{\small$\phi$相関係数}&21&1208&3741&2263&1637&552\\{\small}&(1.0000)&(0.3040)&(*0.2024)&(*0.2454)&(*0.2745)&(0.3797)\\\hline{\smallコサイン関数}&21&1188&3400&2272&1570&398\\{\small}&(1.0000)&(0.3105)&(*0.2047)&(*0.2459)&(*0.2804)&(0.4279)\\\hline{\smallダイス相関係数}&21&727&3267&8250&1453&410\\{\small}&(1.0000)&(0.3100)&(*0.1739)&(*0.1140)&(*0.2392)&(0.3992)\\\hline{\small信頼度}&3654&18479&15039&70&10145&6483\\{\small}&(*1.0000)&(*0.3333)&(*0.3678)&(1.0000)&(*0.5000)&(*0.6233)\\\hline\end{tabular}\end{table}また,多重度に関して見ると,ラベル50に対して多重度20を持つ実データにおいて,前節に示した多重度に関する実験結果と同じく,補完類似度が有効である結果を得ている.表\ref{real-comp}は定性的な分析として,93年版において評価の対象に含まれた特徴的な6組を取り出し,それらの組に対してそれぞれの尺度で位置した順位とそのとき与えられた類似度をパラメータ$a,b,c,d$とともに示す.ただし,表に現れる`*'はその尺度においてはその組が評価の対象外であったことを表す.$\alpha$は正解ではない組「湯沢市,中野市」である.この組は一度だけ出現し,それが共起出現であった組($a=1,b=0,c=0$)である.この組は自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数では評価対象とした組内に含まれているが,補完類似度,平均相互情報量,非対称平均相互情報量,信頼度では含まれていない.これは,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数ではこの組に最大値をスコアとして与えるためである.一方,信頼度ではこの組にスコアとして最大値が与えるが,この組は評価対象とした上位1239組内に含まれていない.これは,このデータ集合には信頼度が最大値を与えてしまう組が多く存在することを表している.$\beta$は正解ではない組「秋田,青森」である.この組は自己相互情報量と信頼度では評価対象した組内に含まれてないが,その他の尺度では含まれている.これは,正解である$\gamma$に比べ,パラメータ$a$が非常に大きいことが原因である.また,隣接する県であることも影響し,この組が抽出された可能性もある.$\gamma$は正解である組「岩手県,盛岡市」である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では評価対象とした組内に含まれているが,その他の尺度では含まれていない.また,自己相互情報量と信頼度以外の尺度では正解ではない$\beta$よりも低い順位に位置している.これは,正解ではない$\beta$に比べ,パラメータ$a$が小さいことが原因である.$\delta$は正解である組「愛媛県,温泉郡」である.この組は出現パターンが完全な包含関係にある組($a>1,c=0$)である.この組は補完類似度と信頼度では評価対象とした組内に含まれているが,その他の尺度では含まれていない.信頼度がこの組をもっとも高い順位に位置付けている.これは,信頼度は完全な包含関係にある組に対して最大値を与えるためである.信頼度は$\gamma,\delta$のようにパラメータ$c$が$0$の場合,最大値を与える.93年版のデータ集合においては,信頼度が最大値を与える組は$\alpha,\delta$を含め4793組あった.このうち$\delta$のような組は788組あった.$\epsilon$は正解である組「静岡,浜松」である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では評価対象とした組内に含まれているが,その他の尺度では含まれていない.また,この組は補完類似度と信頼度以外の尺度では正解ではない$\beta$よりも低い順位に位置している.これは$\beta$に比べ,パラメータ$a$が小さく,$b$が大きいことが原因である.このことより,一対多関係を推定する問題における尺度は不一致情報を緩和することが必要であると考えられる.$\zeta$は正解である組「大阪,大阪市」である.この組は実データにおいてパラメータ$a$がもっとも大きい組である.この組は信頼度では評価対象とした組内に含まれていないが,その他の尺度では含まれている.これは$\alpha,\delta$のような$c$が$0$の組が多いことと,この組が大きい$c$を持つことが原因である.表\ref{real-comp}における以上の考察から,実データにおいて,補完類似度が一対多関係を推定することにもっとも適していると見ることができる.また,人工的に生成したデータ集合においては信頼度の性能が非対称平均相互情報量と平均相互情報量より高かったが,実データにおいては非対称平均相互情報量と平均自己相互情報量のほうが高い.これは,実データが偶然共起出現し,完全な包含関係である組($a=1,c=0$)を非常に多く抽出することが原因である.93年版のデータ集合においては,このような組は4005組あった.以上のことから,一対多関係を推定する問題において,補完類似度は有効であると考える. \section{考察} 関係を抽出する場合,用いる類似尺度が問題となる.類似尺度によって推定される関係の確かさが決まり,それらの関係を用いる処理の性能に直接影響する.本論文では,一対多関係を推定する問題において,どのような類似尺度が有効であるかを実験によって示した.実験において,もっとも性能が高かった類似尺度は補完類似度であった.補完類似度は文字認識の分野のもので,劣化印刷文字を高い性能で認識できるように考案された類似尺度である\cite{Hagita95,Sawaki95a,Sawaki95b}.このことから,本論文は補完類似度の応用を一つ提案していると見ることもできる.これまでに提案されているデータマイニング手法\cite{Adriaans96,Fayyad96b}は,あらかじめデータから雑音を除去する処理を行った雑音の少ないデータを対象としていることが多い.これらの手法の多くは,支持率と信頼度に基づき知識を発見する.しかし,実験で示したように,信頼度は雑音に反応しやすい.これを避けるために雑音の除去を前処理として行なうのだが,雑音を完全に除去することは一般には難しい場合が多い.一方,補完類似度は雑音に強い特長を持つため,前処理となる雑音の除去を失敗したとしてもある程度の性能を保ち,関係の抽出を行うことができる.出現パターンの比較による一対多関係の抽出における補完類似度の性能の高さはこの尺度が持つ非対称性によるところもある.本論文の実験において,一対多関係を推定する問題における非対称性の有効性を調べるために,対称性を持つ平均相互情報量の性能と,この相互情報量を改良して,非対称性を持たせた非対称平均相互情報量の性能を比較した結果,非対称平均相互情報量のほうがわずかに高かった.このことからも非対称性は一対多関係を推定する問題において有効な性質の一つと考えられる.また,これまでに,テキストから定型表現を抽出する場合,従来の相互情報量よりも非対称性を持つように改良した情報量を用いた場合のほうが高い正解率を得られたという報告がされている\cite{Sinnou95}.この報告も,非対称性を持つ尺度は関係抽出に有効であることを示している.これは,使用する類似尺度の範囲を非対称性を持つものに広げる考え方が妥当であることを意味している.しかし,補完類似度の性能と非対称平均相互情報量の性能との差から,一対多関係を推定する問題において,非対称性だけでは有意な差は見られないことがわかった.また,地名と同様に一対多関係を持つラベルは多数存在する.たとえば,企業グループ名と企業名,総理大臣の名前と一大臣の名前などを考えた場合でも,知名度の高い企業グループ名や総理大臣の名前のほうが出現頻度が高いことが予想される.このようなラベル間にある関係は一対多関係であり,この関係を推定するには,補完類似度が有効であると考えられる.ただし,これらのラベル間の関係に対する正解の定義が難しいので,これらのラベル間の関係を推定する問題を検討することは今後の課題である.今後の展望としては,補完類似度をテキストマイニングに適用することを考えている.テキストから発見したい知識は,定型表現,未知語や類義語に関する情報,名詞句の修飾関係,階層関係などテキストを分析するために必要となる知識である.これらの知識を用いてテキストを分析することによって,情報抽出が容易なデータベースを構築することが可能となる\cite{Glymour97}.また,未知語は人によって表現が異なる語や述語,新生語などであり,関連する既知語よりも出現頻度が低く,それらの出現パターンは包含関係にあると予想される.このとき,補完類似度を用いて語間の一対多関係を推定することによって,未知語に関する情報を得ることができると考える.このように,補完類似度は事象間の一対多関係を推定することによって,テキスト分析に必要なこれらの知識を得ることに応用できると考えられる. \section{関連研究} 本論文では,統計的手法により,コーパスから一対多関係を抽出する手法を提案した.これまでに,コーパスから事象間の関係を抽出する研究が多く行われている.この研究の代表的なものはテキスト分析に用いられる言語知識としての関係の抽出である.言語知識の獲得では出現パターンの共起性だけでなく,一般に品詞情報や構文解析結果を用いることも多い\cite{Utsuro95}.本論文では,構文解析や品詞情報を用いずに,事象が持つ出現パターンの共起性だけに注目して,コーパスから一対多関係を抽出することを行った.コーパスを用いてpart-of関係やis-a関係を抽出する研究も行われている.part-of関係を抽出する研究において,コーパスから有用なpart-of関係を抽出する手法が提案されている\cite{Berland99}.この手法はpart-of関係を効果的に抽出するための構文パターンを分析することによって,高い性能を示している.part-of関係は本論文で抽出しようとした一対多関係の一種とみなすことができる.使用する情報が異なるが,本論文で提案する手法と構文パターンに基づく手法は同じ問題に対する異なるアプローチであるといえる.is-a(kind-of)関係を抽出する研究において,辞書の定義文から一般的な単語のis-a関係を抽出する手法が提案されている\cite{Tsurumaru91}.この手法はパターンマッチ手法を用いて名詞や動詞のis-a関係を抽出している.また,コーパスから下位レベルにある単語のグループを作り,そのグループと一対一関係にある上位レベルの単語を求めるボトムアップ手法が提案されている\cite{Caraballo99}.この手法は一般的な名詞が`and'によって連結されている部分を見つけることによって名詞のis-a関係を抽出している.これらの研究では,一般的な名詞を対象とする.一方,本論文で提案する手法では,固有表現や専門用語を事象の対象とする.is-a関係も本論文で抽出しようとした一対多関係の一種とみなすことができる.使用する情報と対象とする事象が異なるが,同じ問題に対して相補的に用いることができると考えられる. \section{おわりに} 本論文では,コーパスから事象間の一対多関係を推定する問題を考えた.これまでにコーパスから事象間の関係を推定することが多く研究されている.一般に,この問題に対する解決法の多くは,コーパスを構成する文書における事象の共起に基づいている.これらの手法では暗黙的に事象間の関係は一対一関係であることを想定している.しかし,実際には,事象間の関係は一対多関係である場合があり,この特徴のためにいくつかの工夫が可能であった.本論文では,コーパス中の一対多関係を推定するために補完類似度を利用することを提案した.この尺度は本来文字認識システムのために開発され,テンプレートとした文字が持つパターンにオーバーラップしたパターンを認識するのに有効であることが知られているが,これまでテキスト処理に利用されたことはなかった.この補完類似度の一対多関係を推定する能力を評価するために,地名(都道府県市郡名)を対象事象とした実験において,平均相互情報量,自己相互情報量,非対称平均相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度との性能比較を行った.実験では,三種類のコーパスを用いた.一つ目は実際に地名間にある一対多関係から合成した人工的なデータ集合である.二つ目も実際の関係から合成したが,誤った関係を導く少量の要素も含むデータ集合である.三つ目は現実の新聞記事コーパスから得たデータ集合である.これらの評価実験において,補完類似度がもっとも優れており,補完類似度は一対多関係の推定問題に対して有効であることを示した.\begin{acknowledgment}本研究は文部省科学研究補助金10680379の成果です.また,NTT光ネットワーク研究所と住友電工との共同研究の成果を利用させて頂きました.NTTコミュニケーション科学研究所の萩田紀博氏とNTT基礎研究所の澤木美奈子氏に補完類似度の情報を提供して頂きました.本学情報工学系中川聖一教授に貴重なアドバイスを頂きました.深く感謝いたします.\end{acknowledgment}\bibliographystyle{jnlpbbl}\bibliography{jnlpbib}\begin{biography}\biotitle{略歴}\bioauthor{山本英子}{1973年生.平成14年豊橋技術科学大学大学院工学研究科電子・情報工学専攻博士課程修了.同年,通信総合研究所に専攻研究員として入所.博士(工学).}\bioauthor{梅村恭司}{1959年生.1983年東京大学大学院工学系研究科情報工学専攻修了課程修了.同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,現在に至る.博士(工学),システムプログラム,記号処理の研究に従事.ACM,ソフトウェア科学会,電子情報通信学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V17N01-07
\section{はじめに} \label{sec:introduction}形態素解析や構文解析など自然言語処理の要素技術は成熟しつつあり,言語理解のために意味解析・談話解析といった,より高次な言語処理の研究が盛んになりつつある.特に文の意味理解のためには「誰が」「何を」「誰に」「どうした」といった要素を同定することが重要である.「誰が」「何を」「誰に」といった名詞は\textbf{項}と呼ばれ,「どうした」のような動詞を中心とした\textbf{述語}によって結びつけられる.動詞や形容詞といった述語を対象とした項構造解析は\textbf{述語項構造解析}と呼ばれ,FrameNetやPropBankといった述語項構造解析に対する資源の整備や\cite{gildea:2002:CL}による機械学習を用いた解析手法が登場し,近年盛んに研究されている.述語項構造解析に関する自然言語処理の評価型ワークショップCoNLL2004,2005の開催に伴い,述語項構造解析研究はある程度の水準に達したが,深い言語理解をするためには,述語のみを対象とした事態性解析は十分でない.特に,文中の事態を指しうる表現としては,動詞や形容詞の他に名詞もあることが知られている\cite{grimshaw:1990}.たとえば「彼は上司の推薦で抜擢された」という文で,名詞「推薦」は「上司ガ彼ヲ推薦(する)」といった事態を指す.事態とは行為や状態,出来事を指し,述語項構造と同様の項構造を考えることができる.そこで,本稿では事態を指す用法で使われていて項を持つ名詞のクラスを\emph{事態性名詞}と呼び,事態を指す用法で使われているとき\emph{事態性}があると定義する.本研究は,事態性名詞における項構造を抽出することを目標にしている.事態性名詞の項構造解析とは,名詞に事態性があるとき項構造を決定し,項を同定する解析を指す.事態性とは文脈中で名詞がコト(事態\footnote{ここで事態性というのは名詞が特定の出来事を指している場合だけではなく,総称的に使う場合も区別せず解析の対象に含める.})を指すかモノ(物体)を指すかという意味的な違いに対応する.事態性名詞の中には「レポート」のようにレポートする行為を指すのかレポートされた結果物を表すのかといった,文脈によって事態性の有無が変化する名詞がある.そこで,文脈に応じて事態性名詞に事態性があるか否か判別する処理を\emph{事態性判別},項構造を決定して項を同定する処理のことを\emph{項同定}と呼ぶ.事態性名詞の項構造解析は,述語項構造解析と同様,文中の述語の項構造を決定し,項を同定する作業の延長と位置づけることができる.英語における動詞の名詞化や日本語におけるサ変名詞など,動詞と強いつながりを持つ名詞は数多くあり,述語項構造解析の研究成果を援用して解析を行うことが期待されている.NAISTテキストコーパス\cite{iida:2007:NL}によると,述語と名詞を含めた全事態中21.1\%が事態性名詞であり,述語項構造解析技術の次の発展方向として注目されている.事態性名詞の項構造解析は,情報抽出や自動要約,質問応答システム,言い換えや機械翻訳など,自然言語処理のさまざまな分野に応用できる要素技術の一つである.本研究の主な貢献は以下の2点である.\paragraph{(1)事態性判別の問題設定:}事態性判別,つまり事態を指しているかどうか曖昧性を判別する問題を設定し,事態性に関して曖昧性のない事例を用いた事態性名詞の語彙統語パターンのマイニング手法を提案した.\paragraph{(2)事態性名詞の項同定に有効な素性の提案:}事態性名詞の項構造と述語の項構造の関連性に着目し,2つの種類の素性を新たに提案した.特に動詞と格要素の共起が事態性名詞の項構造解析に有効かどうか検証し,項同定\footnote{本論文では項同定の問題のうち,項構造決定の問題は扱わない.以下,項同定は項構造が決定されたあとの項同定の問題を指す.}の正解率向上に役立つことを示した.動詞と格要素の共起を用いて項同定の正解率が向上したという報告はこれまでにない.また,支援動詞構文のとき事態性名詞と述語が同じ項を共有する現象に着目し,項の対応をつけた辞書を作成して,事態性名詞の項同定に有効かどうか検証した.先行研究では明示的に支援動詞構文に関する資源を作成していないが,支援動詞辞書の整備が事態性名詞の項同定に有効であることを示した.本論文の構成は以下のようになっている.まず\ref{sec:relatedwork}節で事態性名詞の項構造解析の先行研究について紹介する.本研究では事態性名詞の項構造解析を(1)事態性判別(2)項同定の2つの処理に分けて解く.\ref{sec:method}節でこの問題を解決するための方針について議論し,\ref{sec:eventhood}節で事態性の曖昧性のない事例を用いた事態性名詞の語彙統語パターンのマイニング手法を提案する.\ref{sec:syntax}節で項同定のための動詞と格要素の共起の活用と支援動詞構文の利用について述べる. \section{関連研究} \label{sec:relatedwork}\cite{grimshaw:1990}は動詞と同様事態を指す名詞のことを\emph{eventnominal}(事態名詞)と呼び,\emph{resultnominal}(結果名詞)・\emph{simpleeventnominal}(単純事態名詞)・\emph{complexeventnominal}(複雑事態名詞)の3つに分類した.結果名詞とは,「梅干」のように「梅を干してできたもの」という結果物を指す名詞であり,単純事態名詞とは「運動会」のように意味役割を持たない名詞である.「推薦」のように「誰が誰を誰に推薦した」という\emph{eventstructure}(事態構造)を持つ複雑事態名詞\footnote{本稿で扱う事態性名詞はGrimshawの複雑事態名詞に相当する.}だけが項(必須格)を持つ\footnote{「報告」のように結果名詞「報告書・報告物」としての語義と複雑事態名詞「出張の報告をした」としての語義両方を持つものもある.また「試験」のように文脈に応じて結果名詞・単純事態名詞・複雑事態名詞のいずれも取りうる名詞もある.}.このように,事態を指しかつ項を持つ名詞の存在は古くから知られていた.近年この現象に対する自然言語処理的観点からの関心が高まり,複数の言語でコーパスが整備されるに至った.以下で,英語・中国語・日本語における事態性名詞の項構造解析の関連研究について述べる.\subsection{英語における事態性名詞の項構造解析}Macleodらは1997年から動詞の名詞化に注目し,高いカバー率の情報抽出を目的とした事態性名詞の辞書NomLexの作成に着手した\cite{macleod:1997:RANLP}.NomLexは2001年に完成・公開され,NomBankプロジェクトに引き継がれる.NomBankはNomLexと同じく英語における動詞の名詞化に着目したコーパス\cite{meyers:2004:NAACL-HLT,meyers:2004:LREC}であり,PennTreebank\cite{marcus:1993:CL}に対しPropBankら\cite{palmer:2005:CL}の仕様に従って項構造が付与されている.Meyersらは2007年PennTreebankIIに対するアノテーションを終了し,NomBank1.0を公開した.2008年と2009年のCoNLL共通タスクでは,NomBankコーパスを用いた事態性名詞の項構造解析もタスクの一つとして行われた.NomBankを用いた事態性名詞の項構造解析は\cite{jiang:2006:EMNLP}や\cite{liu:2007:ACL}がある.JiangらはNomBankに対し,最大エントロピー法を用いた教師あり学習による項構造解析を行った.彼らはPropBankを用いた動詞に対する意味役割付与(Semanticrolelabeling)において有効性が確認されている素性に加え,名詞の語幹やクラスといった事態性名詞についての意味素性や,支援動詞構文を認識するための述語との位置関係といった統語素性,そして項構造を正しく認識するための項同士の依存関係に関する大域素性を用いた.LiuらはJiangらの用いた素性をベースに半教師あり学習手法のAlternatingStructureOptimization(ASO)~\cite{ando:2005:JMLR}を適用した.ASOは解くべき問題に関連する補助問題を作成することで経験リスク最小化を行う手法であり,彼らの研究では事態性名詞の項構造解析に有効なさまざまな補助問題が提案されている.自然言語処理の評価型ワークショップCoNLL2008,2009では,PropBankとNomBankを用いた述語と事態性名詞に対する項構造解析の共通タスクが行われた.CoNLL2009には20チームが参加するなど,事態性名詞の項構造解析は活発に研究されている.\subsection{英語以外の言語における事態性名詞の項構造解析}英語以外の言語における事態性名詞の包括的な研究としては,XueらによるChineseNombank~\cite{xue:2006:LREC}がある.これは英語以外における初めての大規模な事態性名詞のコーパスである.このコーパスを用いた解析として\cite{pradhan:2004:NAACL-HLT,xue:2006:HLT-NAACL}がある.日本語のサ変名詞と同様,中国語では動詞と動詞化された名詞は同じ表層形を持つため,動詞化された名詞は対応する動詞と共通の項構造を持つと仮定すると,動詞に関する資源を事態性名詞に流用することができる.\cite{xue:2006:HLT-NAACL}では,単純に動詞の事例を事態性名詞の事例に追加して実験したところ,同じ事態を指す表現であっても,動詞として使われる場合と名詞として使われる場合では語彙統語パターンが大きく違い,かえって性能が下がった,と報告している.我々は日本語を対象に,大量に自動獲得した動詞と格要素の共起を用いて事態性名詞の項同定を行い,大きく正解率を向上させることに成功した.また,事態性名詞に特徴的な語彙統語パターンを用いることでさらに性能を改善させた.一方,日本語においては\cite{kurohashi:2005}によって,京都テキストコーパス第4.0版の一部,約5,000文に事態性名詞を含む名詞間の関係タグが付与された.\cite{sasano:2005:NLJ}は自動構築された名詞の格フレーム辞書の評価として事態性名詞の項同定を行った.彼らは事態性名詞のみについての結果を報告していないため,直接比較することはできないが,我々は事態性名詞の解析に焦点を当て,事態性判別の問題を解いた点,動詞と格要素の共起の情報を用いた点,および事態性名詞に特徴的な語彙統語パターン(支援動詞構文)を用いた点が異なる.\subsection{NAISTテキストコーパス}我々は事態性名詞の項構造解析の問題に対し,NAISTテキストコーパス~\cite{iida:2007:NL}を用いた教師あり学習を行った.このコーパスでは,文章中の各事態性名詞について事態性の有無を判別し,事態性がある場合には項構造(必須格となるガ格・ヲ格・ニ格)の情報が付加されている.たとえば図\ref{fig:naisttextcorpus}のような記事に対して,\begin{figure}[b]\begin{center}\includegraphics{17-1ia8f1.eps}\end{center}\caption{NAISTテキストコーパスの事態性名詞のアノテーション}\label{fig:naisttextcorpus}\end{figure}\begin{itemize}\item[][\textsc{rel}=管理(する),ガ=〈外界〉,ヲ=リスク]\item[][\textsc{rel}=調査(する),ガ=BIS,ヲ=実態]\end{itemize}のような情報が付与されている.項に関しては,「管理」のヲ格「リスク」や「調査」のガ格「BIS」のように,項が文内に出現している場合はそれが形態素単位で指示される.また,「調査」のヲ格「実態」のように,文外に出現する項でも記事内で特定できる場合はその要素が指示される.さらに「管理」のガ格のように,必須格で,かつ文内にも記事内にも出現していない場合は特別な〈外界〉タグが付与されている.現在公開されているNAISTテキストコーパス1.4$\beta$~\footnote{http://cl.naist.jp/nldata/corpus/}は京都テキストコーパス3.0全体約4万文に対してタグ付与されており,京都テキストコーパス4.0と比較して大規模な学習を行うことができるという利点がある.\cite{taira:2008:EMNLP}はNAISTテキストコーパスを用いて構造学習を述語項構造解析および事態性名詞の項同定に適用した結果を報告しているが,彼らは事態性判別の問題を解いていない.また,比較的項同定が難しいガ格について報告せず,ヲ格とニ格に対する結果しか議論していない. \section{事態性名詞の項構造解析へのアプローチ} \label{sec:method}事態性名詞の項構造解析を述語項構造解析と比較すると,(1)名詞の多義性の問題(2)解析対象の問題(3)格助詞の問題がある.1つ目の多義性の問題とは,事態性名詞の中には文脈によって事態を指す用法と指さない用法といずれも持つ名詞があるため,曖昧性を解消しなければならないという問題である.たとえば「私は公衆\underline{電話}で\fbox{電話}をすることがめっきり減った」という文\footnote{以下事態性のない用例は下線,事態性のある用例は四角で囲んで示す.}では,\underline{電話}はモノとしての電話であり,これ自体はなんらかの事態を指す用法ではないが,\fbox{電話}は「電話をする」という行為であり,「私ガ(誰か)ニ電話をする」という事態を指し,後者の場合のみ項が存在する.サ変名詞に限定すると,事態性のある場合は動詞としての用法を考えたときの項構造を基本的に受け継ぐ\footnote{「動き」「薦め」などの和語動詞由来の事態性名詞も同様に扱うことができる.また,「運動会」のように事態を指すが動詞と直接の結びつきがない事態性名詞は今回扱わない.}ため,文脈中でのこれらの項を同定したい.2つ目の解析単位の問題とは,項の単位の問題である.日本語の述語項構造解析では主辞が項になるため,項候補として主辞のみを解析対象に加えればよいが,事態性名詞においては主辞以外も項になりうる.たとえば,「\underline{民間}\fbox{支援}が活性化する」では,事態性名詞\fbox{支援}の項のヲ格が同一文節内の主辞以外の形態素\underline{民間}を指しており,主辞のみを対象にするとこのような事例を解析することができない.\cite{iida:2007:NL}によると,述語は同一文節内に項が現れることはほとんどなく,特にヲ格とニ格においては8割以上係り受け関係にある文節の主辞が項になっている.一方,事態性名詞のヲ格とニ格はそれぞれ50.6\%,43.6\%が同一文節内に項を持つ.このことから,述語項構造解析で有効な統語的素性が事態性名詞の項構造解析で有効であるとは限らないことが示唆される.この問題への対策の一つとして,動詞と格要素の共起という意味的な情報を用いることが考えられる.3つ目の格助詞の問題とは,述語項構造解析では明示的に格助詞(ガ・ヲ・ニ)が出現した場合はその格助詞が項同定の強い手がかりになるのに対し,事態性名詞の項構造解析においては,ほとんどの場合項は格助詞によってマークされていない,という問題である.これは述語におけるゼロ照応解析と同様の問題であり,文の構造を利用したゼロ照応解析\cite{iida:2006:ACL}と同じく,項同定処理に文内の構造情報を用いることが有効であると考えられる.特に支援動詞構文のとき,事態性名詞と述語は項を共有するので,明示的な格助詞を伴う述語の項構造を解析に用いることができる.さて,事態性名詞の項構造解析をするに当たり,我々はまず(1)の問題に対応する事態性判別を行い,その後事態性のある事態性名詞に限って項構造解析を行うという手順で問題を解く.このようにモデルを分ける利点は,事態性判別は語義曖昧性解消の問題であり,項同定と別の素性を用いた解析が有効だと考えられ,モデルを分けることにより事態性判別に特徴的な統語素性を用いることができる点である\footnote{述語項構造解析においては項同定と項識別とで有効な素性が大きく異なり,場合によっては項同定に有効な素性が項識別ではノイズになりうる,という指摘\cite{pradhan:2005:ML}もある.}.事態性判別は文中に出現する事態性名詞を事態性あり/なしの2クラスに分類する問題なので,事態性に関する曖昧性のない事例を用いて教師なしのパターンマイニングを行うことができる.語義曖昧性解消タスクにおいては曖昧性のある単語周辺の単語の分布が有効な素性であることが知られており,大規模なコーパスから文脈素性を学習することが本タスクにおいても有効であることが期待される.そこで,本論文ではこの方法に従って事態性判別のタスクと項同定のタスクを分けて扱う手法を提案する. \section{事態性判別} \label{sec:eventhood}事態性名詞には,「リスク管理」や「彼の決断」のように,事態性名詞と同一文節内や係り受け関係にある文節内に項が存在することが多く,こういった名詞の出現パターンを利用することによって事態性判別の精度が向上すると考えられる.そこで,名詞の出現パターンを捉えるための手段としてBACT~\cite{kudo:2004:EMNLP}(実装はbact\footnote{http://chasen.org/\~{}taku/software/bact/})を用いて事態性のある名詞と事態性のない名詞との出現パターンを学習することを考えた.BACTは木構造の訓練事例を学習させることによってブースティングで訓練事例の判別に効果の高い重み付き部分木を順次選択するアルゴリズムであり,文の構造を木構造に変換して素性として入れることによって,訓練事例の判別に効果が高い構造をルールとして学習できる.\subsection{事態性名詞の語彙統語パターンの学習}事態性名詞の語彙統語パターンの獲得には,名詞の出現する前後3形態素,名詞の出現する文節および係り元の文節の形態素列を木構造にして分類器を作成した.事態性に関する曖昧性がない事例として,日本語語彙大系~\cite{ikehara:1997}にサ変動詞として登録されている用言のうち,一般名詞意味属性体系の「名詞-抽象-事-\{人間活動,事象\}」ノードの下にあり,かつそれ以外のノードの下にない2,253名詞を曖昧性のない事態性名詞として正例にした.ランダムに200個サンプリングして調べたところ,97\%がサ変名詞,残りの3\%が動詞由来の名詞で事態性名詞であった.また,一般名詞として登録されている名詞のうち「名詞-具体」ノードの下にあり,かつそれ以外のノードの下にない名詞と固有名詞合わせて194,098名詞を曖昧性のない非事態性名詞として負例にした.同じくランダムに200個サンプリングして調べたところ,16.5\%が一般名詞,73.5\%が固有名詞で非事態性名詞であった.たとえば「商品\fbox{取引}」の出現パターンは図\ref{fig:pattern}のような木構造になり,正例として訓練事例に追加する.\begin{figure}[b]\begin{center}\includegraphics{17-1ia8f2.eps}\end{center}\caption{「商品取引」のパターンの例}\label{fig:pattern}\end{figure}\begin{table}[b]\caption{事態性判別に有効な素性として獲得したパターンの例}\label{tab:rules}\input{08table01.txt}\end{table}学習には新聞記事約1ヶ月分\cite{mainichi:2002}(正例:117,581事例,負例:282,419事例)を使用し,正例および負例を分類するに当たっての重みが高いルール6つを獲得した.獲得したルールは表\ref{tab:rules}に示した.重みの絶対値が大きければ大きいほど,事態性判別に効果が高いと考えられる.\subsection{実験}\label{subsec:eventhood}事態性の判別には語義曖昧性解消で最もよい性能を示しているSupportVectorMachines~\cite{vapnik:1998}(実装はTinySVM\footnote{http://www.chasen.org/\~{}taku/software/TinySVM})を用い,文脈に応じた事態性名詞の事態性を学習した.多項式2次カーネルを使用し,その他のパラメータはデフォルト値を用いた.評価は精度・再現率・F値(精度と再現率の調和平均)で行い,10分割交差検定によって事態性の有無の判別性能を見た.評価事例にはNAISTテキストコーパスから新聞記事80記事(800文)を用いた.含まれる事態性名詞は1,237個(うち590個が事態性ありの事例)あった.ベースラインには各名詞に対してコーパス中で最も頻度が高い語義を正解としたモデルを用い,BACTによってマイニングした名詞の出現パターンを用いたモデルと比較した.使用した素性は表\ref{tab:eventhood:feature}にまとめた.\begin{table}[b]\caption{事態性判別に用いた素性}\label{tab:eventhood:feature}\input{08table02.txt}\end{table}\begin{table}[b]\caption{事態性判別実験結果}\label{tab:exp:eventhood}\input{08table03.txt}\end{table}教師なしでマイニングした語彙統語パターンの有効性を示すため,表\ref{tab:exp:eventhood}に事態性判別の実験結果を示した.提案手法はベースラインより再現率は劣るものの,精度を大幅に向上させ,F値で約5\%改善することができた.名詞の語彙統語パターンを用いない場合(表\ref{tab:eventhood:feature}の文節内素性と文節外素性のみを用いた場合),ベースラインより精度は上がるものの再現率は大幅に低下し,文節内の品詞情報など局所的な文法知識が事態性名詞の判別に効果が高いことを示している.\subsection{エラー分析}事態性がある事例にも関わらず事態性がないと判別を誤った事例に次のようなものがあった.\begin{itemize}\item「野良黒山の会」のリーダー、木場将弘さん方では、妻の和枝さんらが現地と\fbox{電話}のやり取りを続けた。\item自民党の渡辺美智雄元副総理・外相は四日、宇都宮市で講演、七月の参院選について「社会党と連合が独占している二十三選挙区でも自民党から候補者を擁立すべきだ。連立政権は政権。選挙は選挙だ」と述べ、選挙\fbox{協力}よりも独自候補擁立を優先すべきだとの考えを示した。\end{itemize}これらの事例はいずれも文内に項があるにも関わらず事態性判別を誤った事例であり,事態性判別に項同定の情報を用いていないために判別に失敗している.これらの事例に正解するためには,事態性判別と項同定を同時に最適化する必要がある.解決策として,\cite{iida:2006:ACL}の提案する述語のゼロ照応解析で用いられている探索先行分類モデルを適用し,まず最尤の項候補を求め項同定を先に行った上で事態性判別の一素性として用いる方法や,MarkovLogicNetworkを用いて事態性判別と項同定を同時に行う\cite{meza-ruiz:2009:NAACL-HLT}といった方法が考えられるが,どのようにするべきかは今後の課題である. \section{事態性名詞の項同定に有効な素性の検討} \label{sec:syntax}\ref{sec:method}節で述べたように,事態性名詞の項同定は述語の項同定と異なり,述語項構造解析で有効であった文法的素性が必ずしも有効であるとは限らない.そこで,動詞と格要素の共起といった意味的素性を用いることを提案する.また,事態性名詞の項は述語の項と違い格助詞を伴わないという問題に対し,支援動詞構文において事態性名詞と述語が項を共有する現象に着目し,支援動詞辞書を作ることにより,項の対応関係を認識する手法について述べる.\subsection{動詞と格要素の共起の利用}事態性名詞のうち,対応する動詞がある名詞,たとえばサ変名詞(例:推薦)や動詞由来の名詞(例:動き)の項構造は動詞の項構造と類似しており,事態性名詞の項同定に動詞に関する知識が有効であろうと考えられる.述語においてはヲ格の84\%とニ格の88\%が係り受けの関係にある文節に項を持つが,事態性名詞においてはそれぞれヲ格の31\%,ニ格の22\%しか係り受け関係の文節に項が存在しない\cite{iida:2007:NL}.それに加え,述語では項は普通格助詞ヲやニを伴って出現するため,表層の格助詞が大きな手がかりとなるが,事態性名詞の項は明示的に格助詞を伴わない.この問題に対処するため,まずサ変名詞とそれに対応する動詞が意味的には共通の項を持つことを仮定し,動詞と格要素の共起情報を事態性名詞の項同定に用いる\footnote{動詞由来の名詞にもこの手法は拡張可能である.}.この手法の利点は,係り受け解析器を用いることで大規模なラベルなしデータから自動的に獲得した共起を獲得し,完全に教師なしに行うことができる点である.動詞と格要素の共起のモデル化は\cite{fujita:2004:IPSJ}のモデルに従った.このモデルは,名詞$n$が格助詞$c$を介して動詞$v$に係っているときの共起確率P($\langlev,c,n\rangle$)を推定するため,$\langlev,c,n\rangle$を$\langlev,c\rangle$と$n$の共起と見なす.しかしながら,一般に動詞と格要素の共起事例は非常に疎なので,pLSI\cite{hoffman:1999}を用いてスムージングを行う.\[P(\langlev,c,n\rangle)=\sum_{z\inZ}P(\langlev,c\rangle|z)P(n|z)P(z)\]$Z$は共起に関する潜在的な意味クラスを指す確率変数で,確率分布を用いて単語行列を$|Z|$次元に圧縮していることに相当する.$P(\langlev,c\rangle|z),P(n|z),P(z)$はEMアルゴリズムによって求められる.共起尺度としては自己相互情報量~\cite{hindle:1990:ACL}を用いる.\[PMI(\langlev,c\rangle,n)=\log_2\frac{P(\langlev,c,n\rangle)}{P(\langlev,c\rangle)P(n)}\]共起尺度の利用に関しては,相対的な共起の強さを用いて項らしさを判定する.そこで,これらの共起尺度により計算されたスコアは,最尤候補に対する相対値として素性に取り込む.具体的には,項候補となる名詞句をペアに対し,それらの共起スコアの差(実数値,およびそれを離散化したもの)を素性として用いる.本論文では藤田らに倣い,新聞記事延べ19年分のコーパスから係り受け解析結果を抽出し,$|Z|=1000$としてモデルを作成した.事態性名詞と項の共起の分布を調べた予備実験において,固有名詞を中心に,動詞と格要素の共起モデル中に出現しなかった事例が全体の18\%あった.そこで,共起スコアを計算することができなかった名詞と,共起スコアが負であった名詞に関して,CaboChaの出力する固有表現ラベルおよびChaSenで品詞が固有名詞であると判定された名詞に対しては,固有表現クラスで推定した共起スコアを用いてスムージングした\footnote{固有表現クラスによるスムージングは後述する項同定の予備実験で常に高い精度だったため,以降の実験ではスムージングを用いた結果のみ報告した.}.\subsection{支援動詞辞書の作成}支援動詞構文は述語と事態性名詞が項を共有する統語パターンであり,述語に係る名詞句の格助詞の情報を使うことによって性能を向上させることができると考えられる.そこで,我々は事態性名詞と述語の間で項の対応がついた辞書(\textbf{支援動詞辞書})を作成し,支援動詞構文の認識に用いた.事態性名詞の21.7\%は支援動詞構文で使われており,述語項構造解析で有効な格助詞に関する情報を活用できると予想される.NomBankをコーパスとして用いた分析として,\cite{meyers:2004:ACL}は,多くの名詞化された動詞は支援動詞構文にあり,主動詞と項を共有することを指摘した\footnote{ここでは彼らの定義に従い,支援動詞とは最低2つの項NP$_1$とXP$_2$を取り,XP$_2$がNP$_1$の主辞の項となっている場合を指す.}.\cite{jiang:2006:EMNLP}も同じ現象に着目し,機械学習の素性として支援動詞構文を検出する素性を提案した.しかしながら,支援動詞構文となる述語は限られており,人手で書き尽くすことができるため,我々は事態性名詞と述語の間で項を共有するようなペアについて辞書を作成し,どのような項の対応関係になっているか,という情報を付与して用いることにした.たとえば,文「太郎が花子に電話をした」において,述語項構造は[\textsc{rel}=\emph{する}(した),ガ=太郎,ヲ=電話,ニ=花子]であり,事態性名詞の項構造は[\textsc{rel}=電話(する),ガ=太郎]である.この場合,述語「する」と事態性名詞「電話」は項「太郎」をそれぞれガ格で共有する.表\ref{tab:suru:template}はこの場合支援動詞辞書のどのエントリにマッチしているのか示した.また,「彼が彼女に勉強を教える」という文では,述語「教える」は事態性名詞と項を共有しているが,述語のニ格「彼女」は事態性名詞ではガ格となり(「彼女」ガ「勉強(する)」),格の交替が起きる.表\ref{tab:oshieru:template}には格交替が起きる場合の項の対応を示した.\begin{table}[b]\hangcaption{支援動詞構文の頻度上位10件.S,N,Eはそれぞれ共有された項,共有されていない名詞句,事態性名詞を表す}\label{tab:svc}\input{08table04.txt}\end{table}NAISTテキストコーパスには異なり2,173個,延べ8,190個の支援動詞構文の事例が見られた.頻度上位10件の支援動詞構文を表\ref{tab:svc}にまとめた.ここから分かるように,実際のコーパスに出現する支援動詞は,いわゆる機能動詞結合で用いられる機能動詞より広い概念である.たとえば,「太郎が電話を続ける」においては,「太郎が電話する」という事態が継続していることを示し,「続ける」は継続の意味を失っていない.このように,支援動詞構文にある事態性名詞と述語の示す事態の関係は,テンスやモダリティの付加などがあるが,このような動詞がいくつあり,どのような関係がありうるかは今後の研究課題である.\begin{table}[t]\hangcaption{「する」の支援動詞辞書項目と「太郎が花子に電話をする」の項対応.Eには共通の事態性名詞が,Sには共有される項が入る.このエントリはニ格の共有に関する情報は入っていない}\label{tab:suru:template}\input{08table05.txt}\end{table}\begin{table}[t]\hangcaption{「教える」の支援動詞辞書項目と「彼が彼女に勉強を教える」の項対応.Eには共通の事態性名詞が,Sには共有される項が入る.ニ格とガ格で格の交替が起きている}\label{tab:oshieru:template}\input{08table06.txt}\end{table}支援動詞辞書を作成するに当たって,Web5億文コーパス~\cite{kawahara:2006:LREC}から事態性名詞が直接係っている述語とその項を200万事例抽出した\footnote{依存構造解析はKNP(http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html)による.}.そのうち,頻度上位2,000件(抽出された200万事例中,延べ80\%をカバー)を対象に,事態性名詞が述語と項を共有しているかどうかを判断した.具体的には,述語と事態性名詞のそれぞれの格(ガ・ヲ・ニ)について,事態性名詞の含まれる格と,共有している場合には共有している格の対応関係の情報を付与した.項対応の判断に関しては,Webコーパス中から取得した周辺文脈を補助的に用い,周辺文脈頻度上位5件中3件以上で成り立つ場合のみ対応関係を付与した.\subsection{実験}\label{subsec:exp:syntax}事態性名詞に特徴的な語彙統語パターンの情報を用いることで,項同定の性能が向上することを示す実験を行った.述語項構造解析のトーナメントモデル~\cite{iida:2005:TALIP}を事態性名詞の項構造解析に適応し,事態性名詞の項同定システムを作成した.トーナメントモデルに用いる三つ組は事態性名詞,正解の項,そして項候補である.各三つ組に対し,このシステムは訓練時どちらの候補が勝つか,そしてそれを特徴づける素性を学習する.テスト時には項の候補を順に試し,トーナメントで最後まで勝ち残った候補をシステムの予測する項として提示する.今回ベースラインシステムと提案する3つのモデルを比較した.ベースラインシステムで用いた素性は表\ref{tab:cooc:features}に示した.使用した素性は\cite{iida:2006:ACL}に準じ,事態性名詞で計算することのできない素性\footnote{事態性名詞にはヴォイスと助動詞は定めることができない.また,センタリング理論に基づいた素性は用いていない.EDRを用いた素性は予備実験により正解率が低下したので削除した.}は使用しなかった.使用した素性は表\ref{tab:cooc:features}にまとめた.\begin{table}[b]\caption{項同定に用いた素性リスト}\label{tab:cooc:features}\input{08table07.txt}\end{table}事態性名詞の項同定は形態素単位で行うため,文節内の位置の素性,同一文節内の他の形態素の品詞列の素性を追加した.また,\cite{muraki:1990}に掲載されている機能動詞128表現を用い,事態性名詞が機能動詞に係っているかどうかの素性と,機能動詞に係っている場合に機能動詞と項が係り関係にあるかどうかの素性を追加した.本論文で新しく導入された素性にはアスタリスクを付した.また,実験に用いたデータはNAISTテキストコーパスから新聞記事1日分(137記事,延べ847個の事態性名詞,97個の支援動詞構文)を訓練事例,それとは異なる1日分(150記事,延べ722個の事態性名詞,113個の支援動詞構文)を評価事例に用いた.実験に用いた機械学習器はSupportVectorMachines\cite{vapnik:1998}であり,実装はTinySVM\footnote{http://chasen.org/\~{}taku/Software/TinySVM/},多項式2次カーネルでパラメータはデフォルト値を使用した.支援動詞辞書と共起モデルの有効性を示すため,各モデルについてそれぞれの格における正解率を求め,表\ref{tab:argument}に示した.ガ・ヲ・ニ格を対象に,それぞれ文内に項を持つ事例のみを訓練・テストに用い,項同定の正解率で評価した.「$+$共起モデル」はベースラインモデルに加え,共起のスコアを実数値の素性としてSupportVectorMachinesに適用したものであり,「$+$支援動詞辞書」はテスト事例で支援動詞辞書にマッチする項目がある場合,SVMによるトーナメントモデルを用いず,辞書に対応する述語の項をそのままシステムの出力とした\footnote{述語の項はコーパスに人手で付与された正解データを用いる.}ものである.共起モデルを用いた手法はどの格においてもベースラインより高い正解率を示した.また,支援動詞辞書を共起モデルと組み合わせたモデルはヲ格とニ格においてベースラインよりわずかながら高い正解率であった.\begin{table}[t]\caption{事態性名詞の項同定タスクの正解率}\label{tab:argument}\input{08table08.txt}\end{table}\subsection{議論}支援動詞辞書を用いてもっとも効果が高かったのはガ格であるが,これは項の共有があった格のうち92\%はガ格であるためだと考えられる.テスト事例で支援動詞構文にあったもののうち,項と述語が係り受け関係にある事例は38事例であり,75事例(66\%)は省略解析の情報をタグ付きコーパスから取得できたことが精度向上に貢献していると考えられる.ここで示した精度は述語項構造が正しく解析できた場合の上限値であり,述語項構造を自動解析した場合は精度が低下することが考えられるが,実際に省略解析をどのように行い,どのような結果を得るかは解析に採用する解析モデルに依存する.一方,ヲ格とニ格において,支援動詞辞書を用いるとベースラインシステムより性能が悪くなった.ヲ格で支援動詞辞書の効果がなかった理由としては,ヲ格の90\%が既に事態性名詞と同一文節内にあるか係り受け関係にある文節に存在し,明示的に項の交替関係をモデル化する必要がなかったということが推測される.また,支援動詞の項の共有情報を素性として用いた実験を行ったところ,ガ格とニ格ではベースラインと正解率は変わらず,ヲ格では正解率の低下が見られた.支援動詞辞書の効果が格によって異なっている原因を調べるため,支援動詞辞書のみのシステムの性能を求めた.Webコーパスから作成した支援動詞辞書のカバー率は,新聞記事分野で作成した事態タグつきコーパスに対して49\%であった.支援動詞辞書のパターン対にマッチする事態性名詞に対し,支援動詞辞書のみを用いた項同定システムの性能を計ると精度は0.72,再現率は0.35であった.ヲ格とニ格に対してはこの精度はベースラインの正解率を下回っている.そのため,支援動詞辞書の情報を用いるとヲ格とニ格に関しては,正解率が低下する可能性があることが分かった.実際,表\ref{tab:argument}では,まさにヲ格とニ格では支援動詞辞書を使うことによって正解率が低下している.この問題への対処法としては,ヲ格とニ格に対しては,精度の高い支援動詞構文のみ用いることが考えられる.どのようにして効率的に支援動詞辞書を構築するかは今後の課題である.提案手法の典型的な誤り事例は,局所的な項を適切に同定できないという誤りである.\begin{itemize}\item太郎が次郎の連勝を止めた\end{itemize}この例では正しい項構造は[\textsc{rel}=連勝,ガ=次郎]だが,システムは[\textsc{rel}=連勝,ガ=太郎]を出力した.これはこの事例が「Xを止める」という辞書項目にマッチし,同一名詞句内にある候補「次郎」を解析しなかったためである.この問題に対処するには,局所的な候補から順番に項を探し,ふさわしい候補が見つからなかった場合に探索範囲を広げていく,といった階層的なモデルを用いることが考えられる. \section{おわりに} 本論文で,名詞句の語彙統語パターンを用いた事態性名詞の項構造解析について述べた.本論文では項構造解析のタスクを2つに分け,マイニングした語彙統語パターンを用いた事態性名詞の事態性判別手法を提案した.また,動詞と格要素の共起と事態性名詞に特徴的な語彙統語パターンが事態性名詞の項同定に有効であることを示した.提案手法では事態性判別は精度76.6\%,再現率79.6\%で行うことができる.また,項同定も文内の項ではガ格・ヲ格・ニ格それぞれ68.3\%・80.1\%・74.6\%の正解率で解析でき,ある程度実用的に項構造解析を行うことができた.まだ高速化・精度改善の余地はあるが,本研究をベースに情報抽出などの応用に用いる下地ができたと考えている.今後は形態素解析から固有表現抽出,係り受け解析までを含めて同時に最適化を行う手法の研究や,項の間の依存関係を考慮した項同定モデルの研究が課題である.\acknowledgment本研究の一部は科研費特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築」の助成を受けたものである.Webから取得した5億文データを使用させてくださった河原大輔氏に感謝する.また,新聞記事から抽出した動詞と格要素の共起モデルおよび自己相互情報量の計算プログラムを利用させてくださった藤田篤氏にお礼申し上げる.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ando\BBA\Zhang}{Ando\BBA\Zhang}{2005}]{ando:2005:JMLR}Ando,R.~K.\BBACOMMA\\BBA\Zhang,T.\BBOP2005\BBCP.\newblock\BBOQ{AFrameworkforLearningPredictiveStructuresfromMultipleTasksandUnlabeledData.}\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf6},\mbox{\BPGS\1817--1853}.\bibitem[\protect\BCAY{藤田\JBA乾\JBA松本}{藤田\Jetal}{2004}]{fujita:2004:IPSJ}藤田篤\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQ自動生成された言い換え文における不適格な動詞格構造の検出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(4),\mbox{\BPGS\1176--1187}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{gildea:2002:CL}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQ{A}utomatic{L}abelingof{S}emantic{R}oles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{Grimshaw}{Grimshaw}{1990}]{grimshaw:1990}Grimshaw,J.\BBOP1990\BBCP.\newblock{\Bem{A}rgument{S}tructure}.\newblockMITPress.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle:1990:ACL}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQ{N}oun{C}lassificationfrom{P}redicate{A}rgument{A}tructures.\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheACL},\mbox{\BPGS\268--275}.\bibitem[\protect\BCAY{Hoffman}{Hoffman}{1999}]{hoffman:1999}Hoffman,T.\BBOP1999\BBCP.\newblock\BBOQ{P}robabilisticlatentsemanticindexing.\BBCQ\\newblockIn{\BemProceedingsofthe22ndAnnualACMConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\50--57}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{ikehara:1997}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳文\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2005}]{iida:2005:TALIP}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2005\BBCP.\newblock\BBOQAnaphoraresolutionbyantecedentidentificationfollowedbyanaphoricitydetermination.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf4}(4),\mbox{\BPGS\417--434}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida:2006:ACL}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQ{E}xploiting{S}yntactic{P}atternsas{C}luesin{Z}ero-{A}naphora{R}esolution.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheACL(COLING-ACL)},\mbox{\BPGS\625--632}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田~\Jetal}{2007}]{iida:2007:NL}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2007\BBCP.\newblock\JBOQ{NAIST}テキストコーパス:述語項構造と共参照関係のアノテーション\JBCQ\\newblock\Jem{情報処理学会研究会報告(自然言語処理研究会)},\mbox{\BPGS\71--78}.\newblockNL-177-10.\bibitem[\protect\BCAY{Jiang\BBA\Ng}{Jiang\BBA\Ng}{2006}]{jiang:2006:EMNLP}Jiang,Z.~P.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQ{S}emantic{R}ole{L}abelingof{N}om{B}ank:{A}{M}aximum{E}ntropy{A}pproach.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara:2006:LREC}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQ{C}ase{F}rame{C}ompilationfromthe{W}ebusing{H}igh-{P}erformance{C}omputing.\BBCQ\\newblockIn{\BemProceedingsofthefifthInternationalConferenceonLanguageResourceandEvaluation(LREC)},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{bgh:2004}国立国語研究所\BBOP2004\BBCP.\newblock\Jem{分類語彙表}.\newblock大日本図書株式会社.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2004}]{kudo:2004:EMNLP}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQ{B}oosting{A}lgorithmfor{C}lassificationof{S}emi-{S}tructured{T}ext.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\301--308}.\bibitem[\protect\BCAY{黒橋}{黒橋}{2005}]{kurohashi:2005}黒橋禎夫\BBOP2005\BBCP.\newblock\Jem{京都テキストコーパスVersion4.0}.\newblockhttp://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus.html.\bibitem[\protect\BCAY{Liu\BBA\Ng}{Liu\BBA\Ng}{2007}]{liu:2007:ACL}Liu,C.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2007\BBCP.\newblock\BBOQ{LearningPredictiveStructuresforSemanticRoleLabelingofNomBank.}\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheACL}.\bibitem[\protect\BCAY{Macleod,Meyers,Grishman,Barret,\BBA\Reeves}{Macleodet~al.}{1997}]{macleod:1997:RANLP}Macleod,C.,Meyers,A.,Grishman,R.,Barret,L.,\BBA\Reeves,R.\BBOP1997\BBCP.\newblock\BBOQ{DesigningaDictionaryofDerivedNominals.}\BBCQ\\newblockIn{\BemProceedingsofRecentAdvancesinNaturalLanguageProcessing}.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{2002}]{mainichi:2002}毎日新聞社\BBOP2002\BBCP.\newblock\Jem{毎日新聞}.\newblock毎日新聞社.\bibitem[\protect\BCAY{Marcus,Santorini,\BBA\Marcinkiewicz}{Marcuset~al.}{1993}]{marcus:1993:CL}Marcus,M.~P.,Santorini,B.,\BBA\Marcinkiewicz,M.~A.\BBOP1993\BBCP.\newblock\BBOQ{B}uildinga{L}arge{A}nnotated{C}orpusof{E}nglish:{T}he{P}enn{T}reebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{Meyers,Reeves,\BBA\Macleod}{Meyerset~al.}{2004a}]{meyers:2004:ACL}Meyers,A.,Reeves,R.,\BBA\Macleod,C.\BBOP2004a\BBCP.\newblock\BBOQ{NP}-{E}xternal{A}rguments:{A}{S}tudyof{A}rgument{S}haringin{E}nglish.\BBCQ\\newblockIn{\BemProceedingsoftheACL2004WorkshoponMultiwordExpressions:IntegratingProcessing},\mbox{\BPGS\96--103}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004b}]{meyers:2004:LREC}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004b\BBCP.\newblock\BBOQ{A}nnotating{N}oun{A}rgument{S}tructurefor{N}om{B}ank.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\803--806}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004c}]{meyers:2004:NAACL-HLT}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004c\BBCP.\newblock\BBOQ{T}he{N}om{B}ank{P}roject:{A}n{I}nterim{R}eport.\BBCQ\\newblockIn{\BemProceedingsoftheHLT/NAACL2004WorkshopFrontiersinCorpusAnnotation},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{Meza-Ruiz\BBA\Riedel}{Meza-Ruiz\BBA\Riedel}{2009}]{meza-ruiz:2009:NAACL-HLT}Meza-Ruiz,I.\BBACOMMA\\BBA\Riedel,S.\BBOP2009\BBCP.\newblock\BBOQ{JointlyIdentifyingPredicates,ArgumentsandSensesusingMarkovLogic}.\BBCQ\\newblockIn{\BemProceedingsofHumalLanguageTechnologies:The2009AnnualConferenceontheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL-HLT2009)},\mbox{\BPGS\i155--163}.\bibitem[\protect\BCAY{村木}{村木}{1990}]{muraki:1990}村木新二郎\BBOP1990\BBCP.\newblock\Jem{日本語動詞の諸相}.\newblockひつじ書房.\bibitem[\protect\BCAY{Palmer,Kingsbury,\BBA\Gildea}{Palmeret~al.}{2005}]{palmer:2005:CL}Palmer,M.,Kingsbury,P.,\BBA\Gildea,D.\BBOP2005\BBCP.\newblock\BBOQ{T}he{P}roposition{B}ank:{A}n{A}nnotated{C}orpusof{S}emantic{R}oles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Pradhan,Hacioglu,Krugler,Ward,Martin,\BBA\Jurafsky}{Pradhanet~al.}{2005}]{pradhan:2005:ML}Pradhan,S.,Hacioglu,K.,Krugler,V.,Ward,W.,Martin,J.~H.,\BBA\Jurafsky,D.\BBOP2005\BBCP.\newblock\BBOQ{S}upport{V}ector{L}earningfor{S}emantic{A}rgument{C}lassification.\BBCQ\\newblock{\BemMachineLearning},{\Bbf60}(1-3),\mbox{\BPGS\11--39}.\bibitem[\protect\BCAY{Pradhan,Sun,Ward,Martin,\BBA\Jurafsky}{Pradhanet~al.}{2004}]{pradhan:2004:NAACL-HLT}Pradhan,S.,Sun,H.,Ward,W.,Martin,J.~H.,\BBA\Jurafsky,D.\BBOP2004\BBCP.\newblock\BBOQ{P}arsing{A}rgumentsof{N}ominalizationsin{E}nglishand{C}hinese.\BBCQ\\newblockIn{\BemProceedingsoftheHLT/NAACL}.\bibitem[\protect\BCAY{笹野\JBA河原\JBA黒橋}{笹野\Jetal}{2005}]{sasano:2005:NLJ}笹野遼平\JBA河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock\JBOQ名詞格フレーム辞書の自動構築とそれを用いた名詞句の関係解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\129--144}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira:2008:EMNLP}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQ{AJapanesePredicateArgumentStructureAnalysisusingDecisionLists}.\BBCQ\\newblockIn{\BemProceedingsofConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2008)},\mbox{\BPGS\522--531}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{vapnik:1998}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\Bem{T}he{S}tatistical{L}earning{T}heory}.\newblockSpringer.\bibitem[\protect\BCAY{Xue}{Xue}{2006a}]{xue:2006:LREC}Xue,N.\BBOP2006a\BBCP.\newblock\BBOQ{A}nnotatingthe{P}redicate-{A}rgument{S}tructureof{C}hinese{N}ominalizations.\BBCQ\\newblockIn{\BemProceedingsofthefifthInternationalConferenceonLanguageResourceandEvaluation(LREC)},\mbox{\BPGS\1382--1387}.\bibitem[\protect\BCAY{Xue}{Xue}{2006b}]{xue:2006:HLT-NAACL}Xue,N.\BBOP2006b\BBCP.\newblock\BBOQ{S}emantic{R}ole{L}abelingof{N}ominalized{P}redicatesin{C}hinese.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACL},\mbox{\BPGS\431--438}.\end{thebibliography}\begin{biography}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.博士後期課程に進学.修士(工学).2008年より日本学術振興会特別研究員(DC2).大規模なコーパスを用いた意味解析に関心がある.言語処理学会第14回年次大会最優秀発表賞受賞.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{飯田龍}{2007年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同年より奈良先端科学技術大学院大学情報科学研究科特任助教.2008年12月より東京工業大学大学院情報理工学研究科助教.現在に至る.自然言語処理の研究に従事.情報処理学会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.博士(工学).同研究科助手.九州工業大学情報工学部助教授を経て,2002年より奈良先端科学技術大学院大学情報科学研究科助教授.現在同研究科准教授,情報通信研究機構有期研究員を兼任.自然言語処理の研究に従事.ComputationalLinguistics編集委員,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.工学博士.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授.現在に至る.専門は自然言語処理.人工知能学会,日本ソフトウェア科学会,情報処理学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\end{document}
V14N01-06
\section{はじめに} \label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\kern0pt\uline{にあたって},荷物をチェックした\label{ex:niatatte-F}\itemボールは,壁\kern0pt\uline{にあたって}跳ね返った\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,文~(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現の数については,いくつかの先行研究が存在する.\cite{日本語表現文型}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{階層構造による日本語機能表現の分類}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.土屋らは,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,52種類である.本論文では,この52種類の表現を当面の検討対象として,機能表現の取り扱い状況を検討する.まず,既存の解析系について,この52種類の表現に対する取り扱い状況を調査したところ,52種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照}.52種類の表現の内,形態素解析器JUMAN~\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は31種類である.また,形態素解析器ChaSen~\cite{chasen-2.3.3}と構文解析器CaboCha~\cite{cabocha}の組合わせを用いた場合には,識別される可能性がある表現は26種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器が必要である.そのような検出器を実現する方法として,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは非現実的である.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出する方法を提案する.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha~\cite{yamcha}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた52表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.本論文の構成は以下の通りである.最初に,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べた上で,機能表現検出をチャンク同定問題として定式化する(\ref{sec:detection}章).次に,SVMを用いて機能表現検出器を実装するための詳細を説明する(\ref{sec:chunking_using_svm}章).\ref{sec:human_rule}章では,人手で判定規則を作成して機能表現を検出する手法について説明する.\ref{sec:実験と考察}章では,作成した機能表現検出器の検出性能を評価し,この検出器は,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.加えて,機械学習時に必要となる訓練データを削減する方法を検討する.\ref{sec:関連研究}章では,関連研究について述べ,最後に結論を述べる(\ref{sec:おわりに}章). \section{日本語機能表現の検出} \label{sec:detection}\subsection{日本語複合辞用例データベース}森田ら\cite{日本語表現文型}は,機能表現の中でも特に「単なる語の連接ではなく,表現形式全体として,個々の構成要素のプラス以上の独自の意味が生じている」表現を{\bfseries複合辞}と呼び,個々の構成要素の意味から構成的に表現形式全体の意味を説明できるような表現とは区別している.現代語複合辞用例集\cite{複合辞用例集}(以下,{\bfseries複合辞用例集}と呼ぶ)は,主要な125種類の複合辞について,用例を集成し,説明を加えたものである.日本語複合辞用例データベース\cite{日本語複合辞用例データベースの作成と分析}(以下,{\bfseries用例データベース}と呼ぶ)は,機能表現の機械処理を研究するための基礎データを提供することを目的として設計・編纂されたデータベースである.用例データベースは,複合辞用例集に収録されている125種類の複合辞および,その異形(合計337種類の機能表現)を対象として,機能表現候補と一致する表記のリストと,個々の機能表現候補に対して最大50個の用例を収録している.そして,各機能表現候補が文中において果たしている働きを,\tabref{tbl:判定ラベル体系}に示す6種類の判定ラベルのうちから人手で判定し,付与している.機能表現に対して付与される判定ラベルは,F,A,Mのいずれかであり,これらが本論文における検出対象となる.\begin{table}[tb]\caption{判定ラベル体系}\label{tbl:判定ラベル体系}\newcommand{\exlabel}[1]{}\begin{center}\footnotesize\def\arraystretch{}\begin{tabular}{c|c|c|c|c|p{184pt}}\hline\hline判定&判定&&内容&&\\[-1pt]ラベル&単位&読み&vs機能&用法&\multicolumn{1}{c}{例文}\\\hlineB&不適切&\multicolumn{3}{c|}{}&\exlabel{ex:A43-2000:B}…と谷川王将は気\kern0pt\uline{にかけて}\kern0ptいる.\\\hlineY&適切&不一致&\multicolumn{2}{c|}{}&\hangafter=1\hangindent=13.7pt\exlabel{ex:A12-1000:Y}~地球\kern0pt\uline{上では},人口の増加,異常気象が心配されている.\\\hlineC&適切&一致&内容的&内容的用法&\hangafter=1\hangindent=13.7pt\exlabel{ex:A56-1000:C}~まな板\kern0pt\uline{にとって}\kern0ptていねいに…みそ汁の実にするのである.\\\hlineF&適切&一致&機能的&複合辞用例集の用法&\hangafter=1\hangindent=13.7pt\exlabel{ex:A22-1000:F}~受験などでは倍率が上がった\kern0pt\uline{ところで}\kern0pt入学金があがることはない.\\A&適切&一致&機能的&接続詞的用法&\hangafter=1\hangindent=13.7pt\exlabel{ex:A22-1000:A}~\uline{ところで},全国の桜の名所では近年,樹勢の衰えが目立ち,…\\M&適切&一致&機能的&他の機能的用法&\hangafter=1\hangindent=13.7pt\exlabel{ex:A22-1000:M}~浜ノ島はあと一歩の\kern0pt\uline{ところで}\kern0pt勝ち星に結び付かず負け越した.\\\hline\end{tabular}\end{center}\end{table}\subsection{判定ラベル体系}\label{subsec:label}判定ラベルとは,機能表現候補が文中でどのような働きをしているかを表すラベルであり,用例データベースでは\tabref{tbl:判定ラベル体系}の通り,6種類のラベルが設定されている.以下,個々の判定ラベルについて説明する.用例データベースでは,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}に登録されている語から,「助詞・格助詞・連語」として登録されている語を取り除いた残りの語を,語としている.そして,ある機能表現候補が,1個以上の語,複合辞または慣用表現からなる列である場合,その候補は判定単位として適切であるが,それ以外の場合は,その候補は判定単位として不適切であるとして,判定ラベルBを付与している.例えば,\tabref{tbl:判定ラベル体系}中の\strref{ex:A43-2000:B}に含まれる機能表現候補「にかけて」は,「心配する」という意味の慣用表現「気にかける」の一部が活用した形であり,先に述べた条件を満たしていない.したがって,\strref{ex:A43-2000:B}には,判定ラベルBが付与される.判定ラベルYは,機能表現候補の読みが,判定対象となっている機能表現の読みと一致していないことを表す.例えば,「AうえでB」という形で,「Aした後でB」という出来事の継起関係を表す機能表現「うえで」の用例として\tabref{tbl:判定ラベル体系}中の\strref{ex:A12-1000:Y}を判定する場合を考える.この場合,機能表現候補の読み「じょうで」と,判定対象となっている機能表現の読み「うえで」が一致していないので.判定ラベルYを付与する.判定ラベルCは,機能表現候補に内容的に働いている語が含まれていることを表す.例えば,\tabref{tbl:判定ラベル体系}中の\strref{ex:A56-1000:C}の機能表現候補に含まれる動詞「とる」は本来の意味で内容的に働いているので,判定ラベルとしてCを付与する.判定ラベルF,A,Mは,機能表現候補が機能的に働いているとき,その機能を区別するためのラベルである.判定ラベルFは,機能表現候補が複合辞用例集で説明されている用法で働いていることを表し,判定ラベルAは,機能表現候補が接続詞的に働いていることを表す.判定ラベルMは,これら以外の機能的な働きをしていることを表す.例として,「ところで」の用例として\tabref{tbl:判定ラベル体系}中の\strref{ex:A22-1000:F}$\sim$(\ref{ex:A22-1000:M})を判定する場合を考える.\strref{ex:A22-1000:F}のターゲット文字列は,複合辞用例集で説明されている通りに逆接の働きをしているので,判定ラベルFを付与する.\strref{ex:A22-1000:A}のターゲット文字列は,文頭で接続詞的に働いているので,判定ラベルAを付与する.\strref{ex:A22-1000:M}のターゲット文字列は,形式名詞「ところ」を含めて機能的に働いているので,判定ラベルMを付与する.本論文では,判定ラベルF,A,Mが付与される機能表現候補を検出対象とする.\subsection{チャンキングによる定式化}\label{subsec:formalization}\vspace*{-2pt}本節では,最初に,機能表現検出タスクに対して機械学習的手法を適用する場合に,考慮しておくべき2つの問題点について述べる.第1の問題点は,学習データの分量とモデルの複雑さの間に存在するトレードオフの関係であり,第2の問題点は,機能表現候補が部分的に重複して現れた場合の取り扱いである.その上で,機能表現を検出する手順として,以下の2通りの手順を検討する.\begin{itemize}\item1つまたは複数の形態素からなる機能表現候補を単位として,判定ラベルを付与する手順(以下,{\bfseries手順1}と呼ぶ).\item形態素を単位として,機能表現の一部であることを表すチャンクタグを付与する手順(以下,{\bfseries手順2}と呼ぶ).\end{itemize}手順2については,検出対象とする機能表現の取り扱い方によって,更に2通りに細分化することができる.第1は,検出対象とする全ての機能表現に同一のチャンクタグを用いる手順(以下,{\bfseries手順2-a}と呼ぶ)であり,第2は,機能表現毎に異なるチャンクタグを用いる手順(以下,{\bfseries手順2-b}と呼ぶ)である.機能表現検出タスクに対して機械学習的手法を適用する場合には,まず,学習データの分量とモデルの複雑さの間に存在するトレードオフの関係を考慮する必要がある.一般に,あるタスクに対して機械学習手法を適用する時,そのタスクの対象をどの程度に細分化してモデルで表現するかは,非常に重要な問題である.十分な分量の学習データが利用可能である場合には,タスクの対象を細かく分類した複雑なモデルを採用することによって,モデルの予測精度は改善する.しかし,不十分な分量の学習データしか利用できない場合に,過度に複雑なモデルを採用すると,モデルの予測精度は悪化する.つまり,機能表現検出タスクに対して機械学習的手法を適用する場合には,利用できる学習データの量を考慮しながら,適当な複雑さのモデルを選択する必要がある.機能表現検出タスクに対して機械学習的手法を適用する場合には,第2の問題点として,機能表現候補が部分的に重複して現れる場合を考慮する必要がある.例えば,\strref{ex:toiu-F}と\strref{ex:toiumonono-F}には,「という」および「というものの」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\itemそれが試合\kern0pt\uline{\uline{という}{\kern0pt}ものの}{\kern0pt}難しさだ.\label{ex:toiu-F}\item勝った{\kern0pt}\uline{\uline{という}}\uline{ものの},スコアは悪い.\label{ex:toiumonono-F}\end{example}\strref{ex:toiu-F}では,「AというB」という形で用いられてBの具体的な内容を示しているので,2つの機能表現候補の内,「という」という機能表現候補に対して,機能的であるという判定を行う必要がある.それに対して,\strref{ex:toiumonono-F}では,「AというもののB」の形で,前件Aの成立・存在を認めた上で,それにもかかわらず後件Bのようなことがあるという関係を述べているので,2つの機能表現候補の内,「というものの」という機能表現候補に対して,機能的であるという判定を行う必要がある.実際に予備調査を行った結果から,機能表現候補の出現箇所の約20\%において,このように複数の機能表現候補の一部が重複した形で現れることが分かった.したがって,機能表現検出において,複数の機能表現候補が部分的に重複して現れる場合を無視することは適当ではなく,その複数の候補を適切に扱う必要がある.以上の問題点を踏まえて,手順1について検討する.ある1つの機能表現候補に適切な判定ラベルを付与するには,その候補に付与される可能性がある複数の判定ラベル間に優先順位を与えるモデルが必要である.つまり,判定ラベルの数を$U$とすると,$U$に比例した複雑さのモデルが必要である.手順1では,機能表現毎に個別に判定ラベルを付与するため,機能表現の種類数を$V$とすると,判定ラベルの総数は,候補毎の判定ラベルの数$U$と機能表現の種類数$V$の積$U\cdotV$となる.したがって,手順1のモデルの複雑さは,$U\cdotV$に比例する.また,第2の問題点に対応するには,部分的に重複している複数の機能表現候補と判定ラベルの対から,適当なものを選択する必要がある.手順1のモデルでは,機能表現候補と判定ラベルの$U\cdotV$通りの対を全て区別しているので,それらを比較することにより,適当な対を選択する.次に,手順2について検討する.手順2では,形態素を単位として判定を行い,それぞれの形態素に,機能表現の一部であることを表すチャンクタグを付与する.ある形態素に適切なチャンクタグを付与するには,その形態素に付与される可能性がある全てのチャンクタグに優先順位を与えるモデルが必要である.このようなモデルの複雑さは,その形態素に付与される可能性があるチャンクタグの種類数に比例する.さらに,チャンクタグ$c$を形態素$m_{1}$に付与する場合と形態素$m_{2}$に付与する場合の2通りの状況を考える.また,機能表現に含まれる全ての形態素の異なり数$M$とする.この時,同一のチャンクタグ$c$を付与する場合であっても,付与対象となる形態素が異なる場合には異なるモデルが必要という立場に立つと,手順2のモデルの複雑さは,チャンクタグの種類数と,形態素の異なり数$M$の積に比例すると考えられる.この分析を踏まえて,手順2-aと手順2-bのモデルの複雑さを検討する.手順2-aでは,検出対象とする全ての機能表現に同一のチャンクタグを用いる.このチャンクタグは,その形態素が含まれるチャンクの用法を表す判定ラベルと,その形態素がチャンクの中で占める位置を表す部分からなり,チャンクタグの種類数は$U$に比例する.よって,手順2-aのモデルの複雑さは$U\cdotM$に比例する.一方,手順2-bでは,機能表現毎に異なるチャンクタグを用いる.このチャンクタグは,その形態素がどの機能表現の一部であるかを表す部分,その形態素が含まれるチャンクの用法を表す判定ラベル,および,その形態素がチャンクの中で占める位置を表す部分からなり,チャンクタグの種類数は$U\cdotV$に比例する.よって,手順2-bのモデルの複雑さは,$U\cdotV\cdotM$に比例する.また,手順2では,形態素を単位としてチャンクタグを付与することによって,部分的に重複している複数の機能表現候補の選択も同時に行っている.例えば,\strref{ex:toiu-F},(\ref{ex:toiumonono-F})の場合,形態素「もの」に対してチャンクタグを付与すると,機能表現候補「という」と機能表現候補「というものの」のどちらが適切かという選択も同時に行われる.先に述べた通り,モデルの複雑さと,モデルの推定に必要となる学習データの量にはトレードオフの関係が存在する.手順1のモデルの複雑さは$U\cdotV$に比例し,手順2-aのモデルの複雑さは$U\cdotM$に比例し,手順2-bのモデルの複雑さは$U\cdotV\cdotM$に比例する.\ref{sec:intro}章で述べたように,異形を考慮すると,機能表現の種類数$V$は1万種類以上となる.それに対して,機能表現中に現れる形態素は,助詞・助動詞などの付属語と限られた自立語のみであり,機能表現中に現れる形態素の異なり数$M$は,機能表現の種類数$V$よりもはるかに少なく,多くても数百程度と予想される.したがって,検討した手順の中で,もっとも簡単なモデルを使っている手順は,手順2-aである.本論文では,利用できる学習データの量が十分ではない可能性を考慮して,複雑なモデルの採用を避け,できるだけ簡単なモデルの手順を採用することにする.よって,本論文における機能表現検出タスクの定式化においては,手順2-aを採用する.すなわち,形態素を単位として,機能表現の一部であることを表すチャンクタグを付与し,機能表現をチャンキングするという方式を採用する.そのチャンクタグとしては,検出対象とする全ての機能表現に同一のチャンクタグを用いる. \section{SVMを用いたチャンキングによる機能表現検出} \label{sec:chunking_using_svm}\subsection{SupportVectorMachines}サポートベクトルマシンは,素性空間を超平面で分割することによりデータを2つのクラスに分類する二値分類器である\cite{SVM,tinysvm}.2つのクラスを正例,負例とすると,学習データにおける正例と負例の間隔(マージン)を最大にする超平面を求め,それを用いて分類を行う.すなわち,以下の識別関数$f(x)$の値によってクラスを判別することと等価である.\begin{align}\label{eq:svm1}f({\bfx})&=\operatorname{sgn}\left(\sum^{l}_{i=1}\alpha_iy_iK({\bfx}_i,{\bfx})+b\right)\\b&=-\frac{\operatorname{max}_{i,y_i=-1}b_i+\operatorname{min}_{i,y_i=1}b_i}{2}\nonumber\\b_i&=\sum^l_{j=1}\alpha_jy_jK({\bfx}_j,{\bfx}_i)\nonumber\end{align}ここで${\bfx}$は識別したい事例の文脈(素性の集合),${\bfx}_{i}$と$y_i(i=1,...,l,y_i\in\{1,-1\})$は学習データの文脈とクラスである.また,関数$sgn(x)$は,$x\geq0$のときに1,$x<0$のときに$-1$となる二値関数である.\pagebreak各$\alpha_i$は,式(\ref{eq:svm5})と式(\ref{eq:svm6})の制約のもとで式(\ref{eq:svm4})の$L(\alpha)$を最大にするものである.{\allowdisplaybreaks\begin{align}L({\alpha})&=\sum^l_{i=1}\alpha_i-\frac{1}{2}\sum^l_{i,j=1}\alpha_i\alpha_jy_iy_jK({\bfx_i},{\bfx_j})\label{eq:svm4}\\&0\leq\alpha_i\leqC\,\,(i=1,...,l)\label{eq:svm5}\\&\sum^l_{i=1}\alpha_iy_i=0\label{eq:svm6}\end{align}}関数$K$はカーネル関数と呼ばれ,様々なものが提案されているが,本論文では次式で定義される多項式カーネルを用いる.\begin{equation}\label{eq:svm3}K({\bfx},{\bfy})=({\bfx}\cdot{\bfy}+1)^d\end{equation}ここで,$C,d$は実験的に設定される定数である.予備実験を行い,次数$d$の値として$1,2,3$の3通りを検討した.$d=2,3$とした場合はF値に大きな差はなかったが,$d=1$とするとF値がかなり悪化した\footnote{評価尺度(F値)については\ref{subsec:評価尺度}節を参照}.ただし,$d=3$とした場合は,$d=2$とした場合に比べて,学習時間がかなり増加したため,本論文では,次数$d$の値として2を用いる.また,予備実験において,マージン$C$の値として$1,0.1,0.01,0.001,0.0001$の5通りを検討したところ,F値に大きな差が見られなかったため,本論文ではマージン$C$の値として1を用いる.\subsection{チャンクタグの表現法}\ref{subsec:formalization}節で述べたように,本論文では,検出対象とする機能表現全てに共通のチャンクタグを,形態素を単位として付与するという手順で,機能表現検出を行う.チャンクタグは,そのチャンクタグが付与された形態素が,検出対象とする機能表現のいずれかに含まれるか否かを表し,チャンクの範囲を示す要素とチャンクの用法を示す要素という2つの要素からなる.以下,本論文で用いたチャンクタグについて詳細を述べる.チャンクの範囲を示す要素の表現法としては,以下で示すようなIOB2フォーマット\cite{Sang00a}が広く利用されている.本論文でも,このIOB2フォーマットを使用する.\begin{quote}\begin{tabular}{cl}\textbf{I}&チャンクに含まれる形態素(先頭以外)\\\textbf{O}&チャンクに含まれない形態素\\\textbf{B}&チャンクの先頭の形態素\\\end{tabular}\end{quote}\begin{table}\begin{center}\caption{チャンクの用法を示す要素の体系}\label{tab:tag}\begin{tabular}{c||c|c|c|c|c|c}\hline体系1(CHK1)&F&A&M&C&Y&B\\\hline体系2(CHK2)&\multicolumn{1}{c}{F}&\multicolumn{1}{c}{A}&\multicolumn{1}{c|}{M}&C&Y&B\\\hline体系3(CHK3)&\multicolumn{1}{c}{F}&\multicolumn{1}{c}{A}&\multicolumn{1}{c|}{M}&\multicolumn{1}{c}{C}&\multicolumn{1}{c}{Y}&\multicolumn{1}{c}{B}\\\hline体系4(CHK4)&F&\multicolumn{1}{c}{A}&\multicolumn{1}{c}{M}&\multicolumn{1}{c}{C}&\multicolumn{1}{c}{Y}&\multicolumn{1}{c}{B}\\\hline体系5(CHK5)&F&\multicolumn{1}{c}{A}&\multicolumn{1}{c|}{M}&\multicolumn{1}{c}{C}&\multicolumn{1}{c}{Y}&\multicolumn{1}{c}{B}\\\hline体系6(CHK6)&F&\multicolumn{1}{c}{A}&\multicolumn{1}{c|}{M}&C&Y&B\\\hline体系7(CHK7)&F&A&M&\multicolumn{1}{|c}{C}&\multicolumn{1}{c}{Y}&B\\\hline体系8(CHK8)&\multicolumn{1}{c}{F}&M&A&\multicolumn{1}{|c}{C}&\multicolumn{1}{c}{Y}&B\\\hline体系9(CHK9)&\multicolumn{1}{c}{F}&M&A&C&Y&B\\\hline体系10(CHK10)&F&A&M&\multicolumn{3}{c}{---}\\\hline体系11(CHK11)&F&\multicolumn{1}{c}{A}&M&\multicolumn{3}{c}{---}\\\hline体系12(CHK12)&\multicolumn{1}{c}{F}&\multicolumn{1}{c}{A}&M&\multicolumn{3}{c}{---}\\\hline体系13(CHK13)&\multicolumn{1}{c}{F}&M&A&\multicolumn{3}{c}{---}\\\hline\end{tabular}\end{center}\end{table}チャンクの用法を示す要素の表現法としては,\tabref{tab:tag}のように様々なものが考えられる.例えば,体系5(CHK5)は,6種類の判定ラベルF,A,M,C,Y,Bのうち,ラベルA,MとラベルC,Y,Bをそれぞれ区別せずに1つの分類とみなす表現法である.そして,各機能表現候補は,チャンクであることを表す要素(B/I)と,用法を示す要素(F/AM/CYB)を組み合わせた6種類のチャンクタグによって表現される.実際には,この6種類に,チャンクに含まれないことを表すチャンクタグ{\bfseriesO}を加えて,\figref{fig:chunktag}のように7種類のチャンクタグを付与する.また,体系11(CHK11)は,判定ラベルF,A,Mの機能表現候補に対しては体系5と同様にチャンクタグを付与するが,判定ラベルC,Y,Bの機能表現候補に対しては,チャンクとして区別せずに,チャンクタグ{\bfseriesO}を付与する体系である.予備実験の結果,いずれの表現法を用いても大きな性能の差は見られなかったため,本論文では,最も性能が良かった体系5(CHK5)を用いる.\begin{figure}\begin{center}\begin{tabular}{l|c||c|c|c|c}\hline\multicolumn{2}{c||}{}&\multicolumn{3}{c|}{機能表現候補の形態素}&それ以外の形態素\\\cline{3-5}\multicolumn{2}{c||}{}&F&A,M&C,Y,B&\\\hline\hlineチャンクに含まれる&先頭&{\bfseriesB-F}&{\bfseriesB-AM}&{\bfseriesB-CYB}&\\\cline{2-5}&先頭以外&{\bfseriesI-F}&{\bfseriesI-AM}&{\bfseriesI-CYB}&\\\hline\multicolumn{2}{l||}{チャンクに含まれない}&\multicolumn{3}{c|}{}&{\bfseriesO}\\\hline\end{tabular}\end{center}\vspace{8pt}\caption{体系5(CHK5)におけるチャンクタグ}\label{fig:chunktag}\vspace{-2pt}\end{figure}本論文では,用例データベースで設定されている判定ラベルのうち,ラベルFが付与された表現を検出する検出器(これを,検出器Fと呼ぶ)と,ラベルF,A,Mのいずれかが付与された表現(機能表現)を検出する検出器(これを,検出器FAMと呼ぶ)を作成する.検出器FAMの評価時には,判定ラベルF,A,Mを区別しない.判定ラベルFは,複合辞用例集で説明されている用法で用いられていることを表す判定ラベルであり,機能表現候補がひとかたまりとなって非構成的な意味を持っている場合にのみ付与される.それに対して,判定ラベルA,Mは,機能表現候補が非構成的な意味を持っているか否かに関わらず,その機能表現候補が機能的な働きをしていることを表すラベルである.したがって,検出器Fは,非構成的な意味を持つ機能表現(の一部)のみを検出する検出器となり,検出器FAMは機能表現全体を検出する検出器となる.SVMは二値分類器であるため,そのままでは,2クラスの分類しか扱えない.本論文のようにクラス数が3以上の場合には,複数の二値分類器を組み合わせて拡張する必要がある.本論文では,拡張手法としては,広く利用されているペアワイズ法を用いる.ペアワイズ法とは,$N$個のクラスに属するデータを分類する時,異なる2つのクラスのあらゆる組み合わせに対する二値分類器を作り,得られた$N(N-1)/2$個の二値分類器の多数決により,クラスを決定する方法である.\subsection{素性}\label{subsec:feature}学習・解析に用いる素性について説明する.文頭から$i$番目の形態素$m_{i}$に対して与えられる素性$F_{i}$は,形態素素性$MF(m_{i})$,チャンク素性$CF(i)$,チャンク文脈素性$OF(i)$の3つ組として,次式によって定義される.\begin{equation}F_{i}=\langleMF(m_{i}),CF(i),OF(i)\rangle\end{equation}形態素素性$MF(m_{i})$は,形態素解析器によって形態素$m_{i}$に付与される情報である.本論文では,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}に基づいて動作する形態素解析器ChaSenによる形態素解析結果を入力としているため,以下の10種類の情報(表層形,品詞,品詞細分類$1\sim3$,活用型,活用形,原形,読み,発音)を形態素素性として用いた.チャンク素性$CF(i)$とチャンク文脈素性$OF(i)$は,$i$番目の位置に出現している機能表現候補に基づいて定まる素性である.今,下図のような形態素列$m_j\ldotsm_i\ldotsm_k$からなる機能表現候補$E$が存在したとする.\begin{center}\begin{tabular}[tb]{ccccc}$m_{j-2}$&$m_{j-1}$&\fbox{$m_j\ldotsm_i\ldotsm_k$}&$m_{k+1}$&$m_{k+2}$\\&&機能表現候補$E$&&\end{tabular}\end{center}チャンク素性$CF(i)$は,$i$番目の位置に出現している機能表現候補$E$を構成している形態素の数(機能表現候補の長さ)と,機能表現候補中における形態素$m_{i}$の相対的位置の情報の2つ組である.チャンク文脈素性$OF(i)$は,$i$番目の位置に出現している機能表現候補の直前2形態素および直後2形態素の形態素素性とチャンク素性の組である.すなわち,$i$番目の位置に対する$CF(i)$および$OF(i)$は次式で表される.\begin{align*}CF(i)&=\langlek-j+1,\;\;i-j+1\rangle\\OF(i)&=\langleMF(m_{j-2}),CF(m_{j-2}),MF(m_{j-1}),CF(m_{j-1}),\\&\quad\;\phantom{\langle}MF(m_{k+1}),CF(m_{k+1}),MF(m_{k+2}),CF(m_{k+2})\rangle\end{align*}\begin{figure}[b]\begin{center}\includegraphics[width=.6\textwidth]{06f2.eps}\caption{YamChaの学習・解析}\label{yamcha}\end{center}\end{figure}\ref{subsec:formalization}節で述べたように,機能表現検出においては,1つの文中に,複数の機能表現候補が部分的に重複して現れる場合を考慮する必要がある.ここでは,そのような場合のチャンク素性とチャンク文脈素性の付与方法について考える.複数の機能表現候補が部分的に重複して現れている場合,それらの候補全てに基づいてチャンク素性とチャンク文脈素性を付与するという方法と,それらの候補から何らかの基準を用いて1つの候補を選択し,選択された候補に基づいてチャンク素性とチャンク文脈素性を付与するという方法が考えられる.前者の方法で付与された素性を参照して機械学習を行うには,重複する可能性がある機能表現の全ての組み合わせに対して十分な量の学習事例が必要であるが,そのような学習事例を準備することは現実的ではない.そのため,本論文では,後者の方法を採り,次の優先順序に従って選ばれた1つの機能表現候補に基づいて,チャンク素性とチャンク文脈素性を付与することにする\footnote{この優先順序は,人手で作成した判定規則に基づく手法(\ref{sec:human_rule}章)において,複数の機能表現候補が部分的に重なって出現し,それらに対する判定ラベルが競合した場合に,適切な判定ラベル付与結果を取捨選択する場合の優先順序とは異なっている.ここでは,学習・解析方向が左から右であることを考慮して,最も左側の機能表現候補を優先している.}.\begin{description}\item[1]先頭の形態素が,最も左側の機能表現候補を用いる.\item[2]1を満たす候補が複数存在する場合は,その中で最も形態素数が多い候補を用いる.\end{description}例えば,\strref{ex:nakutehaikemasen}には,「なくてはいけません」および「てはいけません」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\item慎重にし{\kern0pt}\uline{なく}\uline{\uline{てはいけません}}.\label{ex:nakutehaikemasen}\end{example}この場合,「なくてはいけません」という機能表現候補が,「てはいけません」という機能表現候補に比べて,より左の形態素から始まっているので,「なくてはいけません」という機能表現候補に基づいて,チャンク素性とチャンク文脈素性を付与する.また,\strref{ex:toiumonono}には,「という」および「というものの」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\itemそれが試合{\kern0pt}\uline{\uline{という}}\uline{ものの}{\kern0pt}難しさだ.\label{ex:toiumonono}\end{example}この場合,2つの機能表現候補の先頭の形態素は同一であるため,より形態素数が多い候補「というものの」に基づいて,チャンク素性とチャンク文脈素性を付与する.$i$番目の形態素に対するチャンクタグを$c_{i}$とすると,チャンクタグ$c_{i}$の学習・解析を行う場合に用いる素性として,$i$番目の形態素および前後2形態素に付与された素性$F_{i-2},F_{i-1},F_{i},F_{i+1},F_{i+2}$と,直前2形態素に付与されたチャンクタグ$c_{i-2},c_{i-1}$を用いる(\figref{yamcha}).解析時には,解析によって得られたチャンクタグを,直前2形態素に付与されたチャンクタグとして順に利用して,解析を行う.前後3形態素の素性と直前3形態素のチャンクタグを用いて学習・解析を行う予備実験も行ったが,前後2形態素の素性と直前2形態素のチャンクタグを用いた場合に比べて,殆んど性能が変わらなかったため,前後2形態素の素性と直前2形態素のチャンクタグを用いる. \section{人手による規則を用いた検出} \label{sec:human_rule}この節では,形態素解析結果に基づいて,人手で作成した規則によって機能表現候補の用法を識別する検出器の概略について述べる.形式的には,ある機能表現候補$E$の用法を判定する規則$T(E)$は,形態素列パターン$P(E)$と,判定規則リスト$R(E)$の2つ組として,次のように定義される.\[T(E)\equiv\langleP(E),\:R(E)\rangle\]機能表現候補$E$に一致する形態素列パターン$P(E)$は,1つの形態素に一致する形態素パターン$p$の列である.\begin{align*}P(E)&\equivp_{1}p_{2}\cdotsp_{l}\\p&\equiv\langleLex,\:POS,\:FORM\rangle\end{align*}形態素パターン$p$は,形態素の基本形の表記$Lex$,品詞$POS$および活用形$FORM$の3つ組として定義される.例えば,「として」に対する形態素列パターン$P(\mbox{として})$は,以下のように3つの形態素パターンからなる.\[P(\mbox{として})=\langle\kern0pt\mbox{と},~\mbox{助詞},*\rangle\\langle\kern0pt\mbox{する},~\mbox{動詞},~\mbox{連用形}\kern0pt\rangle\\langle\kern0pt\mbox{て},~\mbox{助詞},*\rangle\]なお,本論文では,IPA品詞体系の形態素解析用辞書に基づいて動作する形態素解析器ChaSenによる形態素解析結果を入力としているため,品詞と活用形はIPA品詞体系で指定する.また,判定規則リスト$R(E)$は,機能表現候補の直前の形態素列に一致する左接続制約$LC$,直後の形態素列に一致する右接続制約$RC$,および,これらの制約を満たした場合の判定ラベル$L$からなる3つ組として定義される判定規則$r$の順序付き集合である.\begin{align*}R(E)&\equiv\{r_{1},r_{2},\ldots,r_{k}\}\\r&\equiv\langleLC,\:RC,\:L\rangle\end{align*}左接続制約$LC$および右接続制約$RC$は,論理関数$\mathtt{and},~\mathtt{or},~\mathtt{not}$と,\pagebreak左接続素性$LF$または右接続素性$RF$の組み合わせである.\begin{align*}LC&\equivLF\|\{\ttand}(LC',LC'')\|\{\ttor}(LC',LC'')\|\{\ttnot}(LC')\\RC&\equivRF\|\{\ttand}(RC',RC'')\|\{\ttor}(RC',RC'')\|\{\ttnot}(RC')\end{align*}ここで,$LC',LC''$は任意の左接続制約を表し,$RC',RC''$は任意の右接続制約を表す.例えば,「として」に対する判定規則リスト$R(\mbox{として})$は,以下のような2つの判定規則の順序付き集合である.\[R(\mbox{として})=\left\{\langle\phi,{\ttand}(\mbox{助動詞},~{\ttnot}(\langle\kern0pt\mbox{だ},~\mbox{助動詞},*\rangle)),\mbox{C}\rangle,\\langle\kern0pt\mbox{体言},\:\phi,\mbox{F}\rangle\\right\}\]最初の判定規則は,左接続制約なし,右接続制約「${\ttand}(\mbox{助動詞},\{\ttnot}(\langle\mbox{だ},\\mbox{助動詞},*\rangle))$」,判定ラベルCという3つ組である.これは,機能表現候補の右側が「だ」以外の助動詞であれば,機能表現候補の左側がどのような表現であっても,判定ラベルCを付与するという判定規則を意味する.接続素性としては,複合辞用例集で説明されている接続制約を参考にして,\tabref{tbl:左接続素性}と\tabref{tbl:右接続素性}のような素性を用意した.\begin{table}[b]\caption{左接続素性}\label{tbl:左接続素性}\begin{center}\begin{tabular}{l|p{0.6\columnwidth}}\hline$LF$&\multicolumn{1}{c}{意味}\\\hline体言&直前部分が体言である場合に真\\用言&直前部分が用言である場合に真\\基本形&直前部分が基本形の用言である場合に真\\過去形&直前部分が過去形の用言である場合に真\\助詞「の」&直前部分に名詞と助詞「の」が連続して現れている場合に真\\文頭&機能表現候補が文頭に現れている場合に真\\$p$&直前の形態素が形態素パターン$p$に一致する場合に真\\\hline\end{tabular}\end{center}\vspace*{5mm}\caption{右接続素性}\label{tbl:右接続素性}\begin{center}\begin{tabular}{l|p{0.6\columnwidth}}\hline$RF$&\multicolumn{1}{c}{意味}\\\hline助動詞&直後に助動詞が現れている場合に真\\体言&直後に体言が現れている場合に真\\文末&機能表現候補が文末に現れている場合に真\\$p$&直後の形態素が形態素パターン$p$と一致する場合に真\\\hline\end{tabular}\end{center}\end{table}このような規則$T(E)$に基づく判定は,以下の2段階からなる.最初に,形態素列パターン$P(E)$によって機能表現候補を発見し,次に,判定規則リスト$R(E)$に含まれる判定規則を先頭から順に検査して,最初に一致した判定規則$r_{i}$の判定ラベルを出力する.例えば,\strref{ex:toshite-F}の形態素解析結果を対象として判定を行う場合を考える.\begin{example}\itemたくさんの若者たちが,ボランティア{\kern0pt}\uline{として},頑張っている.\label{ex:toshite-F}\end{example}最初に形態素列パターン$P(\mbox{として})$によって下線部が機能表現候補として発見される.次に,判定規則リスト$R(\mbox{として})$に含まれている判定規則を順に適用していく.1番目の規則$\langle\phi,{\ttand}(\mbox{助動詞},\linebreak{\ttnot}(\langle\mbox{だ},~\mbox{助動詞},*\rangle)),\mbox{C}\rangle$は,右接続制約が「だ」以外の助動詞となっているが,\strref{ex:toshite-F}では,機能表現候補の直後は読点になっているから,成り立たない.2番目の規則$\langle\mbox{体言},\:\phi,\mbox{F}\rangle$は,左接続制約が「体言」になっており,\strref{ex:toshite-F}でも成り立っているので,判定ラベルとしてFを出力する.なお,全ての判定規則が成り立たなかった場合は,判定ラベルを付与しない.人手で作成した判定規則の数を,\tabref{tbl:human_crafted_rules}に示す.1つの機能表現候補を判定するための判定規則リストは,平均して2.7個の判定規則からなっている.なお,使用した接続素性は186個である.\begin{table}[t]\caption{人手で作成した判定規則数}\label{tbl:human_crafted_rules}\begin{center}\begin{tabular}{c|r}\hline判定ラベル&規則数\\\hlineF&53\\A&9\\M&11\\C&46\\Y&0\\B&26\\\hline計&145\\\hline\end{tabular}\end{center}\end{table}1つの文に対して,全ての可能な機能表現候補に対する規則を適用すると,複数の機能表現候補が照合されることがある.この時,\ref{subsec:formalization}節で述べた場合と同様に,複数の機能表現候補が部分的に重なって出現して,それらの候補に対する判定ラベルが相互に競合し,複数の判定ラベル付与結果を同時に採用できない場合がある.その場合は,以下の優先順序に従って機能表現候補を採用する.まず,形態素列長で比較して,より長い機能表現候補を採用する.機能表現候補の形態素列長が等しい場合は,先頭の形態素が最も左側の機能表現候補を採用する.既に採用されている機能表現候補と,競合する機能表現候補は,全て棄却する\footnote{この優先順序は,チャンク素性・チャンク文脈素性を付与する際に,部分的に重複する複数の機能表現候補を取捨選択するための優先順序とは異なっている(\ref{subsec:feature}節).ここでは,形態素列長として長い機能表現候補は,短い機能表現候補と比べて,判定の際の制約条件が多くなるから,より信頼できるというヒューリスティックスに基づいて,形態素列長として長い機能表現候補を優先している.}. \section{実験と考察} \label{sec:実験と考察}本論文で提案する2つの検出器,検出器Fと検出器FAMに対して,学習および解析を行い,各ベースラインと性能を比較した.\pagebreakまた,用いる素性の違いによって,性能がどのように変化するかを調査した.さらに,訓練時のデータサイズの違いと検出性能の関係を明らかにし,最後に,訓練データの作成コストの削減が可能であるかを調査した.\subsection{データセット}\label{subsec:dataset}文を単位として学習を行うには,文中に現れる全ての機能表現候補に対して判定ラベルが付与されたデータが必要である.そのため,本論文の対象とする52表現に対する用例として用例データベースに収録されている2600例文(1つの表現につき50例文)について,これらの例文に含まれている全ての機能表現候補に判定ラベルを付与した.以下,この2600例文をまとめて,全データセットと呼ぶ.\begin{table}[b]\caption{データセットの各統計量}\label{tab:dataset}\begin{center}\begin{tabular}{@{}c||c|c|c|c|c|c|c||c@{}}\hline&\multicolumn{7}{c||}{判定ラベル}&\\\cline{2-7}&F&A&M&C&Y&B&計&\raisebox{1.5ex}[0pt]{全形態素数}\\\hline全データセット&1974&55&453&523&9&169&3183&92899\\部分データセット&1478&52&342&465&8&155&2500&90813\\\hline\end{tabular}\end{center}\end{table}ただし,用例データベースでは,機能表現候補の先頭と末尾が形態素境界と一致しない候補にも判定ラベルが付与されているが,本論文では,形態素解析結果に基づいて機能表現を検出する立場をとるため,そのような機能表現候補に対する判定ラベルは取り除くことにする.具体的には,以下のような処理を行った.最初に,用例データベースに収録されている用例を,IPA品詞体系の形態素解析用辞書に基づいて動作する形態素解析器ChaSenを用いて形態素解析した.次に,形態素解析結果中に,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた.このようにして得られた形態素解析結果と機能表現候補を照合し,先頭と末尾が形態素境界と一致しなかった176個の候補に対する判定ラベルを取り除いた.取り除いた判定ラベルの内,175個は,人手によってラベルBと判定されている.また,取り除いた手順より明らかに,この175個の判定ラベルに対応する機能表現候補は,形態素解析結果のみに基づいてラベルBと判定することができる.したがって,これらの判定ラベルを取り除いても,機能表現検出の評価としては問題はない.取り除いた判定ラベルの内,残る1個は,人手によってラベルMと判定されている.この判定ラベルは,形態素解析誤りによって取り除かれてしまったが,数が僅かであり,無視することができる.全データセットに含まれる各ラベルの数と,全形態素数を\tabref{tab:dataset}に示す.1つの例文に,複数の機能表現候補が出現する場合があるため,機能表現候補の総数は,例文の総数よりも多くなっている.\subsection{評価尺度}\label{subsec:評価尺度}実験を評価する際の尺度には,以下の式で表される精度,再現率,F値,および判別率を用いた.\begin{align*}\mbox{精度}&=\frac{\mbox{検出に成功したチャンク数}}{\mbox{解析によって検出されたチャンク数}}\\[0.5zh]\mbox{再現率}&=\frac{\mbox{検出に成功したチャンク数}}{\mbox{評価データに存在するチャンク数}}\\[0.5zh]\mbox{F値}&=\frac{2\times\mbox{精度}\times\mbox{再現率}}{\mbox{精度}+\mbox{再現率}}\\[0.5zh]\mbox{判別率}&=\frac{\mbox{正解した判定ラベル数}}{\mbox{全判定ラベル数}}\end{align*}また,実験は,10分割交差検定を用いて行った.\subsection{既存の解析系に対する評価基準}\label{subsec:既存の解析系}既存の解析系(JUMAN/KNPおよびChaSen/CaboCha)は,形態素解析および構文解析段階で処理が必要となる機能表現を,部分的に処理の対象としている.しかし,明示的に機能表現を取り扱うという立場は取っていないため,機能表現のチャンキングというタスクに対する既存の解析系の性能を評価するには,その出力をどのように解釈するかを定めておく必要がある.形態素解析器JUMANと構文解析器KNPの組み合わせでは,機能表現は以下のように処理される.最初に,接続詞として形態素解析用辞書に登録されている機能表現は,形態素解析時に検出される.次に,構文解析時に,解析規則に記述された特定の形態素列が現れると,直前の文節の一部としてまとめたり,直前の文節からの係り受けのみを受けるように制約を加えて,機能表現である可能性を考慮した解析を行う.一方,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}を用いた形態素解析器ChaSenと,京都テキストコーパス\cite{京都大学テキストコーパス}から機械学習したモデルを用いた構文解析器CaboChaの組合わせでは,機能表現は以下のように処理される.最初に,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている機能表現は,形態素解析時に検出される.また,「ざるを得ない」などの表現は直前の文節の一部としてまとめられ,機能的な表現として解析される.本論文では,機能表現候補部分が,機能表現である可能性を考慮した解析の対象となっている場合は,判定ラベルF,A,Mのいずれかが付与されているとみなし,それ以外の場合は,判定ラベルC,Y,Bのいずれかが付与されているとみなすことにする.既存の解析系でも,一部の機能表現については,機能的な働きをしていることを考慮した解析が行われているが,その対応状況は不十分である.判定ラベルF,A,Mのいずれかが付与されている用例の内,少なくとも1つの用例が,機能的に働いている可能性を考慮して解析され,かつ,判定ラベルC,Y,Bのいずれかが付与された用例の内,少なくとも1つの用例が,機能的に働いている可能性を考慮せずに解析されている場合,その機能表現は,用法が正しく区別される可能性があるとする.用例データベースに50用例が収録されている表現で,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,52種類ある.本論文では,この52種類を対象とするが,その内,JUMAN/KNPによって用法が正しく区別される可能性がある表現は,31種類である.一方,ChaSen/CaboChaによって用法が正しく区別される可能性がある表現は26種類である.また,用例データベースに収録されている337表現全体では,新聞上の実際の用法の割合に関係なく識別が必要と思われる表現は,111種類である.その内,JUMAN/KNPによって用法が正しく区別される可能性がある表現は43種類,ChaSen/CaboChaによって用法が正しく区別される可能性がある表現は40種類である.\subsection{評価結果}\subsubsection{概要}検出器Fおよび検出器FAMと,各ベースラインの検出性能を\tabref{tab:kekka_gaiyou}に示す.\tabref{tab:kekka_gaiyou}において,「頻度最大の判定ラベル」とは,全ての候補部分に対して頻度最大の判定ラベル(ラベルF)を付与した場合の検出性能である.「JUMAN/KNP」および「ChaSen/CaboCha」といった既存の解析系は,機能表現の用法の区別を意識した検出は行わないため,ラベルF,A,Mを正解とする評価のみを行った.「人手作成の規則による検出器」は,\ref{sec:human_rule}節で記述した手法による検出性能である.\tabref{tab:kekka_gaiyou}中の「CRFを用いた検出器」は,ConditionalRandomFileds(CRF)\cite{CRF}によって学習・解析を行った場合の検出性能である.CRFとは,系列ラベリング問題のために設計された識別モデルであり,正しい系列ラベリングを他の全ラベリング候補と弁別するような学習を行う.本論文では,CRFによる学習・解析用ツールとしてCRF++\footnote{\url{http://chasen.org/~taku/software/CRF++/}}を利用した.素性としては,前後2形態素の形態素素性,チャンク素性,チャンク文脈素性と,直前2形態素のチャンクタグを用いた.学習時には,事前分布としてGaussianPriorを用いて事後確率を最大化することにより,パラメータを正則化した\cite{kudo.IPSJNL2004}.その際のハイパーパラメータとしては,1,2,3,4,5の5通りの値について予備実験を行い,最も良い性能を示した1を採用した.\begin{table}[t]\caption{各検出器の検出性能(\%)}\label{tab:kekka_gaiyou}\begin{center}{\footnotesize\begin{tabular}{l|p{104pt}||rrr|r||rrr|r}\hline&&\multicolumn{4}{c||}{検出器F}&\multicolumn{4}{c}{検出器FAM}\\\cline{3-6}\cline{7-10}&&精度&再現率&F値&判別率&精度&再現率&F値&判別率\\\hline\hline&頻度最大の判定ラベル&72.4&100&76.6&62.0&78.0&100&87.6&78.0\\ベース&JUMAN/KNP&---&---&---&---&89.2&49.3&63.5&55.8\\ライン&ChaSen/CaboCha&---&---&---&---&89.0&45.6&60.3&53.2\\\hline\multicolumn{2}{l||}{人手作成の規則による検出器}&86.8&83.7&85.2&82.0&90.7&81.6&85.9&79.1\\\multicolumn{2}{l||}{CRFを用いた検出器}&82.0&85.9&83.9&79.3&84.9&87.4&86.1&81.1\\\hlineSVMを&形態素素性&85.1&89.2&87.1&85.5&88.0&91.0&89.4&86.5\\用いた&形態素素性,チャンク素性&87.6&91.1&89.3&87.9&91.0&93.2&92.1&89.0\\検出器&形態素素性,チャンク素性,チャンク文脈素性&87.1&91.3&89.1&87.5&91.1&93.6&92.3&89.2\\\hline\end{tabular}}\end{center}\vspace*{-6pt}\end{table}\tabref{tab:kekka_gaiyou}中の「SVMを用いた検出器」は,本論文の提案するSVMによるチャンキング手法による検出性能である.表より,提案手法は,学習・解析に用いた素性に関わらず,ベースラインおよび人手作成の規則による検出よりも,高いF値を示した.また,提案手法は,CRFを用いた検出器よりも,高いF値を示した.学習・解析に用いた素性の違いによる性能の違いを検討すると,形態素素性のみを用いた場合に比べて,形態素素性とチャンク素性を併用した場合の方が,F値で2ポイント以上上回った.このことから,チャンク素性は,機能表現を検出するための素性として有効であったと言える.それに対して,形態素素性とチャンク素性を併用した場合と,形態素素性・チャンク素性・チャンク文脈素性と全ての素性を使った場合に,性能の差は殆んど見られなかった.全ての素性を用いて学習と解析を行った検出器Fおよび検出器FAMにおいて,他の表現と比較して極端に検出性能が悪く,F値が50に達しなかった表現は,「としては」と「にあたり」の2表現である.例えば,\strref{ex:niatari-F}に含まれる「にあたり」は,「(新規参入という)時が来たのに当面して」という機能的な意味で用いられているため,判定ラベルFが付与されるべき文である.それに対して,\strref{ex:niatari-C}および\strref{ex:niatari-C2}に含まれる「にあたり」は,内容的に用いられているため,判定ラベルCが付与されるべき文である.\begin{example}\item新規参入{\kern0pt}\uline{にあたり},潜在的なニーズを掘り起こそうと,転勤族を主な対象にした.\label{ex:niatari-F}\itemお神酒の瓶が女性{\kern0pt}\uline{にあたり},けがをする事故があった.\label{ex:niatari-C}\item米国の最先端の科学者が知恵を結集して原爆の開発{\kern0pt}\uline{にあたり},一九四五年八月に広島・長崎に原爆が投下された.\label{ex:niatari-C2}\end{example}しかし,SVMを用いた検出器Fおよび検出器FAMは,\strref{ex:niatari-F}と\strref{ex:niatari-C}に対しては判定ラベルCを,\strref{ex:niatari-C2}に対しては判定ラベルFを付与してしまい,用法を正しく判定できたのは\strref{ex:niatari-C}のみだった.仮に,\strref{ex:niatari-F}と\strref{ex:niatari-C}を区別することだけが必要ならば,直前がサ変名詞であることが有効な素性として働く可能性があるが,\strref{ex:niatari-C2}は,そのような素性だけではうまく判定できない.このように,提案手法によっては適切に検出できない表現もごく少数ながら存在するが,他の表現については,\tabref{tab:kekka_gaiyou}に示したように適切に検出することができた.\subsubsection{素性の比較}前述の通り,形態素素性とチャンク素性を併用した場合と,\pagebreak形態素素性・チャンク素性・チャンク文脈素性と全ての素性を使った場合に,性能の差は殆んど見られなかった.しかし,表現によっては,チャンク文脈素性が,検出の際に決定的な効果をもつ表現も存在するはずである.そこで,実際にそのような効果が現れている表現が存在するか,検出器FAMについて,形態素素性とチャンク素性のみ用いた場合の検出性能と,チャンク文脈素性を含む全ての素性を用いた場合の検出性能を,表現毎に比較した.F値で比較したとき,全ての素性を用いた場合の検出性能が,形態素素性とチャンク素性のみを用いた場合の検出性能を3ポイント以上上回っている表現は,以下の8表現である.\vspace{\NearBaselineskip}\begin{center}\begin{tabular}{llll}といっても&としても&といえば&というものの\\にあたって&に応じて&にとり&ことがある\end{tabular}\end{center}\vspace{\NearBaselineskip}この8表現に対して,チャンク文脈素性を含めて全ての素性を用いた場合には検出に成功した用例と,形態素素性とチャンク素性のみを用いた場合には検出に失敗した用例を,比較・分析した.例えば,「にあたって」の検出性能は,形態素素性とチャンク素性のみを用いた場合にはF値で0.79だったのに対して,チャンク文脈素性を含めて全ての素性を用いた場合にはF値で1.00となり,大きな改善が見られた.「にあたって」の用例を分析したところ,機能表現候補の直後に,形態素解析用辞書において「動詞・非自立」と分類されている語が現れていると,内容的に働いていると判定できることが分かった.チャンク文脈素性を用いると,機能表現候補に後続する2形態素分の情報を検出時に利用することができるので,この手がかりを機械学習することができ,検出性能が大きく向上したものと考えられる.「にあたって」以外の7表現の用例についても,「にあたって」と同様の特徴的なチャンク文脈素性が確認できた用例がいくつかあった.しかし,この7表現の用例については,検出性能の改善に寄与したチャンク文脈素性は,それぞれの用例に個別的で,全ての用例に共通するような素性は見い出されなかった.逆に,F値で比較したとき,全ての素性を用いた場合の検出性能が,形態素素性とチャンク素性のみを用いた場合の検出性能を3ポイント以上下回っている表現は,以下の7表現である.\vspace{\NearBaselineskip}\begin{center}\begin{tabular}{llll}となれば&といいながら&かと思うと&ところを\\にしても&にあたり&に従い\end{tabular}\end{center}\vspace{\NearBaselineskip}この7表現についても,検出に成功した用例と失敗した用例とを比較したが,失敗の原因は,それぞれの用例に個別的で,全ての用例に共通する原因は見い出されなかった.そのため,これらの表現は,チャンク文脈素性がスパースであるために,チャンク文脈素性を参照することによって性能が悪化したと考えられる.このように,素性によって検出性能が良くなる表現と,検出性能が悪くなる表現があることを考慮すると,素性の異なる複数の検出器を組み合わせて検出するという方法が考えられる.この方法を採用した場合,\ref{sec:human_rule}章で述べた場合と同様に,複数の機能表現候補に対する判定ラベルが相互に競合し,複数の検出器による検出結果を同時に採用できない可能性がある.このような場合に対応するには,複数の検出器による検出結果を統合するための枠組みが必要となるため,本論文では,そのような複雑な手法は用いない(\ref{subsec:formalization}節).\subsubsection{SVMを用いたチャンキングと人手で作成した規則を用いた検出器の比較}形態素素性とチャンク素性のみを用いた検出器FAMと,人手により作成した検出規則を用いた手法\cite{形態素情報を用いた日本語機能表現の検出}による検出器FAMに対して,前節と同様に,表現毎に性能を比較した.表現毎に見た場合,人手規則を用いた検出器FAMのF値が,SVMを用いた検出器FAMのF値に比べて3ポイント以上高い表現は,52表現中14表現存在した.14表現の内,「にあたり」などの4表現は,SVMを用いた検出器FAMの精度が,人手規則を用いた検出器FAMの精度を上回っているが,再現率は,人手規則を用いた検出器FAMの方が上回っている.人手規則を用いた検出器FAMでは,再現率を重視して判定規則が作成されているため,検出が困難な表現に対しても,高い再現率を維持できる.そのため,このような表現については,SVMを用いた検出器FAMに比べて,F値が高くなると考えられる.「に従い」などの10表現については,人手規則を用いた検出器FAMが,精度と再現率の両方の尺度で,SVMを用いた検出器FAMを上回っていた.例えば,\strref{ex:nishitagai-F}と\strref{ex:nishitagai-F2}に含まれる「にしたがい」はいずれも機能的な意味で用いられており,判定ラベルFが付与されるべきである.それに対して,\strref{ex:nishitagai-C}に含まれる「にしたがい」は内容的に用いられているので,判定ラベルCが付与されるべきである.\begin{example}\item年齢を経る{\kern0pt}\uline{にしたがい},体内の水分は減る.\label{ex:nishitagai-F}\item晩年に向かう{\kern0pt}\uline{にしたがい}{\kern0pt}仕事の質が上がっている.\label{ex:nishitagai-F2}\item二十年ごとに古い伝統の型{\kern0pt}\uline{にしたがい}{\kern0pt}社を建てかえる.\label{ex:nishitagai-C}\end{example}SVMを用いた検出器FAMは,\strref{ex:nishitagai-F}と\strref{ex:nishitagai-C}は正しく判定できたが,\strref{ex:nishitagai-F2}には判定ラベルCを誤って付与した.これは直後の文脈を用いて誤った判定を行っているのではないかと考えられる.それに対して,人手規則を用いた検出器FAMは,機能的に働いている機能表現候補の直前は用言であるという規則に基づいて,3つの文を正しく判定した.このように,表現毎に個別に見ると,人手によって作成された規則が,SVMよりも良い性能を示す場合はあるが,対象とする表現全体としては,SVMを用いた検出器FAMの性能が,人手規則による検出器FAMの性能を上回っている.\subsection{訓練データサイズの違いによる比較}ここまでの実験では,用例データベースに基づいて作成した全データセットを訓練データとして実験を行った.本節では,このデータサイズが,機能表現検出の学習に十分であるか検討する.そのため,訓練データとして用いる判定ラベル数を減少させた時,検出性能がどのように変化するかを調査した.結果を\figref{fig:learning_curve}に示す.\begin{figure}[b]\begin{center}\includegraphics[width=.7\textwidth]{06f3.eps}\end{center}\caption{訓練データサイズと学習性能の関係}\label{fig:learning_curve}\end{figure}\figref{fig:learning_curve}より,全データセットの約10分の1の判定ラベルのみを訓練データとして用いた時は,検出性能が大きく低下しているが,判定ラベル数の増加にともなって検出性能も向上し,全データセットに相当する判定ラベル数付近では,対象とする表現全体に対する検出性能はほぼ飽和していることがわかる.したがって,チャンク文脈素性を参照することによって検出性能が悪化する7表現を除いた残る45表現については,全データセットの分量で,機能表現検出の学習に十分であると言える.また,チャンク文脈素性を参照することによって検出性能が悪化する7表現についても,形態素素性とチャンク素性を用いた検出器を学習するには,全データセットの分量で十分であると言える.\subsection{訓練データの作成コストの削減}ここまでの実験では,文を単位として機械学習を行うため,文中に現れる全ての機能表現候補に対して判定ラベルを付与した全データセットを,訓練データとして用いた.しかし,このようにして訓練データを作成する方法には,以下のような問題が考えられる.\begin{itemize}\item「という」などのように出現頻度の高い機能表現と,出現頻度の低い機能表現の収集数に差が生じ,学習に偏りが生じる恐れがある.\item検出対象とする機能表現の種類を増やすと,たとえ例文数が一定であっても,機能表現候補の出現数が増加し,訓練データの作成コストが増大する.\end{itemize}これらの問題を解決するため,例文中に含まれる全ての機能表現候補に判定ラベルを付与するのではなく,必要な一部の機能表現候補に限って判定ラベルを付与する方法を検討する.前者の問題を解決するためには,各機能表現に対する学習事例の数を一定にすることが考えられる.そのため,1表現に対して50用例が収録されている用例データベースにおいて判定ラベルが付与されている機能表現候補と,その前後2形態素のみを学習データとして用いるという方法を考えた.しかし,この方法では,前後2形態素の範囲内に,判定ラベルがまだ付与されていない別の機能表現候補が含まれている場合,誤った判定ラベルを用いて学習してしまうことがあり,予備実験でも性能がかなり低下した.この問題を避けるには,判定ラベルが付与されている機能表現候補の前後2形態素の範囲内に,別の機能表現候補が出現していた場合は,その機能表現候補にも判定ラベルを付与し,その候補の前後2形態素を範囲に加えるという操作を繰り返し,判定ラベルが付与された機能表現候補とその前後2形態素のみを残すという方法が考えられる.しかし,この方法でも,チャンクタグ{\bfseriesO}に対する学習事例の数が不十分なために,性能が低下した.そのため,ここまでの操作によって判定ラベルが付与されなかった機能表現候補を取り除き,それらによって分断された部分を,それぞれ1文とみなして学習を行う方法を採用した.例として,「ばかりだ」という機能表現の例文として,用例データベースに収録されている\strref{ex:bakarida}を考える(``/''は形態素区切りを表す).\begin{example}\item/セミナー/開催/\underline{に/あたり}/,/最初/は/戸惑う/こと/\fbox{ばかり/だっ}/た/\underline{と/いう}/./\label{ex:bakarida}\end{example}「ばかりだ」の前後2形態素の範囲内には,「という」という機能表現候補が含まれている.そのため,この機能表現候補にも判定ラベルを付与し,この機能表現候補の前後2形態素の範囲を判定ラベル付与の対象に加える.\begin{example}\item/戸惑う/こと/\underline{ばかり/だっ}/た/\underline{と/いう}/./\end{example}「にあたり」という機能表現候補には,この操作によっては,判定ラベルが付与されない.この機能表現候補を取り除き,それによって分断された部分を,\strref{ex:divided_sentence_1}と\strref{ex:divided_sentence_2}のようにそれぞれ1文とみなして学習を行う.\begin{example}\item/セミナー/開催/\label{ex:divided_sentence_1}\item/,/最初/は/戸惑う/こと/\underline{ばかり/だっ}/た/\underline{と/いう}/./\label{ex:divided_sentence_2}\end{example}この手続きによって得られたデータセットを,以下では部分データセットと呼ぶ.部分データセットに含まれる各ラベル数と,全形態素数を\tabref{tab:dataset}に示す.データセットの作成に必要な人手コストは,機能表現候補の出現数にほぼ比例すると考えられる.したがって,\tabref{tab:dataset}より,部分データセットの作成に必要な人手コストは,全データセットの作成に必要な人手コストと比較して,かなり小さくなっていることが分かる.この部分データセットを訓練データとして機能表現検出器を作成した場合の検出性能を\tabref{tab:cost_F}に示す.学習・解析の素性としては,検出器Fについては,形態素素性とチャンク素性を,検出器FAMについては,形態素素性,チャンク素性およびチャンク文脈素性を用いた.部分データセットを訓練データとした場合の検出性能は,全データセットを訓練データとした場合の検出性能と比較して,検出器Fについて約1.0ポイント,検出器FAMについて約0.8ポイント低下している.しかし,この検出性能の低下は,データセットの作成に必要な人手コストの削減に対して,十分に小さい.したがって,上で述べた方法によって訓練データの作成コストの削減ができているといえる.\begin{table}\begin{center}\caption{訓練データの違いによる性能比較(\%)}\label{tab:cost_F}\begin{tabular}{c||c|c|c|c|c|c}\hline&\multicolumn{3}{c|}{検出器F}&\multicolumn{3}{c}{検出器FAM}\\\cline{2-7}データセット&精度&再現率&F値&精度&再現率&F値\\\hline\hline全データセット&87.6&91.1&89.3&91.1&93.6&92.3\\部分データセット&87.1&89.8&88.4&90.7&92.4&91.5\\\hline\end{tabular}\end{center}\vspace{11pt}\end{table} \section{関連研究} \label{sec:関連研究}\cite{Uchimoto04aj,Uchimoto04}は,話し言葉コーパス\cite{CSJ}を対象コーパスとして,半自動で精度良く短単位・長単位の2種類の粒度の形態論的情報を付与する枠組みを提案している.この枠組みでは,なるべく少ない人的コストで話し言葉コーパス全体に2種類の粒度の形態素情報を付与するため,最初に短単位の解析を行い,次に,短単位の形態素情報を素性として,短単位をチャンキングすることによって長単位の形態素情報を付与するという手順を採っている.例えば,「という」という機能表現は,短単位列としては助詞「と」および動詞「いう」の連体形の2短単位に分割され,長単位としては助詞「という」という1長単位にチャンキングされる.短単位から長単位をチャンキングするための機械学習手法としては,最大エントロピー法(ME)とSVMを比較し,SVMがより優れていると報告している.内元らの研究は,話し言葉コーパス全体を対象としているのに対して,本論文では,機能表現に焦点をあてて検討を行っている点で異なる.そのため,内元らは話し言葉コーパス中の長単位全体に対する形態素解析精度の評価は行っているが,機能表現に特化した評価は行っていない.一方,本論文では,既存の解析系における機能表現の取り扱い状況を整理した上で,機能表現に特化した性能評価を行っている.また,本論文では,対象となる機能表現のリストを事前に用意しているため,形態素列のどの部分が機能表現として検出される可能性があるかという情報(チャンク素性およびチャンク文脈素性)を利用して,チャンキングを行うことができる.機械学習手法としては,CRFとSVMを比較し,SVMの方が検出性能が高いことを示している.\cite{shudo.coling80,shudo.NL88,shudo.NLC98,shudo.mwe2004}は,機能表現や慣用表現を含む複数の形態素からなる定型的表現をできるだけ網羅的に収集し,機能表現間に類似度を定義して,機能表現の言い換えや機械翻訳に利用することを提案している.\cite{hyoudo.NLC98,hyoudo.NLP99,hyoudo.NLP00}と\cite{isaji.NLP04}は,日本語の文構造の解析を容易にするため,通常よりかなり長い文節を単位として解析を行うことを提案し,機能表現を含む大規模な長単位機能語辞書を作成している.しかし,これらの先行研究における日本語処理系においては,機能表現と同一の形態素列が内容的に振る舞う可能性が考慮されていない. \section{おわりに} \label{sec:おわりに}本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,形態素を単位とするチャンク同定問題として機能表現検出タスクを定式化し,機械学習手法を適用して機能表現の検出を実現した.実際に,SVMを用いたチャンカーYamChaを利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装し,52種類の機能表現を対象として性能評価を行った.その結果,機械学習によって作成した機能表現検出器は,既存の解析系および人手で作成した規則を用いた検出器よりも,高精度に機能表現を検出できることを示した.更に,訓練データの作成コストを削減する方法について検討し,訓練データを作成するコストを大幅に削減しつつ,同時に,検出性能がほぼ同等の検出器を実現できることを示した.今後の研究課題として,検出対象とする機能表現の種類を増やし,その性能を評価することを計画している.また,係り受け解析と機能表現検出を組み合わせることにより,両者をより高精度に行う方法についても検討していきたい.\begin{thebibliography}{}\bibitem[\protect\BCAY{Cristianini\BBA\Shawe-Taylor}{Cristianini\BBA\Shawe-Taylor}{2000}]{SVM}Cristianini,N.\BBACOMMA\\BBA\Shawe-Taylor,J.\BBOP2000\BBCP.\newblock{\BemAnIntroductionto{S}upport{V}ector{M}achinesand{O}ther{K}ernel-based{L}earning{M}ethods}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{2000}]{tinysvm}Kudoh,T.\BBOP2000\BBCP.\newblock\BBOQ{TinySVM:SupportVectorMachines}\BBCQ\\newblock\url{http://cl.aist-nara.ac.jp/~taku-ku/software/TinySVM/index.html}.\bibitem[\protect\BCAY{Lafferty,Mc{C}allum,\BBA\Pereira}{Laffertyet~al.}{2001}]{CRF}Lafferty,J.,Mc{C}allum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditional{R}andom{F}ields:{P}robabilistic{M}odelsfor{S}egmentingand{L}abeling{S}equence{D}ata\BBCQ\\newblockIn{\BemProceedingsofICML},\BPGS\282--289.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2005}]{接続情報にもとづく助詞型機能表現の自動検出}松吉俊,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQ接続情報にもとづく助詞型機能表現の自動検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\BPGS\1044--1047.\bibitem[\protect\BCAY{中塚,佐藤,宇津呂}{中塚\Jetal}{2005}]{助動詞型機能表現の形態・接続情報と自動検出}中塚裕之,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQ助動詞型機能表現の形態・接続情報と自動検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\BPGS\596--599.\bibitem[\protect\BCAY{Shudo,Narahara,\BBA\Yoshida}{Shudoet~al.}{1980}]{shudo.coling80}Shudo,K.,Narahara,T.,\BBA\Yoshida,S.\BBOP1980\BBCP.\newblock\BBOQMorphologicalAspectofJapaneseLanguageProcessing\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonComputationalLinguistics(COLING'80)},\BPGS\1--8.\bibitem[\protect\BCAY{Shudo,Tanabe,Takahashi,\BBA\Yoshimura}{Shudoet~al.}{2004}]{shudo.mwe2004}Shudo,K.,Tanabe,T.,Takahashi,M.,\BBA\Yoshimura,K.\BBOP2004\BBCP.\newblock\BBOQMWEsasNon-propositionalContentIndicators\BBCQ\\newblockIn{\BemProceedingsofthe2ndACLWorkshoponMultiwordExpressions:IntegratingProcessing(MWE-2004)},\BPGS\32--39.\bibitem[\protect\BCAY{{TjongKimSang}}{{TjongKimSang}}{2000}]{Sang00a}{TjongKimSang},E.\BBOP2000\BBCP.\newblock\BBOQNounPhraseRecognitionbySystemCombination\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\BPGS\50--55.\bibitem[\protect\BCAY{Uchimoto,Takaoka,Nobata,Yamada,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2004}]{Uchimoto04}Uchimoto,K.,Takaoka,K.,Nobata,C.,Yamada,A.,Sekine,S.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQMorphologicalAnalysisoftheCorpusofSpontaneousJapanese\BBCQ\\newblock{\BemIEEETransactionsonSpeechandAudioProcessing},{\Bbf12}(4).\bibitem[\protect\BCAY{内元,高岡,野畑,山田,関根,井佐原}{内元\Jetal}{2004}]{Uchimoto04aj}内元清貴,高岡一馬,野畑周,山田篤,関根聡,井佐原均\BBOP2004\BBCP.\newblock\JBOQ『日本語話し言葉コーパス』への形態素情報付与\JBCQ\\newblock\Jem{第3回「話し言葉の科学と工学」ワークショップ論文集},\BPGS\39--46.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik98a}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory(AdaptiveandLearningSystemsforSignalProcessing,Communications,andControl)}.\newblockJohnWiley\&SonsInc.\bibitem[\protect\BCAY{兵藤,若田,池田}{兵藤\Jetal}{1998}]{hyoudo.NLC98}兵藤安昭,若田光敏,池田尚志\BBOP1998\BBCP.\newblock\JBOQ文節ブロック間規則による浅い係り受け解析と精度評価\JBCQ\\newblock\Jem{電子情報通信学会研究報告},NLC98-30\JVOL.\bibitem[\protect\BCAY{兵藤,池田}{兵藤\JBA池田}{1999}]{hyoudo.NLP99}兵藤安昭,池田尚志\BBOP1999\BBCP.\newblock\JBOQ文節単位のコストに基づく日本語文節解析システム\JBCQ\\newblock\Jem{言語処理学会第5回年次大会発表論文集},\BPGS\502--504.\bibitem[\protect\BCAY{兵藤,村上,池田}{兵藤\Jetal}{2000}]{hyoudo.NLP00}兵藤安昭,村上裕,池田尚志\BBOP2000\BBCP.\newblock\JBOQ文節解析のための長単位機能語辞書\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\407--410.\bibitem[\protect\BCAY{土屋,宇津呂,松吉,佐藤,中川}{土屋\Jetal}{2006}]{日本語複合辞用例データベースの作成と分析}土屋雅稔,宇津呂武仁,松吉俊,佐藤理史,中川聖一\BBOP2006\BBCP.\newblock\JBOQ日本語複合辞用例データベースの作成と分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6).\bibitem[\protect\BCAY{土屋,宇津呂,佐藤,中川}{土屋\Jetal}{2005}]{形態素情報を用いた日本語機能表現の検出}土屋雅稔,宇津呂武仁,佐藤理史,中川聖一\BBOP2005\BBCP.\newblock\JBOQ形態素情報を用いた日本語機能表現の検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\BPGS\584--587.\bibitem[\protect\BCAY{前川}{前川}{2004}]{CSJ}前川喜久雄\BBOP2004\BBCP.\newblock\Jem{『日本語話し言葉コーパス』の概観ver.1.0}.\newblock\url{http://www2.kokken.go.jp/~csj/public/members_only/manuals/overview10.pdf}.\bibitem[\protect\BCAY{首藤,吉村,武内,津田}{首藤\Jetal}{1988}]{shudo.NL88}首藤公昭,吉村賢治,武内美津乃,津田健蔵\BBOP1988\BBCP.\newblock\JBOQ日本語の慣用的表現について---語の非標準的用法からのアプローチ---\JBCQ\\newblock\Jem{情報処理学会研究報告},1988-NL-66\JVOL,\BPGS\1--7.\bibitem[\protect\BCAY{首藤,小山,高橋,吉村}{首藤\Jetal}{1998}]{shudo.NLC98}首藤公昭,小山泰男,高橋雅仁,吉村賢治\BBOP1998\BBCP.\newblock\JBOQ依存構造に基づく言語表現の意味的類似度\JBCQ\\newblock\Jem{電子情報通信学会研究報告},NLC98-30\JVOL,\BPGS\33--40.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2001}]{複合辞用例集}国立国語研究所\BBOP2001\BBCP.\newblock\Jem{現代語複合辞用例集}.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2006}]{階層構造による日本語機能表現の分類}松吉俊,佐藤理史,宇津呂武仁\BBOP2006\BBCP.\newblock\JBOQ階層構造による日本語機能表現の分類\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\BPGS\408--411.\bibitem[\protect\BCAY{浅原,松本}{浅原\JBA松本}{2003}]{ipadic-2.6.1}浅原正幸,松本裕治\BBOP2003\BBCP.\newblock\JBOQipadicversion2.6.1ユーザーズマニュアル\JBCQ\\newblock\url{http://chasen.aist-nara.ac.jp/chasen/doc/ipadic-2.6.1-j.pdf}.\bibitem[\protect\BCAY{工藤,山本,松本}{工藤\Jetal}{2004}]{kudo.IPSJNL2004}工藤拓,山本薫,松本裕治\BBOP2004\BBCP.\newblock\JBOQConditionalRandomFieldsを用いた日本語形態素解析\JBCQ\\newblock\Jem{情報処理学会研究報告},2004-NL-161\JVOL,\BPGS\89--96.\bibitem[\protect\BCAY{工藤,松本}{工藤\JBA松本}{2002a}]{yamcha}工藤拓,松本裕治\BBOP2002a\BBCP.\newblock\JBOQ{SupportVectorMachineを用いたChunk同定}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),pp.~3--21.\bibitem[\protect\BCAY{工藤,松本}{工藤\JBA松本}{2002b}]{cabocha}工藤拓,松本裕治\BBOP2002b\BBCP.\newblock\JBOQチャンキングの段階適用による係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),pp.~1834--1842.\bibitem[\protect\BCAY{黒橋,河原}{黒橋\JBA河原}{2005a}]{juman-5.1}黒橋禎夫,河原大輔\BBOP2005a\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}version5.1使用説明書}.\newblock\url{http://www.kc.t.u-tokyo.ac.jp/nl-resource/juman/juman-5.1.tar.gz}.\bibitem[\protect\BCAY{黒橋,河原}{黒橋\JBA河原}{2005b}]{knp-2.0}黒橋禎夫,河原大輔\BBOP2005b\BBCP.\newblock\Jem{日本語構文解析システム{KNP}version2.0使用説明書}.\newblock\url{http://www.kc.t.u-tokyo.ac.jp/nl-resource/knp/knp-2.0.tar.gz}.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1997}]{京都大学テキストコーパス}黒橋禎夫,長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\BPGS\115--118.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本\Jetal}{2003}]{chasen-2.3.3}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸\BBOP2003\BBCP.\newblock\JBOQ形態素解析システム{C}ha{S}enversion2.3.3使用説明書\JBCQ\\newblock\url{http://chasen.aist-nara.ac.jp/chasen/doc/chasen-2.3.3-j.pdf}.\bibitem[\protect\BCAY{森田,松木}{森田\JBA松木}{1989}]{日本語表現文型}森田良行,松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型},\Jem{NAFL選書},5\JVOL.\newblockアルク.\bibitem[\protect\BCAY{伊佐治,山田,池田}{伊佐治\Jetal}{2004}]{isaji.NLP04}伊佐治和哉,山田将之,池田尚志\BBOP2004\BBCP.\newblock\JBOQ長単位の機能語を辞書に持たせた文節構造解析システムibukiC\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\636--639.\end{thebibliography}\begin{biography}\bioauthor{土屋雅稔}{1998年京都大学工学部電気工学科第二学科卒業.2004年京都大学大学院情報学研究科知能情報学専攻博士課程単位認定退学.京都大学修士(情報学).2004年より豊橋技術科学大学情報メディア基盤センター助手.自然言語処理に関する研究に従事.}\bioauthor{注連隆夫}{2005年大阪府立大学工学部卒業.現在,京都大学大学院情報学研究科修士課程在学中.自然言語処理の研究に従事.}\bioauthor{高木俊宏}{2006年京都大学工学部卒業.現在,同大学院情報学研究科修士課程在学中.通信ネットワークの研究に従事.}\bioauthor{内元清貴}{1994年京都大学工学部電気工学第二学科卒業.1996年同大学院修士課程修了.博士(情報学).同年郵政省通信総合研究所入所.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2005年同大学院情報学研究科修士課程修了.現在,同大学院情報学研究科博士後期課程在学中.自然言語処理の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学情報学研究科知能情報学専攻講師を経て,2006年より筑波大学大学院システム情報工学研究科知能機能システム専攻助教授.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科電子情報システム専攻教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年,京都大学情報工学科助手.1980年豊橋技術科学大学情報工学系講師.1990年教授.1985--1986年カーネギメロン大学客員研究員.音声情報処理,自然言語処理,人工知能の研究に従事.工学博士.1977年電子通信学会論文賞,1988年IETE最優秀論文賞,2001年電子情報通信学会論文賞,各受賞.電子情報通信学会フェロー.著書「確率モデルによる音声認識」(電子情報通信学会編),「音声聴覚と神経回路網モデル」(共著,オーム社),「情報理論の基礎と応用」(近代科学社),「パターン情報処理」(丸善),「SpokenLanguageSystems」(編著,IOSPress)など.}\end{biography}\biodate\end{document}
V08N04-01
\section{まえがき} 本論文では,{\bf了解}の語用論的な分析を行う.語用論的な分析を可能にするために言語行為論の拡張を行い,それに基づいて{\bf了解}の分析を行う.了解の類義語として理解・納得などがある.理解は比較的浅い了解,納得は比較的深い了解を指すものであり,これらは了解の一形態である.本論文では,\begin{enumerate}\item一般に使われている了解\item理解\item納得\end{enumerate}\noindentのすべてを包含する用語として,{\bf了解}を用いることとする.了解は,様々な形態で顕現しうる.我々は,了解の顕現形態を図\ref{response}のように分類・定義する.すなわち,主として言語一文節による了解の顕現形態(例えば「はい」)を「あいづち」と呼び,「あいづち」および,「あいづち」以外の言語による了解の顕現形態(例えば「私もそう思います」)の双方を総括して「了解応答言語表現」と呼び,「了解応答言語表現」および言語によらない了解の顕現形態(例えば,うなずき)の双方を総括して「了解応答」と呼ぶ.図\ref{response}における実線矢印は包含関係を,破線矢印は例をそれぞれ示している.\begin{figure}[htbp]\begin{center}\atari(92,67)\caption{了解の顕現形態(Figure\ref{response}TheRepresentationofthe``Uptake'')}\label{response}\end{center}\end{figure}なお,あいづちの具体例としては,「はい」以外にも以下のものがある.\begin{quote}はーい,ええ,はあ,はー,そう,そうですね,そうですよね,そうそう,そうだね,そうよねー,なるほどね,うん,うーん,ふん,ふーん,ああ\end{quote}\noindentこれらは,実際の会話で具体的に観察されたものであり,頻繁に出現したものである.島津ら\cite{shimazu}は,会話における了解の顕現形態として「はい」を典型とする「間投詞的応答表現」を挙げている.彼らの研究では,非対面的会話を対象にしており,了解の顕現形態を図\ref{response}の「あいづち」(彼らの言うところの「間投詞的応答表現」)に限定している.しかし,対面的会話を対象にすると,了解の顕現形態は「間投詞的応答表現」を含む図\ref{response}のようになる.本論文では,了解応答の分析を通じて,了解の程度と過程を明らかにすることを目的とする.その際,分析対象とする了解応答は,あいづちである「はい」に限定する.従来,あいづちの分析では,国語学的あるいは文法的な分析が行われていた(例えば島津ら\cite{shimazu}による).本論文では,拡張言語行為論を用いて語用論的な分析を行う.ここでいう拡張言語行為論は,Searle\cite{searle}の言語行為論にいくつかの概念要素を追加し,既存の概念要素のいくつかを詳細化したものである.また,語用論の分野で周知の間接発話行為を詳細化したものでもある.まず第2節では,関連研究の概要を述べる.第3節ではSearleの言語行為論を概説し,第4節では拡張言語行為論の枠組みを与える.第5節では,拡張言語行為論の枠組みを用いて,あいづち「はい」による了解応答を分析し,さらに「はい」による了解の程度と過程を明らかにする.第6節では,本論文のまとめと発展的研究の可能性について述べる. \section{関連研究} まず,言語学の分野では,Austin\cite{austin},Searle\cite{searle}による言語行為の研究が挙げられる.彼らは言語行為を分析するために,主として単独の発話だけを対象にして言語行為論\footnote{言語学の分野では発話行為論という呼称が主流となっているが,ここではSearle\cite{searle}における訳語を採用した.}を展開した.そこでは,意図・状況・文脈を特定しやすい典型的な発話を分析している.彼らの言語行為論は,単独の発話ではあるが,言語行為を分析するための基本的な枠組みを与えた.またAustinは,会話の中の言語現象である了解が言語行為の分析にとって重要であることを指摘した\cite{austin}.しかし,Austin,Searleともに了解の分析を行ったわけではない.一方,言語行為論に代表されるトップダウン的なやり方では限界があるので,ボトムアップ的なやり方として会話分析が用いられている.会話を書き起こし,ビデオを観察しながら知見を得ようとするこの分野では,近接ペア\cite{levinson83a}・三組のリスト\cite{levinson83a}などの成果が得られたが,残念ながら方法論が経験的であり,得られた規則も抽象的すぎて他の分野への応用は困難である.近年,この流れを汲んで,小磯らは音声的特徴との関連で了解の一顕現形態であるあいづちの研究を進めている\cite{koiso}.しかし,了解に関する語用論的な知見は得られていない.首尾よく欠陥なく遂行された会話では了解の過程が示され,意図・状況・文脈が確定するので,単独の発話だけに比べて言語行為の分析が容易になり,発話という複雑な現象の分析が容易になる.この点に着目して,共有知識(相互信念)の問題については人工知能の分野でプラン認識として研究が試みられている\cite{kato}.会話に登場する各人物のプランをその会話を観察する人が認識する問題は「鍵穴認識」\cite{suchman}と呼ばれている問題で,話し手の感情・知識・信念などを直接把握できないために,これは非常に困難な問題とされている.この分野の研究では,「鍵穴認識」の性質についていろいろわかってきたものの,発話の了解の過程を十分に分析していない.しかも聞き手がどのように,どの程度了解したかということが十分に分析されていない.音声認識の分野では,発話の発声スタイルによる分類として,「読み上げ音声」(read:文章を読み上げる),「自然な発話」(spontaneous:認識装置を意識するが思ったことをそのまま話す),「会話音声」(conversational:認識装置を意識しないでそのまま話す)の三つの分類が知られている\cite{kawahara}.音声認識技術の進展により,研究対象が「読み上げ音声」から「自然な発話」に移ってきている\cite{okada}.まず自然な発話を客観的に記述する方法を開拓し,研究が進んでいる\cite{shimazu92a}.了解に関しても前述のような研究が進んでいる\cite{shimazu}.また,平沢らはユーザインタフェースにあいづちを用いる研究を進め\cite{hirasawa99},さらに人間側の理解について心理学的に研究している\cite{hirasawa00}.上記のように,了解に関連する研究はこれまで,言語学・心理学・音声学などの視点から試みられてきた.しかし,了解の語用論的分析は行われていない. \section{言語行為論} 言語行為論はAustin\cite{austin}に始まり,その後Searle\cite{searle}によってさらに発展していった.両者の言語行為論は大枠としては変わらないが,Searleの言語行為論の方が概念要素が洗練されているので,本節ではSearleのものについて概説する.Searleの言語行為論では,人間の発話を,話し手の言語行為と聞き手側の効果を軸にして表\ref{speechact}のように分類している.発話も世界に変化をもたらす行為として捉え,発話に伴う諸種の言語行為を導入し,独自の語用論を展開している点が言語行為論の特徴である.表\ref{speechact}に列挙されている言語行為と効果はおおむね次のような意味を持つ.発話行為とは,人間の行為の中で現実に音声を発してものを言う,つまり「発話」する行為である.命題行為とは,意味論的推論で算出可能な指示および述定,あるいはそのどちらかを行う行為である.話し手の言語行為で,陳述,質疑,命令,約束などのような,発話行為,命題行為と同時に遂行される行為を発語内行為と呼ぶ.発語内的効果とは発話行為・命題行為・発語内行為の三種類の言語行為に対する聞き手の単なる認知または単なる理解である.聞き手側における信念や反応の形成ではない.つまり話し手の発話による単なる効果である.話し手が意図する意図しないに関わらず,説得する,納得させるなどのような,発語内行為の帰結または結果として聞き手の行動,思考,信念などに影響を及ぼす行為を発語媒介行為と呼ぶ.聞き手の側に実際に起こる行為ないしは効果を発語媒介的効果と呼ぶ.\begin{table}[htbp]\begin{center}\begin{tabular}{c|c}(言語行為)&聞き手(効果)\\\hline\fbox{発話行為}&\\「発話」&\\\fbox{命題行為}&\\意味論的推論で&\\算出可能な指示と述定&\\\fbox{発語内行為}&\fbox{発語内的効果}\\陳述,疑問,命令など&聞き手の理解\\\fbox{発語媒介行為}&\fbox{発語媒介的効果}\\聞き手の行動,思考,信念など&聞き手の側に実際に起こる\\に影響を及ぼす行為&行為ないしは効果\\\end{tabular}\caption{言語行為論(Table\ref{speechact}TheSpeechActTheory)}\label{speechact}\end{center}\end{table} \section{拡張言語行為論} 言語行為論は,言語行為の語用論的分析をも視野に入れており,また,了解を分析するための枠組みへの拡張性が高いという利点も持つ.しかしながら,了解の詳細な分析では,発話内に直接現れない命題と意図を扱う必要があり,言語行為論に含まれる概念要素だけでは分析力が十分でない.また未分化な概念要素もあり,さらに分析力を高めるためにはそれらの詳細化が必要である.本節ではこうした問題点を念頭に置いて言語行為論を拡張し,拡張言語行為論の枠組みを与える.なお本枠組みは,Searle\cite{searle}の正常入出力条件が成立していることを前提としている.正常入出力条件は,話し手・聞き手ともに普通の対話をしていることを指す.具体的には,双方とも当該言語の使いこなしができ,双方とも対話に集中していて,双方とも発話に関する身体的欠陥はなく,劇中の役を演じているわけではなく,冗談を言っているのではない場合などが挙げられる.\subsection{隠蔽された命題行為}Austinは,意味論的に推論できるものに限定して,発話に付随する感情,考え,意図,帰結,含意,前提(存在前提と叙実前提)を例示している.しかし,発話には,語用論的推論\footnote{通常,狭い意味では「語用論的推論」とは言語内に閉じた推論を指し,言語を離れた推論は「語用論的推論」とは呼ばない.しかし,狭義の「語用論的推論」と言語を離れた推論は区別しにくい.本論文では,狭義の「語用論的推論」と言語を離れた推論を一括して「語用論的推論」と呼ぶことにする.}を必要とする感情,考え,意図,帰結,含意,前提(存在前提と叙実前提)も付随する.一方Searleの命題行為では,発話で明示される(意味論的推論\footnote{本論文では,発話の字句から直接行い得る推論を「意味論的推論」と呼び,発話の字句からは直接行い得ないが,発話の字句を超えれば行い得る推論を「語用論的推論」として区別した.}により算出可能な)「指示と述定」(命題)のみを対象としており\cite{searle},発話には明示的に現れない(つまり,語用論的推論を必要とする)命題を記述することはできない.したがって,語用論的推論を必要とする感情・考えなど,言い換えれば,発話では明示的ではない命題は,AustinとSearleの言語行為論の枠組みではうまく扱うことはできない.そこで,発話では明示的ではない語用論的推論を必要とする命題を隠蔽された命題と呼び,隠蔽された命題を示唆する行為を{\bf隠蔽された命題行為}と呼び,後者を新たな概念要素として導入する.\subsection{意図}了解は話し手の言語行為だけに対する反応ではない.話し手の意図に対する了解もありうる.そのため{\bf意図}という概念要素も導入する必要がある.話し手の意図には{\bf発話自体の意図}(意味論的推論で算出可能な意図)と,{\bf意図の意図}(語用論的推論を必要とする意図)が存在する.これらは了解の対象として次元の異なるものであり,明確に区別すべきものである.したがって,{\bf意図}という概念要素は,これらの二つに分割した形で導入する.\subsection{詳細化}前節と同様に意味論的推論と語用論的推論という点からすると,発語媒介行為には発話から直接わかる意味論的推論で算出可能な行為と,直接にはわからず語用論的推論を必要とする行為がある.我々は,前者を{\bf直接発語媒介行為},後者を{\bf間接発語媒介行為}と呼ぶ.これまでの言語行為論では,発語媒介行為についてこのような推論形態による区別がされていない.このような分化によって分析は詳細になる.一方,発語媒介的効果には,{\bf心の状態の変化},{\bf言語行為},{\bfその場の行為},{\bfその後の行為}の四種類が考えられる.{\bf心の状態の変化}は,聞き手の聞き手なりの理解による信念の変化である.{\bf言語行為}は,一連の発話の場における話し手の発話に対する聞き手の発話である.典型的には,話し手に対する返答である.{\bfその場の行為}は,一連の発話の場でなされた言語行為以外の聞き手による行為である.その行為の後にも引き続き発話の場が続く.それに対して,{\bfその後の行為}は,一連の発話の場を離れた後に聞き手が行う行為(言語行為を含む)である.これらは現象面からみた分類であり,発語媒介行為の分化と同様に,分析が詳細になるという利点を持つ.\subsection{言語行為論と拡張言語行為論の差異}以上の概念要素を用いて従来の言語行為論を拡張し,構築した拡張言語行為論の枠組みを表\ref{fwos}に示す.表中,太字の概念要素は,基本的な概念要素を表す.なお,拡張言語行為論で新たに追加ないしは細分化された概念要素には*をつけてある.概説すると,{\bf隠蔽された命題行為}と{\bf意図}という二つの概念要素を新たに加えるとともに,発語媒介行為を推論形態によって直接発語媒介行為と間接発語媒介行為に区分し,発語媒介的効果を四種類に分割して詳細化を試みた.後にSearleが提唱した「間接発話行為」は,大まかに言うと,従来の発語媒介行為にあたる.我々はその発語媒介行為を直接発語媒介行為と,間接発語媒介行為に分けた.ここで,直接発語媒介行為は,発語内行為の帰結または結果としてなされ,意味論的推論によって算出可能な行為である.一方,間接発語媒介行為は,語用論的推論によって算出可能な行為であり,これがいわゆる間接発話行為に相当する. \section{拡張言語行為論の枠組みによる分析法} 表\ref{fwos}に現れる概念要素を{\bf表形式}にし,それぞれの概念要素の内容を述語によって書き下すことを,{\bf拡張言語行為論の枠組みによる分析}と呼ぶことにする.表中,{\bf発語媒介行為},{\bf発語媒介的効果},{\bf意図}以外の概念要素が分析に実際に用いられる概念要素である.\begin{table}[htbp]\begin{center}\begin{tabular}{c|c|c}\multicolumn{2}{c|}{話し手}&聞き手\\\hline意図&言語行為&効果\\\hline&\fbox{{\bf発話行為}}&\\&「発話」&\\&\fbox{{\bf命題行為}}&\\&意味論的推論で算出可能な&\\&指示と述定&\\&\fbox{{\bf隠蔽された命題行為}}*&\\&隠蔽された(語用論的推論を&\\&必要とする)命題を示唆する行為&\\&\fbox{{\bf発語内行為}}&\fbox{\bf発語内的効果}\\&陳述,疑問,命令など&聞き手の理解\\&\fbox{\bf発語媒介行為}&\fbox{\bf発語媒介的効果}\\&聞き手の行動,思考,信念&聞き手の側に実際に起こる\\&などに影響を及ぼす行為&行為ないしは効果\\&\fbox{直接発語媒介行為}*&\fbox{心の状態の変化}*\\&発話から直接わかる発語媒介行為&\fbox{言語行為}*\\&\fbox{間接発語媒介行為}*&\fbox{その場の行為}*\\&発話から直接わからない発語媒介行為&\fbox{その後の行為}*\\\fbox{\bf意図}*&&\\\fbox{発話自体の意図}*&&\\\fbox{意図の意図}*&&\\\end{tabular}\caption{拡張言語行為論の枠組み(Table\ref{fwos}TheFrameworkofanExtendedSpeechActTheory)}\label{fwos}\end{center}\end{table}以下では,簡単な発話を取り上げ,拡張言語行為論の枠組みによる分析例を示す(表\ref{fwsaex},\ref{fwsaex2}).これによって,本枠組みが言語行為の分析にどのように用いられるかを示すとともに,本枠組みの具体的なイメージを明らかにする.なお,ここで示すのは{\bf分析の一例}であり,他の分析も成立しうる.拡張言語行為論の枠組みは本論文の主題ではないが,次節であいづち「はい」による了解応答を語用論的に分析するための枠組みとして,重要な位置付けにある.\begin{table}[htbp]\begin{center}{\footnotesize\begin{tabular}{l|l|l|l}項番&1&2&3\\\hline発話行為&窓を開けて!&窓を開けてくれますか?&ここは暑い.\\&(Openthewindow!)&(Willyouopenthewindow?)&(It'shotinhere.)\\\hline命題行為&$p_{1}$=open(H,Window)&$p_{2}$=open(H,Window)&$p_{3}$=be(Here,Hot)\\\hline隠蔽された命題行為&なし&なし&$p'_{3}$=do(H,something)\\\hline発語内行為&!($p_{1}$)&?($p_{2}$)&$\vdash$($p_{3}$)\\\hline直接発語媒介行為&let(S,H,$p_{1}$)&let(S,H,answer(H,$p_{2}$))&let(S,H,know(H,$p_{3}$))\\\hline間接発語媒介行為&なし&let(S,H,$p_{2}$)&let(S,H,A)(A=$p'_{3}$)\\\hline発話自体の意図&want(S,H,$p_{1}$)&want(S,H,know(H,$p_{2}$))&want(S,H,know(H,$p_{3}$))\\\hline意図の意図&なし&want(S,H,$p_{2}$)&want(S,H,A)(A=$p'_{3}$)\\\hline発語内的効果&know(H,!($p_{1}$))&know(H,?($p_{2}$))&know(H,$\vdash$($p_{3}$))\\\hline心の状態の変化&think(H,$p_{1}$)&think(H,$p_{2}$)&think(H,$p'_{3}$)\\\hline言語行為&なし&なし&なし\\\hlineその場の行為&$p_{1}$&$p_{2}$&$p'_{3}$\\\hlineその後の行為&なし&なし&なし\\\end{tabular}}\caption{拡張言語行為論の枠組みによる分析例-その1\\(Table\ref{fwsaex}SomeExamplesofAnalysis\\withtheFrameworkofanExtendedSpeechActTheory-Part1)}\label{fwsaex}\end{center}\end{table}\begin{table}[htbp]\begin{center}{\footnotesize\begin{tabular}{l|l|l|l}項番&4&5&6\\\hline発話行為&これから銀行に行きます.&5時ですよ.&じゃあ,明日行きます.\\&(I'llgotothebank.)&(It'sfiveo'clock.)&(ThenI'llgotomorrow.)\\\hline命題行為&$p_{4}$=go\_to(S,Bank)&$p_{5}$=be(Time,five)&$p_{6}$=go\_to(S,Bank);\\&&&Time=Tomorrow\\\hline隠蔽された命題行為&なし&$p'_{5}$=be(Bank,Closed)&なし\\\hline発語内行為&$\vdash$($p_{4}$)&$\vdash$($p_{5}$)&$\vdash$($p_{6}$)\\\hline直接発語媒介行為&let(S,H,know(H,$p_{4}$))&let(H,S,know(S,$p_{5}$))&let(S,H,know(H,$p_{6}$))\\\hline間接発語媒介行為&なし&let(H,S,know(S,$p'_{5}$))&なし\\\hline発話自体の意図&want(S,H,know(H,$p_{4}$))&want(H,S,know(S,$p_{5}$))&want(S,H,know(H,$p_{6}$))\\\hline意図の意図&なし&want(H,S,know(S,$p'_{5}$))&なし\\\hline発語内的効果&know(H,$\vdash$($p_{4}$))&know(S,$\vdash$($p_{5}$))&know(H,$\vdash$($p_{6}$))\\\hline心の状態の変化&think(H,$p_{4}$)&think(S,$p_{5}$),think(S,$p'_{5}$)&think(H,$p_{6}$)\\\hline言語行為&It'sfiveo'clock.&ThenI'llgotomorrow.&なし\\\hlineその場の行為&なし&なし&なし\\\hlineその後の行為&なし&go\_to(S,Bank);&なし\\&&Time=Tomorrow&\\\end{tabular}}\caption{拡張言語行為論の枠組みによる分析例-その2\\(Table\ref{fwsaex2}SomeExamplesofAnalysis\\withtheFrameworkofanExtendedSpeechActTheory-Part2)}\label{fwsaex2}\end{center}\end{table}表\ref{fwsaex},\ref{fwsaex2}の中で,命題行為$p_{i}$は行為(例えばopen(H,Window))か状態(例えばbe(Here,Hot))を表す.また,Sは話し手,Hは聞き手,Aは何らかの行為を表す.さらに発語内行為の''!''は依頼を,''?''は疑問を,''$\vdash$''は陳述を表す.また,表4の命題行為,その後の行為に現れる'';''の後の記述は,直前の述語が遂行される時刻を付記するものである.以下,表\ref{fwsaex},\ref{fwsaex2}の内容について順次説明する.ここで,分析対象はあくまで日本語であるが,述語表現(述語名および引数)は慣例として英語表記が用いられることから,ここでも英語表記を用いている.また,英語による述語表現を分かりやすくするために,発話行為に妥当な英訳を付記してある.1はいわゆる命令文である.話し手が{\bf発話行為}として「窓を開けて!」(Openthewindow!)と言ったことについて分析している.{\bf命題行為}は$p_{1}$=open(H,Window)となる.{\bf隠蔽された命題行為}はない.{\bf発語内行為}は$p_{1}$を依頼したこと,すなわち,!($p_{1}$)となる.{\bf直接発語媒介行為}はSがHに$p_{1}$をさせる,すなわち,let(S,H,$p_{1}$)となる.{\bf間接発語媒介行為}はない.{\bf発話自体の意図}はSがHに$p_{1}$をして欲しい,すなわち,want(S,H,$p_{1}$)となる.この場合,{\bf意図の意図}はない.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{1}$を依頼されたことがわかったこと,すなわち,know(H,!($p_{1}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p_{1}$をしようと思ったこと,すなわち,think(H,$p_{1}$)となる.聞き手が何も返事をしなかった場合をここでは想定しているので,{\bf言語行為}はない.{\bfその場の行為}は$p_{1}$になる.最後に{\bfその後の行為}はない.ここで,述語knowは外界からの情報を単に認知あるいは理解したことを,述語thinkは主体内部の情報だけからの推論によって主体の信念が変化したことを表す.2は疑問文の形をとった依頼を表す.さらにこの場合はコミュニケーションが首尾よく,欠陥なく進行した場合を想定する.話し手が{\bf発話行為}として「窓を開けてくれますか?」(Willyouopenthewindow?)と言ったことについて分析している.{\bf命題行為}は$p_{2}$=open(H,Window)となる.{\bf隠蔽された命題行為}はない.{\bf発語内行為}は$p_{2}$を質問したこと,すなわち,?($p_{2}$)となる.{\bf直接発語媒介行為}はSがHに$p_{2}$と答えさせる,すなわち,let(S,H,answer(H,$p_{2}$))となる.{\bf間接発語媒介行為}はSがHに$p_{2}$をさせる,すなわち,let(S,H,$p_{2}$)となる.{\bf発話自体の意図}はSがHに$p_{2}$を知って欲しい,すなわち,want(S,H,know(H,$p_{2}$))となる.{\bf意図の意図}は,SがHに$p_{2}$して欲しい,すなわち,want(S,H,$p_{2}$)となる.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{2}$を質問されたことがわかったこと,すなわち,know(H,?($p_{2}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p_{2}$をしようと思ったこと,すなわち,think(H,$p_{2}$)となる.聞き手が何も返事をしなかった場合をここでは想定しているので,{\bf言語行為}はない.{\bfその場の行為}は$p_{2}$になる.最後に{\bfその後の行為}はない.上記の分析例で,我々は,質問を依頼であるとする推論を意味論的推論ではなく,語用論的推論と考えた.従来,意味論的推論と語用論的推論の境界線は曖昧であった,我々は,この種の推論を語用論的推論の方へ分類することにした.3は「ここは暑い」と言うことによって,窓を開けて欲しいなど,何かをして欲しいことを知らせる場合である.話し手が{\bf発話行為}として「ここは暑い」(It'shotinhere.)と言ったことについて分析している.{\bf命題行為}は$p_{3}$=be(Here,Hot)となる.{\bf隠蔽された命題行為}はHが何かをすること,すなわち,$p'_{3}$=do(H,something)となる.{\bf発語内行為}は$p_{3}$を陳述したこと,すなわち,$\vdash$($p_{3}$)となる.{\bf直接発語媒介行為}はSがHに$p_{3}$であることを知らせる,すなわち,let(S,H,know(H,$p_{3}$))となる.{\bf間接発語媒介行為}はSがHに何かAをさせる,すなわち,let(S,H,A)(A=$p'_{3}$)となる.{\bf発話自体の意図}はSがHに$p_{3}$であることを知って欲しい,すなわち,want(S,H,know(H,$p_{3}$))となる.{\bf意図の意図}は,SがHに何かAをして欲しい,すなわち,want(S,H,A)(A=$p'_{3}$)となる.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{3}$を陳述したことがわかったこと,すなわち,know(H,$\vdash$($p_{3}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p'_{3}$をしようと思ったこと,すなわち,think(H,$p'_{3}$)となる.聞き手が何も返事をしなかった場合をここでは想定しているので,{\bf言語行為}はない.{\bfその場の行為}は$p'_{3}$になる.最後に{\bfその後の行為}はない.4,5,6は一連の会話の例である.まず,話し手(S)が「これから銀行に行きます」と言ったのに対して,聞き手(H)が「5時ですよ」と指摘して,銀行が既に閉まっていることを示唆し,結局,最初の話し手(S)は「じゃあ,明日行きます」と言った場合である.4は話し手が{\bf発話行為}として「これから銀行に行きます.」(I'llgotothebank.)と言ったことについて分析している.{\bf命題行為}は$p_{4}$=go\_to(S,Bank)となる.{\bf隠蔽された命題行為}はない.{\bf発語内行為}は$p_{4}$を陳述したこと,すなわち,$\vdash$($p_{4}$)となる.{\bf直接発語媒介行為}はSがHに$p_{4}$を知らせる,すなわち,let(S,H,know(H,$p_{4}$))となる.{\bf間接発語媒介行為}はない.{\bf発話自体の意図}はSがHに$p_{4}$を知って欲しい,すなわち,want(S,H,know(H,$p_{4}$))となる.{\bf意図の意図}はない.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{4}$を陳述したことがわかったこと,すなわち,know(H,$\vdash$($p_{4}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p_{4}$だと思ったこと,すなわち,think(H,$p_{4}$)となる.{\bf言語行為}は引き続きなされた発話,すなわち,「5時ですよ.」(It'sfiveo'clock.)となる.{\bfその場の行為}と{\bfその後の行為}はない.5では,{\bf発話行為}として「5時ですよ.」(It'sfiveo'clock.)と言ったことについて分析している.{\bf命題行為}は$p_{5}$=be(Time,five)となる.{\bf隠蔽された命題行為}は銀行が既に閉まっていること,すなわち,$p'_{5}$=be(Bank,Closed)となる.{\bf発語内行為}は$p_{5}$を陳述したこと,すなわち,$\vdash$($p_{5}$)となる.{\bf直接発語媒介行為}はHがSに$p_{5}$を知らせる,すなわち,let(H,S,know(S,$p_{5}$))となる.{\bf間接発語媒介行為}は既に銀行が閉まっていることを知らせる,すなわち,let(H,S,know(S,$p'_{5}$))となる.{\bf発話自体の意図}はHがSに$p_{5}$であることを知って欲しい,すなわち,want(H,S,know(S,$p_{5}$))となる.{\bf意図の意図}は,HがSに$p'_{5}$を知って欲しい,つまり,want(H,S,know(S,$p'_{5}$))となる.また,聞き手側の効果は,{\bf発語内的効果}としては,Sが$p_{5}$を陳述したことがわかったこと,すなわち,know(S,$\vdash$($p_{5}$))となる.発語媒介的効果の{\bf心の状態の変化}はSが$p_{5}$と$p'_{5}$であると思ったこと,すなわち,think(S,$p_{5}$)とthink(S,$p'_{5}$)になる.{\bf言語行為}は引き続きなされた発話,すなわち,「じゃあ,明日行きます.」(ThenI'llgotomorrow.)となる.{\bfその場の行為}はない.{\bfその後の行為}は明日,銀行へ行くこと,すなわち,go\_to(S,Bank);Time=Tomorrowとなる.6では,{\bf発話行為}として「じゃあ,明日行きます.」(ThenI'llgotomorrow.)と言ったことについて分析している.{\bf命題行為}は$p_{6}$=go\_to(S,Bank);Time=Tomorrowとなる.{\bf隠蔽された命題行為}はない.{\bf発語内行為}は$p_{6}$を陳述したこと,すなわち,$\vdash$($p_{6}$)となる.{\bf直接発語媒介行為}はSがHに$p_{6}$を知らせる,すなわち,let(S,H,know(H,$p_{6}$))となる.{\bf間接発語媒介行為}はない.{\bf発話自体の意図}はSがHに$p_{6}$を知って欲しい,すなわち,want(S,H,know(H,$p_{6}$))となる.{\bf意図の意図}はない.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{6}$を陳述したことがわかったこと,すなわち,know(H,$\vdash$($p_{6}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p_{6}$だと思ったこと,すなわち,think(H,$p_{6}$)となる.{\bf言語行為}と{\bfその場の行為}と{\bfその後の行為}はない. \section{「はい」による了解応答の分析} 主としてここでは,拡張言語行為論の枠組みを用いて,了解応答としてのあいづち「はい」について一般的な分析を行うとともに,その分析を踏まえて{\bf「はい」による了解の程度と過程}の分析を行い,これらの分析から得られた知見を述べる.\subsection{一般的な分析}\label{yesspeechact}まず,S(最初の発話者)の発話に対するH(最初の発話者Sの聞き手)のあいづちとしての「はい」を,了解応答とみなして,前節の拡張言語行為論の枠組みを用いて分析してみる(表\ref{yesspeech})\footnote{表中に含まれていない概念要素に関する分析結果は「なし」であり,それらは省略してある.}.Hの{\bf発話行為}として「はい」がなされたとき,{\bfHの隠蔽された命題行為}$p_{H}$は,HがSのいずれかの言語行為あるいは意図をわかったことを指す.すなわち,$p_{H}$=know(H,$p'_{S}$)($p'_{S}$はSのいずれかの言語行為あるいは意図)ということになる.Hの{\bf発語内行為}はSの{\bf命題行為}$p_{S}$に対するあいづちであるので,chimeIn(H,$p_{S}$)となる.{\bf間接発語媒介行為}は,HがSに$p_{H}$を知らせる,すなわちlet(H,S,know(S,$p_{H}$))となる.最後にHの{\bf発話自体の意図}は,Hが$p'_{S}$を知ったこと(つまり,$p_{H}$)をSに知って欲しい,すなわちwant(H,S,know(S,$p_{H}$))となる.人間はこれらのことを一瞬にしてやってのける(あるいは指摘されればわかる)が,分析してみると上記のようになる.\begin{table}[htbp]\begin{center}\begin{tabular}{r|l}言語行為/意図&分析内容\\\hline\hlineHの発話行為&「はい」\\\hlineHの隠蔽された命題行為&$p_{H}$=know(H,$p'_{S}$)\\&$p'_{S}$はSのいずれかの言語行為あるいは意図\\\hlineHの発語内行為&chimeIn(H,$p_{S}$)\\\hlineHの間接発語媒介行為&let(H,S,know(S,$p_{H}$))\\\hlineHの発話自体の意図&want(H,S,know(S,$p_{H}$))\\\end{tabular}\caption{拡張言語行為論の枠組みを用いた「はい」による了解応答の一般的分析\\(Table\ref{yesspeech}AGeneralAnalysisofthe``Uptake''through``Hai''\\inJapanesewiththeFrameworkofanExtendedSpeechActTheory)}\label{yesspeech}\end{center}\end{table}「はい」はこれまで概念的に未分化な状態にあった.しかし上述のような分析によって,「はい」を言語行為という観点から概念的にある程度分化させることができた.また,「はい」によって行われる各言語行為の内容と,言語行為間の関係とが分かった.これによって,ある程度まで鍵穴認識(つまり第三者による観察)が可能になった.しかし一方で,Hの{\bf隠蔽された命題行為}における$p'_{S}$の指示対象が具体的に決定困難であることが,鍵穴認識の難しさの原因になっていることが分かった.これまで鍵穴認識の難しさについては抽象的な議論しか行われてこなかったが,具体的な問題点を明らかにしたことになる.\subsection{了解の程度と過程}表\ref{yesspeech}においてHの{\bf隠蔽された命題行為}における$p'_{S}$の指示対象が何であるかによって,Hの{\bf隠蔽された命題行為}$p_{H}$=know(H,$p'_{S}$)は以下のように多様に解釈できる.\begin{description}\item[(1)$p'_{S}$がSの発話行為]いわゆるあいづちであり,聞いているということを意味する.\item[(2)$p'_{S}$がSの命題行為]Sの言っている命題内容がわかったことを意味する.\item[(3)$p'_{S}$がSの発語内行為]Sの発話が,約束,依頼/命令,陳述,疑問,感謝,助言,警告,あいさつなどであること(Sの発語内行為)がわかったことを意味する.\item[(4)$p'_{S}$がSの直接発語媒介行為]Sの直接発語媒介行為がわかったことを意味する.\item[(5)$p'_{S}$がSの隠蔽された命題行為]Sの隠蔽された命題行為がわかったことを意味する.\item[(6)$p'_{S}$がSの間接発語媒介行為]Sの間接発語媒介行為がわかったことを意味する.\item[(7)$p'_{S}$がSの発話自体の意図]Sの発話自体の意図がわかったことを意味する.\item[(8)$p'_{S}$がSの意図の意図]Sの意図の意図がわかったことを意味する.\end{description}以上のように,拡張言語行為論の枠組みを用いた「はい」による了解応答の語用論的分析に限れば,$p_{H}$の多様性は上記の八種類に限定できる.このような多様性がHの了解の{\bf程度}に対応するものと考えられる.したがって,了解の程度には八つの段階があるということになる.$p'_{S}$の指示対象に依存して了解の程度が変わり,上述の(1)から(8)に向けて了解の程度が高くなることは明らかであろう.ここで$p'_{S}$は,H側が了解した内容に相当するという意味で,{\bf了解内容}と呼ぶ.これまで了解の程度については詳細な議論がなされていなかったが,これによって了解の程度を考察する枠組みを明らかにすることができた.しかし,前節でも述べたように$p'_{S}$の指示対象が具体的に決定困難であることから,了解の程度がどの段階にあるかを客観的に特定するのは一般に困難であるという問題は残されている.一方,了解の{\bf過程}には発話の確認,命題行為の理解,発語内行為の理解,意図の理解,納得,言語行為,行為と七段階が考えられる.ここで,意図の理解とは単に発話者の意図(発話自体の意図あるいは意図の意図)を理解したものであり,納得とは発話者の意図(発話自体の意図あるいは意図の意図)に同意することである.さらに,納得を前提として,発話に対する答え(言語行為)がなされ,さらに具体的な行為がなされる.これらの各段階は,典型的には,前段階の通過を前提とするものである.したがって,各段階が観察可能であれば(実際,発話者間ではお互いがどの段階にあるかを確認することは可能である),上述した了解の過程はさらなる了解に向けての次なる段階を示唆するものであり,会話において了解を促進させる手がかりとなりうる.またこれまでは,了解について明確なモデルがないまま鍵穴認識の研究が行われていた.本論文では,拡張言語行為論という枠組みを用いて,了解の程度と過程のモデルを構築した.これは鍵穴認識の領域におけるひとつの前進といえる. \section{むすび} 本論文では,了解の程度と過程を分析するために拡張言語行為論の枠組みを与えた.これによって,了解の語用論的分析を可能にした.本枠組みは,Searleの言語行為論の枠組みを拡張したものであり,{\bf隠蔽された命題行為}と{\bf意図}という概念を新たに導入している.また大まかに述べれば,{\bf意図}を二種類に,{\bf発語媒介行為}を二種類に,{\bf発語媒介的効果}を四種類にそれぞれ分類し,言語行為論を詳細化している.さらに本枠組みは,了解の語用論的分析を可能にしたという点で,分析力を高めたものである.また,拡張言語行為論の枠組みを利用してあいづち「はい」による了解の程度と過程について分析し,いくつか有用な知見を得た.得られた知見を要約すると以下の通りである.了解の程度には八つの段階が,了解の過程には七つの段階が識別できる.これまでは了解の程度については詳細な議論がなされていなかったが,本分析によって了解の程度を考察する枠組みを与えることができた.しかし一般には,第\ref{yesspeechact}節でも述べたように$p'_{S}$(発話者Sのいずれかの言語行為あるいは意図)の指示対象が具体的に決定困難であることから,了解の程度がどの段階にあるかを客観的に特定するのは困難であるという問題は残されている.次に,これまでは,了解の程度と過程が不明確ながらも鍵穴認識が行われていた.了解の程度と過程を明らかにしたことは,鍵穴認識の領域におけるひとつの前進といえる.拡張言語行為論の枠組みは,それによる分析例(表\ref{fwsaex2})で示したように,あいづち「はい」による了解だけではなく,他の発話による了解の分析にも使える.そのため,例えば「鍵穴認識」で何が困難なのかが判明する可能性がある.最後に,了解の程度に関するモデルを利用した発展的研究の可能性について述べる.Austinは,発語内行為を判定宣言型,権限行使型,行為拘束型,態度表明型,言明解説型の五つの型に分けている\cite{austin}.それぞれの型に対応する発話と,その発話に対するあいづち「はい」とを対にした対話例をいくつか用意する.対話例は,紙に書かれたもの,音声のみで記録されたもの,ビデオテープに記録されたものが考えられる.また,各対話例について,了解の程度に対応して了解内容を明記した一覧表を用意する.そして,各対話例とそれに対応する了解内容を複数の被験者に示し,発話「はい」がどの了解内容を指しているように見えるかを回答させる.ある発語内行為の型に対して回答のばらつきが大きいならば,その型は,発話「はい」による了解内容が多様で曖昧になると判断できる.こうした発展的研究は,以下のようにユーザインタフェースの改善に貢献し得る.人間が計算機に対して話しかけ,それに応じて計算機が「はい」と答える状況を考える.こうした状況では,計算機の「はい」による了解内容が曖昧になることがある.言い換えれば,「はい」が単なるあいづちであるのか,それよりも上位の了解を意味するのかが,人間には分からない場合がある.その場合には,計算機側に「はい」以外の,人間に了解内容が伝わるような発話を必要とする.計算機の「はい」による了解内容が曖昧になる場合を上述したような発展的研究を通じてあらかじめ知っておくことにより,会話の正確さと円滑さを保つことができる.了解の程度と過程のモデルを利用したこのような研究を行うことが,今後の研究課題である.\bibliographystyle{jnlpbbl}\bibliography{final}\begin{biography}\biotitle{略歴}\bioauthor{土井晃一}{1961年生.1991年東京大学工学部情報工学専攻博士課程修了.工学博士.同年富士通研究所国際情報社会科学研究所入社(現富士通研究所コンピュータシステム研究所).自然言語理解,人工知能,ソフトウエア工学,情報検索などの研究に従事.1998年9月より1999年10月まで文部省学術情報センター客員助教授併任.現在は,(株)セレスター・レキシコ・サイエンシズに勤務.日本認知科学会,情報処理学会,人工知能学会,ソフトウエア科学会,言語処理学会各会員.}\bioauthor{大森晃}{1954年生.1985年広島大学大学院工学研究科博士課程後期修了(システム工学専攻).工学博士.1982年9月より1年間ケースウェスタンリザーブ大学客員研究員.1985年4月より富士通国際情報社会科学研究所に勤務.1993年10月より東京理科大学工学部第二部経営工学科助教授.ソフトウエア工学,品質管理,ユーザ・インタフェース,自然言語理解などの研究に従事.IEEEComputerSociety,ACM,日本品質管理学会,計測自動制御学会,情報処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V26N01-03
\section{はじめに} 近年,ソーシャルニュースサイトや討論ポータルの発展に伴い,様々な話題がオンライン上で議論されるようになった.これら議論は世の中の貴重な意見を含んでいるが,分析には関連する複数の投稿・発言の内容を理解する必要がある.これまでも対話行為の分析\cite{Stolcke2000,Bunt2010}を発展させ,議論を談話行為に基づいて分析するアプローチが提案されてきた.議論における談話行為の自動的な分類は,情報アクセスや要約の改善に寄与できると考えられている.このため,電子メール\cite{Cohen2004,Carvalho2005,Carvalho2006,Hu2009,Omuya2013},ニュースグループ\cite{Wang2007},技術電子掲示板\cite{Kim2010b,Wang2011,Bhatia2012,Liu2017},ソーシャルニュース\cite{Zhang2017}等の談話行為・対話行為が既存の研究で対象とされてきた.議論において談話行為・対話行為を分類する際には,議論のパターンを取り入れることの重要性がたびたび指摘されてきた.投稿間の関係・リンク\cite{Carvalho2005,Hu2009},投稿の位置・深さ\cite{Wang2007,Kim2010a,Kim2010b,Wang2011,Bhatia2012,Zhang2017,Liu2017}等のパターン情報は,確率的なグラフィカルモデル,構造学習モデル,系列学習モデル等と組み合わせて利用されてきた.これらアプローチは談話行為の分類において有効性を示したが,分類モデルにパターン情報を取り入れるためにタスク依存のパターン素性を設計する必要があった.本稿では議論のパターンをニューラルネットワークを用いて取り入れるモデルを提案する.近年,ニューラルネットワークを用いて木構造\cite{Socher2011,Socher2014,Tai2015}やグラフ構造\cite{Defferrard2016,Kipf2017}を学習する有効性が示されている.提案モデルではパターン素性を設計せずに,木構造学習層とグラフ構造学習層を用いて議論のパターンを学習する.既存の研究では様々な対象の談話行為・対話行為が分類されてきたが,本稿ではReddit\footnote{https://www.reddit.com/}の談話行為の分類に提案モデルを適用する.Redditは大規模なソーシャルニュースサイトであり,数多くのトピックについて日々議論が行われている.議論はスレッド単位で行われ,トピックを提供する最初の投稿および投稿に対する返信の連鎖で構成される.提案モデルの評価では\citeA{Zhang2017}の$9$種類の談話行為を対象にする.$9$種類の談話行為は{\itAnswer},{\itElaboration},{\itQuestion},{\itAppreciation},{\itAgreement},{\itDisagreement},{\itHumor},{\itAnnouncement},{\itNegativeReaction}であり,図\ref{fig:example}にこれら談話行為の例を示す.本稿では次の二つの理由でRedditを対象とした.第一に,Reddit上での議論は投稿をノード,返信関係をエッジとした木構造およびグラフ構造として表すことができる.第二に,公開されているRedditの談話行為が付与されたコーパスは大規模であり,ニューラルネットワークを用いて木構造やグラフ構造を学習するのに適している.本稿の貢献には以下の三点が挙げられる:\begin{enumerate}\item投稿間の構造に対応した,木構造学習層とグラフ構造学習層を含むモデルを提案する.\item談話行為の分類性能において,提案モデルが従来のパターン素性と系列学習を組み合わせたモデルを上回ることを示す.\item提案モデルの中間層を注意機構を通じて分析し,談話行為の分類に有効な構造を確認する.\end{enumerate}本稿の以降の章では次の内容を述べる.\ref{sec:related}章で提案モデルの関連研究を紹介し,モデルの詳細を\ref{sec:model}章で述べる.\ref{sec:exp}章で提案モデルを用いた評価実験を報告し,結果を\ref{sec:discuss}章で考察する.最後に\ref{sec:conc}章では本稿をまとめ,さらに今後の展望を述べる.\begin{figure}[t]\begin{center}\includegraphics{26-1ia3f1.eps}\end{center}\hangcaption{Redditを対象とした談話行為の例.各丸はスレッド中の投稿,赤色は最初の投稿,青色は返信の投稿,矢印は返信を表している.最初の質問({\itQuestion})が答え({\itAnswer})とユーモア({\itHumor})の返信を受けており,答えの一つはさらに謝辞({\itAppreciation})と追加情報({\itElaboration})の返信を受けている.}\label{fig:example}\end{figure} \section{関連研究} \label{sec:related}\subsection{談話行為・対話行為の分類}議論を対象として,談話行為・対話行為を自動的に分類する手法は従来より研究されてきた.初期の研究としては,特に電子メールおよび技術電子掲示板が対象となることが多かった.\citeA{Cohen2004}は電子メールに対話行為をアノテーションし,テキスト素性を用いた分類器を構築した.この研究は\citeA{Carvalho2005}によって関係素性を用いたコレクティブ分類モデル,\citeA{Carvalho2006}によってN-gram素性の拡張が行われた.\citeA{Hu2009}も電子メールに対話行為をアノテーションし,構造学習モデルを用いた分類を試みた.この研究は\citeA{Omuya2013}によってクラス毎の素性の最適化およびカスケード分類器を用いた拡張が行われた.\citeA{Kim2010b}は技術電子掲示板の投稿に対話行為をタグ付けし,パターン素性と系列学習器を用いた分類実験を実施した.この研究はのちに,\citeA{Wang2011}によって対話行為の分類とリンク関係の同時学習,\citeA{Liu2017}によって外部記憶を持つ系列学習器の拡張が行われた.\citeA{Bhatia2012}も技術電子掲示板の投稿に対話行為をタグ付けし,パターン素性を含む様々な素性を用いた分類器を評価した.議論を対象とした談話行為・対話行為の分類は,電子メール・技術電子掲示板以外を対象としても研究されてきた.\citeA{Wang2007}はニュースグループの節を対象にパターン素性と系列学習モデルを用いた議論カテゴリの分類を評価した.\citeA{Kim2010a}はチャットの対話行為を分類するためにパターン素性を用いた系列学習モデルを探索した.\citeA{Zhang2011}は短文投稿を対話行為でアノテートし,単語素性と文字素性を用いた分類モデルを学習した.\citeA{Zhang2012}は同じ短文投稿データを用いて,ラベル伝搬に基づく半教師あり学習モデル等を探索した.\citeA{Ferschke2012}は対話行為が付与されたWikipediaノートページのコーパスを作成し,テキスト素性とパターン素性を用いた分類器を学習した.\citeA{Zhang2017}はRedditのスレッドを談話行為でアノテートし,パターン素性を含む様々な素性を用いた系列学習モデルを設計した.\subsection{Redditの自動分析}大量のテキストおよび画像コンテンツから構成されるRedditを対象に,世の中の意見を分析する研究が数多く行われてきた.Redditを対象とした自動分析の中でも,人気度を表すkarmascore(ポジティブ投票とネガティブ投票の差)の分析は広く研究されてきた.\citeA{Jaech2015}は人気度のランキングタスクを提案し,ペアワイズ分類器を用いたランキングを行った.\citeA{Wei2016b}は人気度を用いて投稿を説得力に応じてランキングするシステムを設計した.\citeA{He2016}は動的に人気度を推定する深層強化学習の構成を提案し,この研究はさらに\citeA{He2017}によって2段階の処理に拡張された.\citeA{Hessel2017}は人気度の推定タスクにおいてマルチモーダル素性が有効であることを示した.\citeA{Cheng2017}は関連要素を因子として結び付けるニューラルモデルを用いて人気度を推定し,文書埋め込みに基づくモデルを上回る性能を実現した.\citeA{Zayats2018}は人気度を推定するのに適したグラフ構造のニューラルモデルを提案し,投稿を独立に扱うモデルを上回る性能を実現した.Redditを対象とした自動分析では,人気度以外に着目した研究も数多く行われている.本稿が対象とする談話行為の分析\cite{Zhang2017}もその一つであり,他にも様々なタスクが検討されている.\citeA{Buntain2014}は回答を投稿する人の社会的な役割に着目し,それらを教師あり学習で分類した.\citeA{Tan2016}はChangeMyViewsubredditを対象とし,説得性の高い投稿の明確化および意見の適応性を分類するモデルを構築した.\citeA{Lim2017}は投稿者の専門性を投稿内容に非依存な手法を用いて探索した.\subsection{提案モデルとの比較}提案モデルでは議論のパターンをニューラルネットワークに基づく木構造学習層とグラフ構造学習層を用いて学習する.これは従来用いられてきたパターン素性を用いずに,テキスト情報と議論のパターンを同時に学習するアプローチである.また,談話行為・対話行為の分類では従来は系列学習モデルが用いられることが多かった\cite{Wang2007,Kim2010a,Kim2010b,Wang2011,Zhang2017,Liu2017}.\citeA{Carvalho2005}は確率的なグラフィカルモデルを用いたが,関係素性と事前学習したテキスト素性に基づく分類器を前提としている.提案モデルをRedditの自動分析を行うモデルと比較すると,類似したアプローチが\citeA{Zayats2018}で用いられている.\citeA{Zayats2018}ではLongshort-termmemory(LSTM)\cite{Hochreiter1997}を拡張し,階層および時系列情報をグラフ構造として学習するモデルを提案した.しかし,このモデルはRedditの人気度を効率的に学習するための設計を含んでいる.Redditの人気度は投稿時間や投稿者の属性に強く相関することが知られている\cite{Jaech2015}.人気度の推定モデルを談話行為の推定にそのまま適用しても,\ref{sec:exp}章で詳細を述べる実験で示すように性能は限定的である. \section{提案モデル} \label{sec:model}提案モデルであるTree-LSTMGCNHybridの概要を図\ref{fig:model2}に示す.Tree-LSTMGCNHybridではまずスレッド中の投稿をLSTMと最大プーリングでエンコード(CommentEncoder)し,投稿の特徴量を得る.次に,投稿間の関係を木構造のLSTM処理(Parent-BranchTree-LSTM,Child-SumTree-LSTM)およびグラフ構造の畳み込み処理(GCN)で取り入れた投稿の特徴量を得る.投稿の特徴量にはさらに注意機構(Self-Attention)を適用し,最終的には全結合層でラベルに接続(LabelClassifier)する.\begin{figure}[p]\begin{center}\includegraphics{26-1ia3f2.eps}\end{center}\hangcaption{提案モデルTree-LSTMGCNHybridの概要.このモデルではスレッドに含まれる投稿をCommentEncoderでエンコードし,それらを木構造学習層(Parent-BranchTree-LSTM,Chid-SumTree-LSTM)およびグラフ構造学習層(GCN)で処理する.}\label{fig:model2}\end{figure}Tree-LSTMGCNHybridでは,既存のLSTM,木構造のLSTM,グラフ構造の畳み込みの処理を一部変更した上で組み合わせて,議論の分析に効果的なモデルを提案している.返信元から返信先に展開される議論のフローを取り入れるために,LSTMの$1$ステップ前の参照処理を修正したParent-BranchTree-LSTMを用意した.返信先から返信元に展開される議論のフローを取り入れるために,\citeA{Tai2015}のChild-SumTree-LSTMを用意した.返信の方向に依存しない周辺で展開される議論のフローを取り入れるために,\citeA{Defferrard2016}のGCNを用意した.本章の以降では,各構成要素の詳細について述べる.\subsubsection*{CommentEncoder}CommentEncoderでは投稿単位の処理を実現するために,投稿中の単語から投稿の特徴量を求める.タイトルテキスト${\boldsymbola}_{title}$と投稿テキスト${\boldsymbola}_{1\ldotsI}$からなる系列データを入力とする.各テキスト中の単語は,EmbeddingLayerの埋め込み行列${\boldsymbolE}$によって${\boldsymbolx}_{title}$および${\boldsymbolx}_{1\ldotsI}$に変換する.変換した入力は,双方向LSTM\footnote{タイトルを持つ最初の投稿と以降の投稿を別途処理できるように,最初の投稿用の$\rmLSTM_s$と返信の投稿用の$\rmLSTM_c$を用意した.}により以下の状態遷移関数に基づき処理する:{\allowdisplaybreaks\begin{align}{\boldsymboli}_t&=\sigma\left({\boldsymbolW}_i{\boldsymbolx}_t+{\boldsymbolU}_i{\boldsymbolh}_{t-1}+{\boldsymbolb}_i\right)\label{eq:lstm1}\\{\boldsymbolo}_t&=\sigma\left({\boldsymbolW}_o{\boldsymbolx}_t+{\boldsymbolU}_o{\boldsymbolh}_{t-1}+{\boldsymbolb}_o\right)\label{eq:lstm2}\\{\boldsymbolf}_t&=\sigma\left({\boldsymbolW}_f{\boldsymbolx}_t+{\boldsymbolU}_f{\boldsymbolh}_{t-1}+{\boldsymbolb}_f\right)\label{eq:lstm3}\\\tilde{{\boldsymbolc}}_t&=\tanh\left({\boldsymbolW}_c{\boldsymbolx}_t+{\boldsymbolU}_c{\boldsymbolh}_{t-1}+{\boldsymbolb}_c\right)\label{eq:lstm4}\\{\boldsymbolc}_t&={\boldsymboli}_t\odot\tilde{{\boldsymbolc}}_t+{\boldsymbolf}_t\odot{\boldsymbolc}_{t-1}\label{eq:lstm5}\\{\boldsymbolh}_t&={\boldsymbolo}_t\odot\tanh\left({\boldsymbolc}_t\right)\end{align}}ここで${\boldsymboli}_t$は入力ゲート,${\boldsymbolo}_t$は出力ゲート,${\boldsymbolf}_t$は忘却ゲート,$\tilde{{\boldsymbolc}}_t$はメモリセルゲート,${\boldsymbolc}_t$はメモリセルの状態,${\boldsymbolh}_t$は隠れ状態,${\boldsymbolW}_*$と${\boldsymbolU}_*$は重み行列,${\boldsymbolb}_*$はバイアス項,$\sigma$はロジスティックシグモイド関数,$\odot$は要素積の演算子である.双方向LSTMの出力は結合し,時間方向の最大プーリング(MaxPooling)により投稿の特徴量${\boldsymbolm}={\rmmax}\left(\overrightarrow{{\boldsymbolh}}\|\overleftarrow{{\boldsymbolh}}\right)$を得る.ここで,$\overrightarrow{{\boldsymbolh}}$は$\boldsymbolh$の順方向での処理結果,$\overleftarrow{{\boldsymbolh}}$は$\boldsymbolh$の逆方向での処理結果,$\|$はテンソルの結合を意味する.また,最初の投稿については,タイトルの出力(${\boldsymbolh}_{title}$)と投稿の出力(${\boldsymbolh}_1$)の要素和($\oplus$)を$\overrightarrow{{\boldsymbolh}}_{title}\|\overleftarrow{{\boldsymbolh}}_{title}\oplus\overrightarrow{{\boldsymbolh}}_1\|\overleftarrow{{\boldsymbolh}}_1$のようにして,最大プーリングの前に求める.\subsubsection*{Parent-BranchTree-LSTM}Parent-BranchTree-LSTMでは親ノード(返信元)の情報を用いた談話行為の推定を可能にする.投稿の特徴量は根ノードから葉ノードへと処理する.LSTMの$1$時刻前の隠れ状態${\boldsymbolh}_{t-1}$(式\ref{eq:lstm1}--\ref{eq:lstm4})を親ノードの隠れ状態${\boldsymbolh}_{parent}$に置き換えて,以下の式に基づき処理する:{\allowdisplaybreaks\begin{align}{\boldsymboli}_t&=\sigma\left({\boldsymbolW}_i{\boldsymbolx}_t+{\boldsymbolU}_i{\boldsymbolh}_{parent}+{\boldsymbolb}_i\right)\\{\boldsymbolo}_t&=\sigma\left({\boldsymbolW}_o{\boldsymbolx}_t+{\boldsymbolU}_o{\boldsymbolh}_{parent}+{\boldsymbolb}_o\right)\\{\boldsymbolf}_t&=\sigma\left({\boldsymbolW}_f{\boldsymbolx}_t+{\boldsymbolU}_f{\boldsymbolh}_{parent}+{\boldsymbolb}_f\right)\\\tilde{{\boldsymbolc}}_t&=\tanh\left({\boldsymbolW}_c{\boldsymbolx}_t+{\boldsymbolU}_c{\boldsymbolh}_{parent}+{\boldsymbolb}_c\right)\end{align}}なお,投稿には複数の子ノード(返信)がありえるため,${\boldsymbolh}_{parent}$は複数の投稿で共有されることがある.また,以降の処理では${\boldsymbolh}$をParent-BranchTree-LSTMが出力する投稿の特徴量${\boldsymbolr}_P$として用いる.\subsubsection*{Child-SumTree-LSTM}Child-SumTree-LSTMでは子ノード(返信)の情報を用いた談話行為の推定を可能にする.投稿の特徴量は葉ノードから根ノードへとChild-SumTree-LSTM\cite{Tai2015}で処理する.具体的には,式\ref{eq:lstm1},\ref{eq:lstm2},\ref{eq:lstm4}に含まれる$1$時刻前の隠れ状態${\boldsymbolh}_{t-1}$を子ノードの隠れ状態$\tilde{{\boldsymbolh}}_{t}$に置き換え,忘却ゲート${\boldsymbolf}_t$(式\ref{eq:lstm3})とメモリセルゲート${\boldsymbolc}_t$(式\ref{eq:lstm5})を以下の式に置き換え処理する:\begin{align}\tilde{{\boldsymbolh}}_t&=\sum_k{\boldsymbolh}_k\\{\boldsymbolf}_{tk}&=\sigma\left({\boldsymbolW}_f{\boldsymbolx}_t+{\boldsymbolU}_f{\boldsymbolh}_k+{\boldsymbolb}_f\right)\\{\boldsymbolc}_t&={\boldsymboli}_t\odot\tilde{{\boldsymbolc}}_t+\sum_k{\boldsymbolf}_{tk}\odot{\boldsymbolc}_{k}\end{align}ここで${\boldsymbolh}_k$は子ノードの隠れ状態,${\boldsymbolc}_k$は子ノードのメモリセル状態である.また,以降の処理では${\boldsymbolh}$をChild-SumTree-LSTMが出力する投稿の特徴量${\boldsymbolr}_C$として用いる.\subsubsection*{GCN}GCNでは周辺ノード(返信元および返信先)の情報を用いた談話行為の推定を可能にする.各ノードの周辺ノードを畳み込みフィルタでグラフ上の畳み込みとして取り込む.具体的には,畳み込みフィルタをチェビシェフ展開で近似する手法\cite{Hammond2011}に基づく,グラフ畳み込み処理\cite{Defferrard2016}を用いる.投稿の特徴${\boldsymbolh}_l$を入力として,以下の状態遷移関数で処理する:\begin{align}{\boldsymbolh}_{l+1}&={\boldsymbolU}g_\theta\left({\boldsymbol\Lambda}\right){\boldsymbolU}^T{\boldsymbolh}_l\\g_{\boldsymbol\theta}\left({\boldsymbol\Lambda}\right)&=\sum_k^{K-1}{\boldsymbol\theta}_kT_k(\tilde{\boldsymbol\Lambda})\end{align}ここで$l$は層の番号,$\boldsymbolU$は入力グラフにおける正規化されたラプラシアンのフーリエ基底,$\boldsymbol{\theta}_k\in\mathbb{R}^K$はチェビシェフ係数のベクトル,$T_k(\tilde{\boldsymbol\Lambda})$は$k$次のチェビシェフ多項式である.グラフ上の畳み込み処理は連続的に適用することにより多層化でき,提案モデルでは式\ref{eq:gcn}のようにグラフ畳み込み処理$2$層と正規化線形関数(ReLU)を組み合わせた投稿の特徴量${\boldsymbolr}_G$を得る:\pagebreak\begin{align}{\boldsymbolr}_G&={\boldsymbolU}g_\theta\left({\boldsymbol\Lambda}\right){\boldsymbolU}^T{\rmReLU}\left({\boldsymbolU}g_\theta\left({\boldsymbol\Lambda}\right){\boldsymbolU}^T{\boldsymbolm}\right)\label{eq:gcn}\end{align}\subsubsection*{Self-Attention}Parent-BranchTree-LSTM(P),Child-SumTree-LSTM(C),GCN(G)に対応する$j\in\{P,C,G\}$番目の特徴量を,自己注意方法の注意機構\cite{Yang2016,Lin2017}(Self-Attention)で統合する.注意機構で統合した$i$番目の投稿の特徴量${\boldsymbols}_i$は,議論のフローを取り入れた特徴量${\boldsymbolr}_{ji}$の重み付き和として以下のように求める:\begin{align}{\boldsymbols}_i&=\sum_{j\in\{P,C,G\}}\alpha_{ji}{\boldsymbolr}_{ji}\\\alpha_{ji}&=\frac{\exp\left({\boldsymbolv}_\alpha^T{\boldsymbolu}_{ji}\right)}{\sum_{j'\in\{P,C,G\}}\exp\left({\boldsymbolv}_\alpha^T{\boldsymbolu}_{j'i}\right)}\label{eq:softmax}\\{\boldsymbolu}_{ji}&=\tanh\left({\boldsymbolW}_\alpha{\boldsymbolr}_{ji}+{\boldsymbolb}_\alpha\right)\end{align}ここで${\boldsymbolv}_\alpha$は重みベクトル,${\boldsymbolW}_\alpha$は重み行列,${\boldsymbolb}_\alpha$はバイアス項である.\subsubsection*{LabelClassifier}各投稿の特徴量${\boldsymbols}_i$を,全ての$i$で共有された全結合層とソフトマックス関数を用いて以下のようなラベル出力$\sigma\left({\boldsymboly}_i\right)$を得る:\begin{align}{\boldsymboly}_i&={\boldsymbolW}_{d}{\boldsymbols}_i+{\boldsymbolb}_d\\\sigma\left({\boldsymboly}_i\right)&=\frac{\exp\left({\boldsymboly}_i\right)}{\sum_{i'}\exp\left({\boldsymboly}_{i'}\right)}\end{align}ここで${\boldsymbolW}_d$は重み行列,${\boldsymbolb}_d$はバイアス項である. \section{実験} \label{sec:exp}\subsection{ベースライン}提案手法のベースラインとして,ルールに基づくモデル(Rule5-ACTS),従来のパターン素性と系列学習を組み合わせたモデル(CRFVote),$2$種類のニューラルモデル(LSTM-CRFVote,Greaph-LSTM)を用意した.\subsubsection*{Rule5-ACTS}機械学習に基づかないベースラインとして,単純なルールに基づく分類器Rule5-ACTSを用意した.スレッド中の投稿$c$はAlgorithm\ref{alg1}に基づいてラベル$l$に分類される.なお,この分類器では投稿が{\itAgreement},{\itDisagreement},{\itHumor},{\itNegativeReaction}の$4$種類のラベルに分類されることはない.\begin{algorithm}[b]\caption{Rule5-ACTS}\label{alg1}\input{03algo01.tex}\end{algorithm}\subsubsection*{CRFVote}\citeA{Zhang2017}で最も良い性能を示した,条件付き確率場(CRF)に基づくモデルをCRFVoteとして実装した.このモデルではスレッドを分解して,根ノードから各葉ノードへの系列を独立して処理する.内容語,句読点,パターン,著者,スレッド,コミュニティの素性をCRFで学習する.素性の中でもパターン素性の大きな効果がアブレーションテストにより確認されている.なお,スレッドを系列に分解して処理するため,一つの投稿に対して複数の異なるラベルを分類することがある.この際には,投稿のラベルは分類したラベルの多数決によって決定する.\subsubsection*{LSTM-CRFVote}CommentEncoder(\ref{sec:model}章)にLSTM層とCRF層を組み合わせて,CRFVoteをニューラルモデルに拡張したLSTM-CRFVoteを実装した.系列学習タスクにおいて,LSTMとCRFを組み合わせるアプローチが有効であることは知られている\cite{Huang2015,Lample2016,Ma2016}.また,CRFVoteと同様にスレッドは根ノードから葉ノードへの系列に分解する.このモデルではまず各系列をCommentEncoderで処理し,各投稿の特徴量を得る.次にLSTM層により投稿間の依存関係を導入し,さらにCRF層でラベル間の相関関係を導入する.また,複数のラベルが分類された投稿については,CRFVoteと同様に多数決でラベルを決定する.\subsubsection*{Graph-LSTM}グラフ構造に対応したLSTM\cite{Zayats2018}をGraph-LSTMとして実装した.スレッド上の投稿間の親子関係および兄弟関係を処理できるように,LSTMを拡張して親子間の接続を扱う忘却ゲートと兄弟間の接続を扱う忘却ゲートを用意している.また,投稿中の単語分散表現の平均に加えて,グラフ上の位置や返信数といったパターン素性を組み合わせた入力を用意している.このモデルは談話行為の分類を目的として設計されてはいないが,Reddit投稿の人気度を推定する際には優れた性能を発揮している.\subsection{データ・評価手法}\label{sec:data}提案モデルとベースラインモデルの評価には\citeA{Zhang2017}のデータ\footnote{https://github.com/google-research-datasets/coarse-discourse}を用いた.データはRedditの9,438スレッド,115,827投稿,2,837コミュニティ(subreddit)より構成され,各投稿には表\ref{tab:cdis-exp}に示される$10$種類の談話行為が$3$人のアノテータによりアノテートされている.\citeA{Zhang2017}の設定を踏襲し,アノテータ間の多数決でラベルを決定できない投稿および多数決で決定したラベルが{\itOther}の投稿を除外した.結果として,評価には9,131スレッド,98,865投稿のデータを用いた.各談話行為のラベルの数,それらの最初の投稿の割合,Krippendorf'sAlphaによる一致度を表\ref{tab:cdis}に示す.\begin{table}[t]\caption{各談話行為とその概要}\label{tab:cdis-exp}\input{03table01.tex}\end{table}\begin{table}[t]\caption{談話行為の数,最初の投稿の割合,Krippendorf'sAlphaによる一致度}\label{tab:cdis}\input{03table02.tex}\end{table}すべてのモデルは$10$交差検定で評価し,評価尺度としてはAccuracy,Precision,Recall,${\rmF}_1$値を用いた.ニューラルモデルについては,開発データを用意するために$10$交差検定ではデータを8:1:1の割合で訓練:開発:テストに分割した.テスト時の性能を測定する際には,開発データで最良の${\rmF}_1$値が得られた学習結果を利用した.\subsection{モデルの設定}\subsubsection*{単語分散表現の事前学習}ニューラルモデルで用いる単語分散表現は,2006--2016のRedditダンプデータ\footnote{https://bigquery.cloud.google.com/dataset/fh-bigquery:reddit\_posts}$^{,}$\footnote{https://bigquery.cloud.google.com/dataset/fh-bigquery:reddit\_comments}をサンプリングしたデータで事前学習した.サンプリングでは,実験データ中に表れる2,837コミュニティ(\ref{sec:data}節)に属する,約$2.3$億の投稿を取得した.事前学習ではword2vec\cite{Mikolov2013}をskip-gramアルゴリズムで$次元=100$,$学習率=0.025$,$ウィンドウ幅=5$,$ネガティブサンプル数=5$,$エポック=5$の設定で用いた.\subsubsection*{各層のユニット数と最大単語数}提案モデルやベースラインモデルには,\pagebreakユニット数のパラメータを設定できる層が含まれている.LSTMのユニット数としては,${\rmLSTM}_S$と${\rmLSTM}_C$については$300$に,LSTM-CRFVoteについては$600$に設定した.Parent-BranchTree-LSTM,Child-SumTree-LSTM,GCNのユニット数には$600$を設定した.また,Redditの投稿には数千語にもおよぶ長い投稿が存在する.効率化のために,スレッドの最初の投稿については最大$400$語,返信の投稿については最大$100$語のみを利用した.\subsubsection*{最適化手法}LSTM-CRFVote,Graph-LSTM,Tree-LSTMGCNHybridの最適化には確率的勾配降下法を用いた.目的関数にはLSTM-CRFVoteはCRFのスコアを用い,Graph-LSTMとTree-LSTMGCNHybridは交差エントロピーを用いた.確率的勾配降下法のパラメータとしては,学習率は$\{0.01,0.1\}$から開発データで良い性能を示した値を選択し,$モメンタム=0.9$,$勾配クリッピング=3.0$を用いた.また,過学習を避けるためにドロップアウト\cite{Srivastava2014}を割合$0.5$でLSTM層とGCNの中間層に導入した.\begin{table}[b]\caption{提案モデルとベースラインモデルのAccuracy,Precision,Recall,${\rmF}_1$値}\label{tab:result}\input{03table03.tex}\vspace{4pt}\smallPrecision,Recall,${\rmF}_1$値については,$9$つの談話行為をデータ数に応じて重み付けした平均値である.太字は各評価指標で最大の値を示している.\end{table}\subsection{実験結果}\label{sec:result}表\ref{tab:result}に各モデルの評価結果を示す.また,提案モデルであるTree-LSTMGCNHybridについては,一つの構成要素のみを用いたモデルを提案モデル(構成要素名)として用意している.結果から,Tree-LSTMGCNHybridが従来のCRFVoteをAccuracyで$1.5\%$,${\rmF}_1$値で$2.2$上回る性能を示している.LSTM-CRFVoteもCRFVoteを上回る性能を示しており,ニューラルモデルへの単純な拡張およびニューラルモデルにより議論のパターンを学習する有効性が示唆される\footnote{すべての評価指標において,Tree-LSTMGCNHybridとLSTM-CRFVote間に有意水準$5\%$で統計的な有意差があることをFisher-PitmannPermutationTestで確認している.また,LSTM-CRFVoteとCRFVote間においても,Accuracyについては有意水準$10\%$,Precision,Recall,${\rmF}_1$値については有意水準$5\%$で統計的な有意差があることを確認している.}.Graph-LSTMはCRFVoteに及ばない性能しか得られておらず,Redditを対象としていても人気度の推定モデルを談話行為の分類にそのまま用いるのは難しいことが分かる.Rule5-ACTSでは他のモデルを大きく下回る性能になっており,単純なルールではこのタスクに対応しきれないことを示している.なお,計算時間については,Tree-LSTMGCNHybridは$10$交差検定の評価を完了するのにNVIDIATitanXgpuを$1$個用いて約$21$時間掛かった.ニューラルモデルは一般的に計算負荷が高く,本実験においてもIntelCorei7cpuを$1$コア用いて約$4$時間掛かったCRFVoteの約$5$倍の時間が掛かっている.提案モデルの単一構成要素を用いた結果については,構成要素ごとに異なる傾向が得られた.Parent-BranchTree-LSTMが最も高い性能,GCNがParent-BranchTree-LSTMを僅かに下回る性能,Child-SumTree-LSTMが他二つより大幅に低い性能を示した.Redditの議論では根ノードから葉ノードへと返信の連鎖で議論が進む.このため,親ノードを参照する構成要素が高い性能を示しているこれらの結果は直感に合う.また,GCNでは$2$層の畳み込み層により,長さ$2$以内のノードを参照している.GCNでParent-BranchTree-LSTMに近い性能が得られており,談話行為の分類においては遠いノードの影響は僅かであると考えられる.\begin{figure}[b]\begin{center}\includegraphics{26-1ia3f3.eps}\end{center}\caption{注意機構の確率値から求めた確率密度関数}\label{fig:att-probs}\end{figure} \section{考察} \label{sec:discuss}\subsection{木構造・グラフ構造の有効な組み合わせ}\label{sec:strategy}提案モデルでは三つの構成要素を注意機構を用いて統合している.Tree-LSTMGCNHybridがこれら構成要素をどのように組み合わせているかを分析するために,注意機構が出力する確率値を分析した.図\ref{fig:att-probs}aに,すべての投稿についての確率値から求めた確率密度関数を示す.最も優先される構成要素はParent-BranchTree-LSTMであり,\ref{sec:result}節の実験結果で単独で最も高い性能が得られた構成要素でもある,しかし,$2$番目に優先される構成要素は,単独では低い性能を示したChild-SumTree-LSTMとなった.このため,木構造やグラフ構造の効果は,単独で用いた場合と組み合わせた場合では必ずしも一致しないことが分かる.図\ref{fig:att-probs}bに最初の投稿に限定した場合の確率密度関数を示す.最初の投稿には親ノードがなく,全体の場合と比較してChild-SumTree-LSTMとGCNが優先されている.\begin{figure}[b]\begin{center}\includegraphics{26-1ia3f4.eps}\end{center}\caption{返信の数ごとに分割した確率密度関数}\label{fig:att-probs2}\end{figure}注意機構の確率値をさらに返信の数ごとに場合分けした結果を図\ref{fig:att-probs2}に示す.返信がないか少ない場合は,求めた確率密度関数は全体と似た傾向を示した(図\ref{fig:att-probs2}a).返信が中程度の場合には,Child-SumTree-LSTMとGCNのピークの位置がParent-BranchTree-LSTMに近くなった(図\ref{fig:att-probs2}b).返信数が大きい場合には,GCNのピークの位置がChild-SumTree-LSTMを上回る結果となった(図\ref{fig:att-probs2}c,\ref{fig:att-probs2}d).GCNの結果から,返信数が多ければ周辺の投稿のみで談話行為の分類が十分に行えることが伺える.\subsection{ニューラルモデルの強み}提案モデルのより詳細な効果を確認するために,談話行為毎の性能を確認した.表\ref{tab:result2}にRule5-ACTS,CRFVote,LSTM-CRFVote,Parent-BranchTree-LSTM,Tree-LSTMGCNHybridの談話行為毎の${\rmF}_1$値を示す.結果として,ニューラルモデルがほぼすべての談話行為について,従来モデルと比較して同等以上の性能を達成している.特に{\itDisagreement},{\itHumor},{\itNegativeReaction}については,CRFVoteから大きく性能が向上した.これらの談話行為は他と比べて発生頻度が小さく(表\ref{tab:cdis}),ニューラルモデルが低頻度の談話行為の特徴をうまく捉えていることを示唆している.\begin{table}[b]\caption{提案モデルとベースラインモデルの各談話行為についての${\rmF}_1$値}\label{tab:result2}\input{03table04.tex}\end{table}\begin{table}[b]\caption{\textit{Appreciation}についての提案モデルとベースラインモデルのPrecision,Recall,${\rmF}_1$値}\label{tab:result3}\input{03table05.tex}\end{table}{\itAnnouncement}においては,複数の構成要素を組み合わせたモデル(Tree-LSTMGCNHybrid)が$3.2$ポイントの${\rmF}_1$値の向上を示した.{\itAnnouncement}は最初の投稿にしか表れない特徴があり(表\ref{tab:cdis}),\ref{sec:strategy}節の分析でもChild-SumTree-LSTMとGCNが最初の投稿において優先されていた.提案モデルが改善を示さなかった唯一の談話行為としては,{\itAppreciation}が挙げられる.表\ref{tab:result3}に示される{\itAppreciation}のPrecision,Recall,${\rmF}_1$値を確認したところ,PrecisionにおいてはRule5-ACTSおよびCRFVoteが優れた性能を示していた.この結果から,強い言語的な手掛かり(例.``thank'')が存在する談話行為については,ルールやタスク依存の素性を含むモデルに強みがあることが伺える.\begin{figure}[b]\begin{center}\includegraphics{26-1ia3f5.eps}\end{center}\hangcaption{CRFVoteに対してTree-LSTMGCNHybridの推定結果が改善した例.例中では,人名を``PERSON'',具体的なURLを``URL'',製品名を``PRODUCT'',数値を``XXXX''に置き換えている.また,例中のCRFVote,Tree-LSTMGCNHybridはそれぞれのモデルの推定結果である.}\label{fig:ea1-2}\end{figure}CRFVoteに対して提案モデル(Tree-LSTMGCNHybrid)の推定結果が改善した例を図\ref{fig:ea1-2}に示す.aのID2ではスポーツ選手の怪我に対して意見を述べているが,誤ってElaborationと推定されていた談話行為が正しくNegativeReactionと推定されるようになった.提案モデルにより,ID2の投稿は親投稿(ID1)を補足しているのではなく,親投稿に対しての個人的かつ否定的な見解であることを判定できていることが確認できる.また,bのID3では国ごとの製品価格の違いについて意見を述べているが,誤ってAnswerと推定されていた談話行為が正しくHumorと推定されるようになった.提案モデルにより,ID3の投稿は親投稿(ID1)の質問に答えているというより,親投稿の内容に即した冗談であることを判定できていることが確認できる. \section{おわりに} \label{sec:conc}本稿では議論のパターンをニューラルネットワークを用いて学習し,談話行為を分類するモデルを提案した.提案モデルでは3種類の構成要素(Parent-BranchTree-LSTM,Child-SumTree-LSTM,GCN)を用意し,議論のパターンを学習することを試みた.評価実験により,提案モデルは従来モデルと比較してAccuracyで$1.5\%$,${\rmF}_1$値で$2.2$の性能向上を確認した.また,3種類の構成要素間の関係を注意機構の確率値を通じて分析した.今後の課題としては,提案モデルをReddit以外の議論に対して適用することを検討している.Redditには大規模な投稿データを容易に入手できるという利点があるが,投稿時間や投稿者の属性等のテキスト以外の要素が投稿に大きな影響を与えている.議論を分析するための柔軟なアーキテクチャを探索するためにも,今後は提案モデルの拡張をより一層進めたい.\acknowledgment東京工業大学奥村・高村研究室の皆様には,ニューラルネットワークを用いて木構造やグラフ構造を学習する手法について,議論を通じて様々なアドバイスを頂きました.ここに感謝の意を表します.また,本論文はThe27thInternationalConferenceonComputationalLinguistics(COLING2018)に採択された,IntegratingTreeStructuresandGraphStructureswithNeuralNetworkstoClassifyDiscussionDiscourseActs\cite{Miura2018}を日本語で書き直し内容を追加したものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bhatia,Biyani,\BBA\Mitra}{Bhatiaet~al.}{2012}]{Bhatia2012}Bhatia,S.,Biyani,P.,\BBA\Mitra,P.\BBOP2012\BBCP.\newblock\BBOQClassifyingUserMessagesForManagingWebForumData.\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalworkshopontheWebandDatabases}.\bibitem[\protect\BCAY{Bunt,Alexandersson,Carletta,Choe,Fang,Hasida,Lee,Petukhova,Popescu-Belis,Romary,Soria,\BBA\Traum}{Buntet~al.}{2010}]{Bunt2010}Bunt,H.,Alexandersson,J.,Carletta,J.,Choe,J.-W.,Fang,A.~C.,Hasida,K.,Lee,K.,Petukhova,V.,Popescu-Belis,A.,Romary,L.,Soria,C.,\BBA\Traum,D.\BBOP2010\BBCP.\newblock\BBOQTowardsanISOStandardforDialogueActAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonInternationalLanguageResourcesandEvaluation},\mbox{\BPGS\2548--2555}.\bibitem[\protect\BCAY{Buntain\BBA\Golbeck}{Buntain\BBA\Golbeck}{2014}]{Buntain2014}Buntain,C.\BBACOMMA\\BBA\Golbeck,J.\BBOP2014\BBCP.\newblock\BBOQIdentifyingSocialRolesinRedditUsingNetworkStructure.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponModelingSocialMedia:MiningBigDatainSocialMediaandtheWeb},\mbox{\BPGS\615--620}.\bibitem[\protect\BCAY{Carvalho\BBA\Cohen}{Carvalho\BBA\Cohen}{2006}]{Carvalho2006}Carvalho,V.\BBACOMMA\\BBA\Cohen,W.\BBOP2006\BBCP.\newblock\BBOQImproving``EmailSpeechActs''AnalysisviaN-gramSelection.\BBCQ\\newblockIn{\BemProceedingsoftheAnalyzingConversationsinTextandSpeech},\mbox{\BPGS\35--41}.\bibitem[\protect\BCAY{Carvalho\BBA\Cohen}{Carvalho\BBA\Cohen}{2005}]{Carvalho2005}Carvalho,V.~R.\BBACOMMA\\BBA\Cohen,W.~W.\BBOP2005\BBCP.\newblock\BBOQOntheCollectiveClassificationofEmail``SpeechAct''.\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\345--352}.\bibitem[\protect\BCAY{Cheng,Fang,\BBA\Ostendorf}{Chenget~al.}{2017}]{Cheng2017}Cheng,H.,Fang,H.,\BBA\Ostendorf,M.\BBOP2017\BBCP.\newblock\BBOQAFactoredNeuralNetworkModelforCharacterizingOnlineDiscussionsinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2296--2306}.\bibitem[\protect\BCAY{Cohen,Carvalho,\BBA\Mitchell}{Cohenet~al.}{2004}]{Cohen2004}Cohen,W.~W.,Carvalho,V.~R.,\BBA\Mitchell,T.~M.\BBOP2004\BBCP.\newblock\BBOQLearningtoClassifyEmailinto``SpeechActs''.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\309--316}.\bibitem[\protect\BCAY{Defferrard,Bresson,\BBA\Vandergheynst}{Defferrardet~al.}{2016}]{Defferrard2016}Defferrard,M.,Bresson,X.,\BBA\Vandergheynst,P.\BBOP2016\BBCP.\newblock\BBOQConvolutionalNeuralNetworksonGraphswithFastLocalizedSpectralFiltering.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems29},\mbox{\BPGS\3844--3852}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Ferschke,Gurevych,\BBA\Chebotar}{Ferschkeet~al.}{2012}]{Ferschke2012}Ferschke,O.,Gurevych,I.,\BBA\Chebotar,Y.\BBOP2012\BBCP.\newblock\BBOQBehindtheArticle:RecognizingDialogActsinWikipediaTalkPages.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\777--786}.\bibitem[\protect\BCAY{Hammond,Vandergheynst,\BBA\Gribonval}{Hammondet~al.}{2011}]{Hammond2011}Hammond,D.~K.,Vandergheynst,P.,\BBA\Gribonval,R.\BBOP2011\BBCP.\newblock\BBOQWaveletsonGraphsviaSpectralGraphTheory.\BBCQ\\newblock{\BemAppliedandComputationalHarmonicAnalysis},{\Bbf30}(2),\mbox{\BPGS\129--150}.\bibitem[\protect\BCAY{He,Ostendorf,\BBA\He}{Heet~al.}{2017}]{He2017}He,J.,Ostendorf,M.,\BBA\He,X.\BBOP2017\BBCP.\newblock\BBOQReinforcementLearningwithExternalKnowledgeandTwo-StageQ-functionsforPredictingPopularRedditThreads.\BBCQ\\newblock{\BemarXivpreprintarXiv:1704.06217}.\bibitem[\protect\BCAY{He,Ostendorf,He,Chen,Gao,Li,\BBA\Deng}{Heet~al.}{2016}]{He2016}He,J.,Ostendorf,M.,He,X.,Chen,J.,Gao,J.,Li,L.,\BBA\Deng,L.\BBOP2016\BBCP.\newblock\BBOQDeepReinforcementLearningwithaCombinatorialActionSpaceforPredictingPopularRedditThreads.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1838--1848}.\bibitem[\protect\BCAY{Hessel,Lee,\BBA\Mimno}{Hesselet~al.}{2017}]{Hessel2017}Hessel,J.,Lee,L.,\BBA\Mimno,D.\BBOP2017\BBCP.\newblock\BBOQCatsandCaptionsvs.CreatorsandtheClock:ComparingMultimodalContenttoContextinPredictingRelativePopularity.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\927--936}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{Hochreiter1997}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Hu,Passonneau,\BBA\Rambow}{Huet~al.}{2009}]{Hu2009}Hu,J.,Passonneau,R.,\BBA\Rambow,O.\BBOP2009\BBCP.\newblock\BBOQContrastingtheInteractionStructureofanEmailandaTelephoneCorpus:AMachineLearningApproachtoAnnotationofDialogueFunctionUnits.\BBCQ\\newblockIn{\BemProceedingsoftheSIGDIAL2009Conference},\mbox{\BPGS\357--366}.\bibitem[\protect\BCAY{Huang,Xu,\BBA\Yu}{Huanget~al.}{2015}]{Huang2015}Huang,Z.,Xu,W.,\BBA\Yu,K.\BBOP2015\BBCP.\newblock\BBOQBidirectionalLSTM-CRFModelsforSequenceTagging.\BBCQ\\newblock{\BemarXivpreprintarXiv:1508.01991}.\bibitem[\protect\BCAY{Jaech,Zayats,Fang,Ostendorf,\BBA\Hajishirzi}{Jaechet~al.}{2015}]{Jaech2015}Jaech,A.,Zayats,V.,Fang,H.,Ostendorf,M.,\BBA\Hajishirzi,H.\BBOP2015\BBCP.\newblock\BBOQTalkingtotheCrowd:WhatDoPeopleReacttoinOnlineDiscussions?\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2026--2031}.\bibitem[\protect\BCAY{Kim,Cavedon,\BBA\Baldwin}{Kimet~al.}{2010a}]{Kim2010a}Kim,S.~N.,Cavedon,L.,\BBA\Baldwin,T.\BBOP2010a\BBCP.\newblock\BBOQClassifyingDialogueActsinOne-on-OneLiveChats.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\862--871}.\bibitem[\protect\BCAY{Kim,Wang,\BBA\Baldwin}{Kimet~al.}{2010b}]{Kim2010b}Kim,S.~N.,Wang,L.,\BBA\Baldwin,T.\BBOP2010b\BBCP.\newblock\BBOQTaggingandLinkingWebForumPosts.\BBCQ\\newblockIn{\BemProceedingsofthe14thConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\192--202}.\bibitem[\protect\BCAY{Kipf\BBA\Welling}{Kipf\BBA\Welling}{2017}]{Kipf2017}Kipf,T.~N.\BBACOMMA\\BBA\Welling,M.\BBOP2017\BBCP.\newblock\BBOQSemi-SupervisedClassificationwithGraphConvolutionalNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Lample,Ballesteros,Subramanian,Kawakami,\BBA\Dyer}{Lampleet~al.}{2016}]{Lample2016}Lample,G.,Ballesteros,M.,Subramanian,S.,Kawakami,K.,\BBA\Dyer,C.\BBOP2016\BBCP.\newblock\BBOQNeuralArchitecturesforNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\260--270}.\bibitem[\protect\BCAY{Lim,Carman,\BBA\Wong}{Limet~al.}{2017}]{Lim2017}Lim,W.~H.,Carman,M.~J.,\BBA\Wong,S.-M.~J.\BBOP2017\BBCP.\newblock\BBOQEstimatingRelativeUserExpertiseforContentQualityPredictiononReddit.\BBCQ\\newblockIn{\BemProceedingsofthe28thACMConferenceonHypertextandSocialMedia},\mbox{\BPGS\55--64}.\bibitem[\protect\BCAY{Lin,Feng,dosSantos,Yu,Xiang,Zhou,\BBA\Bengio}{Linet~al.}{2017}]{Lin2017}Lin,Z.,Feng,M.,dosSantos,C.~N.,Yu,M.,Xiang,B.,Zhou,B.,\BBA\Bengio,Y.\BBOP2017\BBCP.\newblock\BBOQAStructuredSelf-attentiveSentenceEmbedding.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Liu,Baldwin,\BBA\Cohn}{Liuet~al.}{2017}]{Liu2017}Liu,F.,Baldwin,T.,\BBA\Cohn,T.\BBOP2017\BBCP.\newblock\BBOQCapturingLong-rangeContextualDependencieswithMemory-enhancedConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\555--565}.\bibitem[\protect\BCAY{Ma\BBA\Hovy}{Ma\BBA\Hovy}{2016}]{Ma2016}Ma,X.\BBACOMMA\\BBA\Hovy,E.\BBOP2016\BBCP.\newblock\BBOQEnd-to-endSequenceLabelingviaBi-directionalLSTM-CNNs-CRF.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1064--1074}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{Mikolov2013}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems26},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Miura,Kano,Taniguchi,Taniguchi,Misawa,\BBA\Ohkuma}{Miuraet~al.}{2018}]{Miura2018}Miura,Y.,Kano,R.,Taniguchi,M.,Taniguchi,T.,Misawa,S.,\BBA\Ohkuma,T.\BBOP2018\BBCP.\newblock\BBOQIntegratingTreeStructuresandGraphStructureswithNeuralNetworkstoClassifyDiscussionDiscourseActs.\BBCQ\\newblockIn{\BemProceedingsofthe27thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\3806--3818}.\bibitem[\protect\BCAY{Omuya,Prabhakaran,\BBA\Rambow}{Omuyaet~al.}{2013}]{Omuya2013}Omuya,A.,Prabhakaran,V.,\BBA\Rambow,O.\BBOP2013\BBCP.\newblock\BBOQImprovingtheQualityofMinorityClassIdentificationinDialogActTagging.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\802--807}.\bibitem[\protect\BCAY{Socher,Karpathy,Le,Manning,\BBA\Ng}{Socheret~al.}{2014}]{Socher2014}Socher,R.,Karpathy,A.,Le,Q.~V.,Manning,C.~D.,\BBA\Ng,A.~Y.\BBOP2014\BBCP.\newblock\BBOQGroundedCompositionalSemanticsforFindingandDescribingImageswithSentences.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf2},\mbox{\BPGS\207--218}.\bibitem[\protect\BCAY{Socher,Lin,Ng,\BBA\Manning}{Socheret~al.}{2011}]{Socher2011}Socher,R.,Lin,C.C.-Y.,Ng,A.~Y.,\BBA\Manning,C.~D.\BBOP2011\BBCP.\newblock\BBOQParsingNaturalScenesandNaturalLanguagewithRecursiveNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe28thInternationalConferenceonInternationalConferenceonMachineLearning},\mbox{\BPGS\129--136}.\bibitem[\protect\BCAY{Srivastava,Hinton,Krizhevsky,Sutskever,\BBA\Salakhutdinov}{Srivastavaet~al.}{2014}]{Srivastava2014}Srivastava,N.,Hinton,G.,Krizhevsky,A.,Sutskever,I.,\BBA\Salakhutdinov,R.\BBOP2014\BBCP.\newblock\BBOQDropout:ASimpleWaytoPreventNeuralNetworksfromOverfitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf15},\mbox{\BPGS\1929--1958}.\bibitem[\protect\BCAY{Stolcke,Ries,Coccaro,Shriberg,Bates,Jurafsky,Taylor,Martin,VanEss-Dykema,\BBA\Meteer}{Stolckeet~al.}{2000}]{Stolcke2000}Stolcke,A.,Ries,K.,Coccaro,N.,Shriberg,E.,Bates,R.~A.,Jurafsky,D.,Taylor,P.,Martin,R.,VanEss-Dykema,C.,\BBA\Meteer,M.\BBOP2000\BBCP.\newblock\BBOQDialogueActModelingforAutomaticTaggingandRecognitionofConversationalSpeech.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf26}(3),\mbox{\BPGS\339--373}.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{Tai2015}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1556--1566}.\bibitem[\protect\BCAY{Tan,Niculae,Danescu-Niculescu-Mizil,\BBA\Lee}{Tanet~al.}{2016}]{Tan2016}Tan,C.,Niculae,V.,Danescu-Niculescu-Mizil,C.,\BBA\Lee,L.\BBOP2016\BBCP.\newblock\BBOQWinningArguments:InteractionDynamicsandPersuasionStrategiesinGood-faithOnlineDiscussions.\BBCQ\\newblockIn{\BemProceedingsofthe25thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\613--624}.\bibitem[\protect\BCAY{Wang,Lui,Kim,Nivre,\BBA\Baldwin}{Wanget~al.}{2011}]{Wang2011}Wang,L.,Lui,M.,Kim,S.~N.,Nivre,J.,\BBA\Baldwin,T.\BBOP2011\BBCP.\newblock\BBOQPredictingThreadDiscourseStructureoverTechnicalWebForums.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\13--25}.\bibitem[\protect\BCAY{Wang,Joshi,\BBA\Rose}{Wanget~al.}{2007}]{Wang2007}Wang,Y.-C.,Joshi,M.,\BBA\Rose,C.\BBOP2007\BBCP.\newblock\BBOQAFeatureBasedApproachtoLeveragingContextforClassifyingNewsgroupStyleDiscussionSegments.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\73--76}.\bibitem[\protect\BCAY{Wei,Liu,\BBA\Li}{Weiet~al.}{2016}]{Wei2016b}Wei,Z.,Liu,Y.,\BBA\Li,Y.\BBOP2016\BBCP.\newblock\BBOQIsThisPostPersuasive?RankingArgumentativeCommentsinOnlineForum.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\195--200}.\bibitem[\protect\BCAY{Yang,Yang,Dyer,He,Smola,\BBA\Hovy}{Yanget~al.}{2016}]{Yang2016}Yang,Z.,Yang,D.,Dyer,C.,He,X.,Smola,A.,\BBA\Hovy,E.\BBOP2016\BBCP.\newblock\BBOQHierarchicalAttentionNetworksforDocumentClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1480--1489}.\bibitem[\protect\BCAY{Zayats\BBA\Ostendorf}{Zayats\BBA\Ostendorf}{2018}]{Zayats2018}Zayats,V.\BBACOMMA\\BBA\Ostendorf,M.\BBOP2018\BBCP.\newblock\BBOQConversationModelingonRedditUsingaGraph-StructuredLSTM.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf6},\mbox{\BPGS\121--132}.\bibitem[\protect\BCAY{Zhang,Culbertson,\BBA\Paritosh}{Zhanget~al.}{2017}]{Zhang2017}Zhang,A.,Culbertson,B.,\BBA\Paritosh,P.\BBOP2017\BBCP.\newblock\BBOQCharacterizingOnlineDiscussionUsingCoarseDiscourseSequences.\BBCQ\\newblockIn{\BemProceedingsofthe11thAAAIInternationalConferenceonWebandSocialMedia},\mbox{\BPGS\357--366}.\bibitem[\protect\BCAY{Zhang,Gao,\BBA\Li}{Zhanget~al.}{2011}]{Zhang2011}Zhang,R.,Gao,D.,\BBA\Li,W.\BBOP2011\BBCP.\newblock\BBOQWhatAreTweetersDoing:RecognizingSpeechActsinTwitter.\BBCQ\\newblockIn{\BemProceedingsoftheAAAI-11WorkshoponAnalyzingMicrotext},\mbox{\BPGS\86--91}.\bibitem[\protect\BCAY{Zhang,Gao,\BBA\Li}{Zhanget~al.}{2012}]{Zhang2012}Zhang,R.,Gao,D.,\BBA\Li,W.\BBOP2012\BBCP.\newblock\BBOQTowardsScalableSpeechActRecognitioninTwitter:TacklingInsufficientTrainingData.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponSemanticAnalysisinSocialMedia},\mbox{\BPGS\18--27}.\end{thebibliography}\begin{biography}\bioauthor{三浦康秀}{2004年電気通信大学大学院電気通信学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.また併せて,2016年より東京工業大学工学院情報通信系博士後期課程に在学中.言語処理学会会員.}\bioauthor{狩野竜示}{2013年東京大学情報理工学系研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.}\bioauthor{谷口元樹}{2009年北海道大学大学院情報科学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.}\bioauthor{谷口友紀}{2004年神戸大学大学院自然科学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.}\bioauthor{三沢翔太郎}{2016年早稲田大学大学院創造理工学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.}\bioauthor{大熊智子}{1994年東京女子大学文理学部卒業.1996年慶應義塾大学政策・メディア研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理と情報推薦の研究に従事.言語処理学会編集委員.博士(学術).}\end{biography}\biodate\end{document}
V26N02-07
\section{はじめに} \label{sect:introduction}日本語の構文解析は,標準的に文節間の依存関係により構成される構造「文節依存構造」(あるいは,文節係り受け構造)に基づいて行われてきた.特に,CaboCha~\cite{Kudo:2002:CoNLL}やKNP~\cite{Kawahara:2006:HLTNAACL}に代表される文節依存構造に基づく解析器は高い解析精度を実現して広範に利用され,日本語の自然言語処理全般の発展に大きく寄与してきた.しかしながら,文節依存構造による構文構造の表現には,2つの問題点があることが指摘されている~\cite{Butler:2012:ANLP,Tanaka:2013:SPMRL}.一つは依存構造の単位が構文の構成素(constituent)\footnote{本論文では,名詞句,動詞句などの「句」の単位を指す.}と整合しないこと,もう一つは格関係\footnote{「誰が」「何を」「何に」と動詞などで表される名詞と述語の関係.}や連体修飾節の種別\footnote{名詞を修飾する節と名詞との関係の種類を示す.例えば「昨日見た-夢」では,「夢」は「見る」の対象になっているが,「月に行った-夢」では,「月に行った」は「夢」の内容になっている,など関係の違いを表す.}などの統語情報(以下,文法機能情報と呼ぶ)を依存構造の中に埋め込むことが困難なことである.これらの問題点は,述語項構造解析などの構文構造と密接な関係を持つ処理や,機械翻訳における事前並べ替え~\cite{Hoshino:2019:IPSJ}や多言語間の質問応答など他の言語との対応付けが必要な処理で,不都合を生じる要因となる.本論文では,構文の構成素と整合する単位に基づき,文法機能情報を埋め込むことが可能なことを特徴とする単語依存構造解析に基づく構文解析を提案する.以下では,文節依存構造解析の2つの問題点を,述語項構造解析との関係を例に具体的に説明し,我々の解決手段の概要について述べる.一つ目の依存構造の単位と構文の構成素との不整合は,構文解析結果の部分構造(一つ以上の文節が結合した単位)が,名詞句や動詞句などの構文の構成素と必ずしも一致しないということである.例えば,次の文(\ref{ex-coordination-ja1})のように文節を単位として表現された文から述語項構造を抽出することを考える.\begin{exe}\ex\label{ex-coordination-ja1}\gll$_{b1}$彼が$\mid_{b2}$飲んだ$\mid_{b3}$ワインと$\mid_{b4}$酒の$\mid_{b5}$リスト\\{}\textit{he}{\scriptsizeNOM}{}\textit{drink}{\scriptsizePAST}{}\textit{wine}{\scriptsizeCONJ}{}\textit{sake}{\scriptsizeGEN}{}\textit{list}\\\end{exe}\begin{exe}\ex\label{ex-coordination-ja1-const}\lb{NP}\lb{NP}彼が飲んだ\lb{NP}ワインと酒\rb{}\rb{}のリスト\rb{}\\\end{exe}文(\ref{ex-coordination-ja1})の文節依存構造には,4つの依存構造(係り受け構造)—並列構造を含む依存構造$b3$--$b4$と,並列構造を含まない依存構造$b1$--$b2$,$b2$--$b4$と$b4$--$b5$—が存在している.また,文(\ref{ex-coordination-ja1})には,文(\ref{ex-coordination-ja1-const})で表されるように,「ワインと酒」「彼が飲んだワインと酒」「彼が飲んだワインと酒のリスト」の3つの名詞句が階層的に含まれている.しかし,文(\ref{ex-coordination-ja1})の文節を結合してできる単位は,最初の2つの名詞句のどちらとも一致しない.この結果として,文(\ref{ex-coordination-ja1})の文節依存構造から,述語項構造を抽出しようとしたとき,述語「飲んだ」の項として並列構造を含む名詞句である「ワインと酒」を,直接的に取り出すことができない.この不一致は,他の言語との対応付けを行うときにも同様の問題を生じる.例えば,文(\ref{ex-coordination-ja1})と対訳関係にある文(\ref{ex-coordination-en})において,並列構造を含む名詞句``wineandsake''に対応付けるべき名詞句「ワインと酒」を,直接取り出すことができない.\begin{exe}\ex\label{ex-coordination-en}\lb{NP}alistof\lb{NP}\lb{NP}wineandsake\rb{}hedrank\rb{}\rb{}\\\end{exe}もう一つの問題点は,文節依存構造では,統語的に異なる構造を区別するための情報を付加することが困難な点である.その典型的な例として,内の関係の連体修飾節(関係節)と外の関係の連体修飾節(内容節や補充節)の区別がある.文(\ref{ex-coordination-ja1})は主名詞句(被修飾名詞句)となる「ワインと酒」が述語「飲む」の対格の格関係を持つ関係節\footnote{「ワインや酒」-を-「飲む」という関係を持つ.}を含み,文(\ref{ex-gapless})は主名詞句「理由と事情」が述語との格関係がない外の関係の連体修飾節(内容節)\footnote{「飲む」-という-「理由や事情」という関係を持つ.}を含んでいる.\begin{exe}\ex\label{ex-gapless}\glln$_{b1}$彼が$\mid_{b2}$飲んだ$\mid_{b3}$理由と$\mid_{b4}$事情の$\mid_{b5}$説明\\{}he{\scriptsizeNOM}{}drink{\scriptsizePAST}{}reason{\scriptsizeCONJ}{}situation{\scriptsizeGEN}{}explanation\\\end{exe}述語項構造を抽出する観点では,文(\ref{ex-coordination-ja1})の名詞句「ワインと酒」は,述語「飲む」の項として抽出するが,文(\ref{ex-gapless})の名詞句「理由と事情」は項として抽出しない.このような連体修飾節の違いを区別するためには,依存構造に文法機能情報を付加してそれぞれの統語的な機能を表示することが考えられる.しかし,文節依存構造の場合,主名詞句と文節の結合単位が一致しないため,文(\ref{ex-coordination-ja1}),文(\ref{ex-gapless})それぞれの文節$b2$と$b4$の間の依存構造に文法機能情報を付加しても,述語と主名詞句の間の関係を適切に表示しているとは言い難い.我々は,以上のような従来の文節依存構造における問題点を解決することを目的として,日本語において,構文の構成素を適切に扱い文法機能情報を明示的に扱うことのできる単語単位の依存構造による構文解析を提案する.単語依存構造では,あらかじめ文節のような固定したチャンクを依存構造の単位として設定するのではなく,全ての関係を単語単位の結合した構造として表現することにより,構文構造を柔軟に表現することを可能にする.構文の構成素との整合性を考慮するには,句構造による構文解析が有力な選択肢と考えられるが,日本語の柔軟な語順への対応のしやすさや,文節依存構造のアノテーションからの移行のしやすさの点から,依存構造を採用した.ただし,依存構造の設計は,構文の構成素に基づいた構造および文法機能情報を表している句のラベル(非終端記号)を持つことを特徴とする句構造を規範として,句構造の構造・情報を依存構造に変換する形で行った.本論文で提案する単語依存構造では,文(\ref{ex-coordination-ja1})に含まれる「ワインと酒」という並列構造は,\Fig{fig:ex-coordination-conjunction}の上の例のように表現する\footnote{本論文では,UniversalDependencies\cite{McDonald:2013:ACL,Nivre:2015:CICLing}やStanfordtypeddependencies\cite{DeMarneffe:2014:LREC}と同様に,主辞を起点として従属部に向かう方向の矢印により依存構造を表す.}$^{,}$\footnote{後述するように6種類の依存構造の構成の仕方(スキーマ)を提案する.}.すなわち,「ワイン」と「酒」という単語からなる依存構造に対して文法機能情報を表すラベル(以下,文法機能タイプ)「並列」を付加することにより,それぞれの単語を主辞とする構文要素からなる並列構造が存在することを示している.また,「ワインと酒」という名詞句は,「ワイン」「と」「酒」の3語から構成される依存構造の塊と対応付けることができる.また,文(\ref{ex-coordination-ja1})と文(\ref{ex-gapless})の区別は,\Fig{fig:ex-coordination-conjunction}のように,主名詞の主辞となる単語と連体修飾節の主辞となる述語の間の関係に,「関係節」や「内容節」のような文法機能タイプを付加することで実現できる.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f1.eps}\end{center}\hangcaption{単語単位の依存構造による構文構造の表示例.上:並列の名詞句と内の関係の連体修飾節(関係節)を含む文(\ref{ex-coordination-ja1}),下:並列の名詞句と外の関係の連体修飾節(内容節)を含む文(\ref{ex-gapless}).}\label{fig:ex-coordination-conjunction}\end{figure}日本語の単語依存構造には他に,多言語間で共通の構文構造表示を目指したUniversalDependencies\footnote{http://universaldependencies.github.io/docs/}(以下,UD)\cite{McDonald:2013:ACL,DeMarneffe:2014:LREC,Nivre:2015:CICLing}の日本語仕様\cite{Kanayama:2015:ANLP,Tanaka:2016:LREC,Asahara:2019:JNLP}がある.UDの主目的は多言語間での仕様の共通化であるため,各言語の特徴的な言語現象に対するアノテーションは捨象される傾向があり,例に挙げた関係節と内容節の区別も行わない.本研究は,UDへの対応は視野に入れつつも,主眼は日本語において重要と考えられる文法機能情報を表示可能な単語依存構造を実現することである.単語依存構造による構文解析は文節依存構造の課題を解決できる一方,構文解析器により自動解析を行う観点で見ると,文節依存構造と比較して依存関係を結ぶ組合せの数が増大するため,解析精度への影響が懸念される.また,日本語の単語依存構造としてどのような構造が適切であるか,すなわち依存構造の主辞をどのように決定すれば良いのかは自明ではない.森らは,単語間に依存構造を付与した大規模なコーパスを構築して,構文解析器の学習データとして適用した結果として,90\%以上の精度が得られたことを報告している~\cite{Mori:2014:LREC}.森らの依存構造は,文節依存構造と同様に後方の語が主辞となる単一方向の依存構造から構成されるが,本論文で提案する単語依存構造のように,両方向の依存構造が含まれる場合の解析精度への影響を検証する必要がある.また,依存構造に付与された文法機能タイプが解析器によりどの程度再現可能であるのかも確認する必要がある.以下,\Sect{sect:relatedwork}で関連する研究について述べ,\Sect{sect:design-of-typed-dependencies}で日本語の文法機能タイプ付き単語依存構造の設計について説明し,\Sect{sect:corpus}で実際に行ったコーパスの構築について述べる.\Sect{sect:evaluation}では依存構造の単位や構造の異なる単語依存構造データから構文解析モデルを構築し,それらの違いが構文解析の精度に与える影響や,文法機能タイプから得られる述語項構造情報の精度について評価実験を行った結果について述べる.\Sect{sect:problems}で単語依存構造において検討すべき課題について述べる. \section{関連研究} \label{sect:relatedwork}日本語の構文構造に文法機能情報を表示する研究としては,語彙化文法に基づくものがある.主辞駆動型句構造文法(Head-drivenPhraseStructureGrammar,HPSG)~\cite{Sag:2003}がその代表的なものであり,理論的に精緻な日本語の文法JPSG(JapanesePhraseStructureGrammar)を提案したGunjiらの研究\cite{Gunji:1987},話し言葉を対象に実用的な文法を構築して解析器を実現したNagataらの研究~\cite{Nagata:1993:IEICE},広い言語現象をカバーし,意味表現MRS(MinimalRecursionSemantics)~\cite{Copestake:2005:LRC}と統合した文法JACYを構築したSiegelらの研究~\cite{Siegel:2002:WS},JACYに基づいて大規模なツリーバンクおよび構文解析器のモデルを構築したBondらの研究~\cite{Bond:2008:LRE}などがある.HPSGの他に,日本語の語彙機能文法(LexicalFunctionGrammar,LFG)\cite{Kaplan:1982:MRGR}を構築した増市らの研究\cite{Masuichi:2003:JNLP},日本語の組合せ範疇文法(CombinatoryCategorialGrammar,CCG)を提案した戸次の研究~\cite{Bekki:2010},その文法に基づいたツリーバンクを既存の文節依存構造コーパスと述語項構造データから構築したUematsuらの研究~\cite{Uematsu:2013:ACL}などがある.これらのアプローチでは,統語情報,意味情報,語用情報等を統合した精緻な情報を扱えることが大きな利点であるが,解析は基本的に単一化に基づく方法で行われ,高い計算コストを必要とする.また,文節依存構造に比較するとアノテーションコストが高いため,大規模なデータが構築しにくく,また対象ドメインに対して新たにコーパスを用意するのも容易ではない.語彙化文法に基づく方法に比較して計算コスト,アノテーションコスト両面で軽量で,かつ文法機能情報を活用できる解析の枠組みとして,文脈自由文法(ContextFreeGrammar,CFG)によるもの,依存構造文法によるものがある.日本語のCFGを構築して解析器を実装,評価したものとしては,Noroらの研究~\cite{Noro:2005:SYM}があるが,彼らの研究では前節に挙げたような,連体修飾節の区別や述語項構造の情報は扱っていない.Tanakaらは,非終端記号としてこれらの文法機能情報を組み込んだ句構造木ツリーバンクを構築して確率自由文脈文法(ProbablisticContextFreeGrammar,PCFG)の構文解析モデルを評価した結果,文節依存構造解析相当の精度を維持しながら文法機能タイプを扱えることを報告している~\cite{Tanaka:2013:SPMRL}.また,Butlerらは,Penn通時コーパスの規約に従い,より詳細な句構造コーパスKeyakiTreebankを構築し\cite{Butler:2012:WS},PCFGによる構文解析を行った結果についても報告している\cite{Fang:2014:ANLP}.しかし,日本語の句構造木の構築は,従来の文節依存構造の構築よりも難易度が高いため,ドメイン適用のためのデータを構築する障壁となる可能性がある.単語依存構造は,アノテーションを行う観点からすると同じ依存構造である文節依存構造に近く,句構造木の構築に比較して低いアノテーションコストで様々なドメインのデータが構築しやすいと考えられる.日本語の単語単位の依存構造解析については,森らが,現代日本語書き言葉均衡コーパス\cite{Maekawa:2014:LRE,Den:2008:LREC}で定義されている短単位をベースとして\footnote{動詞,形容詞等用言は,短単位を語基と活用語尾でさらに分割している.},大規模なコーパスを構築している\cite{Mori:2014:LREC}.彼らのコーパスでは単語間の文法機能タイプのアノテーションはなく,文法機能情報を獲得するためには別のデータを準備することが必要になる.他に,Uchimotoらは,日本語の話し言葉を対象として,主に言い淀みやフィラー等の文節依存構造ではうまく表現が行えない現象に対して,単語間の依存構造を定義しているが~\cite{Uchimoto:2008:LREC},詳細な文法機能を区別するための仕組みは考慮されていない.文法機能タイプを持つ単語依存構造で構文構造を表現する方法は,英語等では広く使われており,中でもStanfordtypeddependencies(以下,SD)\cite{DeMarneffe:2008:COLINGWS}が代表的なアノテーションスキーマとなっている.日本語の文法機能タイプは,標準的な文節依存構造では扱われていないため,我々はSDで用いられている文法機能タイプを参考にして新たに定めた.ただし,述語項構造情報を抽出するために必要になる情報など日本語の構文構造を表現するのに不足している情報があるため,日本語の文法的特徴が付与されている句構造木の非終端記号を変換するという方針により,必要な情報を表現できるように拡張した\footnote{例えば,「内の関係」と「外の関係」の連体修飾節の区別を表現できるように文法機能タイプを細分化した.}.句構造は各部分木が構文の構成素と一致することからも,構造の変換元とすることに適している.本論文では,提案する単語依存構造に基づく最初のコーパスの構築を,既存コーパスの句構造木に付与された情報を単語依存構造に変換することで行い,変換された構文木を学習データとすることで解析器を実現した.\Sect{sect:introduction}で述べた多言語横断で共通の構文構造表示を目指すスキーマであるUDは,SDを拡張したものであり,日本語UDの仕様も策定されコーパスの構築が行われている(金山他2015;Tanakaetal.2016;浅原他2019).\nocite{Kanayama:2015:ANLP,Tanaka:2016:LREC,Asahara:2019:JNLP}前述したようにUDでは,言語特有の文法機能情報はアノテーションされない傾向があるが,本研究の日本語の単語依存構造の設計を,UDに必要な情報を包含する形で行うことにより,我々の単語依存構造をUDに変換することが可能であると考える.例えば,文法機能タイプに関しては,\Sect{sect:dependency-type}に述べるようにUDより細かいタイプを採用しており,タイプを統合することによりUDへの対応付けが可能である. \section{日本語文法機能タイプ付き依存構造の設計} \label{sect:design-of-typed-dependencies}本節では,(a)構文の構成素と整合する部分構造から構成される,(b)日本語の文法機能情報を表す文法機能タイプを持つ,という2点を満たす日本語の文法機能タイプ付き単語依存構造の設計について述べる.設計は,この2つの条件を満たしている句構造を規範として,木の構造と各句の非終端記号が持つ文法機能情報を単語依存構造へ変換するという方針に基づいて行った.句構造は,Tanakaらの句構造ツリーバンク~\cite{Tanaka:2013:SPMRL}を用いた.その方針の上で,具体的に(1)依存構造を構成する単位を何にするか,(2)日本語の構文構造に適切な依存構造をどのように定義するか,(3)どのような文法機能タイプ(依存関係タイプ)を定義するか,の3点を定める必要がある.我々は,(1)を後述する長単位に,(2)は句構造からの変換規則の違いにより6種類の依存構造スキーマを考え,(3)を句構造の非終端記号から変換した35種類の文法機能タイプに定めた.\Sect{sect:evaluation}では,本節で定めた依存構造の単位,依存構造スキーマの解析精度に与える影響および,文法機能タイプの有効性を調べるために行った評価実験について述べる.以降では,(1)から(3)のそれぞれについて述べる.\subsection{依存構造の単位}\label{sect:parsingunit}依存構造の構成する単位を「単語」とする場合,その単語の定義を何にするかは,全体設計に大きな影響を与える.本論文では,揺れが小さく斉一な単位として,現代日本語書き言葉均衡コーパス(以下,BCCWJ)\cite{Maekawa:2014:LRE,Den:2008:LREC}で採用されている短単位(ShortUnitWord,SUW)を基礎として考える.短単位は,基準がわかりやすくアノテーション作業においても揺れが少ない,取り出した単位が文脈から離れすぎない\cite{Ogura:2007:ANLP},という長所があり,単語についての詳細な情報を保持する解析処理の最小単位として適している.一方で,統語的な基本単位として依存構造を構成するには短過ぎる傾向がある.例えば,「かもしれない」のような機能語相当の働きを持つ複合辞は,短単位では,「か」「も」「しれ」「ない」の4語に分割されるが,これらの間の依存関係を表現しても,あまり意義のある関係は含まれない.そこで,同じくBCCWJで採用されている長単位(LongUnitWord,LUW)を,依存構造を構成する単位として採用する.長単位は,粗く言えば,一つの文節内を1語の内容語と0語以上の機能語に分割した際の,内容語,連続した機能語の結合をそれぞれ1単位として定義される.長単位では,「かもしれない」等の複合辞は助動詞相当の一語として扱われるため,重要度の低い依存関係を扱わなくてよいとともに,構文構造を見通しよく表現することができる.表\ref{fig:example-analyzed-sentence}に,文を短単位,長単位に単語分割した例を示す.短単位と長単位は階層的な関係になっているため,長単位の依存構造に基づく構文解析を行う場合にも,それぞれの長単位を構成する短単位の情報も解析器の素性として用いることができる.\texttt{NN},\texttt{VB}などの品詞シンボルは後述する句構造ツリーバンクで定義された前終端記号を表しており,\Tab{tbl:nonterminal-symbols}のようにBCCWJで定義された品詞と対応関係がある.\begin{table}[t]\caption{単語分割結果の例(品詞名は簡略化して表記)}\label{fig:example-analyzed-sentence}\input{07table01.tex}\end{table}\begin{table}[t]\hangcaption{句構造ツリーバンク\protect\cite{Tanaka:2013:SPMRL}で前終端記号として用いられている品詞シンボル(本稿では,句構造から単語依存構造へ変換する規則が参照)}\label{tbl:nonterminal-symbols}\input{07table02.tex}\end{table}\subsection{依存構造スキーマ}\label{sect:dependency-schema}日本語の文節依存構造では,各依存構造を構成する文節間で基本的に右側が主辞になる構造として定義されている(主辞後置型).しかしながら,日本語において単語間の依存構造を考える場合には,主辞をどのように決定するか,すなわちどのような依存構造を構成するのが適切であるかは自明ではない.そこで我々は,「構文解析結果の部分構造が構文の構成素(constituent)と一致する」要件を満たす句構造を出発点として,単語依存構造への変換方法を考えることにより,依存構造の設計を行った.述語句(述語と後続する0語以上の助動詞や助詞で構成される句)とその項を構成素として含むような文に対して,二つのタイプの句構造を考える.一つは述語とその項を先に結合する構造,もう一つは述語と後続する助詞,助動詞などの機能語を先に結合する構造であり,本論文では,前者を述語項結合型(あるいは1型),後者を述語文節結合型(あるいは2型)と呼ぶ.\Fig{fig:predicate-conjoining-type}は,同じ文を述語項結合型,述語文節結合型により構成した句構造の例である.述語項結合型は,文(\ref{ex-hf1})や対応する英語の文(\ref{ex-eng1})のようにHPSG等で用いられる生成文法的な考えに基づく構造,述語文節結合型は,文(\ref{ex-hf2})や対応する英語の文(\ref{ex-eng2})のような文節に類似した構造と捉えることもできる.\begin{exe}\ex\label{ex-sov}\begin{xlist}\ex\label{ex-hf1}\glln\lb{}\lb{}\lb{VP}猫が魚を食べ\rb{}\hspace{-1mm}た\rb{}\hspace{-1mm}かもしれない\rb{}\\{}{}{}SOVauxaux\\\ex\label{ex-hf2}\glln\lb{}猫が\lb{}魚を\lb{VP}食べたかもしれない\rb{}\hspace{-1mm}\rb{}\hspace{-1mm}\rb{}\\{}SOVauxaux\\\end{xlist}\ex\begin{xlist}\ex\label{ex-eng1}\glln\lb{}Thecat\lb{}mayhave\lb{VP}eatenthefish\rb{}\rb{}\rb{}.\\{}S{}{}auxaux{}V{}O\\\ex\label{ex-eng2}\glln\lb{}Thecat\lb{}\lb{VP}mayhaveeaten\rb{}thefish\rb{}\rb{}.\\{}S{}{}{}auxauxV{}O{}\\\end{xlist}\end{exe}\begin{figure}[t]\begin{center}\includegraphics{26-2ia7f2.eps}\end{center}\hangcaption{述語句の結合型の違いによる2種類の句構造の構成.四角で囲んだ\texttt{VP}は,述語を含む句で優先的に結合する部分木の非終端記号を表す.その他の非終端記号\texttt{PP-OBJ},\texttt{IP-REL\_sbj}は,それぞれ対格の後置詞句,主格の空所を持つ関係節を表す.}\label{fig:predicate-conjoining-type}\end{figure}これらの句構造から単語間の依存構造へ変換することを考える.句構造が二分木で構成されている場合を考えると各中間ノードの分岐ごとに左右どちらの要素が主辞になるかを順に決定することで,依存構造を構築することができる.その際,日本語の文を構成する主要な要素である,名詞句+機能語(主に助詞)から成る後置詞句,述語+機能語(主に助詞,助動詞)から成る述語句それぞれにおいて,内容語と機能語のどちらを主辞と扱うかで,二つのタイプに分ける\footnote{多くの場合,内容語を主辞とするものを意味主辞(semantichead),機能語を主辞とするものを統語主辞(syntactichead)と見做すことができるが,ここでは両者を区別せずに扱う.}.ここでは便宜的に,後置詞句で機能語を主辞と扱うものを項機能語主辞(AF-head),内容語を主辞と扱うものを項内容語主辞(AC-head),述語句で機能語を主辞と扱うものを述語機能語主辞(PF-head),内容語を主辞と扱うものを述語内容語主辞(PC-head)と呼ぶ.この主辞型の組合せが4通りあり,これらを2タイプの句構造の結合型への適用すると8通りになるが,述語内容語主辞の2つの主辞型については,句構造結合型の1型,2型に適用した結果が,同じ依存構造になるため,実際には,\Tab{tbl:dependency-schema}に示す6タイプの依存構造が構成されることになる.これらを依存構造スキーマと呼ぶ.\begin{table}[b]\caption{句構造の結合型,主辞型の組合せと依存構造スキーマ}\label{tbl:dependency-schema}\input{07table03.tex}\end{table}AF-head+PF-headは主辞後置の原則に則ったスキーマで,述語項結合型(1型)に適用したものを,主辞後置1型(HeadFinaltype1,\HFo),述語文節結合型(2型)に適用したものを,主辞後置2型(HeadFinaltype2,\HFt)とする.主辞後置型から,述語句で内容語(述語)を主辞に変えたAF-head+PC-headは,述語と項がより近い依存関係を持つようにしたもので,述語項結合型,文節結合型いずれに適用したものも同じ依存構造となる.これを述語内容語主辞型(PredicateContentwordHeadtype,\PCH)とする.また,主辞後置型から,後置詞句で内容語を主辞にした,AC-head+PF-headを述語項結合型,述語文節結合型それぞれに適用したものを,それぞれ項内容語主辞1型(ArgumentContentwordHeadtype1,\ACHo),項内容語主辞2型(ArgumentContentwordHeadtype2,\ACHt)とする.さらに,述語句,後置詞句の両方において内容語を主辞としたAC-head+PC-headは,述語と項の内容語同士が直接依存構造を持つようにしたもので,これを内容語主辞型(ContentWordHeadtype,\CWH)とする.この型は,内容語間の関係を重視し,少なくとも一方が内容語となる単語間に対して依存構造を考えるUDと類似した依存構造スキーマである.\CWHとUDとは並列構造における主辞の扱い\footnote{UDでは並列要素のうち先頭の要素が主辞になる.}や文法機能タイプなどが異なる.これら6通りの依存構造スキーマによる構文解析例を\Fig{fig:ex-dependency-schema}に示す.各スキーマによって,統語的関係にある語の間の距離が異なることから,解析器で再現する際の難易度も異なると考えられる.\Sect{sect:corpus}で,これらの依存構造スキーマに基づいて構築したコーパスについて述べ,\Sect{sect:evaluation}で,解析器への適用面から比較する.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f3.eps}\end{center}\hangcaption{各依存構造スキーマによる構文解析例.枠で囲まれた文字列は句構造において先に結合する構造を示す.}\label{fig:ex-dependency-schema}\end{figure}\subsection{文法機能タイプ}\label{sect:dependency-type}我々は,Stanfordtypeddependenciesを参考に,35種類の文法機能タイプを定義した\footnote{前置詞句や等位接続詞を含む構造に対して,Stanfordtypeddependenciesで定義されているcollapseddependencytypeは採用していない.}.SDとの主な違いは,\dt{nsubjpass},\dt{auxpass},\dt{agent}など受動態特有のタイプや\dt{det}(determiner),\dt{expl}(expletive),\dt{xcomp}(openclausalcomplement)など,日本語では不要もしくは必要性の低いと考えられるタイプを採用していないこと,日本語の多様な連体修飾節に対応するため関係節に関するタイプ\dt{rcmod}を細分化したことである.日本語の文法的特徴を反映させるため,日本語句構造ツリーバンクの非終端記号を文法機能タイプに変換することにより,元の句構造の情報が利用されるように定めた.\Tab{tbl:dependency-types}に,主要な文法機能タイプを示す.参考として,日本語UDversion2において定義が類似した文法機能タイプを併記している.以下に,カテゴリごとに定義した文法機能タイプについて説明する.\begin{table}[b]\caption{主な文法機能タイプ}\label{tbl:dependency-types}\input{07table04.tex}\vspace{4pt}\small例は,\dt{dependency\_type}(主辞,従属部)の形で表記し,``-''は長単位の境界を表す.長単位列のうちどの長単位が主辞になるかは,依存構造スキーマによって異なる.また,UDversion2との対応は近似的なものであり,必ずしも同じ定義を持つとは限らない.\end{table}\paragraph{格関係のタイプ}述語と格関係を持つ項との関係に付与する文法機能タイプであり,必須項(argument)タイプと,付加項(adjunct)タイプに大別される.必須項タイプは,\dt{nsubj}(主格),\dt{dobj}(対格),\dt{iobj}(与格)を,付加項タイプは,\dt{lmod}(場所格),\dt{tmod}(時間格),\dt{arg}(その他の格)を定義した.アノテーションは,述語項構造情報に基づいて行うが,句構造ツリーバンク~\cite{Tanaka:2013:SPMRL}の情報を利用する場合は,非終端記号に付加された文法機能ラベル(\ctag{-SBJ}(主格),\ctag{-TMP}(時間格)など)を変換して行う.\begin{table}[b]\hangcaption{節の種類と句構造ツリーバンクで用いられている非終端記号,単語依存構造で導入した文法機能タイプ}\label{tab:clause-labels}\input{07table05.tex}\end{table}\paragraph{節のタイプ}日本語において節と句の境界は曖昧であるが,本論文の文法機能タイプは,句構造ツリーバンク~\cite{Tanaka:2013:SPMRL}において定義されている節のタイプに基づいている.\Tab{tab:clause-labels}に句構造ツリーバンクで分類した節の種類と対応する文法機能タイプを示す.連体修飾節については,内の関係の連体修飾節(関係節)とそれ以外の外の関係の連体修飾節を区別するために,それぞれ,\textit{rcmod},\textit{ncmod}という文法機能タイプを割り当てている.さらに関係節の空所(gap)になっている格の種類を区別するため,\textit{rcmod}を,\textit{rcmod\_nsubj},\textit{rcmod\_dobj},\textit{rcmod\_iobj}の3つの文法機能タイプに細分化した.これにより,連体修飾節の主辞の述語と主名詞句の関係を区別し,文法機能タイプにより述語項構造を捉えることが可能になる.外の関係の連体修飾節には,内容節(月に行った-夢)と補充節(月に行った-結果)があるが,句構造ではこれらを区別をせず\ctag{IP-ADN}としており,依存構造でも文法機能タイプを~\dt{ncmod}とした.\paragraph{語・句による修飾関係のタイプ}格関係以外の修飾関係(ただし節による修飾を除く)に付与する文法機能タイプで,\textit{nmod}(名詞類による修飾関係),\textit{amod}(形容詞類による修飾関係),\textit{vmod}(動詞類による修飾関係),\textit{advmod}(副詞類による修飾関係)などがある.また,名詞句+格助詞「の」による連体修飾句の関係は,\textit{post}と定義した.\paragraph{並列関係のタイプ}並列関係を持つ要素間に付与する文法機能タイプとして,\dt{conj}(並列),\dt{appos}(同格)を定義した.並列要素と並立助詞(「と」「や」など)との関係には,SDと同様に,\dt{cc}(coordination)を定義した.これは並立要素をマークしている関係を明確にすることで,並列構造を抽出しやすくするためである.\paragraph{機能語関係のタイプ}機能語と内容語,機能語と機能語の間の依存関係に付与する文法機能タイプで,以下のような種類のタイプを定義している.\textit{pobj}(助詞と内容語との関係),\textit{aux}(助動詞と内容語との関係),\textit{cop}(判定詞と名詞述語の関係)など機能語を含む文法機能タイプ,\textit{pnc}(句読点との関係),\textit{par}(括弧類との関係)など記号類を含む文法機能タイプがある.\paragraph{その他のタイプ}接続助詞と節の主辞との間の関係\textit{mark},複合動詞の関係\textit{vb},未定義の関係として\textit{dep}を用意している.様々な文法機能タイプの中でも,特に格関係のタイプと関係節のタイプを導入することの利点は,これらのタイプが付加された依存構造を辿ることにより,述語項構造が抽出できることである.例えば,\Fig{fig:ex-dependency-schema}の主辞後置1型(\HFo)の依存構造の場合には,述語と項となる内容語間に2つのpathを辿ることができる.すなわち,「魚フライ(\texttt{NN})$\leftarrow$\textit{pobj}$\leftarrow$\textbf{\textit{dobj}}$\leftarrow$食べ(\texttt{VB})」と「食べ(\texttt{VB})$\leftarrow${\itaux}$\leftarrow${\itaux}$\leftarrow$\textbf{\textit{rcmod\_nsubj}}$\leftarrow$ペルシャ猫(\texttt{NN})」のpathである.二つの文法機能タイプ{\itdobj}と{\itrcmod\_nsubj}を識別することにより,述語「食べる」の直接目的語と主語としてそれぞれ「魚フライ」と「ペルシャ猫」を抽出することができる.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f4.eps}\end{center}\caption{文法機能タイプ付き依存構造({\PCH})による構文解析例(述語項構造,関係節).}\label{fig:ex-parsing-predarg}\end{figure}\subsection{文法機能タイプ付き依存構造による構文解析例}\label{sect:typed-dependencies-examples}提案した文法機能タイプ付き依存構造により,詳細化される構文情報について例を示す.本節で示す例は,述語内容語主辞スキーマ\PCHによるものである.\paragraph{述語項構造}格関係の文法機能タイプにより,必須項と付加項との区別を含めて,述語と項の関係を明示することが可能になる.また,連体修飾節と主名詞の関係を明示することが可能になる.\Fig{fig:ex-parsing-predarg}の一番上に示す例では,動詞「食べる」に対する格関係が,\dt{nsubj}(主格),\dt{dobj}(対格),\dt{lmod}(場所格)により明示されている.次の二つの例では,動詞「食べる」と主名詞句との関係が,関係節であるか(\dt{rcmod\_dobj}),内容節/補充節であるか(\dt{ncmod})が明示的に区別されている.これらの文法機能情報を構文解析結果から得られることにより,別に解析を行うことなく述語項構造の情報を取得できる.\paragraph{並列構造}並列構造をスコープを含めて的確に表示することが可能になる.\Fig{fig:ex-parsing-coord}の上の例では,\dt{cc},\dt{conj}のリンクにより,結ばれている名詞「猫」と「犬」が並列関係にあることが明示されている.さらにそれぞれの主辞から従属部へと辿ることにより,それぞれが「隣町に住んでいる猫」,「初めて見る犬」の名詞句から構成されていることも捉えることができる.また,\Fig{fig:ex-parsing-coord}の下は,部分並列の例である(\cite{Asahara:2018:JNLP}の部分並列の例を一部改変).例のように,複数の項の組を一つの述語が共有する場合でも,単純に全ての項の主辞を同一の述語(「かし」)とし,項が組になって部分並列の構造になっていること(「本を」と「太郎に」,「ノートを」と「三郎に」)は表示しない.このため,部分並列の場合,依存構造の情報のみから正しい述語項構造を取得することはできないが,これは,直接統語的に関係する語の間の依存構造を優先して構成する方針を採っているためである.\begin{figure}[t]\begin{center}\includegraphics{26-2ia7f5.eps}\end{center}\caption{文法機能タイプ付き依存構造({\PCH})による構文解析例(名詞句の並列,部分並列).}\label{fig:ex-parsing-coord}\end{figure} \section{既存コーパスの変換による単語依存構造コーパスの構築} \label{sect:corpus}本節では,提案する文法機能タイプ付き単語依存構造コーパスの初期構築を行った際の方法について述べる.\Sect{sect:design-of-typed-dependencies}で述べたように,本論文で提案する単語依存構造は句構造を規範として設計しているため,依存構造の連結した単位(部分構造)や文法機能タイプは,句構造の部分木の単位や非終端記号との親和性が高い.また,新たなアノテーションスキームに基づくコーパスを構築する際には,ゼロからアノテーションを行うより,既存のコーパスから一定の規則を定めて変換を行う方が,設計の変更への対応や一貫性を保持するに有利であると考えられる.そこで,我々は提案する単語依存構造に基づくコーパスの最初の構築を既存の句構造コーパスの持つ構造と非終端記号の情報を変換する方法により行った.実際に2種類の句構造コーパスを変換することにより構築した単語依存コーパスの統計量についても述べる.\subsection{句構造木から依存構造への変換}\Sect{sect:dependency-schema},\Sect{sect:dependency-type}で述べたように,依存構造スキーマ,文法機能タイプの設計は,句構造からの変換に基づいて行った.同様に,文法機能タイプ付き単語依存構造コーパスの構築を,句構造ツリーバンク\cite{Tanaka:2013:SPMRL}から,句構造木の構造と付加された文法機能ラベル(非終端記号)を自動変換することよって行うことを考える.この句構造木は完全な二分木で構成されており,非終端記号には,文法機能タイプへの変換に必要な格の情報,関係節の情報等が含まれる\footnote{一部はKaedeTreebankとして公開されている.https://github.com/mynlp/kaede/}.句構造から依存構造への変換は,二分木の各分岐に対して主辞決定規則(以下,主辞規則)を適用し,非終端記号の組合せにより左右どちらの子を主辞とするかを決定することで行う.この主辞規則は,依存構造スキーマに応じて異なる規則を用意する.表~\ref{tbl:headrule-ex-pch}に述語内容語主辞型\PCH,内容語主辞型\CWH,各スキーマの主辞規則の例を示す.\Fig{fig:ex-constituent}は,変換元となる句構造の例と,表~\ref{tbl:headrule-ex-pch}の主辞規則を適応した結果を示す.四角い枠で囲まれた非終端記号は,各分岐ごとに主辞規則を用いて,決定された主辞を示している.\begin{table}[b]\hangcaption{述語内容語主辞型\PCH(AF-head+PC-head),内容語主辞型\CWH(AC-head+PC-head)の主辞規則の例}\label{tbl:headrule-ex-pch}\input{07table06.tex}\vspace{-0.5\Cvs}\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f6.eps}\end{center}\hangcaption{変換元になる句構造の例.四角で囲まれた非終端記号は.各分岐において主辞規則により主辞と決定されたノードを示す.}\label{fig:ex-constituent}\end{figure}文法機能タイプは,句構造木の各分岐ごとに周辺のノードの非終端記号を参照する文法機能タイプ変換規則によって決定する.表~\ref{fig:ex-deplabelrule}は,文法機能タイプ変換規則の例である.ある葉ノードの単語D(前終端記号P)とDの主辞との依存構造の文法機能タイプを決定する際には,Dから根ノードの方向にたどりDが主辞とならない最初のノードC,Cの左の子ノードL,Cの姉妹ノードHを参照する.図中の``*''は,任意の非終端記号を表す.\begin{table}[b]\caption{文法機能タイプ変換規則の例}\label{fig:ex-deplabelrule}\input{07table07.tex}\vspace{4pt}\smallある葉ノード単語D(前終端記号P)とDの主辞との依存構造の文法機能タイプを決定する際に,Dから根ノードの方向にたどりDが主辞とならない最初のノードC,Cの左の子ノードL,Cの姉妹ノードHを参照する.``*''は,任意の非終端記号を表す.\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f7.eps}\end{center}\caption{句構造から変換された依存構造の例.}\label{fig:converted-deptrees}\end{figure}\Fig{fig:converted-deptrees}は,\Fig{fig:ex-constituent}の句構造に,表~\ref{tbl:headrule-ex-pch}の主辞規則と表~\ref{fig:ex-deplabelrule}の文法機能タイプ変換規則を適用して変換した2タイプの依存構造\PCH,\CWHの結果を示す.このように各依存構造スキーマ用の主辞規則と文法機能タイプ変換規則を使用することにより対応するスキーマに基づく依存構造コーパスを構築することができる.\subsection{構築したコーパスの統計量}単語依存構造への変換する句構造ツリーバンクとして,京都大学テキストコーパスversion4.0(以下,京大コーパス)\cite{Kurohashi:2003}40,000文のうち,文法機能ラベル付きの句構造木が構築されている19,953文(一般記事9,953文,社説記事10,000文),BCCWJのコアデータのうち同じく句構造木が構築されている18,400文を用いた.これらの句構造から述語内容語主辞型スキーマ(\PCH)に基づく依存構造に変換したコーパスの統計量を\Tab{tbl:corpus-statistics}に示す.\begin{table}[b]\caption{構築したコーパスの統計量(依存構造スキーマ\textsf{PCH})}\label{tbl:corpus-statistics}\input{07table08.tex}\end{table}付与された文法機能タイプの統計量から,各コーパス・サブコーパスの構文的な特徴を概観することができる.例えば,書き言葉で書かれたコーパス(京大コーパスやBCCWJの出版・書籍や新聞など)では,主格の関係にある\dt{nsubj}は文数よりも多くあらわれる傾向があるが,話し言葉に近いBCCWJの知恵袋,ブログでは,文数よりも極端に下回っていることがわかる.また,内の関係の関係節の割合は,固めの書き言葉で書かれている白書,新聞で高く,次いで出版・書籍と雑誌,最も低い割合が,知恵袋,ブログという傾向が見られる.このように,文法機能タイプを様々なコーパスにアノテーションすることによって,それぞれのコーパスに含まれている文の文体や構文的な特徴を分析することにも有効であることが期待される. \section{構文解析器への適用評価} \label{sect:evaluation}本論文で提案する単語依存構造は,依存関係を結ぶ組合せの数が,文節依存構造と比較して増加するだけでなく,従来の単一方向の依存構造からなる文節依存構造と比較して複雑な構造となっているため,構文解析器に適用した場合にどの程度の解析精度が得られるかを確認する必要がある.また,依存構造スキーマによっては,統語的に重要な関係を持つ語の間の距離(ノード間の弧の数)が長くなることによって,高次の特徴量を使用しないと十分な精度が得られない懸念がある.本節では,提案する単語依存構造による構文解析モデルを実際の解析器で構築し,これらの要素がどの程度解析精度に影響するのかを評価する.評価の主眼は,それぞれの依存構造スキーマに基づく単語依存構造に対して解析モデルを最適化することではなく,既存の解析器の標準的な設定で構築したモデルを使用する際に,依存構造スキーマ,依存構造単位(短単位,長単位,文節)の違いが解析精度へどう影響するかを確認することである.実験には,単語依存構造解析で実績のある2種類のtransitionベースの構文解析器を使用することで,標準的な条件での解析精度が得られることを想定している.また,本論文の依存構造解析から得られた述語項構造情報を,既存の述語項構造解析により得られた述語項構造情報と比較することにより,導入した文法機能タイプの効果を確認する.各依存構造スキーマに基づいた依存構造コーパスを学習データとして構文解析モデルを構築し,解析精度について評価した.解析評価には,前節で述べたように句構造ツリーバンクから自動的に変換した依存構造コーパスと,既存の構文解析器を使用した.評価する観点として,次の3点に着目した.\begin{enumerate}\item\label{enum:dependency-schema}依存構造スキーマの解析精度への影響\item\label{enum:chunking}依存構造単位の解析精度への影響\item\label{enum:predicate-arguments}文法機能タイプから得られる述語項構造情報の評価\end{enumerate}(\ref{enum:dependency-schema})では,\Sect{sect:dependency-schema}で述べた6種類の依存構造スキーマに基づいて構築した長単位ベースの依存構造解析モデルの解析精度を比較した.長単位列の正解データを入力として使用し,形態素解析(短単位へ分割と品詞タグ付与)や長単位へのチャンキングの精度の影響を排除した.(\ref{enum:chunking})では,短単位列の正解を入力として,依存構造の単位(短単位,長単位,文節)が解析精度に与える影響を調べた.評価のベースラインを揃えるため,短単位列から長単位や文節のチャンキングを行う精度の影響も精度評価に含めた.すなわち比較するのは,(a)短単位列から直接短単位間の依存構造解析を行う場合,(b)短単位列から長単位へのチャンキングを行った後,長単位間の依存構造解析を行う場合,(c)短単位列から文節へのチャンキングを行った後,文節間の依存構造解析を行う場合,の3種類である.最後に(\ref{enum:predicate-arguments})では,依存構造解析結果から文法機能タイプを利用して抽出した述語項構造解析の情報と,既存の述語項構造解析器の結果との比較を行った.比較する解析器の条件を揃えるため,平文を入力とし,依存構造解析を行う場合は,短単位への形態素解析,長単位へのチャンキング,長単位間の依存構造解析を順に行った.\Tab{tab:evaluation-condition}にこれらの実験条件をまとめた.\begin{table}[b]\caption{実験条件}\label{tab:evaluation-condition}\input{07table09.tex}\vspace{4pt}\small解析方法のLUWは長単位ベースの解析,SUWは短単位ベースの解析を表す.\end{table}以下,\Sect{sect:eval-setting}で共通の実験設定について述べた後,(1)--(3)に対応する評価実験についてそれぞれ\Sect{sect:dependency-schema-results}-\Sect{sect:predicate-arguments-results}で述べ,最後に\Sect{sect:evaluation-summary}で評価結果をまとめる.\subsection{実験設定}\label{sect:eval-setting}評価実験には,句構造ツリーバンクから\Sect{sect:corpus}で述べた方法で依存構造に変換したものを使用した.京大コーパスは,全19,953文を学習データ15,839文,開発データ2,114文,評価データ2,000文に,BCCWJは,全18,400文を,学習データ14,772文,開発データ1,919文,評価データ1,798文に分割し,それぞれのコーパスごとに構文解析モデルを構築した.\Tab{tab:train-test-data}に学習,開発,評価データの統計量を示す.\begin{table}[b]\caption{評価実験に使用したコーパスの統計量}\label{tab:train-test-data}\input{07table10.tex}\end{table}解析器の前処理が必要な場合,短単位への分割および品詞タグ付けは,MeCab~\cite{Kudo:2004:EMNLP},長単位へのチャンキングは,Comainu~\cite{Kozawa:2014:JNLP}を使用して行った\footnote{MeCabはver.0.996をUniDic辞書mecab-unidicver.2.1.2とともに用い,Comainuはver.0.72を用いた.}.構文解析器は,タイプ付き単語依存構造解析で実績のあるtransitionベースの2種類,(1)英語のSDにおいて80\%以上のラベル正解率の実績を持つMaltParser~\cite{Nivre:2007:NLE}および,(2)主にUDの解析に使用されているUDPipe~\cite{udpipe:2017}を用いた\footnote{MaltParserはver.1.8,UDPipeはver.1.2.0を用いた.}.MaltParserは,解析アルゴリズムにStackアルゴリズム(projective)を選択し,識別学習ライブラリにLIBLINEAR\footnote{ver.2.1を用いた.}を使用してモデル学習を行った.6種類の依存構造スキーマそれぞれに対して解析モデルを構築して評価を行った.解析モデルの素性には,\Tab{tbl:parser-features-wordattr}に示す単語属性を組み合わせて用いた.長単位は複合名詞等の構成的な複合語を多く含み,長単位ベースの属性で構成した素性は疎になる傾向があるため,短単位ベースの属性を組み合わせた.短単位ベースの単語属性は,対象となる長単位の最左あるいは最右の短単位のものを用いた.例えば,長単位「魚フライ」に対して,短単位ベースの単語属性は,$S_L.l$(最左の短単位の語彙素「魚」),$S_R.l$(最右の短単位の語彙素「フライ」)等である.また,単語を汎化するため,日本語語彙大系~\cite{ikehara:1997}の属性を用いて単語意味属性(一般名詞属性),固有名詞属性を付与した.単語意味属性は,過度の細分化を防ぐため,3階層目までの属性を使用した.\begin{table}[b]\caption{構文解析器(MaltParser)の素性テンプレートに用いた単語属性}\label{tbl:parser-features-wordattr}\input{07table11.tex}\end{table}\begin{table}[p]\caption{構文解析器(MaltParser)に用いた素性テンプレート}\label{tbl:parser-features}\input{07table12.tex}\end{table}用いた素性テンプレートを\Tab{tbl:parser-features}に示す.依存構造スキーマによって有効な素性は異なると考えられるが,各依存構造スキーマごとに\Tab{tbl:parser-features}の左側に記載しているようなカテゴリを当てはめて素性テンプレートを定義し,評価実験時には全依存構造スキーマの素性テンプレートの和集合を共通に使用した.MaltParserはtransitionベースの解析器であり,解析は先頭から順に決定的に行われる.素性テンプレートは,ある解析時点でのスタック$S$中の部分木,キュー$Q$中の単語に関する単語属性の組合せで定義している\footnote{表では単語属性の組合せの一例を示している.}.表中,スタック$S$中の部分木の根の単語を最上部から,$\{s_0$,$s_1$,...$s_n\}$,キュー$Q$中の単語を先頭から,$\{q_0$,$q_1$,...$q_m\}$で表している.Stackアルゴリズムでは,スタックの最上位から2つの部分木(根がそれぞれ$s_0$,$s_1$)から新しい弧を作る.スタック中の部分木については,$.h$(主辞),$.l_c$,$.l_d$等の指定子で対象の単語(長単位)を指定している.$.l_c$,$.r_c$はそれぞれ部分木の根(主辞)の最左の子(従属部),最右の子,$.l_d$,$.r_d$はそれぞれ部分木の中の根の最左の子孫,最右の子孫を表している.UDPipeは,MaltParserと同じくtransitionベースの解析器であるが,ニューラルネットワークベースの分類器を用いた予測を行い,素性を設定する必要はない.transitionsystemは,既定値であるprojectiveなarcstandardsystemを用いた.また,解析器自身で,単語分割,品詞タグ付けを行うことができるが,他と条件を揃えるため本論文では,UDPipeは依存構造解析のみを行い,短単位への分割,品詞タグ付けは,前述のMeCabを用いた.\subsection{依存構造スキーマの比較}\label{sect:dependency-schema-results}長単位列の正解データを入力として与え,6種類の依存構造スキーマに基づく解析モデルにより構文解析を行った.全体の精度として,unlabeledattachmentscore(UAS)およびlabeledattachmentscore(LAS)を\Tab{tbl:parsing-results1}に,文法機能タイプごとの精度(F$_1$score)を\Tab{tbl:parsing-results-deptype-ktc},\Tab{tbl:parsing-results-deptype-bccwj}に示す.\begin{table}[b]\caption{全体解析精度(長単位)}\label{tbl:parsing-results1}\noindent\input{07table13.tex}\end{table}全体的な傾向として,後置詞句において助詞を主辞とするスキーマ(\HFo,\HFt,\PCH)の精度が,内容語を主辞とするスキーマ(\ACHo,\ACHt,\CWH)よりも高い結果となっている.特に,後置詞句,述語句ともに機能語を主辞とし,述語句を先に結合する\HFtがいずれの場合も最も良い精度となっていることは,日本語の単語依存構造解析を標準的なtransitionベースの構文解析器への適用するにあたって,機能語主辞の構造が精度面で有利であることを示唆していると考えられる.\begin{table}[t]\caption{文法機能タイプ別解析結果(長単位,京大コーパス)}\label{tbl:parsing-results-deptype-ktc}\input{07table14.tex}\end{table}文法機能タイプ別の精度を見ると,コーパスにおいて大きな割合を占める格関係の依存構造(\dt{nsubj}など)や連用修飾関係(\dt{advcl}),並列構造(\dt{conj}など)において,\HFo,\HFt,\PCHのスキーマによる精度が高い.これらの依存構造において,主辞を内容語とするよりも格助詞等の機能語とする方が有利であることを反映しており,3つのスキーマの全体精度が高いことに寄与していると考えられる.一方,連体修飾関係(\dt{rcmod},\dt{ncmod}など)の精度は,述語句で内容語を主辞とするスキーマ(\PCH,\CWH)が比較的高い精度を示していることがわかる.これは,連体修飾句の主辞となる用言と主名詞の内容語との間で直接依存関係を持つことが,依存関係先,および文法機能タイプの決定に寄与している結果と考えられる.\begin{table}[t]\caption{文法機能タイプ別解析結果(長単位,BCCWJ)}\label{tbl:parsing-results-deptype-bccwj}\input{07table15.tex}\end{table}必須項の格関係(\tp{nsubj},\tp{dobj},\tp{iobj})の精度は,付加項の格関係(\tp{tmod},\tp{lmod})に比べて,高い結果となっている.必須項の格関係については,典型的には名詞句に後置される格助詞「が」「を」「に」と動詞の組合せによって正しく推測可能な場合が多くの割合を占めるのに対して,時間格や場所格は,共起しやすい格助詞「に」「で」がそれ以外の広範な用法を持っており,時間格,場所格で用いられているのか他の用法で用いられているかの判別が困難であることが多いためと考えられる.\paragraph{学習コーパス量}学習コーパスの規模と解析精度との関係を見るため,京大コーパス,BCCWJそれぞれについて,MaltParserの学習データとして使う文数を,1,000文,3,000文,5,000文,10,000文,全文に変えて解析モデル(\HFo,\HFt,\PCH)を構築し,解析精度の変化を調べた結果を,\Fig{fig:learning-curve}に示す.どのモデルも,本論文の評価実験で用いた1,000文規模でUAS91以上の精度を実現し,10,000文規模で,UAS93-94に達している.1,000--10,000文の区間では,LASの精度上昇幅がUASの上昇幅を上回っており,文法機能タイプの精度を重視する場合,10,000文規模の学習データを用いるのが一つ目安と考えられる.\begin{figure}[p]\begin{center}\includegraphics{26-2ia7f8.eps}\end{center}\caption{\label{fig:learning-curve}学習コーパス量と解析精度の関係.}\end{figure}\subsection{依存構造単位の比較}\label{sect:chunking-results}依存構造の単位による解析精度の違いを調べるため,京大コーパスのデータに関して,長単位による依存構造の他に,短単位の依存構造,文節単位の依存構造について依存構造解析モデルを構築した.正解の短単位依存構造は,長単位依存構造のデータを元に,各長単位を短単位に分割し,長単位内の隣接する短単位間に依存関係を結び,右側の短単位が左側の短単位の主辞になる構造とした.長単位間の依存構造は,依存関係元,依存関係先,それぞれの長単位の中で,一番右側に来る短単位,すなわち主辞になる短単位の間の依存構造に変換した.また,長単位内部の短単位間の文法機能タイプは\dt{luw}に統一した(\Fig{fig:conversion-luw-to-suw}).\paragraph{長単位と短単位}長単位の依存構造解析モデルと短単位の依存構造解析モデルを比較するため,短単位列の正解データを入力として,長単位依存構造解析モデル,短単位依存構造解析モデルそれぞれで解析した.長単位の依存構造解析は,入力の短単位列をComainuでチャンキングした結果の長単位列を,長単位依存構造解析モデルで解析した.長単位の正解データを直接入力しないのは,短単位依存構造解析モデルと入力の条件を揃えることと,長単位チャンキングの全体解析精度への影響を加味するためである.\Tab{tbl:parsing-results-wordunit}は,京大コーパスの短単位の形態素情報の正解データを入力として,長単位依存構造モデルで解析した結果と,短単位依存構造モデルで解析した結果である.比較のために,長単位解析モデルの結果も文法機能タイプ\dt{luw}を用いて短単位の依存構造に変換して集計している.短単位の依存関係で集計すると,比較的簡単な長単位内部の依存関係\dt{luw}が含まれることにより,精度が高めに計測されるため,括弧内に依存関係ラベル\dt{luw}を除いた精度を表示している.\begin{figure}[t]\begin{center}\includegraphics{26-2ia7f9.eps}\end{center}\hangcaption{長単位依存構造から短単位依存構造への変換の例({\PCH}).長単位を分割し,構成する短単位間に文法機能タイプ\dt{luw}を持つ依存構造に変換する.}\label{fig:conversion-luw-to-suw}\end{figure}\begin{table}[t]\caption{構文解析結果:依存構造単位の比較(京大コーパス)}\label{tbl:parsing-results-wordunit}\input{07table16.tex}\vspace{4pt}\small短単位間の依存構造で集計している.括弧内は長単位内の短単位間依存関係~\dt{luw}を除いた値を示す.\end{table}\Tab{tbl:parsing-results-wordunit}のMaltParserの結果では,\PCH,\CWHを除いて短単位モデルの解析精度が長単位モデルより僅かに勝っているのは,長単位チャンキングの精度(長単位境界のF値99.41,品詞のF値98.80)が影響していると考えられる.一方,UDPipeでは,全体に短単位モデルの結果よりも長単位モデルの結果の方が高く,長単位で依存構造を捉えることが有効に働いている.同じスキーマで比較する限り,UDPipeの長単位モデルでの解析精度は,MaltParserの長単位および短単位モデル,UDPipeの短単位モデルの結果をほぼ上回っていることから,ある程度のチャンキングの精度と,依存構造解析器の基本精度があれば,長単位モデルで解析する方が高い精度が得られると考えられる.\paragraph{長単位/短単位と文節}文節単位の依存構造との比較を行うため,京大コーパスの20,000文について単語単位を短単位に置換したデータを人手で作成した.この形態素情報データのうち15,893文をCaboChaの学習データとして,文節チャンキングモデル,文節依存構造モデルをそれぞれ構築した.評価データをCaboChaで解析した結果は,CoNLL形式による短単位間の依存構造として出力した~\footnote{CaboChaはver.~0.68を用いた.実際の解析は文節依存構造として行われるが,CaboChaの出力オプションでCoNLL形式を指定することにより,文節内は隣接する左の単語から右の単語へ順に係り(右の単語が左の単語の主辞となり),文節間はそれぞれの文節の主辞が依存関係元と依存関係先の単語として出力される.}.条件を揃えるため,いずれの解析も短単位の正解データを入力として与え,短単位解析は,短単位の依存構造解析,長単位解析は,Comainuによる長単位チャンキングと長単位の依存構造解析,文節解析は,CaboChaによる文節チャンキングと文節依存構造解析を行った.長単位/短単位依存構造と文節依存構造は,依存構造の単位が異なるため単純な精度の比較はできないが,構文解析から獲得できる重要な情報として,「格関係」「連体修飾関係」「連用修飾関係」「並列関係」の4つの文法機能タイプのカテゴリについて,正解の単語間の依存構造を出力できる割合(再現率)を調べた.文法機能タイプのカテゴリ分けは,格関係は,\tp{nsubj},\tp{dobj},\tp{iobj},\tp{tmod},\tp{lmod},\tp{arg},連体修飾関係は,\tp{rcmod},\tp{rcmod\_nsubj},\tp{rcmod\_dobj},\tp{rcmod\_iobj},\tp{ncmod},連用修飾関係は,\tp{advcl},並列関係は,\tp{conj},\tp{appos}とした.CaboChaは文法機能タイプの出力を行わないので,いすれの解析結果についても文法機能タイプの正誤は無視した.結果を\Tab{tbl:parsing-results-dtypecat}に示す.スキーマにより違いはあるが,\HFo,\HFt,\PCHについては,ほぼ文節依存構造と同程度の精度を示している.特に連体修飾関係と並列関係は,文節依存構造よりも高い精度を示す結果となっている.一方,連用修飾関係は,文節依存構造が単語依存構造よりも高い精度を示している.依存関係にある単語間の距離による傾向を見るため,MaltParserの\HFt(長単位)の結果とCaboChaの結果について,連体修飾と連用修飾の依存関係にある単語間の距離(短単位に換算)と再現率の関係を\Fig{fig:distance-recall}に示す.連体修飾関係の場合,単語依存構造の方が全般に高い精度を示している.連体修飾関係の依存構造の多くは5単位程度の短い距離であり,6--15短単位の中程度の距離の事例は少ないため,当てるのが難しい依存関係と考えられる.単語依存構造は,連体修飾関係のこの中程度の距離において,再現率の低下を低く抑えられている.一方,連用修飾関係の場合,後置詞句と述語や,副詞節と主節など,絶対的な距離が長くなり得る関係が含まれるが,15短単位程度までの距離では単語依存構造,文節依存構造で差がないのに対し,15短単位を超える距離においては文節依存構造の方が精度を維持していることが分かる.これは,文節にチャンキングすることにより,依存構造を持つ単位(文節)の間の実質的な距離を縮めていることと,依存構造を構成する組合せの数を減らしてることが有利に働いていると考えられる.\begin{table}[t]\caption{構文解析結果(文法機能タイプ種別再現率)}\label{tbl:parsing-results-dtypecat}\input{07table17.tex}\end{table}\begin{figure}[t]\begin{center}\includegraphics{26-2ia7f10.eps}\end{center}\caption{依存関係にある単語間の距離と再現率.}\label{fig:distance-recall}\end{figure}\subsection{述語項構造情報}\label{sect:predicate-arguments-results}\Sect{sect:introduction}で述べたように,述語項構造は構文構造と密接な関係があるため,構文構造に有効な情報を持たせれば,述語と項を直接抽出することが可能である.本節では,文法機能タイプ付き依存構造解析から抽出可能な述語項構造の情報の精度について評価を行う.述語項構造を抽出するために直接目印となる文法機能タイプは,必須項の格関係(\tp{nsubj},\tp{dobj},\tp{iobj})と内の関係の関係節(\tp{rcmod\_subj},\tp{rcmod\_dobj},\tp{rcmod\_iobj})である.依存構造解析結果から,述語を起点としてこれらの文法機能タイプを辿ることによって,述語,格関係,項の3つ組$(\mathit{pred},\mathit{rel},\mathit{arg})$を抽出する.述語~$\mathit{pred}$は,動詞(サ変名詞を含む)か形容詞(形状詞を含む),項~$\mathit{arg}$は,項の主辞の名詞,~$\mathit{rel}$は,主格(\dt{nsubj}),対格(\dt{dobj}),与格(\dt{iobj})である.正解データは,本論文で用いた京大コーパスのデータのうち,NAISTテキストコーパスver.~1.5(以下,NAISTコーパス)\cite{Iida:2007:LAW}に収録されている述語項構造をこの3つ組に変換することによって作成した.基本的には,NAISTコーパス中の格関係``ga'',``o''および``ni''をそれぞれ\dt{nsubj},\dt{dobj},\dt{iobj}に対応させた.ただし,能動態,使役態等の格交替が起きている場合でも,NAISTコーパス中の格関係は能動態のものに直して表示されているため,コーパス中の態での格関係になるように人手で修正した.また,抽出された3つ組のうち,ゼロ代名詞が含まれているものは除外し,コーパス中の依存構造で正解が抽出できる述語項の関係のみに絞った.最終的に,6,435組を正解の述語項関係として抽出した.本実験では,述語項構造解析器SynCha~\cite{Iida:2011:ACL}や項の情報を扱える構文解析器KNPと条件を合わせて比較するため,平文を入力として,MeCabで短単位への形態素解析を行い,Comainuでの長単位チャンキングを経由してMaltParserまたはUDPipeで依存構造解析を行った(長単位依存構造解析).SynChaは,入力された平文をCaboChaで文節依存構造解析を行った結果に対して,述語項構造解析を行い,KNPは,入力された平文を文節依存構造解析と行い,出力された各関係の情報を述語項構造情報に変換した\footnote{Synchaはver.0.3.1,KNPは,ver.4.1-betaを用いた.}.\Tab{tbl:pas-results}は,抽出された述語項の3つ組と正解データを比較した結果である.\PCH,\CWHは,構文解析精度の結果では\HFo,\HFtに及ばなかったが,述語項構造情報の精度に関して,MaltParserでは\PCH,UDPipeでは\CWHが最も良い結果となっている.このことは,\PCH,\CWHが述語句内の内容語を主辞とすることにより,項になる要素と述語で直接の依存構造が構成される特徴によるものと考えられる.SynChaは,ゼロ代名詞の認定や照応解析も行っており直接的な比較はできないが,本論文の単語依存構造解析結果から抽出した述語項構造の精度は,構文解析(文節依存構造解析)と述語項構造解析を2段階で行っているSynChaの精度を十分に上回っており,依存構造解析時に同時に単語間の格関係を同定することが妥当であることを示していると考えられる.特に,\PCH,\CWHの結果は,再現率はKNPには及ばないが,適合率,F$_1$scoreでは同等以上の結果が得られている.\begin{table}[t]\caption{述語項構造情報獲得結果(長単位)}\label{tbl:pas-results}\input{07table18.tex}\end{table}また,本論文の文法機能タイプ付き依存構造解析のように,述語項構造解析と構文解析と同時に行っている場合,構文解析と述語項構造解析を多段で行った場合に比べて両者の整合性を保持しやすい利点がある.典型的な例は,「庭から逃げた猫の足跡」のように,主名詞を含む名詞句に「AのB」を持つような関係節を含む解析である.名詞Aが関係節の項に成る場合は,通常関係節の述語と名詞Aの間に依存関係があると考えられるが,単語依存構造解析の場合は,これらの関係を同時に扱うことができる.この例で,述語「逃げる」と統語的に関係のある語を「猫」とするのか,「足跡」なのか判断が難しい場合であっても,述語「逃げる」の主格の項が「猫」になり可能性が高いと推定できたとすると,述語「逃げる」と名詞「猫」の間に\dt{rcmod\_nsubj}という文法機能タイプを持つ依存構造を構成し,自動的に「逃げる」と「猫」の間に統語的関係があるという解析結果になる.構文解析と述語項構造解析の多段処理の場合は,前段の構文解析での判断が難しく,誤った依存構造を構成してしまうと,後段の述語項構造解析でその誤りを伝播させる可能性が高まる.また,前段の構文解析結果と後段の述語項構造解析の結果で整合が取れる保証もない.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f11.eps}\end{center}\caption{単語依存構造解析と述語項構造解析の結果の例(その1).}\label{fig:predarg-worddep1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f12.eps}\end{center}\caption{単語依存構造解析と述語項構造解析の結果の例(その2).}\label{fig:predarg-worddep2}\end{figure}\Fig{fig:predarg-worddep1}は,単語依存構造解析の結果,文節依存構造解析と述語構造解析の2段処理による結果の実際の例である.単語依存構造解析の結果では,述語「接する」と項「イタリア」が主格と述語の連体修飾関係(\dt{rcmod\_nsubj})で依存構造を構成しており,構文解析結果と述語項構造解析結果が整合している.文節依存構造解析では,述語を含む文節「接する」と文節「政治動向は」で誤った依存構造を構成している一方で,述語項構造解析では正しい項「イタリア(の)」を抽出しており,両解析結果で整合が取れていない.また,\Fig{fig:predarg-worddep2}の単語依存構造解析の結果では,述語「見落とされる」と項「仕組み」が主格と述語の連体修飾関係(\dt{rcmod\_nsubj})で依存構造を構成している.それに対し,文節依存構造解析では,述語を含む文節「見落とされている」と文節「政治の」で誤った依存構造を構成した結果,正しい項「仕組み」を抽出することに失敗している.実験で使用したテストセットに含まれるこのような構造75例のうち,文法機能タイプ付き単語構造解析では42例で述語項構造と依存構造が正しく抽出できたのに対して,CaboCha,SynChaの多段処理で正しく抽出できたのものは,6例に止まった.\subsection{評価のまとめ}\label{sect:evaluation-summary}\Sect{sect:evaluation}では,依存構造スキーマ,依存構造の単位,述語項構造情報の3点に着目して構文解析器への適用性を評価した.使用した構文解析器は,transitionベースの2種類に限定しており,素性設計を最適化しているわけではないため,確定的な結論は導き出せないが,評価実験によって得られた本論文の単語依存構造を解析器で使用する場合の傾向,特性について以下で述べる.依存構造スキーマについては,後置詞句において機能語を主辞とする項機能語主辞型の\HFo,\HFt,\PCHが構文解析の全体的な精度が高い傾向にある.特に,述語文節結合型と組み合わせた\HFtが他の2つのスキーマより僅かに高い精度を出している.この結果は,格助詞等の機能語で後置詞の統語的役割を決め,述語は後続する機能語からなる述語句を単位として他の句と統語的関係を持つという日本語の特性を反映していると考えられる.依存構造の単位を,長単位にするか短単位にするかは,\Tab{tbl:parsing-results-wordunit}のMaltParserの結果のみからは判断が難しいが,UDPipeの長単位の結果が,ほぼ全てのスキーマにおいて,UDPipe短単位の結果,MaltParserの長単位,短単位の結果を上回っていることから,解析器への適用面でも,構文構造を見通し良く表現できる長単位ベースの依存構造を用いるのが良いと考える.また,本実験の結果は,長単位チャンキングの誤りを含んでいるので,チャンキングの精度向上によっても,解析精度全体の向上が期待できる.また,\Tab{tbl:parsing-results-dtypecat}に示されるように,連用修飾関係以外の主要な文法機能タイプを持つ依存構造について,長単位ベースの項機能主辞型\HFo,\HFt,\PCHの単語依存構造解析の精度が文節依存構造解析のCaboChaの精度と同等以上の結果を出しており,日本語の構文解析として単語依存構造を用いることは実用性があると考える.述語項構造情報の取得に関しては,全てのスキーマで2段階解析のSynChaの結果を上回っており,述語項構造情報を考慮しながら構文解析を行っている効果が表れていると考えている.述語項構造情報の取得に関しては,内容語主辞型の\PCH,\CWHが高い精度を出しており,格助詞等の手がかりがない関係節において,内容語同士の関係を捉えやすいスキーマの特性が反映されていると考えられる.以上の結果から,構文解析の精度を重視する場合,長単位ベースで項機能語主辞型のスキーマ,特に\HFtが第1候補として挙げられる.また,述語項構造情報を扱う場合は,\PCH,\CWHが有利だと考えられる.ただし,現実的には,タスクに応じて複数の依存構造スキーマのコーパスや解析モデルを用意することは効率が悪いため,\HFtなど一つのスキーマをベースとして,UDを含む他のスキーマへ変換可能な情報を付加した拡張スキーマを策定することが一つの有力な方法であると考える. \section{単語間依存構造の課題} \label{sect:problems}\subsection{名詞句の内部構造の扱い}依存構造の単位としてBCCWJの長単位を採用することで,機能語間の関係のように重要度の低い依存関係を無視できる反面,名詞句内の内部構造のような構造の表現能力に制約がある.例えば,「以降」のように短単位品詞が「名詞-普通名詞-副詞可能」である語や,「解消」のように「名詞-普通名詞-サ変可能」である語は,先行する名詞句と結合して一つの長単位を構成するため,前方から修飾する要素がある場合に長単位全体と依存関係を作ることになる.例えば,「昨年/の/事件以降」「項構造/の/曖昧性解消」という長単位に区切られるため「昨年の事件」「項構造の曖昧性」という単位の名詞句を切り出すことができない.この問題に関しては,全てを短単位の依存構造として扱う方法,あるいは,このような名詞句の構造を別の階層として扱う方法等が考えられるが,前者は解析精度への影響の面,後者は文節依存構造と同様に階層的構造の処理を別に考慮する複雑さが生じるという面がある.また,依存構造解析の単位として,長単位と短単位の中間的な単位を定義するという選択肢も考えられる.ただし,一貫性を確保できる明確な定義など,さらなる検討が必要である.\subsection{アスペクト・ムードの扱い}本論文の依存構造では,複雑になることを避けるため,アスペクト,ムードを含む助動詞,補助動詞等を一括して扱い,項と述語のまとまりに後に結合するか(1型),述語と先に結合するか(2型)の2種類に分類した.しかしながら,寺村の分類~\cite{寺村:1984}にあるように,アスペクトを表す補助動詞を述語と結合して「コト」(叙述内容)の構造を一旦構成し,テンス,推量や説明等の概言のムードと呼んでいる助動詞,助詞類を外側に結合するという文の構成を,依存構造や文法機能タイプに反映させることは,文全体の意味解析処理に利用する上で有用であると考えられる.これを実現するためには,アスペクト,ムードの分類とともに,文法機能タイプ,依存構造への反映方法が検討事項となる.\subsection{UniversalDependenciesとの関係}UDは,依存構造スキーマ\CWHと類似した構造を持っているが,本論文の評価結果からは,項機能語主辞型の\HFo,\HFt,\PCHに比べて,精度面で低くなる傾向が見られている.また,本論文で文法機能タイプとして導入した連体修飾節の区別はUDでは存在しないなど,UDの方が情報量が少ない傾向にあるため,言語リソースを構築する際には,スーパーセットとして本論文で述べたようなスキーマで行い,UDに変換するという方法も有力であると考える\footnote{UDの言語依存仕様としてサブタイプを定義する方法も考えられる.}.構文解析器で,UDの結果を得ようとする際には,直接UDの構造を出力するのではなく,構造の近い\PCHで解析結果を得て,UDに変換することも選択肢になると考えられる.UDの主要な文法機能タイプは,連体修飾や付加項の細分類を除いてほぼ同等であるので,文法機能タイプの変換に関しては可能であると考えられる.構造的な変換に関しては,全面的に内容語が主辞になる構造や,先頭の要素が主辞になる並列構造への等への対応を検討する必要がある. \section{まとめ} \label{sect:conclusion}本論文では,日本語の構文解析において,構文の構成素と整合する単語を単位とし,かつ文法機能情報を利用可能にするため,文法機能タイプ付き単語依存構造解析を提案した.6タイプの依存構造スキーマを考え,それぞれについて依存構造モデルを構築し,構文解析器での解析精度について調べた.全般的に,後置詞句においては機能語を主辞とするスキーマが精度的に有利であるという傾向があり,項機能語主辞型の単語依存構造解析は,文節依存構造解析と同等の精度が実現可能であることが確かめられた.さらに,単語依存構造解析の文法機能タイプにより得られる述語項構造情報は,構文解析と多段で行う述語項構造解析に匹敵する精度であることが確認された.意味解析との親和性をより高めるために,名詞句の構造の洗練化やアスペクト,ムード等の文構造の反映方法が今後の検討事項であると考えている.また,多言語横断の構文解析の枠組みを目指したUniversalDependenciesの対応についても,解析精度や情報量の面で有利である本論文で扱った依存構造スキーマを介して解析,変換を行うことは有力な方法の一つであると考える.\acknowledgmentUniversalDependenciesを通じて,日本語の単語依存構造について活発にご議論いただいているUniversalDependencies日本語チームの皆様に感謝申し上げます.本稿は,ACL-IJCNLP2015:Word-basedJapaneseTypedDependencyParsingwithGramaticalFunctionAnalysisで発表した内容をもとに,加筆修正を行ったものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA金山\JBA宮尾\JBA田中\JBA大村\JBA村脇\JBA松本}{浅原\Jetal}{2019}]{Asahara:2019:JNLP}浅原正幸\JBA金山博\JBA宮尾祐介\JBA田中貴秋\JBA大村舞\JBA村脇有吾\JBA松本裕治\BBOP2019\BBCP.\newblockUniversalDependencies日本語コーパス.\\newblock\Jem{自然言語処理},{\Bbf26}(1),\mbox{\BPGS\3--36}.\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2018}]{Asahara:2018:JNLP}浅原正幸\JBA松本裕治\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造アノテーション.\\newblock\Jem{自然言語処理},{\Bbf25}(4),\mbox{\BPGS\331--356}.\bibitem[\protect\BCAY{戸次}{戸次}{2010}]{Bekki:2010}戸次大介\BBOP2010\BBCP.\newblock\Jem{日本語文法の形式理論}.\newblockくろしお出版.\bibitem[\protect\BCAY{Bond,Fujita,\BBA\Tanaka}{Bondet~al.}{2008}]{Bond:2008:LRE}Bond,F.,Fujita,S.,\BBA\Tanaka,T.\BBOP2008\BBCP.\newblock\BBOQTheHinokiSyntacticandSemanticTreebankofJapanese.\BBCQ\\newblock{\BemJournalofLanguageResourcesandEvaluation},{\Bbf42}(2),\mbox{\BPGS\243--251}.\bibitem[\protect\BCAY{Butler,Zhou,\BBA\Yoshimoto}{Butleret~al.}{2012a}]{Butler:2012:ANLP}Butler,A.,Zhou,Z.,\BBA\Yoshimoto,K.\BBOP2012a\BBCP.\newblock\BBOQProblemsforSuccessfulBunsetsuBasedParsingandSomeSolutions.\BBCQ\\newblock\Jem{言語処理学会第18回年次大会予稿集},\mbox{\BPGS\951--954}.\bibitem[\protect\BCAY{Butler,Hotta,Otomo,Yoshimoto,Zhou,\BBA\Zhu}{Butleret~al.}{2012b}]{Butler:2012:WS}Butler,A.,Hotta,H.,Otomo,R.,Yoshimoto,K.,Zhou,Z.,\BBA\Zhu,H.\BBOP2012b\BBCP.\newblock\BBOQKeyakiTreebank:PhraseStructurewithFunctionalInformationforJapanese.\BBCQ\\newblock\Jem{テキストアノテーションワークショップ,国立国語学研究所}.\bibitem[\protect\BCAY{Copestake,Flickinger,Pollard,\BBA\Sag}{Copestakeet~al.}{2005}]{Copestake:2005:LRC}Copestake,A.,Flickinger,D.,Pollard,C.,\BBA\Sag,I.~A.\BBOP2005\BBCP.\newblock\BBOQMinimalRecursionSemantics:AnIntroduction.\BBCQ\\newblock{\BemResearchonLanguageandComputation},{\Bbf3}(4),\mbox{\BPGS\281--332}.\bibitem[\protect\BCAY{de~Marneffe\BBA\Manning}{de~Marneffe\BBA\Manning}{2008}]{DeMarneffe:2008:COLINGWS}de~Marneffe,M.-C.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2008\BBCP.\newblock\BBOQTheStanfordTypedDependenciesRepresentation.\BBCQ\\newblockIn{\BemProceedingsofCOLING2008WorkshoponCross-frameworkandCross-domainParserEvaluation},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{de~Marneffe,Silveira,Dozat,Haverinen,Ginter,Nivre,\BBA\Manning}{de~Marneffeet~al.}{2014}]{DeMarneffe:2014:LREC}de~Marneffe,M.-C.,Silveira,N.,Dozat,T.,Haverinen,K.,Ginter,F.,Nivre,J.,\BBA\Manning,C.~D.\BBOP2014\BBCP.\newblock\BBOQUniversalStanfordDependencies:ACross-linguisticTypology.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation},LREC2014,\mbox{\BPGS\4585--4592}.\bibitem[\protect\BCAY{Den,Nakamura,Ogiso,\BBA\Ogura}{Denet~al.}{2008}]{Den:2008:LREC}Den,Y.,Nakamura,J.,Ogiso,T.,\BBA\Ogura,H.\BBOP2008\BBCP.\newblock\BBOQAProperApproachtoJapaneseMorphologicalAnalysis:Dictionary,ModelandEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation},LREC2008,\mbox{\BPGS\1019--1024}.\bibitem[\protect\BCAY{Fang,Butler,\BBA\Yoshimoto}{Fanget~al.}{2014}]{Fang:2014:ANLP}Fang,T.,Butler,A.,\BBA\Yoshimoto,K.\BBOP2014\BBCP.\newblock\BBOQParsingJapanesewithaPCFGTreebankGrammar.\BBCQ\\newblock\Jem{言語処理学会第20回年次大会予稿集},\mbox{\BPGS\432--435}.\bibitem[\protect\BCAY{Gunji}{Gunji}{1987}]{Gunji:1987}Gunji,T.\BBOP1987\BBCP.\newblock{\BemJapanesePhraseStructureGrammar:AUnification-BasedApproach}.\newblockD.Reidel(Kluwer).\bibitem[\protect\BCAY{星野\JBA宮尾\JBA須藤\JBA林\JBA永田}{星野\Jetal}{2019}]{Hoshino:2019:IPSJ}星野翔\JBA宮尾祐介\JBA須藤克仁\JBA林克彦\JBA永田昌明\BBOP2019\BBCP.\newblock統計的機械翻訳のための統語に基づく単純な事前並べ替え手法.\\newblock\Jem{情報処理学会論文誌},{\Bbf60}(3),\mbox{\BPGS\890--902}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{Iida:2007:LAW}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-argumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsofthetheLinguisticAnnotationWorkshop},LAW'07,\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{Iida:2011:ACL}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQACross-LingualILPSolutiontoZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},ACL-HLT2011,\mbox{\BPGS\804--813}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{ikehara:1997}池原悟\JBA宮崎雅弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{金山\JBA宮尾\JBA田中\JBA森\JBA浅原\JBA植松}{金山\Jetal}{2015}]{Kanayama:2015:ANLP}金山博\JBA宮尾祐介\JBA田中貴秋\JBA森信介\JBA浅原正幸\JBA植松すみれ\BBOP2015\BBCP.\newblock日本語UniversalDependenciesの試案.\\newblock\Jem{言語処理学会第21回年次大会予稿集},\mbox{\BPGS\505--508}.\bibitem[\protect\BCAY{Kaplan\BBA\Bresnan}{Kaplan\BBA\Bresnan}{1982}]{Kaplan:1982:MRGR}Kaplan,R.~M.\BBACOMMA\\BBA\Bresnan,J.\BBOP1982\BBCP.\newblock\BBOQLexical-FunctionalGrammar:aFormalSystemforGrammaticalRepresentation.\BBCQ\\newblock{\BemTheMentalRepresentationofGrammaticalRelations},\mbox{\BPGS\173--281}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara:2006:HLTNAACL}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-lexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationofComputationalLinguistics},HLT-NAACL2006,\mbox{\BPGS\176--183}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo:2002:CoNLL}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisUsingCascadedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonNaturalLanguageLearning},\lowercase{\BVOL}~20of{\BemCoNLL2002},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Kudo,\protect\mbox{Yamamoto},\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo:2004:EMNLP}Kudo,T.,\protect\mbox{Yamamoto},K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP2004,\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{2003}]{Kurohashi:2003}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP2003\BBCP.\newblock{\BemBuildingaJapaneseParsedCorpus--whileImprovingtheParsingSystem},\BCH~14,\mbox{\BPGS\249--260}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa:2014:LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48}(2),\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{増市\JBA大熊}{増市\JBA大熊}{2003}]{Masuichi:2003:JNLP}増市博\JBA大熊智子\BBOP2003\BBCP.\newblockLexicalFunctionalGrammarに基づく実用的な日本語解析システムの構築.\\newblock\Jem{自然言語処理},{\Bbf10}(2),\mbox{\BPGS\79--109}.\bibitem[\protect\BCAY{McDonald,Nivre,Quirmbach-Brundage,Goldberg,Das,Ganchev,Hall,Petrov,Zhang,T{\"{a}}ckstr{\"{o}}m,Bedini,Castell{\'{o}},\BBA\Lee}{McDonaldet~al.}{2013}]{McDonald:2013:ACL}McDonald,R.,Nivre,J.,Quirmbach-Brundage,Y.,Goldberg,Y.,Das,D.,Ganchev,K.,Hall,K.,Petrov,S.,Zhang,H.,T{\"{a}}ckstr{\"{o}}m,O.,Bedini,C.,Castell{\'{o}},N.~B.,\BBA\Lee,J.\BBOP2013\BBCP.\newblock\BBOQUniversalDependencyAnnotationforMultilingualParsing.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},ACL2013,\mbox{\BPGS\92--97}.\bibitem[\protect\BCAY{Mori,Ogura,\BBA\Sasada}{Moriet~al.}{2014}]{Mori:2014:LREC}Mori,S.,Ogura,H.,\BBA\Sasada,T.\BBOP2014\BBCP.\newblock\BBOQAJapaneseWordDependencyCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation},LREC2014,\mbox{\BPGS\753--758}.\bibitem[\protect\BCAY{Nagata\BBA\Morimoto}{Nagata\BBA\Morimoto}{1993}]{Nagata:1993:IEICE}Nagata,M.\BBACOMMA\\BBA\Morimoto,T.\BBOP1993\BBCP.\newblock\BBOQAUnification-basedJapaneseParserforSpeech-to-speechTranslation.\BBCQ\\newblock{\BemIEICETransactiononInformationandSystems},{\BbfE76-D}(1),\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2015}]{Nivre:2015:CICLing}Nivre,J.\BBOP2015\BBCP.\newblock\BBOQTowardsaUniversalGrammarforNaturalLanguageProcessing.\BBCQ\\newblockIn{\BemComputationalLinguisticsandIntelligentTextProcessing-16thInternationalConference,CICLing2015,Cairo,Egypt,April14--20,2015,Proceedings,PartI},\mbox{\BPGS\3--16}.\bibitem[\protect\BCAY{Nivre,Hall,Nilsson,Chanev,Ery{\.{i}}{\v{g}}{\.{i}}t,K{\"{u}}bler,Marinov,\BBA\Marsi}{Nivreet~al.}{2007}]{Nivre:2007:NLE}Nivre,J.,Hall,J.,Nilsson,J.,Chanev,A.,Ery{\.{i}}{\v{g}}{\.{i}}t,G.,K{\"{u}}bler,S.,Marinov,S.,\BBA\Marsi,E.\BBOP2007\BBCP.\newblock\BBOQMaltParser:ALanguage-independentSystemforData-drivenDependencyParsing.\BBCQ\\newblock{\BemJournalofNaturalLanguageEngineering},{\Bbf13}(2),\mbox{\BPGS\95--135}.\bibitem[\protect\BCAY{Noro,Hashimoto,Tokunaga,\BBA\Tanaka.}{Noroet~al.}{2005}]{Noro:2005:SYM}Noro,T.,Hashimoto,T.,Tokunaga,T.,\BBA\Tanaka.,H.\BBOP2005\BBCP.\newblock\BBOQBuildingaLarge-scaleJapaneseSyntacticallyAnnotatedCorpusforDerivingaCFG.\BBCQ\\newblockIn{\BemProceedingsofSymposiumonLarge-ScaleKnowledgeResources},\mbox{\BPGS\159--162}.\bibitem[\protect\BCAY{小椋\JBA小木曽\JBA小磯\JBA冨士池\JBA相馬}{小椋\Jetal}{2007}]{Ogura:2007:ANLP}小椋秀樹\JBA小木曽智信\JBA小磯花絵\JBA冨士池優美\JBA相馬さつき\BBOP2007\BBCP.\newblock「現代日本語書き言葉均衡コーパス」の短単位解析について.\\newblock\Jem{言語処理学会第13回年次大会予稿集},\mbox{\BPGS\720--723}.\bibitem[\protect\BCAY{小澤\JBA内元\JBA伝}{小澤\Jetal}{2014}]{Kozawa:2014:JNLP}小澤俊介\JBA内元清貴\JBA伝康晴\BBOP2014\BBCP.\newblock長単位解析器の異なる品詞体系への適用.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\379--401}.\bibitem[\protect\BCAY{Sag,Wasow,\BBA\Bender}{Saget~al.}{2003}]{Sag:2003}Sag,I.~A.,Wasow,T.,\BBA\Bender,E.~M.\BBOP2003\BBCP.\newblock{\BemSyntacticTheory:AFormalIntroduction}.\newblock2ndEdition,CSLIPublications.\bibitem[\protect\BCAY{Siegel\BBA\Bender}{Siegel\BBA\Bender}{2002}]{Siegel:2002:WS}Siegel,M.\BBACOMMA\\BBA\Bender,E.~M.\BBOP2002\BBCP.\newblock\BBOQEfficientDeepProcessingofJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianLanguageResourcesandInternationalStandardizationatthe19thInternationalConferenceonComputationalLinguistics},\lowercase{\BVOL}~12,\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Straka\BBA\Strakov{\'{a}}}{Straka\BBA\Strakov{\'{a}}}{2017}]{udpipe:2017}Straka,M.\BBACOMMA\\BBA\Strakov{\'{a}},J.\BBOP2017\BBCP.\newblock\BBOQTokenizing,POSTagging,LemmatizingandParsingUD2.0withUDPipe.\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL2017SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies},\mbox{\BPGS\88--99},Vancouver,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Tanaka,Miyao,Asahara,Uematsu,Kanayama,Mori,\BBA\Matsumoto}{Tanakaet~al.}{2016}]{Tanaka:2016:LREC}Tanaka,T.,Miyao,Y.,Asahara,M.,Uematsu,S.,Kanayama,H.,Mori,S.,\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQUniversalDependenciesforJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation},LREC2016,\mbox{\BPGS\1651--1658}.\bibitem[\protect\BCAY{Tanaka\BBA\Nagata}{Tanaka\BBA\Nagata}{2013}]{Tanaka:2013:SPMRL}Tanaka,T.\BBACOMMA\\BBA\Nagata,M.\BBOP2013\BBCP.\newblock\BBOQConstructingaPracticalConstituentParserfromaJapaneseTreebankwithFunctionLabels.\BBCQ\\newblockIn{\BemProceedingsoftheFourthWorkshoponStatisticalParsingofMorphologically-RichLanguages},SPMRL2013,\mbox{\BPGS\108--118}.\bibitem[\protect\BCAY{寺村}{寺村}{1984}]{寺村:1984}寺村秀夫\BBOP1984\BBCP.\newblock\Jem{日本語のシンタックスと意味I--III}.\newblockくろしお出版.\bibitem[\protect\BCAY{Uchimoto\BBA\Den}{Uchimoto\BBA\Den}{2008}]{Uchimoto:2008:LREC}Uchimoto,K.\BBACOMMA\\BBA\Den,Y.\BBOP2008\BBCP.\newblock\BBOQWord-levelDependency-structureAnnotationtoCorpusofSpontaneousJapaneseanditsApplication.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation},LREC2008,\mbox{\BPGS\3118--3122}.\bibitem[\protect\BCAY{Uematsu,Matsuzaki,Hanaoka,Miyao,\BBA\Mima}{Uematsuet~al.}{2013}]{Uematsu:2013:ACL}Uematsu,S.,Matsuzaki,T.,Hanaoka,H.,Miyao,Y.,\BBA\Mima,H.\BBOP2013\BBCP.\newblock\BBOQIntegratingMultipleDependencyCorporaforInducingWide-coverageJapaneseCCGResources.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},ACL-2013,\mbox{\BPGS\1042--1051}.\end{thebibliography}\begin{biography}\bioauthor{田中貴秋}{1996年大阪大学大学院基礎工学研究科修士課程修了.同年,日本電信電話株式会社入社.2007年--2012年西日本電信電話株式会社研究開発センタ勤務.現在,日本電信電話株式会社コミュニケーション科学基礎研究所にて自然言語処理の研究に従事.言語処理学会,人工知能学会各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所上席特別研究員.工学博士.自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V17N01-02
\section{はじめに} \label{sec:introduction}現在では,ウェブ上の文書をはじめとして,多種多様な文書に簡単にアクセスすることができる.ニュースやブログの記事にはさまざまな出来事が記述され,その中には数多くの地名が含まれている.地名等の固有名詞は辞書未登録語であることが多く,文書の自動処理における未知語処理の問題の主因の一つとなっている.地名は,人名や組織名等の他の固有名詞と比べてその要素に変動が少なく,詳細な辞書の作成が可能という特徴がある.地名については,地図作成や郵便業務等のため,どの国でも詳細な辞書が存在するため,これを利用することでその地名に付随する国や場所等の属性を得ることが可能である.しかし,文書中に出現する地名はその文書の記述言語を母語とする国の地名であるとは限らず,ニュース文書等にあっては理論上全世界のどの地名でも現れ得る.そのため,地名の特定にはすべての国の詳細な地名辞書を確認する必要があることとなり,これは,効率の面からも,辞書の記述方式や記述粒度の不統一の面からも,現実的であるとはいえない.外国も含めたエリア推定を行うには,(1)地名文字列の認識,(2)地名文字列の国推定,(3)地名文字列と場所との対応付け,の三段階の処理が必要である.例を挙げれば,(1)で``Sparta''という語を地名と認識し,(2)で所属国がギリシャかアメリカである可能性が高いと推定し,(3)でその文書中での``Sparta''がアメリカのウィスコンシン州の地名を指していることを示すとの手順である.このうち(1)の地名文字列の認識については固有名詞認識処理の研究が盛んに行われており,また(3)の地名文字列と場所との対応付けについては,前述の例のように複数の国に出現する可能性のある曖昧な地名を対象として,地名の辞書引きを行い文脈情報と照らし合わせて地名を特定する手法が主に研究されている.それに対して,(2)の地名文字列の国推定処理についてはほとんど研究されておらず,国がわからないため辞書引き対象とする辞書が特定できない場合には対応できていない.そこで本稿では,(3)の処理の前処理として,地名に対してその所属する国を十分に絞り込む手法を提案する.ここでの十分な絞込みとは,可能性のある国を三個以下に抑えることを意味する.``Sparta''という地名がギリシャとアメリカの両方にあるように,複数の国に同一の地名が存在する可能性があるなど,すべての地名について国を一意に絞り込むことは必ずしも正しいとはいえない.所属国候補の数を三個以下まで絞り込むことができれば,最終的な地名の判別は辞書ベースで行う等,他の手法との組合せによる精度の向上の実現が期待できる.本稿では,辞書を利用できない状況を想定しているため,地名の持つ表層情報のみを処理に用いる.これは,言語識別タスクの一つと位置づけることが可能であるが,地名は一般に二単語程度の短い単語列であり,利用できる情報が極端に少ないことが,通常の文章を対象とした言語識別と大きく異なる点である. \section{地名の持つ表層情報を活用した所属国推定} \label{sec:area-identification-with-surface-features}これまでの地名に対するエリア推定における場所との対応付け処理は,(i)地名辞書,(ii)文脈情報,(iii)地理的社会的情報,の三つの要素を組み合わせることによって問題解決を試みるアプローチが主流であった.このアプローチの問題点は,場所の特定を行うために必要な言語リソースをあらかじめ大量に準備しなければならないことにある.事前に用意した辞書から得ることができる情報を参照しながら,文書中で地名が出現する前後の文脈を考慮して地名と場所の対応付けが行われるが,複数の場所が候補としてあがる場合が多く,そのときには曖昧性の解消を行うことになる.機械翻訳等と同様に,このような地名の曖昧性の解消のために必要な詳細な情報を事前に用意しておく必要がある.また,地理的情報や社会的情報は付加的なものであり,この曖昧性解消に有効な情報を十分に収集することが困難な場合もある.このようなアプローチにおいては,文脈情報や付加的な情報を使うことが難しい場合には,地名辞書の中にその地名が載っているかどうかが,地名と場所の対応付けの精度を大きく決定づけることになる.これら三つの要素をなるべく使わずに地名と場所の対応づけを行うことができれば,少ない事前準備で,比較的簡単にエリア推定を実現することが可能となる.前述のような地名辞書や文脈情報,地理的社会的情報等を使わずに,地名の表層情報のみを用いて所属国を推定するために,Sanoらは$n$-gram情報等の地名の表層に現れる特徴に着目した分類器を用いた推定手法を提案している~\cite{tomohisa07snlp}.Sanoらは,SVMを二値分類器として使用し,ある地名が対象国の地名であるかどうかを判定することで,所属国候補を選び出している.Sanoらの手法は文字単位の統計情報のみを素性とするシンプルな手法であるにもかかわらず,実験の結果として最高で0.93,最低で0.69のF値を得ていることから,表層的な情報は地名の所属国推定に有用な特徴を有しているものと考えられる.しかし,地名文字列が所属国を特定するのに十分な情報を有していない場合には,ほとんどの国が候補として残ってしまう場合があった.これは,正しい所属国が候補から削除されてしまうことを避けるために適合率よりも再現率をより重視していることに起因している.その結果として,国によっては適合率が55.09\%と低くなる場合があり,どんな国に対しても高い精度の推定が可能な手法の提案が課題となっていた.この問題を解決するためには,所属国推定の結果として候補の数が多くならないように,可能性の低い候補を見つけ出して除去する処理が必要となる.候補に正解を残したまま,候補の数を削減することが可能となれば,適合率を向上させることができる.そこで,本稿では,Sanoらの手法と同様に地名が持つ表層的な情報のみを利用して,所属する可能性の高い候補の推定処理に加え,所属する可能性の低い候補の除去による絞込み処理を行うことで,再現率と適合率の双方の向上を実現する手法を提案する. \section{所属国推定のための表層情報} \label{sec:surface-features}本節では本稿で対象とする国の地名が持つ表層情報の特徴について述べる.ここでは,対象となる国の地名が含まれるコーパスから得られる情報を明らかにし,そこから読みとることのできる特徴を示し,表層情報を用いた所属国の推定を実現するために必要な手がかりを挙げていく.地名は一般的に,数単語から成るたかだか十数文字程度の文字列であるため,そこから得られる情報は決して多いとはいえない.しかし,人間には地名の所属国の推測が可能であることから,地名文字列から得られる表層的な特徴は所属国の推定を可能にする情報を有していると考えることができる.地名は,人名や組織名と比較して,その所属国に対する帰属性が高い.これは,地名そのものがその土地や言語,文化に密接に関連するものであるためである.つまり,ある特定の国に属する地名はある特定の特徴を共有し,それが文字列としての表層にも現れていると考えることができる.また,地名は文字列であるだけでなく,単語列であると捉えることも可能である.単語レベルの情報は,文字レベルの情報と比較して,より確度の高い情報をもたらすが,個々の単語の出現頻度が低いという点を考慮する必要がある.Sanoらは,ブロックとよばれる単位の頻度情報を用いてこの点に対処し,単語レベルで起こりやすいデータのスパースネスの問題を解決することで,所属国の推定の精度を向上させることができたと報告している\cite{tomohisa09ieice}.ブロックとは,一種の語頭や語尾であり,言語的特徴が地名の先頭や末尾に現れやすいという特徴を利用したものである.本稿では,地名の集合が持つ表層的な特徴を国ごとに抽出し,これを用いて所属国の推定を行う.表層的な情報のみを用いて所属国を推定する場合に必要な言語リソースは地名コーパスのみである.地名コーパスとは,国ごとに作成した地名リストを指し,その国に属する地名の集合である.本稿では,外国語文書中に埋め込まれた地名の所属国推定も想定しているため,字種情報が所属国の推定に影響しないよう,国に依らずラテン文字による記述とする.文字レベルの特徴は,約30種類の文字\footnote{本稿では,表記の揺れを排除するために,ラテン文字の大文字小文字の区別は行わない.その他,空白も文字として扱う.ただし,ウムラウト等のアクセント記号やハイフン等の記号は除去する.したがって,処理の上では計27種類の文字を用いる.例えば,``LandBaden-W\"{u}rttemberg''という地名は``LANDBADENWURTTEMBERG''として扱い,3単語22文字から成るものとする(空白も一文字と数える).}の並び方によって決定され,統計的な言語モデルを適用することで,特徴を定量的に扱うことができる.さらに,地名に含まれる文字数も一つの特徴といえる.本稿の手法は,地名コーパスを単に辞書引きの対象とするのではなく,地名コーパスから国ごとの特徴を抽出して処理を行うことで,地名コーパスに含まれていない地名に対しても所属国の推定を行うことを可能にするものである.これは,未知語処理の頑健性,柔軟性の向上に貢献するものと考える.また本稿ではラテン文字を処理対象として実験を行うが,本稿のアプローチは表層的な情報のみを用いているため字種に依存せず適用可能であり,その点で高い汎用性を持っているといえる.さらに,本稿のアプローチは地名コーパス以外の情報を一切必要としないことから,リソース準備にかかる人的労力や作業期間を大幅に軽減するものである.\subsection{地名コーパス}\label{sec:area-name-corpora}\begin{table}[b]\caption{地名コーパスに含まれる地名数,単語数,文字数}\label{tab:area-name-corpora}\input{03table01.txt}\vspace{-1\baselineskip}\end{table}本稿では,ウェブ上で多く使用される言語とそれと類似性の高い言語の地名を中心に10ヶ国\footnote{本稿では,比較を行うために台湾もひとつの国として扱い,実験を行った.}(中国,台湾,日本,タイ,ギリシャ,フィンランド,ドイツ,フランス,スペイン,アメリカ)を選択し,所属国推定の対象としている(表~\ref{tab:area-name-corpora})\kern-0.5zw\footnote{本稿の実験では,アメリカ国家地球空間情報局(NationalGeospatial-IntelligenceAgency:http://www.nga.mil)が提供する地理空間情報のデータベースGNS(GEOnetNamesServer)のデータを使用している.ただし,GNSにはアメリカの地名が含まれていないため,アメリカの地名は,アメリカ地名委員会(UnitedStatesBoardonGeographicNames:http://geonames.usgs.gov/)が提供するGNIS(GeographicNamesInformationSystem)のデータを使用している.GNSは全体としては550万件程度の地名データ,GNISは200万件程度の地名データを有している.}.本稿の実験では10の国それぞれに対して,10,000件ずつの地名データを無作為に抽出したものを地名コーパスとして用いている.コーパス全体に含まれる計100,000個の地名は,それぞれの国のなかではすべて異なるが,国の間での地名には重複するものがあり(表~\ref{tab:duplicated-toponyms}),全体での異なり数は99,794である.地名の重複は,言語的に近いと考えられる,中国と台湾,フランスとスペインの間で他の組合せよりも大きな数値であるが,全体としては0.2\%程度である.アメリカ以外のコーパスにも英語の単語が若干含まれており,例えば``富士山''はコーパス中では``FujiMountain''と記載されている.このような英語語句の利用は徹底されたものではなく,例えば``浅間山''は``Asamayama''と記載される等,現地の語句のラテン文字表記と英語を用いた表記とが混在している.\begin{table}[b]\vspace{-0.5\baselineskip}\caption{国の間における地名の重なり数}\label{tab:duplicated-toponyms}\input{03table02.txt}\end{table}\subsection{地名の長さ情報}\label{sec:name-length-data}\begin{figure}[b]\begin{center}\includegraphics{17-1ia3f1.eps}\end{center}\caption{地名コーパスに含まれる地名の文字数と単語数}\label{fig:toponym-word-char-length}\end{figure}地名を構成する単語数や文字数は国によって違いがある.さらに,各単語に含まれる文字数の分布にも違いがある.図~\ref{fig:toponym-word-char-length}は各地名コーパスに含まれる地名の文字数と単語数の国ごとの差異を表すものである.一つの地名に含まれる平均単語数は,最も少ない国で1.1単語(フィンランド),最も多い国で2.9単語(タイ)であり,すべての国での平均単語数は1.9単語である.また,一つの地名に含まれる平均文字数は,最も少ない国で9.7文字(フィンランド),最も多い国で16.5単語(アメリカ)であり,すべての国での平均文字数は11.9文字である.このように,各国の地名は,地名を構成する単語数,文字数に差異が認められるが,その差異はこれだけで所属国の推定を行うには十分とはいえない.図~\ref{fig:toponym-word-length-distribution}に国ごとの地名を構成する文字数の分布を示す.図~\ref{fig:toponym-word-length-distribution}に示されるように,例えば,タイの地名のうち約68\%の単語は3文字もしくは4文字で構成されている.また,フランスやスペインの地名は,2文字で構成される単語の割合が他の国と比べて高い.それに対して,フィンランドやドイツの地名のように,9文字や10文字で構成される単語が最も高い割合を示し,これらの国の地名は文字数の多い単語で構成されていることがわかる.このように,地名を構成する文字数にも,国ごとに特徴がある.しかし,文字数は同じ国のなかであっても地名間のばらつきがあり,この情報のみで所属国の推定を行うことは困難である.\begin{figure}[t]\begin{center}\includegraphics{17-1ia3f2.eps}\end{center}\caption{地名単語中の文字数の分布}\label{fig:toponym-word-length-distribution}\end{figure}\subsection{文字出現頻度の情報}\label{sec:ngram-data}地名の所属国の推定は,言語識別の一種である.言語識別処理では,文字の出現頻度の情報が有効であることが知られている~\cite{dunning94,Lins04}.ここでは,文字の出現頻度情報の地名の所属国の推定での有効性を検証するため,国ごとの$n$-gram情報の比較を行う.表~\ref{tab:ngram-data}は地名コーパス中に含まれる地名の文字単位の$n$-gramを取得した結果である.表中の`\texttt{\_}'は空白文字を表し,ここでは一つの文字として扱っている.表~\ref{tab:ngram-data}では,unigram,bigram,trigramの上位5つを示すとともに,各国について,10\%以上の頻度を持つunigramの個数,3\%以上の頻度を持つbigramの個数,1\%以上の頻度を持つtrigramの個数を示している.\begin{table}[b]\caption{地名コーパスの$n$-gram情報}\label{tab:ngram-data}\input{03table03.txt}\end{table}表~\ref{tab:ngram-data}から,中国と台湾の地名から得られるunigramの類似性が非常に高いことがわかる.この二つの国はunigramと同様にbigramの出現傾向も類似している.特に,`\texttt{AN}'と`\texttt{NG}'は両国で5\%以上の出現頻度を示しており,両国の他のbigramの出現頻度と比べても高い値である.これは`\texttt{ANG\_}'という文字列が両国に多く出現するためで,trigramについても`\texttt{ANG}'や`\texttt{NG\_}'の値が両方の国で高くなっている.しかし,両国の$n$-gramの出現状況には差異も見られる.このことから,各国の特徴的な$n$-gram情報を活用することで,同じ言語グループに属する地名であっても,それらの所属国を区別することは可能と考えられる.スペインのbigram情報の上位は`\texttt{A}'`\texttt{D}'`\texttt{E}'`\texttt{L}'`\texttt{\_}'の5種類の文字の組合せのみである(表~\ref{tab:ngram-data}).これは,スペインのコーパスに`MontesdeLeon'や`JerezdelaFrontera'等`\texttt{DE}'や`\texttt{LA}',`\texttt{DEL}'といった冠詞や前置詞が多く含まれるためである.この傾向は,フランスの地名にも同様に現れている.このような冠詞や前置詞は一般に文字数が少なく,2文字や3文字の場合が多い.この特徴は,図~\ref{fig:toponym-word-length-distribution}のフランスとスペインの地名を構成する単語数の分布にも現れている.また,表~\ref{tab:ngram-data}から,unigramの比較では日本とギリシャの出現傾向が近いことがわかる.しかし,bigramで比較すると両国の類似性は高いとはいえない.これにより,unigramのみによる所属国の推定は難しいことが推測できる.中国と台湾のようにbigramを用いても区別が困難な場合もある.したがって,特定の統計情報を利用するだけでは所属国の推定には限界があり,これらを適切に組み合わせることが重要であると考えられる.地名コーパスは一般に言語資源としては小さく,trigramより大きな$n$での$n$-gramはデータスパースネスの問題が顕著化する.例えば,ギリシャの場合上位5種類のtrigramを合計しても全体の出現頻度の4.57\%しかカバーしておらず,最も高い出現頻度を持つ`\texttt{OS\_}'でもカバー率は1.23\%である.上位5種類のtrigramがカバーする割合が最も高い中国や台湾のコーパスの場合でも,上位5種類のtrigramの合計でそれぞれ10.27\%,10.49\%をカバーしているにすぎない.なお,中国や台湾は特定の$n$-gramが特に高い頻度で出現する傾向が見られ,1\%以上の割合を占めるtrigramは中国コーパスには12個,台湾コーパスには11個含まれている.$n$-gramモデルの性能を評価する一つの指標として,各国の$n$-gramモデルのそれぞれの地名コーパスに対してのパープレキシティを表~\ref{tab:perplexity}に示す.各国の$n$-gramモデルは,対応する国のコーパスに対して高い性能を示しており,この$n$-gramモデルが所属国を推定するための情報を有していることが分かる.このパープレキシティの値は,対応する国に対してだけでなく,中国と台湾やフランスとスペイン等の間でも比較的小さな値となった.これは,これらの国を区別することが困難であることを示し,$n$-gramのみで所属国を判断することは,所属国の推定の精度向上に限界があることが分かる.\begin{table}[t]\caption{各国の$n$-gramモデルによる各国の地名に対するパープレキシティ}\label{tab:perplexity}\input{03table04.txt}\end{table} \section{候補絞込みと候補選択の二段階処理から成る地名の所属国の推定手法} \label{sec:two-phase-area-identification-method}地名の所属国の推定では,(i)同一の地名が複数の国に存在する場合,(ii)地名文字列に類似した特徴を持つ国が複数ある場合に,地名の所属国候補を一意に絞ることができないことがある.前者は地名の曖昧性,後者は国の類似性と考えることができる.どちらの場合でも,該当する複数の国で高い所属確率を持つ地名が存在し,これらの地名に対しては該当する複数の国を候補として出力するのが妥当であり,複数の国を候補として出力することはシステムの精度を落とすものではない.それに対して,明らかに所属国である可能性が低い国は,出力に含まれるべきではない.単に複数の候補を出力するだけでは,再現率は得られても適合率は下がり,結果的にシステムの信頼性は落ちる.本稿では,再現率と適合率の双方の向上を実現するため,二段階の処理で所属国の推定を行う手法を提案する.本手法の処理の流れを図~\ref{fig:system-overview}に示す.本手法は,所属国の候補の絞込みの第一フェーズと,所属国の候補の選択の第二フェーズの,二段階で構成されている.本システムの入力は地名文字列である.まず,各地名文字列について,所属国の候補の絞込みフェーズで全10ヶ国から3ヶ国まで候補を絞り込む.この段階で,明らかに所属する可能性の低い国が候補から外される.このフェーズでは,文字単位の$n$-gram情報をベースとした生成確率を用いて処理を行う.次に,所属国の候補の選択フェーズでこの3ヶ国それぞれに対して所属の可能性を推定し,可能性があると推定されたものを所属国の推定結果として出力する.このフェーズでは,$n$-gramの他,長さ情報等も用いる.本システムの出力は,入力地名文字列が所属する可能性のある国であり,推定結果に応じて0〜3個の国名を出力する.\begin{figure}[t]\begin{center}\includegraphics{17-1ia3f3.eps}\end{center}\caption{提案手法の処理の流れ}\label{fig:system-overview}\end{figure}\subsection{地名の生成確率を用いた所属国の候補絞込みフェーズ}\label{sec:automatic-area-identification-with-ngrams}人間による直感的な地名の所属国の推定が地名を構成する文字の並びを基にしているとすれば,\ref{sec:surface-features}~節で示したような地名に関する統計的な特徴を用いて所属国の推定をすることが可能である.本節では,地名の表層情報として$n$-gramのみを用いて所属国の候補の絞込みを行うフェーズについて述べる.ここでは,地名を構成する文字の並びが与えられたときに,その文字列が生成される確率が最も高くなるような統計情報を持つ国を選択することで所属国の候補の絞込みを行う.$n$個の文字で構成される地名$T_{1}^{n}=c_{1}\cdotsc_{n}$の国$A$における生成確率$P_A(T_{1}^{n})$を$n$-gram情報を用いて定義する(式~\ref{eqn:trigram}).\begin{equation}P_{A}(T_{1}^{n})=P_{A}(c_{1})P_{A}(c_{2}|c_{1})P_{A}(c_{3}|c_{1}c_{2})\cdotsP_{A}(c_{n}|c_{n-2}c_{n-1})\label{eqn:trigram}\end{equation}ここで,$P_{A}(c_{n}|c_{n-2}c_{n-1})$は国$A$において$c_{n-2}c_{n-1}$の後に$c_{n}$が出現する確率を表している.文字単位の$n$-gram情報は,ModifiedKneser-Neyディスカウンティングを用いて,低次の$n$-gram情報を補間しながら平滑化を行っている.このとき,ある地名$T$に対して,その生成確率$P_{A}(T)$が最大となるような国をその地名が属する国と推測し,それを$\hat{A}=\argmax_{A}P_{A}(T)$とする.この定義により$n$-gram情報のみを用いて$\hat{A}$を推定した結果を表~\ref{tab:accuracy-trigram}に示す.所属国の絞込みフェーズの出力の上位1位の正解率\footnote{ここでの正解率は,生成確率が最大となった国$\hat{A}$と正解が一致した割合を表す.}は平均で85.96\%であった.表~\ref{tab:accuracy-trigram}に示されるように,単純な$n$-gramでの推定でも,約86\%と高い正解率を得ることは可能である.この手法で正解率が最も高い国はタイで95.37\%,正解率が最も低い国は中国で72.70\%であった.中国と台湾の正解率が低いのは,\ref{sec:ngram-data}~節で述べた両国の$n$-gramの類似性によるものと考えられる.\begin{table}[b]\caption{生成確率による所属国の推定の正解率}\label{tab:accuracy-trigram}\input{03table05.txt}\end{table}地名の所属国の推定は,もともと同一の地名が複数の国に存在する可能性がある等,所属国名を唯一出力する形式は馴染まない.唯一の正解を判定するのではなく,所属国の候補を絞り込むことを目的とした場合,上位$n$個を候補として残すことで正解を所属国の候補から不適切に除去されるのを防ぎ,再現率を高めることができる.図~\ref{fig:ngram-coverage}は,上位三個までを候補として残した場合の正解のカバー率(正解が出力された所属国の候補に含まれた割合)を表している.図~\ref{fig:ngram-coverage}のTop1は上位一個のみ出力した場合のカバー率,Top2は上位二個まで出力した場合のカバー率,Top3は上位三個まで出力した場合のカバー率を示す.全体の平均で,上位二個までを候補とした場合,95.22\%をカバーし,上位三個までを候補とした場合には,97.46\%をカバーしている.上位三個までを選択した場合では,個々の国についても,最低でも96.03\%,最高で98.38\%の再現率を達成している.これにより,このフェーズで所属国の候補を上位三位までに絞り込むことで,98\%程度の再現率を得ることができることがわかる.\begin{figure}[t]\begin{center}\includegraphics{17-1ia3f4.eps}\end{center}\caption{生成確率による所属国の推定を行った場合の正解のカバー率}\label{fig:ngram-coverage}\end{figure}出力される所属国の候補の数を増やすことは,適合率を下げるだけでなく,可能性の低い国も候補に残るリスクがあるため,各地名に対して適切な所属国の候補を必要十分な個数だけ出力する必要がある.上位一つの国名のみを出力した場合でも,平均86\%程度の正解率を得ることができるが,各地名に対する出力候補数の妥当性の判断が困難なため,98\%程度の再現率を得るために,本フェーズではすべての地名に対して三つの所属国の候補を出力する.本手法では,このフェーズを二段階処理の第一フェーズとし,ここで3候補に絞り込んだ上で,第二フェーズである候補選択フェーズで所属国の候補それぞれに対して妥当性の検証を行う(\ref{sec:automatic-area-identification-with-svm}~節).ここで,本フェーズによる候補の絞込みの結果が妥当かつ有効であることを示す.10ヶ国の組合せは${}_{10}C_3=120$通りであるが,図~\ref{fig:ngram-coverage}で示したとおり,正解が絞込み後の3候補(120通り)に含まれる可能性はおよそ98\%である.たとえば,中国と台湾が3候補に同時に残る場合に着目すると,この組合わせは8種類あるが,そのすべての組合せが120個中上位8位までに出力しており,この二つの国が同時に候補に残る可能性が高い.同じ東アジア地域である日本が3候補のなかに残る場合では,中国,台湾,日本の3ヶ国が候補として出力された割合は,正解が中国の場合で10.67\%(3位),台湾の場合で11.17\%(3位),日本の場合で13.71\%(1位)であった.それに対して,中国,台湾,タイの組合せでは,正解が中国の場合では25.87\%(1位),台湾の場合で30.68\%(1位),タイの場合で12.76\%(1位)の割合であり,中国,台湾,日本の組合せの場合よりも高い.これは,中国語圏の地名が中国,台湾,タイの3ヶ国に絞られる割合が高いことを示している.また,西ヨーロッパの国であるドイツ,フランス,スペインにアメリカを加えた4ヶ国が互いに候補として残る確率が高くなっている.この4ヶ国は同じ言語圏に属するものではないが,歴史的,文化的背景から,他の国と比べて類似した地名が多いものと推測できる.\begin{figure}[b]\vspace{-0.5\baselineskip}\begin{center}\includegraphics{17-1ia3f5.eps}\end{center}\caption{絞込み結果の分類}\label{fig:ngram-output-category}\end{figure}ここで,同時に候補に残りやすい中国,台湾,タイの3ヶ国をグループA,ドイツ,フランス,スペイン,アメリカの4ヶ国をグループB,どちらにも含まれていないギリシャ,フィンランド,日本の3ヶ国をグループCとして,3候補に残る国の組合わせに何らかの傾向がないかどうかを調べたものが図~\ref{fig:ngram-output-category}である.図~\ref{fig:ngram-output-category}では,絞込み候補の組合せを,グループAの国が二個以上出力された場合(カテゴリA),グループBの国が二個以上出力された場合(カテゴリB),グループCの国が二個以上出力された場合(カテゴリC),すべてのグループから1ヶ国ずつ出力された場合(カテゴリD)の4つに分けて示している.「AAB」は,グループAに属する国が二つとグループBに属する国が一つから成る所属国の候補が絞込み結果として出力された地名の割合を示し,グループAに属する国が二つ以上であることから,グループAに偏った出力としてカテゴリAに入れている.この実験では各国の地名コーパスに含まれる地名数は同じなので,絞込みが完全に成功した場合には,カテゴリAには30\%,カテゴリBには40\%,カテゴリCには30\%が配分されるはずである.実際には,カテゴリAに26.77\%,カテゴリBに46.98\%,カテゴリCに18.74\%が配分された.また,3グループからそれぞれ1ヶ国ずつ候補に残るような場合(カテゴリD)は全体の7.51\%だけであり,それ以外は90\%以上の割合でどれかのグループに偏った候補が出力されていることになる.このことから,比較的同時に候補に残りやすい組合せの存在がわかり,本フェーズが所属国の候補の絞込み処理として妥当かつ有効であることがいえる.\subsection{地名の所属国選択分類器を用いた所属国の候補選択フェーズ}\label{sec:automatic-area-identification-with-svm}\ref{sec:automatic-area-identification-with-ngrams}~節の所属国の候補絞込みフェーズでは,文字の出現頻度情報のみを用いて,所属国の候補を3個まで絞り込んだ.本フェーズでは,絞込み処理後の候補を対象に,文字の出現頻度情報と長さ情報を素性として定義し,各国に所属する地名を学習することで,分類器を用いた所属国の選択を行う.分類器として用いるSVMは二値分類器であり,テストする対象となる地名がその国に属するか属さないかを判定する.このフェーズは,分類された結果からその地名が属する国の候補を選び出していくアプローチである.学習に用いる素性は,地名コーパスから得られる表層データ情報(\ref{sec:surface-features}~節)である.表層データは,大別すると,地名を構成する文字の並びの長さの情報と,文字の並びが出現する確率をベースとした$n$-gram情報の二種類がある.地名を構成する文字の並びは,所属国によって特徴が存在する.素性として用いる長さ情報は,以下の4種類である.\begin{itemize}\item[(FL1)]地名を構成する単語数\item[(FL2)]地名を構成する文字数\item[(FL3)]$n$番目の単語に含まれる文字数($1\len\le16$)\item[(FL4)]地名に含まれる$m$文字の単語の数($1\lem\le32$)\end{itemize}\ref{sec:area-name-corpora}節で述べたように,地名に含まれる文字数や単語数は国によってばらつきがあり,このばらつきが所属国を推定する手がかりとなり得る(FL1,FL2).単に文字数や単語数の情報だけでなく,国ごとに単語そのものの特徴や単語の分布具合の情報も利用することができる.例えば,フランスの地名では``la''という単語が頻繁に出現するが,そのうち約半数が最初の単語として登場する.このように,単語によっては,その単語が出現する地名内での位置に特徴がある(FL3).また,図~\ref{fig:toponym-word-length-distribution}に示したように,タイの地名は他の国の地名と比較して3文字および4文字で構成される単語の割合が圧倒的に高い等,地名に含まれる単語の文字数も国の特徴となり得る(FL4).また,素性として用いる$n$-gramの情報は,以下の3種類である.\begin{itemize}\item[(FN1)]文字単位のunigram情報\item[(FN2)]文字単位のbigram情報\item[(FN3)]文字単位のtrigram情報\end{itemize}$n$-gram情報は文字単位であり,空白等の記号も一つの文字としている.各素性の値$V$は国$A$のコーパスの$n$-gramの出現確率をベースに計算し,次のように定義する(式~\ref{eqn:feature-value}).\begin{equation}V_{A}(t,c)=P_{A}(c)\timesN(t,c)\label{eqn:feature-value}\end{equation}$c$を長さ$n$($1\len\le3$)の文字の並びとした場合,$P_{A}(c)$は国$A$における文字列$c$が出現する確率,$N(t,c)$は地名$t$の中で文字列$c$が出現した回数を示す.素性の値は,$n$-gram情報と対象とする地名に依存しており,ある文字列のその国での出現しやすさと,その地名の中での出現しやすさを示している.ここでは,地名が所属する国を正例,それ以外の国を負例として,地名コーパスから各国の地名の特徴を学習したSVMを二値分類器として利用し,入力となる地名を対象国として分類するべきかどうかを判断する.対象となる$p$個の国の中から異なる$q$個の国を選び出し(${}_{p}C_{q}$通り),選ばれた$q$個の国に対して所属国であるかどうかをそれぞれの分類器によって判定する.本フェーズでは,選ばれた$q$個の組合せごとに学習対象が異なるため,一つの組合せごとに$q$種類の分類器を用意する.本稿では,全体として10ヶ国を対象とし,絞込み処理によって3候補の組合せが選び出されるため,全体では360種類(${}_{p}C_{q}\timesq={}_{10}C_{3}\times3$)の分類器を用いている.\begin{table}[b]\caption{候補選択分類器による所属国の選択結果(中国,台湾,タイ)}\label{tab:svm-output-chthtw}\input{03table06.txt}\end{table}表~\ref{tab:svm-output-chthtw}に,グループAの3ヶ国(中国,台湾,タイ)について,この3ヶ国を対象に本分類器を用いて所属国の推定を行った結果を示す.ここでは,この3ヶ国の地名コーパスを5分割し,クロスバリデーションによる評価を行うことで,地名コーパスに存在しない地名を対象としたオープンテストとして所属国の推定の正解率\footnote{ここでの正解率は,$(pp+nn)/(pp+pn+np+nn)$で計算する.$pp$は正解を正しく分類できた回数,$pn$は不正解を誤って分類した回数,$np$は正解を誤って分類した回数,$nn$は不正解を正しく分類した回数を表す.したがって,ここでの正解率は,ある地名に対して正解を正解と推定できたか,不正解を不正解と推定できたかの両方の結果を含んでいる.}を測った.グループAに属する3ヶ国のみを対象として学習した場合,表~\ref{tab:svm-output-chthtw}に示したとおり,F値は最低で0.73,最大で0.95となった.正解が台湾の場合の適合率が59.87\%と低いが,この場合でも再現率は93.71\%であり,正解が候補として出力される確率は十分に高い.表~\ref{tab:svm-output-frgmsp}はグループBに属する4ヶ国を対象として,その中から3ヶ国ごとに対して分類器による所属国の選択を行った結果である.このグループでも,F値は最低0.75,再現率は最低で95.55\%で,正解が候補として出力される可能性は十分高い.同様に,表~\ref{tab:svm-output-figrja}はグループCに属する3ヶ国を対象として分類器による所属国の選択を行った結果である.これらの結果から,同じグループに属する国の間での分類であっても,十分な正解率が得られることが示された.同じグループに属する国は他の国に比べて類似性が高いものであり,これらの間での分類が最も難しい部分となる.10ヶ国全体を対象とした学習では,類似性の低いもの同士の間の差異の特徴が強調され,類似性の高いもの同士の間の差異の学習は進み辛いが,本フェーズでは絞込み後の3ヶ国間の分類の学習を行うことで,類似性の高い国の間での所属国の選択の精度の向上を実現した.\begin{table}[b]\caption{候補選択分類器による所属国の選択結果(ドイツ,フランス,スペイン,アメリカ)}\label{tab:svm-output-frgmsp}\input{03table07.txt}\end{table}\begin{table}[b]\caption{候補選択分類器による所属国の選択結果(ギリシャ,フィンランド,日本)}\label{tab:svm-output-figrja}\input{03table08.txt}\end{table}ここで,対象国の数による影響を調べるために,10ヶ国全てを対象として選択分類器を用いた場合の所属国推定の結果を示し,本フェーズの所属国の選択分類器の特徴を述べる.表~\ref{tab:accuracy-svm}は,クロスバリデーションで10ヶ国すべてを対象として所属国の推定を行った結果である.全ての国の地名に対して90\%以上の正解率を示し,全体でも93.54\%の正解率を示した.表~\ref{tab:fmeasure-svm}は,この実験の結果について,地名に対する所属国の候補の中に正解が含まれているか否かとの観点で集計したものである.すべての国についてF値は最低でも0.7前後であり,F値が最大となるタイの地名に関しては0.93に達している.また,全体的に適合率よりも再現率の方が高い値を示している.低い適合率は不正解を誤って所属国の候補として分類するケースがあることを表している.所属国の推定タスクを考える場合,最も大きな問題は同じ言語を使用する複数の国の間での判別である.たとえば,中国や台湾では中国語を使用している.使用している言語が同一であったり類似性の高いものであったりする場合,異なる国であっても,地名を構成する文字の並びが持つ特徴は類似したものとなる.また,言語が異なる場合でも,地理的に近い国では,文化的,歴史的背景から,似た地名が複数現れる場合がある.地名コーパスから得られる特徴が類似している場合,所属国の推定は困難となるが,国によっては複数の公用語や先住民の言語が使われることによって所属国の推定するための特徴を見出せる可能性がある.\begin{table}[b]\hfill\begin{minipage}[t]{150pt}\caption{所属国の選択分類器の精度}\label{tab:accuracy-svm}\input{03table09.txt}\end{minipage}\hfill\begin{minipage}[t]{240pt}\caption{選択分類器による国ごとの所属国候補選択の結果}\label{tab:fmeasure-svm}\input{03table10.txt}\end{minipage}\hfill\end{table}\begin{figure}[b]\begin{minipage}[t]{.48\textwidth}\begin{center}\includegraphics{17-1ia3f6.eps}\end{center}\caption{中国が候補として出力された割合}\label{fig:classification-ch+tw-ch}\end{minipage}\hfill\begin{minipage}[t]{.48\textwidth}\begin{center}\includegraphics{17-1ia3f7.eps}\end{center}\caption{台湾が候補として出力された割合}\label{fig:classification-ch+tw-tw}\end{minipage}\end{figure}図~\ref{fig:classification-ch+tw-ch}と図~\ref{fig:classification-ch+tw-tw}は,各国について選択分類器を用いて所属国の推定を行った結果として,中国または台湾が候補となった割合を示す.図~\ref{fig:classification-ch+tw-ch}と図~\ref{fig:classification-ch+tw-tw}に示されるように,中国と台湾の地名の所属国の推定では,どちらの地名も,互いを同時に候補に残す場合が多く見られ,逆に,中国と台湾以外の国が候補に残る可能性は低い.\ref{sec:surface-features}節で述べたように,中国の地名と台湾の地名では$n$-gram情報で類似した特徴を持っている(表~\ref{tab:ngram-data})が,長さの情報に違いが見られる(図~\ref{fig:toponym-word-char-length})等,差異は存在する.10ヶ国での実験結果(表~\ref{tab:fmeasure-svm})と比較して,中国と台湾のみの地名を用いて学習を行った選択分類器を用いた場合には,再現率を高く保ったままで適合率をあげることができている(表~\ref{tab:ch-tw-9},表~\ref{tab:ch-tw-2}).表~\ref{tab:ch-tw-9}と表~\ref{tab:ch-tw-2}の比較から,生成確率を用いた所属国の候補の絞込みと,選択分類器による精度の向上の組合せによって,再現率と適合率の両方を向上させることがわかる.10ヶ国で学習する場合と2ヶ国に絞って学習する場合では学習内容が異なり,10ヶ国での学習の場合では本稿の第一フェーズのような絞込みの意味合いが強いのに対して,類似の2ヶ国に絞って学習する場合ではその2ヶ国間での差異が強調される.本稿は,第一フェーズで候補の絞込みを行った上で,第二フェーズとして絞込み後の3候補のみを対象として学習した選択分類器を用いて候補選択を行うことで,地名の所属国の推定の精度を向上させるものである.\subsection{生成確率情報と選択分類器を組み合わせた地名の所属国の推定}\label{sec:consideration-ngrams+svm}本稿の提案手法は,\ref{sec:automatic-area-identification-with-ngrams}~節の生成確率を用いた候補絞込み手法を第一フェーズ,\ref{sec:automatic-area-identification-with-svm}~節の選択分類器を用いた所属国の候補選択手法を第二フェーズとした二段階の処理で所属国の推定を行うものである(図~\ref{fig:system-overview}).\begin{table}[b]\begin{minipage}[t]{.45\textwidth}\caption{10ヶ国で学習した場合(表~\ref{tab:fmeasure-svm}抜粋)}\label{tab:ch-tw-9}\input{03table11.txt}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{2ヶ国で学習した場合}\label{tab:ch-tw-2}\input{03table12.txt}\end{minipage}\end{table}\begin{table}[b]\caption{各手法を用いた所属国の推定の結果}\label{tab:result-trigram+svm}\input{03table13.txt}\end{table}表~\ref{tab:result-trigram+svm}に,\ref{sec:automatic-area-identification-with-ngrams}~節の生成確率のみを用いた手法,\ref{sec:automatic-area-identification-with-svm}~節の選択分類器のみを用いた手法,その両方を組み合わせた本提案手法のそれぞれについて,所属国の推定を行った結果を示す.生成確率のみを用いた手法ではF値は0.49と低いが,その主因は適合率の低さにある.生成確率のみを用いた手法は再現率が高く,このことから,本手法でこの手法を処理の第一段階の絞込みフェーズとして用いたことは妥当であるといえる.生成確率と選択分類器の両方を組み合わせた本手法のF値は0.83であり,選択分類器のみを用いた手法のF値0.74と比べて,向上を示した.両者の再現率にほとんど違いがないにもかかわらず,適合率は,生成確率と選択分類器を組み合わせることで,61.58\%から74.08\%へ向上しており,これがF値の改善に繋がった.\begin{figure}[b]\vspace{-0.5\baselineskip}\begin{center}\includegraphics{17-1ia3f8.eps}\end{center}\caption{3手法の適合率および再現率の比較}\label{fig:result-trigram+svm}\end{figure}選択分類器のみを用いた場合には,生成確率のみの場合と比べ,再現率は若干劣る.生成確率を用いた手法を絞込みフェーズとして用いた後に選択分類器を選択フェーズとして実行する本手法でも,再現率は選択分類器のみの場合とほぼ同じであり,絞込みフェーズの段階で再現率が98\%程度に落ちることを考え合わせると,本手法の所属国の選択フェーズでの正解の脱落は十分少ないことがわかる.図~\ref{fig:result-trigram+svm}は,各国の所属国の推定結果を表している.生成確率と選択分類器を組み合わせた本提案手法(図中の黒丸)では,再現率が95.03\%,適合率が74.08\%であり,F値が0.83であった.生成確率のみの情報を用いた手法(図中の黒三角)では適合率が32.49\%と低いが,再現率は97.46\%と高くなっている.選択分類器のみを用いた手法(図中の黒四角)では,$n$-gramと長さの情報を用いることで適合率を61.58\%に向上させている.図~\ref{fig:result-trigram+svm}では,国ごとに比較した場合でも同様の傾向が見られ,どの国に対しても効果を発揮する手法であることが期待できる.この結果は,正しい国を候補として残しつつも,正しくない国を候補から除去する能力を向上させたことを示している.これらのことから,複数の所属国の候補をまず可能性の高い所属国の候補のみに絞り込む第一フェーズと,絞込み後の候補のみに対象を絞って選択分類器に掛ける第二フェーズから成る本提案手法は,第一フェーズによる可能性の低い候補の除去と,第二フェーズによる類似している国の間の差異を用いた候補選択とがそれぞれ有効に働き,高い再現率を保ったまま適合率を向上させることができると結論付ける. \section{関連研究} \label{sec:related-work}言語の多様化にともなって,自動的に言語の識別を行うことの重要性が増してきている.その一つの背景には,ウェブの急速な成長にともなう英語以外の文書の増加がある.InternetWorldStatsによる近年のウェブユーザ数の言語別集計の結果\footnote{http://www.internetworldstats.com/stats7.htm}によると,2008年現在では,依然として英語を利用するユーザが最も多く,それに続いて,中国語,スペイン語,日本語,フランス語を利用するユーザが多い.2000年からの言語別ユーザ数の増加の割合は,アラビア語,ポルトガル語,中国語,フランス語,スペイン語が大きな伸びをみせている.この調査結果は,用いられる言語の多様性が増していることを示しているといえる.また,ウェブ上の文書の内の半数以上は英語以外の言語で書かれているものであると同時に,一つの文書の中で複数の言語が使われていることもある.多種多様な情報元からの情報検索や質問応答,機械翻訳等,ウェブ上の膨大なデータを対象とした自動処理の実現においては,文書の使用言語の自動推定だけでなく,文書中に出現する固有名詞等の外国語の語句の的確な解析も,自然言語処理の応用分野における精度向上に大きな影響を与える要因となりうる.\subsection{統計情報を用いた言語識別に関する研究}\label{sec:language-identification}言語識別の研究は,文書を対象としたものに限らず,音声認識\cite{matrouf98,berkling94}や,文書イメージを対象にしたものもある.Sibunらは,文書イメージから抽出された文字の形状の統計的な分布を利用して言語識別を行った\cite{Sibun94}.彼らは,アルファベットの文字の形状を,ベースライン,ボトム,トップ,Xハイトの情報を使って分類し,文書中の文字をLinearDiscriminateAnalysis(LDA)を用いて分類した.2,000から3,000文字を含む23の言語の文書イメージを用いて文書を構成する言語を識別する実験を行った結果,90\%以上の精度を達成している.Dunningは,ドイツ語の`\"u'やフランス語の`\^e'等のアクセント記号を用いずに,5,000バイトのトレーニングコーパスと500バイトのテスト用テキストを用いた言語識別の実験で97\%の精度を実現している\cite{dunning94}.Dunningらは20バイトのテスト用テキストでも92\%の精度での言語識別を実現し,短い文書や数単語で構成される句であっても,言語識別が可能であることを示した.Linsらは,文書中に含まれる複数の単語に対して各言語の辞書中での出現の有無を調べる手法で言語識別を行った~\cite{Lins04}.Linsらは言語内で比較的種類が少ないとされている副詞,冠詞,接続詞,感嘆詞,数詞,前置詞,代名詞のみを辞書引きの対象とすることで,高速かつ汎用性の高い手法を提案している.Linsらはこの手法を用いて,ポルトガル語,スペイン語,フランス語,英語の文書(約1,000単語で構成される600の文書)を対象とした評価実験を行い,ウェブの文書でも80\%以上,通常の文書では90\%以上の精度を達成している.Martinsらは,ウェブページに特化した言語識別手法を提案した\cite{Martins05}.Martinsらの手法は,$n$-gram(1から5)情報のプロファイル間の距離と,ウェブページ固有のヒューリスティクスを用いるものである.12の言語で各500ウェブページを用いた実験では,全ての言語で84\%以上の正解を出したが,スウェーデン語とデンマーク語等の北欧の言語の類似性が若干の精度の低下をもたらしたことを今後の課題として挙げている.また,地名以外の固有名詞として人名に着目し統計情報を用いた所属国の推定を行う研究もある.Nobesawaらは,言語識別の手法を人名に対して適用することで,人名用の言語識別のためのシンプルなシステムを提案し,人名を属する国で分類することが可能であることを示した\cite{nobesawa0512paclic}.この手法は,人名文字列の長さや,人名の文字単位の$n$-gramの情報を活用したものであり,9種類の言語圏の12の国に対して90\%以上の精度を実現することに成功している.また,Nobesawaらは,英語の人名に対してSVMの分類器を用いた手法も提案している\cite{nobesawa0605ieee}.\subsection{エリア推定に関する関連研究}\label{sec:toponym-resolution}地名のエリア推定の最終的な目標は,その地名が地球上のどの場所を示しているのかを判断することである.文章中の地名のエリア推定タスクは,一般に,(1)地名文字列の認識,(2)地名文字列の国推定,(3)地名文字列と場所との対応付け,の三段階の処理からなる.(1)の地名文字列の認識は固有名詞の自動抽出タスクに相当する.(2)および(3)は,地名文字列と地球上の場所との対応付けを行う処理である.本稿ではこのうち,研究のあまり進んでいなかった(2)の所属国推定を目的とし,その実現手法を提案するものである.(3)の地名文字列と場所との対応付けの研究では,あらかじめ対象ドメインや対象言語を制限することで,(2)の所属国の推定のステップを省略することが多い.したがって,本稿が対象とする所属国の推定の研究は,この地名文字列と場所との対応付けの研究を助け,その精度の向上に寄与するものと考えている.本節では,関連する研究として(3)の地名文字列と場所との対応付けを行っているものについて述べる.これらは,対象の地名が辞書に登録されていることを前提として辞書引きによって場所の候補を探しだし,複数の場所が候補として挙がる等の曖昧性がある場合には文脈情報等を用いてその判別を行うアプローチが一般的である.HauptmannとOlligschlaegerは,音声データを対象とした場所の判別を行う手法を提案している~\cite{Hauptmann99,Olligschlaeger99}.基本的には地名辞書に含まれる地名のみを対象としているが,同じ地名であっても複数の異なる場所を示す曖昧性がある場合には,同一の会話内に現れる他の地名の情報を活用することによって,その場所の相違を判断している.Hauptmannらの手法では,200のニュース記事に出現した357の地名のうち269の地名を正しく判別することができ,75\%の精度を達成している.Hauptmannらは,正しく判別することができなかったものは,地名辞書に載っていなかったもの,曖昧性によるエラー,音声認識誤り等が原因であると報告している.また,Smithらは地名の曖昧性の解消に焦点を当て,文書中の地名の出現頻度の重心を利用した手法を提案した\cite{Smith2001}.これは,地名の出現頻度によって重みが付けられた地図上での重心を計算し,ある閾値よりも離れているものを枝刈りした上で重心を再度計算しなおすことで候補の曖昧性を解消しようとするものである.大きな地名辞書を使うことによって,再現率を高く保てるようにした上で,F値が0.81から0.96という結果を出している.しかし,この手法はその重心の付近を示すだけであり,重心のみを使用しただけでは頑健性に欠ける場合があると結論づけている.地名の曖昧性を解消するための手法として,Liらは,地名表現のパターンマッチングと重み付き地名の類似度グラフの探索,サーチエンジンを用いた地名辞書の補間の三つのアプローチを組み合わせる方法を提案した\cite{Li2002}.地名表現のパターンマッチングでは,`cityof'+``地名''(``cityofVancouver''等)や``地名1''+`,'+``地名2''+`,'+``地名3''(``Boston,Massachusetts,USA''等)といった地名の周辺の表現のパターンを利用している.Liらは大きな地名辞書と地名表現のパターンマッチングを用いることで,93.8\%の精度を実現した.Pouliquenらは,ヨーロッパのエリアに限定したマルチリンガルテキストを対象として,場所の判別の精度の向上を目指す手法を提案した~\cite{Pouliquen06}.この手法では,``And'',``To'',``Be''等の瀕出する単語と同形異義語であるような地名をgeo-stoplistとして抽出し,このような地名を候補から排除することで,精度の向上を図っている.また,それ以外にも場所の重要度,人名との区別,地名同士の物理的な距離の情報等を用いて曖昧性の解消を行っている.geo-stoplistに登録されている地名を候補から排除することで再現率は低下するが,F値で0.77という結果を示している.Cloughは,複数の地名辞書を用いた場所の判別手法を提案している\cite{Clough05}.複数の地名辞書を優先順位を付けて検索し,stop-listを使って,各候補に対してスコアを与えている.このスコアは,地名表現の周辺の出現パターン,オントロジにおける階層の深さ,地名辞書の優先順位,ユーザのプリファレンスによって計算される.Cloughはイギリス,フランス,ドイツ,スイスを対象とした実験で89\%の精度を達成している.Zongらは,ウェブページに対してそのページが記述しているエリアを判別する実験を行った~\cite{Zong05}.アメリカに関する文書のみを対象とし,地名の周辺の出現パターンと地名同士の物理的な距離を利用することで,地名が32個以上199個以下だけ含まれるウェブページを対象に760の地名について実験を行い88.9\%の精度を達成している.これらの関連研究のほとんどは,文書中に出現する地名を対象としており,文脈の情報を用いて地名の場所の判別を行っている.これらは,その地名がどんな文脈で出現し,同時に出現するその他の地名とどんな関連があるのかといった情報を積極的に利用する方法である.これらの手法の大きな特徴として,地名の認識および場所の判別に地名辞書を利用していることが挙げられる.地名を表記するときによく用いられるパターンや会話における局所性等の自然言語処理でよく用いられるヒューリスティクスだけではなく,都市の人口数,実際の二地点間の距離等の地理的な情報を活用しているものもある.このような辞書ベースのアプローチは,特定のドメインを対象とした処理の場合には高い精度で場所の判別を行うことが可能である.このように一般的な自然言語処理のヒューリスティクスが適用可能な情報元を用い,かつ,そのドメインに出現しうる地名が変化するスピードが遅く,辞書や地理的なデータの整備を十分に行える場合には,これらの手法は十分に適用可能である.しかし,全世界のすべての地名を網羅した地名辞書を整備することは現実的でない上に,情報元の多様化のスピードがますます加速している現在では,より頑健性の高い柔軟な手法が必要と考えられる.Rauchらは,知らない地名であっても人間はその所属地域をある程度推測可能であるという事実を背景として,表層的な統計情報をベースとしたシステムが有効であると主張している~\cite{Rauch03aconfidence-based}.本稿は,Rauchらと同じ主張を共有し,具体的な実現手法を提案するものである. \section{おわりに} \label{sec:conclusion}文書中に現れる地名の所属エリア推定処理は,未知語処理の観点からも,今後さらに重要になるものと考えられる.地名を対象とした従来のエリア推定では,対象となる地名が辞書に登録されていることを前提とするものが多く,利用する辞書への依存度が高かった.有名無名に関わらずすべての地名を対象としたエリア推定処理の実現のため,本稿では,地名辞書や文脈情報を全く使用せず,地名の表層情報のみを活用して,地名が所属する国を自動的に推定する手法を提案した.本手法は,表層情報としては文字単位の$n$-gram情報や長さの情報を使い,これらの特徴を画一的に扱った表層情報の学習と文字の出現確率を組み合わせることで,所属国の推定を実現するものである.本稿では,10ヶ国を対象とした評価実験で平均95.03\%の再現率,74.08\%の適合率を得,本手法の有効性を確認した.地名はたかだか十数文字程度の文字列であるため,そこから得られる情報は決して多くはないが,本手法では,候補の絞込み処理と候補選択処理とを適切に組み合わせることで,再現率を高く保ったまま適合率をあげることに成功した.同名の地名が複数の国に存在し得る等,地名の所属国には曖昧性があるが,本手法ではこれを考慮し,所属する可能性の高い国を最大3個までに絞り込む.所属国の絞込みができれば,地名辞書等の情報源や文脈情報等を活用して曖昧性の除去を行う従来研究を活用することができるようになる.本稿の手法は地名辞書にも載っていないような小さな場所の地名にも対応できる能力を持ち,高い頑健性をもった手法である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Berkling\BBA\Barnard}{Berkling\BBA\Barnard}{1994}]{berkling94}Berkling,K.~M.\BBACOMMA\\BBA\Barnard,E.\BBOP1994\BBCP.\newblock\BBOQLanguageIdentificationofSixLanguagesBasedonaCommonSetofBroadPhonemes.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonSpokenLanguageProcessing(ICSLP'94)},\mbox{\BPGS\1891--1894}.\bibitem[\protect\BCAY{Clough}{Clough}{2005}]{Clough05}Clough,P.\BBOP2005\BBCP.\newblock\BBOQExtractingMetadataforSpatially-awareInformationRetrievalontheInternet.\BBCQ\\newblockIn{\BemProceedingsofthe2005ACMWorkshoponGeographicInformationretrieval(GIR'05)},\mbox{\BPGS\25--30}.\bibitem[\protect\BCAY{Dunning}{Dunning}{1994}]{dunning94}Dunning,T.\BBOP1994\BBCP.\newblock\BBOQStatisticalIdentificationofLanguage.\BBCQ\\newblock\BTR\MCCS-94-273,ComputerResearchLaboratoryTechnicalReport.\bibitem[\protect\BCAY{Hauptmann\BBA\Olligschlaeger}{Hauptmann\BBA\Olligschlaeger}{1999}]{Hauptmann99}Hauptmann,A.~G.\BBACOMMA\\BBA\Olligschlaeger,A.~M.\BBOP1999\BBCP.\newblock\BBOQUsingLocationInformationfromSpeechRecognitionofTelevisionNewsBroadcasts.\BBCQ\\newblockIn{\BemProceedingsoftheESCAETRWWorkshoponAccessingInformationinSpokenAudio},\mbox{\BPGS\102--106}.\bibitem[\protect\BCAY{Li,Srihari,Niu,\BBA\Li}{Liet~al.}{2002}]{Li2002}Li,H.,Srihari,R.~K.,Niu,C.,\BBA\Li,W.\BBOP2002\BBCP.\newblock\BBOQLocationNormalizationforInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Lins\BBA\Goncalves}{Lins\BBA\Goncalves}{2004}]{Lins04}Lins,R.~D.\BBACOMMA\\BBA\Goncalves,P.\BBOP2004\BBCP.\newblock\BBOQAutomaticLanguageIdentificationofWrittenTexts.\BBCQ\\newblockIn{\BemProceedingsofthe2004ACMSymposiumonAppliedComputing(SAC'04)},\mbox{\BPGS\1128--1133}.\bibitem[\protect\BCAY{Martins\BBA\Silva}{Martins\BBA\Silva}{2005}]{Martins05}Martins,B.\BBACOMMA\\BBA\Silva,M.~J.\BBOP2005\BBCP.\newblock\BBOQLanguageIdentificationinWebPages.\BBCQ\\newblockIn{\BemProceedingsofthe2005ACMSymposiumonAppliedComputing(SAC'05)},\mbox{\BPGS\764--768}.\bibitem[\protect\BCAY{Matrouf,Adda-Decker,Lamel,\BBA\Gauvain}{Matroufet~al.}{1998}]{matrouf98}Matrouf,D.,Adda-Decker,M.,Lamel,L.~F.,\BBA\Gauvain,J.~L.\BBOP1998\BBCP.\newblock\BBOQLanguageIdentificationIncorporatingLexicalInformation.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonSpokenLanguageProcesssing(ICSLP'98)},\mbox{\BPGS\181--184}.\bibitem[\protect\BCAY{Nobesawa\BBA\Tahara}{Nobesawa\BBA\Tahara}{2005}]{nobesawa0512paclic}Nobesawa,S.\BBACOMMA\\BBA\Tahara,I.\BBOP2005\BBCP.\newblock\BBOQLanguageIdentificationforPersonNamesBasedonStatisticalInformation.\BBCQ\\newblockIn{\BemProceedingsofthe19thPacificAsiaConferenceonLanguage,InformationandComputation(PACLIC19)},\mbox{\BPGS\289--296}.\bibitem[\protect\BCAY{Nobesawa\BBA\Tahara}{Nobesawa\BBA\Tahara}{2006}]{nobesawa0605ieee}Nobesawa,S.\BBACOMMA\\BBA\Tahara,I.\BBOP2006\BBCP.\newblock\BBOQAreaIdentificationof{E}nglishPersonNamesBasedonStatisticalInformation.\BBCQ\\newblockIn{\BemProceedingsofthe19thIEEECanadianConferenceonElectricalandComputerEngineering(CCECE2006)},\mbox{\BPGS\1688--1691}.\bibitem[\protect\BCAY{Olligschlaeger\BBA\Hauptmann}{Olligschlaeger\BBA\Hauptmann}{1999}]{Olligschlaeger99}Olligschlaeger,A.~M.\BBACOMMA\\BBA\Hauptmann,A.~G.\BBOP1999\BBCP.\newblock\BBOQMultimodalInformationSystemsandGIS:theInformediaDigitalVideoLibrary.\BBCQ\\newblockIn{\BemProceedingsofthe1999ESRIUserConference},\mbox{\BPGS\102--106}.\bibitem[\protect\BCAY{Pouliquen,Kimler,Steinberger,Ignat,Oellinger,Blackler,Fuart,Zaghouani,Widiger,Forslund,\BBA\Best}{Pouliquenet~al.}{2006}]{Pouliquen06}Pouliquen,B.,Kimler,M.,Steinberger,R.,Ignat,C.,Oellinger,T.,Blackler,K.,Fuart,F.,Zaghouani,W.,Widiger,A.,Forslund,A.-C.,\BBA\Best,C.\BBOP2006\BBCP.\newblock\BBOQGeocodingMultilingualTexts:Recognition,DisambiguationandVisualisation.\BBCQ\\newblock{\Bem{CoRR}},{\Bbfabs/cs/0609065},\mbox{\BPGS\53--58}.\bibitem[\protect\BCAY{Rauch,Bukatin,\BBA\Baker}{Rauchet~al.}{2003}]{Rauch03aconfidence-based}Rauch,E.,Bukatin,M.,\BBA\Baker,K.\BBOP2003\BBCP.\newblock\BBOQAConfidence-basedFrameworkforDisambiguatingGeographicTerms.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACL2003WorkshoponAnalysisofGeographicReferences},\mbox{\BPGS\50--54}.\bibitem[\protect\BCAY{Sano,Nobesawa,Okamoto,Susuki,Matsubara,\BBA\Saito}{Sanoet~al.}{2009}]{tomohisa09ieice}Sano,T.,Nobesawa,S.~H.,Okamoto,H.,Susuki,H.,Matsubara,M.,\BBA\Saito,H.\BBOP2009\BBCP.\newblock\BBOQ{RobustToponymResolutionBasedonSurfaceStatistics}.\BBCQ\\newblock{\Bem{IEICETransactionsonInformationandSystems}},{\BbfE92-D}(12).\newblockToappear.\bibitem[\protect\BCAY{Sano,Nobesawa,\BBA\Saito}{Sanoet~al.}{2007}]{tomohisa07snlp}Sano,T.,Nobesawa,S.~H.,\BBA\Saito,H.\BBOP2007\BBCP.\newblock\BBOQAutomaticCountryIdentificationofAreaNamesBasedonSurfaceFeatures.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalSymposiumonNaturalLanguageProcessing(SNLP2007)},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{Sibun\BBA\Spitz}{Sibun\BBA\Spitz}{1994}]{Sibun94}Sibun,P.\BBACOMMA\\BBA\Spitz,A.~L.\BBOP1994\BBCP.\newblock\BBOQLanguageDetermination:NaturalLanguageProcessingfromScannedDocumentImages.\BBCQ\\newblockIn{\BemProceedingsofthe4thConferenceonAppliedNaturalLanguageProcessing},\mbox{\BPGS\15--21}.\bibitem[\protect\BCAY{Smith\BBA\Crane}{Smith\BBA\Crane}{2001}]{Smith2001}Smith,D.~A.\BBACOMMA\\BBA\Crane,G.\BBOP2001\BBCP.\newblock\BBOQDisambiguatingGeographicNamesinaHistoricalDigitalLibrary.\BBCQ\\newblockIn{\BemProceedingsofthe5thEuropeanConferenceonResearchandAdvancedTechnologyforDigitalLibraries(ECDL'01)},\mbox{\BPGS\127--136}.\bibitem[\protect\BCAY{Zong,Wu,Sun,Lim,\BBA\Goh}{Zonget~al.}{2005}]{Zong05}Zong,W.,Wu,D.,Sun,A.,Lim,E.-P.,\BBA\Goh,D.H.-L.\BBOP2005\BBCP.\newblock\BBOQOnAssigningPlaceNamestoGeographyRelatedWebPages.\BBCQ\\newblockIn{\BemProceedingsofthe5thACM/IEEE-CSJointConferenceonDigitalLibraries(JCDL'05)},\mbox{\BPGS\354--362}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{佐野智久}{1997年慶應義塾大学大学院前期博士課程計算機科学専攻修了.現在,同大学院後期博士課程開放環境科学専攻在学中.自然言語処理に関する研究に従事.}\bioauthor{延澤志保}{2002年慶應義塾大学大学院後期博士課程計算機科学専攻修了.博士(工学).同年東京理科大学理工学部助手.現在,東京都市大学(旧武蔵工業大学)知識工学部講師.自然言語処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,計量国語学会各会員.}\bioauthor{岡本紘幸}{2003年慶應義塾大学大学院開放環境科学専攻前期博士課程修了.現在,岡本工業株式会社に勤務.自然言語処理,画像処理,音楽情報処理などに興味を持つ.情報処理学会,言語処理学会各会員.}\bioauthor{鈴木宏哉}{2005年慶應義塾大学大学院前期博士課程開放環境科学専攻修了.現在,同大学院理工学研究科後期博士課程在学中.自然言語処理に関する研究に従事.情報処理学会,言語処理学会各会員.}\bioauthor{松原正樹}{2006年慶應義塾大学大学院前期博士課程開放環境科学専攻修了.現在,同大学院理工学研究科後期博士課程在学中.音楽情報処理,認知科学に関する研究に従事.日本音響学会,日本認知科学会各会員.}\bioauthor{斎藤博昭}{慶應義塾大学工学部数理工学科卒業.工学博士.現在,同大理工学部情報工学科准教授.自然言語処理,音楽情報処理などに興味を持つ.言語処理学会,日本音響学会,電子情報通信学会各会員.}\end{biography}\biodate\end{document}
V15N02-04
\section{はじめに} \label{sec:intro}言い換えとは,ある言語表現を意味が等価な別の言語表現に変換する処理のことである.自然言語処理においては,言い換えはさまざまな応用をもっており,例えば,情報検索,機械翻訳,文章作成支援,文章読解支援などに応用されることが期待されている.\begin{table}[b]\caption{日本語表現の分類}\label{tab:classWord}\input{04table01.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{15-2ia4f1.eps}\caption{内容表現の言い換えと機能表現の言い換えを組み合わせた幅広い言い換え}\label{fig:phrasal}\end{center}\end{figure}日本語表現の言い換えは,これまで多くの研究者によって研究されてきた\shortcite{Inui2004}.これらの研究のほとんどは,内容語や複合語に関するものであり,例えば,複合名詞の言い換えに関する研究\shortcite{Sato1999,Kimura2002}や動詞句の言い換えに関する研究\shortcite{Kaji2004,Furihata2004}などがある.日本語の表現は,内容的・機能的という観点から,おおきく2つに分類できる.さらに,「表現を構成する語の数」という観点を加えると,表~\ref{tab:classWord}のように分類できる.ここで,{\bf複合辞}とは,「にたいして」や「なければならない」のように,複数の語から構成されているが,全体として1つの機能語のように働く表現のことである.われわれは,機能的というカテゴリーに属する機能語と複合辞を合わせて{\bf機能表現}と呼ぶ.内容表現の言い換えに関する研究に比べて,機能表現の言い換えに関する研究は著しく少ない.ほとんどすべての文および文節には,1つ以上の機能表現が含まれているのであるから,日本語表現を幅広く言い換えるためには,図~\ref{fig:phrasal}に示されるように,内容表現だけでなく,機能表現も言い換えることが重要である.このような理由により,本論文では,機能表現の言い換えに焦点をあてる.日本語の機能表現が持つ主な特徴は,各々の機能表現が多くの形態的異形を持っているということである.それぞれの異形は,常体,敬体,口語体,堅い文体という4つの文体のいずれかをとる.例えば,「なければならない」の異形には,「なくてはならない」,「なければなりません」,「なけりゃならない」,「ねばならん」などがあり,これら4つの表現の文体はすべて異なっている.これらの表現の文体は,順に,常体,敬体,口語体,堅い文体である.機能表現を言い換えるシステムは,言い換え先の機能表現の文体を制御できることが求められる.なぜならば,1つの文章においては,原則として,一貫して1つの文体を使い続けなければならないからである.例えば,文体が常体である文章においては,「なければなりません」や「にたいしまして」などの敬体の表現や,「なけりゃならない」や「とは言ったって」などの口語体の表現を使うことはできない.しかしながら,先行研究において提案されているいずれの機能表現言い換えシステムも,言い換え先の機能表現の文体を制御できる機構を持っていない.機能表現言い換えシステムが機能表現$f$を異なる機能表現$f^\prime$に言い換える場合,潜在的には$f^\prime$のすべての異形を生成できることが望まれる.なぜならば,この要請を満たすシステムは,文章作成支援などの応用において,多数のさまざまな言い換え候補を利用者に提示することができるからである.このようなシステムは,例えば,「見てくれるか」という入力に対して,「てもらえる」を含む言い換え候補として「見てもらえるか」だけでなく,「見てもらえないか」,「見てもらえませんか」,「見てはもらえないでしょうか」など,多くの興味深い言い換え候補を出力することができる.しかしながら,先行研究における機能表現言い換えシステムは,体系的に異形を扱っていないため,上記の要請を満たしていない.文章読解支援や文章作成支援などの応用においては,機能表現を言い換えるときに,言い換え先の機能表現の難易度(理解しやすさ)を制御できることが求められる.なぜならば,機能表現は,文の構造や意味を決定する重要な要素であるからである.文中に知らない機能表現が用いられていた場合,おそらく,読者は,その文の意味を正確に理解することができないだろう.難しい機能表現をやさしい機能表現へ言い換えることができれば,読者がその機能表現を知っており,文の意味を正しく理解することができることが期待される.先行研究において,機能表現の難易度を考慮したものは,土屋らの研究\shortcite{Tsuchiya2004}と本田らの研究\shortcite{Honda2007}のみである.土屋らは,機能表現をやさしく言い換えるための規則を半自動的に生成する手法と,その規則に基づいて機能表現を言い換えるシステムを提案している.本田らは,意味的に等価な機能表現の各々のクラスに対して,それぞれ1つの代表表現を定義することにより,機能表現を分かりやすい表現に言い換える手法を提案している.機能表現をやさしく言い換える場合,読者にふさわしい難易度の表現に言い換えることが望ましい.なぜならば,よりやさしい機能表現(典型的には,助詞)は,複数の意味を持っている傾向があるからである.必要以上にやさしく言い換えた場合,生成されたテキストが意味的に曖昧になってしまうおそれがある.これらの先行研究において提案されている言い換えシステムは,例えば,日本語初級者用や日本語中級者用などといった,難易度指定に応じて言い換えを行なうことはできない.機能表現を,文体指定や難易度指定を満たす,意味的に等価な機能表現に言い換える処理は,次の2つの変換の組み合わせによって実現することができる.\begin{enumerate}\item機能表現を意味的に等価な機能表現に変換する\item機能表現をその異形に変換する\end{enumerate}前者において,難易度指定を満たす機能表現のみを言い換え候補に採用し,後者において,文体指定を満たす異形のみを言い換え候補に採用すれば,目的の言い換えを達成することができる.本論文では,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,日本語機能表現を言い換える手法を提案する.前者の階層構造は,各々の機能表現に対して,すべての異形のリストを提供する.それぞれの異形には,文体の情報が記述されている.このリストは,上記の(2)の変換に必要である.後者の階層構造は,機能表現の意味的等価クラスを提供する.クラス内のそれぞれの機能表現には,難易度が付与されている.この意味的等価クラスは,上記の(1)の変換に必要である.本論文は,以下のように構成される.まず,第2章で,形態階層構造と意味階層構造を持つ機能表現辞書について説明する.次に,第3章で,本論文で提案する機能表現の言い換え手法を述べる.第4章で,実装した機能表現言い換えシステムについて説明し,続く第5章において,その評価を行なう.第6章で,関連研究について述べ,最後に,第7章でまとめを述べる. \section{2つの階層構造を持つ機能表現辞書} \label{sec:dic}\subsection{形態階層構造}\label{subsec:morph}日本語の機能表現が持つ主な特徴の1つは,個々の機能表現に対して,多くの{\bf異形}が存在することである.例えば,「なければならない」に対して,「なくてはならない」,「なくてはならず」,「なければなりません」,「なけりゃならない」,「なければならぬ」,「ねばならん」など,多くの異形が存在する.このような異形をつくり出す過程は,次の7カテゴリーに分類することができる\shortcite{Matsuyoshi2007}.\begin{quote}派生,機能語の交替,音韻的変化,とりたて詞\shortcite{Numata1986}の挿入,活用,「です/ます」の有無,表記のゆれ\end{quote}松吉らは,これらの言語現象による機能表現の異形を階層構造を用いて分類し,機能表現辞書を編纂した\shortcite{Matsuyoshi2007}.本論文では,機能表現の\textbf{形態階層構造}として,彼らの階層構造を採用する.形態階層構造の概要を表~\ref{tab:morph}に示す.この階層構造は9つの階層を持つ.$L^3$から$L^9$の階層が,上で列挙した異形のカテゴリーのそれぞれに対応する.これらの階層の上に,見出しレベルとして$L^1$,語義を区別した見出しレベルとして$L^2$が定義されている.形態階層構造の各階層における機能表現の数を,表~\ref{tab:morph}の「表現数」の欄に示す.見出し語に相当する$L^1$の機能表現の数は341であり,出現形に相当する$L^9$の機能表現の数は16,801である.\begin{table}[t]\caption{形態階層構造の9つの階層}\label{tab:morph}\input{04table02.txt}\end{table}機能表現の出現形($L^9$の機能表現)には,階層構造における位置を表す機能表現IDが付与されている.この機能表現IDは9つの部分からなる.IDの各部分は,階層構造のそれぞれの階層における階層IDである.それぞれの出現形に付与された機能表現IDから,階層構造におけるその出現形の位置や,その上位の階層の機能表現(例えば,$L^2$の機能表現)を容易に知ることができる.機能表現ID以外に,機能表現の出現形には,文体や左接続・右接続(隣に接続可能な形態素)などの情報も記述されている.本論文では,機能表現を言い換えるにあたり,これらの情報を利用する.\subsection{意味階層構造}\label{subsec:semantic}現在,誰もが言い換えに利用することができる,日本語機能表現の意味的等価クラスの集合は存在しない.機能表現に関する文献や辞書\shortcite{Morita1989,Tomomatsu1996,dosj,Matsuyoshi2007}に記述されている意味的等価クラスは,分類の粒度が粗いので,言い換えに直接利用することはできない.一方,自然言語処理において,言い換えのために定義された機能表現の意味的等価クラスの集合\shortcite{Tanabe2001,Shudo2004}が存在するが,これらは一般公開されていない.言い換えのための機能表現の意味的等価クラスとして,われわれは,形態階層構造における$L^2$の機能表現435表現に対して,3つの階層を持つ\textbf{意味階層構造}を作成した.この階層構造の作成にあたっては,「日本語表現文型」\shortcite{Morita1989}における機能表現に関する説明文と用例を参考にし,言い換え可能性の観点から,$L^2$の機能表現集合にあらかじめ定義されていた89の意味的等価クラス\shortcite{Matsuyoshi2007}を見直し,その再編成を行なった.主に,次の2つのことを行なった.\begin{enumerate}\item\textbf{下位区分}同じ意味的等価クラスに属する複数の機能表現を,言い換え可能性の観点からいくつかのグループにまとめ,元のクラスに下位クラスを定義した.例えば,松吉らの機能表現辞書\shortcite{Matsuyoshi2007}において,〈推量〉という意味的等価クラスには,次の15の機能表現が属している.\begin{quote}かもしれない,かもわからない,にちがいない,にきまっている,にそういない,にほかならない,ところ,ことだろう,のだろう,みたい,よう,らしい,だろう,う,うる\end{quote}これらの表現はすべて,推量や推定を意味する機能表現である.しかしながら,それらの間の言い換え可能性は一様ではない.例えば,「かもしれない」と「かもわからない」は,ほとんどすべての文脈において言い換え可能であると思われるが,その一方で,「かもしれない」と「にちがいない」は,これらが言い換え可能な文脈は先の2つの表現よりも限られると思われる.他の表現対に対しても同様の考察を行ない,〈推量〉という意味的等価クラスを,図~\ref{fig:class}のように下位区分した.\begin{figure}[b]\begin{center}\includegraphics{15-2ia4f2.eps}\caption{〈推量〉という意味的等価クラスの下位区分}\label{fig:class}\end{center}\end{figure}\item\textbf{下位クラス化}属している機能表現の数が少数である意味的等価クラスを,その上位の意味を表す意味的等価クラスの下位クラスとして再定義した.これは,前者に属する機能表現に対して,それが言い換え可能な機能表現の数を増やすためである.例えば,松吉らの機能表現辞書において,〈最中〉という意味的等価クラスには,1つの機能表現「つつある」しか属していないので,この機能表現に対して,それと言い換え可能な($L^2$の)機能表現を得ることはできない.一方,「つつある」は,〈継続〉という意味的等価クラスに属する「ている」や「ていく」などの機能表現と,多くの文脈において言い換え可能である.そこで,〈最中〉という意味的等価クラスを,〈継続〉という意味的等価クラスの下位クラスとして再定義した.これにより,上位のクラスを用いた場合,「つつある」に対して,言い換え可能な機能表現として,「ている」や「ていく」などの表現を提示することができる.\end{enumerate}このような再編成を経て,最終的に3階層の意味階層構造を構築した.意味階層構造の大半において,各階層の1つの意味的等価クラスに属する機能表現は,表~\ref{tab:semantic}の「1つのクラスに属する機能表現」の欄に示す性質を持っている.各階層における意味的等価クラスの数とそれらに付与したクラスIDの形式を,それぞれ,表~\ref{tab:semantic}の「クラス数」と「クラスID」の欄に示す.最も上位の階層(Top)における意味的等価クラスの数は45であり,最も下位の階層(Bottom)における意味的等価クラスの数は199である.\begin{table}[t]\caption{意味階層構造の3つの階層}\label{tab:semantic}\input{04table03.txt}\end{table}一般に,1つの意味的等価クラスには,異なる難易度を持つ複数の機能表現が属している.例えば,ある意味的等価クラスには,「とどうじに」や「たとたんに」のようなやさしい機能表現から,「やいなや」や「がはやいか」のような難しい機能表現まで,さまざまな難易度の機能表現が属している.形態階層構造の$L^2$の機能表現には,「日本語能力試験出題基準」\shortcite{nouryoku}の級に基づいた難易度が付与されている\shortcite{Matsuyoshi2007}.この難易度は,A1,A2,B,C,Fの5段階であり,A1が一番やさしい.本論文では,難易度指定に応じた機能表現の言い換えを実現するために,この情報を利用する.\subsection{指定を満たすすべての出現形の列挙}\label{subsec:enumerate}形態階層構造と意味階層構造を持つ機能表現辞書を用いると,与えられた機能表現の出現形に対して,文体指定と難易度指定を満たす,意味的に等価な機能表現のすべての出現形を列挙することができる.この手続きは,次のとおりである.\begin{enumerate}\item形態階層構造において,与えられた出現形の上位の$L^2$の機能表現を見つける\item意味階層構造において,その機能表現を含む意味的等価クラスを見つけ,そこに属する機能表現の集合を得る\itemその集合から,難易度指定を満たさない機能表現を排除する\item形態階層構造に基づき,集合内の各機能表現に対して,そのすべての異形(出現形)を列挙する\item得られた出現形のリストの中から,文体指定を満たさない出現形を排除する\end{enumerate}上の(2)の集合には,与えられた出現形の異形を出力するために,その上位の$L^2$の機能表現も含まれる.計算機上では,上記の手続きは,出現形を表す機能表現IDと意味的等価クラスを表すクラスIDを用いて実行される.例として,「や否や」と意味的に等価な機能表現の出現形のうち,A1,A2,Bのいずれかの難易度を持つものを列挙する.まず,形態階層構造において,出現形「や否や」の上位の$L^2$の機能表現『やいなや』を見つける.次に,意味階層構造において,『やいなや』を含む意味的等価クラスを見つける.このクラスに属する機能表現の集合は,次のとおりである.\begin{quote}『とどうじに』,『とすぐに』,『たとたんに』,『そばから』,『なり』,『やいなや』,『がはやいか』,『や』\end{quote}この集合から,設定された難易度指定を満たさない『そばから』,『なり』,『やいなや』,『がはやいか』,『や』を排除する(難易度は,それぞれ,C,C,C,F,F).最後に,形態階層構造に基づき,残った『とどうじに』,『とすぐに』,『たとたんに』のすべての出現形計20表現を,次のように列挙する.\begin{quote}「とどうじに」,「と同時に」,「とすぐに」,「とすぐ」,「たとたん」,「だとたん」,「たとたんに」,「た途端に」,$\cdots$\end{quote} \section{本論文で提案する機能表現の言い換え手法} \label{sec:formulation}\subsection{入力表現の単位}\label{subsec:unit}本論文では,言い換え元の入力表現の単位として,文節を採用する.その理由は,文節は,機能表現を含む最も基本的な文構成単位であるからである.本論文で扱う文節は,いわゆる形式文節ではなく,機能表現を考慮して拡張された文節であり,以下のように定義する.$c_i$を内容語,$f_j$を機能表現とおく.このとき,文節を次のように定式化する.\begin{eqnarray}\mbox{文節}=c_1c_2\cdotsc_mf_1f_2\cdotsf_n\label{eq:phrase}\end{eqnarray}文節内の$c_1c_2\cdotsc_m$を文節の内容語部,$f_1f_2\cdotsf_n$を文節の機能語部と呼ぶ.例えば,「決定せざるをえないので」は,1つの文節である.このとき,$c_1=$「決定」,$c_2=$「せ」,$f_1=$「ざるをえない」,$f_2=$「ので」であり,内容語部は「決定せ」,機能語部は「ざるをえないので」である.本論文では,入力文節の機能語部に存在する機能表現を言い換えることにより,入力文節に対する代替表現を生成する.\subsection{予備調査:人間による機能表現の言い換え}\label{subsec:closedlist}機能語部の機能表現の言い換えは,原理的に,次の5種類の言い換えの組み合わせによって達成される(以下,文節例において,内容語部と機能語部の境界,および,機能表現と機能表現の境界に``/''を挿入する).\begin{description}\item[1$\rightarrow$1]機能表現を別の機能表現に置換する($f\rightarrowf^\prime$)例)「聞く/\underline{や否や}」$\rightarrow$「聞く/\underline{とすぐに}」\item[1$\rightarrow$N]機能表現を機能表現列に置換する($f\rightarrowf_1^\primef_2^\prime\cdotsf_N^\prime$)例)「雨/\underline{にもかかわらず}」$\rightarrow$「雨/\underline{な/のに}」\item[N$\rightarrow$1]機能表現列を1つの機能表現に置換する($f_1f_2\cdotsf_N\rightarrowf^\prime$)例)「行か/\underline{なければならない/ことはない}」$\rightarrow$「行か/\underline{なくてよい}」\item[M$\rightarrow$N]機能表現列を別の機能表現列に置換する($f_1f_2\cdotsf_M\rightarrowf_1^\primef_2^\prime\cdotsf_N^\prime$)例)「会っ/\underline{た/わけではない}」$\rightarrow$「会わ/\underline{なかっ/た}」\item[f$\Rightarrow$c]機能表現(列)を内容語を含む表現に置換する例)「行く/\underline{までもない}」$\rightarrow$「行く/{\kern-0.5zw}/\underline{必要/は/{\kern-0.5zw}/ない}」(``/{\kern-0.5zw}/''は,文節境界を表す)\end{description}機能表現の言い換えを定式化するにあたり,予備調査として,人間が機能表現を言い換える場合,これらの5種類の言い換えがどのように用いられるのか調査した.調査方法としては,作業者\footnote{この作業者は,日本語教育に関する知識を有する者である.}に文節のリストを与え,文節の機能語部を自由に言い換えてもらった.作業者には次の3つのことを指示した.\begin{enumerate}\item機能語部を言い換えてください.内容語は言い換えないでください\item思い付くまま,自由に言い換えてください.やさしく言い換えなければならない,短くしなければならないといった制約はありません\item1つの文節に対して複数の代替表現を思い付いた場合,そのすべてを記述してください.どうしても代替表現が思い浮かばない文節に対しては,代替表現を記述しなくても構いません\end{enumerate}文節リストとしては,「日本語能力試験出題基準」\shortcite{nouryoku}における``〈機能語〉の類''のリストに付記されている用例を用いた.``〈機能語〉の類''のリストの一部を表~\ref{tab:jpt}に示す.この文献には,269項目の``〈機能語〉の類''が収録されている.この調査では,これらのうち,日本語機能表現辞書\shortcite{Matsuyoshi2007}にも収録されている140項目を対象とした.``〈機能語〉の類''のリストにおいては,各``〈機能語〉の類''に対して,1つ以上の用例が記述されている.本論文における言い換え元の入力表現の単位は,文節であるので,節単位や文単位の用例に対しては,そこから文節単位の用例を人手で抽出した.``〈機能語〉の類''140項目に対する用例のうち,日本語機能表現辞書に収録されている機能表現の用例であるとわれわれが判断した238の用例を,言い換え元の文節リストとして用いた\footnote{この文節リストは,本研究で作成した言い換えシステムのクローズドテストにも用いた.}.\begin{table}[t]\caption{``〈機能語〉の類''のリストの一部}\label{tab:jpt}\input{04table04.txt}\end{table}\begin{table}[t]\begin{minipage}{0.5\textwidth}\begin{center}\caption{作業者が作成した表現の適切さの判定結果}\label{judge}\input{04table05.txt}\end{center}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\caption{代替表現の作成に用いられた言い換えの種類}\label{tab:native}\input{04table06.txt}\end{center}\end{minipage}\end{table}作業者は,238の文節のうち226の文節に対して,410の代替表現を作成した.これらの代替表現が適切であるかどうかを,作業者とは異なる2人の判定者が独立に判定した.適切さの判定基準は,「言い換え元の文節と作業者が作成した表現が,ある文脈において置換可能であるならば,後者は,代替表現として適切であると判定する」と定めた.判定結果の分割表を表~\ref{judge}に示す.表の「$\bigcirc$」の欄に,判定者が適切であると判定した代替表現の数を,「$\times$」の欄に,判定者が適切でないと判定した代替表現の数を示す.この表から,作業者が作成した表現の86\%(353/410)が,2人の判定者に,代替表現として適切であると判定されたことが分かる\footnote{2人の判定者の一致率は,$\kappa$値で0.32であった.この一致率が低い原因は,判定者Aの判定が厳しすぎたことによる.}.作業者が作成し,2人の判定者が適切であると判定した353の代替表現が,上記の5種類の言い換えのどのような組み合わせによって実現されているか分析した.分析結果を表~\ref{tab:native}に示す.この表から,353の代替表現のうち,その61\%(215/353)が,``1$\rightarrow$1''のみで実現されたことが分かる.したがって,機能表現を類義表現に置換するという``1$\rightarrow$1''は,人間が行なう機能表現の言い換えの過半数をカバーすると言うことができる.\subsection{機能表現の言い換えの定式化}\label{subsec:alternative}前節の調査結果に基づき,本研究が対象とする言い換えの入出力を,次のように定めた.入力は1つの文節であり,出力は,入力文節に対する代替表現である.\begin{align}\mbox{\textbf{入力}:文節}&=c_1c_2\cdotsc_{m-1}c_mf_1f_2\cdotsf_n\nonumber\\\mbox{\textbf{出力}:代替表現}&=c_1c_2\cdotsc_{m-1}c_m^{\prime}wf_1^{\prime}f_2^{\prime}\cdotsf_n^{\prime}\label{eq:alt}\end{align}ここで,$c_m^{\prime}$は,内容語$c_m$かもしくはそれを活用させた語であり,$f_j^{\prime}$は,機能表現$f_j$と意味的に等価な機能表現である.$w$は,空文字列か,もしくは,$c_m^{\prime}$と$f_1^{\prime}$を適切に接続するために挿入される語である.本研究では,入力文節の機能語部に存在する各々の機能表現を,それと意味的に等価な機能表現に置換することにより,入力文節に対する代替表現を生成する.一般に,機能表現$f_1$の左接続と機能表現$f_1^\prime$の左接続は,たとえそれらが意味的に等価であったとしても異なる.例えば,「や否や」と「たとたん」は意味的に等価であるが,前者の左接続は動詞の基本形であるのに対し,後者の左接続は動詞の連用タ接続である.同様に,「にあたって」と「際に」は,同じ〈状況〉という意味を持っているが,前者の左接続は動詞の基本形と名詞であるのに対し,後者の左接続は動詞の基本形とタ形および助詞「の」である.このような場合,$f_1$を$f_1^\prime$に置換した後,$c_m$と$f_1^{\prime}$を適切に接続する必要がある.内容語と機能表現の接続には次の4種類があり,それぞれに応じて異なる手続きを行なう.\begin{description}\item[単純接続可能]内容語$c_m$が機能表現$f_1^{\prime}$の左接続に含まれる場合,それらを単純に接続する.例えば,「聞く」と「とすぐに」は,単純接続可能である.\item[活用形の変更が必要]活用形を除いて,内容語$c_m$が機能表現$f_1^{\prime}$の左接続に含まれる場合,$c_m$の活用形を変更することにより,それらを接続する.例えば,「聞く」と「たとたん」を接続するには,活用形の変更が必要であり,まず,活用形変化表を参照して「聞く」を「聞い」に活用させた後,それらを接続する.\item[語の挿入が必要]内容語$c_m$と機能表現$f_1^{\prime}$が,間に語$w$を介せば接続可能である場合,必要に応じて$c_m$の活用形を変更した後,$w$を挿入\footnote{このとき,必要ならば$w$の活用形を調整する.}して全体を接続する.例えば,「子供」と「からといって」を接続するには,語の挿入が必要である.「子供」の品詞情報と「からといって」の左接続から,挿入語選択表を参照して「だ」を得,それを介して全体を接続する.挿入語の一覧を表~\ref{tab:inserted}に,$f_1^{\prime}$の左接続を少し簡略化してまとめた挿入語選択表を表~\ref{tab:inserted_select}に示す.\item[接続不可能]上のいずれにも当てはまらない場合,内容語$c_m$と機能表現$f_1^{\prime}$は接続不可能であると判定し,これらを含む代替表現候補を棄却する.例えば,「聞く」と「だとたん」(「たとたん」の「た」が有声化した表現)は,接続不可能である.\end{description}\begin{table}[t]\caption{挿入語一覧}\label{tab:inserted}\input{04table07.txt}\end{table}\begin{table}[t]\caption{挿入語選択表}\label{tab:inserted_select}\input{04table08.txt}\end{table}機能表現$f_j^\prime$と機能表現$f_{j+1}^\prime$の接続の可否は,それらが単純接続可能であるかどうかにより判定し,前者の活用形の変更は行なわない.その理由は,\ref{subsec:enumerate}節で説明した方法によって,すべての活用形が展開された形で,意味的に等価な機能表現の出現形のリストが与えられるからである.$f_j^\prime$と$f_{j+1}^\prime$が単純接続可能でない場合,これらを含む代替表現候補を棄却する.例えば,「なければならない」と「にちがいない」は単純接続可能である.一方,「なければならなく」と「にちがいない」は,単純接続可能ではないので,これらを含む代替表現候補を棄却する.単純な置換と語の挿入を組み合わせた,本論文で提案する言い換え手法は,表~\ref{tab:native}における「1$\rightarrow$1のみ」のすべてと,「1$\rightarrow$N(と1$\rightarrow$1)」の22\%(15/68)をカバーする.したがって,この言い換え手法は,理論上,表~\ref{tab:native}の65\%(230/353)をカバーする\footnote{\ref{sec:system}章で説明する機能表現言い換えシステムを用いた実際のカバー率は,43\%(152/353)であった.実際のカバー率が理論値の2/3である主な原因は,言い換えシステムが利用する日本語機能表現辞書が代表的な機能表現しか記載していないことである.}. \section{機能表現言い換えシステム} \label{sec:system}前章で述べた手法により,文体と難易度を制御しつつ,機能表現を言い換えるシステムを実装した.このシステムの入力は文節(と文体指定・難易度指定)であり,出力は,代替表現の順位付きリストである.代替表現を生成するにあたり,このシステムは,\ref{sec:dic}章で説明した機能表現辞書を用いる.実装した言い換えシステムの全体像を図~\ref{fig:system}に示す.このシステムは,次の3つのモジュールからなる.\begin{enumerate}\item文節解析\item言い換え生成\item順位付け\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{15-2ia4f3.eps}\caption{機能表現言い換えシステムの全体像}\label{fig:system}\end{center}\end{figure}\subsection{文節解析}文節解析モジュールは,与えられた文節を,式(\ref{eq:phrase})に示されるように内容語と機能表現の列に分割する.日本語機能表現を検出する手法は,これまでにいくつか提案されており,例えば,半自動的に作成した規則に基づく手法\shortcite{Tsuchiya2003b}や機械学習に基づくチャンキング手法\shortcite{Uchimoto2003,Tsuchiya2007}などがある.しかしながら,これらの手法が検出対象としている機能表現とその異形の数は,限られているため,本研究では,これらの手法を文節解析に利用することはできない.別の手法として,既存の形態素解析器の辞書に約17,000の機能表現の出現形を追加し,機械学習により種々のコストを決定することが考えられる.しかしながら,現在のところ,これらすべての出現形に対してタグ付けを行なった大規模なコーパスは存在しないので,この手法は実行可能ではない.本システムでは,これらの手法とは異なる方法を用いて,与えられた文節を内容語と機能表現の列に分割する.このシステムの文節解析モジュールは,2種類の解析器を用いる.1つめの解析器は,文節の機能語部の解析に特化した解析器(以下,機能語部解析器)である.この解析器は,辞書エントリーとして約17,000の機能表現の出現形のみを持つ形態素解析器MeCab\footnote{http://mecab.sourceforge.net/}で実装されている.実装においては,機能表現間の接続は,\ref{subsec:morph}節で述べた,機能表現辞書に記述されている接続条件を用いず,すべての組み合わせが可能であるとし,連接コストはすべて1と定めた\footnote{ただし,〈理由〉の意味を持つ「し」に対してのみ,後ろにいかなる機能表現も接続しないという条件を設定した.これは,文節解析モジュールが,動詞「する」の連用形「し」を,誤って機能表現と解析することが多かったためである.}.その理由は,機能表現辞書の接続条件は,解析に用いるには少し厳しすぎるのではないかと考えたからである.なお,単語コストはすべて0と定めた.この機能語部解析器は,機能語部をなす文字列を機能表現の列に分割することができる.その一方で,文字列に,内容語と解析されるべき要素が含まれている場合,文字列の分割に失敗する\footnote{分割結果に未知語が含まれている場合,文字列の分割に失敗したと見なす.}.与えられた文字列から機能語部を抽出するために,文節解析モジュールは,2つめの解析器として,IPA辞書を組み込んだ通常のMeCabを用いる.以下に,文節解析の手順を述べる.まず,通常のMeCabを用いて,入力文節を形態素列$m_1m_2\cdotsm_k$に分割する.次に,$m_1$を内容語部,$m_2m_3\cdotsm_k$を機能語部であると仮定する.機能語部解析器が,$m_2m_3\cdotsm_k$の表層形をまとめた文字列を機能表現の列$f_1f_2\cdotsf_n$に分割することができたならば,文節解析モジュールは,解析結果として,$c_1f_1f_2\cdotsf_n$を出力する.ここで,$c_1=m_1$である.機能語部解析器が分割に失敗した場合,$m_1m_2$を内容語部,$m_3m_4\cdotsm_k$を機能語部であると仮定する.機能語部解析器が,$m_3m_4\cdotsm_k$の表層形をまとめた文字列を機能表現の列$f_1f_2\cdotsf_n$に分割することができたならば,文節解析モジュールは,解析結果として,$c_1c_2f_1f_2\cdotsf_n$を出力する.ここで,$c_1=m_1$,$c_2=m_2$である.以下同様に,機能語部解析器が分割に成功するまで,この手続きを続ける.例として,文節「決定せざるをえないので」を解析する.まず,この文節は,通常のMeCabにより,「決定/せ/ざる/を/え/ない/ので」と,7つの形態素に分割される.次に,「決定」を内容語部,「せ/ざる/を/え/ない/ので」を機能語部と仮定する.機能語部解析器は,文字列「せざるをえないので」の分割に失敗するので,今度は,「決定/せ」を内容語部,「ざる/を/え/ない/ので」を機能語部と仮定する.この場合,機能語部解析器は,文字列「ざるをえないので」の分割に成功し,この文字列を「ざるをえない」と「ので」に分割する.これにより,解析結果として,$c_1=$「決定」,$c_2=$「せ」,$f_1=$「ざるをえない」,$f_2=$「ので」が出力される.内容語の場合と同様に,2つ以上の意味を持つ機能表現も存在する.例えば,「によって」は,次の3つの意味を持つ.\begin{description}\item[〈仲介〉]その病気は,ウイルス\underline{によって}伝染していく.\item[〈根拠〉]民法\underline{によって},そのように定められている.\item[〈場合〉]季節\underline{によって}見える星座が異なる.\end{description}機能語部解析器が分割した機能語部に,複数の意味を持つ機能表現が存在した場合,文節解析モジュールは,それらに対応する複数の解析結果を出力する.例えば,機能語部解析器が分割した機能語部に,2つの意味($\alpha$と$\beta$)を持つ機能表現$f_j$が存在した場合,文節解析モジュールは,次の2つの解析結果を出力する\footnote{実際には,$f_j^{(\alpha)}$と$f_j^{(\beta)}$は,機能表現IDを用いて,次のように区別する:$f_j^{(\alpha)}=$「ために(0731Q.1xx.74n01)」,$f_j^{(\beta)}=$「ために(0732Q.1xx.74n01)」(前者は〈理由〉,後者は〈目的〉の意味を持つ).}.\begin{quote}$c_1c_2\cdotsc_mf_1\cdotsf_j^{(\alpha)}\cdotsf_n$,$c_1c_2\cdotsc_mf_1\cdotsf_j^{(\beta)}\cdotsf_n$\end{quote}\subsection{言い換え生成}言い換え生成モジュールは,入力文節の解析結果$c_1c_2\cdotsc_mf_1f_2\cdotsf_n$を受け取り,文体指定と難易度指定を満たす代替表現のリストを生成する.まず,言い換え生成モジュールは,\ref{subsec:enumerate}節で述べた方法を用いて,$f_1$と意味的に等価であり,かつ,文体指定と難易度指定を満たす機能表現の出現形$f_1^\prime$を得る.次に,\ref{subsec:alternative}節で述べた方法により,$f_1^\prime$を$c_1c_2\cdotsc_m$に接続させ,$c_1c_2\cdotsc_{m-1}c_m^\primewf_1^\prime$を構築する.今度は,$f_2$に対して同様のことを行ない,$f_2^\prime$を得て$c_1c_2\cdotsc_{m-1}c_m^\primewf_1^\primef_2^\prime$を構築する.以下,同様にこの過程を続け,最終的に,入力文節の代替表現として,$c_1c_2\cdotsc_{m-1}c_m^\primewf_1^\primef_2^\prime\cdotsf_n^\prime$を構築する.各々の$f_j$に対して,\ref{subsec:enumerate}節で述べた方法によって実際に得られるのは,類義表現のリストである.言い換え生成モジュールは,$1\leqj\leqn$に対して,これらのすべての組み合わせ\footnote{実際には,簡単な枝刈りを行なっている.}を試行し,接続し得ない2つの隣り合う要素を含む代替表現候補を棄却することによって,代替表現のリストを生成する.難易度指定が厳しすぎるなどの理由により,代替表現が1つも生成されない場合,言い換え生成モジュールは,上位の階層の意味的等価クラスを用いて代替表現のリストを生成する.機能語部の機能表現に意味的曖昧性があり,2つ以上の解析結果が存在する場合,言い換え生成モジュールは,各解析結果に対して独立に代替表現を生成し,最後に,それらを1つのリストにまとめて出力する.\subsection{順位付け}\label{subsec:ranking}機能表現の言い換えにおいて,実際の応用を考慮した場合,出力される代替表現のリストに,なんらかの尺度に基づく順位が付いていることが望ましい.なぜならば,機能表現には数多くの異形が存在するため,代替表現が数百も出力されることがあるからである.順位付けモジュールは,生成された代替表現のリストを,コーパス中の頻度に基づくスコアにより順位付けする.コーパス中の頻度を利用する理由は,コーパスによく現れる機能表現は,より標準的で一般に使われているものだと考えることができるからである.しかしながら,現在のところ,約17,000の機能表現の出現形に対してタグ付けを行なった大規模なコーパスは存在しないので,コーパス中の機能表現の頻度を直接利用することはできない.そこで,本研究では,コーパス中の機能表現の頻度の近似値として,コーパスから単純な文字列照合によって得られる,「機能表現を構成する文字列」の出現回数を用いる.スコア関数としては,代替表現に含まれる各機能表現の構成文字列の出現回数の積を用いる\footnote{予備実験として,「内容語—機能表現」,「機能表現—機能表現」の構成文字列の出現回数も利用するスコア関数も試したが,表~\ref{tab:evaluation}における評価結果は,現在のものとほとんど変わらなかった.}.入力された代替表現のリストに,構成文字列が全く同じ代替表現が複数存在する場合,それらの表現には同じスコアが付くので,順位付けモジュールは,それらを1つにまとめて出力する.\begin{table}[b]\begin{minipage}{0.5\textwidth}\caption{入力文節「見てくれるか」に対する出力}\vspace{-0.5\baselineskip}(i:指定なしの場合の順位,j:「敬体のみ」と\\いう文体指定時の順位)\\[-0.5zw]\label{tab:mite}\input{04table09.txt}\end{minipage}\begin{minipage}{0.5\textwidth}\caption{入力文節「聞くや否や」に対する出力}\vspace{-0.5\baselineskip}(i:指定なしの場合の順位,j:「A1,A2,Bの\\いずれかの難易度」という難易度指定時の順位)\\[-0.5zw]\label{tab:ya}\input{04table10.txt}\end{minipage}\end{table}\subsection{出力例}入力文節「見てくれるか」に対する,言い換えシステムの出力を表~\ref{tab:mite}に示す\footnote{スコアは,logスケールで示した.表~\ref{tab:ya}も同様である.}.i欄に指定なしの場合の順位を,j欄に「敬体のみ」という文体指定を行なった場合の順位を示す.入力文節「聞くや否や」に対する,言い換えシステムの出力を表~\ref{tab:ya}に示す.i欄に指定なしの場合の順位を,j欄に「A1,A2,Bのいずれかの難易度」という難易度指定を行なった場合の順位を示す.これらの出力結果より,提案システムが,入力文節に対して適切な代替表現を生成できること,および,文体指定や難易度指定に従って,その出力を制御できることが分かる. \section{評価} \label{sec:evaluate}実装した機能表現言い換えシステムを評価する観点として,次の4点が考えられる\footnote{システムへの入力として文を想定する場合は,「システムの解析モジュールは,正しく文節認定,および,内容語であるか機能表現であるかの曖昧性解消を行なうことができるか」という評価観点も必要である.しかしながら,本システムでは,入力として\ref{subsec:unit}節の式(\ref{eq:phrase})で定義される文節を採用しているので,この評価を行なう必要はない.}.\begin{enumerate}\item出力された表現は入力文節と意味的に等価であるか\item出力された表現は文体指定を満たすか\item出力された表現は難易度指定を満たすか\item機能表現$f$を異なる機能表現$f^\prime$に言い換える場合,$f^\prime$のすべての異形を生成することができるか\end{enumerate}本システムの言い換え能力は,\ref{subsec:enumerate}節に示した,出現形の列挙能力によって規定されている.この列挙手続きは,辞書に記述されている情報に基づいているため,最終的に,上記の4点の可否は,辞書に記述されている情報の正しさに依存する.すなわち,上記の(1)から(4)は,それぞれ,\begin{enumerate}\item\ref{subsec:semantic}節で述べた意味的等価クラスは妥当か,\item機能表現の出現形に付与されている文体情報は正しいか,\item$L^2$の機能表現に付与されている難易度情報は正しいか,\item形態階層構造はすべての異形を網羅しているか,\end{enumerate}という問題に帰着される.機能表現の出現形が4つの文体のうちいずれをとるかは,日本語の文体についての知識があれば,容易に判断できる.また,$L^2$の機能表現に付与されている難易度は,「日本語能力試験出題基準」\shortcite{nouryoku}の級(難易度)に基づいている.異形の網羅性については,すでに,松吉らの研究\shortcite{Matsuyoshi2007}によって定量的に評価されている.これらの理由により,辞書に記述されている(2)から(4)の情報の信頼性は高いと考えられるため,実験的に評価する必要はないと判断した.一方,\ref{subsec:semantic}節で述べた意味的等価クラスは,これまでの文献と著者らの直観に基づくものであり,その言い換えにおける妥当性は検証されていない.そこで,本章では,言い換えシステムが生成する代替表現の評価を行ない,意味的等価クラスの妥当性を検証する.\subsection{評価方法}言い換えシステムの出力の評価にあたっては,実際の応用として文章作成支援を想定した.文章作成支援においては,システムは,入力表現に対して,少数の良い代替表現を出力することが期待される.なぜならば,代替表現が順位付けされずに数百も出力された場合,システムの利用者は困惑してしまうからである.本論文では,言い換えシステムの出力の上位5位までに,適切な代替表現が含まれているかどうかという観点から,評価を行なった.言い換えシステムが生成した表現の評価は,次の3段階で行なった.\begin{quote}\begin{description}\item[〇]入力文節に対する適切な代替表現である(入力文節と言い換えシステムが生成した表現は,ある文脈において置換可能である)\item[△]適切な代替表現であるかどうかの判断が難しい(入力文節と言い換えシステムが生成した表現が置換可能である文脈を想像することはできるが,その文脈はかなり不自然である)\item[×]代替表現として相応しくない(入力文節と言い換えシステムが生成した表現が置換可能である文脈を想像することができない)\end{description}\end{quote}一般に,ある表現が別の表現と置換可能であるかどうかを客観的に判定することは難しい.なぜならば,それらが置換可能である文脈を想像することができるかどうかは,判定者の言語経験によるところが大きいからである.特に,機能表現の言い換えにおいては,機能表現の用法についての知識が不十分であるために,入力文節と言い換えシステムが生成した表現が置換可能である文脈を想像することができず,後者を適切な代替表現ではないと判定してしまうことが少なくない.それゆえに,機能表現の置換可能性の評価にあたっては,機能表現を解説した文献に基づくことが望ましい.このような理由により,本評価においては,1人の判定者が,複数の機能表現に関する文献\shortcite{Morita1989,Jamasi1998,dosj}を参照しながら,本システムが生成した表現の評価を行なった.\ref{subsec:enumerate}節で述べた方法をそのまま用いた場合,機能語部の機能表現が,すべて,入力文節における機能表現と同じ,もしくはその異形であるという代替表現も出力される.例えば,入力文節「決定せ/ざるをえない/ので」に対して,「ざるをえない」をその表記に関する異形である「ざるを得ない」に置換しただけの表現「決定せ/ざるを得ない/ので」も,1つの代替表現として出力される.しかしながら,文章作成支援の観点からは,これは望ましくない.なぜならば,システムの利用者が求めるものは,このような,表記を少し変えただけの表現ではなく,入力文節に使われている機能表現とは異なる機能表現を用いた代替表現であると思われるからである.このような理由により,本評価では,言い換えシステムが出力する代替表現は,その機能語部の少なくとも1つの機能表現が,入力文節における対応する機能表現と全く異なる機能表現でなくてはならないという条件を設定した.すなわち,式(\ref{eq:alt})によって定式化される代替表現において,$f_j^\prime$が$f_j$と異なる$L^1$-$L^2$IDを持つような$j$が,必ず1つは存在する.本評価では,クローズドテストの入力文節リストとして,\ref{subsec:closedlist}節で予備調査に使用した文節リストを用いた.この文節リストは,\ref{subsec:semantic}節で述べた意味的等価クラスの調整にも用いた.オープンテストにおいては,入力文節リストとして,「どんな時どう使う日本語表現文型500」\shortcite{Tomomatsu1996}の用例を用いた.この文献においては,各機能表現に対して平均4つの用例が記載されている.例として,「について」に対する用例を表~\ref{tab:donna}に示す.この文献には,機能表現と,呼応などの表現文型が,491項目収録されている.本評価では,これらのうち,日本語機能表現辞書\shortcite{Matsuyoshi2007}にも収録されている機能表現184項目を対象とした.本論文における言い換え元の入力表現の単位は文節であるので,文単位の用例からは,文節単位の用例を人手で抽出した.機能表現184項目に対する用例のうち,日本語機能表現辞書に収録されている機能表現の用例であるとわれわれが判断した628の用例を,入力の文節リストとして用いた.\begin{table}[b]\caption{文献(友松他1996)における「について」に対する用例}\label{tab:donna}\input{04table11.txt}\end{table}本論文の言い換えシステムは,代替表現を順位付けする際にコーパスを利用する.このコーパスとしては,毎日新聞コーパス1991--2005年版(15年分,約2,100万文,約1.5ギガバイト)を用いた.\begin{table}[b]\caption{言い換えシステムの出力の評価}\label{tab:evaluation}\input{04table12.txt}\end{table}\subsection{結果}評価結果として,言い換えシステムの出力の上位$n$位までに,少なくとも1つの適切な代替表現(「○」と判定された表現)が含まれていた入力文節の数を表~\ref{tab:evaluation}に示す\footnote{本システムが生成した表現は,すべて文法的には正しいものであった.}.表の「人手解析」の欄に,入力文節を人手で解析したとき,すなわち,入力文節が正しく分割され,すべての機能表現の意味的曖昧性が解消されたときの評価結果を示す.表のすべての行において,値は,「1位--3位」でほぼ飽和している.よって,以下では,「1位--3位」における結果について議論する.表~\ref{tab:evaluation}から,本論文の言い換えシステムは,クローズドテストにおいて入力文節の88\%(210/238),オープンテストにおいて入力文節の79\%(496/628)に対して,適切な代替表現を生成することができたことが分かる.言い換えシステムが生成した適切な代替表現の例を,その順位とともに表~\ref{tab:good}に示す.この表の「入力文節」と「代替表現」の欄において,機能表現の言い換えが行なわれた箇所に下線を引いた.これらの結果から,われわれは,本システムの性能は,文章作成支援という観点からみて十分に高いと考える.\begin{table}[b]\caption{言い換えシステムが生成した適切な代替表現の例}\label{tab:good}\input{04table13.txt}\end{table}以下,言い換えシステムの誤り分析を行なう.言い換えシステムの出力を詳細に分析した結果を表~\ref{tab:top1to3}に示す.クローズドテストにおける入力文節の7\%(16/238)とオープンテストにおける入力文節の7\%(41/628)に対しては,``1$\rightarrow$1''と少数の語の挿入のみでは代替表現を生成できないことが分かった.これらの入力文節を適切に言い換えるためには,``1$\rightarrow$N'',``N$\rightarrow$1'',``M$\rightarrow$N''が必要である.これらの入力文節とそれらに対して期待される代替表現の例を表~\ref{tab:not1to1}に示す.上記の7\%という値は,``1$\rightarrow$1''と少数の語の挿入に基づいて言い換えを行なう本システムの性能の上限を規定する.\begin{table}[t]\caption{言い換えシステムの出力の詳細分析(表~\ref{tab:evaluation}の「1位--3位」に対応)}\label{tab:top1to3}\input{04table14.txt}\end{table}\begin{table}[t]\caption{``1$\rightarrow$1''と少数の語の挿入のみでは代替表現を生成できない文節の例}\label{tab:not1to1}\input{04table15.txt}\end{table}入力文節の解析誤りは,クローズドテストにおいて3\%(8/238),オープンテストにおいて3\%(21/628)であった.解析誤りの例を以下に示す.\begin{itemize}\item進ん/だ/こと\underline{に/より}(「により」が正しく認識されなかった)\item邪魔さ/\underline{れ}/た/おかげで(受身を表す接尾辞「れ」が,〈可能〉の意味を持つ機能表現「れ」と解析された)\itemひら/がな/さえ(通常のMeCabによって,「ひらがな」が誤って分割された)\end{itemize}一方,入力文節の1\%(2/238,クローズドテスト)と4\%(23/628,オープンテスト)に対して,その機能語部に意味的に曖昧な機能表現が含まれていたため,適切な代替表現が上位に出力されなかった.例えば,「こと」は,〈当為〉,〈感嘆〉,〈名詞化〉という3つの意味を持つ.「提出する/\underline{こと}」の「こと」は,〈当為〉の意味を持つ機能表現であるが,この文節に対して,〈名詞化〉の意味を持つ「の」を含む「提出する/の」や,〈感嘆〉の意味を持つ「わ」を含む「提出する/わ」などの表現が上位に出力された.「人/\underline{によって}/は」や「賛成する/\underline{にしても}」に対しても,同様の現象が観察された.表~\ref{tab:top1to3}の「適切な代替表現」の欄における,システムが解析を行なった時の値と人手解析時の値の差から,人手で入力文節を解析した場合,上記のような入力文節に対しても,適切な代替表現を上位に出力することができたことが分かる.したがって,解析誤りおよび意味的曖昧性に起因する性能の低下は,本システムの文節解析モジュールの改善とともに減少することが期待される.オープンテストにおいて,意味的等価クラスの不備により,適切な代替表現が生成されなかった入力文節は,全体の3\%(19/628)であった.例えば,「悲しみ/の/あまり」に対して,適切な代替表現が生成されなかった.「悲しみ/の/あまり」に対する適切な代替表現として,「悲しみ/の/せいで」が考えられるが,意味階層構造のどの階層においても,「あまり」と「せいで」が同じ意味的等価クラスに属することがなかったため,この言い換えは実現されなかった.意味的等価クラスの不備に起因する問題は少数であったので,\ref{subsec:semantic}節で述べた意味的等価クラスは妥当なものであったと言える.接続条件が厳しすぎたため,オープンテストにおける入力文節の2\%(16/628)に対して,適切な代替表現が生成されなかった.例えば,「は」と「とくれば」の接続は可能であると辞書に記述されていなかったため,「地域/は/というと」に対して,「地域/は/とくれば」が生成されなかった.今後,接続条件を見直す必要がある.残りの誤りは,コーパスにおいて,適切な代替表現に存在する機能表現の構成文字列の出現回数が相対的に少ないことに起因するものである.この問題を解決するためには,現在使用しているスコア関数の見直しや,機能表現のすべての出現形に対してタグ付けを行なったコーパスの整備が必要であると思われる. \section{関連研究} 乾らは,語彙・構文的言い換えを,次の6つに分類した\shortcite{Inui2004}.\begin{enumerate}\item節間の言い換え\item節内の言い換え\item内容語の複合表現の言い換え\item機能語/モダリティの言い換え\item内容語句の言い換え\item慣用表現の言い換え\end{enumerate}本研究は,機能表現の言い換えに焦点をあてているので,上記の(4)機能語/モダリティの言い換えと,(1)節間の言い換えの一部である「接続表現の言い換え」に分類される.自然言語処理において,日本語機能表現の言い換えに関する研究は少ない.飯田ら\shortcite{Iida2001}は,機能表現の解説文や例文から,279個の言い換え規則を人手で作成している.土屋ら\shortcite{Tsuchiya2004}は,機能表現を含む文とその機能表現を言い換えた文の対のデータを作成し,そこから642個の言い換え規則を半自動的に生成している.これらの研究で作成された言い換え規則は,ある機能表現と別の機能表現が言い換え可能であることを示す個別的なものである.このような個別的な規則の集合を用いる手法では,数多く存在する機能表現の異形を言い換えるために,膨大な量の言い換え規則を作成しなければならない.Tanabeら\shortcite{Tanabe2001},Shudoら\shortcite{Shudo2004},本田ら\shortcite{Honda2007}は,「なければならない」や「てもよい」など,助動詞型機能表現に対して約150の意味的等価クラスを定義し,意味的等価クラス間における論理的類似性規則と語用論的類似性規則に基いて機能表現を言い換える手法を提案している.彼らの研究が対象としている機能表現は,助動詞型機能表現のみであり,「にあたって」や「からすると」のような格助詞型機能表現や,「にもかかわらず」や「や否や」のような接続助詞型機能表現などは扱っていない.これらの研究において提案されている機能表現言い換えシステムは,言い換え先の機能表現の文体や難易度を制御できる機構を持っていない.くわえて,これらのシステムは,体系的に機能表現の異形を扱っていないため,機能表現$f$を異なる機能表現$f^\prime$に言い換える場合,潜在的には$f^\prime$のすべての異形を生成することができることは保証されていない.一方,われわれが提案する機能表現言い換えシステムは,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,機能表現を言い換えることができる.そして,このシステムは,与えられた機能表現の出現形に対して,意味的に等価な機能表現のすべての出現形を列挙することができる.このシステムの言い換え対象は,表~\ref{tab:good}に示されるように,助動詞型機能表現だけでなく,すべての型の機能表現である.伊佐治ら\shortcite{Isaji2005}は,解析後に機能表現を標準的な表現(代表表記)に言い換えることができる日本語の文節構造解析システムibukiCを提案している.例えば,このシステムは,「でしょう」を「だろう」に,「からすると」を「からすれば」に,「に違いない」を「にちがいない」に言い換える.しかしながら,この機構は十分であるとは言えず,「にたいしまして」を「にたいして」に,「なければならない」の異形である「なけりゃならない」,「ねばならない」を「なければならない」に言い換えない.一方,われわれの言い換えシステムは,形態階層構造と文体などの情報を利用することにより,体系的に機能表現を代表表記に言い換えることができる. \section{おわりに} 本論文では,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,日本語機能表現を言い換える手法を提案した.実装した言い換えシステムは,与えられた機能表現の出現形に対して,文体指定と難易度指定を満たす,意味的に等価な機能表現のすべての出現形を列挙することができる.このシステムは,オープンテストにおいて,入力文節の79\%(496/628)に対して,適切な代替表現を生成した.Tanabeらが作成した,意味的等価クラス間における類似性規則は,そのほとんどが,``1$\rightarrow$N'',``N$\rightarrow$1'',``M$\rightarrow$N''である\shortcite{Tanabe2001}.これらの類似性規則を取り入れることにより,本論文で提案した言い換えシステムは,より多様な機能表現の言い換えを実現することができると考えられる.その一方で,内容表現の言い換え手法と本論文で述べた言い換え手法を組み合わせることにより,日本語表現の幅広い言い換えを実現することも重要であり,われわれの今後の課題である.\bibliographystyle{jnlpbbl_1.3}\newcommand{\optsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{遠藤\JBA小林\JBA三井\JBA村木\JBA吉沢}{遠藤\Jetal}{2003}]{dosj}遠藤織枝\JBA小林賢次\JBA三井昭子\JBA村木新次郎\JBA吉沢靖\JEDS\\BBOP2003\BBCP.\newblock\Jem{使い方の分かる類語例解辞典新装版}.\newblock小学館.\bibitem[\protect\BCAY{降幡\JBA藤田\JBA乾\JBA松本\JBA竹内}{降幡\Jetal}{2004}]{Furihata2004}降幡建太郎\JBA藤田篤\JBA乾健太郎\JBA松本裕治\JBA竹内孔一\BBOP2004\BBCP.\newblock\JBOQ語彙概念構造を用いた機能動詞結合の言い換え\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\504--507}.\bibitem[\protect\BCAY{グループ・ジャマシイ}{グループ・ジャマシイ}{1998}]{Jamasi1998}グループ・ジャマシイ\JED\\BBOP1998\BBCP.\newblock\Jem{教師と学習者のための日本語文型辞典}.\newblockくろしお出版.\bibitem[\protect\BCAY{本田\JBA田辺\JBA高橋\JBA吉村\JBA首藤}{本田\Jetal}{2007}]{Honda2007}本田聖晃\JBA田辺利文\JBA高橋雅仁\JBA吉村賢治\JBA首藤公昭\BBOP2007\BBCP.\newblock\JBOQ日本語文末表現における言い換え\JBCQ\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\1078--1081}.\bibitem[\protect\BCAY{飯田\JBA徳永\JBA乾\JBA衛藤}{飯田\Jetal}{2001}]{Iida2001}飯田龍\JBA徳永泰浩\JBA乾健太郎\JBA衛藤純司\BBOP2001\BBCP.\newblock\JBOQ言い換えエンジン{\scKura}を用いた節内構造および機能語相当表現レベルの言い換え\JBCQ\\newblock\Jem{第63回情報処理学会全国大会予稿集第二分冊},\mbox{\BPGS\5--6}.\bibitem[\protect\BCAY{乾\JBA藤田}{乾\JBA藤田}{2004}]{Inui2004}乾健太郎\JBA藤田篤\BBOP2004\BBCP.\newblock\JBOQ言い換え技術に関する研究動向\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(5),\mbox{\BPGS\151--198}.\bibitem[\protect\BCAY{伊佐治\JBA山田\JBA石原\JBA高松\JBA松本\JBA池田}{伊佐治\Jetal}{2005}]{Isaji2005}伊佐治和哉\JBA山田佳裕\JBA石原吉晃\JBA高松大地\JBA松本忠博\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ文節構造解析システムibukiC\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\719--722}.\bibitem[\protect\BCAY{鍜治\JBA黒橋}{鍜治\JBA黒橋}{2004}]{Kaji2004}鍜治伸裕\JBA黒橋禎夫\BBOP2004\BBCP.\newblock\JBOQ迂言表現と重複表現の認識と言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(1),\mbox{\BPGS\81--106}.\bibitem[\protect\BCAY{木村\JBA徳永\JBA田中}{木村\Jetal}{2002}]{Kimura2002}木村健司\JBA徳永健伸\JBA田中穂積\BBOP2002\BBCP.\newblock\JBOQ日本語名詞句に対するパラフレーズ事例の自動抽出に関する研究\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\327--330}.\bibitem[\protect\BCAY{国際交流基金\JBA財団法人日本国際教育協会}{国際交流基金\JBA財団法人日本国際教育協会}{2002}]{nouryoku}国際交流基金\JBA財団法人日本国際教育協会\JEDS\\BBOP2002\BBCP.\newblock\Jem{日本語能力試験出題基準【改訂版】}.\newblock凡人社.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{Matsuyoshi2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock\JBOQ日本語機能表現辞書の編纂\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{Morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{沼田}{沼田}{1986}]{Numata1986}沼田善子\BBOP1986\BBCP.\newblock\JBOQとりたて詞\JBCQ\\newblock奥津敬一郎\JBA沼田善子\JBA杉本武\JEDS,\Jem{いわゆる日本語助詞の研究},2\JCH.凡人社.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{Sato1999}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),\mbox{\BPGS\2937--2945}.\bibitem[\protect\BCAY{Shudo,Tanabe,Takahashi,\BBA\Yoshimura}{Shudoet~al.}{2004}]{Shudo2004}Shudo,K.,Tanabe,T.,Takahashi,M.,\BBA\Yoshimura,K.\BBOP2004\BBCP.\newblock\BBOQ{MWE}sasNon-propositionalContentIndicators\BBCQ\\newblockIn{\BemProceedingsofthe2ndACLWorkshoponMultiwordExpressions:IntegratingProcessing(MWE-2004)},\mbox{\BPGS\32--39}.\bibitem[\protect\BCAY{Tanabe,Yoshimura,\BBA\Shudo}{Tanabeet~al.}{2001}]{Tanabe2001}Tanabe,T.,Yoshimura,K.,\BBA\Shudo,K.\BBOP2001\BBCP.\newblock\BBOQModalityExpressionsinJapaneseandTheirAutomaticParaphrasing\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium(NLPRS)},\mbox{\BPGS\507--512}.\bibitem[\protect\BCAY{友松\JBA宮本\JBA和栗}{友松\Jetal}{1996}]{Tomomatsu1996}友松悦子\JBA宮本淳\JBA和栗雅子\BBOP1996\BBCP.\newblock\Jem{どんな時どう使う日本語表現文型500}.\newblockアルク.\bibitem[\protect\BCAY{Tsuchiya\BBA\Sato}{Tsuchiya\BBA\Sato}{2003}]{Tsuchiya2003b}Tsuchiya,M.\BBACOMMA\\BBA\Sato,S.\BBOP2003\BBCP.\newblock\BBOQAutomaticDetectionofGrammarElementsthatDecreaseReadability\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2003)},\mbox{\BPGS\189--192}.\bibitem[\protect\BCAY{土屋\JBA佐藤\JBA宇津呂}{土屋\Jetal}{2004}]{Tsuchiya2004}土屋雅稔\JBA佐藤理史\JBA宇津呂武仁\BBOP2004\BBCP.\newblock\JBOQ機能表現言い換えデータからの言い換え規則の自動生成\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\492--495}.\bibitem[\protect\BCAY{土屋\JBA注連\JBA高木\JBA内元\JBA松吉\JBA宇津呂\JBA佐藤\JBA中川}{土屋\Jetal}{2007}]{Tsuchiya2007}土屋雅稔\JBA注連隆夫\JBA高木俊宏\JBA内元清貴\JBA松吉俊\JBA宇津呂武仁\JBA佐藤理史\JBA中川聖一\BBOP2007\BBCP.\newblock\JBOQ機械学習を用いた日本語機能表現のチャンキング\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(1),\mbox{\BPGS\111--138}.\bibitem[\protect\BCAY{Uchimoto,Nobata,Yamada,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2003}]{Uchimoto2003}Uchimoto,K.,Nobata,C.,Yamada,A.,Sekine,S.,\BBA\Isahara,H.\BBOP2003\BBCP.\newblock\BBOQMorphologicalAnalysisofaLargeSpontaneousSpeechCorpusin{Japanese}\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2003)},\mbox{\BPGS\479--488}.\end{thebibliography}\begin{biography}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2008年同大学院情報学研究科博士後期課程修了.現在,奈良先端科学技術大学院大学情報科学研究科特任助教.京都大学博士(情報学).自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科電子情報システム専攻教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\end{biography}\biodate\end{document}
V09N03-07
\section{序論} 近年,テキスト自動要約の研究が活発化するとともに,要約の評価方法が研究分野内の重要な検討課題の一つとして認識されてきている.これまで提案されてきた要約の評価方法は,内的な(intrinsic)評価と外的な(extrinsic)評価の2種類に分けることができる\cite{Sparck-Jones:1996}.内的な評価とは,システムの出力した要約そのものを,主に内容と読みやすさの2つの側面から評価する方法である.一方,外的な評価とは,要約を利用して人間がタスクを行う場合の,タスクの達成率が間接的に要約の評価となるという考え方に基づいて評価を行う方法である.本研究では,近年活発にその評価方法が議論され,改良が試みられている内的な評価,特に内容に関する評価方法に焦点を当てる.これまでの要約の内容に関する評価は,人手で作成した抜粋と要約システムの出力との一致の度合を,F-measure等の尺度を用いて測るのが典型的な方法であった.しかし,Jingら\cite{jing:98:a}は,要約のF-measureによる評価と外的な評価を分析し,F-measureには「テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価は大きく変化する」という問題があることを指摘している.この問題点を解決する方法がこれまでにいくつか提案されている.Radevら\cite{radev:00:a}は,文のutilityという概念を用いた評価方法を示している.文のutilityとは,そのテキストの話題に対する各文の適合度(重要度)を10段階で表したものであり,正解の文のutilityにどのくらい近いutilityの文を選択できるかで評価を行なう.しかし,このような適合性の評価は被験者への作業負荷が大きいという問題がある.Donawayら\cite{Donaway:2000}は,人間の作成した正解要約の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間のコサイン距離で評価するcontent-basedな評価を提案している.content-basedな評価では,指定された要約率の正解要約を一つだけ用意すれば評価可能であるため,utilityに基づく評価に比べ,被験者への負荷が少ない.しかし,この評価方法で2つの要約を比較する場合,どの程度意味があるのかについては,これまで十分な議論がなされていない.そこで,本研究では,まず,utilityに基づく評価の問題点を改良する新しい評価方法を提案する.一般に低い要約率の抜粋に含まれる文は高い要約率の抜粋中の文よりも重要であると考えられる.このような考えに基づけば,あるテキストに関して複数の要約率のデータが存在する場合,テキスト中の各文に重要度を割り振ることが可能であるため,utilityに基づく評価を疑似的に実現することができる.これまでの要約研究において,1テキストにつき複数の要約率で正解要約が作成されたデータは数多く存在する(例えば,\cite{jing:98:a})ことから,提案する評価方法に用いるデータの作成にかかる負荷は決して非現実的なものではなく,utilityを直接被験者が付与するより負荷は小さいと考えられる.本研究では,評価型ワークショップNTCIR2の要約サブタスクTSC(TextSummarizationChallenge)\cite{Fukushima:2001a,Fukushima:2001b}で作成された10\%,30\%,50\%の3種類の要約率の正解データを用いて,提案方法により評価を行う.この評価結果をF-measureによる結果と比較し,提案方法がF-measureによる評価を改善できることを示す.次に,本研究では,content-basedな評価を取り上げる.同様にTSCのデータを用いて,人間の主観評価の結果と比較し,これまで十分議論されていないその有用性に関する議論を行う.本論文の構成は以下のとおりである.次節では,まず,これまで提案されてきた内的な評価方法,特にF-measureの問題点の解消方法について述べる.3節では,本研究で提案する評価方法について説明する.4節では,F-measureと提案する評価方法を比較し,結果を報告する.また,content-basedな評価に関する調査についても述べる.最後に結論と今後の課題について述べる. \section{関連研究} 要約の内容に関する評価について,Jingら\cite{jing:98:a}は,典型的な評価方法の1つであるF-measureをとりあげ,その問題点をいくつか指摘している.Jingらは,システムの要約と人間の被験者の作成した抜粋との比較による評価と,要約を利用して人間がタスクを行なう場合のタスクの達成率による評価の2つの評価方法を分析し,評価結果に影響を与える要因を同定することを試みているが,その結果少なくとも次の2つの点において,これまでの人間の抜粋を用いた評価方法は問題であるとの知見を得ている.\begin{itemize}\item{\bf問題点1(要約率の変化に伴う評価値の変化):}\\人間の抜粋との比較による評価では,要約率を変化させると,システムの評価がかなり変化する.このため,特定の要約率でシステム間の性能の比較をする意味がどの程度あるのかは疑問が残る.\item{\bf問題点2(テキスト中の複数類似個所の選択問題):}\\テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価は大きく変化する.\end{itemize}これまで,問題点1(要約率の変化に伴う評価値の変化)を解消するいくつかの方法が提案されている.Mittalら\cite{mittal:99:a}は,要約率の違いによるシステムの評価の違いに関して,さまざまな要約率における精度を求めた上で,情報検索の評価で用いられている11点平均精度(11pointaverageprecision)のように,複数の要約率での精度の平均として結果を示すべきであるとしている.また,コーパスとするテキスト集合の違いが精度に影響を与えることから,コーパスの要約のしやすさを計る指標として,ランダムに文を選択して要約を作成した場合の精度をベースラインとして示すべきであると主張している.そして,システムの性能を評価する場合,\[p'=\frac{p-b}{1-b}\](ここで,p,b,p'はそれぞれシステム,ベースライン,補正後のシステムの精度)のように,ベースラインを用いて補正した精度を用いるべきであるとしている.一般に,F-measureで要約の精度を評価する場合,ベースライン値=要約率と考えることができるため,要約率が大きくなるにつれ,F-measure値は大きくなる傾向にある.従って,ベースラインを用いて評価値を補正する上記の評価方法は,Jingらの指摘する問題点1の解消には有用であると考えられる.一方,被験者間の一致の度合をJとすると,Jは要約システムの精度の上限と考えられ,また,ランダムに選択した時の精度Rは下限と言える.そのため,Radevら\cite{radev:00:a}も,Mittalらと同様に,システムの性能を計る値を示す際,普通に計算された値Sを単に用いるのではなく,これらの値で正規化した値\[S'=\frac{S-R}{J-R}\]を示すべきであるとしている.問題点2(テキスト中の複数類似個所の選択問題)を解消する方法もいくつか提案されている.Jingら\cite{jing:98:a}は,人間が選択した重要文を用いて評価を行なう際,正解と一致した場合正解数1,一致しない場合0として再現率,精度を計算するのではなく,正解数を被験者間の一致の度合として計算する方法を提案している.たとえば,5人の被験者中3人,2人がそれぞれ一致して選択した文が存在する場合,これまでの評価方法では,前者をシステムが選択した場合正解数1(過半数以上の被験者が選択しているので),後者では0となるが,提案する方法では,システムの正解数は,前者では3/5,後者では2/5となる.Radevら\cite{radev:00:a}は,文のutilityという概念を用いた評価方法を示している.文のutilityは,文がそのテキストの話題に対してどの程度適合した内容であるかを示す尺度であり,[0-10]の値をとる\footnote{genericな要約を考えた場合,テキスト中での文の重要度を示していると考えて良い.}.人間が選択した重要文を用いたこれまでの評価方法は,正解と一致した場合正解数1,一致しない場合0として再現率,精度を計算していたが,utilityに基づく評価値は,システムが選択した文に対して人間が割り当てたutilityの総和を,正解の文のutilityの総和で割った値として計算する.これまでの評価方法では,システムが選択した不正解の文は,全く評価が得られなかったのに対し,utilityに基づく評価の場合,Jingらの方法と同様に,たとえ不正解でもその文がある程度の重要度を持つ場合,その重要度に対する部分的な評価が得られる点が異なる.ただ一つ正解が存在し,それとまさに一致することを要求されていたこれまでの評価に比べ,正解の文のutilityにどのくらい近いutilityの文を選択できるかで評価を行なう.Donawayら\cite{Donaway:2000}は,2種類の評価方法を提案している.一つは,人間にも,システムにも,テキスト中の文にすべて順位をつけさせるようにして,その文の序列を比較して評価を行なう方法である.これは,これまでの方法がテキスト中の文を重要/非重要の2つに分類して評価に利用していたのに対し,テキスト中の文数に分類して利用することに相当する.Donawayらが提案するもう一つの評価尺度は,人間の作成した正解要約の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間のコサイン距離で評価する方法(以後,content-basedな評価)である.Donawayらは,この2種類の評価尺度にこれまでの評価方法である再現率に基づいた評価を加え,これらを実験により比較,検討している.正解の抜粋に含まれる個所が要約作成者毎に異なっていても,内容の類似した個所を抜き出しているのであれば,どの要約作成者の抜粋を用いても似たような評価値が得られる必要がある.Donawayらは,4人の要約作成者の作った抜粋を用いて,上で述べたいくつかの尺度で要約を評価し,尺度毎に評価値の相関を調べている.その結果,content-basedな評価が人間の要約との比較による評価方法としては,Jingらの指摘する問題点2に対する解決策ともなっており,もっとも優れていると結論づけている. \section{pseudo-utilityに基づく評価} 本研究では,あるテキストに関する複数の要約率の正解データを用いることで,utilityに基づく評価を疑似的に実現する方法(以後,pseudo-utilityに基づく評価)を提案する.例えばあるテキストに,要約率が$r_{1}$\%,$r_{2}$\%,$r_{3}$\%($r_{1}<r_{2},r_{2}<r_{3}$)の3種類の正解データが存在する場合,テキスト中の各文は(1)$r_{1}$\%の要約に含まれる文,(2)$r_{1}$\%には含まれないが$r_{2}$\%には含まれる文,(3)$r_{2}$\%には含まれないが$r_{3}$\%には含まれる文,(4)$r_{3}$\%に含まれない文の4種類に分けられる\footnote{ただし,$r_{1}$\%の要約は$r_{2}$\%の要約に($r_{1}<r_{2}$),$r_{2}$\%の要約は$r_{3}$\%の要約に($r_{2}<r_{3}$)含まれていることが前提となる.}.これらは,テキストの話題に対する各文の適合度が4段階で表されたデータと考えることができるため,4段階の疑似的なutilityに基づく評価が実現できる.表\ref{table:exp1}に示す例を用いて,pseudo-utilityの計算方法を説明する.表\ref{table:exp1}は,要約率10\%,30\%,50\%の要約データを用いた場合について述べている.表\ref{table:exp1}では,S1--S10の10文からなるテキストについて,要約率毎に,要約作成者と2つの要約システム({\itSystem1}と{\itSystem2})が選択した重要文を`+'で示している.また,ここでは各文の重要度wを`1/要約率'として計算する.表において,例えばSystem1の要約率50\%の要約において,System1が重要文として選択した5文(S3,S4,S7,S9,S10)のうち3文(S4,S7,S10)が一致するため,F-measure値は0.6(3/5)となる.一方,System1が選択した5文(S3,S4,S7,S9,S10)の重要度はそれぞれ0,1/30,1/50,0,1/30であるため,重要度の総和は0+1/30+1/50+0+1/30=13/150となる.また,要約作成者は要約率50\%ではS1,S4,S7,S8,S10の5文を選択している.この場合の重要度の総和は1/10+1/30+1/50+1/50+1/30=31/150となる.pseudo-utility値は,システムの選択した文の重要度の総和を要約作成者の選択した文の重要度の総和で割って正規化した値であり,この例の場合$\frac{13/150}{31/150}=0.419$となる.\begin{table}[t]\caption{pseudo-utilityに基づく評価の例\label{table:exp1}}\begin{center}\begin{tabular}{c||c|c|c||c||c|c|c||c|c|c}\hline&\multicolumn{3}{c||}{正解データ}&重要度&\multicolumn{3}{c||}{\itSystem1}&\multicolumn{3}{c}{\itSystem2}\\\cline{2-4}\cline{6-11}&10\%&30\%&50\%&(重要度)&10\%&30\%&50\%&10\%&30\%&50\%\\\hlineS1&+&+&+&1/10&-&-&-&-&+&+\\S2&-&-&-&0&-&-&-&-&-&-\\S3&-&-&-&0&-&-&+&-&-&-\\S4&-&+&+&1/30&+&+&+&+&+&+\\S5&-&-&-&0&-&-&-&-&-&-\\S6&-&-&-&0&-&-&-&-&+&+\\S7&-&-&+&1/50&-&-&+&-&-&-\\S8&-&-&+&1/50&-&-&-&-&-&-\\S9&-&-&-&0&-&+&+&-&-&+\\S10&-&+&+&1/30&-&+&+&-&-&+\\\end{tabular}\end{center}\vspace{0.3cm}\caption{F-measureとpseudo-utilityに基づく評価によるシステムの比較例\label{table:exp2}}\begin{center}{\scriptsize\begin{tabular}{|c||l|l|l|l|}\hline&\multicolumn{2}{c|}{\itSystem1}&\multicolumn{2}{c|}{\itSystem2}\\\cline{2-5}&F-measure&pseudo-utility&F-measure&pseudo-utilitymeasure\\\hline\hline10\%&0.000\(\displaystyle(\frac{0}{1})\)&0.333\(\displaystyle(\frac{1/30}{1/10})\)&0.000\(\displaystyle(\frac{0}{1})\)&0.333\(\displaystyle(\frac{1/30}{1/10})\)\\\hline30\%&0.667\(\displaystyle(\frac{2}{3})\)&0.400\(\displaystyle(\frac{2/30}{1/10+2/30})\)&0.667\(\displaystyle(\frac{2}{3})\)&0.800\(\displaystyle(\frac{1/10+1/30}{1/10+2/30})\)\\\hline50\%&0.600\(\displaystyle(\frac{3}{5})\)&0.419\(\displaystyle(\frac{2/30+1/50}{1/10+2/30+2/50})\)&0.600\(\displaystyle(\frac{3}{5})\)&0.806\(\displaystyle(\frac{1/10+2/30}{1/10+2/30+2/50})\)\\\hline\end{tabular}}\end{center}\end{table}表\ref{table:exp2}に,System1,2のF-measure値とpseudo-utility値を示す.表\ref{table:exp2}において,要約率10\%におけるF-measure値とpseudo-utility値を比較すると,どちらのシステムも10\%要約の正解であるS1ではなくS4を選択しているため,F-measure値は0になる.ここで,S4は30\%要約の正解に含まれているため,S1よりも重要度は低いが,ある程度重要な情報を含んだ文であると考えられる.この例の場合,要約率10\%ではF-measure値は0か1しか取り得ないが,pseudo-utilityに基づく評価では,このような文も評価の対象とすることで,より適切な評価が可能になる.また,要約率50\%におけるSystem1とSystem2の結果を比較すると,どちらも選択した5文のうち3文が50\%要約の正解データに含まれているため,F-measure値は共に0.6である.この3文のうちS4とS10はSystem1,2が共通して選択しているが,他の1文はSystem1はS7(重要度1/50),System2はS1(重要度1/10)を選択している.2システムが同数の正解文を抽出している場合でも,特に重要と考えられる文(この場合S1)が抽出されている場合とそうでない場合との区別がF-measureではできない.一方,pseudo-utilityに基づく評価では,この場合System1,2それぞれにおいて0.419,0.806と評価値に開きがあり,この例では両者の区別がつけられることが分かる. \section{評価方法の分析} 本研究では,pseudo-utilityに基づく評価の有効性を調べるために,TSCのデータを用いて評価を行う.また,TSCではcontent-basedな評価がシステムの評価方法の一つに採用されているが,この評価結果を用い,content-basedな評価の有効性についても検討する.本節では,まず,4.1節でTSCの課題および評価方法について説明する.次に,4.2節でTSCのデータを用いた本研究の分析について述べる.\subsection{TSCにおける評価}TSCとは,要約研究における資源の共有や日本語テキストの要約に関する共通の評価方法や評価基準の明確化を本格的に推進させるために行われた,第2回NTCIRワークショップのタスクである.TSCでは3種類の課題が設定されているが,本節ではそのうち内的(intrinsic)な評価を適用している2つの課題A-1「重要文抽出型要約」とA-2「人間の自由作成要約と比較可能な要約」について述べる.なお,結果に関する詳細およびこの他の課題については,\cite{Fukushima:2001a,Fukushima:2001b,難波:2001}を参照されたい.\subsubsection{課題}\begin{flushleft}・課題A-1:重要文抽出型要約\end{flushleft}新聞30記事から,要約率10\%,30\%,50\%で重要文を抽出する.\begin{flushleft}・課題A-2:人間の自由作成要約と比較可能な要約\end{flushleft}新聞30記事を対象に,要約率20\%,40\%を越えない文字数で要約を作成する.なお,要約部分がplaintextであり,指定文字数以内に納まっていれば,どのような要約でも構わないため,課題A-1と同じシステムの出力からタグを取り除いて,plaintextにすれば,課題A-2にも参加できる.\subsubsection{要約対象テキスト}毎日新聞94年および98年から15記事づつ,計30記事が選ばれている.記事は94年から600,900,1200文字以上の3種類の長さの報道記事が,98年からは1200,2400文字以上の2種類の長さの社説が選ばれている.\subsubsection{評価方法}\subsection*{課題A-1}課題A-1のシステムの提出結果は,重要文抽出に基づいて作成された要約であり,人間が選択した重要文との間の一致度を元に評価を行なう.評価尺度としては,以下の3つを用いる.\\\begin{itemize}\item\(\displaystyle再現率=\frac{システムが選んだ文の内で正解の文の数}{人間が選んだ正解の文の総数}\)\\\item\(\displaystyle精度=\frac{システムが選んだ文の内で正解の文の数}{システムが選んだ文の総数}\)\\\item\(\displaystyle$F-measure値$=\frac{2*再現率*精度}{(再現率+精度)}\)\\\end{itemize}これらの値を要約率ごとに求めた後,平均したものを最終的な結果とする.また,ベースラインシステムとして,以下の2種類を用いる.\begin{itemize}\itemLead:本文の先頭から要約率として指定された文数だけ出力する.\itemTF:本文の各文ごとに内容語のTFの和を計算し,このスコアの高い文を要約率として指定された文数だけ選択する.選択した文を元の文の出現順に戻して出力する.\end{itemize}\subsection*{課題A-2}\subsubsection*{(i)主観評価}まず,\begin{itemize}\item人間の作成した重要個所抽出要約(PART)\item人間の自由作成要約(FREE)\item1システムが提出した結果(SYS)\itemLeadのベースラインシステムの結果(BASE)\end{itemize}の4種類の要約を用意する.同時に元テキストも用意しておく.要約評価者(1名)に元テキストと各要約結果を読んでもらい,次に「テキストとして読みやすいかどうか」の観点と,「元テキストの重要な内容を不足なく記述しているかどうか」の観点の2点から要約を評価をしてもらう.評価は,読みやすいものから,1,2,3,4となり,同様に内容の点で見て良いものから,1,2,3,4となる.\subsubsection*{(ii)content-basedな評価}人間の作成した要約およびシステムの作成した要約をともに,Jumanで形態素解析し,名詞,動詞,形容詞,未定義語を抽出する.そして,人間の作成した正解要約(FREEとPART)の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間の距離を計算し,どの程度内容が単語ベースで類似しているかという値を求める\cite{Donaway:2000}.ベクトルの要素は,各内容語のtf*idf値とし,idfの計算には,課題と同じ年の毎日新聞CD-ROM('94or'98)の全記事を同じく形態素解析した結果を用いる.なお,課題A-2において,人間の作成する要約は,(1)人間が自由作成した要約,(2)人間が重要個所抽出により作成した要約の2種類があり,content-basedな評価はこの両方に対して行なった.\subsection{評価方法の分析}pseudo-utilityに基づく評価の有効性を示すためには,pseudo-utilityに基づく評価とutilityに基づく評価の比較,および,F-measureとpseudo-utilityに基づく評価の比較を行う必要があると考えられる.しかし,先にも述べたとおり,utilityに基づく評価に用いるデータの作成にかかる負荷は非常に高く準備が困難であったため,本研究ではpseudo-utilityに基づく評価方法を課題A-1に適用し,F-measureとの比較のみを行った.4.2.1節では,まずこの結果について報告する.次に,課題A-2の結果を用いて,content-basedな評価と主観評価の比較を行った.比較結果について4.2.2節で述べる.\subsubsection{F-measureとpseudo-utilityに基づく評価の比較(課題A-1)}まず,実際にどの程度pseudo-utilityに基づく評価が有効に機能しているか,いくつかの事例にあたって調べてみた.図\ref{fig:ps_app1}は,pseudo-utilityに基づく評価が有効に機能した典型例である.2文は,「アジアにおけるエイズ感染」に関する報道記事から,要約率10\%(1文)で重要文を選択したシステムの出力結果と正解の要約である.この2文は,どちらも「アジアにおいてエイズ患者が急増している」ことを示した個所である.F-measureによる評価では,システムは正解文を選択していないので,F-measure値は0となる.一方,システムの選択した文は30\%要約には含まれているため,pseudo-utility値は0.333($\frac{1/0.3}{1/0.1}$)となる.一般に,報道記事1記事に含まれる文数は10文-20文が中心的であり,この場合,要約率10\%の時は正解文が1-2文しかない\footnote{TSCデータにおいて,要約率10\%の時の報道記事の正解文数は過半数が1,2文であった.}.このような場合,システムがある程度重要な情報を含んだ文を抽出していても,最重要文が抽出されなければF-measureでは全く評価に反映されない.一方,pseudo-utilityに基づく評価では,図\ref{fig:ps_app1}の例のようにある程度評価値に反映されるため,より適切なシステムの評価が行なえると考えることができる.別の例を図\ref{fig:ps_app2}に示す.記事940715208において,要約率10\%では正解要約文数は3文である.システムが出力した3文のうち第1文目が正解の要約に含まれているため,F-measure値は0.333となっている.一方,システムの出力した3文のうち,正解に含まれていない残りの2文の一方は30\%の正解に,もう一方は50\%の要約に含まれているため,pseudo-utility値は0.511($\frac{1/0.1+1/0.3+1/0.5}{3/0.1}$)となっている.正解とシステムの出力を比較すると,正解の2文目にある「大学や教育施設一体となった動き」の具体例がシステムの要約の2文目と3文目になっていることがわかる.つまり,システムの抽出した2文は正解文(2文目)の部分情報となっている.このような個所をシステムが抽出できたことをpseudo-utilityでは適切に評価できていることは妥当であると思われる.\begin{figure}[t]\begin{center}\vspace{0.1cm}\begin{tabular}{|c|}\hline\begin{minipage}[c]{14cm}\flushleft{\small\vspace{0.3cm}記事番号:940702171,要約率:10\%(1文)\\見出し:エイズ感染「アジア、2000年には4倍」−−来日のWHO局長警告\\F-measure値:{\bf0.000},pseudo-utility値:{\bf0.333}\begin{itemize}\item{\bf(正解)}\\世界のエイズ患者は推計で約四百万人に達し、特にアジアではこの一年間で八倍にも急増して約二十五万人になったと、世界保健機関(WHO)=NEWSのことば参照=世界エイズ対策プログラム局長のマイケル・マーソン博士が一日、発表した。\item{\bf(システム)}\\八月に横浜市で開かれる第十回国際エイズ会議を前に、来日中の同局長は厚生省で会見し「アジアの累積感染者数は二百五十万人以上だが、二〇〇〇年には四倍増の一千万人以上になると見込まれる」と警告した。\end{itemize}\vspace{0.1cm}}\end{minipage}\\\hline\end{tabular}\end{center}\caption{pseudo-utilityに基づく評価がうまく適用された例(換言)\label{fig:ps_app1}}\vspace{-0.3cm}\begin{center}\vspace{0.1cm}\begin{tabular}{|c|}\hline\begin{minipage}[c]{14cm}\flushleft{\small\vspace{0.3cm}記事番号:940715208,要約率:10\%(3文)\\見出し:止まるか「理工系離れ」−−大学・文部省など“あの手この手”\\F-measure値:{\bf0.333},pseudo-utility値:{\bf0.511}\begin{itemize}\item{\bf(正解)}\\技術立国ニッポンが危ない——理科嫌いの子供の増加や大学の理工系志願者の伸び悩みなど「理工系離れ」が深刻になっている。\\こうした傾向にストップをかけようと、大学や教育施設一体となった動きが出ている。\\こうした動きの背景にあるのが、若者の理工系離れ。\item{\bf(システム)}\\技術立国ニッポンが危ない——理科嫌いの子供の増加や大学の理工系志願者の伸び悩みなど「理工系離れ」が深刻になっている。\\大学側などは、この夏、子供向けに科学の面白さをPRするプログラムを続々登場させた。\\文部省も十四日、理数系に強い高校生への支援策を開始する一方、専門家の懇談会からの報告を受け、魅力ある理工系大学作りに乗り出した。\end{itemize}\vspace{0.1cm}}\end{minipage}\\\hline\end{tabular}\end{center}\caption{pseudo-utilityに基づく評価がうまく適用された例(例示)\label{fig:ps_app2}}\end{figure}これらの調査から,pseudo-utilityに基づく評価が,Jingらの指摘する問題点2(テキスト中の複数類似個所の選択問題)をある程度解消できていると考えられる.次に,F-measureとpseudo-utilityに基づく評価を適用した結果をシステム別にまとめた.結果を表\ref{table:aefscore}および表\ref{table:aefscore2}に示す\footnote{なお,評価用のデータは,脚注1の条件を満たさない4記事(940701189,940702187,940716331,980203053)を除く26記事を用いている.}.課題A-1には7団体10システム参加しており,表中のI--IXは各システムのIDを,また,同団体の異なるシステムはダッシュで示してある.F-measureとpseudo-utilityに基づく評価の各システムの順位を比較すると,F-measureではそれぞれ1位,2位であるシステムII,Iが,pseudo-utilityに基づく評価では順位が逆転している.また,多くのシステムは順位が1位か2位程度変動しており,中でもシステムVは,F-measureでは9位なのがpseudoutilityでは5位になっている.そこで,これらの順位の変動が適正であるかどうかを調べるため,システムIとIIの出力結果を比較した.システムIとIIが出力したそれぞれ90個の要約(30テキスト×10\%,30\%,50\%)のうち,システムIとIIでF-measure値は同じだがpseudo-utility値の異なる16組の要約について調査した.16組のうち,システムIIよりもIの方がpseudo-utility値が高くなる場合は10組,IIが高い場合が6組であった.表\ref{ivsii}にシステムIとIIの出力例を示す.表\ref{ivsii}は,記事980500136における要約率10\%での例で,原文中の文ID,pseudo-utilityに基づく評価に用いた重要度,システムIとIIが選んだ文,および文の内容を示している.重要度1/10の文が要約率10\%の正解である.システムIが選択した5文のうち要約率10\%の正解に含まれるもの(重要度1/10)が2文(S44とS52)あるため,F-measure値は0.4になる.システムIはこの他に重要度1/30の文を1文(S30),重要度1/50の文を2文(S3とS4)選択しており,結果として,このテキストにおいてはpseudo-utility値0.547を得ている.一方,システムIIもシステムIと同様に要約率10\%の正解に含まれる文(重要度1/10)を2文(S26とS43)選択しているため,F-measure値ではシステムIと同じく0.4になる.システムIIが選んだ残りの3文のうち,重要度1/50の文の2文(S3とS4)はシステムIと共通であるが,残りの1文(S31)は重要度が0であり,pseudo-utility値はシステムIよりも低い0.480に留まっている(表\ref{ivsii2}).この記事の主題は「定年制高齢者に多様な働き方を65歳現役社会の道も開け」であり,S22(重要度1/10)はその問題提起になっている.システムIが選んだS50はS22の一つの解決方法であり,ある程度重要な情報を持った文であるため,システムIとIIでこの文が選択できたかどうかで,pseudo-utility値に差ができることは妥当であると考えられる.\begin{table*}[t]{\small\caption{課題A-1における各システムのF-measure値\label{table:aefscore}}\begin{center}\begin{tabular}{|c||c|c|c||l|}\hlineSYSTEM&10\%&30\%&50\%&total(順位)\\\hline\hlineI&0.363&0.435&0.589&0.463(2)\\\hlineII&0.337&0.452&0.612&0.467(1)\\\hlineV&0.251&0.447&0.574&0.424(9)\\\hlineVI&0.305&0.431&0.568&0.435(6)\\\hlineVI'&0.282&0.435&0.572&0.429(8)\\\hlineVII&0.305&0.474&0.586&0.455(3)\\\hlineVII'&0.241&0.497&0.578&0.439(5)\\\hlineVIII&0.199&0.399&0.590&0.396(11)\\\hlineIX&0.358&0.420&0.571&0.450(4)\\\hlineIX'&0.268&0.409&0.570&0.416(10)\\\hlineTF&0.284&0.433&0.586&0.434(7)\\\hlineLead&0.276&0.367&0.530&0.391(12)\\\hline\hlineAve.&0.289&0.433&0.577&0.433\\\hline\end{tabular}\end{center}}{\small\caption{課題A-1における各システムのpseudo-utility値\label{table:aefscore2}}\begin{center}\begin{tabular}{|c||c|c|c|||l|}\hlineSYSTEM&10\%&30\%&50\%&total(順位)\\\hline\hlineI&0.518&0.559&0.664&0.581(1)\\\hlineII&0.450&0.603&0.673&0.569(2)\\\hlineV&0.410&0.546&0.641&0.527(5)\\\hlineVI&0.444&0.537&0.608&0.521(8)\\\hlineVI'&0.420&0.516&0.607&0.504(9)\\\hlineVII&0.433&0.560&0.651&0.541(3)\\\hlineVII'&0.401&0.556&0.636&0.525(6)\\\hlineVIII&0.330&0.515&0.654&0.495(11)\\\hlineIX&0.463&0.544&0.616&0.535(4)\\\hlineIX'&0.388&0.509&0.612&0.498(10)\\\hlineTF&0.406&0.526&0.657&0.525(6)\\\hlineLead&0.401&0.481&0.549&0.468(12)\\\hline\hlineAve.&0.422&0.537&0.630&0.530\\\hline\end{tabular}\end{center}}\end{table*}\begin{table}[t]\caption{記事980511036におけるシステムIとIIの要約結果(要約率10\%)\label{ivsii}}\begin{center}見出し:定年制高齢者に多様な働き方を65歳現役社会の道も開け{\scriptsize\begin{tabular}{|l|l|c|c|l|}\hline文ID&重要度&I&II&文\\\hline\hlineS3&1/50&+&+&東京都武蔵野市にある「横河エルダー」の最高齢者、菅野清治さん(79)は\\&&&&今も現役時とほぼ同じ週40時間のフルタイムで元気いっぱいに働き続ける。\\\hlineS4&1/50&+&+&「横河エルダー」は1975年に工業計器メーカー「横河電機」(従業員63\\&&&&11人)を定年退職した人たちのための受け皿会社として設立された。\\\hlineS22&1/10&&&一律にではなく高齢者のニーズに合わせ、多様なメニューをどう用意するか。\\\hlineS26&1/10&&+&年金支給開始年齢まで働きたくとも働く場がない、という切実な雇用問題が\\&&&&起きるおそれが多分にある。\\\hlineS31&0&&+&今年3月ごろから、60歳定年制の見返りに、退職金や賃金をダウンさせた\\&&&&という訴えが連合東京をはじめ、全国の労組や労働相談窓口などに相次いで\\&&&&寄せられている。\\\hlineS43&1/10&&+&約20年前には20歳代の若者は5人に1人、65歳以上は10人に1人だっ\\&&&&たのが、2015年には20歳代は10人に1人足らずとなり、逆に65歳以\\&&&&上の人口比率は4人に1人を占める、世界に例のない高齢社会となる。\\\hlineS44&1/10&+&&意欲はあっても働けない高齢者が多くなるほど、年金や医療などの社会保障負\\&&&&担はより若い世代にしわ寄せされるのは明らかだ。\\\hlineS50&1/30&+&&それまでのキャリアを生かす継続雇用を基本に据え、職種によっては高齢者向\\&&&&けの職域拡大を図り、短時間勤務も認める。\\\hlineS52&1/10&+&&21世紀の初めには「65歳現役」が当たり前となる社会にしたい。\\\hline\end{tabular}}\vspace{0.5cm}\caption{記事980511036におけるシステムIとIIのF-measure値およびpseudo-utility値(要約率10\%)\label{ivsii2}}\begin{tabular}{|c|c|c|}\hline&I&II\\\hline\hlineF-measure&0.400&0.400\\\hlinepseudo-utility&0.547&0.480\\\hline\end{tabular}\end{center}\end{table}\subsubsection{content-basedな評価の考察--主観評価との比較--(課題A-2)}まず,content-basedな評価の比較対象となる主観評価の結果について簡単に述べる.次に,主観評価とcontent-basedな評価の結果を比較し,考察する.\subsubsection*{主観評価の結果}主観評価に用いた4種類の要約(FREE,PART,SYS,BASE)と順位の関係を表\ref{table:ordera2}に示す.表は,FREE,PART,SYS,BASEの4種類の要約が,内容(CONT)および読みやすさ(READ)の観点において,1位,2位,3位,4位それぞれにランクされた割合を示している\footnote{(要約率20\%,40\%)×30テキスト×10システム=600}.表より,FREEは1位を占める割合が一番高く(73.5\%),次いでPART,SYS,BASEの順になっているが,FREEやPARTに比べ,SYSとBASEの品質は僅差であると言える.4種類の要約の品質を大小関係で示すと大まかに次のようになる.\begin{quote}(1)FREE$>$(2)PART$>$(3)システム要約とベースライン\end{quote}\begin{flushleft}このようなデータの性質をふまえ,次節では主観評価とcontent-basedな評価の比較を行う.\end{flushleft}\begin{table*}[t]\caption{主観評価に用いた4種類の要約と順位の関係\label{table:ordera2}}\begin{center}{\scriptsize\begin{tabular}{|c|c|c|c|c|c|}\hline&&1位&2位&3位&4位\\\hline\hlineFREE&CONT&69.8\%(419/600)&28.7\%(172/600)&1.5\%(9/600)&0.0\%(0/600)\\&READ&77.7\%(466/600)&19.0\%(114/600)&3.2\%(19/600)&0.2\%(1/600)\\\cline{2-6}&TOTAL&73.5\%(885/1200)&23.8\%(286/1200)&2.3\%(28/1200)&0.1\%(1/1200)\\\hline\hlinePART&CONT&49.0\%(294/600)&49.0\%(294/600)&1.8\%(11/600)&0.2\%(1/600)\\&READ&40.6\%(244/600)&47.5\%(285/600)&8.5\%(51/600)&3.0\%(18/600)\\\cline{2-6}&TOTAL&44.8\%(538/1200)&48.3\%(579/1200)&5.3\%(64/1200)&1.6\%(19/1200)\\\hline\hlineSYS&CONT&2.3\%(14/600)&3.3\%(20/600)&68.0\%(408/600)&26.3\%(158/600)\\&READ&11.2\%(67/600)&10.3\%(62/600)&43.3\%(260/600)&38.8\%(233/600)\\\cline{2-6}&TOTAL&6.6\%(79/1200)&6.8\%(82/1200)&55.7\%(668/1200)&32.6\%(391/1200)\\\hline\hlineBASE&CONT&0.0\%(0/600)&0.8\%(5/600)&38.2\%(229/600)&61.0\%(366/600)\\&READ&6.5\%(39/600)&8.0\%(48/600)&52.7\%(316/600)&32.8\%(197/600)\\\cline{2-6}&TOTAL&3.2\%(39/1200)&4.4\%(53/1200)&45.4\%(545/1200)&46.9\%(563/1200)\\\hline\end{tabular}}\end{center}\end{table*}\subsubsection*{主観評価とcontent-basedな評価の比較}まず,content-basedな評価結果と主観評価の結果の相関について調査した.調査は,主観評価に用いた4種類の要約の中から任意の2つを選び,主観評価による順序とcontent-basedな評価の大小関係が一致する割合を調べた.4種類の要約の組合せは「FREE-PART」「FREE-SYS」「FREE-BASE」「PART-SYS」「PART-BASE」「SYS-BASE」の6通りあるが,FREEとPARTは共にcontent-basedな評価で評価基準として用いており,どちらも人手で作成した理想的な要約であるため,6通りの組合せから「FREE-PART」の組合せだけ除外した\footnote{すなわち,5通りの組合せ×30テキスト×10システム=1500通りの組合せについて調べた.}.また,主観評価は内容と読みやすさの2つの側面から行なったが,content-basedな評価は,要約間の内容の類似度を測るために用いられた指標であるため,主観評価結果は内容による比較のものを用いた.また,content-basedの評価値は,TSCにおける評価ではFREEを基準にした場合とPARTを基準にした場合の2種類で計算しているが,主観評価との比較も,それぞれの場合毎に分けて行っている.表\ref{table:cbcomp1}は,その結果である.表から,要約率が20\%と40\%の両方において,主観評価の結果とcontent-basedな評価が,高い割合(約90\%)で一致していることが分かる.一方,先にも述べたように,主観評価で比較した4種類のうち,システムの要約とベースライン(Lead)の要約は,FREEやPARTと比べると平均的に同程度の品質の要約であると考えられる.そこで,表\ref{table:cbcomp1}の中でも特にシステムの要約とベースラインに着目し,比較を行った.結果を表\ref{table:cbcomp2}に示す.表\ref{table:cbcomp2}において,主観評価とcontent-basedな評価との相関は,表\ref{table:cbcomp1}の場合ほどはっきりとは現れていない.このことから,content-basedな評価は,品質に大きな違いのある2つの要約を比較する上では,よい指標であるが,品質が僅差な2つの要約を比較する上では,それほど有用な指標ではないと考えることができる.\begin{table}[t]\caption{主観評価による順序とcontent-basedな評価の大小関係が一致する事例の割合(全データ)\label{table:cbcomp1}}\begin{center}\begin{tabular}{|c|c|c|}\hline&FREEを基準&PARTを基準\\\hline\hline20\%要約&91.4\%(1371/1500)&88.6\%(1329/1500)\\\hline40\%要約&89.3\%(1339/1500)&90.0\%(1350/1500)\\\hline\end{tabular}\\\vspace{0.1cm}平均:89.8\%\vspace{-0.7cm}\end{center}\end{table}\begin{table}[t]\caption{主観評価による順序とcontent-basedな評価の大小関係が一致する事例の割合\\(SYSとBASEの比較)\label{table:cbcomp2}}\begin{center}\begin{tabular}{|c|c|c|}\hline&FREEを基準&PARTを基準\\\hline\hline20\%要約&64.3\%(193/300)&58.0\%(174/300)\\\hline40\%要約&58.7\%(176/300)&63.7\%(191/300)\\\hline\end{tabular}\\\vspace{0.1cm}平均:61.2\%\vspace{-0.7cm}\end{center}\end{table}そこで,さらに,content-basedの評価値の差と信頼度(精度)に関する調査を行なった.content-basedの評価値の差に着目し,値の差0.1毎に2つの要約のcontent-basedの評価値と主観評価の順位との大小関係が一致する事例の割合について調べた.結果を表\ref{table:cb0.1}に示す.表より,content-basedの評価値で0.2以上の開きがあれば,93\%以上の割合で主観評価の結果と一致する,すなわち,93\%以上の信頼度で要約を評価することが可能になると思われる.\begin{table}[t]\caption{content-basedの評価値と主観評価の順位との大小関係が一致する事例の割合\label{table:cb0.1}}\begin{center}\begin{tabular}{|c|l|}\hlinecontent-basedの評価値の差&主観評価と一致する\\&事例の割合(\%)\\\hline\hline0.0-0.1&0.578(718/1242)\\\hline0.1-0.2&0.771(916/1188)\\\hline0.2-0.3&0.928(966/1041)\\\hline0.3-0.4&0.959(805/839)\\\hline0.4-0.5&0.964(588/610)\\\hline0.5-0.6&0.988(589/596)\\\hline0.6-0.7&0.994(336/338)\\\hline0.7-0.8&0.990(103/104)\\\hline0.8-0.9&1.000(26/26)\\\hline0.9-1.0&1.000(16/16)\\\hline\end{tabular}\end{center}\end{table}表\ref{table:cb0.1}から得られた知見を元に,表\ref{table:cbcomp2}に示したシステムの要約とベースライン(Lead)の要約の比較結果のうち,content-basedの評価値の差が0.2以上の場合について調べてみた.表\ref{table:cbcomp2}の中でcontent-basedの評価値の差が0.2以上となる事例の割合を表\ref{table:cbcomp31}に示す.表\ref{table:cb0.1}において,評価値の差が0.2以上になる場合は全体の59.5\%($1-\frac{1242+1188}{6000}$)であるのに対し,システムの要約とベースラインの要約の間では全体の14.5\%しかない.このことからも,先にも述べたようにシステムの要約とベースラインの要約は,全体的に品質の近い要約であることが分かる.次にシステムの要約とベースラインの要約との間のcontent-basedの評価値の差が0.2以上となる場合に,主観評価による順序とcontent-basedな評価の大小関係が一致する事例の割合を調べた.結果を表\ref{table:cbcomp32}に示す.表\ref{table:cb0.1}における調査(事例数:6000)と比べると事例数が少ない(174)ので,あまり厳密な値であるとは言えないが,表\ref{table:cbcomp32}の値(71.3\%)と表\ref{table:cbcomp2}の61.2\%とを比較すると,評価値の差が0.2以上の場合content-basedな評価の信頼度が10\%以上高くなることが確認できる.しかし,この結果からは表\ref{table:cb0.1}における評価値の差0.2における一致度92.8\%までには至っていない.\begin{table}[t]\caption{content-based値の差が0.2以上ある事例の割合(SYSとBASEの比較)\label{table:cbcomp31}}\begin{center}\begin{tabular}{|c|c|c|}\hline&FREEを基準&PARTを基準\\\hline\hline20\%要約&17.0\%(51/300)&23.0\%(69/300)\\\hline40\%要約&10.0\%(30/300)&8.0\%(24/300)\\\hline\end{tabular}\\\vspace{0.1cm}平均:14.5\%\vspace{-0.7cm}\end{center}\end{table}\begin{table}[t]\caption{content-based値の差が0.2以上ある場合に主観評価による順序と一致する事例の割合\\(SYSとBASEの比較)\label{table:cbcomp32}}\begin{center}\begin{tabular}{|c|c|c|}\hline&FREEを基準&PARTを基準\\\hline\hline20\%要約&74.5\%(38/51)&73.9\%(51/69)\\\hline40\%要約&60.0\%(18/30)&70.8\%(17/24)\\\hline\end{tabular}\\\vspace{0.1cm}平均:71.3\%\vspace{-0.7cm}\end{center}\end{table} \section{結論と今後の課題} 本研究では,要約の評価方法について,pseudo-utilityに基づく評価方法を提案し,F-measureとの比較を行った.また,content-basedな評価と被験者による主観評価との結果を比較し,結果について検討した.F-measureとpseudo-utilityに基づく評価の比較では,要約システムの出力をいくつか調べたところ,正解には含まれていないが正解文と類似する内容の文をシステムが抽出した場合,pseudo-utilityに基づく評価では評価値にそれが反映されていることが確認された.すなわち,pseudo-utilityに基づく評価は,F-measureがかかえる2つの問題点のうち「(2)テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価が大きく変化する」が解消できていることがわかった.次に,content-basedな評価と被験者による主観評価との比較の結果,2つの要約が,content-based値で0.2以上の開きがあれば,93\%以上の割合で人間の主観評価の結果と一致することがわかった.本研究では,複数の要約率のデータを用いることで,Radevらの提案するutilityに基づく評価を疑似的に実現できることを示した.本研究はTSCで作成された10\%,30\%,50\%の3種類の要約データを用いたが,今後は,この他の要約率の組合せについても調べる必要がある.また,本研究ではpseudo-utilityに基づく評価において,文の重要度を`1/要約率'として計算したが,この他にも様々な重要度を設定することが可能である.重要度をどのように設定すればより良い評価が可能になるかについても調べる必要があると考えられる.本研究では扱っていないが,Jingらの指摘する問題点1(要約率の変化に伴う評価値の変化)を解消する評価方法についても今後検討していく必要がある.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{難波英嗣(正会員)}{1996年東京理科大学理工学部電気工学科卒業.1998年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.2001年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年4月日本学術振興会特別研究員.2002年東京工業大学精密工学研究所助手,現在に至る.博士(情報科学).自然言語処理,特にテキスト自動要約に関する研究に従事.情報処理学会,人工知能学会ACL,ACM各会員.nanba@pi.titech.ac.jp.}\bioauthor{奥村学(正会員)}{1984年東京工業大学工学部情報工学科卒業.1989年東京工業大学大学院理工学研究科博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授.2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,語彙的知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.oku@pi.titech.ac.jp.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N03-07
\section{はじめに} 修辞構造理論\cite{mann-etal-1987-rhetorical}は文書中のテキストスパン(後述するEDUの系列)間の関係を木構造で表現する理論である.\blfootnote{本稿はConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL2021)での発表ImprovingNeuralRSTParsingModelwithSilverAgreementSubtrees\cite{kobayashi-etal-2021-improving}に加筆を行ったものである.}修辞構造理論によると,文書は,木の最小構成単位となる節相当のユニット,ElementallyDiscourseUnit(EDU)へと分割され,EDUを終端ノードとした構成素木である修辞構造木として表現される.非終端ノードはそれが支配するテキストスパン(連続したEDU)の核性ラベル,核(N:Nucleus),衛星(S:Satellite)をあらわす.核と衛星は対の関係にあり,テキストスパンの中心的役割を担う核を衛星が修飾する.よって,任意の非終端ノードは基本的には単核,つまりN-S,S-Nの組み合わせの子供を持つ.ただし例外的に並列構造をあらわす場合,多核,N-Nという組み合わせの子供を持つ場合がある.そして,木のエッジは隣接する2つのテキストスパンの間の修辞関係をあらわす.修辞関係ラベルは,ドメインによって異なるが一般的に用いられるベンチマークデータセットであるRSTDiscourseTreebank:RST-DT\cite{carlson-etal-2001-building}ではElaboration,Attributionなど18種類が定義されている.図\ref{fig:rst_tree}に例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-3ia6f1.pdf}\end{center}\caption{修辞構造木の例.(wsj\_0699)}\label{fig:rst_tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一般的に修辞構造解析器(以下,解析器)は以下の3つの分類器から構成され,その学習には教師あり学習が用いられる.\begin{enumerate}\item木構造を推定するためにテキストスパンの分割または結合を決定する分類器\item2つの隣接するテキストスパン間の核性ラベル(S-N,N-S,N-Nのいずれか)を推定する分類器\item2つの隣接するテキストスパン間の修辞関係ラベル(RST-DTの場合,18種のラベルのいずれか)を推定する分類器\end{enumerate}教師あり学習には,文書に対して修辞構造木のアノテーションを与えたデータが大量に必要となるが,アノテーションには専門知識を必要とするため,大規模なコーパスを構築することが難しい.修辞構造解析の研究において最も一般的,かつ最大のデータセットであるRST-DTでさえ385文書しかない.データ不足はいわゆる教師あり学習を用いた手法にとって大きな問題であり,近年のニューラルネットワークを用いた修辞解析法においても例外ではない.しかし,ニューラルネットを用いた自然言語処理では,大規模な疑似正解データを活用する手法\cite{Nguyen-etal-2020-data,vania-etal-2019-systematic}が提案され,こうしたデータ不足が克服されつつある.たとえば,ニューラル機械翻訳(NMT)では,Back-translationにより自動的に生成した大量の疑似正解データ(疑似対訳データ)を利用する枠組み\cite{sennrich-etal-2016-improving,Nguyen-etal-2020-data}が翻訳性能の大幅な向上を示した.本稿では,先述したNMTにおける疑似対訳データの活用にヒントを得て,修辞構造解析におけるデータ不足の問題を解決するための大規模な疑似正解データセットの自動構築方法とそれを利用した事前学習,追加学習の枠組みを提案する.具体的には大量のラベルなしデータに対し,複数の解析器を適用した結果から一致する部分木を擬似正解データセットとする.そして,それを\citeA{kobayashi-etal-2020-top}らの手法(Span-BasedParer:SBP)の事前学習に用い,正解データセットであるRST-DTにより追加学習する.また,複数の解析器の間で一致する部分木を効率的に抽出するためのアルゴリズムも提案する.RST-DTを用いた実験では,疑似正解データを用いることにより,SBPに対して性能が向上することを確認した.特に,修辞関係ラベル推定の性能向上が顕著であり5ポイント程度のゲインを得た.正解のEDU分割を用いて木構造のみを評価するとF1スコアが74.1,核性ラベルも含めると64.7,関係ラベルも含めると54.1,すべてを含めると52.7であり,現在の最高性能の解析器である\citeA{zhang-etal-2021-adversarial}に匹敵する性能を達成した.一方,自動推定したEDU分割を用いた場合には,それぞれ68.1,57.4,47.6,45.9であり,関係ラベルを含めた場合の性能は,現在の最高性能の解析器である\citeA{nguyen-etal-2021-rst}に匹敵する性能を達成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{談話構造解析における解析方法の変化}初期の修辞構造解析の研究では人手で作成した特徴量をベクトルとして表現し,分類器としてSVMやLinear-ChainCRFを採用した遷移型の解析手法を用いて上向きに木を構築する,つまりテキストスパンを結合していく手法が主流であった\cite{duverle-prendinger-2009-novel,hernault2010hilda,feng-hirst-2014-linear}.こうした遷移型の上向き解析は決定的に木を構築するためテキストスパンの結合スコアの観点から最適な木が構築できるとは限らない.そこで,CKY法を用いて最適な木を構築する手法も提案された\cite{joty-etal-2013-combining,joty-etal-2015-codra}.しかし,文から得られる構文木とは異なり,文書から得られる修辞構造木は終端ノード数が50以上になることも多い.よって,計算量が問題となることからCKY法を用いた手法は多くない.こうした従来型の機械学習を用いた修辞構造解析手法のなかで特筆すべき手法として,SVMを採用した遷移型の上向き解析手法\cite{wang-etal-2017-two}であるTwo-StageParser(以下,TSP)がある.TSPは,還元(Reduce)時に核性ラベルを推定することで,まず核性ラベル付きの木を推定し,次に推定された木の構造をもとに隣接する2つのスパンに対して関係ラベルを推定する2段階の解析を行う.2段階の解析の効果により,従来型の修辞解析手法のなかでは最も高い性能を達成した.ニューラルネットワークの有効性が様々な自然言語処理タスクで示されたことから,修辞構造解析においてもニューラルネットワークを活用した手法が数多く提案されている.\citeA{yu-etal-2018-transition}はニューラルネットワークを用いた遷移型の上向き解析手法を提案した.文内の係り受け構造を解析するニューラルネットワークから得られる特徴ベクトルを埋め込み表現として利用することで,関係ラベルの推定において高い性能を達成した.また,\citeA{guz-carenini-2020-coreference}は\citeA{wang-etal-2017-two}のTSPから分類器を多層パーセプトロンに変更し,スパンのベクトル表現をSpanBERT\cite{joshi-etal-2020-spanbert}により獲得することで大きな改善を得た.さらに,先述した上向き解析手法に加え,近年では,下向き解析手法が多く提案されている.これは上向き解析が局所的なEDU間の繋がりをもとに木を構築するのに対して,より大きな文や段落,トピックといった情報を考慮できるからである.\citeA{lin-etal-2019-unified}は,エンコーダ・デコーダモデルのひとつであるポインターネットワーク\cite{NIPS2015_29921001}を用いてテキストスパンを再帰的に2分割することで文内の修辞構造を解析する手法を提案した.そして,\citeA{zhang-etal-2020-top}によって文書の修辞構造解析へと拡張された.また,より単純な下向き解析手法として,\citeA{kobayashi-etal-2020-top},\citeA{koto-etal-2021-top}は,デコーダを経ずに多層パーセプトロンを用いてテキストスパンを再帰的に2分割する手法を提案した.特に\citeA{kobayashi-etal-2020-top}のSBPは,木構造,核性ラベル推定において高い性能を達成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ拡張手法}修辞構造解析手法の学習・評価にはRSTDiscourseTreebank:RST-DT\cite{carlson-etal-2001-building}が標準的に利用される.RST-DTはPennTreebank\cite{marcus-etal-1993-building}の一部に対して修辞構造木を与えたものであり現存する修辞構造のアノテーション済みデータセットとしては最大規模である.しかし,最大規模のデータセットではあるものの文書数は385でしかなく,解析器の学習に十分とは言えない.そこで,データ不足を解決するための手法も盛んに研究されている.\citeA{braud-etal-2016-multi}は修辞構造解析の他に文書やそれを構成する文に対する感情分類や時系列分類,属性分類などの合計13通りの分類問題のマルチタスク学習によって学習事例を増やすことで解析器の性能および頑健性の向上に取り組んだ.\citeA{braud-etal-2017-cross}はドイツ語やスペイン語など多言語の修辞構造アノテーション済みデータセットを英語へと翻訳することでデータ拡張を行った.\citeA{huber-carenini-2019-predicting}はMEGA-RSTと呼ばれる大規模な学習データを自動生成するために,文書を構成する各EDUごとの感情極性スコアとアテンションスコアをMultipleInstanceLearning\cite{angelidis-lapata-2018-multiple}により獲得し,得られたスコアをもとにCKY法を適応してラベルなしデータから核性付きの木を得た.\citeA{guz-etal-2020-unleashing}はMEGA-DTコーパス\cite{huber-carenini-2020-mega}を事前学習に用い,RST-DTで追加学習を行う手法を提案した.擬似正解データによる事前学習と正解データによる追加学習という枠組み自体は本稿での提案法と同じであるが,擬似正解データの作成法が大きく異なり,修辞関係ラベルを含まない.\citeA{jiang-etal-2016-training}はco-trainingを利用してラベルなしデータを活用する手法を提案した.低頻度の修辞関係ラベルの推定性能を改善したが,修辞関係ラベル全体で見ると性能は低下している.また,この手法は木構造や核性ラベルの推定性能の改善には対応しない.提案手法と関連する擬似正解データを活用した学習方法として自己学習がある.自己学習では,ある解析器でラベルなしデータを解析した結果を擬似正解データとして,再度その解析器の学習に利用する.一方,提案法では疑似正解データを用いて学習する解析器は擬似正解データを作成するために利用したものと異なる.つまり,教師(擬似正解データを作成する解析器)-生徒(それを用いて学習する解析器)モデルを採用している.また,提案法における疑似正解データの作成に複数の解析器を使用するという点では,co-training\cite{10.1145/279943.279962}やtri-training\cite{zhou-etal-2005-tri}も同じである.これらの手法による学習は疑似正解データの作成と疑似正解データによる学習を繰り返し行うが,ニューラルネットワークを用いた学習において,繰り返し適用するには学習時間の観点から非効率的である.したがって,近年の手法\cite{mcclosky-etal-2006-effective,pekar-etal-2014-exploring,weiss-etal-2015-structured}などでは繰り返しを省略して一度だけ疑似正解データを適用する手法が多く見られ,本手法も同様に一度だけ適用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似正解データを活用した学習方法の概要}\label{sec:prop_overview}初期の修辞構造解析の研究ではテキストスパンをベクトルとして表現するために文書の全体の構造から得られる特徴量,たとえば,文書内での位置などを必要とした.一方で近年のニューラルネットワークを活用した手法ではテキストスパンのベクトルは事前学習済み言語モデルの単語ベクトルに基づくため,必ずしも文書全体を必要としない.したがって,部分木をニューラルネットワークの学習データとして有効活用できることから,本稿では部分木を擬似正解データとして利用した.図\ref{fig:overview}に提案手法の概要を示す.提案手法は大きく分けて2つの手順に分かれる.1つ目は教師解析器を用いた疑似正解データの作成,2つ目は疑似正解データを用いた生徒解析器の学習である.擬似正解データの作成に用いる教師解析器として,ニューラルネットワークを用いない解析器のなかで最も性能の良いTSPを採用した.特に生徒解析器であるSBPが苦手とする修辞関係ラベルの推定性能が良いことが採用の理由である.この手法は,SVMの最適化に確率的双対座標降下法を用いているため,初期値により解が異なる.そこで,異なる初期値で学習した複数のTSPを1つの文書に対し適用し,複数の修辞構造木を得た.そして,複数の木の間で共通する部分木,つまり合意部分木(AgreementSubTree:AST)を疑似正解データとして抽出する.最後に,擬似正解データを用いて生徒解析器であるSBPを事前学習し,正解データを用いて追加学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-3ia6f2.pdf}\end{center}\caption{提案法の概要}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{合意部分木の抽出}\label{sec:ext_agreement_subtree}質の高い擬似正解データを得るためには複数の解析器の間で一致する木をそれとすればよい.しかし,修辞構造木は文書から得られる木であるためそのサイズが大きく複数の解析器による結果が一致することはまれである.一方で,図~\ref{fig:AST_extraction}の網掛けで表されるように,木の全体で一致していなくとも,木の一部では一致することは多い.そこで,本論文ではASTを疑似正解データとして利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{29-3ia6f3.pdf}\end{center}\caption{重複する部分木(網掛け部分)の抽出}\label{fig:AST_extraction}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%大量の擬似正解データを得るためには,効率的にASTを抽出しなければならない.そこで,本稿ではASTを効率的に抽出するためのアルゴリズムを提案する.提案するアルゴリズムは木の走査に基づいており,木に含まれるノードの数$n$に対して線形の$O(n)$で動作する.合意部分木を列挙するアルゴリズムはデータマイニング分野で複数の研究\cite{10.5555/645806.670165,1458697,10.1109/SFCS.1994.365717}があり,たとえば,一般的な木の集合から合意部分木を得るには\citeA{1458697}で提案された最右拡張を用いれば良いが,これは計算量を見積もることができない.一方,本稿では終端ノードが順序も含めて一致する特殊な木を対象とすることから,新たな合意部分木を列挙するアルゴリズムを提案した.提案するアルゴリズムの目的は入力された$k$個の修辞構造木(trees)の全てに出現する部分木(subtrees)を抽出することにある.Algorithm~\ref{alg:main}にアルゴリズム全体の流れを示す.アルゴリズムは関数\textsc{MakeCount},関数\textsc{Agreement},関数\textsc{FindRoot}の3つから構成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.1\begin{algorithm}[b]\label{alg:main}\DontPrintSemicolon\caption{ASTの抽出}\SetKwInput{KwInput}{Input}%SettheInput\SetKwInput{KwOutput}{Output}%settheOutput\KwInput{trees}\KwOutput{subtrees}\SetKwFunction{FuncMakeCount}{\scMakeCount}\SetKwFunction{FuncAgreement}{\scAgreement}\SetKwFunction{FuncExtract}{\scFindRoot}count$\gets$\FuncMakeCount{\rmtrees}\;tree$\gets$trees[0]\;span$\gets$root(tree)\;S$\gets$\FuncAgreement{\rmspan,count}\;subtrees$\gets$\FuncExtract{\rmspan,S}\;\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%はじめにAlgorighm\ref{alg:count_span}に示す関数\textsc{MakeCount}により出現する全てのスパンの頻度を計算し,スパンをキーとしてその頻度を値とする辞書によって保持する.本アルゴリズムでは,各ノードが内包する先頭と末尾のEDUのインデックスで表される区間とそのノードに付与された核性,関係ラベルの三つ組をスパン(span)として扱い,これを同一性の判定に用いる.ラベルなしのスパンによる同一性の判定も可能であるが,本稿では関係ラベルの推定性能向上のためにラベル付きのスパンを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.2\begin{algorithm}[t]\label{alg:count_span}\DontPrintSemicolon\caption{スパンをキーとしての出現数を値にもつ辞書Countの作成}\SetKwProg{Fn}{Function}{:}{}\SetKwFunction{FuncMakeCount}{\scMakeCount}\SetKwFunction{FuncSubMakeCount}{\scSubMakeCount}\Fn{\FuncMakeCount{{\rmtrees}}}{Count$\gets$dict()\;\For{\rmtree\textbf{in}trees}{\For{\rmspan\textbf{in}\rmtraversal(tree)}{\If{\rmspan\textbf{notin}Count}{Count[span]$\gets$0\;}Count[span]+=1\;}}\KwRetCount\;}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.3\begin{algorithm}[t]\label{alg:attach_flag}\DontPrintSemicolon\caption{各スパンにASTの十分条件を付与する関数\sc{Agreement}}\SetKwProg{Fn}{Function}{:}{}\SetKwFunction{FuncAgreement}{\scAgreement}\SetKwFunction{FuncSubAgreement}{\scsubAgreement}\Fn{\FuncAgreement{{\rmspan,Count}}}{${\rmS}\gets$dict()\;\Fn{\FuncSubAgreement{{\rmspan}}}{\If{${\rmLen(span)}{=}1$}{\KwRetTrue\;}\Else{$\rmS[span]\getsCount[span]{=}k\land\FuncAgreement{{\rmleftChild(span)}}\land\FuncAgreement{{\rmrightChild(span)}}$}\;\KwRet$\rmS[span]$\;}\FuncSubAgreement{\rmspan}\;\KwRetS\;}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,与えられた複数の修辞構造木のうち1つを任意に選び,そのROOTスパンをAlgorighm~\ref{alg:attach_flag}に示す関数\textsc{Agreement}へ入力する.関数\textsc{Agreement}は木の各スパンにASTの十分条件が満たされているかどうかを示すフラグを付与する.あるスパンがASTである条件を満たすためには,左右の子スパンがASTの条件を満たし,かつ自身の出現頻度$\rmCount(span)$が木の数$k$と一致することである.ここで,スパンの出現頻度$\rmCount(span)$は事前に数えることができるので,スパンをキーとして頻度を値に持つ辞書とすることで簡単に出現頻度を参照できる.最後に関数\textsc{Agreement}によりフラグが付与された状態のスパンをAlgorighm~\ref{alg:find_root}に示す関数\textsc{FindRoot}へと入力する.関数\textsc{FindRoot}は付与されたフラグを元に,ASTである部分木をすべて抽出する.このとき,AST同士の間では重複が起きないようにする.さらに,$l_{\rmmin},l_{\rmmax}$を用いて抽出する木の大きさを制御する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.4\begin{algorithm}[t]\label{alg:find_root}\DontPrintSemicolon\caption{ASTを列挙する関数\sc{FindRoot}}\SetKwProg{Fn}{Function}{:}{}\SetKwFunction{FuncExtract}{\scFindRoot}\SetKwFunction{FuncSubExtract}{\scsubFindRoot}\Fn{\FuncExtract{{\rmspan,S}}}{subtrees$\gets$list()\;\Fn{\FuncSubExtract{{\rmspan}}}{\If{${\rmLen(span)}<l_{\rmmin}$}{\KwRet\;}\ElseIf{${\rmLen(span)}>l_{\rmmax}$}{$\FuncSubExtract{{\rmleftChild(span)}}$\;$\FuncSubExtract{{\rmrightChild(span)}}$\;}\Else(\tcp*[h]{$l_{\rmmin}\le{\rmLen(span)}\lel_{\rmmax}$}){\If{${\rmS[span]}={\rmTrue}$}{subtrees.append(span)\;}\Else{$\FuncSubExtract{{\rmleftChild(span)}}$\;$\FuncSubExtract{{\rmrightChild(span)}}$\;}}}\FuncSubExtract{\rmspan}\;\KwRetsubtrees\;}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ASTがすべての木に共通して含まれるため,関数\textsc{Agreement}および関数\textsc{FindRoot}は$k$個の修辞構造木全てに対して行う必要はなく$k$個の木のうち一つだけに適用すればよい.ただし関数\textsc{MakeCount}によりスパンの頻度を事前に計算するときのみ全ての木を用いて計算を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{生徒解析器:Span-BasedParser}得られた部分木からなる疑似正解データは,任意の生徒解析器に適用可能であるが,周辺の文脈に強く依存する解析器の場合,正解データとの乖離が大きくなり性能向上に寄与できない可能性が高い.たとえば,着目するスパンが文書中のどこに位置しているかを素性として利用する手法\cite{wang-etal-2017-two},着目するスパンよりも左側のスパン(部分木)の情報を利用するシフト還元法\cite{guz-carenini-2020-coreference}には適していないと考える.一方,スパン分割に基づく下向き解析手法は周辺の文脈を必ずしも必要としないため部分木による学習に適していると考える.したがって,本稿ではSpan-BasedParser:SBP\cite{kobayashi-etal-2020-top}を生徒解析器として採用した.以下にその詳細を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{スパンのベクトル表現}SBPでは多層パーセプトロンを用いてスパンの分割,ラベルの推定を行うため,各スパンを固定長のベクトルで表現する必要がある.ここでは,はじめにEDUのベクトル表現,次にスパンのベクトル表現の獲得方法を説明する.$t$番目のEDUのベクトル表現$\textbf{e}_{t}$は,式(\ref{eq:edu_emb})により,EDU内の各単語の埋め込み表現$\textbf{h}'_j$を平均することで固定長のベクトルとして表現する.\pagebreak\begin{equation}\label{eq:edu_emb}\textbf{e}_{t}=\frac{1}{n}\sum_{j\in{1,\dots,n}}\textbf{h}'_{j}\end{equation}各単語の埋め込み表現は,文脈を考慮したベクトルとするために双方向LSTM\cite{schuster1997bidirectional,graves2005framewise}とゲート機構\cite{zhou-etal-2017-selective}を用いて以下により求める.\begin{align}\overrightarrow{\textbf{h}_{i}}&=\overrightarrow{\rmLSTM}_{\rmword}(\overrightarrow{\textbf{h}}_{i-1},\textbf{w}_{i}),\\\overleftarrow{\textbf{h}_{i}}&=\overleftarrow{\rmLSTM}_{\rmword}(\overrightarrow{\textbf{h}}_{i+1},\textbf{w}_{i}),\\\textbf{h}_{i}&=[\overrightarrow{\textbf{h}_i};\overleftarrow{\textbf{h}}_i],\\\textbf{sGate}_{i}&=\sigma(\textbf{W}_{s}\textbf{h}_{i}+\textbf{U}_{s}\textbf{s}+\textbf{b}_{s}),\label{eq:p_s}\\\textbf{h}'_{i}&=\textbf{h}_{i}\odot\textbf{sGate}_{i}\end{align}ここで,式(\ref{eq:p_s})の$\textbf{s}$はEDU内の先頭と末尾の単語の表現ベクトルから$[\textbf{h}_1;\textbf{h}_n]$とした($n$はEDUに含まれる単語数).また,単語の埋め込み表現$\textbf{w}_{i}$にはELMo\cite{peters-etal-2018-deep}とGloVe\cite{pennington2014glove}を結合して利用した.次に,$i$番目から$j$番目のEDUで構成されるスパンの埋め込み表現$\textbf{u}_{i:j}$は,双方向LSTMの前向き後向きのそれぞれの状態の差分により式(\ref{eq:emb_span})によって求める.\begin{align}\overrightarrow{\textbf{f}_{i}}&=\overrightarrow{\rmLSTM}_{\rmunit}(\overrightarrow{\textbf{f}}_{i-1},\textbf{e}_{i}),\\\overleftarrow{\textbf{b}_{i}}&=\overleftarrow{\rmLSTM}_{\rmunit}(\overrightarrow{\textbf{b}}_{i+1},\textbf{e}_{i}),\\\textbf{u}_{i:j}&=[\textbf{f}_j-\textbf{f}_{i-1};\textbf{b}_{i-1}-\textbf{b}_{j}]\label{eq:emb_span}\end{align}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{スパンの分割}$i$番目から$j$番目のEDUで構成されるスパンが与えられたとき,分割候補となる各点$j$において,関数$s_{\rmsplit}(i,j,k)$により分割の良さを表すスコアを計算する.\begin{equation}s_{\rmsplit}(i,j,k)=\textbf{h}_{i:k}^{\top}\textbf{W}_{u}\textbf{h}_{k+1:j}+\textbf{v}_{\ell}^{\top}\textbf{h}_{i:k}+\textbf{v}_{r}^{\top}\textbf{h}_{k+1:j}\label{eq:split}\end{equation}ここで$\textbf{W}_{u}$は重み行列,$\textbf{v}_{\ell},\textbf{v}_{r}$はそれぞれ左右のスパンに対応する重みベクトルである.$\textbf{h}_{i:k}$,$\textbf{h}_{k+1:j}$は左右のスパン表現をそれぞれ異なる多層パーセプトロンにより変換したベクトルであり,以下のように求められる.\begin{align}{\rmMLP}_{*}(\textbf{x})&=\textbf{W}_2({\rmReLU}(\textbf{W}_1(\textbf{x})+\textbf{b}_1))+\textbf{b}_2,\\\textbf{h}_{i:k}&={\rmMLP}_{\rmleft}(\textbf{u}_{i:k}),\\\textbf{h}_{k+1:j}&={\rmMLP}_{\rmright}(\textbf{u}_{k+1:j})\end{align}スパンの分割は式(\ref{eq:split})が最大となる点$k$を以下の式で求める.\begin{equation}\hat{k}={\rmargmax}_{k\in\{i,\dots,j-1\}}[s_{\rmsplit}(i,j,k)]\label{eq:split_maximize}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ラベルの推定}点$k$でスパンを分割した後,分割された左右のスパンの間に核性と関係ラベルを推定する.データスパースネスの影響を避けるために核性と関係ラベルは異なる分類器によって学習される.左右のスパン表現と外側のスパン表現$\textbf{u}_{1:i},\textbf{u}_{j:n}$を用いて各ラベル$\ell$のスコアを関数$s_{\rmlabel}$により推定する.\begin{equation}s_{\rmlabel}(i,j,k,\ell)=\textbf{v}_{\ell}{\rmMLP}([\textbf{u}_{i:k};\textbf{u}_{k+1,j};\textbf{u}_{1:i};\textbf{u}_{j:n}])\label{eq:label}\end{equation}ここで$\textbf{v}_{\ell}$はラベル$\ell$に対応する重みベクトルであり,$[;]$はベクトルの結合を表す.${\rmMLP}$は多層パーセプトロンであり,核性と関係でそれぞれ${\rmMLP}_{\rmnuc},{\rmMLP}_{\rmrel}$を別々に学習する.左右のスパン間に割り当てられるラベルは式(\ref{eq:label})が最大となるラベル$\hat{\ell}$を以下のように求める.\begin{equation}\hat{\ell}={\rmargmax}_{\ell\in\mathcal{L}}[s_{\rmlabel}(i,j,k,\ell)]\label{eq:label_maximize}\end{equation}ここで$\mathcal{L}$は核性ラベルの推定においては$\{{\rm{N{-}N,N{-}S,S{-}N}}\}$の3種類,関係ラベルの推定においては18種類からなる関係ラベルの集合となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{教師解析器:Two-StageParser}教師解析器は疑似正解データの作成に用いるため,生徒解析器の欠点を補えることが望ましい.この場合,修辞関係ラベルの推定で高い性能を達成している解析器が望ましい.修辞関係ラベルを高性能に推定する解析器の候補として,SVMを用いたTSP\cite{wang-etal-2017-two}とニューラルネットワークを用いたNNDisParser\cite{yu-etal-2018-transition}があり,どちらも遷移型の上向き解析法である.NNDisParserは関係ラベルの推定でTSPより高い性能を達成しているが,特徴量として文内の係り受け解析を行うニューラルネットワークの特徴ベクトルを必要とすることから,大規模なデータ作成に向いていない.したがって本研究では,TSPを教師解析器として利用する.TSPはシフト-還元のアクションをSVMにより推定して解析を行う.それらのSVMは確率的双対座標降下法で最適化されるため,異なる初期値で複数の解析器を学習し,それらの間で合意をとることで擬似正解データを作成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}解析器の評価には標準的ベンチマークデータセットであるRST-DTを用いる.RST-DTは学習データ347文書とテストデータ38文書に分割されており,\citeA{heilman2015fast}に基づき学習データのうち40文書を開発データとした.正解データセットのEDUの分割に関しては正解の分割を利用した.347件の学習データは教師解析器(TSP)の学習および生徒解析器(SBP)の追加学習に用いた.生徒解析器の事前学習に用いる疑似正解データセットはCNNコーパス\cite{Hermann-etal-2015-teaching}から得る.まず,NeuralEDUSegmenter\cite{wang-etal-2018-toward}によりEDUの分割を行い,異なる初期値で学習した教師解析器であるTSPにより得られた修辞構造木の間でASTを抽出し,擬似正解データセットとした.また,TSPが必要とする特徴量を得るため,CNNコーパスにStanfordCoreNLPtoolkit\footnote{\url{https://stanfordnlp.github.io/CoreNLP/}}を用いて前処理を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{29-3ia6f4.pdf}\end{center}\caption{開発データにおける$l_{\rmmin}$と性能の変化}\label{fig:l_min_on_dev}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{パラメータ設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{$l_{\rmmin}$および$l_{\rmmax}$}$l_{\rmmin},l_{\rmmax}$は抽出するASTの最小,最大サイズを決定するパラメータである.RST-DTの文書に含まれるEDU数は7から240であるため,$l_{\rmmin}$は5から10の間で選択し,$l_{\rmmax}$は240とした.図\ref{fig:l_min_on_dev}に示される開発データにおける$l_{\rmmin}$と性能の変化から$l_{\rmmin}$には開発データで最も良い性能であった9を選択した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{生徒解析器}SBP\footnote{\url{https://github.com/nttcslab-nlp/Top-Down-RST-Parser}}の基本的なパラメータは元の実装に従い,隠れ層の次元数は500次元とした.また,事前学習と追加学習はそれぞれ5,10エポックとし,開発データで最も良い性能を示したエポックのモデルを評価に用いた.SBPは文書の持つ階層構造である段落と文を利用して,文書-段落,段落-文,文-EDUという各階層で別々の解析器を学習することで高い解析性能を達成した.しかし,疑似正解データセットを用いて階層ごとに事前学習を行うことは計算量から容易ではない.したがって,階層構造を利用せず単一の解析器で解析するモデルを学習し,解析時に段落と文の境界を優先的に分割する処理を取り入れることにした.具体的には,スパンの分割候補に段落の境界にあたる分割点が1つ以上存在する場合は,段落の境界にあたる点のみを対象に式(\ref{eq:split_maximize})を適用して分割点を決定する.これにより,段落の境界が優先して分割される.同様に段落内では文の境界にあたる分割候補を対象にして分割点を決定し,優先的に分割する.また,\citeA{kobayashi-etal-2020-top}は異なる初期値で学習した解析器が推定した分布を平均化することでアンサンブルを行った.しかし,事前学習から追加学習までを異なる初期値で行うことは時間コストの観点から現実的でない.したがって,疑似正解データセットによる事前学習は一度だけ行い,追加学習時の最適化の初期値を複数通り行いアンサンブルに必要な解析器を用意した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{教師解析器}擬似正解データを得るため,異なる初期値で学習した4つのTSPを用いた.教師解析器の数$k$が小さいと解析器による合意の信頼性が低下し,データセットの質が低下する.一方で,$k$が大きすぎると疑似正解データセットを作成するための時間が膨大となり,また合意をとるための制約が厳しくなるためデータ量も少なくなる.本論文ではデータ作成の時間を考慮して$k$を4としたが,適切な$k$に関してはまだ議論が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}従来研究\cite{morey-etal-2017-much}に基づき,多核のN-分木($\mathrm{N}\ge3$)となっている箇所はright-heavybranchingtreeへと変換\footnote{核性がS-N-SとなるN-分木($\mathrm{N}=3$)に関してはleft-heavybranchingtreeへと変換される.}することで2分木に変換したうえで可能なスパンの一致をもとにSpan,Nuclearity(Nuc.),Relation(Rel.),Fullの4種類の評価指標で評価する.Spanはラベルなしの木構造,Nuc.は核性ラベル付きの木構造,Rel.は修辞関係ラベル付きの木構造,Fullはすべてのラベル付きの木構造をマイクロ平均F値で評価する.木に含まれるスパンの抽出方法による違いによりRSTParsevalとOriginalParsevalの2種類の評価指標が利用される.RSTParseavlが一般的に用いられるが,正解のEDU分割を用いる際にはOriginalParsevalを利用することが推奨されている\cite{morey-etal-2017-much}.それぞれの評価指標におけるスパンの抽出例を図\ref{fig:eval_metric}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{29-3ia6f5.pdf}\end{center}\hangcaption{RSTParsevalとOriginalParsevalのスパン表現の違い.左側の木に対してRSTParsevalはROOTを除いた5つのスパン,OriginalParsevalは左右の子の核性を結合して表される3つのスパンをそれぞれ評価に用いる.}\label{fig:eval_metric}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{06table01.tex}\hangcaption{疑似正解データセットを構成する木の数およびノードの数.$k$は合意を取るために用いた教師解析器の数,$l_{\rmmin}$は最小の部分木の大きさ.CoreNLPtoolkitによる前処理の関係で利用可能なCNNコーパスの文書数は91,536文書であった.}\label{tab:num_of_trees}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}部分木を活用した疑似正解データセットによる事前学習の有効性を検証するために,単一の解析器による結果を疑似正解データセットしたDocumentTree(DT),複数の解析器により文書全体で合意した結果を疑似正解データセットとしたAgreementDocumentTree(ADT)を比較対象とした.疑似正解データセットに含まれる木の数およびスパンの数を表\ref{tab:num_of_trees}に示す.また,近年の修辞構造解析器との比較を,教師解析器として利用した\citeA{wang-etal-2017-two}のTSPの他に,\citeA{yu-etal-2018-transition}の係り受け解析器の特徴ベクトルを利用した上向き解析手法,Two-StagePargerにSpanBERTを導入しニューラルモデルに再構築した\citeA{guz-carenini-2020-coreference}の方法,ポインターネットワークを利用した下向き解析手法に対し,敵対学習による最適化を導入した\citeA{zhang-etal-2021-adversarial}の方法と比較を行う.さらに,本稿と同じく疑似正解データを利用する研究である\citeA{guz-etal-2020-unleashing}の方法,EDU分割までをend-to-endで学習する\citeA{nguyen-etal-2021-rst}の方法とも比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{06table02.tex}\caption{RST-DTと疑似正解データであるMEGA-DTおよびADTの比較.}\label{tab:statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,表\ref{tab:statistics}にRST-DTとMEGA-DT\footnote{\url{https://nlp.cs.ubc.ca/mega-dt}}および提案法であるASTの統計量を比較した結果を示す.MEGA-DTは配布されているtrain/dev/testのうちtrainを対象とし,ASTは実験に用いた$k=4$,$l_\mathrm{min}=9$のデータを対象とした.どちらの疑似正解データセットもRST-DTと比べてデータ数,ノード数共に多いが,平均EDU数は少ない.核性ラベルの割合を見ると,ASTはRST-DTにより学習された解析器によりラベルが付与されているためRST-DTとおおよそ同一の分布である.一方,MEGA-DTはYelp'13にEDUを単位とした感情極性ラベルが付与されたSPOTデータセット\cite{angelidis-lapata-2018-multiple}を元にして構築しているためRST-DTと分布が異なっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似正解データセットの比較}表\ref{tab:compare_silver}に事前学習モデルと追加学習したモデルのRSTParsevalにおける性能を示す.表中のSBPは疑似正解データセットを用いず,正解データセットのみで学習した実験結果である.これをベースラインとして疑似正解データセットの有効性を比較する.部分木を擬似正解データとして利用するASTはベースラインと比較してすべての指標において性能が向上しておりその有効性がわかる.疑似正解データセット間で比較すると,多くの指標でASTを用いた場合が最もよく,特に修辞関係ラベルに関連するRel.とFullにおける改善が顕著である.文書単位の疑似正解データから構成されるDTとADTも同様にベースラインを上回る性能を達成したが,ASTよりも性能の改善は小さい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{06table03.tex}\caption{RSTParsevalによる疑似正解データセット毎のMicro-averagedF$_1$の比較.追加学習したモデルの各列において最も良い値を\textbf{太字}で表す.}\label{tab:compare_silver}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%特にADTはその他の疑似正解データセットと比較して改善幅が小さいが,これは疑似正解データセットのサイズが原因であると考える.表\ref{tab:num_of_trees}に示したようにADTに含まれる木とスパンの数はそれぞれ2,142および57,840であり,ASTの175,709と2,279,275と比較して非常に少ない.つまり,事前学習に十分な量でないと考える.一方,DTにおいて,木の数は91,536とASTと比較して少ないが,それぞれの木が文書全体から構成されるため含まれるスパンの数は非常に多く,ASTの4倍近い8,162,114個のスパンが含まれている.それにもかかわらず,性能においてはASTのほうが良い.これはDTが単一の教師解析器から作成されているため,疑似正解データの質がその他よりも劣ることが原因であると考える.先述したように貪欲法に基づく解析器は文書全体の構造を必要としない.よって,疑似正解データセットを部分木で構築することにより,複数の教師解析器による合意を得た疑似正解データセットが大規模に獲得可能であり,文書全体を用いる疑似正解データセットよりも量と質の両面において優れていることがわかる.また,学習にかかる計算時間の観点においても,学習時間がデータセットに含まれるスパンの数に比例しているため,ASTはDTの1/4の時間で学習が可能である.これは部分木を用いることでデータセットを小さくできることの利点である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似正解データセットのデータサイズによる影響}疑似正解データセットのサイズと性能の関係を調べるため,疑似正解データセットのサイズを変化させて評価実験を行った.その結果を図\ref{fig:compare_data_size}に示す.図より,SpanとNuc.はデータセットのサイズが変化してもほとんど性能に変化がない.つまり,スパン分割と核性ラベルの推定に関しては擬似正解データの効果は薄い.一方でRel.はデータサイズの増加に応じて性能が向上しており,疑似正解データセットの有効性がわかる.これはスパンの分割および核性ラベルの推定がそれぞれ2クラス,3クラスの分類問題という比較的簡単な分類問題であることに対し,修辞関係ラベルの推定は18クラスかつクラスの出現頻度に偏りのあるデータに対する分類問題という難しい問題であることが原因であると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{29-3ia6f6.pdf}\end{center}\hangcaption{疑似正解データセットのサイズによる性能の変化.実線がASTを事前学習に用いた場合(表\ref{tab:compare_silver}におけるSBP+AST)の性能.点線が疑似正解データを用いない場合(表\ref{tab:compare_silver}におけるSBP)の性能.}\label{fig:compare_data_size}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらなるデータの増強方法として既存の大規模擬似データであるMEGA-DTとASTを組み合わせることが考えられるが,先に述べたようにSpanおよびNuc.はデータサイズを増やしても顕著な改善が見られないことから,核性しか付与されていないMEGA-DTとの組み合わせによるデータの増強は性能向上にはつながらないと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関係ラベルごとの性能比較}ASTを用いることで関係ラベルの推定性能が大きく改善できることがわかった.そこで,どの関係ラベルにおいて性能が改善されたのかを確認するために,SBP+ASTと他にベースラインであるSBPと教師解析器であるTSPの間で関係ラベル毎のF$_1$を図\ref{fig:compare_relations}で比較する.SBPおよびSBP+ASTは5モデルアンサンブルの結果を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{29-3ia6f7.pdf}\end{center}\hangcaption{TSP,SBP,SBP+ASTの関係ラベル(18種類)ごとのF値の比較.ラベル名の下にある数値は各ラベルの出現頻度を表す.}\label{fig:compare_relations}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図より,多くの関係ラベルにおいてTSPがSBPと同等かそれ以上の性能であり,SBP+ASTの性能がそれらを上回っている.特に,低頻度の関係ラベルにおいてSBP+ASTは大きくSBPの性能を改善している.また,TSPが推定可能だが,SBPが不得意な関係ラベルをSBP+ASTによって推定可能になったことから,疑似正解データセットの作成にTSPを用いたことが性能向上に寄与していると考えらえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{06table04.tex}\hangcaption{既存の解析器との比較.*で示す結果は論文で報告された値,それ以外は手元で評価した値である.$^\dagger$\protect\citeA{guz-carenini-2020-coreference}らの解析器はNoCorefの値を参照.}\label{tab:compare_sota_models}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{既存の解析器との比較}提案法であるSBP+ASTの5モデルアンサンブルと既存手法の比較を表\ref{tab:compare_sota_models}に示す.\pagebreakここではRSTParsevalだけでなく,OriginalParsevalによる評価も行った.テキストスパンのベクトル表現を得るためにSpanBERTを採用した\citeA{guz-carenini-2020-coreference}の方法,XLNet\cite{NEURIPS2019_dc6a7e65}を採用した\citeA{zhang-etal-2021-adversarial}の方法はその他の手法と比較して非常に高い性能を達成している.SBT+ASTはこれらを除くとどちらの評価方法においてもSpanを除いたNuc.,Rel.の2つの指標において従来法を上回っている.提案法と\citeA{guz-carenini-2020-coreference}を比較すると,RSTParsevalにおいては\citeA{guz-carenini-2020-coreference}がわずかに良い性能であるが,OriginalParsevalにおいては提案法が逆転している.正解のEDU分割を用いた場合のRSTParsevalは正解スパンと必ず一致する長さ1のスパンを過大評価することからOriginalParsevalを利用することを文献\cite{morey-etal-2017-much}は推奨している.よって,この結果は提案法の有効性を支持していると考える.ポインターネットワークを用いた下向き解析法に敵対学習を導入した\citeA{zhang-etal-2021-adversarial}の方法は,テキストスパンのベクトル表現をXLNetから得た場合には現状での最高性能を達成しているがそれをELMoへ変更した場合にはスコアが大きく劣化しており,高いスコアはXLNetがもたらしたと考える.提案法は,テキストスパンのベクトル表現をGloVe+ELMoから得ているにもかかわらず\citeA{zhang-etal-2021-adversarial}の方法に対しRel.で1ポイント程度の差に迫るスコアを達成しており,疑似正解データの有効性は示せたと考える.また,\citeA{guz-etal-2020-unleashing}はRoBERTa\cite{liu2020roberta}を用いた解析器にMEGA-DTによる事前学習を適用したが,Span,Nuc.の性能改善は小さく,この点はASTを用いた提案法に関しても同様であった.これは木の構造や核性の推定がそれぞれ比較的簡単な2クラス,3クラスの分類問題であるため少ない正解データのみでも十分な性能を達成できるからである.一方で,Rel.においてASTは推定性能を大きく改善したが,MEGA-DTは関係ラベルが付与されていないため,Rel.の改善は不可能である.この点においてASTはMEGA-DTに対して優位である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{06table05.tex}\hangcaption{EDUSegmenterによるEDU分割を採用した際の解析器の性能比較.各列における最も高い値は\textbf{太字}で表す.*で示す結果は\protect\citeA{nguyen-etal-2021-rst}での報告値.}\label{tab:system_edus}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{EDU分割器によるEDU分割を用いた評価}表\ref{tab:system_edus}に,正解のEDU,EDU分割器により自動的に分割したEDUを用いた場合の解析器の性能を示す.提案法はSBP+ASTの5モデルアンサンブルを用い,NeuralEDUSegmenter\footnote{\url{https://github.com/PKU-TANGENT/NeuralEDUSeg}}\cite{wang-etal-2018-toward}を利用した.比較対象となる\citeA{nguyen-etal-2021-rst}はEDU分割と修辞構造解析をend-to-endに学習・推定する手法であり,我々の用いたEDU分割器とEDU分割の精度が異なる\footnote{提案法で使用したNeuralEDUSegmenterの分割性能はPrecision:91.7,Recall:97.5,F1:94.5である.}ことに注意されたい.表\ref{tab:system_edus}にOriginalParsevalを用いた評価結果を示す.表より,どちらの手法も自動分割したEDUを用いる性能は大きく劣化する.SBPとSBP+ASTを比較すると,疑似正解データはRel.,Fullに対する性能改善に強く貢献しており正解EDUを用いた場合と同様の傾向にある.\citeA{nguyen-etal-2021-rst}の方法は,\citeA{zhang-etal-2020-top}と同様にポインターネットワークを用いて再帰的にスパンを分割していき,予測された分割点が与えれたスパンの末尾である場合を分割の終了条件とすることで解析からEDU分割までを一括で推定する.正解EDUを用いた場合には提案法が\citeA{nguyen-etal-2021-rst}の方法に勝っているが,自動分割したEDUの場合には劣る結果となった.提案法は,決定的に自動分割されたEDUを利用しているが,\citeA{nguyen-etal-2021-rst}の方法はend-to-endにEDU分割までを学習することが利点となったと考える.一方,Nuc.と比較してRel.とFullの劣化度合いは提案法のほうが小さい.これは正解EDUの場合と同様,疑似正解データの効果であると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本稿では,修辞構造解析における学習データ不足を解決するため,複数の解析結果から一致する部分木を疑似正解データとして活用する手法を提案した.具体的には,疑似正解データを用いて解析器の事前学習を行い,正解データを用いて追加学習する学習の枠組みを採用した.また,複数の解析結果から一致する部分木を効率的に抽出するためのアルゴリズムも提案した.RST-DTを用いた評価実験において,部分木を利用した疑似正解データセットはその他の文書単位で構成される疑似正解データセットと比較して優れていることがわかった.特に,疑義正解データを用いることで関係ラベルに関する評価指標であるRel.とFullにおいて改善幅が顕著であった.さらに提案法は既存の最高性の解析器に匹敵する性能であることもわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部はJSPS科研費JP21H03505の助成を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{小林尚輝}{%2020年東京工業大学工学院情報通信系情報通信コース修士課程修了.同年博士課程進学.自然言語処理の研究に従事.言語処理学会学生会員.}\bioauthor{平尾努}{%1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,株式会社NTTデータ入社.2000年より日本電信電話株式会社コミュニケーション科学研究所.博士(工学).自然言語処理の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{上垣外英剛}{%2017年東京工業大学大学院総合理工学研究科知能システム科学専攻博士課程修了.同年NTTコミュニケーション科学基礎研究所入所.2018年より東京工業大学科学技術創成研究院未来産業技術研究所助教.2022年より奈良先端科学技術大学院大学先端科学技術研究科情報科学領域准教授.自然言語処理分野の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{奥村学}{%1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在は,科学技術創成研究院教授.2017年より,理化学研究所革新知能統合研究センター(AIP)客員研究員を兼務.工学博士.}\bioauthor{永田昌明}{%1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所上席特別研究員.工学博士.自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V10N04-06
\section{はじめに} \label{sec:intro}\thispagestyle{empty}機械翻訳,言語横断的な検索や要約など複数の言語を同時に扱うシステムにおいて対訳辞書は必要不可欠であり,その品質がシステム全体の性能を左右する.これらに用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には限界があり,品質を向上するためには膨大な労力が必要であること,辞書の記述の一貫性を保つことが困難であることが問題となる.このことからコーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている~\cite{tanaka_96,kitamura_97,melamed_97,yamamoto_01,kaji_01}.しかし,これらの研究の多くは対訳表現の対応度の計算に単語の共起関係を利用しているためにデータスパースネスに陥りやすく,そのため小規模なコーパスから対訳表現を抽出することは難しい.対訳コーパス自体があまり多くない現状では,小規模な対訳コーパスからでも対訳表現を抽出できることが望ましい.本論文では,サポートベクタマシン~\cite{vapnik_book_99}を用いて文対応付き対訳コーパスから対訳表現を抽出する手法を提案する.サポートベクタマシンは訓練事例と分割境界の距離(マージン)を最大化する戦略に基づく手法であり,従来からある学習モデルに比べて汎化能力が高く過学習しにくいために,データスパースネスに対して頑健であるという特徴を持つ.さらにカーネル関数を用いることによって非線形な分割境界を学習したり,素性同士の依存関係を自動的に学習することが可能である.このため,自然言語処理の分野でもテキスト分類~\cite{joachims_98,taira_99},Chunk同定~\cite{kudo_00b},構文解析~\cite{kudo_00a}などに応用されている.我々の手法は,訓練コーパスによって対訳モデルをあらかじめ学習する必要があるが,一旦モデルを学習してしまえば,訓練コーパスにおいて出現回数が少ない対訳表現あるいは訓練コーパスにおいて出現しなかった対訳表現でさえも抽出することができる.したがってある程度大規模な対訳コーパスから優れた対訳モデルを学習しておけば,サポートベクタマシンの高い汎化能力によって低頻度の対訳表現でも抽出が可能であるという特徴を持つ.本論文の構成は以下の通りである.\ref{sec:svm}~節ではサポートベクタマシンについて説明し,\ref{sec:SVMdict}~節ではサポートベクタマシンを用いて対訳表現を抽出する手法を述べる.\ref{sec:experiment_discussion}~節では我々が提案した手法の有効性を示すために行った実験の結果とそれに対する考察を述べる.\ref{sec:related_works}~節において関連研究との比較を行う.最後に\ref{sec:conclusion}~節で本論文のまとめを述べる. \section{サポートベクタマシン} \label{sec:svm}サポートベクタマシン(SupportVectorMachine,以下SVM)\cite{vapnik_book_99}は,$d$~個の素性を持つ事例を$d$~次元ベクトルによって表し,${\bfR}^d$において2~つのクラスに線形分離する二値分類器である.与えられた事例$\vec{x}=(x_1,x_2,\ldots,x_d)^t$がクラス$X_{-1},X_{+1}$のどちらに属するかを式~(\ref{eq:classify})によって判別する.\begin{equation}\label{eq:classify}f(\vec{x})=\sign(g(\vec{x}))=\left\{\begin{array}{rl}+1&\left(\vec{x}\inX_{+1}\right)\\-1&\left(\vec{x}\inX_{-1}\right)\\\end{array}\right.\end{equation}ここで$g$は2~つのクラスを分離する超平面であり,$\vec{w}$と$b$は学習によって決定する.\begin{equation}\label{eq:hyperplain}g(\vec{x})=\vec{w}^t\vec{x}+b\end{equation}訓練事例$\vec{x}_1,\ldots,\vec{x}_n$に対する教師信号$y_1,\ldots,y_n$を以下のように与える.\[y_i=\left\{\begin{array}{rl}+1&\left(\vec{x}_i\inX_{+1}\right)\\-1&\left(\vec{x}_i\inX_{-1}\right)\\\end{array}\right.\]訓練事例が線形分離可能である場合には,式~(\ref{eq:classify})を満たすような$\vec{w}$,$b$は複数存在することから以下のような制約を与える.\begin{equation}\label{eq:constraint}\foralli,\quady_i(\vec{w}^t\vec{x}_i+b)-1\geq0\end{equation}SVMでは,訓練事例と分割境界の間の距離(マージン)を最大化する戦略に基づきパラメータ$\vec{w}$,$b$を決める.詳しい導出は文献~\cite{vapnik_book_99}に譲るが,最終的にマージンの最大化の問題は式~(\ref{eq:constraint})の条件の下に$||\vec{w}||^2/2$を最小化する問題に帰着する~\footnote{実際の実験ではある程度の誤りを許すソフトマージン項を追加したモデルを用いた.}.これを2~次計画法によって解くことで最適な分離平面$g$が得られる.事例$\vec{x}$に対して$g(\vec{x})$の符号はクラスを表し,絶対値はクラス分けの確信度を表す.また,以下のようにシグモイド関数によって$\vec{x}$がクラス$X_{+1}$に分類される確率を近似することができる~\cite{platt_99}.\begin{equation}\label{eq:sigmoid}P(\vec{x}\inX_{+1}|\vec{x})=\frac{1}{1+\exp(-g(\vec{x}))}\end{equation}\paragraph{非線形分離への拡張:}線形分離が困難な事例に対しても,前処理として非線形な写像$\phi:{\bfR}^d\mapsto{\bfR}^{d'}$を用いてそれらをより高次元に写像することによって線形分離できる場合がある.写像先の空間${\bfR}^{d'}$において線形分離を行えば元の空間${\bfR}^d$において非線形分離を行っているのと同じことになる.詳しい導出は省略するが,SVMでは学習,識別アルゴリズムにおいて事例間の内積しか使用していない点を生かし,各事例間の内積$\vec{x}_i^t\vec{x}_j$を式~(\ref{eq:kernel})に置き換えることによって高次元への写像を実現する.\begin{equation}\label{eq:kernel}K(\vec{x}_i,\vec{x}_j)=\phi(\vec{x}_i)^t\phi(\vec{x}_j)\end{equation}$K$はカーネル関数と呼ばれる.実際には$\phi$自体の計算をする必要がないので,計算量の面でも非常に効率的である.よく使われるカーネル関数の例としては多項式型カーネル関数~(\ref{eq:poly_kernel})などが知られている.\begin{equation}\label{eq:poly_kernel}K(\vec{x}_i,\vec{x}_j)=(\vec{x}_i^t\vec{x}_j+1)^p\end{equation}$p$~次の多項式型カーネル関数による非線形分離は,元の空間${\bfR}^d$においては$p$~個の素性の依存関係を考慮していることに相当する. \section{SVMを用いた対訳表現の抽出} \label{sec:SVMdict}本論文で提案する手法は,対訳文となっている日本語文と英語文から,その中に含まれる句の対訳関係を抽出する.その手法は以下の2~つの手順から構成される.\begin{quote}\begin{enumerate}\item訓練コーパスにおいて対訳関係となっている表現(対訳対)とそうでない表現を人手によって分類,前者を正事例,後者を負事例とし,これらからSVMによって対訳モデルを学習する(\ref{sec:learn}~節).\item対訳文となっている日英両言語の文を構文解析し,得られた句構造から対訳対と成り得る候補(対訳対候補)の集合を作成する.それらを対訳モデルに入力することによって対訳関係であるかどうかを判別する(\ref{sec:extraction}~節).\end{enumerate}\end{quote}本手法の概略図を図~\ref{fig:struct}に示す.\begin{figure}[tbp]\begin{center}\epsfile{file=struct.eps,width=.8\columnwidth}\caption{本手法の概略}\label{fig:struct}\end{center}\end{figure}\subsection{使用する素性}\label{sec:feature}SVMを対訳関係の抽出に用いるためには,対訳対候補から素性ベクトルを作成する必要がある.本論文で提案する手法では表~\ref{tab:features}のような素性を用いて素性ベクトルを構成した.\begin{table}[t]\centering\caption{対訳表現の抽出に使用した素性}\label{tab:features}\begin{small}\begin{tabular}{|ll|r|}\hline&\multicolumn{1}{c|}{素性}&\multicolumn{1}{c|}{個数}\\\hline\hline&既存の辞書を使用する素性&\\\hline(1a)&対訳対候補内の対訳単語対&1,558\\(1b)&対訳対候補が現れる文脈で共起する語同士の対訳単語対&2,408\\\hline&単語数を使用する素性&\\\hline(2a)&日本語句の単語数&1\\(2b)&英語句の単語数&1\\\hline&構成する品詞に関する素性&\\\hline(3a)&日本語句における名詞,動詞,形容詞,形容動詞,副詞の出現割合&5\\(3b)&英語句における名詞,動詞,形容詞,副詞の出現割合&4\\\hline&構成する語に関する素性&\\\hline(4a)&日本語句に出現する語&3,006\\(4b)&英語句に出現する語&2,654\\\hline&句の近傍に出現する語に関する素性&\\\hline(5a)&日本語句の近傍に現れる語&3,266\\(5b)&英語句の近傍に現れる語&2,859\\\hline\hline&\multicolumn{1}{c|}{合計}&15,762\\\hline\end{tabular}\end{small}\end{table}既存の辞書を使用する素性を2~種類用いる.素性~(1a)は,対訳対候補に含まれる語について辞書引きを行い,対訳となっている単語の組(対訳単語対)が対訳対候補に含まれていればそれを素性とする.対訳関係となっている表現には対訳単語対が多く含まれることに基づく素性である.辞書に含まれる対訳単語対を素性ベクトルの次元に割り当て,対訳対候補内に対訳単語対が現れた場合は対応する次元の値を1とし,そうでなければ0とする.素性~(1b)は,対訳対候補の近傍に出現した語について辞書引きを行い,辞書に含まれる対訳単語対を素性とする.「対訳関係にある表現は近傍に出現している語の出現文脈も(言語の違いこそあれ)似ている」という考え~\cite{kaji_01}に基づく素性である.本論文における実験では,同一文に現れる語を近傍とした.辞書に含まれる対訳単語対を素性ベクトルの次元に割り当て,対訳対候補の近傍に対訳単語対が現れた場合は対応する次元の値を1とし,そうでなければ0とする.対訳辞書という既存の知識を素性という形で有効に利用することによって精度の向上を期待することができる.素性~(2a)(2b)は,対訳関係となっている表現は両言語の句の構成語数に相関関係があるという考えに基づく.日英それぞれの句に含まれる語数を素性とした.素性~(3a)(3b)は,対訳関係となっている表現は内容語に関してはその構成比率について両言語間に相関関係があるという考えに基づく.日英それぞれについて句の語数に対する内容語の出現数の割合を素性とする.なお,日本語の内容語は名詞,動詞,形容詞,形容動詞,副詞とし,英語の内容語は名詞,動詞,形容詞,副詞とした.素性~(4a)(4b)は,日英両言語を構成する内容語に素性ベクトルの次元を割り当て,語が出現すれば対応する次元の値を1とし,そうでなければ0とする素性である.素性~(5a)(5b)は,対訳対候補の近傍に現れた内容語に素性ベクトルの次元を割り当て,語が出現すれば対応する次元の値を1とし,そうでなければ0とする素性である.対訳文中に既存の対訳辞書によって辞書引きできない語が多数含まれる場合がある.素性~(4a)(4b)(5a)(5b)はそのような場合に既存の対訳辞書を用いた素性~(1a)(1b)を補完する目的で導入した.カーネル関数によって素性~(4a)と(4b)の依存関係,素性~(5a)と(5b)の依存関係をモデルに組み込むことによって,既存の対訳辞書に現れない対訳単語対における素性~(1a)(1b)と同じ役割を期待することができる.\subsection{対訳モデルの学習}\label{sec:learn}訓練コーパス中の各対訳文において対訳関係となっている表現とそうでない表現を人手によって作成する.対応する日英の両文を構文解析し,得られた両言語の句の組合わせについて,対訳表現となっているものを正事例とし,そうでないものを負事例とする.本論文における実験では,組合わせの対象とする句は名詞句と動詞句とした.また,巨大すぎる句構造は対訳表現としての実用的な価値が少ないと思われることから,句の部分構文木の高さが5以下のものを組合わせの対象とした.本論文における実験では,日本経済新聞社英文ビジネスレター文例大事典~\cite{nikkei_business_corpus}を対訳コーパスとして用いた.英文ビジネスレター文例大事典の各対訳文は対訳対となる部分があらかじめマークアップされており,対訳表現として抽出すべき句の制約(部分構文木の高さが5以下の名詞句,動詞句)を満たす対訳対を正事例とした.負事例は,ApplePieParser~\footnote{{\tthttp://www.cs.nyu.edu/cs/projects/proteus/app/}}とKNP~\footnote{{\tthttp://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/knp.html}}によって構文解析した結果から対訳表現として抽出する句の制約を満たすもののうち,対訳表現になっていないものを選んだ.具体的には,各対訳文に1~対ずつある対訳対$(p_j,p_e)$($p_j$は日本語句,$p_e$は英語句)に対して,日英各文を構文解析することによって得られた句$p_j'(\neqp_j)$や$p_e'(\neqp_e)$を用いた$(p_j',p_e)$や$(p_j,p_e')$を負事例とした~\footnote{本来であれば,構文解析によって得られた句の全ての組合わせから人手によって正事例と負事例に分割して学習するべきであるが,$p_j$や$p_e$を含む全ての対訳対候補の中から対訳対$(p_j,p_e)$を高い精度で抽出できることを示せれば本手法の有効性を示すことができることから上記の実験設定で十分であると考える.}.このようにして得られた全ての事例から\ref{sec:feature}~節で述べた方法によって素性ベクトルを作成し,教師信号として正事例には$+1$,負事例には$-1$を与える.これを訓練データとして\ref{sec:svm}~節で述べたSVMによって対訳モデルの学習を行い,式~(\ref{eq:hyperplain})における最適な分離平面$g$を得る.\subsection{対訳対の抽出}\label{sec:extraction}まず,抽出の対象となる対訳対の候補を作成する.対訳文になっている日英両言語の文を構文解析し,得られた日英両言語の句の組合わせを対訳対候補の集合とする.訓練データと条件を同じにするために,対象とする句は部分構文木の高さが5以下の名詞句と動詞句とした.生成した対訳対候補から\ref{sec:feature}~節で述べた方法によって素性ベクトルを作成する.それらと\ref{sec:learn}~節で述べた方法によって得た最適な分離平面$g$を用いて,その対訳対候補の「対訳対らしさ」を測る.対訳対候補$(p_j,p_e)$に対応する素性ベクトルを$\vec{x}_{p_jp_e}$とした時,最適な分離平面$g$を用いて$(p_j,p_e)$の「対訳対らしさ」を以下の式によって表す.\begin{equation}\label{eq:sim}sim(p_j,p_e)=\frac{1}{1+\exp(-g(\vec{x}_{p_jp_e}))}\end{equation}任意の$(p_j,p_e)$に対して$0<sim(p_j,p_e)<1$であり,$sim(p_j,p_e)$が大きいほど$(p_j,p_e)$が「対訳対らしい」ことを表す.一つの句が複数の句と対応することはないことから,以下のようなアルゴリズムによって対訳対の抽出を行う.\begin{quote}\begin{enumerate}\item[{\bf入力:}]閾値$th\in[0,1]$\\対訳文中の対訳対候補の集合$C$\item[{\bf出力:}]抽出された対訳対の集合$T$\item[{\bf1.}]$T\leftarrow\emptyset$\item[{\bf2.}]$th\leqsim(p_j,p_e)$となる$(p_j,p_e)\inC$がなければ終了.\item[{\bf3.}]$\displaystyle(p_j^*,p_e^*)=\argmax_{(p_j,p_e)\inC}sim(p_j,p_e)$となる$(p_j^*,p_e^*)$を対訳対として抽出し$T$に追加する.\item[{\bf4.}]$p_j^*$や$p_e^*$を含む対訳対候補を$C$から削除する.\item[{\bf5.}]{\bf2.}へ戻る.\end{enumerate}\end{quote}$th$の値によって得られる対訳対の品質を調節することができる.$th$の値が$1$に近い時には抽出数が少なくなる代わりに確信度が高い対訳対だけを抽出し,逆に$th$の値が$0$に近い時には確信度が多少低いものも抽出することによって抽出数を優先する.上記の処理は1~文単位で行う.そのため\ref{sec:learn}~節によって対訳モデルを一旦学習してしまえば抽出対象となるコーパスは小規模なものでもよく,たとえ1~文からでもそこに含まれる対訳対を抽出することができる. \section{実験および考察} \label{sec:experiment_discussion}\subsection{実験結果}\label{sec:results}\ref{sec:SVMdict}~節において提案した手法の有効性を確認するために,日本経済新聞社英文ビジネスレター文例大事典~\cite{nikkei_business_corpus}を対訳コーパスとして用いた実験を行った.コーパスに含まれる対訳文のうち,訓練コーパスとして4,000~文,テストコーパスとして1,000~文を用い,\ref{sec:learn}~節に従い対訳対候補を生成した.その結果,本論文における実験の対象となった対訳対候補の数は表~\ref{tab:candidates}の通りとなった.また,対訳対候補に含まれる形態数の平均値とコーパス中における対訳対候補の出現頻度の平均値を表~\ref{tab:avg_length_count}に示す.\begin{table}[tbp]\centering\caption{対訳対候補の数}\label{tab:candidates}\begin{small}\begin{tabular}{|l|r|r|}\hline&\multicolumn{1}{c|}{正事例}&\multicolumn{1}{c|}{負事例}\\\hline訓練コーパス&4,000&59,203\\テストコーパス&1,000&15,048\\\hline\end{tabular}\end{small}\end{table}\begin{table}[tbp]\centering\caption{対訳対候補の平均形態素数と平均頻度}\label{tab:avg_length_count}\begin{small}\begin{tabular}{|l|r|r|r|r||r|r|r|r|}\hline&\multicolumn{4}{c||}{平均形態素数}&\multicolumn{4}{c|}{平均頻度}\\\cline{2-9}&\multicolumn{2}{c|}{正事例}&\multicolumn{2}{c||}{負事例}&\multicolumn{2}{c|}{正事例}&\multicolumn{2}{c|}{負事例}\\\cline{2-9}&\multicolumn{1}{c|}{\makebox[.9cm]{日本語}}&\multicolumn{1}{c|}{\makebox[.9cm]{英語}}&\multicolumn{1}{c|}{\makebox[.9cm]{日本語}}&\multicolumn{1}{c||}{\makebox[.9cm]{英語}}&\multicolumn{1}{c|}{\makebox[.9cm]{日本語}}&\multicolumn{1}{c|}{\makebox[.9cm]{英語}}&\multicolumn{1}{c|}{\makebox[.9cm]{日本語}}&\multicolumn{1}{c|}{\makebox[.9cm]{英語}}\\\hline訓練コーパス&5.03&3.97&4.96&4.23&1.06&1.04&1.33&1.26\\テストコーパス&5.10&4.09&5.03&4.62&1.01&1.01&1.25&1.12\\\hline\end{tabular}\end{small}\end{table}得られた事例から\ref{sec:feature}~節に従って素性を生成する.素性~(1a)(1b)のために使用する対訳辞書としてEDICT~\footnote{\tthttp://www.csse.monash.edu.au/$\mbox{}^\sim$jwb/edict.html}に含まれる対訳単語対のうち,訓練コーパス中に出現した2,879個を用いた.素性~(4a)(4b)(5a)(5b)のために使用する語として,訓練コーパス中に3回以上出現する語を用いた.その結果,用意した素性の個数は表~\ref{tab:features}の通りとなった.対訳モデルの学習では,カーネル関数を用いない場合(linear)と2~次,3~次,4~次の多項式型カーネル関数(poly2,poly3,poly4)を用いた場合の実験を行った.訓練コーパスから得られた事例を用いて対訳モデルの学習を行い,テストコーパスから得られた事例から対訳対の抽出を行った.それぞれの対訳モデルにおいて抽出アルゴリズムの閾値$th$の値を0.1,0.5,0.7,0.9と変化させた時の適合率と再現率を図~\ref{fig:result}\begin{figure}[tbp]\begin{center}\epsfile{file=result.eps,width=.6\columnwidth}\caption{対訳モデルと抽出精度}\label{fig:result}\end{center}\end{figure}に示す.各点の右に示した数字が閾値$th$である.もっとも良い抽出精度を示した2~次多項式型カーネル関数を用いた場合の適合率と再現率を表~\ref{tab:result}\begin{table}[tbp]\centering\caption{2~次多項式型カーネル関数による対訳モデルの適合率と再現率}\label{tab:result}\begin{small}\begin{tabular}{|c|r|r|r|r|}\hline閾値$th$&出力数&正解数&\multicolumn{1}{c|}{適合率(\%)}&\multicolumn{1}{c|}{再現率(\%)}\\\hline0.1&1,000&804&80.4&80.4\\0.5&960&776&80.8&77.6\\0.7&701&594&84.7&59.4\\0.9&265&229&86.4&22.9\\\hline\end{tabular}\end{small}\end{table}に示す.また2~次多項式型カーネル関数を用い,抽出時の閾値$th=0.5$の時の対訳対の抽出例を表~\ref{tab:success}\begin{table*}[tbp]\centering\caption{本手法による対訳対の抽出例}\label{tab:success}{\small\begin{tabular}{|l|l|r|}\hline\multicolumn{1}{|c|}{日本語句$p_j$}&\multicolumn{1}{c|}{英語句$p_e$}&\multicolumn{1}{c|}{$sim(p_j,p_e)$}\\\hline本部に異動いたします&movetothecorporateheadquarters&0.899\\会長として経営を続ける&carryonaschairman&0.862\\長年の海外勤務&ourmanyyearsofserviceoverseas&0.824\\新しい人事異動&anewassignment&0.823\\2年の任期を1期もしくはそれ以上の期間&foroneormoretwo-yearterms&0.605\\\hline\end{tabular}}\end{table*}に示す.以上の結果から,本論文で提案した手法によって1,000~文という比較的小規模なコーパスから低頻度の対訳対でも高い精度で抽出できることが示された.\subsection{対訳モデルと抽出精度}\label{sec:kernel}SVMは使用するカーネル関数とそれに付随するパラメータに自由度があり,それらは実験的に決定する必要がある.そこで本論文で行った実験においてもカーネル関数を使わない場合(linear)と2~次,3~次,4~次の多項式型カーネル関数(poly2,poly3,poly4)を用いた場合の実験を行った.linearによる抽出精度は多項式型カーネル関数を使用した場合よりも低い.\ref{sec:feature}~節で述べた素性が,素性同士の依存関係がカーネル関数によって自動的に学習されることを期待しているためであると考えられる.多項式型カーネル関数を用いた場合には2~次(poly2)がもっとも良い抽出精度となった.本論文で行った実験における訓練事例の数や素性の構成では,2~次多項式型カーネル関数によって2~個の素性の依存関係を学習することが最適であることを示している.SVMは,より高次元の多項式型カーネル関数を用いることによってより多くの素性の依存関係を考慮した複雑なモデルを学習することが可能であるが,あまりに多くの素性の依存関係を学習してしまうと,その中には学習する必要のないものも含まれることになり,過学習によってモデルの性能を悪化させる結果になることが予想される.本論文における実験でも同様の現象が起こっていると考えられる.\subsection{訓練コーパスの大きさと抽出精度}\label{sec:corpus_size}訓練コーパスの文数が抽出精度に与える影響を調べるために,訓練コーパスの文数を200~文から4,000~文まで200~文ずつ増やしながら対訳モデルの学習を行い,テストコーパスからの抽出における適合率と再現率を求める実験を行った結果を図~\ref{fig:size_dict}(左)に示す.使用したカーネル関数は2~次多項式型カーネル関数であり,抽出時の閾値$th$は0.5とした.適合率,再現率ともに訓練コーパスの文数にほぼ比例して上昇しており,訓練コーパスの文数が精度に大きな影響を及ぼしていることがわかる.このため本手法は,対訳モデルの学習において比較的大規模なコーパスを用いる必要がある.しかし,抽出時には処理を1~文単位で行うので,一旦学習が完了してしまえば抽出対象となるコーパスは小規模なものでもよく,たとえ1~文からでもそこに含まれる対訳対を抽出することができる.\begin{figure}[tbp]\centering\begin{tabular}{cc}\epsfile{file=size.eps,width=.47\textwidth}&\epsfile{file=dict.eps,width=.47\textwidth}\end{tabular}\caption{訓練コーパスの文数と精度の関係(左)と対訳辞書の大きさと精度の関係(右)}\label{fig:size_dict}\end{figure}\subsection{辞書の大きさと抽出精度}\label{sec:dict_size}素性~(1a)(1b)で用いている既存の対訳辞書の大きさが抽出精度に与える影響を調べるために,使用する対訳単語対の数を0~個から2,800~個まで100~個ずつ増やしながら対訳モデルの学習を行い,テストコーパスからの抽出における適合率と再現率を求める実験を行った結果を図~\ref{fig:size_dict}(右)に示す.使用したカーネル関数は2~次多項式型カーネル関数であり,抽出時の閾値$th$は0.5とした.適合率,再現率ともに使用する対訳単語対の数にほぼ比例して上昇しており,本手法において使用する対訳辞書は可能なかぎり多くの対訳単語対を含むものを用いた方が良いことがわかる.\subsection{素性と抽出精度}\label{sec:important_features}素性の重要度を調べるために,\ref{sec:feature}~節において述べた素性を1~種類ずつ削除して対訳モデルの学習を行い,テストコーパスからの抽出における適合率と再現率の増減を求める実験を行った結果を表~\ref{tab:important_features}に示す.使用したカーネル関数は2~次多項式型カーネル関数であり,抽出時の閾値$th$は0.5とした.適合率と再現率における括弧内の値は素性1~個あたりの増減である.\begin{table*}[tbp]\centering\caption{素性を削除した時の適合率と再現率の増減}\label{tab:important_features}{\small\begin{tabular}{|ll|r|rr@{}l|rr@{}l|}\hline\multicolumn{2}{|c|}{素性}&\multicolumn{1}{c|}{個数}&\multicolumn{3}{c|}{適合率(\%)}&\multicolumn{3}{c|}{再現率(\%)}\\\hline\hline&辞書による素性&3,966&$-13.1$&$(-3.3$&$\times10^{-3})$&$-13.9$&$(-3.5$&$\times10^{-3})$\\\hline(1a)&対訳対内対訳単語対&1,558&$-9.0$&$(-5.8$&$\times10^{-3})$&$-9.3$&$(-6.0$&$\times10^{-3})$\\(1b)&対訳対外対訳単語対&2,408&$-3.2$&$(-1.3$&$\times10^{-3})$&$-4.0$&$(-1.7$&$\times10^{-3})$\\\hline\hline&語数による素性&2&$-4.2$&$(-2.1$&$\times10^{\pm0})$&$-3.0$&$(-1.5$&$\times10^{\pm0})$\\\hline(2a)&日本語語数&1&$-2.2$&$(-2.2$&$\times10^{\pm0})$&$-2.1$&$(-2.1$&$\times10^{\pm0})$\\(2b)&英語語数&1&$-2.5$&$(-2.5$&$\times10^{\pm0})$&$-2.6$&$(-2.6$&$\times10^{\pm0})$\\\hline\hline&品詞による素性&9&$-4.0$&$(-4.4$&$\times10^{-1})$&$-4.2$&$(-4.7$&$\times10^{-1})$\\\hline(3a)&日本語品詞&5&$-1.0$&$(-2.0$&$\times10^{-1})$&$-1.3$&$(-2.6$&$\times10^{-1})$\\(3b)&英語品詞&4&$-2.4$&$(-6.0$&$\times10^{-1})$&$-2.6$&$(-6.5$&$\times10^{-1})$\\\hline\hline&構成語による素性&5,660&$-3.1$&$(-5.5$&$\times10^{-4})$&$-4.0$&$(-7.1$&$\times10^{-4})$\\\hline(4a)&日本語構成語&3,006&$-2.2$&$(-7.4$&$\times10^{-4})$&$-3.9$&$(-1.3$&$\times10^{-3})$\\(4b)&英語構成語&2,654&$-2.4$&$(-9.0$&$\times10^{-4})$&$-3.4$&$(-1.3$&$\times10^{-3})$\\\hline\hline&近傍語による素性&6,125&$-2.2$&$(-3.7$&$\times10^{-4})$&$-2.5$&$(-4.1$&$\times10^{-4})$\\\hline(5a)&日本語近傍語&3,266&$-1.3$&$(-4.1$&$\times10^{-4})$&$-1.6$&$(-4.9$&$\times10^{-4})$\\(5b)&英語近傍語&2,859&$-2.0$&$(-6.9$&$\times10^{-4})$&$-2.2$&$(-7.7$&$\times10^{-4})$\\\hline\hline&全ての素性を使用&15,762&80.8&&&77.6&&\\\hline\end{tabular}}\end{table*}素性1~個あたりの精度の増減では,語数による素性~(2a)(2b)と品詞による素性~(3a)(3b)を削除した時の下落が特に大きい.(2a)(2b)に属する素性は全ての事例に存在し,(3a)(3b)に属する素性も他の素性に比べるとはるかに多くの事例に存在する素性である.したがって,モデル構築におけるこれらの役割は大きく,ゆえに削除した時の精度の下落が大きくなると考えられる.その他では,対訳辞書による素性~(1a)(1b)を削除した時の下落が大きい.素性~(1a)は日英両言語の句の中で既存の対訳辞書によって辞書引きできるものがあるかどうかを表しており,この情報が句の対訳関係を推定する際には極めて重要であるという我々の直感と合致する.また素性~(1b)の仮定である「対訳関係にある表現は近傍に出現している語の出現文脈も(言語の違いこそあれ)似ている」という考えが対訳モデルの構築において効果が大きいことが示された.その他の素性を削除した時も抽出精度の下落を引き起こしており,対訳モデルの構成において有効であることが示された.\subsection{認識誤りと素性}\label{sec:mistake}認識誤りの原因を調べるために,テストコーパスにおいて正しく認識された事例と正しく認識されなかった事例における素性の出現個数(素性値が0以外となる要素の個数)の平均値を計算した(表~\ref{tab:avg_features}).使用したカーネル関数は2~次多項式型カーネル関数であり,抽出時の閾値$th$は0.5とした.出力と記された行において$+1$と記されている列はシステムが対訳対であると認識した事例を表し,$-1$と記されている列は対訳対でないと認識した事例を表す.素性~(1b)の行に注目すると,対訳対でないと識別された負事例に対して,対訳対として識別されてしまった負事例における素性~(1b)の出現個数の平均値がかなり大きく,正事例の場合の値とあまり差のない値となっている.このことは,対訳対として識別されてしまった負事例の近傍に対訳単語対がよく現れていることを表している.本論文における実験では,同一文に現れる語を近傍とし,素性~(1b)は辞書中の対訳単語対が近傍に出現するか否かを表しているので,特に頻出する対訳単語対に関する素性~(1b)の出現個数は増えやすく,それが認識誤りを招いていると考えられる.したがって近傍の定義を「同一文内」ではなく,「日本語句・英語句から$n$~語以内」のように近傍の範囲を狭くしたり「日本語句・英語句と係り受け関係にある」のようにより関連性が強いものだけを素性にすることによってこのような誤りは減らすことができると思われる.しかし,表~\ref{tab:important_features}からわかるように,近傍の範囲を狭くすることによって素性~(1b)が減りすぎると精度が下落するので,今回の実験では近傍を「同一文内」とした.\begin{table}[tbp]\centering\caption{一事例あたりの素性の出現個数の平均値}\label{tab:avg_features}\begin{small}\begin{tabular}{|l|r|r|r|r|}\hline\multicolumn{1}{|c|}{事例}&\multicolumn{2}{c|}{正事例}&\multicolumn{2}{c|}{負事例}\\\hline\multicolumn{1}{|c|}{出力}&\multicolumn{1}{c|}{$+1$}&\multicolumn{1}{c|}{$-1$}&\multicolumn{1}{c|}{$+1$}&\multicolumn{1}{c|}{$-1$}\\\hline\hline\multicolumn{1}{|c|}{事例数}&\makebox[.9cm][r]{776}&\makebox[.9cm][r]{224}&\makebox[.9cm][r]{184}&\makebox[.9cm][r]{14,864}\\\hline\hline(1a)対訳対内対訳単語対&1.07&0.83&0.13&0.04\\(1b)対訳対外対訳単語対&3.75&3.88&3.51&2.75\\(2a)日本語語数&1.00&1.00&1.00&1.00\\(2b)英語語数&1.00&1.00&1.00&1.00\\(3a)日本語品詞&1.50&1.41&1.38&1.50\\(3b)英語品詞&1.72&1.60&1.96&1.55\\(4a)日本語構成語&4.92&4.47&4.32&4.77\\(4b)英語構成語&3.68&3.15&4.24&3.93\\(5a)日本語近傍語&4.47&4.40&4.39&4.45\\(5b)英語近傍語&4.54&4.59&4.54&4.53\\\hline\end{tabular}\end{small}\end{table} \section{関連研究との比較} \label{sec:related_works}本手法と同様に対訳文の文対応が既に付いていることを前提にしている研究には文献~\cite{melamed_97,kitamura_97,yamamoto_01}などがあげられる.\cite{melamed_97}はCompetitiveLinkingAlgorithmという単語対のリンク付け法と2つのパラメータに対する山登り法を組み合わせて単語対の対応度を求める手法を提案した.しかしMelamedの手法は1~単語対1~単語の対応を仮定しており,日本語と英語のように構造が大きく異なる言語に対して適用するのは困難である.\cite{kitamura_97}はDice係数~\cite{kay_93}を対訳対の出現頻度の対数によって重み付けする重み付きDice係数を提案し,これを対訳対の対応度として採用した.\cite{yamamoto_01}は北村らの手法を改良し,文節の依存関係が対訳表現の抽出において有効な手がかりであることを示した.北村らの手法と山本らの手法が対応度として採用している重み付きDice係数は対訳対の出現回数に依存しているので,出現回数が少ない対訳対に対する対応度はデータスパースネスのために信頼することができず,したがって小規模な対訳コーパスから対訳対を抽出することは難しい.それに対して本手法は対訳表現の抽出を統計的機械学習のアプローチで捉えており,対訳モデルの学習において対訳対の出現回数に依存しない素性を用いて対訳対を特徴づける.したがって,本手法は訓練コーパスによって対訳モデルをあらかじめ学習する必要がある反面,一旦モデルを学習してしまえば訓練コーパスにおいて出現回数が少ない対訳対あるいは出現しなかった対訳対でさえもデータスパースネスに陥ることなく抽出することができるという特徴がある.本手法と同様に対訳対の抽出を統計的機械学習の枠組みで捉えている研究として文献~\cite{satoken_NLP02}があげられる.佐藤らは最大エントロピー法(MaximumEntropyMethod,以下ME~法)~\cite{berger_96}を用いて文対応付き対訳コーパス上に対訳単語対の確率モデルを推定・抽出する手法を提案した.単語の共起情報と品詞情報を使用した素性約12,000~個を用い,推定確率0.1以上の単語対に対して行った抽出では適合率73.64\,\%,再現率21.79\,\%を実現した.この手法は,一旦モデルを学習してしまえば未知語を含むコーパスに対して学習し直す必要がないという点において本論文で提案した手法と共通点がある.\cite{satoken_NLP02}における報告とは使用しているコーパス・素性や抽出対象が異なるので,本論文で行った実験において使用したコーパス・素性を用いてME~法によって抽出する実験を本手法との比較のために行った.対訳対候補$(p_j,p_e)$に対応する素性ベクトル$\vec{x}_{p_jp_e}$が正事例である確率$P(\vec{x}_{p_jp_e}\inX_{+1}|\vec{x}_{p_jp_e})$をME~法によって推定し,これを式~(\ref{eq:sim})の代わりに用いて対訳表現の抽出を行った.その結果,$th=0.5$において適合率69.2\,\%,再現率63.6\,\%となった.これはカーネル関数を用いない対訳モデル(linear)とほぼ同じ精度である.本論文で使用した素性は,素性同士の依存関係がカーネル関数によって自動的に学習されることを期待しているためであると考えられる.一般に素性同士には依存関係があるので,ME~法では素性同士の依存関係を表す素性を新たに作成する必要がある.その結果,素性の総数が非常に多くなってしまい,過学習を起こす危険があるため,ヒューリスティックによって有効な素性だけを選別したり,貪欲戦略に基づく素性選択アルゴリズム~\cite{berger_96}を使用して素性の総数を減らす手法を用いることが多い.しかし,前者は選別の基準が難しく,後者は計算量が膨大になるという欠点がある.例えば本論文で用いた素性15,762~個を用いて2~つの素性の依存関係を表す素性を生成し,これらを用いてME~法によって確率モデルを推定しようとすると,素性の総数がおよそ250~万個となり,現実的な時間で計算することは困難である.一方,SVMでは多項式型カーネル関数を用いることによって計算量をほとんど増やすことなく素性同士の依存関係を自動的に学習することができる.一方,本手法と異なり,対訳文の文対応が付いていることを前提としない研究には文献~\cite{tanaka_96,kaji_01}などがあげられる.これらの手法は「一方の言語で共起する単語の訳語は他方の言語でも共起する」ということを仮定している.\cite{tanaka_96}は各言語に出現する語の共起確率行列の距離が小さくなるように確率翻訳行列を最適化することによって対訳関係を得る手法を提案した.\cite{kaji_01}は既存の辞書に含まれる単語との対訳対中に含まれる語の共起集合の共通部分の大きさによって対応度を計算している.本論文で提案した手法においても「一方の言語で共起する単語の訳語は他方の言語でも共起する」という仮定を素性~(1b)に用いている点においてこれらの手法と共通点がある.現状では文対応付き対訳コーパスはあまり多くないため,文対応を前提としないこれらの手法は適用できる範囲は広いが,文対応付き対訳コーパスを用いた手法よりも精度が劣る.一方,本手法の前提となっている文対応付き対訳コーパスは,原文に忠実に翻訳した対訳コーパスであれば,\cite{kay_93,utsuro_94,sukehiro_95}などで提案されている手法によって作成することができる.対応する文がなかったり,1つの文が複数の文に対応している場合には人手による後編集が必要になるが,その労力は全て人手による対応付けに比べて比較にならないほど少ないと考えられる. \section{おわりに} \label{sec:conclusion}本論文では,SVMを用いて文対応付き対訳コーパスから対訳表現を抽出する手法を提案した.対訳モデルの素性として,対訳辞書による素性,語数による素性,品詞による素性,構成語による素性,近傍に出現する語による素性を使用し,SVMに基づく対訳表現の対応度を用いて対訳表現を抽出する.既存の手法は対訳表現の対応度の計算に単語の共起関係を利用しているためにデータスパースネスに陥りやすく,小規模なコーパスからの対訳表現の抽出は困難である.それに対して本手法は,訓練コーパスによって対訳モデルをあらかじめ学習する必要があるが,一旦モデルを学習してしまえば,訓練コーパスにおいて出現回数が少ない対訳表現あるいは訓練コーパスにおいて出現しなかった対訳表現でさえも抽出することができる.したがってある程度大規模な対訳コーパスから優れた対訳モデルを学習しておけば,サポートベクタマシンの高い汎化能力によって低頻度の対訳表現でも抽出が可能であるという特徴を持つ.本手法の有効性を示すために日英対訳コーパスを用いた対訳表現の抽出実験を行った.対訳モデルの学習に2~次多項式型カーネル関数を使用し,抽出時の閾値$th=0.5$とした時には,1,000文という比較的小規模なコーパスから適合率80.8\,\%,再現率77.6\,\%の精度で抽出できることを示した.また素性の重要度を調べる実験では,語数による素性,品詞による素性,対訳辞書による素性が精度向上に大きく貢献していることがわかった.しかし,対訳対候補の近傍に現れる語を対訳辞書によって辞書引きして得た素性において近傍の範囲を「同一文内」としていることが認識誤りを増やす原因となっている.近傍の範囲を「対訳対候補から$n$語以内」や「対訳対候補と係り受け関係にある」とすることで改善できると思われる.\acknowledgment日経英文ビジネスレター文例大事典の研究利用許諾を頂いた日本経済新聞社に感謝致します.元慶應義塾大学教授の故中西正和先生に深く感謝し,ご冥福をお祈り致します.\bibliographystyle{jnlpbbl}\bibliography{422}\nocite{satoken_coling2002}\nocite{satoken_sci2002}\begin{biography}\biotitle{略歴}\bioauthor{佐藤健吾}{平成7年慶應義塾大学理工学部数理科学科卒業.平成15年同大学大学院理工学研究科博士課程開放環境科学専攻修了.博士(工学).現在,同大学理工学部生命情報学科助手.バイオインフォマティクス,自然言語処理,統計的機械学習などに興味を持つ.情報処理学会,言語処理学会各会員.}\bioauthor{斎藤博昭}{昭和58年慶應義塾大学工学部数理工学科卒業.現在同大理工学部情報工学科専任講師.工学博士.昭和59年よりカーネギーメロン大学に訪問研究員として滞在し,機械翻訳および音声認識の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V17N02-02
\section{はじめに} \label{sec:first}情報抽出や機械翻訳などのNLPの応用処理への需要が高まる中で,その技術を実現するための中核的な要素技術となる照応・共参照と述語項構造の解析に関して多くの研究者が解析技術を向上させてきた.それらの技術の多くは各情報が付与されたコーパス(以後,タグ付与コーパス)を訓練用データとして教師あり手法を用いるやり方が一般的であり,解析の対象となるコーパス作成の方法論についても議論がなされてきた\cite{Hirschman:97,Kingsbury:02,Doddington:04}.照応・共参照解析については,主に英語を対象にいくつかのタグ付与のスキーマが提案されており,実際にそのスキーマに従ったコーパスが作成されている\cite{Hirschman:97,Kawahara:02,Hasida:05,Poesio:04,Doddington:04}.例えば,MessageUnderstandingConference(MUC)のCoreference(CO)タスク\cite{Hirschman:97}や,その後継にあたるAutomaticContentExtraction(ACE)programのEntityDetectionandTracking(EDT)タスクでは,数年に渡って主に英語を対象に詳細な仕様が設計されてきた.また,述語項構造解析に関しては,CoNLLのsharedtask\footnote{http://www.lsi.upc.edu/\~{}srlconll/}で評価データとして利用されているPropBank~\cite{Palmer:05}を対象に仕様が模索されてきた.日本語を対象に述語項構造と照応・共参照の研究をするにあたり,分析,学習,評価のための大規模なタグ付きコーパスが必要となるが,現状で利用可能なGlobalDocumentAnnotation(GDA)~\cite{Hasida:05}タグ付与コーパス(以後,GDAコーパス)や京都テキストコーパス第4.0版(以後,京都コーパス4.0)は,述語項構造や共参照の解析のための十分な規模の評価データとはいえない.日本語を対象に述語項構造を照応・共参照の研究を進めるためには,英語の場合と同様にタグ付きコーパスを構築する必要があるが,日本語では述語の格要素が省略される\textbf{ゼロ照応}の現象が頻出するため,後述するように述語項構造の記述の中で照応現象も同時に扱う必要がある.そのため,英語では独立に扱われている述語項構造と(ゼロ)照応の関係の両方のタグ付与の仕様を把握し,2つの関係横断的にどのようにタグ付与の仕様を設計するかについて考える.タグ付与の仕様は最初から完成したものを目指すのではなく,作業仕様を経験的に定め,人手によるタグ付与の作業を行い,作業結果を検討することで洗練していくことを想定している.本論文ではこれまでに行った仕様に関する比較検討の内容と現在採用している我々の作業仕様について説明する.この際,MUCやACEの英語を対象に設計されたタグ付与の仕様に加え,日本語を対象に作成された既存の共参照・述語項構造のタグ付きコーパスであるGlobalDocumentAnnotation(GDA)~\cite{Hasida:05}タグ付与コーパス(以後,GDAコーパス)や京都テキストコーパス第4.0版(以後,京都コーパス4.0)\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}との比較も行う.本論文ではまず\sec{second}で照応と共参照の関係について確認し,\sec{third}では述語項構造と照応・共参照のタグ付与に関する先行研究を紹介する.次に,\sec{fourth}で先行研究を踏まえた上の我々のタグ付与の基準を示し,その基準に従った作業結果についても報告する.さらに,\sec{fifth}で今回作業を行った際に問題となった点について説明し,\sec{fifth}でその改善案とその案にしたがって作業をやり直した結果について報告し,最後に\sec{seventh}でまとめる.また,今回の作業の結果作成された述語項構造と照応・共参照タグ付与コーパスをNAISTテキストコーパスとして公開している.詳細は{http://cl.naist.jp/nldata/corpus/}を参照されたい. \section{照応と共参照} \label{sec:second}\begin{figure}[b]\begin{center}\includegraphics{17-2ia3f1.eps}\end{center}\caption{文内ゼロ照応}\label{fig:zero}\end{figure}\textbf{照応}とはある表現が同一文章内の他の表現を指す機能をいい,指す側の表現を\textbf{照応詞},指される側の表現を\textbf{先行詞}という.日本語の場合は述語の格要素の位置に出現している照応詞が頻繁に省略される.この省略された格要素を\textbf{ゼロ代名詞}といい,ゼロ代名詞と照応関係となる場合を\textbf{ゼロ照応}と呼ぶ.本研究では便宜上ゼロ照応の関係をゼロ代名詞とその先行詞の出現位置で3種類に分類する.ゼロ代名詞と先行詞が同一文内に出現している場合を\textbf{文内ゼロ照応}と呼び,また先行詞がゼロ代名詞と同一文章内の異なる文に出現している場合を\textbf{文間ゼロ照応}と呼ぶ.例えば,\fig{zero}で``行く''のガ格が省略されており,その項が述語と係り受け関係にないため,``行く''のガ格のゼロ代名詞とその項``太郎''は文内ゼロ照応の関係にあると考える\footnote{この例は並列表現はゼロ照応と区別すべきという議論もあるが,項が係り受け関係にない場合は統一的にゼロ照応とみなすほうが機械処理を行う際には見通しがよいと考えている.}.最後に,ゼロ代名詞の先行詞が文章内に出現しない場合を\textbf{外界照応}と呼ぶ.一方,二つ(もしくはそれ以上)の表現が現実世界(もしくは仮想世界)において同一の実体を指している場合には\textbf{共参照}(もしくは\textbf{同一指示})の関係にあるという.先行詞となる表現が固有表現になる場合など,多くの場合は照応関係かつ共参照の関係が成り立つ.例えば,文章\NUM{ex1}では,代名詞``彼$_i$''が``横尾$_i$''を指しており,かつ同一の人物を指しているため,照応関係かつ共参照関係である.\EX{ex1}{\ul{横尾}$_i$は画家でもないし、デザイナーでもない。\\~要するに、そんなことは\ul{彼}$_i$にとってはどうでもよいことなのだ。}これに対し,文章\NUM{ex2}では,2文目の``それ$_i$''は1文目の``iPod$_i$''を指しているため照応関係となるが,同じ実体を指していないため共参照関係とはならない.\EX{ex2}{太郎は\ul{iPod}$_i$を買った。\\~次郎も\ul{それ}$_i$を買った。}このように照応関係にある場合でも,同一の実体を指している場合とそれ以外の場合が存在する.文献~\cite{Mitkov:02}では,前者のような共参照かつ照応関係となる関係をidentity-of-referenceanaphora(IRA),後者をidentity-of-senseanaphora(ISA)と呼び区別している.照応と共参照は異なる概念であるにもかかわらず,IRAが両方の性質を兼ねるため,既存研究ではそれぞれの概念が混同して扱われてきた.\sec{third}で述べるタグ付与コーパス作成の先行研究でも同様にいくつかの異なる解釈で仕様が設計されている. \section{先行研究} \label{sec:third}この節では,共参照と述語項構造のタグ付与に関する主な先行研究を説明する.\subsection{照応・共参照のタグ付与}\label{ssec:pre_coref}情報抽出の主要な会議であるMessageUnderstandingConfernce(MUC)では,第6回と第7回の会議(以後,MUC-6とMUC-7)において,情報抽出の部分問題として共参照解析の問題を扱っている\footnote{http://www-nlpir.nist.gov/related\_projects/muc/proceedings/co\_task.html}.MUC-6,MUC-7の共参照関係タグ付与コーパスでは名詞句間の共参照関係がタグ付与され(ただし,動名詞(gerund)は除く),Soonら\cite{Soon:01}やNgら\cite{Ng:02}などさまざまな機械学習に基づく共参照解析手法のgoldstandardデータとして利用されてきた.しかし,このコーパスの仕様では,一般に共参照関係とはみなされないような量化表現(every,mostなど)を伴う場合や同格表現(\ul{JuliusCaesar}$_i$,\ul{\mbox{the/awell-known}\mbox{emperor}}$_i$,...)も共参照関係とみなしてタグ付与されているという問題を含んでいる\footnote{詳細は文献\cite{Deemter:99}を参照されたい.}.MUCの共参照解析タスクの後継に相当するAutomaticContentExtraction(ACE)~\cite{Doddington:04}のEntityDetectionandTracking(EDT)では,この過剰な共参照関係の認定を回避するために,mention(\textbf{言及})とentity(\textbf{実体})という2つの概念を導入しタスクを設定している.言及とは文章中に出現する表現のことで,情報抽出で解析の対象となる特定の種類の固有表現を含む.これに対し,実体とは\sec{second}で述べた意味での実体,つまり現実世界(もしくは仮想世界)で指せるモノを意味する.例えば,\fig{ace}の例については,``ジョン''と``彼''はそれぞれクラスがnamesとpronounsの言及であり,その2つの表現が実体のレベルではクラスがspecific\_referenceである同一の実体を指しているというタグ付与を行う.\begin{figure}[t]\begin{center}\includegraphics{17-2ia3f2.eps}\end{center}\caption{言及(mention)と実体(entity)}\label{fig:ace}\end{figure}EDTのタグ付与\footnote{http://projects.ldc.upenn.edu/ace/annotation/}では,言及の型が人名や組織名など特定の種類の固有表現に該当する場合で,かつ総称的(generic)でない場合にのみ共参照関係のタグ付与を行う.このため,ACEのデータセットでは文章内に出現する共参照関係に網羅的にタグが付与されず,文章内のすべての実体を対象として解析を行うには不十分なデータとなっている.日本語に関しても,京都コーパス4.0\cite{Kawahara:02}やGDAコーパス\cite{Hasida:05}などのタグ付きコーパスに共参照相当のタグが付与されている.京都コーパス4.0には,係り受けの情報に加え,毎日新聞95年度版の一部(555記事,5,127文)に114,729もの共参照タグが付与されている.ただし,このコーパスではACEで導入されている実体と実体の間の共参照関係に加え,実体と属性の間にも共参照関係のタグを付与している.例えば,文\NUM{kyc}では,実体``村山富市$_i$''とその属性``\nobreak首相$_i$''の間に共参照の関係が付与されることになる.\EX{kyc}{\ul{村山富市}$_i$\ul{首相}$_i$の年頭記者会見の要旨は次の通り。}一方,GDAコーパスでは,表現が実体を指している場合と総称的な表現の場合を区別せずに共参照の関係を認定している.下記の\NUM{gda_ex}はGDAコーパスから抜粋したものだが,この文章では総称名詞である2つの``フロン$_i$''に対して共参照タグが付与されている.このような例が多数見られたため,GDAの共参照タグはIRAとISAの両方の関係で付与されていると考えられる.\EX{gda_ex}{\ul{フロン}$_i$対策急げ...\ul{フロン}$_i$による環境破壊対策は...}\subsection{述語項構造のタグ付与}\label{ssec:pre_pred}述語とその項\footnote{本稿で用いる用語``項''はcomplementとadjunctの両方を指す.}のタグ付与に関しては,表層格レベルから深層格レベルまでさまざまなレベルでのタグ付与についての議論がある.例えば,英語を対象としたPropBank~\cite{Palmer:05}では,述語の項のラベルとして,基本的にはagentやthemeなどの意味役割に相当するARG0,ARG1,$\dots$,ARG5,AA,AM,AM-ADVなど,35種類のタグを用いて文章にタグ付与を行っている.一例をあげると,文\NUM{prop}に出現している動詞``earned''に対し,``therefiner''をagent相当であるARG0,``\$66million,or\$1.19ashare''をthemeに相当するARG1としてタグが付与されている.\EX{prop}{[$_{{\rmARGM-TMP}}$\textit{Ayearearlier}],[$_{{\rmARG0}}$\textit{therefiner}][$_{{\rmrel}}$\textit{earned}][$_{{\rmARG1}}$\textit{\$66million,or\$1.19ashare}].}ただし,PropBankでは項が付与される範囲は同一文内に限定されている.一方,日本語を対象に述語項構造を考える場合は必須格が省略されるゼロ照応の現象が頻繁に起きるため,文を越えて出現している表現や,もしくは文章外の要素も考慮してタグ付与を行う必要がある.京都コーパス4.0では文間ゼロ照応,外界照応となる項に関してもタグが付与されている.共参照タグ付与の対象となった555記事を対象にガ/ヲ/ニ/カラ/ヘ/ト/ヨリ/マデなどの格助詞相当の表層格に加え,ニツイテのような連語も一つの表層格として述語と項の関係が付与されている.例えば,文\NUM{zero_ex}に出現している述語``答え(る)''では前方に出現している``状態$_i$''をニツイテという表層格でタグ付与している.\EX{zero_ex}{体の\textbf{状態}$_i$について健康と\ul{答えた}$_{ニツイテ:i}$人は八七・八%で、体力に自信を持っているとの回答は八一・一%だった。}また,GDAコーパスではゼロ照応に関してagent,themeなどの粒度で意味役割のタグが付与されているが,我々が確認した限りでは,述語と係り関係にある場合や,ゼロ照応の関係として認定できる場合であっても先行詞が同一文内に出現している場合にはタグが付与されておらず,述語項構造解析の訓練事例として利用するには網羅性の点で問題がある.\subsection{事態性名詞のタグ付与}\label{ssec:event_noun}動詞や形容詞などの述語への項構造の付与に加え,動詞派生名詞やサ変名詞などの名詞(以後,\textbf{事態性名詞})についても述語と同様に,項同定の問題が設計され\cite{Meyers:04,Hasida:05,Kawahara:02},実際にそれらの問題への取り組みも報告されている\cite{Jiang:06,Komachi:07,Liu:07}.例えば,Meyersらが作成したNomBank~\cite{Meyers:04}では,PennTreebank~\cite{Marcus:93}を対象に名詞とその項構造のタグ付与を行っている.このコーパスでは英語における動詞の名詞化に着目して,PropBank~\cite{Palmer:05}で用いられている意味役割相当の項のラベルを句の中に項が出現している場合に限ってタグ付与している.例えば,文\NUM{nom}中の名詞``complaints''について,``customer''がagent相当の表現であり,また``aboutthatissue''がtheme相当の表現であるといったタグ付与を行っている.\EX{nom}{Therehavebeen[$_{\rmARGM-NEG}$\textit{no}][$_{\rmARG0}$\textit{customer}][$_{\rmrel}$\textit{complaints}][$_{\rmARG1}$\textit{aboutthatissue}].}日本語に関しても,京都コーパス4.0では事態性名詞とその項に対して表層格でタグが付与されている.例えば,文\NUM{event_ex}に示すように``及ぼす''の格要素となっている事態``影響''に対して,``離党$_i$''が``影響する''ことのガ格として付与されている.\EX{event_ex}{村山富市首相は年頭にあたり首相官邸で内閣記者会と二十八日会見し、社会党の新民主連合所属議員の\textbf{離党}$_i$問題について「政権に\ul{影響}$_{ガ:i}$を及ぼすことにはならない。離党者がいても、その範囲にとどまると思う」と述べ、大量離党には至らないとの見通しを示した。}名詞の項構造については,名詞と項の関係が「\textbf{候補}$_i$\ul{擁立}$_{ヲ:i}$」や「\textbf{兵士}$_j$の\ul{脱走}$_{ガ:j}$」のように,複合名詞句の中や``AノB''などに縮退される場合もあり,このような場合どこまでをタグ付与の対象とするかを決定する必要がある. \section{NAISTテキストコーパスで採用するタグ付与の仕様} \label{sec:fourth}\sec{third}で述べた先行研究のタグ付与仕様の背景にある考え方,およびまたその仕様を採用した場合に生じる問題点を考慮した結果,我々は以下の3つの基準を基本方針として採用するに至った.\begin{enumerate}\item\textbf{述語項構造については,述語の基本形にその項となる表現を表層格(ガ格,ヲ格,ニ格)レベルでタグ付与する.}\item\textbf{事態性名詞についても,述語と同様に表層格レベルで項を付与する.}\item\textbf{共参照関係については,IRAの関係のみを対象として共参照の関係を認定する.}\end{enumerate}以下で,それぞれの詳細を説明する.\subsection{述語と項のタグ付与}\label{ssec:spec_pred}述語そのものの認定に関しては,品詞体系としてIPADIC~\cite{Asahara:03}を採用し,動詞,形容詞,名詞+``だ(助動詞)''の3種類をタグ付けの対象となる述語とみなし,作業を行う.述語の格要素については,京都コーパス4.0が採用しているような表層格,GDAで採用されているagent,themeのような意味役割,またPropBankで付与されているARG0やARG1といった意味役割相当のラベルなど,さまざまなタグ付与のレベルが考えられる.この中で我々は「誰が何を何に対してどうする」という情報抽出的な観点でタグを付与することが自然だと考え,述語の原形の必須格に対して項のタグを付与するという仕様を採用した.この仕様に従った場合,さらにガ格などの表層格レベルでのタグ付与を行うか,もしくはagentもしくはARG0といった意味役割レベルでタグを付与するかという2つの選択肢があるが,ここでは表層レベルからなんらかの情報を捨象して意味のレベルを考えることが応用処理横断的に有益かどうかが現状では判断できないという理由で,格交替の情報のみを捨象した表層格でタグ付与を行った.例えば,京都コーパス4.0では文\NUM{pred_ex1}の述語``食べさせる''に対して``私$_i$'',``彼$_j$'',``リンゴ$_k$''をそれぞれガ,ヲ,ニ格でタグ付与するのに対し,我々の仕様では述語の原形``食べる''に対して``彼$_j$ガリンゴ$_k$ヲ食べる''というタグを付与する.ただし,述語の原形に対してタグを付与する場合には使役者に相当する``私$_i$''と述語``食べる''の間の関係にタグが付与されないことになる.これを回避するため,格要素を増やす助動詞に対してタグ``追加ガ(ニ)格''を付与した.例えば,文\NUM{pred_ex1}では,助動詞``させる''に対し``私$_i$''を追加ガ格でタグ付与し,文\NUM{pred_ex2}では助動詞``やる''に対し``彼$_j$''を追加ニ格でタグ付与する.\EXS{pred_ex1}{\small\item\textbf{私}$_i$は\textbf{彼}$_j$に\textbf{リンゴ}$_k$を\ul{食べさせる}$_{ガ:i,ヲ:k,ニ:j}$\item\textbf{私}$_i$は\textbf{彼}$_j$に\textbf{リンゴ}$_k$を\ul{食べ}$_{ガ:j,ヲ:k}$\ul{させる}$_{追加ガ格:i}$}\EX{pred_ex2}{\small\textbf{私}$_i$は\textbf{彼}$_j$に\textbf{本}$_k$を\ul{読ん}$_{ガ:i,ヲ:k}$で\ul{やる}$_{追加ニ格:j}$}京都コーパス4.0では表層格を網羅する形をとっているが,今回の作業では,頻出するガ/ヲ/ニ格のみを対象にタグ付与を行う.当面このような基準で作業を進めることで,今後深層格の情報をタグとして付与する必要がでてきた場合にも,述語の基本形の必須格に付与した情報は,agent,themeのような意味役割を付与する場合や語彙概念構造(LCS)\cite{Jackendoff:90}の意味述語の情報を付与する際にも役立つと考えられる.また,ゼロ照応の関係として項を付与する場合には,前方文脈に先行詞と認め得る名詞句が複数個出現している場合がある.例えば,文章\NUM{multi_ants}の2文目で動詞``接する''のガ格は省略されており,このゼロ代名詞に対して1文目の``村山富市首相'',もしくは2文目の``首相''の両方が補完可能である.\EX{multi_ants}{就任後初めて地元の大分県へ里帰りしていた\textbf{村山富市首相}$_i$は三十一日夕、三泊四日の日程を終えて日航機で羽田空港に到着した。\\~\textbf{首相}$_i$は記者団に対し、「突然大分に帰ったが、温かい歓迎に\ul{接し}$_{ガ:i}$『地元はいいなあ』という感謝の気持ちでいっぱい。期待に応えてしっかり頑張らないといかんという気持ちを一層強く持った」と感想を述べた。}このような状況の場合,ゼロ照応の正解データとしては両方の表現が先行詞としてタグ付与されているべきであるが,すべての先行詞となり得る表現を作業者が把握しタグ付与していくことは作業効率と作業品質の両方から見て得策とはいえない.このような問題に対し,我々が行った作業では共参照の関係も同時にタグ付与することで,共参照関係にある表現の集合のうちどれか一つが先行詞としてタグ付与されるだけで,共参照関係にある他の表現にもタグが付与されたこと同じ結果として考えることができる.文章\NUM{multi_ants}の例に戻ると,``村山富市首相''と``首相''が共参照の関係であるとタグ付与されていることで,``接する''のガ格ゼロ代名詞の先行詞はいずれかの表現にタグ付与するだけでよくなる.最後に,\tab{comp_pred}に述語に関する我々の仕様と他のコーパスの仕様の比較をまとめる.\begin{table}[t]\caption{述語と項のタグ付与の比較}\label{tab:comp_pred}\input{03table01.txt}\end{table}\subsection{事態性名詞と項のタグ付与}\label{ssec:spec_event}動詞や形容詞などの述語に加え,事態性名詞に対して述語と同様に必須格となるガ/ヲ/ニ格を付与する.作業者は与えられた名詞(主にサ変名詞)が事態を表しているか否かを判定し,事態性名詞と判断した名詞(句)に対して必須格を付与する.例えば,文\NUM{ex_event}で出現している二つの``電話''という名詞のうち,``電話$_i$''が「電話する」というコトを表しているのに対し,\mbox{``電話$_j$''}は「(携帯)電話」というモノを表している.この状況で作業者は``電話$_i$''のみを事態性名詞と認定し,これに対して``\nobreak彼\nobreak$_a$''をガ格,``私$_b$''をニ格として付与しなければならない.\EX{ex_event}{\textbf{彼}$_a$からの\ul{電話}$_{i_{(ガ:a,ニ:b)}}$によると、\textbf{私}$_b$は彼の家に\ul{電話}$_j$を忘れたらしい。}また,タグ付与の対象が複合語の場合はその構成素を構成的に分解した上でそれぞれの構成素に対して事態性判別の作業を行う.例えば,「紛争仲裁」は構成素``紛争''と``仲裁''のそれぞれの意味を構成的に組み合せてできた複合語だとみなし,``仲裁''を事態性名詞と判断する.\subsection{名詞句間の共参照関係のタグ付与}\label{ssec:spec_coref}共参照のタグ付与では,\sec{second}で述べたIRAに加えISAの関係も含めてタグを付与するか否かの選択肢があるが,ISAの関係まで含めてしまうと,総称名詞間の包含関係のような複雑な関係を考慮して作業を行う必要がある.例えば,文章\NUM{book}では,``食べ物''と``食料''が同一の概念であるため,共参照の関係とするか否かの判断が必要となるが,厳密にはこの二つの表現は\mbox{``兵}庫県内で不足している食べ物''と``被災地(兵庫県)を離れた場所にある食料''という異なる概念を指すためISAの関係として認定すべきではない.このように,概念の同一性を判断するためにはその表現が出現する文脈との関連性を捉え,その表現が指す範囲を考えた上で同じ概念を指しているかを考える必要があり,共参照の認定が非常に困難な作業となる.\EX{book}{兵庫県内の暗やみの中で、人々が水と\ul{食べ物}の不足に苦しんでいる同じ夜、隣接した大阪の繁華街ではネオンが光り、飲食店はにぎわっている。\\~水も\ul{食料}も、被災地を離れるとふんだんにある。}そこで,述語や事態性名詞がISAも含めた関係にタグ付与しているのに対し,共参照に関してはIRAの関係にのみタグを付与する.ただし,EDTの仕様のように,実体が組織名や場所名など数種の固有表現に限定して共参照関係のタグを付与することは,さまざまな応用分野で必要となる共参照の表現を網羅できないため望ましくない.そこで,今回の作業では,以下の3つの基準に基づいて表現のクラスを限定せずに共参照関係のタグ付与を行い,どのような問題が生じるのかを調査した.\begin{enumerate}\item\textbf{照応詞は文節の主辞(最右の名詞自立語)のみに限定する}.\item\textbf{談話内に出現した名詞句のみを先行詞とする}.\item\textbf{総称名詞は照応詞,先行詞とみなさない}.\end{enumerate}既存の共参照関係のタグ付与の研究と比較すると\tab{diff_coref}のようになる.\begin{table}[t]\caption{共参照タグ付与の差異}\label{tab:diff_coref}\input{03table02.txt}\end{table}\subsection{統計}\ssec{spec_pred},\ssec{spec_event},\ssec{spec_coref}の仕様に従い,京都コーパス3.0の全記事(2,929記事,38,384文)\footnote{タグ付与の対象として本研究では京都コーパス3.0を採用しているが,その後新たに公開された京都コーパス4.0は京都コーパス3.0と比較して2記事を削除してあるだけであり,こちらのコーパスにタグ付与された係り受け情報と照合する際にもNAISTコーパスの述語項構造・共参照のタグの情報は問題なく照合できると考えられる.}を対象に,2人の作業者が述語項構造と共参照の関係についてタグ付与作業を行った.述語/事態性名詞とその項に付与されたタグの個数を\tab{statics}にまとめる.ただし,項の出現位置によって,同一文節内\footnote{「明らかになる」のような表現がコーパス中では一文節であるのに対し,作業者が「明らかに」と「なる」を分けて付与した場合などを含む.},係り関係にある場合\footnote{「サンマを焼く男」の「男」が「焼く」のガ格となるような,連体修飾の関係も含む.},文内のゼロ照応関係,文間のゼロ照応関係,外界照応の5つに分類して頻度を求めた\footnote{今回タグ付与される情報には係り受け関係は含まないが,京都コーパスの係り受け情報と統合することによりゼロ照応か否かの判別が可能である.}.\tab{statics}より,述語の項目ではヲ格,ニ格の項のほとんどは係り関係にあるのに対し,ガ格の約6割はゼロ照応の関係にあることがわかる.これに対して,事態性名詞のヲ格,ニ格は同一文節内,つまり複合語の構成素として項が出現している割合が高く,ガ格に関しては約8割がゼロ照応の関係にあり,述語の場合と比較して項の出現箇所がおおきく異なっていることがわかる.\begin{table}[t]\caption{述語と事態性名詞のタグの統計(NAISTテキストコーパス全体)}\label{tab:statics}\input{03table03.txt}\end{table}共参照関係のタグについては,タグ付与された実体の総数が10,531,最初に出現した表現を先行詞,その他を照応詞とみなしたときの照応詞の個数が25,357であった.京都コーパス4.0より圧倒的に個数が少ないが,これは厳密にISAの関係と判断できる場合のみタグ付与を行ったためだと考えられる.また,共参照に関与する代名詞の個数は622と,京都コーパスと比較してタグ付与した記事に対する割合が小さい.これは作業者が(1)節照応の付与を行わずに,(2)共参照タグ付与に関して厳密な実体の一致を強いたために完全に一致するとみなせない場合にはタグが付与されなかったためだと考えられる.代名詞に関しては現状の仕様のようにIRAの関係でタグを付与する立場と,実体の一致を問題としないISAの関係で付与するという立場の二つを考えることができ,どちらが良いかは応用分野によって異なる.そのため,代名詞については追加的にISA関係のタグを分けて付与することも今後検討したい.次に,実際に作業を行っている2人の作業者間のタグ付与の一致率を調査するため,ランダムに選択した報道30記事を対象に作業を行った.評価は一方の作業者のタグ付与の結果を正解,他方の作業結果をシステムの出力とみなし再現率と精度で評価する.ただし,それぞれのタグの一致率は各タグの終了位置の一致で評価した.また,述語と事態性名詞の項の一致率については,2人の作業者の述語(事態性名詞)が一致した箇所のみを対象に評価した.また,共参照の一致率についてはMUCscore\cite{Vilain:95}を用いて再現率と精度を求めた.これらの基準で評価した結果を\tab{agree}に示す.\tab{agree}よりわかるように,それぞれのタグ付与は多くの場合8割を越える品質で作業ができているが,改善の余地は大きい.\sec{fifth}では,各タグ付与において,問題となった主要な点を説明し,その問題を解決するための今後の方向性について議論する.\begin{table}[t]\caption{タグの一致率(報道30記事)}\label{tab:agree}\input{03table04.txt}\end{table} \section{タグ付与の問題点と今後の展望} \label{sec:fifth}この節では述語,事態性名詞,共参照のそれぞれのタグ付与作業中に生じた問題を説明し,それに対する今後の対応などをまとめる.\subsection{述語のタグ付与の問題点}まず,述語そのもののタグ付与に関してだが,タグ付与対象となる述語が「〜と\ul{し}て」のような機能語相当表現と表現上では同一の場合に述語認定に揺れが生じることがわかった.例えば「会社Aが会社Bを子会社と\ul{し}て」では「として」が``ある一つの側面からの価値付け・意味付け''という意味の機能語相当表現なのか,それとも「会社Aが会社Bを子会社と\ul{する}」と解釈すべきなのかを判断することが難しい.この機能語相当表現の問題については,土屋ら\cite{Tuchiya:06}がタグ付与作業に関して作業者間の高い一致率を得ており,彼らの作業方針を参考に仕様を洗練していく予定である.\subsection{事態性名詞タグ付与の問題点}\label{ssec:problem_eventnoun}事態性名詞の認定に関して,今回は「対象となる名詞(句)が出現文脈でモノとコトのどちらを表しているかを判断し,コトの場合のみ項を付与する」という仕様を採用したが,タグ付与作業の結果,モノとコトの2値に分類することが困難な事例が多数出現し,それが作業の揺れの主な原因となった.例えば,例\NUM{report}の名詞``報告''は``文化庁ガ報告スル''というコトを表していると同時に報告された結果(内容物)というモノを表していることになり,この例からもわかるように,事態性名詞の中にはモノとコトのどちらとも解釈できるものがある.\EX{report}{\textbf{文化庁}の2005年の\ul{報告}によると、各宗教団体の報告による信者数は合計2億1100万人である。}つまり,項となり得る表現(例\NUM{report}では``文化庁'')が近傍に出現しているか否かがコトを指すか否かの判定におおきく影響し,上のような場合でも項となる表現が近くに出現していない場合はモノと判断されるなど,一貫した作業結果が得られていない.\subsection{項のタグ付与の問題点}項のタグ付与に関しては述語が取り得る格パタンが複数存在するために作業者間で揺れが生じることがわかった.この問題の典型的な例が自動詞と他動詞の交替である.例えば,述語\mbox{``実現する''}は同じ語義に対して表層格レベルで``agentガthemeヲ実現する''と``themeガ実現する''の2つの格パタンが存在するため,文章中ですべての格要素が省略されている場合は,作業者はどちらの解釈でもタグ付与が可能になってしまう.自他交替の問題と類似して,制度などの表現に動作主性(agentivity)を認めるか否かで解釈が異なるために揺れが生じる場合もある.例えば,文\NUM{alter}において,述語``しばる''は,直前に出現している``規制''の動作主性を認め,``規制ガthemeヲしばる''と``agentガ規制デthemeヲしばる''の2つの解釈が存在する.\EX{alter}{我々の生活が知らず知らずにどれだけ規制で\ul{しばら}れているか、規制緩和によって豊かさが変わっていくのかを考えてみた。}このような交替を伴う場合の揺れに関しては,どちらかのパタンを優先するという規則をあらかじめ決めておき作業することで対応できると考えられる.動作主性の問題に関連して,組織のような実体にどのくらい動作主性を認めるかが作業者間で異なるために揺れが生じる場合も頻繁に起こった.例えば,文\NUM{ex_role}では,組織``与野党''もしくはその組織の``党首''が事態``協力(する)''のガ格として解釈可能である.\EX{ex_role}{...自民、さきがけ、新進各党の\textbf{与野党}$_a$の\textbf{党首}$_b$会談を呼び掛けて\ul{協力}を求めるべきだ。}このような組織とその組織の関係者のような対立や,また文\NUM{ex_part}の``北朝鮮''と``同指導部''のような組織とその部署の関係など,ある名詞が他の名詞と関連しているために,複数の解釈が可能な場合は``(与野党ノ)党首''のように詳細化されているほうにタグを付与することによって作業者間の揺れを少なくすることができると考えられる.このように扱うことで,もし$\langle$所属(党首,与野党)$\rangle$のような名詞間の関係解析が実現できれば,他方の名詞(\NUM{ex_role}では``与野党'')と対象となる述語を関連付けて扱うことができる.\EX{ex_part}{\textbf{北朝鮮}$_a$における新年の辞は、\textbf{同指導部}$_b$の施政方針\ul{発表}に当たる重要行事である。}また\fig{lack}(a)のように,項としてタグ付与されるべき名詞句がIRAの関係で他の名詞句と関連付けられている場合は,共参照関係にある名詞句のいずれかを項として同定する問題とみなすことができるが,一方\fig{lack}(b)の``子供''と``児童''のようなISAの関係で出現している名詞句については,ラベルが付与されていない``子供''は述語の項としてタグが付与されないという問題が起こる.\begin{figure}[b]\begin{center}\includegraphics[width=.7\columnwidth,keepaspectratio]{17-2ia3f3.eps}\end{center}\caption{先行詞が総称名詞の場合のタグ付与の漏れ}\label{fig:lack}\end{figure}また,本研究では必須格となるガ/ヲ/ニを対象に述語項構造のタグ付与について議論したが,それ以外の格(カラ/ヘ/ト/ヨリ/マデ/デ)についても付与することが可能であるかを調査する必要がある.そこでコーパスの一部136記事を対象にこれらのタグを試験的に付与し,どのような結果となるかを調査した.ただし,項の出現箇所に制限を加えずに作業を行った場合,作業者は各述語に対し文章全体を対象に格要素を探す必要があるため,すべての項に網羅的にタグ付与できるかどうかがわからない.そのため,今回は項を同定する範囲を述語と同一文内に限定し,その中で網羅的に項のタグ付与を行った.\tab{adjunct}に作業者2人が付与したタグの個数を表層格ごとにまとめる.\tab{adjunct}より,ガ/ヲ/ニ以外の項についてもある程度の個数が付与可能なように見えるが,このうち文~\NUM{adjunct1}や文~\NUM{adjunct2}のような,複数の述語が同一表現を項として持つ並列や文内ゼロ照応など,明示的にタグを付与すべき現象がどのくらい出現しているかを人手で調査したところ,作業者1と2でそれぞれ16回と31回であった.つまり,項のタグ付与の対象を同一文内に限定した場合,ほとんどの項は係り受け関係にあり,かつ明示的にタグ付与対象となる格助詞を伴い出現するため,今回人手でタグ付与作業を行った結果のほとんどは機械的に処理できる問題となる.\EX{adjunct1}{\textbf{台北}$_i$では、屋外のスタジアムも満員に\ul{なり}$_{デ:i}$、失神者が\ul{出た}$_{デ:i}$ほど。}\EX{adjunct2}{...「新民主連合」は六、九の両日に\textbf{総会}$_i$を\ul{開き}$_{ヲ:i}$、離党問題などの対応を\ul{話し合う}$_{デ:i}$ことにしており、党内調整は大きなヤマ場を迎える。}このため,文を越えて述語と任意格の関係を付与することを考慮する必要があるが,どのような基準でその作業に取り組めばよいのかは自明ではなく,今後さらに検討する必要があると考えている.\begin{table}[t]\caption{ガ/ヲ/ニ格以外のタグ付与結果(新聞136記事)}\label{tab:adjunct}\input{03table05.txt}\end{table}\subsection{共参照タグ付与の問題点}\label{ssec:problem_coref}共参照関係のタグ付与に関して作業を行った結果,共参照関係を厳密な同一実体を参照している場合に限定したことで,多くの関係は固有名の間で認定され,照応の現象と関連する代名詞や指示連体詞を伴う名詞句のような表現についてはほとんどには共参照の関係が付与されなかった.これは,新聞記事の場合は読み手が理解できる箇所では代名詞のような表現よりゼロ代名詞を優先的に利用している,また,代名詞が名詞句に加え,直前の節を指す場合などが比較的多く,仕様で定義した共参照関係として認定できない,などの理由がある.ただし,代名詞,指示連体詞などの指示表現については照応関係を研究するための良い題材になると考えられるので,これらの指示表現に特化したタグ付与作業を行った.作業結果については\ssec{revise_coref}でまとめる.また,IRAのみを対象に共参照のタグを付与する作業に関してもいくつかの問題が残る.まず1つ目の問題を文章\NUM{gpe_ex}を例に説明しよう.\EX{gpe_ex}{グロズヌイからの報道によると三日、大統領官邸の北西一・五キロの鉄道駅付近で\ul{ロシア軍部隊}$_i$とチェチェン側部隊が衝突したが、\ul{ロシア側}$_i$は中心部への進撃を阻まれて苦戦。...\ul{ロシア政府}$_j$は三日、戦況に関する声明を発表し、大統領官邸を含む首都中心部は依然としてロシア側が支配していると強調した。しかし現地からのテレビ映像では、官邸はじめ中心部は依然としてドゥダエフ政権部隊の兵士が警戒に当たっており、\ul{ロシア側}$_j$の発表と食い違いを見せている。}この例で,最初に出現する``ロシア側$_i$''が``ロシア軍部隊$_i$''の換喩に相当するのに対し,次に出現する``ロシア側$_j$''は``ロシア政府$_j$''の換喩として解釈できる.現状の仕様では``ロシア軍部隊$_i$''と``ロシア側$_i$'',``ロシア政府$_j$''と``ロシア側$_j$''それぞれに共参照関係のタグを付与することになるが,換喩の解釈しながらタグ付与作業を行なうことが困難であることに加え,実際の自動解析する際にも非常に困難な問題設定となる.この問題を回避するために,換喩の解釈で共参照のタグを付与するのではなく,文章に出現している4つの``ロシア''を同一の実体としてタグ付与するなどの方法が考えられるが,どのように仕様を決めた方がよいかは明らかでないため今後検討していく必要がある.また,IRAの認定に関しても,実体が具体名詞である場合は2つの言及が同一の実体を指すか否かの認定が容易であるが,抽象名詞の場合は同じものを指しているかの判定が困難である.\ssec{spec_coref}で共参照関係のタグ付与にはあらかじめ名詞のクラスを指定して作業を行うことは望ましくないと述べたが,抽象名詞に関してはいくつかの意味クラスに限定して作業を行い,どのくらい揺れなく作業できるかを調査したい. \section{タグの仕様の改善} \label{sec:sixth}\sec{fifth}で見たように,今回採用したタグ付与の基準には解決しなければならないいくつかの問題点が含まれている.この節ではその中で事態性名詞と名詞句の照応関係についてさらに仕様を洗練し,作業を行った結果について報告する.\subsection{事態性名詞}\ssec{problem_eventnoun}に示したように,事態性名詞に関する典型的な作業の揺れは,事態性名詞が文脈によってモノとコトの両方の解釈がある場合に「あらかじめ明示的にコトかモノかを判別し,コトへのみ項を付与する」という仕様と矛盾するために起こる.この矛盾を回避するために,以下に示すの2つの項目をタグ付与の仕様として採用した.\paragraph{修正点1:モノを指す表現へも項を付与する}~モノとコトの境界を項付与できるか否かで弁別することは困難であり,モノとして解釈できる場合にも項を持つ場合がある.そこで,今回の仕様ではモノである場合でも項を持つと判断できた場合には,モノ/コトの判別とは独立に項を付与する.\paragraph{修正点2:モノとコトを指す表現を区別するためモノと判断した根拠もタグ付与する}~提案1で述べた仕様を採用すると,モノの場合も項を付与するため項を付与したことがコトを指すという情報と等価ではなくなる.しかし,文章中の事態のみを抽出したい応用分野も存在するため,作業結果には事態性名詞がコトを指すという情報もできる限り残しておくことが望ましい.そこで,まず我々はあらかじめ揺れが起こった事態性名詞を人手分析し,モノとコトの解釈で曖昧性が生じる名詞を\textbf{結果物/内容\nobreak},\textbf{モノ(具体物)},\textbf{役割},\textbf{述語と事態性名詞との語義のずれ}の4種のクラスに分類した.事態性名詞をモノとして解釈できる場合には,これら4つのうちいずれかをタグ付与することでモノとしての証拠を残す.逆にこれらのタグが付与されないことで純粋に事態を表す事態性名詞を表現する.また,名詞クラスのタグを用意することで,項付与が困難な場合に作業者が無理に項を付与しようとする事態を回避することができる.上述の2つの提案を採用することにより,これまでモノに分類するか項を取るかどちらか一方の情報しか付与できなかった例\NUM{report}の``報告''についても,``\nobreakモノ(具体物)''としての解釈と``文化庁ガ報告スル''という項構造の両方を情報を付与できるようになる.以下で,今回付与する4種の名詞クラスについて説明する.\begin{itemize}\item\textbf{結果物/内容}:典型的には例\NUM{content}のような内容節をとる(トノ,トイウを伴って出現する)場合,``意見''のような名詞は内容節が表す内容と同格であり,``意見スル''というコトを指すとは考えにくい\footnote{もちろん``意見''という表現だからといって必ず\brace{結果物/内容}タグを付与するわけではなく,文脈から``XガYト意見スル''という事態と判断できる場合は項を付与し,\brace{結果物/内容}タグはしない.}.\EX{content}{党内には「社会党会派の離脱者は従来通り除名すべきだ」との\ul{意見}が根強く...}この類例としては``提案'',``決定'',``報告''などがある.また,``連合シタ''結果,``連合''という実体が存在するという解釈に基づき,例\NUM{union}のような実体を指すのみで事態を表すとは考えにくい``連合''についても\brace{結果物/内容}のタグを付与し,項は付与しない.この類例としては``組織''などの表現がある.\EX{union}{十日夜には、自由\ul{連合}の新年会に自民党から森喜朗幹事長、島村宜伸国対委員長らが出席した。}同様に,例\NUM{regulation}の``規制''も``規制スル''事態よりも規制の内容そのものを指すと判断した場合は,項は付与せず\brace{結果物/内容}タグのみを付与する.\EX{regulation}{また、経済問題については日本経済の構造変革のため\ul{規制}緩和に積極的に取り組むと訴える。}\item\textbf{モノ(具体物)}:事態性名詞が文脈中でモノ(具体物)を指しているかを判定する.前述の例\NUM{ex_event}のモノとしての``電話$_j$''や場所としての``施設'',道具としての``装備''などの表現がこれに相当する.例えば,ある文脈で``携帯''という表現が``携帯電話''というモノを指す場合は\brace{\nobreakモノ}タグを付与する.\item\textbf{役割}:``課長\ul{補佐}'',``松本\ul{教授}'',``オシム\ul{監督}''などの表現は,名詞句全体で個人を指示しており,名詞句内の事態性名詞がコトを指すとは考えにくく,この場合には\brace{\nobreak役割}タグを付与することで項の付与を回避する.このような表現は典型的に主辞の位置に出現している場合が多い.\item\textbf{述語と事態性名詞との語義のずれ}:事態性名詞が派生前の動詞の意味と異なる場合には,項を付与することができない.例えば,例\NUM{zure}のサ変名詞``\nobreak一定''は動詞``一定スル''と異なった意味で用いられており,このような場合には\brace{ずれ}タグを付与し,項は付与しない.\EX{zure}{\ul{一定}の得票で議席を占めた後に今回と同様「除名」などの騒動が起きれば、...}\end{itemize}上述の作業方法を採用することで人手でのタグ付与品質にどのような影響が出るかの調査を行った.具体的には,作業者2人が新聞報道50記事中のサ変名詞665箇所に対し,その名詞が項を持つか否かの判定と項を持つ場合は項の付与を行った.この作業とは独立に\sec{third}に示した名詞クラスの付与を行った.今回の作業では頻出するサ変名詞を対象に作業し,和語動詞派生の名詞は対象外とした.作業者2名の作業結果とその一致率を\tab{result}に示す.\tab{result}より,665件のサ変名詞のうちどちらの作業者も550を越えるサ変名詞に対して項を持つと判定しており,文章中のほとんどのサ変名詞は項付与対象となっていることがわかる.また,項を持つか否かの作業者間の一致率はそれぞれの作業者について見た場合0.95と0.91と以前の作業品質の調査\cite{Iida:07}(一致率は0.905と0.810)と比較して一致率が向上しており,今回の作業方針が品質向上に有効であったことがわかる.また,項を持つか否かKappa値で評価したところ0.522という結果を得た.名詞クラスの一致率については良いとは言い難いが,これは作業者間で\brace{結果物/内容}と\brace{ずれ}にそれぞれ付与するなど,クラス間の揺れが生じたためであり,またそもそもスル接続で表現する頻度が低い``確証''などの事態性名詞に関する解釈の異なりも作業の揺れの原因となった.また,項を取るか否かのタグ付与が不一致だった78事例を調べたところ,44事例は項を付与するか否かに作業者間で解釈が異なる事例であり,残りは付与の誤りとみなせる事例であった.\begin{table}[b]\caption{名詞クラスのタグ付与の作業結果(報道50記事,サ変名詞665箇所)}\label{tab:result}\input{03table06.txt}\end{table}次に,2人の作業者が項を持つと判断した531事例について,項(ガ/ヲ/ニ格)がどのくらい一致するかを評価した結果を\tab{agree_arg}に示す.項を取ると判断された事態性名詞のうち付与された項が一致しなかった265事例を人手で分析,揺れの原因を調査した結果を\tab{inconsistence}にまとめる\footnote{1事例を複数の誤りの原因に割り割り振ったため,合計は265事例より多くなる.}.作業の揺れはおおきく2つの問題に起因している.一つは,各事態性名詞を述語化して考えた際に作業者間で異なった格パタンを想起したためである.特に,ある事態性名詞に対して,一方の作業者は必須格としてヲ格を取ると判断したが,他方はそれを取らないと判断した場合が揺れの大部分を占めていることがわかった.この問題に関しては,語彙概念構造\cite{Jackendoff:90}を考慮して作成されている動詞辞書\cite{Takeuchi:06}のような情報を作業の際に提示することで,作業者が想起できない格パタンを網羅的に把握することができ,揺れが少なくなると考えられる.このような作業者支援については,野口らの作成しているアノーテションツール\cite{Noguchi:08}でどのように情報を提示するかという問題と同時に考えていきたい.\begin{table}[b]\caption{事態性名詞の項タグ付与の一致率(サ変名詞531箇所)}\label{tab:agree_arg}\input{03table07.txt}\end{table}\begin{table}[b]\caption{タグ付与不一致の原因分析の結果(サ変名詞265箇所)}\label{tab:inconsistence}\input{03table08.txt}\end{table}また,もう一つの主要な揺れの原因は,同定すべき項の粒度に関するものである.例えば,例\NUM{exo}で項を持つと判断された``整備''には,前方文脈に出現している``\nobreak日本鉄道建設公団''という組織が``整備スル''という解釈と,文章中に出現しない``特定の誰か(もしくは集団)''が``整備スル''という2つの解釈が存在する.\EX{exo}{\textbf{日本鉄道建設公団}は十一日、整備新幹線の北海道新幹線について、ルート公表に向けた函館市と小樽市付近の調査に一月下旬から着手すると発表した。\\調査は、\ul{整備}新幹線建設費とは別枠の、建設推進準備事業費三十億円の中で行われる。}この問題は「できるだけ文章内から項を選択する」という基準を用いた場合でも,作業結果は作業者の解釈に左右されるため,解決はできず,述語の場合も同様に問題となる.この問題と関連して,これまでのタグ付きコーパス構築の方法論はできるだけ揺れを無くすことが前提であり,解析はその厳密な設定のもと問題を解くという立場で研究が進められてきたが,今後はその代替案として作業者一人もしくは複数人の揺れを許容するような学習・分類の枠組みを検討すべきかもしれない.\subsection{名詞句の照応関係}\label{ssec:revise_coref}\ssec{problem_coref}で示したように,\ssec{spec_coref}で示した名詞句の共参照関係の仕様に従って作業を進めた場合,厳密な共参照関係であることを作業者に強いてタグを付与させるため,例えば表現が代名詞であっても,照応関係が付与されないことになる.どの粒度での照応関係が応用処理に必要となるかは応用処理それぞれの問題に依存するため,同一の実体を指していることが保証できない場合でも,照応関係を認定してタグを付与したい.しかし,この対象を名詞句全体に広げた場合,\ssec{spec_coref}で述べた概念間の包含関係など,複雑な関係を把握した上で照応関係を付与するという作業を作業者に強いることになる.ここではそのような照応関係を捉える第一歩として,``この''や``その''といった指示連体詞を伴う名詞句を作業対象とすることで,照応関係についてどのような作業を進めていくべきかを考える.以下で示すように,指示連体詞を伴う名詞句を対象にする場合,共参照の関係を含む\textbf{指定指示(限定指示)}やbridgingreference\cite{Clark:77}などの間接照応の関係に相当する\textbf{代行指示}といった複数のの関係を考慮する必要があり,名詞句全体の照応現象を考える上での良い縮図となっていると考えられる.\paragraph{指定指示(限定指示)}:``指示連体詞+\brace{名詞(句)}''が文章中の他の表現と照応関係になる場合にその関係を指定指示(限定指示)という.例えば,例\NUM{direct_ana}において,``このデータ$_i$''は先行詞``資料$_i$''を指す.\EX{direct_ana}{図書館で\ul{資料}$_i$を手に入れた。\ul{このデータ}$_i$は機械的に処理される。}\paragraph{代行指示}:指示連体詞単体が前方文脈の表現と照応関係になる場合にその関係を{代行指示}という.例えば,例\NUM{indirect_ana}において,``こ(の)''は前文の``水質調査''と照応関係にある.\EX{indirect_ana}{5年間、\ul{水質調査}$_i$を行った。\ul{この}$_i$データは機械的に処理される。}この2種類の関係を分けて付与するため,指定指示の場合は``指示連体詞+\brace{名詞(句)}''全体を照応詞とし,代行指示の場合は指示連体詞のみに照応詞のタグを付与する.また作業の確認のため,各に指示代名詞にはどちらの関係で出現しているかを明示的にタグ付与を行う.また,``この日''などの表現は文章中に必ずしも先行詞が存在するとは限らず,このような場合には\textbf{外界照応}のタグを付与し,指定指示や代行指示と区別する.この結果,指示連体詞には指定指示,代行指示,外界照応のいずれかのタグが付与されることになる.共参照関係を付与した際には,談話要素間の厳密な共参照関係を強いたため先行詞は名詞(句)に限られたが,指示連体詞を伴う場合には,先行詞の品詞には制約を加えずに作業を行った.このため,照応詞の指し先が節となる場合も含まれる.このような場合は節の主辞(多くの場合は述語)をその節を代表して先行詞としてタグ付与した.例えば,例\NUM{ant_pred}では,``その前計算''は``前述のシステムは前もって値を計算する''ことを指しており,この場合はこの節を代表して,``計算する''を先行詞としてタグ付与する.\EX{ant_pred}{システムは前もって値を\ul{計算する}$_i$。\ul{その前計算}$_i$はシステムの性能を大幅に向上させている.}また,先行詞の表現によっては指示関係が指定指示なのか代行指示なのか曖昧な例が存在する.例えば,例\NUM{rel_ambiguous}では,``その土地''が``アメリカ''を指す指定指示の関係なのか,``その''が``アメリカ''を指し,``アメリカの土地''として解釈すべきかの判断が困難である.\EX{rel_ambiguous}{彼は\ul{アメリカ}$_{ij}$へ向かった。\ul{\mbox{その$_{i}$土地}}$_{j}$で彼は新しい仕事をみつけるつもりだ。}このような曖昧性のある指示関係については指示関係が曖昧であることをタグ付与し,明かにわかる指定指示や代行指示の関係とは区別する.上述の作業内容にしたがい,一人の作業者が指示関係とその先行詞のタグ付与作業を行った.作業対象はすでにタグ付与を行ったNAISTテキストコーパスの中から指示連体詞を含む記事をあらかじめ抽出し,その記事を対象に作業を行う.茶筌\footnote{http://chasen.naist.jp/hiki/ChaSen/}で形態素解析した結果を利用し,品詞が``連体詞''として解析された形態素を含む記事1,463記事(報道883記事,社説580記事)を対象に作業を行った.この結果4,089の指示連体詞にタグが付与され,このうち指定指示は30.9\%(1,264/4,089)代行指示は57.4\%(2,345/4,089),外界照応は11.5\%(470/4,089)であった.\tab{ana_table}に記事の種類や先行詞の種類ごとの出現数をまとめる.\begin{table}[b]\caption{照応関係のタグ付与の統計(新聞1,463記事,4,089の指示連体詞)}\label{tab:ana_table}\input{03table09.txt}\end{table}次に,作業の信頼度を調査するために,別の作業者がすでにタグ付与した記事の一部(418の指示連体詞)を対象に新たにタグ付与作業を行い,作業の一致率を見る.まず,指示関係の判別についてKappa値で評価したところ0.73と高い数値を得た.また,先行詞の一致率については,評価に使った418の指示連体詞のうち,先行詞を持つ322の指示連体詞についてどの程度同じ先行詞にタグ付与されたかの一致率を見た.その結果,指定指示については80.7\%(88/109)が一致するという高い一致率が見られたが,代行指示については,62.9\%(134/213)と指定指示に比べ低い一致率となった.これは,指定指示についての作業は照応詞に対し先行詞が同じ意味カテゴリに入る候補のみを探す比較的容易な作業であるのに対し,代行指示に関してはさまざまな意味的な関係を考慮して先行詞を探す必要があり,作業がより困難であることに起因すると考えられる.この品質の向上のためにある意味カテゴリを先行詞として持つ可能性のある表現については,あらかじめその情報を提示した状況で作業を行うなどが考えられる.その点を含め,どのような情報をどのような状況に提示するかについては今後さらに検討していく予定である. \section{おわりに} \label{sec:seventh}本稿では,日本語を対象とした述語項構造・共参照タグ付与コーパスに関して,我々が今回採用したタグ付与の基準について報告した.\sec{third}の議論に基づき,述語項構造のタグに関してはISAとIRAの関係両方で,共参照関係はIRAの関係でタグ付与作業を行い,京都コーパス3.0を対象にこれまでにない大規模な述語項構造・共参照タグ付きコーパスを作成した.また,特に一致率の悪かった事態性名詞のタグ付与に着目し,作業仕様の洗練を行った.具体的にはモノのタグ付与と項付与を独立に扱うことで,作業品質が向上するという結果を得た.さらに,その他のタグ付与作業に関しても,作業の過程で起こった問題について考察し,作業の詳細化のための項目を述べた.今回作業では述語と事態性名詞の表層ガ/ヲ/ニ格と共参照関係のタグ付与を行ったが,情報抽出などの応用分野を想定した場合,今回作業したラベルに加え,以下に示す内容に取り組む必要があると考えている.まず,今回の作業では名詞間の関係として共参照関係のみを作業対象としたが,上位下位や部分全体,所属関係など,さまざまな関係の解析も述語項構造・共参照解析と同様に応用処理のための重要な構成素となる.この名詞間の関係について,京都コーパス4.0で採用されている``AノB''の粒度でタグを付与した場合,この``ノ''で付与した結果には上位下位関係や部分全体関係などさまざまな関係を含んでしまうため,関係抽出の粒度としては不十分である.また,この名詞句間の関係解析は,bridgingreference\cite{Clark:77}や間接照応\cite{Yamanashi:92}などの用語で表現される場合もあるが,bridgingreferenceは一般に英語の定情報(definite)の存在が仮定された上で述べられることが多い.つまり,``the''を伴った名詞句があるにもかかわらず,参照する先行詞が文章中に出現していない場合にどう解釈すればよいかという点が議論の中心となっている.一方,日本語などの冠詞のが利用できない言語の場合,``the''のような手がかりがないために,どの名詞句の対に対して間接照応の関係を付与するかという課題設計そのものが困難になると考えられる.ACEのRelationDetectionandCharacterization(RDC)タスクでは,\ssec{pre_coref}で述べた実体の間の関係にのみ抽出対象となる関係を定義しているが,実体のクラスをオープンにした場合に揺れなく作業できるかについても今後調査したい.さらに,今回の作業では新聞記事を対象に作業を行ったが,例えば代名詞の出現が少ないなど,このコーパス内の用例だけを学習手法の訓練事例として利用すると,blogなどの照応解析,述語項構造解析を適用したい記事との異なりのために適切に解析できない恐れがあり,今後はタグ付与作業をいくつかの領域に拡張して進める必要がある.また,タグ付与に関する仕様書に関して,それぞれ個別の仕様について,外延的に例を示すだけで仕様をまとめるのではなく,それぞれのタグがどのような性質を持っているために付与されているかという内包的な仕様も明示的に記述することで,実際に解析に利用した研究者が問題の性質を分析するのに役立つ仕様書を作成することが重要だと考えており,今後の作業内容については順次Webページ\footnote{http://cl.naist.jp/\~{}ryu-i/coreference\_tag.html}にまとめていく予定である.\acknowledgment本研究は科研費特定領域研究「代表制を有する大規模日本語書き言葉コーパスの構築」,ツール班「書き言葉コーパスの自動アノテーションの研究」(研究代表者:松本裕治)の支援を受けた.記して謝意を表する.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2003}]{Asahara:03}浅原正幸\JBA松本裕治\BBOP2003\BBCP.\newblockipadicversion2.6.3ユーザーズマニュアル.\bibitem[\protect\BCAY{Clark}{Clark}{1977}]{Clark:77}Clark,H.~H.\BBOP1977\BBCP.\newblock\BBOQBridging.\BBCQ\\newblockInJohnson-Laird,P.~N.\BBACOMMA\\BBA\Wason,P.\BEDS,{\BemThinking:ReadingsinCognitiveScience}.CambridgeUniversityPress.\bibitem[\protect\BCAY{Doddington,Mitchell,Przybocki,Ramshaw,Strassel,\BBA\Weischedel}{Doddingtonet~al.}{2004}]{Doddington:04}Doddington,G.,Mitchell,A.,Przybocki,M.,Ramshaw,L.,Strassel,S.,\BBA\Weischedel,R.\BBOP2004\BBCP.\newblock\BBOQAutomaticContentExtraction(ACE)program---taskdefinitionsandperformancemeasures.\BBCQ\\newblockIn{\BemProceedingsofthe4rdInternationalConferenceonLanguageResourcesandEvaluation{\rm(}LREC-2004{\rm)}},\mbox{\BPGS\837--840}.\bibitem[\protect\BCAY{Hasida}{Hasida}{2005}]{Hasida:05}Hasida,K.\BBOP2005\BBCP.\newblockGDA日本語アノテーションマニュアル草稿第0.74版.\http://i-content.org/gda/tagman.html.\bibitem[\protect\BCAY{Hirschman}{Hirschman}{1997}]{Hirschman:97}Hirschman,L.\BBOP1997\BBCP.\newblock\BBOQ\textit{MUC-7coreferencetaskdefinition}.{\rmVersion3.0}.\BBCQ.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2007}]{Iida:07}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2007\BBCP.\newblockNAISTテキストコーパス:述語項構造と共参照関係のアノテーション.\\newblock\Jem{情報処理学会研究報告(自然言語処理研究会)NL-177-10},\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{Jackendoff}{Jackendoff}{1990}]{Jackendoff:90}Jackendoff,R.\BBOP1990\BBCP.\newblock{\BemSemanticStructures}.\newblockCurrentStudiesinLinguistics18.TheMITPress.\bibitem[\protect\BCAY{Jiang\BBA\Ng}{Jiang\BBA\Ng}{2006}]{Jiang:06}Jiang,Z.~P.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQSemanticRoleLabelingofNomBank:AMaximumEntropyApproach.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2006)},\mbox{\BPGS\138--145}.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{Kawahara:02}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock「関係」タグ付きコーパスの作成.\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{Kingsbury\BBA\Palmer}{Kingsbury\BBA\Palmer}{2002}]{Kingsbury:02}Kingsbury,P.\BBACOMMA\\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQFromTreeBanktoPropBank.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC-2002)},\mbox{\BPGS\1989--1993}.\bibitem[\protect\BCAY{Komachi,Iida,Inui,\BBA\Matsumoto}{Komachiet~al.}{2007}]{Komachi:07}Komachi,M.,Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQLearningBasedArgumentStructureAnalysisofEvent-nounsinJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceofthePacificAssociationforComputationalLinguistics(PACLING)},\mbox{\BPGS\120--128}.\bibitem[\protect\BCAY{Liu\BBA\Ng}{Liu\BBA\Ng}{2007}]{Liu:07}Liu,C.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2007\BBCP.\newblock\BBOQLearningPredictiveStructuresforSemanticRoleLabelingofNomBank.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\208--215}.\bibitem[\protect\BCAY{Marcus,Santorini,\BBA\Marcinkiewicz}{Marcuset~al.}{1993}]{Marcus:93}Marcus,M.~P.,Santorini,B.,\BBA\Marcinkiewicz,M.~A.\BBOP1993\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusofEnglish:ThePennTreebank.\BBCQ\\newblockIn{\BemComputationalLinguistics},\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004}]{Meyers:04}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004\BBCP.\newblock\BBOQTheNomBankProject:AnInterimReport.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACLWorkshoponFrontiersinCorpusAnnotation}.\bibitem[\protect\BCAY{Mitkov}{Mitkov}{2002}]{Mitkov:02}Mitkov,R.\BED\\BBOP2002\BBCP.\newblock{\BemAnaphoraResolution}.\newblockStudiesinLanguageandLinguistics.PearsonEducation.\bibitem[\protect\BCAY{Ng\BBA\Cardie}{Ng\BBA\Cardie}{2002a}]{Ng:02}Ng,V.\BBACOMMA\\BBA\Cardie,C.\BBOP2002a\BBCP.\newblock\BBOQImprovingMachineLearningApproachestoCoreferenceResolution.\BBCQ\\newblockIn{\BemProceedingsofthe40thACL},\mbox{\BPGS\104--111}.\bibitem[\protect\BCAY{野口\JBA三好\JBA徳永\JBA飯田\JBA小町\JBA乾}{野口\Jetal}{2008}]{Noguchi:08}野口正樹\JBA三好健太\JBA徳永健伸\JBA飯田龍\JBA小町守\JBA乾健太郎\BBOP2008\BBCP.\newblock汎用アノテーションツールSLAT.\\newblock\Jem{言語処理学会第14回年次大会発表論文集}.\bibitem[\protect\BCAY{Palmer,Gildea,\BBA\Kingsbury}{Palmeret~al.}{2005}]{Palmer:05}Palmer,M.,Gildea,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Poesio}{Poesio}{2004}]{Poesio:04}Poesio,M.\BBOP2004\BBCP.\newblock\BBOQDiscourseAnnotationandSemanticAnnotationintheGNOMECorpus.\BBCQ\\newblockIn{\BemProceedingsoftheACL2004WorkshoponDiscourseAnnotation},\mbox{\BPGS\72--79}.\bibitem[\protect\BCAY{Soon,Ng,\BBA\Lim}{Soonet~al.}{2001}]{Soon:01}Soon,W.~M.,Ng,H.~T.,\BBA\Lim,D.C.~Y.\BBOP2001\BBCP.\newblock\BBOQAMachineLearningApproachtoCoreferenceResolutionofNounPhrases.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(4),\mbox{\BPGS\521--544}.\bibitem[\protect\BCAY{竹内\JBA乾\JBA藤田}{竹内\Jetal}{2006}]{Takeuchi:06}竹内孔一\JBA乾健太郎\JBA藤田篤\BBOP2006\BBCP.\newblock語彙概念構造に基づく日本語動詞の統語・意味特性の記述.\\newblock影山太郎\JED,\Jem{レキシコンフォーラム},2\JNUM,\mbox{\BPGS\85--120}.ひつじ書房.\bibitem[\protect\BCAY{土屋\JBA宇津呂\JBA松吉\JBA佐藤\JBA中川}{土屋\Jetal}{2006}]{Tuchiya:06}土屋雅稔\JBA宇津呂武仁\JBA松吉俊\JBA佐藤理史\JBA中川聖一\BBOP2006\BBCP.\newblock日本語複合辞用例データベースの作成と分析.\\newblock\Jem{情報処理学会論文誌},47\JVOL,\mbox{\BPGS\1728--1741}.\bibitem[\protect\BCAY{vanDeemter\BBA\Kibble}{vanDeemter\BBA\Kibble}{1999}]{Deemter:99}vanDeemter,K.\BBACOMMA\\BBA\Kibble,R.\BBOP1999\BBCP.\newblock\BBOQWhatiscoreference,andwhatshouldcoreferenceannotationbe?\BBCQ\\newblockIn{\BemProceedingsoftheACL'99WorkshoponCoreferenceanditsapplications},\mbox{\BPGS\90--96}.\bibitem[\protect\BCAY{Vilain,Burger,Aberdeen,Connolly,\BBA\Hirschman}{Vilainet~al.}{1995}]{Vilain:95}Vilain,M.,Burger,J.,Aberdeen,J.,Connolly,D.,\BBA\Hirschman,L.\BBOP1995\BBCP.\newblock\BBOQAModel-TheoreticCoreferenceScoringScheme.\BBCQ\\newblockIn{\BemProceedingsofthe6thMessageUnderstandingConference(MUC-6)},\mbox{\BPGS\45--52}.\bibitem[\protect\BCAY{山梨}{山梨}{1992}]{Yamanashi:92}山梨正明\BBOP1992\BBCP.\newblock\Jem{推論と照応}.\newblockくろしお出版.\end{thebibliography}\begin{biography}\bioauthor{飯田龍}{1980年生.2007年奈良先端科学技術大学院大学情報科学研究科博士後期課程終了.同年より奈良先端科学技術大学院大学情報科学研究科特任助教.2008年12月より東京工業大学大学院情報理工学研究科助教.現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年同大学博士後期課程に進学.修士(工学).日本学術振興会特別研究員.大規模なコーパスを用いた意味解析に関心がある.言語処理学会第14回年次大会最優秀発表賞,情報処理学会第191回自然言語処理研究会学生奨励賞受賞.ACL・人工知能学会・情報処理学会各会員.}\bioauthor{井之上直也}{1985年生.2008年武蔵大学経済学部経済学科卒業.同年より奈良先端科学技術大学院大学情報科学研究科博士前期課程.現在に至る.自然言語処理の研究に従事.}\bioauthor{乾健太郎}{1967年生.1995年東京工業大学大学院情報理工学研究科博士課程修了.同年より同研究科助手.1998年より九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科准教授.現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,電子情報通信学会,ソフト科学会各会員.}\bioauthor{松本裕治}{1955年生.1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授.現在に至る.工学博士.専門は自然言語処理.人工知能学会,日本ソフトウェア科学会,情報処理学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\end{document}
V25N02-01
\section{はじめに} \label{s:introduction}機械翻訳システムでより多くの文を対象に翻訳精度を維持したい場合,その量に応じた大きさの語彙をシステムが取り扱う必要がある.語彙サイズは様々な機械翻訳手法の性能や効率に影響を及ぼすが,特に近年活発に研究されているニューラル翻訳モデル\cite{encdec}では,語彙サイズの増加に伴う影響が顕著である.図\ref{fig:nmt}はエンコーダ(Encoder:符号化器),デコーダ(Decoder:復号器)および注意機構(Attention)と呼ばれる個々のネットワーク構造からなる翻訳モデル\cite{bahdanau14,luong15}であり,ニューラル翻訳モデルとして典型的に使用される構造である.エンコーダは入力シンボル列を連続空間上のベクトル集合に変換し,この情報をもとにデコーダが出力シンボルを1個ずつ順に決定する.エンコーダとデコーダの内部構造はモデルによって様々であり,典型的には複数のリカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)を用いて構成される.注意機構はエンコーダが生成したベクトルに関する重み付き和を与えるモデルで,デコーダが次回のシンボル推定に使用する文脈情報を生成する.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f1.eps}\end{center}\hangcaption{エンコーダ・デコーダモデルに注意機構を導入した典型的なニューラル翻訳モデルの概観.このうち,出力層における内部ベクトルから単語への変換が大きな計算負荷となる.}\label{fig:nmt}\end{figure}ここで,ニューラルネットワークで単語等の離散的なシンボルを扱う場合,モデルの入出力層でシンボルと内部ベクトルとの相互変換を行う必要がある.この特徴は特に出力層側で問題となる.入力層側は毎回特定の単語が与えられるため,無関係な単語に関する計算は行われないのに対し,出力層側はあらゆる候補の中から妥当な出力単語を選択する必要があるためである.単語選択のアルゴリズムとして語彙サイズに対する時間・空間計算量の大きな手法を選択した場合,実質的な計算コストが語彙サイズに依存することとなり,翻訳モデルを構築・運用する上での問題となる.実際,ニューラルネットワークによる単語推定で最も単純かつ標準的な手法であるソフトマックス演算は,語彙に含まれる全単語のスコアを隠れ層の一次結合として愚直に計算するため,計算量は語彙サイズに比例する.このため,出力層の計算をいかにして軽量化するかが重要な課題であると言える.この問題はよく認識されており,\ref{sec:prior}で紹介するように,従来様々な解決手法が提案されてきた.出力層を改良するにあたっての着眼点は様々であり,従来手法が何を重点的に解決しようとしているかはそれぞれ異なる.この中で,特に重要と考えられる4つの観点を以下に示す.\begin{description}\item[翻訳精度]手法を適用した際,平均的な翻訳精度が大幅に低下してはならない.特に,単純なソフトマックスと比較して同等程度の性能が維持可能,あるいは,可能であればより高い性能を達成可能である手法が望ましい.\item[空間効率(使用メモリ量)]膨大なメモリを必要とする手法を実行するためには大規模かつシステムが専有可能な計算資源が必要であり,携帯デバイス等の計算資源の制約の強い機器での直接実行には適さない.多くの環境に搭載可能なシステムを構築するためには,手法自体が可能な限り少ないメモリ消費の下で動作可能である必要がある.\item[時間効率(実行速度)]可能な限り高速に動作する手法が望ましい.高速にパラメータを学習可能であればシステムをチューニングする利便性が向上し,また運用時に高速なシステムは計算資源やユーザへの負担を減少させることとなる.空間効率と同様に,運用時に強力な計算資源が使用可能とは限らず,このため非力なCPUでも効率的に動作可能な手法がより望ましい.\item[並列計算との親和性]運用時とは対照的に,パラメータの学習時にはGPU等の強い並列性を持つ計算資源を使用することができる場合がある.並列化の容易な手法であれば,学習時にこれらの強力な計算資源の恩恵に与ることが可能である.\end{description}これらの観点のうち,いずれの項目を特に重視するかが手法自体の特徴となる.提案手法では特に空間効率と時間効率に関して,モデルの定式化段階での計算量を削減することに主眼を置き,翻訳精度は既存手法で最も表現力の高いソフトマックスモデルと同等程度の実現を目標とした.提案手法による出力層はソフトマックスとは異なり,語彙中の単語に対して直接スコアを計算することは行わない.その代わり,各単語に一意な二値符号を割り当て,そのビット列を単語の表現として出力層で学習することで,間接的に単語の推定を行う.この手法を用いることで,最も理想的な場合で$2^n$種類の単語を$n$ビットのみを使用して表現することが可能となるため,その推定に必要な時間・空間計算量を語彙サイズ$V$に対して$O(\logV)$まで減少させることが可能となる.提案手法の基本的なアイデアはこのように単純だが,実験で示すように,単に二値符号のみを用いる手法では翻訳精度が従来手法と比べて大幅に低下してしまうという問題がある.本論文では更に,この問題に対して2種類の観点から提案手法を改良する手法を導入する.まず,従来のソフトマックスモデルを部分的に導入することで,高頻度語と低頻度語を分離して学習可能とする手法を提案する.また,二値符号そのものの頑健性を向上させるために,誤り訂正符号,特に畳込み符号\cite{convcode}による冗長化を施す.実験では,二値符号予測とこれらの改善手法について,難易度の異なる2種類の英日・日英翻訳タスクを用いて翻訳精度の比較を行った.この結果より,提案手法が従来のソフトマックスと遜色ない翻訳精度を達成可能であるとともに,出力層の動作に必要なパラメータ数,および計算時間の両面においてソフトマックスよりも優れていることを示す. \section{詳細な問題定義と従来研究} \subsection{単純なソフトマックスモデルの定式化}近年のニューラル翻訳モデルでは,多くのモデルがワンホット表現と呼ばれる単語の表示手法を入出力層に導入している.つまり,語彙サイズ$V$と同じ数の次元の連続空間$\mathbb{R}^V$を考え,このうちある単語ID$\id(w)\in\{x\in\mathbb{N}\|\1\leqx\leqV\}$に対応する次元のみ1,他の次元を0とする単位ベクトル$\bm{e}_{\id(w)}\in\mathbb{R}^V$を単語の表現と見なす.本研究では特に出力層について着目するため,以降は単語や語彙に関する用語は全て目的言語側のみを指して用いることとする.さて,$\mathbb{R}^{V}$の部分空間\begin{equation}\mathbb{R}_{\mathrm{Cat}}^V:=\left\{\bm{x}\|\\bm{x}\in\mathbb{R}\land\foralli.0\leqx_i\leq1\land\sum_{i=1}^Vx_i=1\right\}\end{equation}は$V$次元のカテゴリカル分布の空間を表し,各$\bm{e}_{\id(w)}$はちょうどその頂点に位置する.ここから,ワンホット表現で得られるベクトルは特定の語彙を定義域とする確率質量関数の一種と見なすことができる.ここで添字付き細字変数$x_i$はベクトル$\bm{x}$の$i$番目の要素を表し,以降の式においても,他のベクトルに対して同様の記法を用いるものとする.典型的なニューラル翻訳モデルの出力層では,出力された$V$次元ソフトマックス確率分布$\bm{v}\in\mathbb{R}_{\mathrm{Cat}}^V$と,ある単語$w$のワンホット表現$\bm{e}_{\id(w)}$との交差エントロピーを最小化するようパラメータを学習する.図\ref{fig:nmt}に示すように,出力層は典型的には1層の全結合ネットワークと見なすことができ,\pagebreak損失関数の計算は以下の手順となる.\begin{align}L_{\mathcal{H}}(\bm{v},\id(w)):=&\mathcal{H}\left(\bm{e}_{\id(w)},\bm{v}\right)\label{eq:entropy-1},\\=&-u_{\id(w)}+\log\sum_{i=1}^V\expu_i,\label{eq:entropy}\\\bm{v}:=&\frac{\exp\bm{u}}{\sum_{i=1}^V\expu_i},\\\bm{u}:=&W_{hu}\bm{h}+\bm{\beta}_u.\label{eq:softmax-output}\end{align}ここで,$W_{hu}\in\mathbb{R}^{V\timesH}$と$\bm{\beta}_u\in\mathbb{R}^{V}$は勾配法で学習可能なパラメータであり,$\bm{h}$は出力層の計算に用いる隠れ層のベクトル,$H$は$\bm{h}$の次元数を表す.また$\exp\bm{u}$はベクトル$\bm{u}$に関する要素ごとの指数関数であり,他のベクトルに関しても同様の表記を用いるものとする.ワンホット表現はただ一つの要素が1であるベクトルのため,式(\ref{eq:entropy-1})を交差エントロピーの定義に従って分解することで式(\ref{eq:entropy})が得られる.複数の隠れ層から出力が計算されるネットワークの場合は,$\bm{h}$として出力層に直結する全てのベクトルを結合したものを考えればよい.式(\ref{eq:softmax-output})より明らかに,単純なソフトマックスモデルの計算には$O(HV)$だけの時間・空間計算量が必要となる.このうち,隠れ層の次元数$H$は典型的には数百から千程度で決め打ちされることが多いのに対し,語彙サイズ$V$は使用するコーパスによって数千から数万程度の値を選択することとなり\cite{encdec},出力層の計算量に直接影響を与える.\subsection{出力層の軽量化に関する従来手法}\label{sec:prior}出力層の軽量化は,ニューラル翻訳モデルと同様のネットワーク構造を持つモデル群の中心的な話題のひとつであり,様々な着眼点に基づく手法が提案されている.これらの着眼点は以下のようなグループに分類でき,グループの異なる手法はいくつかの例外を除き基本的に併用可能である.\begin{description}\item[後処理による隠れ層の大きさの削減]前述のように,ソフトマックスモデルの計算量は時間・空間ともに$O(HV)$となる.本グループに属する手法は,学習済みのモデルに対して後処理を行い,隠れ層のサイズ$H$の大きさを縮小することで,全体的な計算量の圧縮を行うことを目的としている.また,出力層の直前のみでなく,モデルの隠れ層全体を削減する手法についても本グループに属するものと考えられる.このような考えに基づく一般的な手法としては,学習済みパラメータのノルムを比較し,実際の計算への寄与が小さいものを削除してしまう\textbf{重み枝刈り(WeightPruning)}\cite{weight-pruning},学習済みモデルの最終的な出力を教師データとし,これを再現するより小さなモデルを再学習する\textbf{蒸留(Distillation)}\cite{distillation}などが挙げられる.いずれの手法においても,その着眼点は隠れ層側の圧縮であり,語彙サイズ$V$に関しては元の計算量が維持される点に特徴がある.\item[確率分布の変形]本グループに属する手法は,隠れ層のサイズ$H$,及び語彙サイズ$V$を変えず,最終的な確率の定式化に変更を加えることで計算量を削減することを目的としており,後述するように本論文の提案手法はこのグループに属する.\textbf{階層的ソフトマックス(HierarchicalSoftmax)}\cite{hierarchical-softmax}では,二分木を用いて単語を階層的にクラスタリングした後,木の根から左右どちらの枝を辿るかを二値分類問題として順に判定してゆくことで単語の推定を行う.このとき単語の生成確率は,木の根から単語に至るまでに経由した全ての分岐に関する二値分類確率の総乗として得られる.本手法を用いる場合,すべての単語に関する確率を求める操作は通常行わず,各分岐において選択されなかった側の枝に付属する単語は全て候補から除外される.このような貪欲探索を適用することで,選出される単語の大域最適性が保証されない代わりに,出力層の時間計算量を理想的には$O(H\logV)$まで削減することが可能となる\footnote{語彙に含まれる全単語のスコアを計算する必要がある場合,木に含まれる全ての分岐に対して評価が必要であり,このときの償却計算量は$O(HV)$となる.}.一方,木に含まれる分岐の数は$V-1$であり,それぞれが固有のパラメータを持つため,出力層全体の空間計算量はソフトマックスと同様$O(HV)$となり,パラメータの保持に必要なメモリの削減は期待できない.また木構造を使用することにより計算手順が複雑化するため,並列計算を行うには実装の工夫が必要となる.階層的ソフトマックスは単語に対応するある種の二値符号を学習するモデルであると考えられるが,異なる観点から単語を二値符号化し,そのビット列を学習する手法として\textbf{ブルームフィルタ(BloomFilter)}を適用する研究がある\cite{bloom-embedding}.この手法ではフィルタ中の各ビットが1になる確率を尤度関数としてモデルの学習を行っているが,フィルタ自体の特性により,ビット列から単語を復元する写像の定義が曖昧であるため,機械翻訳をはじめとした文生成タスクへ直接適用するのは難しいと考えられる.\textbf{区分ソフトマックス(DifferentiatedSoftmax)}\cite{differentiated-softmax}では,単語を複数のグループに分類し,それぞれのグループを隠れ層の異なる部分と対応させることで,比較的小さな行列の組み合わせで出力層を表現し,計算時間・使用メモリ量の両面での向上を実現している.これはパラメータ行列$W_{hu}$を部分的にゼロ行列に固定することと等しい.ところが時間・空間計算量の観点では$O(HV)$から変化がなく,語彙サイズ$V$が増加した際の拡張性の面では問題が残る.また,異なるグループに属する単語間の関連性を出力層で十分扱うことができず,全結合型のネットワークを用いるソフトマックスと比較すると改善の余地が残されている.\textbf{適応ソフトマックス(AdaptiveSoftmax)}\cite{adaptive-softmax}では,単語を出現頻度に基づいて複数のグループに分類し,まず高頻度語のグループにおいて通常のソフトマックスを実行する.このときグループ内の単語とは別に,各低頻度語のグループそのものに対応するラベルを追加しておき,ソフトマックスによってそのラベルが選出された場合には該当するグループで再びソフトマックス計算を行う.この手法では,パラメータ数が低頻度語グループの推定の分だけ通常のソフトマックスから若干増加しており,推定に使用するグループ数を$G$とすると,パラメータに関する空間計算量は$O(H(V+G))$となる.一方で,上位のソフトマックスで選択されなかったグループに属するパラメータは階層的ソフトマックスと同様に無視されるため,実質的な出力層の計算の大部分を高頻度語グループのソフトマックスのみで終了することができ,時間計算量の短縮が見込める.ただし,選出される単語の大域最適性がモデルの設定によっては保証されない可能性があり,この点も階層的ソフトマックスと同様である.\textbf{LightRNN}\cite{lightrnn}は各単語に2種類の異なるワンホット表現を割り当て,単語推定を2つのソフトマックスの積に分解することで出力層の時間・空間計算量を$O(H\sqrt{V})$に削減する手法である.この手法では2つのソフトマックスをRNNの異なる時刻に割り当てるため,RNNの系列長は通常のソフトマックスのちょうど2倍となるが,全体として階層的ソフトマックスより効率的に動作することを報告している.また,前回の学習結果を用いてワンホット表現の割り当てを修正することで,推定精度をより向上させる手法についても提案している.\item[サンプリング]出力層が生成する確率分布を全体の計算なしに近似する手法として,適当な数の不正解ラベルを選択し,これらと正解ラベルとの関係を損失として学習する\textbf{サンプリング法}が適用されることがある\cite{nce,nce-lm,word2vec}.これらの手法は学習時に語彙サイズ$V$の時間計算量への影響を取り除くことができ,学習速度を向上させることが可能である一方,テスト時には元のモデルと同じ時間計算量を必要とする.空間計算量,特にパラメータ数に関しては元のモデルと同一であり,元のモデル構造を維持したまま学習時の時間計算量を削減する手法であると言える.また,確率分布の定式化手法によっては,サンプリング法の適用に制約を受ける場合がある.サンプリング法の効果的な応用として,単語間で分散表現を共有することでパラメータ数を削減する手法が提案されている\cite{sparse-word-representation}.この手法では,各単語の分散表現を予め選出した共通単語の分散表現の線形和として定義することで,ネットワーク内のパラメータ数に関する空間計算量を語彙サイズ$V$から共通単語数$V'$(論文では$V'=8\mathrm{k}$に固定)に削減している.純粋なモデルの目的関数はソフトマックスと同一であるため,このままでは線形和の操作分だけ計算量が増加してしまうが,サンプリング法を適用することでこの欠点を回避している.\item[語彙の変更]以上の手法がすべて語彙が与えられた下での軽量化手法であるのに対し,語彙の定義自体を変更することで$V$そのものを小さくしてしまう手法が適用されることがある.最も単純には語彙として\textbf{文字}を使用する手法\cite{character-nmt}が挙げられるが,これはエンコーダやデコーダの生成する系列長が単語を用いた場合と比べて著しく増加してしまう欠点がある.より効率的な手法として,学習データに含まれる全ての文字列を被覆する部分文字列の集合を学習し,これを語彙として使用する\textbf{サブワード(Subword)法}\cite{gnmt,bpe-nmt,variable-length-encoding,rnnlm-subword}が挙げられる.語彙サイズを適切に設定し,コーパスに対し最適化されたサブワード列は,単語列と比較して遜色ない程度の系列長を実現できることが知られているが,効果的なサブワード集合の学習に関する知識が別途必要となる\footnote{https://github.com/google/sentencepieceに,Google社の提案するサブワードモデルであるSentencePieceに関するいくつかの実験結果が紹介されており,既存の形態素解析器と組み合わせた場合等,より発展的な応用についても議論されている(2017年9月30日閲覧・GitHubコミット番号73).}.\end{description} \section{二値符号予測に基づく単語推定モデル} \label{s:model}本研究で提案する手法は,いずれも前節の着眼点のうち,確率分布の変形に基づいて計算量を削減する手法のグループに属する.本節では提案手法の基本的な定式化,及び単純な手法からの性能の改善手法について導入する.\subsection{二値符号を用いた単語の表現手法}図\ref{fig:prediction-models}(a)は従来のソフトマックスモデルによる単語推定モデルを表す.また図\ref{fig:prediction-models}(b)は本研究で提案する二値符号を用いた単語推定モデルを表す.提案手法はソフトマックスモデルとは異なり,各単語の生成確率をモデルが直接求めることは行わず,二値符号の各ビットの生成確率から間接的に単語の生成確率の推定を行う.まず,\begin{equation}\bm{b}(w):=[b_1(w),b_2(w),\cdots,b_B(w)]:\mathcal{V}\rightarrow\{0,1\}^B\end{equation}を各単語$w$に直接対応するビット列とする.ここで各$b_i(w)\in\{0,1\}$はそれぞれ独立した$w$に関する二値決定関数であり,$B$はビット列に含まれるこれらの関数の個数とする.また$\mathcal{V}$は語彙を表す.なお,本節における$V$は単語ID$\id(w)$の異なり数を表し,実際の語彙サイズ$|\mathcal{V}|$とは異なることをここで注記しておく.\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f2.eps}\end{center}\caption{ソフトマックスモデルと提案手法における出力層の設計の相違点}\label{fig:prediction-models}\end{figure}議論を明確にするために,$\bm{b}(w)$,およびビット列から単語への逆方向の写像$b^{-1}(\cdot):\{0,1\}^B\rightarrow\mathcal{V}$に対して以下のような制約が存在するものとする.\begin{itemize}\item$\bm{b}(w)$は単語ID$\id(w)$に関して単射である.つまり,\begin{equation}\id(w)\neq\id(w')\Rightarrow\bm{b}(w)\neq\bm{b}(w').\label{eq:bit-array-constraint}\end{equation}が成立する.この制約は,学習時に各単語を明確に区別して扱うために必要である\footnote{大文字・小文字等の表記の違いをどう扱うかは翻訳モデル自体の設計とは直接関係ないと考えられるため,これらの判断は$\id(w)$の設計に隠蔽されているものとする.}.\item$b^{-1}(\cdot)$は左逆写像であり,定義域は$\{0,1\}^B$全体である.つまり$b^{-1}(\bm{b}(w))=w$が成り立つとともに,$\bm{b}(\cdot)$の像に含まれるかどうかに関わらず,あらゆるビット列が何らかの単語に関連付けられているものとする.この制約は,翻訳モデルの不安定性により解釈不能なビット列が生成される可能性を排除するために必要であるとともに,\ref{s:ecc}節で導入する誤り訂正符号の根拠としても重要である.\end{itemize}これらの制約により,$V$種類の単語を十分に識別するために必要なビット数として\begin{equation}B\geq\lceil\log_2V\rceil\end{equation}が自明な制約として得られる.提案手法の出力層では,$\bm{b}(w)$の各ビットが1となる確率\begin{equation}\bm{q}(\bm{h}):=[q_1(\bm{h}),q_2(\bm{h}),\cdots,q_B(\bm{h})]\in[0,1]^B\end{equation}を,式(\ref{eq:logistic})に示すように,現在の隠れ層の値$\bm{h}$からそれぞれ独立したロジスティック回帰モデルで推定する.\begin{align}\bm{q}(\bm{h})=&\sigma(W_{hq}\bm{h}+\bm{\beta}_q),\label{eq:logistic}\\\sigma(\bm{x}):=&\frac{1}{1+\exp(-\bm{x})}.\end{align}ここで$W_{hq}\in\mathbb{R}^{B\timesH}$と$\bm{\beta}_q\in\mathbb{R}^B$は学習可能なパラメータである.これより,ある単語$w$が$\bm{q}(\bm{h})$から生成される確率は,$\bm{q}(\bm{h})$に含まれる各ビットごとの確率の積\begin{equation}\mathrm{Pr}(\id(w)|\bm{h}):=\prod_{i=1}^B\left(b_i(w)q_i(\bm{h})+(1-b_i(w))(1-q_i(\bm{h}))\right)\end{equation}として得られる.生成確率が最大となるビット列を$\bm{q}(\bm{h}$)から得るには,単に$q_i(\bm{h})\geq1/2$である場合は1,そうでなければ0を出力ビットとすればよい.ここまでで記述したビット列に関する制約は非常に一般的なものであり,単語とビット列を対応させる手法には様々なものが考えられる.また,翻訳モデルにとってどのようなビット列の割り当て手法が効果的であるかは自明ではない.このため本研究では,事前実験として複数種の割り当て手法で実際に翻訳モデルの学習を行い,その中で経験的に最も高い翻訳精度を記録したAlgorithm\ref{alg:mapping}に示す単語の出現頻度に基づく手法を採用した\footnote{Algorithm\ref{alg:mapping}以外に事前に実験した手法としては,完全なランダム,Huffman符号\cite{huffman-code},BrownClustering\cite{brown-clustering},word2vecの単語ベクトルの符号に基づいた割り当て等がある.可変長の符号については末尾を0で埋めることで固定長として扱った.}.ここで,\texttt{UNK}(\textit{unknown})は語彙に含まれない単語,\texttt{BOS}(\textit{begin-of-sentence})は文頭記号,\texttt{EOS}(\textit{end-of-sentence})は文末記号である.また$\mathrm{rank}(w)\in\mathbb{N}_{>0}$は学習データ中の出現頻度に基づく各単語の順位である.Algorithm\ref{alg:mapping}によるビット列の割り当ては最も効率的な手法($B=\lceil\log_2V\rceil$)であることが保証される.また,高位のビットの組み合わせが単語のおおよその出現頻度を示していると考えられる一方,下位のビットほどランダム性が強まり,単語に関する頻度以外のどのような情報も保持していないと考えられる.\subsection{損失関数}従来のモデルと同様に,提案手法による出力層は勾配法を用いて翻訳モデル全体と同時に最適化を行う.このため,ビット列のための損失関数はいたるところ(劣)偏微分可能であり,また\begin{equation}L_{\mathcal{B}}(\bm{q},\bm{b})\left\{\begin{array}{ll}=\epsilon_L,&\\mathrm{if}\\bm{q}=\bm{b},\\\geq\epsilon_L,&\\mathrm{otherwise}.\end{array}\right.\label{eq:loss-constraint}\end{equation}を満たすべきである.ここで$\epsilon_L\in\mathbb{R}$は損失関数の最小値であり,学習には影響しない.明示的に確率モデルを学習する観点では,このような損失関数として交差エントロピー\begin{equation}L_{\mathcal{B}}(\bm{q},\bm{b}):=-\sum_{i=1}^B\left(b_i\logq_i+(1-b_i)\log(1-q_i)\right),\label{eq:binary-cross-entropy}\end{equation}を用いるのが望ましいが,事前実験により二乗誤差\begin{equation}L_{\mathcal{B}}(\bm{q},\bm{b}):=\sum_{i=1}^B(q_i-b_i)^2,\label{eq:squared-distance}\end{equation}を用いる方が最終的な翻訳精度が僅かに向上することが確認された.このため,実験では損失関数として式(\ref{eq:squared-distance})を使用することとした.\subsection{二値符号予測モデルの計算量}二値符号予測を用いた場合の出力層の計算量は,空間計算量・時間計算量ともにビット数$B$に関して$O(HB)$となる.ここで単語とビット列間の割り当てにAlgorithm\ref{alg:mapping}で示したような最も効率的な手法を用いた場合,この計算量は$O(H\logV)$に等しくなる.これは従来のソフトマックスモデルで必要とされた$O(HV)$と比較して顕著に小さく,また$V$種類のラベルを識別するモデルとしては最小の計算量であると考えられる.例として$V=65536=2^{16}$とした場合,出力層に必要とされるのは$16$ビット分のパラメータであり,従来法と比較して$16/65536=1/4096$程度までパラメータ数が削減されることとなる.\begin{algorithm}[b]\caption{実験で使用した単語からビット列への割り当て手法}\label{alg:mapping}\input{01algo01.tex}\end{algorithm}ここで,二値符号予測モデルは従来手法である階層的ソフトマックス\cite{hierarchical-softmax}に強い制約を導入したものと捉えることが可能である.具体的には,単語のビット列への割り当てを二分法の一種に基づいて行う点は階層的ソフトマックスと提案手法の共通点であり,各ビットの推定にビット間の従属性を仮定しない点,および二分木上の同一階層で常に同じパラメータを使用する2点が異なる.これらの制約により,提案手法のビット列$\bm{b}$の各ビットは完全に並列に計算することが可能であり,式(\ref{eq:logistic})でも示したように,実質的に単一の行列による積算として表現可能である.この特徴は,提案手法がGPUなどの並列計算に特化した計算資源上で特別な処理なしに計算可能であることを示している.また,ビット間の従属性を仮定しないため,ビットごとの独立した推定結果から常に大域最適なビット列を得られる点も階層的ソフトマックスと異なる. \section{二値符号予測モデルの改良} 前節までで示した単純な二値符号予測には,翻訳精度の点で問題が残っている.実験で示すように,二値符号予測を単体で用いた翻訳モデルは,従来のソフトマックスモデルと比較して大幅に翻訳精度の低下を招くこととなる.\ref{s:hybrid}節と\ref{s:ecc}節では,このような翻訳精度の問題を解決するために,2種類の改良を導入することで二値符号予測モデルの翻訳精度を向上させる手法を提案する.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f3.eps}\end{center}\caption{ソフトマックスと二値符号予測の混合モデル}\label{fig:hybrid-model}\end{figure}\subsection{ソフトマックスと二値符号予測の混合モデル}\label{s:hybrid}自然言語の単語のユニグラム出現頻度はZipfの法則\cite{zipf49}に従うことが知られており,学習データ全体のほとんどが一部の頻出語のみに偏っていると言える.その結果,ニューラル翻訳モデルの出力層から伝えられる勾配も頻出語由来のものが多数となり,語彙全体を効率よく学習できない可能性があるという問題がある.従来のソフトマックスモデルでは,各単語のスコアをそれぞれ独立したパラメータを用いて推定しており,単語の出現頻度の偏りに起因する問題はこれらのパラメータ全体に分散する形で回避されていた.一方,提案手法である二値符号予測モデルでは同一のパラメータで頻出語と希少語の両方に対応する必要があり,学習機会の少ない希少語のビット列の学習を頻出語によって阻害されてしまう可能性がある.この問題を回避する単純な方法として,頻出語と希少語の予測をモデル的に分離し,一方の勾配が他方に影響を与えないようにすることが考えられる.このようなモデルとして,本節では図\ref{fig:hybrid-model}に示すソフトマックスと二値符号予測の混合モデルを提案する.具体的には,図\ref{fig:hybrid-model}左側のソフトマックス層で,上位$N-1$位までの頻出語と「その他の単語」に相当する記号\texttt{OTHER}を識別するモデルを学習する.希少語を出力するには,まず\texttt{OTHER}記号をソフトマックス層で推定し,その後図\ref{fig:hybrid-model}右側の二値符号推定により具体的な単語のビット列を推定する,という二段構造の推定を行う.ここで,ソフトマックス層と二値符号推定はそれぞれ独立したパラメータにより計算されるため,実際には並列計算が可能である点に注意する.この手法による各単語の生成確率は,ソフトマックス層の確率と二値符号推定による確率の積となり,\begin{align}\mathrm{Pr}(w|\bm{h}):=&\left\{\begin{array}{ll}v'_{\id(w)},&\mathrm{if}\\id(w)<N,\\v'_N\cdot\pi(w,\bm{h}),&\mathrm{otherwise},\end{array}\right.\\\bm{v}':=&\frac{\exp\bm{u}'}{\sum_{i=1}^V\expu'_i},\\\bm{u}':=&W_{hu'}\bm{h}+\bm{\beta}_{u'},\\\pi(w,\bm{h}):=&\prod_{i=1}^B\left(b_iq_i+(1-b_i)(1-q_i)\right),\end{align}と書くことができる.ここで$W_{hu'}\in\mathbb{R}^{N\timesH}$と$\bm{\beta}_{u'}\in\mathbb{R}^N$は学習可能なパラメータであり,$\id(w)$は単語の出現頻度の順位$\mathrm{rank}(w)$に基づいて定義されているものとする.また,損失関数はソフトマックス層の交差エントロピーと二値符号推定の損失の和で表記でき,\begin{align}L:=&\left\{\begin{array}{ll}l_{\mathcal{H}}(\id(w)),&\mathrm{if}\\id(w)<N,\\l_{\mathcal{H}}(N)+l_{\mathcal{B}},&\mathrm{otherwise},\\\end{array}\right.\label{eq:hybrid}\\l_{\mathcal{H}}(i):=&\lambda_{\mathcal{H}}L_{\mathcal{H}}(\bm{v}',i),\\l_{\mathcal{B}}:=&\lambda_{\mathcal{B}}L_{\mathcal{B}}(\bm{q},\bm{b}),\end{align}となる.ここで$\lambda_{\mathcal{H}}$と$\lambda_{\mathcal{B}}$はソフトマックスと二値符号推定の学習重みを決めるハイパーパラメータである.これらは実際には調整が必要だが,本研究では簡単のために$\lambda_{\mathcal{H}}=\lambda_{\mathcal{B}}=1$のみを使用した.前述のように,希少語の推定にはソフトマックス層と二値符号予測の両者を使用するが,式(\ref{eq:hybrid})の出力層における偏微分を考えれば,隠れ層$\bm{h}$より後段では両者の勾配が独立していることが分かる.混合モデルの計算量は,ソフトマックス層の追加により単純な二値符号予測モデルから増加し,$O(H(N+\logV))$となる.ただしソフトマックス層は頻出語のみを対象とするため,$N$は$V$と比較して通常非常に小さく抑えられることとなり,実際の計算コストの増加はそれほど大きくならないことが期待される.ソフトマックス層の大きさを変化させたときの翻訳精度への影響については,実験で詳しく調査する.混合モデルにより頻出語と希少語を分離するという考えは,区分ソフトマックス\cite{differentiated-softmax}や適応ソフトマックス\cite{adaptive-softmax}で用いられた,単語クラスタごとに異なるスコア計算を用いる手法が元となっている.ただし,区分ソフトマックスでは隠れ層と出力層の結合に制約が設けられているのに対し,混合モデルでは全結合ネットワークを使用しており,隠れ層の値全てを各出力の推定に用いる点が異なる.これは,混合モデルを適用してもモデル全体の計算量を小さく抑えられるためである.また,混合モデルの希少語部をソフトマックスに置き換えた場合,適応ソフトマックスの分割数が2の場合とモデル的に一致する.このため,混合モデルは2分割適応ソフトマックスの計算量に改善を加えたものと捉えることも可能である.\subsection{誤り訂正符号の適用}\label{s:ecc}前節までで述べた単純な二値符号予測モデル,および混合モデルは,使用する二値符号自体の頑健性を考慮していない点で問題がある.具体的には,$\bm{q}(\bm{h})$は全てのビットを誤りなく推定しなければ正しい単語を予測することができず,1ビット誤っただけで全く異なる単語を出力してしまう可能性がある.この問題は,ビット列全体の空間$\{0,1\}^B$に全ての単語が密に配置されていることに起因するものであり,ビット列に対して何らかの冗長性を導入することで解決できるものと考えられる.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f4.eps}\end{center}\caption{冗長な符号表現による予測の簡単な例}\label{fig:ecc-overview}\end{figure}図\ref{fig:ecc-overview}はこの考えを簡単な例で示したものである.ここでは2種類の単語``a'',``b''を3ビットを使用して推定することを考え,各単語はそれぞれ「重心」ビット列[000],[111]に写されるものと考える.このようなビット列の配置を選択すると,重心同士の間には3ビットのハミング距離を持つこととなり,1ビットだけの間違いであれば,その近傍にある重心ビット列を選択することで元の単語を正しく復元可能であることが分かる.図\ref{fig:ecc-overview}では各々の重心の近傍を灰色の領域で示している.このように,実際に記号が関連付けられたビット列同士の間隔に余裕を持たせることで多少のビット誤りを許容する手法は,誤り訂正符号\cite{shannon48}の中心的な考えである.より具体的には,ビット列同士が少なくとも$d$ビットのハミング距離を持つとき,符号化手法全体では高々$\lfloor(d-1)/2\rfloor$ビットまでの誤りを訂正可能であることが知られている.この距離は選択した誤り訂正手法によって定まる定数であり,最小ハミング距離または自由距離と呼ばれる.誤り訂正をクラス分類問題に適用する考えは多く提案されており,タスクごとにうまく手法を設計することで,単純なクラス分類に対する優位性が示されている\cite{ecoc95,ecoc03,ecoc06,ecoc09,ecoc10,ecoc11,ecoc13}.本研究では,特定の誤り訂正手法をAlgorithm\ref{alg:mapping}で得られるビット列へ適用することで冗長化を行い,二値符号予測へ冗長性の導入を行う.ここで,過去に誤り訂正が検証されたクラス分類問題では高々100種類程度のクラスを扱っていたのに対し,本研究では語彙サイズに応じて数万種類程度のクラスを識別する必要があり,問題の複雑さが大きく異なる点に注意が必要である.本研究では,このような巨大なクラス分類問題においても誤り訂正手法の適用が有効であることを示す.図\ref{fig:error_correcting}(a)と\ref{fig:error_correcting}(b)は誤り訂正手法を導入した際の学習時・テスト時の挙動を示している.学習時には,まず元となるビット列$\bm{b}(w)$を誤り訂正符号の重心となる冗長なビット列\begin{equation}\bm{b}'(\bm{b}(w)):=[\bm{b}'_1(\bm{b}(w)),\bm{b}'_2(\bm{b}(w)),\cdots,\bm{b}'_{B'}(\bm{b}(w))]:\{0,1\}^B\rightarrow\{0,1\}^{B'}\end{equation}に写す.ここで$B'(B)\geqB$は冗長化後のビット列に含まれるビット数である.この写像は単射であり,各$\bm{b}(w)$をより大きな空間のお互いに離れた位置に配置し直すこととなる.ニューラル翻訳モデルはこの冗長なビット列$\bm{b}'(\bm{b}(w))$を出力層で学習する.なお,典型的な誤り訂正手法では$B'$は$B$の高々定数倍,つまり$O(B'/B)=O(1)$であり,誤り訂正手法の適用前後で出力層の計算量自体が変化しない点は重要である.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f5.eps}\end{center}\caption{誤り訂正を導入した場合の学習時・テスト時の動作}\label{fig:error_correcting}\end{figure}翻訳モデルから実際の単語を生成する際は,モデルにより推定された確率列$\bm{q}(\bm{h})$を元に,元の単語に相当する確率列\begin{equation}\tilde{\bm{q}}(\bm{q}(\bm{h})):=[\tilde{\bm{q}}_1(\bm{q}(\bm{h})),\tilde{\bm{q}}_2(\bm{q}(\bm{h})),\cdots,\tilde{\bm{q}}_B(\bm{q}(\bm{h}))]:[0,1]^{B'}\rightarrow[0,1]^B\end{equation}の復元を行う.このとき誤り訂正の効果により,$\bm{q}(\bm{h})$に含まれる多少の誤りは許容され得ることとなる.写像$\tilde{\bm{q}}(\cdot)$は少なくとも$\bm{b}'(\cdot)$の左逆写像であり,$[0,1]^{B'}$全体が定義域となる(復元結果が曖昧になるような入力が存在しない)ような手法を選択可能である.ここまでの議論で,\ref{s:model}~節で導入したビット列に関する制約は誤り訂正の導入後も満たすことが分かる.このため,図~\ref{fig:error_correcting}全体を単一の単語とビット列間の関連付け手法であると見なすことが可能である.ここで,誤り訂正手法により冗長化されたビット列の特徴は,翻訳モデルの精度に直接影響を与えると考えられる.どのようなビット列が最適であるかは自明ではないが,ここでは望ましい特徴についての定性的な議論を行う.まず,図\ref{fig:ecc-overview}は1ビット訂正可能な誤り訂正符号の一種であるが,ニューラルネットワークの出力としては明らかに適切でないことが直ちに分かる.なぜなら,重心ビット列の全てのビットが完全に一致しており,ニューラルネットワーク側から見ると各ビットの違いを区別できず,実質的に1ビットしか学習しない場合と同一のモデルになってしまうからである.このため,冗長化後のビット列は,ビット同士が可能な限りお互いに異なる傾向を持つことが望ましいと判断できる.また,出力層がどのようなビット誤りを生成するのかは自明ではないため,ランダムに発生する誤りを均等に訂正可能な手法を選択するのが妥当であると考えられる.更に,ニューラルネットワークが生成する出力$\bm{q}(\bm{h})$は0から1の間の連続値であり,単なるビット列よりも多くの情報を保持していると考えられる.このため,これらの連続値を直接使用してビット列を復元できる手法がより望ましい.\begin{algorithm}[b]\caption{実験で使用した畳み込み符号の冗長化アルゴリズム}\label{alg:conv-encode}\input{01algo02.tex}\end{algorithm}これらを満たす誤り訂正手法として,本研究では畳込み符号\cite{convcode}を用いることとした.畳込み符号は入力ビット列とハイパーパラメータである重みビット列の畳込み和で表現され,ビット列中の離れた位置にあるビット同士が独立となるため,ランダムなビット誤りに特に頑健に動作するという特徴がある.また確率過程に基づくビット列の復号手法を用いることで,ビットごとの確率を直接考慮することが可能である.\begin{algorithm}[t]\caption{実験で使用した畳み込み符号の復号アルゴリズム}\label{alg:conv-decode}\input{01algo03.tex}\end{algorithm}Algorithm\ref{alg:conv-encode}は実験で実際に用いた畳み込み符号のアルゴリズムである.ここで,重みベクトル[1001111]および[1101101]は事前実験の結果により複数の設定から計算効率と復号能力のバランスを考慮して定めた.なお,$\bm{x}[i\..\j]:=[x_i,\cdots,x_j]$,$\bm{x}\cdot\bm{y}:=\sum_ix_iy_i$である.畳込み符号は単一の冗長化手法に対して複数の復号手法が存在するが,実験ではAlgorithm\ref{alg:conv-decode}に示すアルゴリズムを使用した.ここで$\bm{x}\circ\bm{y}$はベクトル$\bm{x}$と$\bm{y}$の結合を表す.Algorithm\ref{alg:conv-decode}はビタビアルゴリズム\cite{convcode}に基づく手法であり,畳込み符号を隠れマルコフモデルの一種として解釈し,入力された確率列$\bm{q}(\bm{h})$から確率的に最も妥当な元のビット列を推定する.Algorithm~\ref{alg:conv-decode}は一見複雑だが,実際にはCPU上で効率的に処理可能であり,ニューラルネットワークの計算とは分離されているため,翻訳モデル自体の計算効率への影響は避けることが可能である. \section{実験} \subsection{実験設定}提案手法の翻訳精度を比較するために,英日・日英双方向の翻訳タスクでの実験を行った.使用したコーパスはASPEC\cite{aspec}とBTEC\cite{btec}であり,ASPECは上位200万文,BTECは検証・テスト用以外の全文を学習データとした.表\ref{tab:corpus}にコーパスの詳細を示す.これらのコーパスは平均文長や語彙サイズの面で難易度が大きく異なるため,難易度に起因するモデルの差異を比較するのに役立つと考えられる.英語のトークン化にはMoses\cite{moses}に含まれる\texttt{tokenizer.perl}を使用し,日本語のトークン化にはKyTea\cite{kytea}を使用した.また同じくMosesに含まれる\texttt{lowercase.perl}により小文字化を行った.語彙は単語の出現頻度に基づいて選択し,出現順位が$V-3$位より大きい単語は全て\texttt{UNK}記号に置換した.\begin{table}[t]\caption{実験に使用したコーパスの詳細}\label{tab:corpus}\input{01table01.tex}\end{table}ニューラル翻訳モデルを含む全てのアルゴリズムはC++言語で記述し,特にニューラルネットワークの構築にはDyNet\cite{dynet}を使用した.全てのモデルは1個のGPU(NVIDIAGeForceGTXTITANX)を用いて学習した.テストに関しては,実行時間を検証するためにGPU上とCPU上の両方で行った.提案手法が従来のソフトマックスモデルと異なるのは出力層のみであり,他の部分は完全に同一である.ニューラル翻訳モデル全体の構成には,エンコーダに双方向RNN\cite{bahdanau14},注意機構およびデコーダはLuongらによるConcatGlobalAttentionモデル\cite{luong15}を使用した.エンコーダおよびデコーダを構成するRNNには,入力・忘却・出力ゲートを含む1層のLSTM\cite{lstm}を使用した.また過学習を避けるために,各RNNの入出力部のみ30\%のドロップアウト(Dropout)\cite{dropout}を導入した.ニューラルネットワークの学習にはAdam最適化器\cite{adam}を使用した.Adamのハイパーパラメータは$\alpha=0.001,\beta_1=0.9\,\beta_2=0.999,\varepsilon=10^{-8}$で固定し,文長に基づいてグループ化された64文によるミニバッチ学習を行った.各モデルの評価には大文字・小文字を考慮しないBLEU\cite{bleu}を使用し,ミニバッチ1000個の学習が終了するごとにスコアの計算を行った.なお,文中に未知語が存在することを正しく推定したかどうかを評価するために,本実験でのBLEUの評価には\texttt{UNK}も計算対象に含めているが,\texttt{UNK}を取り除いて計算した場合でも最終的なスコアの傾向は同様であることを注記しておく.表\ref{tab:models}に本実験で比較した手法の凡例を示す.特に提案手法については,混合モデルと誤り訂正の適用の有無,および混合モデルにおけるソフトマックス層のサイズ$N$による影響を実験により検証する.また,混合モデルとの直接比較が可能な2分割の場合の適応ソフトマックス\cite{adaptive-softmax}についても実験を行い,同様に性能の測定を行った.\begin{table}[b]\caption{比較を行ったモデルの名称と詳細}\label{tab:models}\input{01table02.tex}\end{table}\begin{table}[b]\caption{各手法のBLEU,出力層のパラメータ数とその\textit{Softmax}に対する比率}\label{tab:results}\input{01table03.tex}\end{table}\begin{table}[t]\caption{各手法の平均計算時間}\label{tab:results-time}\input{01table04.tex}\end{table}\subsection{実験結果と考察}\label{s:discussion}表\ref{tab:results}に各手法のTestデータにおけるBLEU,二値符号のビット数$B$と出力層で実際に計算される値の個数$\#_{\mathrm{out}}$,出力層の推定に必要なパラメータ数$\#_{W,\bm{\beta}}$,および出力層とモデル全体におけるパラメータ数の\textit{Softmax}との比率を示す.表\ref{tab:results-time}には英語$\rightarrow$日本語下での各手法の学習時・テスト時における平均実行時間を示す.また図\ref{fig:bleu-aspec},\ref{fig:bleu-btec}には学習済みミニバッチ数180,000までの英日翻訳におけるソフトマックス及び提案手法のTestデータ上でのBLEUの変化を示す.図\ref{fig:bleu-aspec},\ref{fig:bleu-btec}から明らかなように,学習中のBLEUの変動は不安定であり,比較には何らかの平滑化が必要である.このため,Devデータ上でBLEUが最大となった世代を中心とした5世代についてTestデータ上でBLEUを求め,表\ref{tab:results}にはその平均値を示した.\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f6.eps}\end{center}\caption{180,000世代までの学習の推移(ASPECEn$\rightarrow$Ja)}\label{fig:bleu-aspec}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f7.eps}\end{center}\caption{180,000世代までの学習の推移(BTECEn$\rightarrow$Ja)}\label{fig:bleu-btec}\end{figure}\subsubsection{空間効率}まず,提案手法のいずれにおいても,\textit{Softmax}と比較して大幅に出力層のパラメータ数を削減していることが確認できる.モデル全体のパラメータ数では,いずれの提案手法も\textit{Softmax}と比較して70\%程度のパラメータ数に抑えられており,実質的には従来のソフトマックスモデルで必要とされた出力層のためのパラメータが無視可能なレベルまで削減されたと考えられる.なお,残りのパラメータの大部分はエンコーダおよびデコーダの入力部における単語ベクトルとして確保されているものであり,これらは依然として$O(EV)$だけのメモリ空間を専有している.ここで$E$は原言語・目的言語ごとの単語ベクトルに用いられる次元数だが,典型的には$H$と同程度(つまり$O(E/H)=O(1)$)と見なすことが可能である.\ref{s:introduction}節で述べたように,これらのパラメータ数の削減は本研究の対象ではないが,出力層と同様の符号化を導入することは可能であると考えられる.このような手法が翻訳モデルにどう影響するかは今後の研究課題である.また\ref{sec:prior}節で述べたように,適応ソフトマックスのパラメータ数は基本的に単純なソフトマックスと同等であり,使用するグループ数に比例した分だけ増加している.具体的には,本実験で使用した適応ソフトマックスは分割数が2であるため,出力層のサイズは各コーパスの語彙サイズに1を足した大きさとなる.\subsubsection{翻訳精度}\textit{Binary}のBLEU値に着目すると,他のいずれの手法と比較しても大幅に低い値となっていることが観察される.これは\ref{s:model}節で述べた事実から予測され得る結果であり,単純な二値符号予測では頑健性に問題があるという特徴を反映していると考えられる.これとは対照的に,\textit{Hybrid-N}と\textit{Binary-EC}では\textit{Binary}と比較して十分に高いBLEUを示しており,実験設定によってはほぼ\textit{Softmax}に近似する値を達成していることが分かる.この傾向は,混合モデルと誤り訂正符号の導入がどちらも二値符号予測に対して有効であることを示している.特に\textit{Binary-EC}と\textit{Hybrid-512}を比較すると,前者のパラメータ数が1/10程度なのにも関わらず基本的に高いBLEUを達成しており,この結果からビット列に冗長性を導入することがより推定精度の向上に効果的であると言うことができる.また,2種類の改良を両方導入した\textit{Hybrid-N-EC}では更なる精度の向上が見られ,設定次第では\textit{Softmax}と同等かそれ以上のBLEUを達成していることが観察できる.この挙動から,混合モデルと誤り訂正の両者が手法として概ね直交しており,組み合わせることでより高い効果を示すことが可能であると言える.特にBTECにおいて,\textit{Softmax}が低い翻訳精度となったのは,コーパスの難易度に対してソフトマックス層のパラメータ数が適切な大きさでなかった点が考えられる.\textit{Adaptive2-N}と\textit{Hybrid-N-EC}の比較では,ASPECでは\textit{Adaptive2-512}と\textit{Hybrid-2048-EC}が同等程度,BTECでは\textit{Adaptive2-2048}と\textit{Hybrid-2048-EC}が同等程度の性能と考えられる.これらの手法の本質的な違いは希少語グループの単語推定にソフトマックスと誤り訂正符号のどちらを使用したかのみであり,各モデルによる希少語の推定精度を間接的に反映しているものと考えられる.適応ソフトマックスと提案手法の混合モデルでは希少語に関するパラメータ数が数百から数千倍程度異なることを考えると,適応ソフトマックスの翻訳精度が混合モデルより高くなることが自然に考えられ,実際ASPECでは希少語グループのサイズが同等である\textit{Adaptive2-2048}と\textit{Hybrid-2048-EC}では前者の方が翻訳精度が高いことが観察される.BTECで両者の性能が接近しているのは,\textit{Softmax}との比較でも言及したように,コーパスの難易度に対する\textit{Adaptive2-N}の過剰なパラメータ数が関係していると考えられる.また,\textit{Adaptive2-2048}はいずれのコーパスでも\textit{Softmax}より高い性能を達成しており,これは混合モデルと同様に,単語の出現頻度に基づいて推定を分割したことによる効果と考えられる.\subsubsection{時間効率}表\ref{tab:results-time}の計算時間に着目すると,いずれの提案手法も\textit{Softmax}と比較して高速に動作していることが分かる.特にCPU上でのテスト時の実行速度はASPECで10倍,BTECで5倍程度に高速であり,強力な計算資源が期待できない環境でも提案手法が効率的に動作可能であることを示している.また,誤り訂正手法の復号アルゴリズムはいずれの実験でもCPU上で実行しているが,これに起因する計算速度の低下は翻訳モデル全体から見ると部分的であることが分かり,この点でも誤り訂正手法の適用が効果的であることを示している.\textit{Adaptive2-N}に関しては,GPU上でのテスト時の実行速度は提案手法と遜色ない性能を示しており,単語の出現頻度に基づいて適切にソフトマックスを分割するだけでも高い高速化効果が得られることを示している.一方,CPU上でのテスト時の速度は,\textit{Softmax}と比較した際には\textit{Adaptive2-N}でも十分高速化されていると言えるが,提案手法は更にその数割から数倍程度高速という結果となっている.この実行速度の差異は希少語の推定に要する計算量を反映していると考えられ,GPUのように十分な並列化の可能でない状況下では,依然として計算量そのものを削減する利点が大きいことが観察される.なお,\textit{Adaptive2-512}より\textit{Adaptive2-2048}の方が高速に動作している点は,提案論文に示されている2分割時の実行速度とのトレードオフに関する議論と一致する\cite{adaptive-softmax}.ここで,適応ソフトマックス\cite{adaptive-softmax}の本来の目的は学習時間の削減であるが,本実験では\textit{Adaptive2-N}の学習時間が\textit{Softmax}と比較して若干増加しており,提案論文の結果に従っていないことが確認される.これはミニバッチ学習時の実用上の問題に起因するものである.原理的には,適応ソフトマックスは頻出語の推定時に希少語のスコア計算を除外することが可能であり,このときうまく計算を回避する実装を用いることで計算量の削減が得られるものである.本実験の場合,入力データを個別に処理するテスト時の動作がこれに該当し,実際に期待通りの高速化効果が得られている.一方,学習時にはDyNetを用いた実装の制約上,ミニバッチに含まれる全データに対して同様の計算を行う必要があり,ある時刻で推定しなければならない単語に頻出語と希少語が混在しているような,ネットワークにデータごとの条件分岐が存在する場合への対処が難しい.本実験ではこの問題を回避するため,頻出語に対してもダミーの希少語ラベルを与えて計算を行っているが,このときの計算量は通常のソフトマックスとほぼ等しくなり,また計算過程が複雑になる分,実際の計算効率はソフトマックスよりも低下する.表\ref{tab:results-time}では実際にこの効果を確認した形となっている.汎用的なニューラルネットワークのツールがこの問題に対処できるかどうかは,データごとに異なるネットワーク構造が与えられたとき,ツール側で効率的に処理する能力を持っているかどうかに依存している.このような手法の候補としては,実際のネットワーク計算の直前にミニバッチ計算の最適化を行う手法が考えられる\cite{autobatch}.なお,提案手法である混合モデルに関しても,計算グラフ上では適応ソフトマックスとほぼ同様のネットワーク構造を持っており,\textit{Hybrid-N},\textit{Hybrid-N-EC}の学習時間も上記と同じ理由によるオーバーヘッドを含んでいる.\subsubsection{混合モデルの翻訳精度への影響}図\ref{fig:hybrid-n}は\textit{Hybrid-N}においてソフトマックス層の大きさ$N$を指数的に変化させた際の翻訳精度への影響である.ここで混合モデルの定義より,\textit{Softmax}と\textit{Binary}はそれぞれ$N$を$V$と1に設定した場合の極限であり,\textit{Hybrid-N}による翻訳精度の近似的な上限と下限を表わすと考えられる.実際,図\ref{fig:hybrid-n}の曲線はおおよそ\textit{Softmax}と\textit{Binary}の間を推移しており,ここから混合モデルのソフトマックス層の大きさと翻訳精度にはトレードオフの関係があることが分かる.またBTECとASPECの曲線をそれぞれ観察すると,BTECではより小さな$N$(例えば$N=1024$程度)で翻訳精度が\textit{Softmax}付近に飽和しているのに対し,ASPECではより大きな$N$においても精度の向上が見られる.ここから,$N$による翻訳精度の変動はコーパス自体の難易度をいくらか反映しているものと考えられる.つまり,より簡単なコーパスを学習する場合は$N$として小さな値を取ることができ,より難しいコーパスになるほど大きな$N$を選択する必要があると考えられる.また表\ref{tab:results}で示したように,誤り訂正を併用することで混合モデル単体よりも翻訳精度の向上が期待できるため,実際の$N$の値には図\ref{fig:hybrid-n}から読み取れるものより小さな値を設定することが可能であると言える.\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f8.eps}\end{center}\caption{\textit{Hybrid-N}において$N$を変化させた場合のBLEUの変化(En$\rightarrow$Ja)}\label{fig:hybrid-n}\end{figure}\subsubsection{単語の出現頻度と推定精度の関係}前節までの議論により,提案手法によるコーパス全体としての翻訳精度の傾向については判明した.しかし,ニューラル翻訳は出力文を単語単位で逐次的に生成するモデルであり,具体的な単語単位の推定精度に関しても議論が必要である.図\ref{fig:aspec-unigram},\ref{fig:btec-unigram}に示すのは,表\ref{tab:results},\ref{tab:results-time}に示した7手法について,日本語Testデータ中の各単語を学習データ中での出現頻度の順位でグループ化し,各グループについてユニグラム再現率および適合率を示したものである.ここで,適合率の計算はBLEUの方法に準拠し,再現率についてはBLEUの方法の分母を正解データに置き換えることで計算した.なお,分母が0となる場合は便宜的に値を0と表示した.\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f9.eps}\end{center}\caption{各手法の出現頻度ごとのユニグラム推定精度(ASPECEn$\rightarrow$Ja)}\label{fig:aspec-unigram}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{25-2ia1f10.eps}\end{center}\caption{各手法の出現頻度ごとのユニグラム推定精度(BTECEn$\rightarrow$Ja)}\label{fig:btec-unigram}\end{figure}\begin{table}[p]\caption{128位までの頻出語(ASPECJa)}\label{tab:words-aspec-ja}\input{01table05.tex}\end{table}まず,再現率についてはいずれの手法・コーパスにおいてもほぼ同様の傾向を示しており,手法の違いによる全体的な値の増減が確認できる.特に\textit{Binary}のみは,他の手法と比べて全てのグループで全体的に低い値となっており,単純な二値符号予測ではどのような単語もうまく推定することができないことが分かる.またASPECとBTECの両コーパスで,出現頻度が数十位付近の単語で再現率が低下し,その後また上昇するという共通の傾向を示しており,両コーパスのドメインや難易度が大きく離れていることから,これは言語に共通の何らかの特徴を捉えているものと考えられる.一般的に単語を出現頻度でグループ化した場合,頻出語のグループには機能語が多く集まり,希少語には内容語が多く集まる傾向にある.内容語と比較して機能語は用例が複雑であり,内容語と同一のモデルで推定するには難易度が高くなると考えられる.表\ref{tab:words-aspec-ja}および\ref{tab:words-btec-ja}はASPECおよびBTECの日本語学習データにおける頻出語だが,両者とも出現頻度が64位の付近で機能語と内容語がおおよそ交代していることが観察できる.つまり,前述のRecallの低下と再上昇は,機能語と内容語の推定難易度の違いを反映しているものと考えられる.\begin{table}[t]\caption{128位までの頻出語(BTECJa)}\label{tab:words-btec-ja}\input{01table06.tex}\end{table}一方,適合率の傾向を観察すると,\textit{Binary}が他の手法より全体的に低い点,および誤り訂正の適用により全体的なスコアが引き上げられている点は再現率と同様であるが,\textit{Hybrid-N}において出現頻度の順位が$N$付近を超えた単語は,そうでない単語と比較して大幅に適合率が低下していることが確認できる.これは明らかに,学習の比較的容易なソフトマックス層のみによる推定から二値符号予測を用いる推定に切り替わるために起こる現象であり,二値符号予測が本質的にソフトマックスよりも難しい推定問題であることを表していると考えられる.混合モデルと誤り訂正符号の併用により,このような適合率の大幅な低下が緩和されており,両者をバランス良く組み合わせることで全体的な推定精度を補償することが可能であることが分かる. \section{おわりに} 本研究では,ニューラル翻訳モデルの出力層の計算量を圧縮することを目的とし,単語に割り当てられた二値符号を予測することで間接的に単語の推定を行う手法を提案した.また,単純な二値符号予測の精度を向上させるために,従来のソフトマックスモデルを部分的に採用した混合モデル,および二値符号に対し誤り訂正符号を適用することによる頑健性の向上を提案した.実験により,これらの手法を組み合わせて用いることで,従来のソフトマックスモデルと比較して数十分の1程度のパラメータ数と短い実行時間(特にCPU上でのテスト時に5分の1から10分の1程度)で,同等程度の翻訳精度を実現可能であることを示した.本研究では二値符号予測の基本的なフレームワークを提案したが,実験で使用した手法には事前実験に基づく様々なヒューリスティクスが残っており,各部分問題には,より翻訳モデルに適した手法を開発する余地が残されている.具体的には次のような課題が挙げられ,これらについてより深い研究を今後行ってゆく予定である.\begin{itemize}\item翻訳モデルにより適した単語のビット列への割り当て手法.より本質的には,どのような特徴量を保持したビット列であれば効率的に予測することが可能か.また,ビット数を制御することで任意に冗長性が設定可能となるような割り当て手法の設計.\itemニューラル翻訳モデルの学習により適した形の誤り訂正手法の開発.また,誤り訂正符号を学習することを前提とした損失関数の設計.\item入力層側の単語ベクトルも二値符号に制約することで,モデルのパラメータ数をより削減することが可能と考えられるが,そのようなモデルで同様の翻訳精度を達成することは可能か.\item翻訳モデルの内部状態やパラメータが獲得した表現に関する調査.特に,ソフトマックスモデルと比較した際にどのような共通点・相違点が見出だせるか.\end{itemize}\acknowledgment本研究の一部はJSPS科研費JP16H05873,及びJP17H00747の助成を受けて行ったものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau14}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemarXivpreprintarXiv:1409.0473}.\bibitem[\protect\BCAY{Brown,Desouza,Mercer,Pietra,\BBA\Lai}{Brownet~al.}{1992}]{brown-clustering}Brown,P.~F.,Desouza,P.~V.,Mercer,R.~L.,Pietra,V.J.~D.,\BBA\Lai,J.~C.\BBOP1992\BBCP.\newblock\BBOQClass-basedN-gramModelsofNaturalLanguage.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf18}(4),\mbox{\BPGS\467--479}.\bibitem[\protect\BCAY{Chen,Grangier,\BBA\Auli}{Chenet~al.}{2016a}]{differentiated-softmax}Chen,W.,Grangier,D.,\BBA\Auli,M.\BBOP2016a\BBCP.\newblock\BBOQStrategiesforTrainingLargeVocabularyNeuralLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1975--1985},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chen,Mou,Xu,Li,\BBA\Jin}{Chenet~al.}{2016b}]{sparse-word-representation}Chen,Y.,Mou,L.,Xu,Y.,Li,G.,\BBA\Jin,Z.\BBOP2016b\BBCP.\newblock\BBOQCompressingNeuralLanguageModelsbySparseWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\226--235},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chitnis\BBA\DeNero}{Chitnis\BBA\DeNero}{2015}]{variable-length-encoding}Chitnis,R.\BBACOMMA\\BBA\DeNero,J.\BBOP2015\BBCP.\newblock\BBOQVariable-LengthWordEncodingsforNeuralTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2088--2093},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Dietterich\BBA\Bakiri}{Dietterich\BBA\Bakiri}{1995}]{ecoc95}Dietterich,T.~G.\BBACOMMA\\BBA\Bakiri,G.\BBOP1995\BBCP.\newblock\BBOQSolvingMulticlassLearningProblemsviaError-correctingOutputCodes.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf2},\mbox{\BPGS\263--286}.\bibitem[\protect\BCAY{Ferng\BBA\Lin}{Ferng\BBA\Lin}{2011}]{ecoc11}Ferng,C.-S.\BBACOMMA\\BBA\Lin,H.-T.\BBOP2011\BBCP.\newblock\BBOQMulti-labelClassificationwithError-correctingCodes.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf20},\mbox{\BPGS\281--295}.\bibitem[\protect\BCAY{Ferng\BBA\Lin}{Ferng\BBA\Lin}{2013}]{ecoc13}Ferng,C.-S.\BBACOMMA\\BBA\Lin,H.-T.\BBOP2013\BBCP.\newblock\BBOQMultilabelClassificationusingError-correctingCodesofHardorSoftBits.\BBCQ\\newblock{\BemIEEETransactionsonNeuralNetworksandLearningSystems},{\Bbf24}(11),\mbox{\BPGS\1888--1900}.\bibitem[\protect\BCAY{Gers,Schmidhuber,\BBA\Cummins}{Gerset~al.}{2000}]{lstm}Gers,F.~A.,Schmidhuber,J.,\BBA\Cummins,F.\BBOP2000\BBCP.\newblock\BBOQLearningtoForget:ContinualPredictionwith{LSTM}.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf12}(10),\mbox{\BPGS\2451--2471}.\bibitem[\protect\BCAY{Grave,Joulin,Ciss{\'e},Grangier,\BBA\J{\'e}gou}{Graveet~al.}{2017}]{adaptive-softmax}Grave,{\'E}.,Joulin,A.,Ciss{\'e},M.,Grangier,D.,\BBA\J{\'e}gou,H.\BBOP2017\BBCP.\newblock\BBOQEfficientSoftmaxApproximationfor{GPU}s.\BBCQ\\newblockIn{\BemProceedingsofthe34thInternationalConferenceonMachineLearning},\mbox{\BPGS\1302--1310},Sydney,Australia.\bibitem[\protect\BCAY{Gutmann\BBA\Hyv{\"a}rinen}{Gutmann\BBA\Hyv{\"a}rinen}{2010}]{nce}Gutmann,M.\BBACOMMA\\BBA\Hyv{\"a}rinen,A.\BBOP2010\BBCP.\newblock\BBOQNoise-contrastiveEstimation:ANewEstimationPrincipleforUnnormalizedStatisticalModels.\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonArtificialIntelligenceandStatistics},\mbox{\BPGS\297--304},Sardinia,Italy.\bibitem[\protect\BCAY{Huffman}{Huffman}{1952}]{huffman-code}Huffman,D.~A.\BBOP1952\BBCP.\newblock\BBOQAMethodfortheConstructionofMinimum-RedundancyCodes.\BBCQ\\newblock{\BemProceedingsoftheInstituteofRadioEngineers},{\Bbf40}(9),\mbox{\BPGS\1098--1101}.\bibitem[\protect\BCAY{Kim\BBA\Rush}{Kim\BBA\Rush}{2016}]{distillation}Kim,Y.\BBACOMMA\\BBA\Rush,A.~M.\BBOP2016\BBCP.\newblock\BBOQSequence-LevelKnowledgeDistillation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1317--1327},Austin,Texas.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2014}]{adam}Kingma,D.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblock{\BemarXivpreprintarXiv:1412.6980}.\bibitem[\protect\BCAY{Klautau,Jevti{\'c},\BBA\Orlitsky}{Klautauet~al.}{2003}]{ecoc03}Klautau,A.,Jevti{\'c},N.,\BBA\Orlitsky,A.\BBOP2003\BBCP.\newblock\BBOQOnNearest-neighborError-correctingOutputCodeswithApplicationtoAll-pairsMulticlassSupportVectorMachines.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf4}(April),\mbox{\BPGS\1--15}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\177--180},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kouzani}{Kouzani}{2010}]{ecoc10}Kouzani,A.~Z.\BBOP2010\BBCP.\newblock\BBOQMultilabelclassificationusingerrorcorrectioncodes.\BBCQ\\newblockIn{\BemInternationalSymposiumonIntelligenceComputationandApplications},\mbox{\BPGS\444--454}.Springer.\bibitem[\protect\BCAY{Kouzani\BBA\Nasireding}{Kouzani\BBA\Nasireding}{2009}]{ecoc09}Kouzani,A.~Z.\BBACOMMA\\BBA\Nasireding,G.\BBOP2009\BBCP.\newblock\BBOQMultilabelClassificationbyBCHCodeandRandomForests.\BBCQ\\newblock{\BemInternationalJournalofRecentTrendsinEngineering},{\Bbf2}(1),\mbox{\BPGS\113--116}.\bibitem[\protect\BCAY{Li,Qin,Yang,\BBA\Liu}{Liet~al.}{2016}]{lightrnn}Li,X.,Qin,T.,Yang,J.,\BBA\Liu,T.-Y.\BBOP2016\BBCP.\newblock\BBOQ{LightRNN}:MemoryandComputation-EfficientRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\lowercase{\BVOL}~29.\bibitem[\protect\BCAY{Ling,Trancoso,Dyer,\BBA\Black}{Linget~al.}{2015}]{character-nmt}Ling,W.,Trancoso,I.,Dyer,C.,\BBA\Black,A.~W.\BBOP2015\BBCP.\newblock\BBOQCharacter-basedNeuralMachineTranslation.\BBCQ\\newblock{\BemarXivpreprintarXiv:1511.04586}.\bibitem[\protect\BCAY{Liu}{Liu}{2006}]{ecoc06}Liu,Y.\BBOP2006\BBCP.\newblock\BBOQUsingSVMandError-correctingCodesforMulticlassDialogActClassificationinMeetingCorpus.\BBCQ\\newblockIn{\BemINTERSPEECH},\mbox{\BPGS\1938--1941}.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{luong15}Luong,T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1412--1421},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{word2vec}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandTheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Deoras,Le,Kombrink,\BBA\{\v{C}}ernock{\'y}}{Mikolovet~al.}{2012}]{rnnlm-subword}Mikolov,T.,Sutskever,I.,Deoras,A.,Le,H.-S.,Kombrink,S.,\BBA\{\v{C}}ernock{\'y},J.\BBOP2012\BBCP.\newblock\newblock\BBOQSubwordLanguageModelingwithNeuralNetworks.\BBCQ\bibitem[\protect\BCAY{Mnih\BBA\Teh}{Mnih\BBA\Teh}{2012}]{nce-lm}Mnih,A.\BBACOMMA\\BBA\Teh,Y.~W.\BBOP2012\BBCP.\newblock\BBOQAFastandSimpleAlgorithmforTrainingNeuralProbabilisticLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe29thInternationalConferenceonMachineLearning}.\bibitem[\protect\BCAY{Morin\BBA\Bengio}{Morin\BBA\Bengio}{2005}]{hierarchical-softmax}Morin,F.\BBACOMMA\\BBA\Bengio,Y.\BBOP2005\BBCP.\newblock\BBOQHierarchicalProbabilisticNeuralNetworkLanguageModel.\BBCQ\\newblockIn{\BemProceedingsof10thInternationalWorkshoponArtificialIntelligenceandStatistics},\lowercase{\BVOL}~5,\mbox{\BPGS\246--252}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{aspec}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC2016)},\mbox{\BPGS\2204--2208},Portoro,Slovenia.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Neubig,Dyer,Goldberg,Matthews,Ammar,Anastasopoulos,Ballesteros,Chiang,Clothiaux,Cohn,Duh,Faruqui,Gan,Garrette,Ji,Kong,Kuncoro,Kumar,Malaviya,Michel,Oda,Richardson,Saphra,Swayamdipta,\BBA\Yin}{Neubiget~al.}{2017}]{dynet}Neubig,G.,Dyer,C.,Goldberg,Y.,Matthews,A.,Ammar,W.,Anastasopoulos,A.,Ballesteros,M.,Chiang,D.,Clothiaux,D.,Cohn,T.,Duh,K.,Faruqui,M.,Gan,C.,Garrette,D.,Ji,Y.,Kong,L.,Kuncoro,A.,Kumar,G.,Malaviya,C.,Michel,P.,Oda,Y.,Richardson,M.,Saphra,N.,Swayamdipta,S.,\BBA\Yin,P.\BBOP2017\BBCP.\newblock\BBOQDyNet:TheDynamicNeuralNetworkToolkit.\BBCQ\\newblock{\BemarXivpreprintarXiv:1701.03980}.\bibitem[\protect\BCAY{Neubig,Goldberg,\BBA\Dyer}{Neubiget~al.}{2017}]{autobatch}Neubig,G.,Goldberg,Y.,\BBA\Dyer,C.\BBOP2017\BBCP.\newblock\BBOQOn-the-flyOperationBatchinginDynamicComputationGraphs.\BBCQ\\newblockIn{\BemConferenceonNeuralInformationProcessingSystems(NIPS)},\mbox{\BPGS\3974--3984},LongBeach,California,USA.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{kytea}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\529--533},Portland,Oregon,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318},Philadelphia,Pennsylvania,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{See,Luong,\BBA\Manning}{Seeet~al.}{2016}]{weight-pruning}See,A.,Luong,M.-T.,\BBA\Manning,C.~D.\BBOP2016\BBCP.\newblock\BBOQCompressionofNeuralMachineTranslationModelsviaPruning.\BBCQ\\newblockIn{\BemProceedingsofThe20thSIGNLLConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\291--301},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sennrich,Haddow,\BBA\Birch}{Sennrichet~al.}{2016}]{bpe-nmt}Sennrich,R.,Haddow,B.,\BBA\Birch,A.\BBOP2016\BBCP.\newblock\BBOQNeuralMachineTranslationofRareWordswithSubwordUnits.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1715--1725},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Serr{\'a}\BBA\Karatzoglou}{Serr{\'a}\BBA\Karatzoglou}{2017}]{bloom-embedding}Serr{\'a},J.\BBACOMMA\\BBA\Karatzoglou,A.\BBOP2017\BBCP.\newblock\BBOQCompactEmbeddingofBinary-codedInputsandOutputsusingBloomFilters.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLearningRepresentations},Vancouver,BC,Canada.\bibitem[\protect\BCAY{Shannon}{Shannon}{1948}]{shannon48}Shannon,C.~E.\BBOP1948\BBCP.\newblock\BBOQAMathematicalTheoryofCommunication.\BBCQ\\newblock{\BemBellSystemTechnicalJournal},{\Bbf27}(3),\mbox{\BPGS\379--423}.\bibitem[\protect\BCAY{Srivastava,Hinton,Krizhevsky,Sutskever,\BBA\Salakhutdinov}{Srivastavaet~al.}{2014}]{dropout}Srivastava,N.,Hinton,G.~E.,Krizhevsky,A.,Sutskever,I.,\BBA\Salakhutdinov,R.\BBOP2014\BBCP.\newblock\BBOQDropout:ASimpleWaytoPreventNeuralNetworksfromOverfitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf15}(1),\mbox{\BPGS\1929--1958}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{encdec}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Takezawa}{Takezawa}{1999}]{btec}Takezawa,T.\BBOP1999\BBCP.\newblock\BBOQBuildingaBilingualTravelConversationDatabaseforSpeechTranslationResearch.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponEast-AsianResourcesandEvaluationConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\17--20}.\bibitem[\protect\BCAY{Viterbi}{Viterbi}{1967}]{convcode}Viterbi,A.\BBOP1967\BBCP.\newblock\BBOQErrorBoundsforConvolutionalCodesandanAsymptoticallyOptimumDecodingAlgorithm.\BBCQ\\newblock{\BemIEEETransactionsonInformationTheory},{\Bbf13}(2),\mbox{\BPGS\260--269}.\bibitem[\protect\BCAY{Wu,Schuster,Chen,Le,Norouzi,Macherey,Krikun,Cao,Gao,Macherey,Klingner,Shah,Johnson,Liu,Kaiser,Gouws,Kato,KudomKazawa,Stevens,Kurian,Patil,Wang,Young,Smith,Riesa,Rudnick,Vinyals,Corrado,Hughes,\BBA\Dean}{Wuet~al.}{2016}]{gnmt}Wu,Y.,Schuster,M.,Chen,Z.,Le,Q.V.,Norouzi,M.,Macherey,W.,Krikun,M.,Cao,Y.,Gao,Q.,Macherey,K.,Klingner,J.,Shah,A.,Johnson,M.,Liu,X.,Kaiser,{\L}.,Gouws,S.,Kato,Y.,Kudo,T.,Kazawa,H.,Stevens,K.,Kurian,G.,Patil,N.,Wang,W.,Young,C.,Smith,J.,Riesa,J.,Rudnick,A.,Vinyals,O.,Corrado,G.,Hughes,M.,\BBA\DeanJ.\BBOP2016\BBCP.\newblock\BBOQGoogle'sNeuralMachineTranslationSystem:BridgingtheGapbetweenHumanandMachineTranslation.\BBCQ\\newblock{\BemarXivpreprintarXiv:1609.08144}.\bibitem[\protect\BCAY{Zipf}{Zipf}{1949}]{zipf49}Zipf,G.~K.\BBOP1949\BBCP.\newblock{\BemHumanBehaviorandthePrincipleofLeastEffort.}\newblockAddison-WesleyPress.\end{thebibliography}\begin{biography}\bioauthor{小田悠介}{2011年神戸市立工業高等専門学校電子工学科卒業.2013年同専攻科電気電子工学専攻卒業.2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.修士(工学).現在,同博士後期課程に在籍.2015年日本学術振興会特別研究員(DC1).2017年より情報通信研究機構先進的音声翻訳研究開発推進センター研究技術員.機械翻訳,自然言語処理,ソフトウェア工学に関する研究に従事.言語処理学会年次大会優秀賞(2015年・2016年).ACL,電子情報通信学会,情報処理学会,教育システム情報学会,言語処理学会各会員.}\bioauthor[:]{PhilipArthur}{2013年インドネシア大学計算機科学科卒業.2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同学博士後期課程に在籍.修士(工学).機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.同年奈良先端科学技術大学院大学助教.2016年より米国カーネギーメロン大学助教.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{吉野幸一郎}{2009年慶應義塾大学環境情報学部卒業.2011年京都大学大学院情報学研究科修士課程修了.2014年同研究科博士後期課程修了.同年,日本学術振興会特別研究員(PD).2015年奈良先端科学技術大学院大学情報科学研究科特任助教.2016年より同助教.同年より科学技術振興機構さきがけ研究員(兼任).京都大学博士(情報学).音声言語処理および自然言語処理,特に音声対話システムに関する研究に従事.2013年度人工知能学会研究会優秀賞受賞.IEEE,ACL,SIGdial,情報処理学会,言語処理学会各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学博士(工学).シャープ株式会社.奈良先端科学技術大学院大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.IEEESLTC委員,ISCA理事,IEEEフェロー.}\end{biography}\biodate\end{document}
V07N05-05
\section{はじめに} \label{sec:introduction}我々は,1998年10月から自然言語解析用ツール「MSLRパーザ・ツールキット」を公開している~\footnote{{\tthttp://tanaka-www.cs.titech.ac.jp/pub/mslr/}}.MSLRパーザ(MorphologicalandSyntacticLRparser)は,一般化LR法の解析アルゴリズムを拡張し,単語区切りのない言語(日本語など)を主に対象とし,形態素解析と構文解析を同時に行うパーザである\footnote{MSLRパーザは,分かち書きされた文(英語文など)を解析する機能も持っているが,もともとは単語区切りのない文を解析することを目的に作られた.}.本論文では,MSLRパーザ・ツールキットの特徴と機能について述べる.MSLRパーザを用いて文を解析する場合には,以下の3つが必要になる.\begin{quote}\begin{description}\item[文法]品詞を終端記号とする文脈自由文法.主に構文解析に用いる.\item[辞書]単語とそれに対応した品詞を列挙したデータで,形態素解析の基本単位を集めたものである.辞書の品詞体系は文法の品詞体系と一致していなければならない.\item[接続表]品詞間の接続制約を記述した表.品詞間の接続制約とは,ある2つの品詞が隣接できるか否かに関する制約である.\end{description}\end{quote}本ツールキットでは,文法・辞書・接続表を自由に入れ換えることができる.すなわち,ユーザが独自に開発した文法や辞書を用いて,MSLRパーザによって文の解析を行うことが可能である.また,MSLRパーザ・ツールキットには日本語解析用の文法,辞書,接続表が含まれている.したがって,文法等を持っていないユーザでも,ツールキットに付属のものを用いて日本語文の形態素・構文解析を行うことができる.MSLRパーザはC言語で実装され,動作するOSはunixのみである.具体的には,以下のOSで動作することが確認されている.\begin{itemize}\itemSunOS5.6\itemDigitalUnix4.0\itemIRIX6.5\itemFreeBSD3.3\itemLinux2.2.11,LinuxPPC(PC-Mind1.0.4)\end{itemize}MSLRパーザを動作させるために必要なメモリ使用量・ディスク使用量は,使用する文法や辞書の規模に大きく依存する.例えば,ツールキットに付属の日本語解析用文法(規則数1,408)と辞書(登録単語数241,113)を用いる場合,50Mbyteのメモリと10Mbyteのディスク容量を必要とする.本ツールキットを用いた形態素・構文解析の流れを図~\ref{fig:overview}に示す.MSLRパーザの解析アルゴリズムは一般化LR法に基づいているため,まず最初にLR表作成器を用いて,文法と接続表からLR表を作成する.MSLRパーザは,作成されたLR表と辞書を参照しながら入力文の形態素・構文解析を行い,解析結果(構文木)を出力する.\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=overview.eps,width=0.9\textwidth}\end{epsf}\begin{draft}\atari(127,36)\end{draft}\caption{MSLRパーザを用いた形態素・構文解析の流れ}\label{fig:overview}\end{center}\end{figure}本ツールキットの主な特徴と機能は以下の通りである.\begin{itemize}\itemMSLRパーザは,形態素解析と構文解析を同時に行う.まず最初に形態素解析を行い,その出力をもとに構文解析を行う逐次的な方法では,形態素解析の段階では文法などの構文的な制約を考慮しない場合が多く,その後の構文解析の段階で不適当と判断されるような無駄な解析結果も出力される.これに対し,MSLRパーザは形態的な情報(辞書,接続表)と構文的な情報(文法)を同時に用いて解析を行うため,このような無駄な解析結果を生成することはない.\itemLR表作成器は,接続表に記述された品詞間の接続制約を組み込んだLR表を作成する.すなわち,LR表を作成する段階で品詞間の接続制約を考慮し,接続制約に違反する構文木を受理しないLR表を作る.さらに,品詞間の接続制約を組み込んだ場合,接続制約を組み込まない場合と比べてLR表の状態数・動作数を減らすことができ,メモリ使用量も小さくすることができるという利点がある.\item品詞間の接続制約は,接続表という形式で記述する代わりに,文法に組み込むことも可能である.しかしながら,接続制約を文法に組み込んだ場合,規則数が組み合わせ的に増大する.このため,文法作成者の負担が大きくなり,また作成されるLR表の大きさも大きくなるために望ましくない.このような理由から,本ツールキットでは,接続表と文法を独立に記述する枠組を採用している.\item平文を入力とした解析の他に,係り受けに関する部分的な制約を加えた文を入力とした解析を行うことができる.例えば,「太郎が渋谷で買った本を借りた」という文を解析する際に,次のような括弧付けによる制約を付けた文が入力されたときには,括弧付けと矛盾した解析結果は出力しない.\begin{displaymath}\tt[太郎が渋谷で買った]本を借りた\end{displaymath}すなわち,「太郎が」が「借りた」に係る以下のような解析結果は,Aの括弧付けが入力の括弧付けと矛盾(交差)しているために出力しない.\begin{displaymath}\tt[[太郎が][_A\;[[渋谷で][買った]][[本を][借りた]]]\;{}_A]\end{displaymath}この機能は,例えば前編集により係り受けに関する部分的な制約をあらかじめ文に付加してから解析を行い,構文的曖昧性を抑制する場合などに利用できる.\item確率一般化LRモデル~\cite{inui:98:a,sornlertlamvanich:99:a}(ProbabilisticGeneralizedLRModel,以下PGLRモデル)を取り扱うことができる.PGLRモデルとは,一般化LR法の枠組において構文木の生成確率を与える確率モデルである.PGLRモデルに基づく構文木の生成確率は,統計的な意味での正しさの尺度を構文木に与えることができるので,構文的な曖昧性の解消に利用することができる.\end{itemize}以下では,ここに挙げた本ツールキットの特徴と機能について詳しく説明する.\ref{sec:tablegenerator}節では品詞間の接続制約を組み込むLR表作成器について述べ,\ref{sec:parser}節ではMSLRパーザの概略について述べる.最後に\ref{sec:conclusion}節で本論文のまとめとMSLRパーザ・ツールキットの今後の開発方針について述べる. \section{LR表作成器} \label{sec:tablegenerator}本節では,MSLRパーザ・ツールキットにおけるLR表作成器の機能と特徴について詳しく説明する.\subsection{3種類のLR表を作成する機能}\label{sec:tabletype}一般化LR法で用いられるLR表には,SLR(SimpleLR),CLR(CanonicalLR),LALR(LookaheadLR)の3種類がある.我々のLR表作成器は,これら3種類のLR表を作成する機能を持つ.実際の自然言語文の解析では,最も状態数の少ないLALRが用いられる場合が多い.したがって,以後LR表といえばLALRを意味するものとする.これらのLR表の違いの詳細については文献~\cite{aho:85:a}を参照していただきたい.\subsection{品詞間の接続制約を組み込む機能}\label{sec:tablecon}本ツールキットにおけるLR表作成器の最も大きな特徴は,LR表に品詞間の接続制約を反映させることができる点にある.品詞間の接続制約をLR表に反映させるということは,接続制約に違反する構文木を生成する動作をLR表からあらかじめ除去することに相当する.このことを図~\ref{fig:lalr_gra}の文法$CFG_1$を例に説明する\footnote{$CFG_1$における各記号のおおまかな意味は以下の通りである.S=文,VP=動詞句,PP=後置詞句,V=動詞,VS1=一段動詞語幹,VS=動詞語幹,VE=動詞語尾,N=名詞,P=助詞,AX=助動詞列(以上,非終端記号).vs\_1=一段動詞語幹,vs\_5k=カ行五段動詞語幹,vs\_5m=マ行五段動詞語幹,vs\_5w=ワ行五段動詞語幹,ve\_i=動詞語尾イ,ve\_ki=動詞語尾キ,ve\_ma=動詞語尾マ,noun=名詞,postp=助詞,aux=助動詞(以上,終端記号(品詞)).}.$CFG_1$において,書き換え規則の右側にある数字は規則番号を表わす.また,終端記号は品詞である.$CFG_1$から通常のLR表作成アルゴリズムによって作成されたLR表を図~\ref{fig:lalr_table}に示す.但し,図~\ref{fig:lalr_table}のLR表はaction部のみであり,goto部は省略されている.今,このLR表に図~\ref{fig:lalr_con}の接続表に記述された接続制約を反映させることを考える.図~\ref{fig:lalr_con}の接続表において,行列要素$(i,j)$が1なら$i$行目の品詞$x_i$と$j$列目の品詞$x_j$がこの順序で連接可能であることを示し,$(i,j)$が0なら$x_i$と$x_j$が連接不可能であることを意味する.また,``\$''は文末を表わす特殊な品詞である.\begin{figure}[htbp]\begin{center}\begin{tabular}[t]{lc}S$\rightarrow$VP&(1)\\[-1mm]VP$\rightarrow$PPVP&(2)\\[-1mm]PP$\rightarrow$VPPP&(3)\\[-1mm]VP$\rightarrow$VAX&(4)\\[-1mm]V$\rightarrow$VSVE&(5)\\[-1mm]V$\rightarrow$VS1&(6)\\[-1mm]PP$\rightarrow$NP&(7)\\[-1mm]N$\rightarrow$noun&(8)\\[-1mm]P$\rightarrow$postp&(9)\\\end{tabular}\hspace*{20mm}\begin{tabular}[t]{lc}VS1$\rightarrow$vs\_1&(10)\\[-1mm]VS$\rightarrow$vs\_5k&(11)\\[-1mm]VS$\rightarrow$vs\_5m&(12)\\[-1mm]VS$\rightarrow$vs\_5w&(13)\\[-1mm]VE$\rightarrow$ve\_i&(14)\\[-1mm]VE$\rightarrow$ve\_ki&(15)\\[-1mm]VE$\rightarrow$ve\_ma&(16)\\[-1mm]AX$\rightarrow$AXaux&(17)\\[-1mm]AX$\rightarrow$aux&(18)\\\end{tabular}\bigskip\caption{文法の例:$CFG_1$}\label{fig:lalr_gra}\end{center}\end{figure}\begin{figure}[htbp]\footnotesize\begin{center}\begin{tabular}{|r|cccc@{}cccccc@{}c|}\hline&vs\_1&vs\_5k&vs\_5m&vs\_5w&ve\_i&ve\_ki&ve\_ma&aux&noun&postp&\$\\\hline0&sh1&sh4&sh3&sh2&&&&&sh11&&\\1&&&&&&&&re10&&&\\2&&&&&re13&*re13&*re13&&&&\\3&&&&&*re12&*re12&re12&&&&\\4&&&&&*re11&re11&*re11&&&&\\5&&&&&&&&sh13&&&\\6&sh1&sh4&sh3&sh2&&&&&sh11&&\\7&&&&&&&&&&sh16&\\8&&&&&&&&re6&&&\\9&&&&&sh20&sh19&sh18&&&&\\10&sh1&sh4&sh3&sh2&&&&&sh11&&re1\\11&&&&&&&&&&re8&\\12&&&&&&&&&&&acc\\13&re18&re18&re18&re18&&&&re18&re18&&re18\\14&re4&re4&re4&re4&&&&sh24&re4&&re4\\15&re2/sh1&re2/sh4&re2/sh3&re2/sh2&&&&&re2/sh11&&re2\\16&re9&re9&re9&re9&&&&&re9&&\\17&re7&re7&re7&re7&&&&&re7&&\\18&&&&&&&&re16&&&\\19&&&&&&&&re15&&&\\20&&&&&&&&re14&&&\\21&&&&&&&&re5&&&\\22&sh1&sh4&sh3&sh2&&&&&sh11&&\\23&re3/sh1&re3/sh4&re3/sh3&re3/sh2&&&&&re3/sh11&&\\24&re17&re17&re17&re17&&&&re17&re17&&re17\\\hline\end{tabular}\caption{$CFG_1$から生成されるLR表(action部のみ)}\label{fig:lalr_table}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\small\begin{tabular}{c|ccccccccccc}&\makebox[6mm]{vs\_1}&\makebox[6mm]{vs\_5k}&\makebox[6mm]{vs\_5m}&\makebox[6mm]{vs\_5w}&\makebox[6mm]{ve\_i}&\makebox[6mm]{ve\_ki}&\makebox[6mm]{ve\_ma}&\makebox[6mm]{noun}&\makebox[6mm]{postp}&\makebox[6mm]{aux}&\makebox[6mm]{\$}\\\hlinevs\_1&0&0&0&0&0&0&0&1&0&1&1\\vs\_5k&0&0&0&0&0&1&0&0&0&0&0\\vs\_5m&0&0&0&0&0&0&1&0&0&0&0\\vs\_5w&0&0&0&0&1&0&0&0&0&0&0\\ve\_i&0&0&0&0&0&0&0&0&0&1&0\\ve\_ki&0&0&0&0&0&0&0&0&0&1&0\\ve\_ma&0&0&0&0&0&0&0&0&0&1&0\\noun&1&1&1&1&0&0&0&1&1&1&1\\postp&1&1&1&1&0&0&0&1&1&0&1\\aux&1&1&1&1&0&0&0&1&1&1&1\\\end{tabular}\bigskip\caption{接続表の例}\label{fig:lalr_con}\end{center}\end{figure}$CFG_1$では,VSを構成する品詞としてvs\_5k,vs\_5m,vs\_5wが,VEを構成する品詞としてve\_i,ve\_ki,ve\_maがあるので,規則(5)から,Vを構成する品詞列は$3\times3=9$通りあることがわかる.これに対し,図~\ref{fig:lalr_con}の接続表を考慮した場合,これら9通りの品詞列のうち``vs\_5kve\_ki'',``vs\_5mve\_ma'',``vs\_5wve\_i''の3組だけが接続制約を満たす.したがって,これら以外の品詞列は受理すべきではない.ここで,図~\ref{fig:lalr_table}のLR表の状態$4$,先読み記号ve\_iの欄にある$\lrtre{11}$という\reactに着目する.$\lrtre{11}$は,$CFG_1$における規則(11)に対応した部分木を作ることを意味する(図~\ref{fig:re_act}).ところが,先読み記号がve\_iであることから,``vs\_5kve\_i''という品詞列に対してこの動作を実行することになるが,この品詞列は図~\ref{fig:lalr_con}の接続制約に違反する.同様に,図~\ref{fig:lalr_table}において,``*''のついた動作もまた接続制約に違反する動作である.したがって,このような動作を事前にLR表から削除しておけば,接続制約に違反する解析結果の生成を防ぐことができる.\begin{figure}[tbp]\begin{center}\begin{epsf}\epsfile{file=act.eps,height=28mm}\end{epsf}\begin{draft}\atari(76,28)\end{draft}\caption{接続制約に違反する\react}\label{fig:re_act}\end{center}\end{figure}接続制約に違反する動作をLR表から除去する方法としては,まず図~\ref{fig:lalr_table}のように接続制約を考慮しないLR表を作成してから,接続制約に違反する動作をLR表から削除する方法が考えられる.しかしながら,文法の規模が大きくなると,接続制約を考慮しないLR表の大きさが非常に大きくなるために望ましくない.これに対して,本ツールキットでは,LR表を作成する段階で接続制約を考慮し,接続制約に違反する動作を除いたLR表を直接生成する方法を採用している.接続制約を組み込みながらLR表を作成するアルゴリズムの詳細については文献~\cite{li:96:f}を参照していただきたい.接続制約をLR表に組み込む主な利点としては以下の3つが挙げられる.\begin{enumerate}\item接続制約を事前に組み込んだLR表を用いて解析を行った場合,解析時には品詞間の連接可能性をチェックする必要がないので,解析時の効率を上げることができる.\item接続制約に違反する構文木を生成する動作をLR表から除去することにより,LR表の状態数・動作数を大幅に減らし,メモリ使用量を小さくすることができる.\item品詞間の接続制約は,接続表として記述してからLR表に組み込む代わりに,書き換え規則の細分化によって組み込むこともできる.例えば,$CFG_1$の例では,規則(5)の代わりに,図~\ref{fig:rules}に挙げる3つの規則を導入すれば,接続制約を満たす品詞列のみ受理することができる.\begin{figure}[tbp]\begin{center}\begin{tabular}[c]{lc}V$\rightarrow$VSVE&(5)\\\end{tabular}\hspace*{5mm}$\Rightarrow$\hspace*{5mm}\begin{tabular}[c]{lc}V$\rightarrow$vs\_5kve\_ki&(5-1)\\[-1mm]V$\rightarrow$vs\_5mve\_ma&(5-2)\\[-1mm]V$\rightarrow$vs\_5wve\_i&(5-3)\\[-1mm]\end{tabular}\medskip\caption{接続制約を反映した文法規則}\label{fig:rules}\end{center}\end{figure}しかしながら,このように接続制約を組み込んだ文法を作成することは,規則数が組み合わせ的に増大するために望ましくない.品詞間の接続制約は,接続表として文法とは独立に記述し,LR表を作成する段階で接続制約を組み込む方が,最終的に得られるLR表の状態数・動作数も少なく,メモリ使用量を小さくすることができる.また,文法記述者の負担も減らすことができる.\end{enumerate}\subsection{評価実験}\label{sec:tblgenexam}LR表に品詞間の接続制約を組み込む効果を調べる簡単な実験を行った.本ツールキットに付属されている日本語解析用の文法と接続表を用いて,品詞間の接続制約を組み込む場合と組み込まない場合のLR表を比較した.使用した文法の規則数は1,408,非終端記号数は218,終端記号数は537である.実験に使用した計算機はSunUltraEnterprise250Server(主記憶2GB,CPU周波数300MHz)である.結果を表~\ref{tab:tblgeneval}に示す.\begin{table}[htbp]\begin{center}\caption{品詞間の接続制約をLR表に組み込むことの効果}\label{tab:tblgeneval}\bigskip\begin{tabular}{c|ccc}&\makebox[15mm]{CPU時間}&\makebox[15mm]{状態数}&\makebox[15mm]{動作数}\\\hline接続制約なし&42.1(sec.)&1,720&379,173\\接続制約あり&45.4(sec.)&1,670&197,337\\\hline\end{tabular}\end{center}\end{table}表~\ref{tab:tblgeneval}において,「CPU時間」はLR表作成に要したCPU時間を,「状態数」は作成されたLR表の状態の数を,「動作数」は作成されたLR表の動作(\shactと\react)の数を示している.この表から,品詞間の接続制約を組み込むことによって,状態数はほとんど変わらないが,動作数は約半分に減ることがわかる.したがって,LR表のために必要なメモリ使用量を大幅に縮小することができる.一方,「CPU時間」は,接続制約を考慮する場合としない場合とでそれほど大きな差は見られなかった.一般に,接続制約を組み込む場合は,品詞間の連接可能性を調べながらLR表を作成するために,それに要する時間は長くなることが予想される.しかしながら,接続制約に違反する無駄なアイテムが生成されなくなることから,LR表作成に要する時間が短縮される効果も生じる.そのため,LR表作成時間が劇的に増大するわけではないことが実験的に確かめられた. \section{MSLRパーザ} \label{sec:parser}本節では,MSLRパーザの機能と特徴について概説する.\subsection{形態素解析と構文解析を同時に行う機能}\label{sec:analysis}\ref{sec:introduction}節で述べたように,MSLRパーザは形態素解析と構文解析を同時に行う\cite{tanaka:95:a}.また,形態素・構文解析結果として構文木を出力する.例えば,図~\ref{fig:lalr_gra}の文法($CFG_1$),図~\ref{fig:lalr_con}の接続表,図~\ref{fig:parser_dic}の辞書を用いたときの「あいこにたのまれた」という文の解析結果(構文木)を図~\ref{fig:parsetree1}に示す.実際には,MSLRパーザは以下のような括弧付けで表現された構文木を出力する.\baselineskip=0.6\normalbaselineskip\begin{verbatim}[<S>,[<VP>,[<PP>,[<N>,[noun,あいこ]],[<P>,[postp,に]]],[<VP>,[<V>,[<VS>,[vs_5m,たの]],[<VE>,[ve_ma,ま]]],[<AX>,[<AX>,[aux,れ]],[aux,た]]]]]\end{verbatim}\baselineskip=\normalbaselineskip\noindent解析結果が複数ある場合には,その中から$N$個の構文木をランダムに選んで出力する.ただし,\ref{sec:pglr}項で述べるPGLRモデルを用いる場合には,構文木の生成確率の大きい上位$N$個の構文木を取り出すことができる.また,$N$の値は起動時のオプション指定により変更できる.\begin{figure}[tbp]\begin{center}\begin{tabular}{l|l}単語&\multicolumn{1}{c}{品詞}\\\hlineあ&vs\_5k,vs\_5w\\[-1mm]あいこ&noun\\[-1mm]い&ve\_i\\[-1mm]き&ve\_ki\\[-1mm]た&aux\\[-1mm]\end{tabular}\hspace*{15mm}\begin{tabular}{l|l}単語&\multicolumn{1}{c}{品詞}\\\hlineたの&vs\_5m\\[-1mm]に&postp,vs\_1\\[-1mm]の&vs\_5m\\[-1mm]ま&ve\_ma\\[-1mm]れ&aux\\[-1mm]\end{tabular}\caption{辞書の例}\label{fig:parser_dic}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=tree1.eps,width=0.35\textwidth}\end{epsf}\begin{draft}\atari(49,36)\end{draft}\caption{「あいこにたのまれた」の解析結果}\label{fig:parsetree1}\end{center}\end{figure}MSLRパーザのアルゴリズムは,一般化LR法の構文解析アルゴリズムを拡張したものである.一般化LR法が通常は品詞列を入力とするのに対して,MSLRパーザは文字列を入力とし,辞書引きによる単語分割と構文解析を同時に行う.以下,一般化LR法とMSLRパーザの解析アルゴリズムとの違いを簡単に説明する.MSLRパーザの解析アルゴリズムの詳細については文献~\cite{tanaka:95:a}を参照していただきたい.\begin{enumerate}\item入力文が与えられたとき,品詞と品詞の間に位置番号をつける代わりに,図~\ref{fig:mslr_posit}のように入力文の文字間に位置番号をつける.\begin{figure}[htb]\begin{center}\begin{tabular}{cc@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c}&&あ&&い&&こ&&に&&た&&の&&ま&&れ&&た\\[-2mm]{\footnotesize(位置番号)}&0&&1&&2&&3&&4&&5&&6&&7&&8&&9\\\end{tabular}\phantom{位置番号}\bigskip\caption{MSLRパーザにおける位置番号のつけ方}\label{fig:mslr_posit}\end{center}\end{figure}\item解析が位置$i$まで進んだとき,位置$i$から始まる全ての単語を辞書引きし,その結果をスタックに登録する.例えば,図~\ref{fig:mslr_posit}の例文を図~\ref{fig:parser_dic}の辞書を用いて解析した場合,位置$0$では``(あ,vs\_5k)'',``(あ,vs\_5w)'',``(あいこ,noun)''という3つの品詞付けの結果が解析スタックに登録される.これらの品詞付けの結果は,通常の一般化LR法における多品詞語と全く同様に取り扱われる.\item\shactを実行して先読み記号をスタックにプッシュする際には,その品詞を構成する文字列の一番最後の位置まで解析スタックを延ばす.例えば,位置$0$でvs\_5kという先読み記号(品詞)をプッシュする際には,vs\_5kが位置$0$〜$1$に位置する単語「あ」の品詞であるので,スタックの先頭を位置$1$まで延ばす.そして,位置$1$から始まる単語の辞書引き結果をもとに以後の解析を進める.同様に,位置$0$でnounという品詞をプッシュする際には,nounが位置$0$〜$3$に位置する単語「あいこ」の品詞であるので,スタックの先頭を位置$3$まで延ばす.以後の解析は,位置$3$から始まる単語の辞書引き結果をもとに進められる.\end{enumerate}例文「あいこにたのまれた」を解析する際,形態素解析結果の候補としては以下の2つがある.\begin{quote}a.~(あいこ,noun)(に,postp)(たの,vs\_5m)(ま,ve\_ma)(れ,aux)(た,aux)\\b.~(あいこ,noun)(に,vs\_1)(た,aux)(の,vs\_5m)(ま,ve\_ma)(れ,aux)(た,aux)\end{quote}文法$CFG_1$はb.の品詞列を受理しないが,形態素解析と構文解析を逐次的に行う方法では,形態素解析結果の候補としてa.,b.ともに出力し,それぞれの品詞列に対して構文解析が試みられる.これに対し,MSLRパーザは形態素解析と構文解析を同時に行い,文法に記述された構文的な制約で排除される形態素解析の結果を早期に取り除くことができるため,解析効率がよい.例えば,位置$3$まで解析が進んだとき,「あいこ」という文字列が図~\ref{fig:parsetree1}の点線で囲まれた部分木を構成することがわかっている.このとき,位置$3$から始まる単語を辞書引きする際に,品詞列b.は受理されないという文法的な制約から,``(に,vs\_1)''という品詞付けが適切でないことがわかる.具体的には,位置$3$におけるスタックトップの状態$7$において,``vs\_1''を先読み記号とする動作が図~\ref{fig:lalr_table}のLR表に存在しないことから,``(に,vs\_1)''という辞書引き結果を含む解析はこの時点で中断される.したがって,誤りである形態素解析結果の候補b.を早期に取り除くことができる.このことは,MSLRパーザの大きな特徴の1つである.\subsection{括弧付けによる制約のついた入力文を解析する機能}\label{sec:brackets}MSLRパーザは括弧付けによる制約を加えた文を解析することができる.具体的には,MSLRパーザは次のような文字列を入力として,括弧付けに矛盾しない解析結果のみを出力する機能を持つ.\begin{center}\verb|[*,太郎が渋谷で買った]本を借りた|\end{center}この例では括弧による制約はひとつしかないが,括弧による制約は複数あってもよい.また,複数の制約が入れ子になっても構わない.以下に例を挙げる.\begin{center}\verb|[*,太郎が[*,渋谷で買った]][*,本を借りた]|\end{center}上記の入力例において,``\verb|*|''は括弧で示された範囲を支配する非終端記号に特に制約がないことを表わしている.これに対し,``\verb|*|''の位置に非終端記号を指定することにより,括弧に矛盾する解析結果だけでなく,括弧で囲まれた文字列を支配する非終端記号を限定することもできる.例えば,以下のような入力に対して,MSLRパーザは「あいこに」を支配する非終端記号が``\verb|<PP>|''となる解析結果のみを出力する.\begin{center}\verb|[<PP>,あいこに]たのまれた|\end{center}括弧付けによる制約を取り扱う機能は,前編集によりあらかじめ部分的な制約を付加する際に利用することができる.構文解析を完全に自動で行うのではなく,インタラクティブに人間の知識を利用しながら半自動的に構文解析を行うことは,解析精度を向上させる有効な手段のひとつである.解析を行う前に,係り受けに関する部分的な制約をうまく人手で与えれば,構文的曖昧性を激的に減らすことができ,結果として構文解析の精度を飛躍的に向上させることが期待できる.\subsection{PGLRモデルを取り扱う機能}\label{sec:pglr}PGLRモデル~\cite{inui:98:a}は,一般化LR法の枠組に基づいて構文木の生成確率を与える確率モデルである.PGLRモデルにおける構文木の生成確率は,構文木を作り出す際に実行されるLR表上の動作(\shactもしくは\react)の実行確率の積として推定される.この生成確率は,生成される複数の構文木の中から最も正しい構文木を選択する構文的曖昧性解消に利用できる.ここで注意すべき点は,PGLRモデルによって与えられる構文木の生成確率は品詞を葉とする構文木の生成確率だということである.すなわち,単語の導出確率や単語の共起関係などの語彙的な統計情報は考慮されていない\footnote{PGLRモデルと,PGLRモデルとは独立に学習された語彙的な統計情報を組み合わせて構文解析を行う試みも行われている~\cite{sirai:98:b}.}.LR表の動作の実行確率には若干の文脈依存性が反映されていると考えられる.したがって,PGLRモデルは,文脈自由な言語モデルである確率文脈自由文法よりも推定パラメタ数は多くなるが,文脈依存性が考慮されたより精密なモデルを学習することが可能であり,構文的曖昧性解消の精度も向上することが実験的にも確かめられている~\cite{sornlertlamvanich:99:a}.本ツールキットでは,PGLRモデルを学習する機能,及びPGLRモデルによる構文木の生成確率を計算する機能を備えている.以下,それぞれの機能の概要について説明する.\subsubsection{PGLRモデルの学習について}\label{sec:pglrlearning}PGLRモデルの学習は,LR表上の各動作の実行確率を推定することにより行われる.動作の実行確率の推定に必要なものは,構文木が付与された構文木付きコーパスである.まず,例文に付与された構文木に対して,構文木を生成する際に実行するLR表上の動作の使用回数$C(s_i,l_j,a_k)$を数え上げる.ここで,$s_i$はLR表における状態を,$l_j$は先読み記号を,$a_k$は動作を表わし,$C(s_i,l_j,a_k)$は,状態が$s_i$で先読み記号が$l_j$のときに動作$a_k$が実行された回数を表わす.LR表上の各動作の実行確率は式(\ref{eq:act_prob1})(\ref{eq:act_prob2})によって推定する.\begin{eqnarray}\label{eq:act_prob1}P(l_j,a_k|s_i)=\frac{C(s_i,l_j,a_k)}{\sum_{j,k}C(s_i,l_j,a_k)}\;\;if\;\;s_i\inS_s\\[2mm]\label{eq:act_prob2}P(a_k|s_i,l_j)=\frac{C(s_i,l_j,a_k)}{\sum_{k}C(s_i,l_j,a_k)}\;\;if\;\;s_i\inS_r\end{eqnarray}式(\ref{eq:act_prob1})(\ref{eq:act_prob2})において,$S_s$は\shact直後に到達する状態の集合,$S_r$はそれ以外の状態の集合を表わす.LR表における全ての状態は$S_s$または$S_r$のどちらか一方に必ず属する.図~\ref{fig:lalr_table}のLR表の例では,$S_s=\{0,1,2,3,4,11,13,16,18,19,20,24\}$,$S_r=\{5,6,7,8,9,10,12,14,15,17,21,22,23\}$である.初期状態$0$は$S_s$に属することに注意していただきたい.式(\ref{eq:act_prob1})は,$s_i\inS_s$のときには,状態$s_i$で実行されうる全ての動作で実行確率を正規化することを意味する.言い換えれば,LR表における同じ行に属する動作の実行確率の和は1となる.例えば,図~\ref{fig:lalr_table}のLR表の状態$0$にある5つの\shactは,これらの実行確率の和が1になるように正規化される.これに対して式(\ref{eq:act_prob2})は,$s_i\inS_r$のときには,状態$s_i$,先読み記号$l_i$のときに実行されうる全ての動作で実行確率を正規化することを意味する.すなわち,LR表における同じマス目に属する動作の実行確率の和は1となる.例えば,図~\ref{fig:lalr_table}のLR表の状態$15$,先読み記号vs\_1の欄にある2つの動作($\lrtre{2}と\;\lrtsh{1}$)の実行確率は,これらの和が1になるように正規化される.また,$S_r$に属する状態の場合,shift/reduceコンフリクトがない限り,その状態に属する動作の実行確率は必ず1となる.本ツールキットにおけるPGLRモデル学習の手続きは以下の通りである.まず,MSLRパーザは,構文解析を行う際に,LR表の各動作の使用回数を出力する機能を持っている.さらに,\ref{sec:brackets}項で述べた括弧付けによる制約を取り扱う機能を利用し,訓練用コーパスに付与された構文木を入力として解析を行うことにより,訓練用コーパス中の構文木を生成する際に使われた各動作の使用回数$C(s_i,l_j,a_k)$を求めることができる.また本ツールキットには,このようにして得られた$C(s_i,l_j,a_k)$から式(\ref{eq:act_prob1})(\ref{eq:act_prob2})に従って各動作の実行確率を推定し,その実行確率が付与されたLR表を作成するツールが含まれている.このツールは,パラメタ推定の平滑化のために,LR表に登録されている全ての動作の実行回数にある一定の頻度を加える機能を備えている.\subsubsection{PGLRモデルを用いた解析について}\label{sec:pglranalysis}MSLRパーザは,解析結果となる構文木とそのPGLRモデルに基づく生成確率を同時に出力することができる.また,生成確率の高い順に構文木を並べて出力することができる.すなわち,PGLRモデルに基づく生成確率を用いた解析結果の優先順位付けを行うことができる.MSLRパーザは,まず文法が受理する全ての解析結果を求め,それらをまとめた圧縮統語森を生成する.次に,この圧縮統語森を展開して個々の構文木を出力する際に,PGLRモデルに基づく構文木の生成確率を考慮し,生成確率の上位の構文木から優先して出力する.解析の途中で生成確率の低い部分木を除去するなどの枝刈りを行っていないため,生成確率の上位$N$位の構文木が必ず得られることが保証される代わりに,長文など構文的曖昧性が非常に多い文を解析する際にメモリ不足によって解析に失敗する可能性も高い.したがって,我々は解析途中で生成確率の低い部分木を除去して探索空間を絞り込む機構も必要であると考えている.SornlertlamvanichはPGLRモデルを利用した効率の良い枝刈りのアルゴリズムを提案しているが~\cite{sornlertlamvanich:98:a},現在公開しているMSLRパーザには実装されていない.\subsection{解析例}\label{sec:exp}本項では,MSLRパーザを用いた簡単な日本語文解析実験について報告する.実験用コーパスとして,ATRが作成した日本語対話コーパス~\cite{morimoto:94:a}を使用した.実験に用いた文法は,対話文解析用の文脈自由文法で,非終端記号数172,終端記号数441,規則数は860である~\cite{tanaka:97:a}.今回の実験では,日本語対話コーパス約20,000文のうち,上記の文法による構文木が付与された例文10,020文を使用した.辞書及び接続表は,これら10,020文から自動的に作成した.評価用テキストとして,単語数4〜14,15以上の文をランダムに1000文ずつ取り出し,それぞれSetA,SetBとした.これらの評価用例文について,分かち書きされていない文字列を入力とし,MSLRパーザを用いて形態素・構文解析を行った.また,評価用テキスト以外の例文約9000文からPGLRモデルを学習し,そのPGLRモデルに基づく構文木の生成確率によって解析結果の順位付けを行った.使用した計算機は,\ref{sec:tblgenexam}項の実験と同じSunUltraEnterprise250Serverである.実験結果を表~\ref{tab:expparser1},\ref{tab:expparser2}に示す.また,解析結果の具体例を付録~\ref{sec:appendix}に示す.\begin{table}[tbp]\begin{center}\caption{解析実験の結果}\label{tab:expparser1}\medskip\begin{tabular}[c]{l|cc}&SetA&SetB\\\hline平均単語数&8.12&19.6\\平均解析木数&13.1&15,500\\平均解析時間(ms)&6.53&27.7\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\begin{center}\caption{解析実験の結果(文正解率)}\label{tab:expparser2}\medskip\begin{tabular}[c]{|l|cc|cc|}\hline&&&&\\[-2mm]&\multicolumn{2}{c|}{【形態素解析の文正解率】}&\multicolumn{2}{c|}{【構文解析の文正解率】}\\[0.5mm]$n$&\makebox[15mm]{SetA}&\makebox[15mm]{SetB}&\makebox[15mm]{SetA}&\makebox[15mm]{SetB}\\[0.5mm]\hline1&88.3\%&63.7\%&80.1\%&36.3\%\\[0.5mm]2&94.4\%&75.1\%&90.6\%&50.4\%\\[0.5mm]3&96.8\%&80.6\%&95.0\%&58.8\%\\[0.5mm]4&97.6\%&83.6\%&96.4\%&65.0\%\\[0.5mm]5&98.8\%&87.2\%&97.6\%&69.6\%\\\hline\end{tabular}\end{center}\end{table}表~\ref{tab:expparser1}において,「平均解析木数」は1文あたりに生成される構文木の平均であり,「平均解析時間」は1文の解析に要した時間(単位はミリ秒)の平均を表わしている.SetAのような短い文の場合は7ミリ秒程度,SetBのような長めの文の場合でも27ミリ秒程度で解析を行うことができる.また,表~\ref{tab:expparser2}の【形態素解析の文正解率】は,PGLRモデルに基づく構文木の生成確率の上位$n$位の解析結果の中に,単語分割と品詞付けの結果がコーパスに付加されたものと一致する構文木が含まれる文の割合を表わしている.同様に【構文解析の文正解率】は,上位$n$位の解析結果の中にコーパスに付加されたものと一致する構文木が含まれる文の割合を示している.この表から,例えば生成確率の1位の構文木について,SetAでは約80\%,SetBでは約36\%の文に対して正しい形態素・構文解析結果が得られたことがわかる.今回の実験で使用したコーパスがドメインの限られたコーパスであり,また辞書と接続表を評価用テキストと訓練用テキストの両方を用いて作成したこともあり,比較的良い結果が得られている. \section{おわりに} \label{sec:conclusion}本論文では,我々が現在公開している自然言語解析用ツール「MSLRパーザ・ツールキット」の機能と特徴について述べた.最後に,本ツールキットの今後の開発方針について述べる.まず,複数の接続制約を同時に組み込むLR表作成器,さらにそれを用いて解析を行うパーザの実装を進めている.現在のツールでは,LR表に組み込める接続制約の数は1種類のみである.しかしながら,例えば音声認識と同時に構文解析を行う場合,品詞間の接続制約だけでなく,音素間の接続制約も同時に利用した方が効率の良い解析ができると考えられる~\cite{imai:99:a}.この場合,音素と品詞の2つの接続制約をLR表に組み込む必要がある.また,これに合わせて,MSLRパーザの解析アルゴリズムも変更する必要がある.現在,複数の制約を取り扱うLR表作成器およびMSLRパーザのプロトタイプは完成しているが,効率の面でまだ問題があり,改良を進めている.次に,よりロバストな解析ができるようにパーザを拡張することが挙げられる.特に,辞書にない単語(未知語)が入力文中に現われたときには,原則的には解析に失敗する.現在のMSLRパーザは,カタカナが続いた文字列を未知語として登録するなど,非常に簡単な未知語処理機能が付加されているが,まだ改良の余地も多い.また,解析に失敗した場合でも,部分的な解析結果を表示する機能なども追加していきたいと考えている.最後に,本ツールキットに付属の日本語解析用の文法,辞書,接続表を改良することが今後の課題として挙げられる.これらを用いて新聞記事の解析を行った場合,解析に成功して何らかの結果を返すことのできる文の割合は約85\%である.解析に失敗する原因としては,前述の未知語処理の不完全さや文法規則の不備によるものが多い.より多様な文を解析できるようにするためには,特に文法を改良していかなければならない.また,本ツールキットに付属の文法を用いて解析を行った場合,PGLRモデルを学習するための構文木付きコーパスが存在しないために,PGLRモデルに基づく生成確率によって解析結果に優先順位を付けることはできない\footnote{公開されているツールでは,付属の文法を用いて解析を行った場合でも,単語数最小法,文節数最小法のヒューリスティクスに基づく解析結果の優先順位付けを行うことができる.}.現在,構文木付きコーパスを必要としないPGLRモデルの学習方法について研究をすすめている.\medskip\acknowledgmentMSLRパーザ・ツールキットは多くの方の協力を得て開発されました.李輝氏,日本アイ・ビー・エム株式会社の綾部寿樹氏には初期のLR表作成器を実装していただきました.九州工業大学の乾健太郎助教授には,PGLRモデルの理論を提案していただきました.Sussex大学のJohnCarroll氏,NationalElectronicsandComputerTechnologyCenterのSornlertlamvanichVirach氏には,MSLRパーザの実装に関する貴重な助言をいただきました.以上の皆様を始め,本ツールキットの開発に御協力いただきました全ての人々に感謝いたします.MSLRパーザの辞書引きモジュールは,奈良先端科学技術大学院大学・松本研究室で開発された高速文字列検索システムSUFARYをベースに作成しています.SUFARYの転用を許可下さいました松本研究室の皆様に深く感謝いたします.本ツールキットに付属の日本語解析用の辞書は,日本電子化辞書研究所が作成したEDR日本語単語辞書~\cite{edr:95:a}をもとに構築されています.本辞書の公開を許可下さいました日本電子化辞書研究所の皆様に深く感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1995年同大学院理工学研究科修士課程修了.1998年同大学院情報理工学研究科博士課程修了.同年同大学院情報理工学研究科計算工学専攻助手,現在に至る.博士(工学).統計的自然言語解析に関する研究に従事.情報処理学会会員.}\bioauthor{植木正裕}{1995年東京工業大学工学部情報工学科卒業.1997年同大学院情報理工学研究科修士課程修了.2000年同大学院情報理工学研究科博士課程満期退学.同年4月同大学院情報理工学研究科計算工学専攻技術補佐員.同年7月国立国語研究所日本語教育センター研究員,現在に至る.自然言語解析に関する研究に従事.情報処理学会会員.}\bioauthor{橋本泰一}{1997年東京工業大学工学部情報工学科卒業.1999年同大学院情報理工学研究科計算工学専攻修士課程修了.同年同大学院情報理工学研究科計算工学専攻博士課程進学,在学中.統計的自然言語解析に関する研究に従事.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科計算工学専攻助教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{田中穂積}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\appendix \section{MSLRパーザによる解析例} \label{sec:appendix}\ref{sec:exp}項の実験で得られた解析結果の例を挙げる.まず,以下の例文(1),(2),(3)を解析し,PGLRモデルによる生成確率の最も大きい解析結果のみを表示させたときのMSLRパーザの出力を示す.\begin{enumerate}\item七日までのご予約ですので八日と九日の分でございますか\item十日と十一日のご予約を十一日と十二日に変更なさりたいわけですね\item御社の場合には割引価格が適用されますので朝食も含めて割と良いお部屋を百九十三ドルでご提供できます\end{enumerate}\begin{flushleft}\bf$\bullet$MSLRパーザの出力\end{flushleft}{\footnotesize\begin{verbatim}readingthegrammarfile`atr.gra'DonereadingLRtablefile`atr.prtb.set2'Done###1###$TAC23034-0030-3七日までのご予約ですので八日と九日の分でございますかaccept\end{verbatim}\noindent\discretionaries|~!@$\path|[<sent>,[<cl>,[<adv-cl>,[<verb>,[<verb/ga>,[<np>,[<n-sahen>,[<mod-n>,[<pp>,[<np>,[<n-date&time>,[<n-day>,[meisi-hi,七日]]]],[<p-kaku-optn>,[p-kaku-made,まで]]],[<p-rentai>,[p-rentai-no,の]]],[<n-sahen>,[<n-sahen/ga-o>,[<prefix>,[prefix-go,ご]],[sahen-meisi/ga-o,予約]]]]],[<aux>,[<auxstem>,[auxstem-desu,で]],[<infl>,[infl-spe-su,す]]]]],[<p-conj-advcl>,[p-conj-syusi,ので]]],[<cl>,[<vaux>,[<vaux>,[<verb>,[<verb/ga>,[<np>,[<n-hutu>,[<mod-n>,[<np>,[<n-date&time>,[<mod-n>,[<np|\\\path|>,[<n-date&time>,[<n-day>,[meisi-hi,八日]]]],[<p-para>,[p-para-to,と]]],[<n-date&time>,[<n-day>,[meisi-hi,九日]]]]],[<p-rentai>,[p-rentai-no,の]]],[<n-hutu>,[hutu-meisi-post,分]]]],[<aux>,[aux-de,で]]]],[<aux>,[<auxstem>,[auxstem-copula-masu,ございま]],[<infl>,[infl-spe-su,す]]]],[<aux>,[aux-sfp-ka,か]]]]]]5.716416e-23|\begin{verbatim}total1314CPUtime0.2sec###2###$TAS13004-0100-1十日と十一日のご予約を十一日と十二日に変更なさりたいわけですねaccept\end{verbatim}\noindent\path|[<sent>,[<cl>,[<vaux>,[<verb>,[<verb/ga>,[<np>,[<vaux>,[<vaux>,[<verb>,[<verb/ga>,[<pp-o>,[<np>|\\\path|,[<n-sahen>,[<mod-n>,[<np>,[<n-date&time>,[<mod-n>,[<np>,[<n-date&time>,[<n-day>,[meisi-hi,十日]]]],[<p-para>,[p-para-to,と]]],[<n-date&time>,[<n-day>,[meisi-hi,十一日]]]]],[<p-rentai>,[p-rentai-no,の]]],[<n-sahen>,[<n-sahen/ga-o>,[<prefix>,[prefix-go,ご]],[sahen-meisi/ga-o,予約]]]]],[p-kaku-o,を]],[<verb/ga-o>,[<mod-v>,[<pp>,[<np>,[<n-date&time>,[<mod-n>,[<np>,[<n-date&time>,[<n-day>,[meisi-hi,十一日]]]],[<p-para>,[p-para-to,と]]],[<n-date&time>,[<n-day>,[meisi-hi,十二日]]]]],[<p-kaku-optn>,[p-kaku-ni,に]]]],[<n-sahen/ga-o>,[sahen-meisi/ga-o,変更]]]]],[<aux>,[<auxstem>,[auxstem-sahen-5-r,なさ]],[<infl>,[infl-5-ri,り]]]],[<aux>,[<auxstem>,[auxstem-wish,た]],[<infl>,[infl-adj-i,い]]]],[<np>,[<n-hutu>,[n-keisiki,わけ]]]],[<aux>,[<auxstem>,[auxstem-desu,で]],[<infl>,[infl-spe-su,す]]]]],[<aux>,[aux-sfp-ne,ね]]]]]6.846102e-32|\begin{verbatim}total2583CPUtime0.3sec###3###$TAS12006-0080-1御社の場合には割引価格が適用されますので朝食も含めて割と良いお部屋を百九十三ドルでご提供できますaccept\end{verbatim}\noindent\path|[<sent>,[<cl>,[<adv-cl>,[<vaux>,[<vaux>,[<vaux>,[<verb>,[<verb/o>,[<mod-v>,[<pp>,[<pp>,[<np>,[<|\\\path|n-hutu>,[<mod-n>,[<np>,[<n-hutu>,[hutu-meisi,御社]]],[<p-rentai>,[p-rentai-no,の]]],[<n-hutu>,[hutu-meisi,場合]]]],[<p-kaku-optn>,[p-kaku-ni,に]]],[<p-kakari>,[p-kakari-wa,は]]]],[<verb/o>,[<pp-ga>,[<np>,[<n-hutu>,[<n-sahen>,[<n-sahen/ga-o>,[sahen-meisi/ga-o,割引]]],[<n-hutu>,[hutu-meisi,価格]]]],[p-kaku-ga,が]],[<n-sahen/ga-o>,[sahen-meisi/ga-o,適用]]]]],[<aux>,[aux-suru-sa,さ]]],[<aux>,[<auxstem-deac>,[auxstem-deac-reru,れ]]]],[<aux>,[<auxstem>,[auxstem-masu,ま]],[<infl>,[infl-spe-su,す]]]],[<p-conj-advcl>,[p-conj-syusi,ので]]],[<cl>,[<adv-cl>,[<verb>,[<verb/ga-ni-o>,[<mod-v>,[<pp>,[<np>,[<n-hutu>,[hutu-meisi,朝食]]],[<p-kakari>,[p-kakari-mo,も]]]],[<verb/ga-ni-o>,[<vstem1/ga-ni-o>,[vstem-1/ga-ni-o,含め]]]]],[<p-conj-advcl>,[p-conj-renyo-te,て]]],[<cl>,[<vaux>,[<vaux>,[<verb>,[<verb/ga>,[<pp-o>,[<np>,[<n-hutu>,[<mod-n>,[<verb>,[<verb/ga>,[<mod-v>,[<advp>,[<adv>,[hukusi,割と]]]],[<verb/ga>,[adjstem/ga,良],[<infl>,[infl-adj-i,い]]]]]],[<n-hutu>,[<prefix>,[prefix-o,お]],[<n-hutu>,[hutu-meisi,部屋]]]]],[p-kaku-o,を]],[<verb/ga-o>,[<mod-v>,[<pp>,[<np>,[<n-quant>,[<n-num>,[<n-num-hyaku>,[<n-num-keta-hyaku>,[<num-suf-hyaku>,[num-hyaku,百]]],[<n-num-zyuu>,[<n-num-keta-zyuu>,[<n-num-ichi>,[num-kyuu,九]],[<num-suf-zyuu>,[num-zyuu,十]]],[<n-num-ichi>,[num-san,三]]]]],[<suffix-unit>,[suffix-doru,ドル]]]],[<p-kaku-optn>,[p-kaku-de,で]]]],[<n-sahen/ga-o>,[<prefix>,[prefix-go,ご]],[sahen-meisi/ga-o,提供]]]]],[<aux>,[<auxstem>,[auxstem-sahen-1,でき]]]],[<aux>,[<auxstem>,[auxstem-masu,ま]],[<infl>,[infl-spe-su,す]]]]]]]]6.264841e-45|\begin{verbatim}total19284CPUtime0.13sec\end{verbatim}}\noindent解析結果は括弧付けで表現された構文木として出力される.構文木の右にある数値はその構文木のPGLRモデルによる生成確率である.「total」は得られた解析結果の総数を,「CPUtime」は解析に要した時間を表わす.以下,得られた解析結果を構文木の形で示す.但し,紙面の都合により,構造の一部を簡略している.\begin{flushleft}\thicklines\bf$\bullet$例文(1)の解析結果\\[2mm]\input{extree1.tex}\bf$\bullet$例文(2)の解析結果\\[2mm]\input{extree2.tex}\newpage\bf$\bullet$例文(3)の解析結果\\[2mm]\input{extree3.tex}\end{flushleft}\newpage\thispagestyle{plain}\\newpage\thispagestyle{plain}\\end{document}
V29N02-02
\section{はじめに} 固有表現抽出(NER)は,人名,組織名,化学物質名,日付や時間といった固有名詞や数値表現を抽出するタスクであり,関係抽出\cite{zhou-etal-2016-attention,DBLP:journals/corr/abs-1905-08284,shen-huang-2016-attention,wang-etal-2016-relation}やエンティティリンキング\cite{ganea-hofmann-2017-deep,le-titov-2018-improving,radhakrishnan-etal-2018-elden,DBLP:journals/corr/abs-1802-01021,DBLP:journals/corr/abs-2006-01969,DBLP:journals/corr/abs-1808-07699}といった技術に用いられる要素技術の一つである.たとえば,2つの固有表現(NE)間の関係を識別する関係抽出タスクでは,文中のNEを特定するためNERが利用され,エンティティリンキングでは,実体判別の候補抽出に利用される.固有表現技術の適用先は,新聞記事といった一般的な文書に留まらず,化学や医学分野などの専門分野の特許や論文に広がりを見せている.化学分野であれば,新材料や新薬の開発,材料を用いた製品開発などにおいて,化合物に関する知識が必要不可欠であり,論文や特許で日々報告される化合物間の相互関係や物性値といった情報を構造化し知識として蓄積することが行われている.しかしながら,2015年の時点で2分30秒に1件のペースで新たな物質がCAS(ChemicalAbstractsService)に追加されているという報告が示すように\footnote{\url{https://www.jaici.or.jp/annai/img/20150709_CAS_PressRelase.pdf}},刻々と増え続ける化合物に対して,専門的な知識を必要とする人手による知識構築作業が課題となっている.そこで,知識構築に必要な化合物名を抽出するためにNERが化学分野でも注目を集めている\cite{Leaman2015,Lu2015,att-chemd}.近年では,LSTM-CRFモデルといった,longshort-termmemory(LSTM)に条件付確率場(CRF)を組み合わせたモデル\cite{N16-1030,P16-1101}や,Transformer\cite{DBLP:journals/corr/VaswaniSPUJGKP17}を用いたモデル\cite{devlin-etal-2019-bert,yamada-etal-2020-luke}が高い精度を示している.また,大規模なラベルなしコーパスから事前学習したニューラル言語モデル\cite{C18-1139,N18-1202,devlin-etal-2019-bert,yamada-etal-2020-luke,Lee2020BioBERTAP,beltagy-etal-2019-scibert}を用いた手法がCoNLL2003sharedtaskデータセット\cite{tjongkimsang2003conll}や化学分野のNER\cite{Lu2015}などにおいて,高い精度を示している.しかし,化合物には多様な表記があることが,化学分野のNERを難しくしている.図\ref{fig:paraphrase_example}にあるように,\textit{Acrylicacid4-tert-butylphenylester}は\textit{Acrylicacid4-(1,1-dimethylethyl)phenylester}のように異表記で表現される.ここでは,\textit{tert-butyl}を表す構造が\textit{methyl}と\textit{ethyl}から構成されることから,\textit{1,1-dimethylethyl}とも言い換え可能となっている.このように同じ化合物が複数の異表記で記述される状況から,学習データには含まれない表記が多数存在しており,学習データ中の表記に基づき学習する従来のNERモデルでは,新規の化合物名抽出において精度低下につながると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-2ia1f1.pdf}\end{center}\hangcaption{化合物の異表記の例.\textit{Acrylicacid4-tert-butylphenylester}とその{\paraphrase}である\textit{Acrylicacid4-(1,1-dimethylethyl)phenylester}について示している.ここでは,\textit{tert-butyl}を表す構造が\textit{1,1-dimethylethyl}に言い換えられている.}\label{fig:paraphrase_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%たとえば,登録数が1億を超えているPubChem\cite{10.1093/nar/gkaa971}上の化合物の異表記の平均数は3.88個\footnote{2019年5月時点での調査結果.}である.このように既に存在する大規模な化合物の言い換えに加えて,今後増え続ける化合物に対応するために従来のNER用の教師データだけから異表記パタンを学習するアプローチは困難な状況にある.そこで,本研究では,化合物名抽出と{\parasent}をマルチタスク学習により同時に学習することで,表現の同一性を学習し化合物名抽出を行う手法,HandlingParaphraseinNER({\proposed})を提案する.{\proposed}では,同一化合物の異なる表記を考量するために,既存のDBに登録されている化合物の言い換えパタンを用いて自動生成される言い換え用の学習データから,attention-basedneuralmachinetranslation(ANMT)\cite{luong-pham-manning:2015:EMNLP,bahdanau2015}を基に言い換え生成モデルを学習する際に,NERモデルと{\paraphrase}モデルのEncoderのパラメータを共有することで,言い換えパタンをNERで考慮する.提案手法を,BioCreativeIVCHEMDNER\cite{Krallinger2015}とPubChemから得られる言い換えパタンを用いて,評価を行った.その結果,従来の辞書を使った教師データの自動拡張\cite{DBLP:conf/ijcnlp/YiLSP04}を超える精度が得られ,化合物名抽出におけるNERと言い換え生成のマルチタスク学習の有効性を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 図\ref{fig:overall}に提案手法{\proposed}の全体像を示す.まず,NERと{\parasent}モデルについて述べ,その後,{\paraphrase}モデルとNERモデルのマルチタスク学習の方法について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-2ia1f2.pdf}\end{center}\hangcaption{提案手法{\proposed}の全体図$LSTM^{(f)}$,$LSTM^{(b)}$,$LSTM^{(wc)}$と$LSTM^{(sc)}$のパラメータは{\paraphrase}モデルとNERモデルで共有される.}\label{fig:overall}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文字レベルの言語モデルを使用したNER}\label{sect:previous}本章では,ベースラインモデルとして用いる,Bidirecional(Bi)LSTM-CRFとContextualStringEmbeddings(CSE)に基づくNERモデルBiLSTM-CRF+CSEについて述べる\cite{C18-1139}.このモデルは,CoNLL2003のデータセットにおいて高い精度を示している.このモデルでは,入力文の単語列として,\({\bfw}=w_{1},w_{2},\cdots,w_{N}\)が与えられたとき,各単語$w_i$はベクトル$\mathbf{x}_i$に変換される.ベクトル$\mathbf{x}_i$は,下記,図\ref{fig:overall}中の1)から3)の3つのembeddingを結合したものである.\begin{itemize}\item1)ルックアップテーブルから取得される単語embedding\item2)単語を構成する文字列上で計算されるBiLSTM($LSTM^{(wc)}$)の隠れ層{\cwse}\cite{N16-1030}\item3)文全体から構成される文字列から計算されるBiLSTM($LSTM^{(sc)}$)の隠れ層{\cse}\cite{C18-1139}\end{itemize}{\cwse}は,ある単語に対して,$LSTM^{(wc)}$の順方向LSTMと逆方向LSTMの最後の隠れ層の結合である.{\cse}は,ある単語に対して,$LSTM^{(sc)}$の順方向LSTMの単語を構成する最後の文字の隠れ層と,$LSTM^{(sc)}$の逆方向LSTMの単語を構成する最初の文字の隠れ層を結合したものである.$LSTM^{(sc)}$は,事前学習を行った文字レベルの言語モデルである.文字単位の文の生成確率は,下記の式を用いて表現される.\begin{equation}P({\bfc}_{1\colonT})=\prod_{t=1}^{T}p(c_t|{\bfc}_{1\colont-1}),\end{equation}ここで,$c_t$は文中の$t$番目の文字を表し,$T$は文中の文字数を表す.入力単語列$w$に対するベクトル表現${\bfX}={\bfx}_1,\cdots,{\bfx}_N$を得た後に,各単語のBiLSTMの隠れ層${\bfh}_i$と対象のNEタグのスコアベクトル${\bfe}_i$を,下記のように計算する.\begin{align}\overrightarrow{{\bfh}_{i}}&=LSTM^{(f)}({\bfx}_i,\overrightarrow{{\bfh}_{i-1}})\label{eq:forward_lstm},\\\overleftarrow{{\bfh}_{i}}&=LSTM^{(b)}({\bfx}_i,\overleftarrow{{\bfh}_{i+1}})\label{eq:backward_lstm},\\{\bfh}_i&=[\overrightarrow{{\bfh}_{i}};\overleftarrow{{\bfh}_{i}}],\\{\bfe}_i&=W_e{\bfh}_i,\end{align}ここで,$\overrightarrow{{\bfh}_{i}}$と$\overleftarrow{{\bfh}_{i}}$の次元数は$d$,${\bfh}_i$の次元数は$2d$,$W_e\in\mathcal{R}^{k\times2d}$は重み行列であり,$k$は識別対象のNEの種類である.$[\cdot;\cdot]$は二つのベクトルを結合する演算を行う.${\bfh}_{i-1}$は,${\bfh}_i$の一つ前の単語に対する隠れ層,${\bfh}_{i+1}$は,${\bfh}_i$の一つ後ろの単語の隠れ層を表す.また,$\overrightarrow{{\bfh}_{0}}$と$\overleftarrow{{\bfh}_{N+1}}$は,ゼロベクトルである.BiLSTM-CRF+CSEモデルでは,スコア行列${\bfP}=({\bfe}_1,\cdots,{\bfe}_N)^T\in\mathcal{R}^{N\timesk}$とCRFを使用してタグの系列を予測する.ここで,$P_{i,j}$は$i$番目の単語に対応するタグ$j$のスコアである.また,出力のタグ系列${\bfy}=y_1,\cdots,y_N$の確率は,下記により計算される.\begin{align}s({\bfw},{\bfy})&=\sum^{N}_{i=-1}A_{y_i,y_{i+1}}+\sum^{N}_{i=1}P_{i,y_i},\\p({\bfy}|{\bfw})&=\frac{e^{s({\bfw},{\bfy})}}{\sum_{{\bf\tilde{y}}\in{\bfY_w}}e^{s({\bfw},{\bf\tilde{y}})}},\end{align}ここで,${\bfY_w}$はすべての可能なタグ系列の集合を表し,${\bfA}$はタグ遷移スコアの行列,$A_{y_i,y_j}$は$i$番目のタグから$j$番目のタグへ遷移するスコア,$y_{-1}$と$y_{N+1}$はそれぞれ文頭と文末を表すタグである.学習では,モデルは正解のタグ系列を用いて下記の式を最大化するように学習する.\begin{equation}\log(p({\bfy}|{\bfw}))=s({\bfw},{\bfy})-\log(\sum_{\bf\tilde{y}\in{\bfY}_w}e^{s({\bfw},{\bf\tilde{y}})}),\label{Eq:ObjectiveFunctionNER}\end{equation}ここで,{\bfy}は{\bfw}の正解のタグ系列である.NEを抽出する際,モデルは,下記の式によって得られるスコアが最大のタグ系列を出力する.\begin{equation}y^{*}=\argmax_{{\bf\tilde{y}}\in{\bfY_w}}s({\bfw},{\bf\tilde{y}}).\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{{\paraphrase}モデル}\label{sect:paraphrase}提案手法では,\pagebreakLSTMベースのNERモデルのエンコーダーに言い換え知識を取り入れるため,NERモデルとLSTMベースのエンコーダーデコーダー手法のANMTモデル\cite{luong-pham-manning:2015:EMNLP,bahdanau2015}で共有のエンコーダーを用いて,化合物を含む文の言い換えモデルを学習する.{\paraphrase}モデルは,入力文の単語列{\bfw}を化合物の言い換えを含む文の単語列\({\bfy}^{trg}=y_1^{trg},y_2^{trg},\cdots,y_U^{trg}\)に変換する.ここで,$U$は言い換え後の文の単語数である.LSTMエンコーダーは,入力文{\bfw}を固定長のベクトルへ変換し,その後LSTMデコーダーは変換された固定長のベクトルを使用して,出力単語列{\bfy}を生成する.LSTMエンコーダーは,式(\ref{eq:forward_lstm})と式(\ref{eq:backward_lstm})によって定義される双方向LSTMを使用し,NERモデルと同じくベクトル${\bfx}_i$を入力文の単語列の$i$番目の単語のembeddingとして使用する.双方向LSTMのエンコーダーの最後の隠れ層の状態である,式(\ref{eq:forward_lstm})の$\overrightarrow{\bfh}_N$と,式(\ref{eq:backward_lstm})の$\overleftarrow{\bfh}_1$は,LSTMデコーダの初期状態として,${\bfs}_0=[\overrightarrow{\bfh}_N;\overleftarrow{\bfh}_1]$で表される式の形で用いられる.デコーダは,$j$番目の単語の隠れ層${\bfs}_j$を下記のように計算する.\begin{equation}{\bfs}_j=LSTM_{dec}([{\bfv}_{j-1};\hat{{\bfs}}_{j-1}],{\bfs}_{j-1}),\end{equation}ここで,${\bfv}_{j-1}$は,$y_{j-1}^{trg}$の単語embedding,$\hat{{\bfs}}_{j-1}$は$(j-1)$番目のアテンションベクトルである.本モデルでは,コンテキストベクトル${\bfo}_j$を用いて,$j$番目のアテンションベクトルを以下のように計算する.\begin{equation}\hat{{\bfs}}_{j}=\mathrm{tanh}(W_{e}[{\bfs}_j;{\bfo}_j]),\end{equation}ここで,$W_{e}$は重み行列であり,$\mathrm{tanh}$はハイパボリックタンジェント関数である.コンテキストベクトル${\bfo}_j$は,エンコーダの隠れ層の重み平均によって下記のように算出される.\begin{align}{\bfo}_j&=\sum_{i=1}^{N}\alpha_j(i){\bfh}_i,\\\alpha_j(i)&=\frac{\exp({\bfh}_i\cdot{\bfs}_{j})}{\sum_{k=1}^{N}\exp({\bfh}_k\cdot{\bfs}_{j})},\end{align}$\exp$は,指数関数である.デコーダは,学習時には,下記のように$j$番目の正解トークン$y_j^{trg}$の確率を計算する.\begin{equation}p(y_j^{trg}|{\bfy}_{<j}^{trg},{\bfw})=\mathrm{softmax}(W_s{\hat{\bfs}_{j}}),\end{equation}ここで,$W_s$は重み行列である.文章の生成時には,最も確率の高い単語が選択される.目的関数は下記のように定義される.\begin{equation}\label{Eq:TransObjectiveFunc}J(\theta)=-\sum_{(\bfw,{\bfy}^{trg})\inD}\logp({\bfy}^{trg}|\bfw),\end{equation}$D$は学習データであり,$\theta$はモデルパラメータの集合である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{固有表現抽出における{\paraphrase}の考慮}提案手法である{\proposed}は,\ref{sect:previous}章で述べたNERモデルと\ref{sect:paraphrase}章で述べた{\parasent}モデルを同時にマルチタスク学習を行う.{\parasent}モデルは,入出力ともに文であり,{\parasent}モデルの入力文と出力文は,言い換えの対象である化合物名が異なる.マルチタスク学習では,式(\ref{eq:forward_lstm})と式(\ref{eq:backward_lstm})で述べた,文字embeddingの重み行列とLSTMパラメータ,$LSTM^{(wc)}$が2つのモデルで共有される.パラメータの共有では,NERモデルのLSTMの部分は異なる表記のある化合物を,類似するベクトル表現へと変換することが期待される.2つのモデルの目的関数は,それぞれ式(\ref{Eq:ObjectiveFunctionNER})と式(\ref{Eq:TransObjectiveFunc})である.今回は,最適化の方法を決めるために,(A)ミニバッチごとに,式(\ref{Eq:ObjectiveFunctionNER})によるNERモデルの最適化と式(\ref{Eq:TransObjectiveFunc})による{\paraphrase}モデルの最適化を交互に行う方法,(B)NERモデルの学習が終了した後に,{\paraphrase}モデルの最適化を行う方法,(C){\paraphrase}モデルの学習が終了した後に,NERモデルの最適化を行う方法の3パタンを比較し,開発データ上の精度が高かった(A)を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}実験では,テキスト中の化合物名と薬物名を抽出するタスクであるBioCreativeIVCHEMDNERのデータセットを使用した.本実験では,CHEMDNERに対し,\citeA{att-chemd}らが配布しているデータ\footnote{\url{https://github.com/lingluodlut/Att-ChemdNER}}を利用して実験を行った.文字レベルの言語モデルは,PubMedのウェブサイト\footnote{\url{https://www.nlm.nih.gov/databases/download/pubmed_medline.html}}のMEDLINEアブストラクト(PubMedAbs)を使用して事前学習を行い,単語embedding層はword2vec\cite{Mikolov2013EfficientEO}を用いてPubMedAbsから学習したものを使用した.また,PubChemから作成した化合物の{\paraphrase}の集合PubChemDicを作成し,言い換え生成に用いた.言い換えの生成には,PubchemDic中で最長一致した文字列に対する変換を行った.最長一致でマッチングする際は大文字と小文字は区別しなかった.表\ref{table:parameter}に実験で使用したモデルのパラメータを示す.単語embedding層,文字embedding層の次元数は,\citeA{att-chemd}らの手法にならい決定した.文字言語モデルのLSTMの次元数は,\citeA{C18-1139}らの手法にならい決定した.NERモデルのLSTMは,開発データを用いて,$100,150,200$次元で精度評価を行い決定した.最適化にはSGDを使用し,学習率の初期値は$0.1$とした.前回のエポックよりlossが3回増加した場合,学習率を半分とし,学習の終了条件としては,150エポックを最大として,学習率が$0.0001$より小さくなる場合学習を終了とする.ミニバッチサイズは32とした.プログラムは,\citeA{C18-1139}らの実装を基に{\paraphrase}生成の機能を追加実装した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{01table01.tex}\caption{モデルのパラメータ.LSTM内で扱われる各ベクトルの次元数.}\label{table:parameter}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法の有効性を示すため,下記のモデルと比較した.``+P''は,PubChemDicから取得される{\paraphrase}を考慮していることを示し,``-P''は,{\paraphrase}を考慮していないことを示す.\begin{itemize}\itemベースラインモデル:\ref{sect:previous}章で述べた\cite{C18-1139}のBILSTM-CRF+CSEを用いる.\itemVE-P:PubChemDicを用いて,\cite{DBLP:conf/ijcnlp/YiLSP04}と同様に,学習データ内の化合物をランダムに置き換えたvirtualexamples(VEs)で学習するモデルである.入力が,...\textless{}CHEM{\textgreater}Phenylalanine\textless{}/CHEM{\textgreater}is...の場合,たとえば,化合物の個所を他の化合物であるethyleneに置き換えた...\textless{}CHEM{\textgreater}ethylene\textless{}/CHEM{\textgreater}is...が追加のNER用学習データとして自動作成される.\itemVE+P:PubChemDicを用いて,学習データ内の化合物を対応する{\paraphrase}の化合物に置き換えたVEsで学習するモデルである.Phenylalanineとその{\paraphrase}であるL-$\beta$-phenylalanineから,入力が,...\textless{}CHEM{\textgreater}Phenylalanine\textless{}/CHEM{\textgreater}is...の場合,...\textless{}CHEM{\textgreater}L-$\beta$-phenylalanine\textless{}/CHEM{\textgreater}is...が追加のNER用学習データとして自動作成される.\item{\proposed}-P:PubChemDicを用いてランダムに生成された文により,NERと文生成をマルチタスク学習するモデルである.入力が,...Phenylalanineis...の場合,Phenylalanineを置き換える化合物をPubChemDicからランダムに選択することで,たとえば,...ethyleneis...を生成対象として作成する.\item{\proposed}+P:PubChemDicを用いて,文中の化合物を対応する{\paraphrase}の化合物に置き換えた文のペアにより,NERと{\paraphrase}をマルチタスク学習を行う提案モデルである.入力が,...Phenylalanineis...の場合,Phenylalanineに対する{\paraphrase}としてPubChemDicから,L-$\beta$-phenylalanineを選択し,...L-$\beta$-phenylalanineis..を生成対象として作成する.\end{itemize}ベースラインモデルは,CHEMDNERの学習データ55,458文を使用して学習を行う.VE-PとVE+Pは,言い換えのありなしの比較である.VE-Pは,CHEMDNERの学習データから自動的に生成された追加のNER用学習データ55,458文を含む110,916文を用いて学習を行う.VE+P(Small)は,化合物の{\paraphrase}によって,CHEMDNERの学習データから自動的に生成された3,575文とCHEMDNERの学習データから構成されるNER用の59,033文を用いて学習する\footnote{VE+Pは,PubChemDicに含まれるNEを{\paraphrase}に置き換えたのみのため,VE-Pより少量の学習データ量となる.}.{\proposed}-Pと{\proposed}+Pは,言い換えのありなしの比較である.また,VEと{\proposed}の違いは,言い換えを考慮する手法の比較である.{\proposed}-Pと{\proposed}+P(Large)は,言い換えの学習データとして,PubMedAbsに対してPubChemDicを用いて化合物の変換が行われた文章からランダムに選択した100,000文を用いた.また,NERの学習データにはCHEMDNERを使用する.本実験では,計算時間の制約上,言い換えの学習データ数は100,000文とした.また,一つの事例に対して複数の言い換えを生成することが可能であるが,本実験では,計算時間の制約上,一つの事例に対して一つの言い換えのみ生成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{01table02.tex}\hangcaption{各モデルの学習データ生成の例.ここでは,{\itPhenylalanine}が出現する文に対して,生成された学習データの例について示している.{\itL-$\beta$-phenylalanine}は,PubChemDicから取得された{\itPhenylalanine}の言い換えであり,{\itethylene}は,PubChemDicからランダムにサンプリングされたもので,言い換えではない.\textless{}CHEM\textgreaterと\textless{}/CHEM\textgreaterに囲まれた箇所が,NERの学習データ内の化合物名となる.}\label{table:paraphrase_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%例として,+Pでは,``...{\itPhenylalanine}is...''は,``...{\itL-$\beta$-phenylalanine}is...''や``..{\it(S)-2-Benzylglycine}is...''に変換される.ここで,{\itL-$\beta$-phenylalanine}や{\it(S)-2-Benzylglycine}の{\itPhenylalanine}の{\paraphrase}である.-Pでは,``...{\itPhenylalanine}is...''は,``...{\itethylene}is....''のように変換される.ここで,{\itethylene}はPubChemDicからランダムにサンプリングされたものである.表\ref{table:paraphrase_example}に各モデルの言い換えの学習について例を示す.また,二種類の言い換え学習データサイズで評価を行った.VE+P(Small)とVE+P(Large),{\proposed}+P(Small)と{\proposed}+P(Large)の比較は,学習データのサイズの違いの比較である.一つ目は,{\proposed}+Pを,CHEMDNERの学習データ内の3,575文の化合物に対して,PubChemDicを用いて{\paraphrase}をマルチタスク学習する{\proposed}+P(Small)の実験を行った.二つ目は,言い換えデータ量を増やすことによる効果を調べるために,,CHEMDNERの学習データと10万文のPubMedAbs内の化合物を抽出対象とした学習データを用いたVE+P(Large)の実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}実験結果を表\ref{table:result}に示す.実験結果より,{\proposed}+P(Large)は最も高いF-scoreを示しており,また,{\paraphrase}を考慮した{\proposed}+PやVE+Pはベースラインモデルより高いF-scoreを示した.実験結果から,{\paraphrase}を考慮することで,精度向上に貢献していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{01table03.tex}\hangcaption{実験結果.+Pが付いている結果は{\paraphrase}を考慮しており,ベースラインおよび-Pが付いている結果は{\paraphrase}を考慮していない.}\label{table:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%二種類の言い換え学習データサイズでの評価について下記に示す.一つ目の,CHEMDNERの学習データに対して拡張を行い,マルチタスク学習を行う{\proposed}+P(Small)の場合,F-scoreは,92.49となり,VE+P(Small)の92.47より高いF-scoreを示した.二つ目の,CHEMDNER+PubMedAbs内の化合物を抽出対象として10万文サンプリングを行い学習したVE+P(Large)では,F-scoreが92.48となり,{\proposed}+P(Large)が92.57であるため,{\proposed}+Pが高いF-scoreを示した.本実験から,自動生成した化合物の言い換えを含む文ペアを{\proposed}+Pで学習することで精度改善に貢献する結果が示された.また,2種類の検定を行った.検定では,{\proposed}+P(Large)と,ベースラインモデル,VE-P,VE+P(Small),{\proposed}-Pの比較を行った.一つ目は,{\proposed}+P(Large)とベースラインモデル,VE-P,VE+P(Small),{\proposed}-Pを比較し,単語に割り当てられたラベルの一致および不一致に基づくマクネマー検定を行った\cite{Sha:2003:SPC:1073445.1073473}.{\proposed}+P(Large)は,ベースラインモデルと比較して,$p<0.01$で有意であった.{\proposed}+P(Large)と,VE-P,VE+P(Small),{\proposed}-Pを比較した結果,有意差はなかった.二つ目は,\citeA{DBLP:conf/ijcnlp/SasanoK08}が用いたbi-nominaltestを行った.この検定では,{\proposed}+P(Large)によってのみ正しく認識されたNEの数と,その他の手法によって正しく認識されたNEの数を数え上げる.その後,出力が二項分布であるという仮定に基づき,bi-nominaltestを適用する.提案手法は,その他の手法と比較して,すべての結果において,有意であった($p<0.05$).これらの結果より,{\proposed}+P(Large)により,より大規模な言い換え学習用データを用いて,{\paraphrase}を考慮することが有効であることがわかる.また,学習データとPubChemDicによって,開発データにおけるカバーされていないNEの正解率も評価を行った.表\ref{Table:Analysis}より,提案手法は学習データやPubChemDicでカバーされているNEとカバーされていないNEの両方で高い正解率を示していることがわかる.ここで,PubChemDicと学習データにおける開発データの化合物名に対するカバー率について,下記に記す.学習データには,8,508個の化合物名が含まれており,開発データの化合物の70.94\%が学習データに含まれている.PubChemDicには,337,289,536の化合物名が含まれており,開発データの化合物の29.11\%がPubChemDicに含まれている.二つを含めた場合,開発データの化合物名をカバーしている割合は,75.42\%である.{\proposed}+PはVE+Pと比較し,カバーされていない化合物の抽出性能も向上している.これは,化合物を言い換える学習によって,さまざまな化合物が近いベクトルとして表現できたと考えられ,NER用の教師データから学習した化合物以外のものも高い性能で抽出できたと考えられる.VE+P(Small)と,{\proposed}+P(Large)の抽出結果の具体例を比較する.表\ref{table:extraction_example}に,抽出結果について示す.入力「TFF2N-glycopeptide」から「N」のみを抽出する例では,HanPaNE+Pでは「N」のみを正しく抽出できたが,VE+Pは,「N」を抽出できなかった.また「pluronic(Plu)」から「pluronic」と「Plu」のみ抽出する例では,VE+Pの出力は,「pluronic」と「Plu」に加えて「(」を抽出した.このことから,言い換えを学習することで,化合物の部分構造を取得でき,単語列の一部のみが抽出対象である場合も正しく識別ができたと考えられる.一方で,「OVXDMIIrats」は,「DMII」は抽出対象ではないが,HanPaNE+Pは誤って抽出してしまった.このように,{\proposed}+P(Large)では,化合物でない単語に対しても化合物として多く抽出する傾向にあった.また,表\ref{table:result}の実験結果においても,{\proposed}+P(Large)は,Recallの改善がF-scoreの改善に貢献していることは,この傾向と一致する.この問題を改善することは今後の課題としたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5-->4\begin{table}[t]\input{01table05.tex}\hangcaption{学習データとPubChemDicによってカバーされているNE(Acc.C)とカバーされていないNE(Acc.NC)の開発データ上での正解率}\label{Table:Analysis}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4-->5\begin{table}[t]\input{01table04.tex}\hangcaption{VE+PとHanPaNE+Pの出力結果の例.この例では,TFF2N-glycopeptide,pluronic(Plu),OVXDMIIratsの抽出結果を示している.}\label{table:extraction_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{先行研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{化学分野における固有表現抽出}表\ref{table:related_work}に,先行研究との比較を示す.\citeA{Leaman2015}%と\citeA{Lu2015}は,化学のNERの精度を向上するために,品詞や単語が大文字であるかといった素性を利用し,その素性に基づく分類からなる手法である.\citeA{Lu2015}は,skip-gramとk-meansを用いて分類を行う手法である.\citeA{att-chemd}は,文間でのタグ付けの一貫性を保持するために,ドキュメントレベルの情報を扱うニューラルネットワークベースの手法である.\citeA{Lee2020BioBERTAP}は,BERTを用いた手法であり,生物医学の文章を用いて事前学習を行ったモデルである.{\paraphrase}を学習することで,提案手法は,これらの手法より高い精度で抽出できることがわかる.\citeA{DBLP:journals/corr/abs-2011-06315}は,提案手法と同じくLSTMベースのモデルである.ただし,本研究とは違いPubMedから学習されたwordembeddingsを用いて学習している.また,言い換えモデルは組み込まれていない.表\ref{table:related_work}より,\citeA{DBLP:journals/corr/abs-2011-06315}の手法は提案手法より高い精度を達成していることが分かる.提案手法の枠組みは\citeA{DBLP:journals/corr/abs-2011-06315}にも適用することが可能であり,\citeA{DBLP:journals/corr/abs-2011-06315}に化合物を含む文の言い換えモデルを組み込んで学習することで,さらなる精度改善が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{01table06.tex}\caption{先行研究のBioCreativeIV'sCHEMDNERタスクとの比較}\label{table:related_work}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{DBLP:journals/corr/abs-2010-11784}は,UMLS\cite{Bodenreider2004TheUM}と呼ばれる様々な形式の生物医学の同義語を包括的に収集したデータを用いて,Transformerベースの言語モデルを学習した手法を提案している.この手法では,UMLSから学習ペアをサンプリングし,同じ概念の同義語をクラスター化する自己アライメントにより,学習を行っている.提案手法では,\citeA{DBLP:journals/corr/abs-2010-11784}の手法とは異なり,周辺の文脈を考慮して言い換えを生成することで,周辺の単語列から出現しやすい化合物やその部分的な異表記のベクトルが得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マルチタスク学習}マルチタスク学習は,NERを含むNLPのタスクで精度向上において用いられる枠組みの一つである\cite{liu-multi,luong-multi,dong-multi,hashimoto-multi}.\citeA{AAAI1817123}と\citeA{P17-1194}は,言語モデルを用いた系列ラベリングのマルチタスク学習の研究である.\citeA{Aguilar2018}and\citeA{Cao2018}は,wordsegmentationとNERのマルチタスク学習を提案した手法である.\citeA{Peng2017}らのマルチタスク学習の手法では,ドメイン適用の精度改善を行っている.\citeA{Clark18}らの手法では,POStaggingやparsingなどのさまざまなNLPのタスクを用いて,NERとマルチタスク学習を行っている.\citeA{Crichtono2017}や\citeA{Wang2018}の手法では,生物医学のさまざまなNLPタスクを用いて,NERとマルチタスク学習を行い,精度改善を行っている.\citeA{DBLP:journals/corr/abs-2001-08904}は,BERTを用いたマルチタスク学習の手法であり,下層ではパラメータの学習を各タスクで共有したものを用いて,上層は,各タスクごとでパラメータの学習を行っている.\citeA{Wang2019MultitaskLF}は,LSTMを用いてメインタスクと補助タスクのマルチタスク学習を行った手法であり,双方向LSTMを各タスクで共有したものと,タスクごとに学習したものを使用してNERの精度改善を行っている.先行研究と本研究の大きな違いとして,{\paraphrase}を学習していることがあげられる.先行研究では,NERの様々なデータセットや,POStaggingやparsingなどのNLPタスクを使用してマルチタスク学習を行い精度改善を行っているのに対し,提案手法では,既に存在する化合物の言い換え辞書から,自動的に言い換え文のペアを作成することで学習を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,{\paraphrase}のペアを効率的に活用する{\paraphrase}モデルとNERモデルをマルチタスク学習する手法を提案した.BioCreativeIVCHEMDNERトラックで評価した結果,提案手法が先行研究の手法より高い精度が得られることが示された.今後の課題として,BioCreativeIVCHEMDNERトラック以外のNERタスクの評価および,今回使用したLSTMベースの言語モデルに加えて,Transformerベースの言語モデルでの評価が挙げられる.また,{\paraphrase}モデルの学習データを増やすことで,精度の改善が得られるか検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文は,理研AIP-富士通連携センターに所属時に国際会議2019ConferenceonEmpiricalMethodsinNaturalLanguageProcessingandthe9thInternationalJointConferenceonNaturalLanguageProcessingで発表した論文\cite{watanabe-etal-2019-multi}の内容に対して,説明や評価を追加したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{渡邊大貴}{%2017年愛媛大学工学部情報工学科卒業.2019年同大学院理工学研究科修士課程修了.2022年より同志社大学大学院理工学研究科博士課程に在学.2019年(株)富士通研究所入社.現在,富士通株式会社に在籍.}\bioauthor{田村晃裕}{%2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教,2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{二宮崇}{%2001年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.東京大学博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\bioauthor{牧野拓哉}{%2012年東京工業大学大学院総合理工学研究科物理情報システム専攻修士課程修了.同年,(株)富士通研究所入社.2020年同大学院工学院情報通信系情報通信コース博士課程修了.博士(工学).現在,株式会社リクルートMegagonLabsにて自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{岩倉友哉}{%2003年(株)富士通研究所入社.2011年東京工業大学大学院総合理工学研究科物理情報システム専攻博士課程修了.博士(工学).現在,富士通株式会社主任研究員.自然言語処理の研究開発に従事.情報処理学会,言語処理学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V11N02-03
\section{緒論} 音声認識研究の対象は、読み上げ音声から講演や会議などの話し言葉に移行している。このような話し言葉は日本語では特に、文章に用いる書き言葉と大きく異なり可読性がよくない。そのため、書き起こしや音声認識結果を講演録や議事録などのアーカイブとして二次利用する際には、文章として適切な形態に整形する必要がある。実際に講演録や議事録の作成の際には、人手によりそのような整形が行われている。これまでに、放送ニュースなどを対象とした自動要約の研究が行われている\cite{98-NL-126-10,98-NL-126-9,SP96-28,99-SLP-29-18,SP2000-116}。これらは主に、頻出区間や重要語句の抽出といった処理、つまり発話された表現をそのまま用いることによって要約を作成している。しかし、話し言葉表現が多く含まれる場合には、要約を作成する際にまず話し言葉から書き言葉へ変換する必要がある。実際に人間が要約を作成する際には、このような書き言葉表現への変換に加えて、不必要な部分の削除や必要な語の挿入、さらに1つの文書内での「ですます」調/「である」調などの文体の統一といった処理も行っている。本研究では講演の書き起こしに対してこのような整形を自動的に行うことを考える。現在、文章を整形するソフトウェアも存在しているが、これらはパターンマッチング的に規則ベースで変換を行っており、言語的な妥当性や前後との整合性はあまり考慮されていない。また、基本的に1対1の変換を行っているので、変換の候補が複数ある場合への対処が容易ではない。学会講演とその予稿集との差分をとることで書き言葉と話し言葉の変換規則を自動抽出する研究が村田らにより行われている\cite{murata_nl2002_diff,murata_nl2001_henkei}が、変換の際の枠組みは本質的に同じと考えられ、また実際に変換を行い文章を整形する処理は実現されていない。これに対して本研究では、規則に基づいて1対1の変換を行うのではなく、話し言葉と書き言葉を別の言語とみなした上で統計的な機械翻訳の手法を適用し、確率モデルによりもっともらしい表現に変換し実際に文章を整形することをめざす。 \section{整形作業における処理} 講演録編集者は、書き起こしから講演録や要約を作成する際に、通常次の4段階の作業を行う。\begin{description}\item[(1)一次整形]\item[(2)長文の分割、文法的チェック、ポリティカルチェック]\item[(3)意味的チェック]\item[(4)要約の作成]\end{description}第一段階の一次整形では、フィラーの削除や書き言葉表現への変換、助詞の挿入などを行う。第二段階の文法的チェックでは、言語的に正しくない助詞や接続詞を適切なものに修正する。ポリティカルチェックでは、差別用語などの不適切な表現の修正を行う。第三段階の意味的チェックでは、専門用語が正しく用いられているかの確認を行う。実際に講演録編集者が、「日本語話し言葉コーパス」(CSJ)\cite{ICSLP2000}のいくつかの講演について整形・要約したものを参考にして、(a)から(i)で第一段階、(j)と(k)で第二段階の作業についてそれぞれ例を挙げながら説明する。\begin{description}\item[(a)フィラーの削除]\verb++\\「あのー」や「えっと」といった間投語はすべて削除する。\item[(b)書き言葉表現への変換]\verb++\\次に挙げるような話し言葉表現の書き言葉表現への変換を行う。\\(例)「行っ\underline{てるん}ですが」→「行っ\underline{ているの}ですが」\\\verb++「規則合成\underline{っていう}方式」→「規則合成\underline{という}方式」\\上記の例では話し言葉と書き言葉が1対1に対応しているが、そうでない場合を以下に示す。\\(例)「このように\underline{いたして}\underline{おります}」→「このように\underline{して}\underline{います}」「このように\underline{して}\underline{いる}」「このように\underline{して}\underline{おります}」\\このような場合は、全体として「ですます調」か「である調」に統一されるように留意する。\item[(c)助詞の挿入]\verb++\\話し言葉では、しばしば助詞が脱落して発話されるので、適切な助詞を挿入する。\\(例)「観測されたらそれ適当な分布で」→「観測されたらそれ\underline{を}適当な分布で」\\\verb++「先程も話しありましたが」→「先程も話しがありましたが」\item[(d)句読点の挿入]\verb++\\書き起こしに句読点がない場合は、適当な箇所に句読点を挿入する必要がある。\item[(e)倒置部の修正]\verb++\\話し言葉では、倒置を用いて発話されることがあるので、通常の語順に修正する。\\(例)「日本語は前寄りでも後寄りでも一応‘あ’なんですね\underline{音韻的には}。」→「日本語は前寄りでも後寄りでも\underline{音韻的には}一応‘あ’なんですね。」\item[(f)言い淀みをしている部分の削除]\verb++\\話者が言い淀みをした部分は全て削除する。\\(例)「このようなスペクトルの\underline{ドッ}、ギャップがですね」\item[(g)説明を付け加えている部分の削除]\verb++\\言葉の説明を付け加えている部分を削除する。\\(例)「モデル化を行い、\underline{そのモデル自体HMMですが}、そのモデルから」\\このような表現は必ずしも削除されるわけではなく、別の表現に書き換えられることもある。\\(例)「こういうHMM、\underline{我々はMSD-HMMと呼んでいる}」→「こういう\underline{HMM(MSD-HMM)}」\item[(h)独り言の部分の削除]\verb++\\本論と関係ないことを発話している部分を削除する。\\(例)「えー、そろそろ時間なんですが、」\item[(i)言い直し部分の削除]\verb++\\言い直しをしている部分は削除する。\\(例)「これは、テキスト\underline{テキスト}からの音声合成を」\\\verb++「上唇の、\underline{ごめんなさいこれ間違いです}」\item[(j)長文の分割]\verb++\\一文が非常に長い場合は、適切な接続詞を用いることでいくつかの単文に分割する。\\(例)「〜日本人としてある意味で嬉しいところ\underline{あるんですけどもどうして}こういう技術が考えられたかというと、〜」→「〜日本人としてある意味で嬉しいところ\underline{があります。どうして}こういう技術が考えられたかというと、〜」\item[(k)助詞・接続詞の修正]\verb++\\より適切な助詞や接続詞がある場合は、それに訂正する。\\(例)「どのようにして音声の合成を\underline{するかということが}」→「どのようにして音声の合成を\underline{するかが}」\end{description}本研究では、これらの過程のうち、(a)から(d)の一次整形の処理について取り扱う。これらの処理だけでもかなり読みやすいものに整形される反面、これ以上の処理については、内容の理解を含めた高度な処理が必要であると考えられるからである。参考のために図\ref{kakiokosi}に書き起こし、図\ref{kouenroku}に整形された文章の例を示す。\begin{figure}[t]\small\begin{center}\begin{tabular}{l}\hline続いてえ結果方見ていきたいと思います<pause-647-msec>でえーまず\\えーとーこちらあの英語話者アメリカ人のえー英語話者によるえ語頭に\\RLを含む単語えーっとRのライトとLのライトの調音について\\<pause-333-msec>えーっと一名の例を示しました<pause-513-msec>で縦\\軸とこのグラフでいう縦軸と横軸というのはえーこの<pause-304-msec>\\調音地図というのの元になっている距離マトリックス<pause-385-msec>を\\<pause-255-msec>より反映するようにそのMDSというまー<pause-654-msec>\\え手法がえ抽出したえー次元一と二というふうになりますで一つ一つの\\<pause-326-msec>点グラフ内の一つ一つの点が<pause-306-msec>え発話の一回\\一回<pause-470-msec>をえー示していて<pause-389-msec>え同じ単語のえー\\<pause-203-msec>点をえー見易いようにちょっと<pause-311-msec>見易くえーっと\\丸で囲んでグルーピングしております<pause-1298-msec>\\\hline\end{tabular}\caption{書き起こしの例}\label{kakiokosi}\end{center}\vspace{-1.0mm}\end{figure}\begin{figure}[t]\small\begin{center}\begin{tabular}{l}\hline続いて、結果の方を見ていきたいと思います。まず、こちらはアメリカ人の英語話者による\\語頭にR、Lを含む単語、Rのライトと、Lのライトの調音について1名の例を示しました。\\このグラフで縦軸と横軸というのは、この調音地図のもとになっている距離マトリックスを\\より反映するように、MDSという手法が抽出した次元1と2というようになります。\\グラフ内の一つ一つの点が発話の一回一回を示していて、同じ単語の点を見やすく丸で\\囲んでグルーピングしております。\\\hline\end{tabular}\caption{人手により整形された文章の例}\label{kouenroku}\end{center}\vspace{-1.0mm}\end{figure} \section{統計的手法による文体の整形} \subsection{統計的機械翻訳のアプローチ}現在、音声認識や機械翻訳の研究において統計的な手法が広く用いられている。入力系列を$X$、出力系列を$Y$とすると、これらは$X$を観測した際の$Y$の事後確率$P(Y|X)$を最大にする$Y$を求めるという枠組みで捉えられ、ベイズ規則により次の式(1)のように定式化される。ここで、$P(Y)$は系列$Y$が生起する事前確率、$P(X|Y)$は系列$Y$から系列$X$が生起する条件付き確率である。右辺の分母$P(X)$は、$Y$の決定に影響しないので無視できる。\begin{equation}\max_{Y}P(Y|X)=\max_{Y}{P(Y)P(X|Y)\overP(X)}\end{equation}音声認識\cite{text2}の場合は、$X$は入力音声、$Y$は出力単語列となる。この場合は、音響モデルにより$P(X|Y)$を、言語モデルにより$P(Y)$を求めている。機械翻訳\cite{Brown,ICSLP98-209,ICSLP98-826}の場合は、$X$を入力言語、$Y$を出力言語として$P(Y|X)$を最大にする$Y$を求めることで、入力言語$X$を出力言語$Y$に変換する。この場合、$P(Y)$は出力$Y$の言語的な自然性を評価するもので、音声認識と同様に言語モデルにより求める。$P(X|Y)$の計算には変換モデルを仮定し、その確率を求める。変換モデルとは、入力単語はある出力単語系列(nullを含む)に対応づけられるという仮定の下で、どの単語に対応するかを文全体における相対的な位置も考慮して確率で表したものである。2章で述べたように、書き起こしの文体と整形した文章の文体はかなり異なっており、書き起こしの単語列と整形された文章の単語列を異なる言語とみなすことができる。そこで、本研究では書き起こしの文体を整形する際に、書き起こしを整形した文章に翻訳すると考えて、機械翻訳と同様に統計的手法を適用することを検討する。ただし、一般の機械翻訳と異なり、本研究で扱う処理では単語の順序の入れ替わりは考慮しない。本研究では上記の変換確率と言語モデル確率を1対1で組み合わせるのではなく、言語的妥当性を重視するために言語モデル確率に重みを乗じることにする。また、言語モデル確率の値として対数尤度を用いるが、対数尤度は単語の数が多くなるほど値が小さくなるので、単語数に応じた補正を行う。これらは対数スケールで行われ、以下の式(2)で示される仮説スコアを定義する。($a$,$b$)のパラメータは音声認識のデコーディングにおいて通常用いられ、$a$は言語重み、$b$は挿入ペナルティと呼ばれている。\begin{equation}\max_{Y}\{\log(P(X|Y))+a*\log(P(Y))+b*(Yの単語数)\}\end{equation}本研究では、$Y$の言語モデルとして単語3-gramを用いる。この場合、$Y$=($y_1\cdotsy_N$)について、\(P(Y)=\prod_{i=1}^{N}P(y_i|y_{i-1},y_{i-2})\)として求められる。変換モデル確率$P(X|Y)$の計算においても、同様に$X$=($x_1\cdotsx_M$)と$Y$=($y_1\cdotsy_N$)の部分列に対する確率を規定して(デフォルトは$P(x_i|y_j)=1$for$x_i=y_j$)その積を求めるが、この単位は可変長(1から数単語)である。以下では、フィラーの削除、書き言葉表現への変換、助詞の挿入、句点の挿入、文体の統一のそれぞれの処理において、この枠組みをどのように実現するかについて説明する。なお本研究では、書き起こしを形態素解析した結果を入力データとして用いている。形態素解析には、ChaSenver2.02を用いている。また、話者がポーズをおいた箇所にはその情報がポーズ長とともに記録されている。\subsection{フィラーの削除}ここでは、$P(X|Y)$は整形文$Y$に対応する話し言葉$X$においてフィラーが挿入される確率とする。フィラーは、発話のどの部分にも出現する可能性があるが、特に句読点の後によく出現する傾向がある。ただし、整形された文章にフィラーは一切出現しない。つまり、$Y$をフィラーを含む単語列であると仮定すると、$P(Y)$の値は0となり、$P(Y|X)$の値も0となる。これは$P(X|Y)$の値にかかわらず書き起こしの単語列$X$から全てのフィラーが削除されることを意味している。\begin{table}[t]\small\begin{center}\caption{書き言葉への変換規則・確率の一部}\label{kakikae}\vspace{2.0mm}\begin{tabular}{|l|l|l|}\hline書き言葉($y$)&話し言葉($x$)&$P(x|y)$\\\hline\hlineという&っていう&0.14\\&という&0.86\\\hlineが&けども&0.036\\&けど&0.042\\&が&0.922\\\hlineどのよう&どういう風&0.46\\&どのよう&0.54\\\hline(〜し)ている&(〜し)てる&0.12\\&(〜し)ている&0.88\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{助詞の脱落パターンと確率の一部}\label{joshi}\vspace{2.0mm}\begin{tabular}{|l|l|}\hlineパターン$y$&脱落確率$P(x|y)$\\\hline\hline名詞は名詞&0.073\\名詞を名詞&0.032\\\hline名詞は動詞&0.056\\名詞を動詞&0.042\\\hline名詞は形容詞&0.20\\名詞が形容詞&0.024\\\hline名詞は接続詞&0.16\\\hline\end{tabular}\end{center}\end{table}\subsection{書き言葉表現への変換}ここでは、$P(x|y)$($x$,$y$は1つ以上の単語からなる句)は書き言葉表現の話し言葉表現への変換確率と解釈される。講演録編集者が一次整形を行う際、文章の順序を入れ替える操作は行わないので、元の書き起こしと講演録編集者により一次整形された文章を照合し、句単位で対応づけを行うことで、$P(x|y)$の値を学習・推定することができる。ただし本研究では、正解の講演録の数が完全な学習には不十分であったため、あらかじめ人手により書き言葉から話し言葉への変換規則を作成しておき、それらに対してのみ確率を推定することとした。作成した変換規則数は64個あり、その一部を表\ref{kakikae}に示す。\subsection{助詞の挿入}ここでは、$P(x|y)$は整形された文章のある単語列パターン$y$に含まれる助詞が話し言葉$x$において脱落する確率と解釈される。書き起こしと講演録編集者により整形された文章を比較したところ、次のような「品詞」「助詞」「品詞」のパターン$y$において助詞が脱落していた。\begin{itemize}\item「名詞」(助詞)「名詞」\\(例)「このお話し\underline{を}幹事の方から」\item「名詞」(助詞)「動詞」\\(例)「我々\underline{は}作ってきたわけです」\item「名詞」(助詞)「形容詞」\\(例)「非常に能力\underline{が}高くなって」\item「名詞」(助詞)「接続詞」\\(例)「これ\underline{は}つまりサンプルごとの」\end{itemize}そこで、これらのパターンの助詞が脱落する規則をあらかじめ作成しておき、それが生起する確率$P(x|y)$を書き起こしと一次整形の対応づけにより推定する。用意した変換パターン数は13個あり、その一部を表\ref{joshi}に示す。そして、それらの助詞を挿入する場合としない場合との尤度を比較することによって助詞を挿入するかしないか、どの助詞を挿入するのか判定を行う。\subsection{句読点の挿入}「日本語話し言葉コーパス」(CSJ)の書き起こしには句読点がなく、その代わりに話者のポーズ情報が記録されている。ここでは、整形された文章の単語列$Y$に含まれる句読点が、音声(書き起こしの単語列$X$)においてポーズに変換される確率$P(x=ポーズ|y=句読点)$を考える。なお、本研究では句点のみを扱う。なぜなら、句点を挿入する位置は人によらずほぼ一定であるが、読点を挿入する位置は様々であり定量的な評価を行うのが難しいためである。音声認識における句点の挿入に関する研究は、これまでにも行われているが\cite{nakashima_2001,takesawa_1999,Euro_1999}、これらが扱っているのは旅行会話などの短い話し言葉であり、講演のように長い話し言葉は扱っておらず、また、主に言語モデル($P(Y)$に相当)による情報しか用いられていない。文末には、「です」「ます」などのような典型的な表現が多い反面、話し言葉においては独特の表現が文の区切りになることがある。文末での「〜と」と文頭での「で〜」である。その例を以下に挙げる。\\(例)「単位が使われていたと。あるいは」\\\verb++「大きく違う。でそのままでは」そこで、本研究では$P(x_i=ポーズ長|y_j=句点)$の確率において、以下の3通りのモデル化を考える。$x_i$においてはポーズの長さの情報も考慮する。\begin{description}\item[(1)すべてのポーズを対象\verb++($x_i>0$):]整形した文章$Y$における句点があらゆる長さのポーズに変換されうるとする。この場合は、書き起こし$X$におけるポーズがすべて句点に変換されうることになり、その判定を言語モデル確率$P(Y)$を用いて行う。著者らが以前報告した講演音声の自動インデキシングの研究\cite{hasegawa}では、この考え方が用いられている。\item[(2)平均以上の長さのポーズを対象\verb++($x_i>\theta$):]句点の挿入箇所には、ある程度長いポーズがおかれると考えられるので、変換確率$P(x_i=ポーズ長|y_j=句点)$において、句点がある閾値$\theta$以上の長さのポーズに変換されるとする。ここで、講演では発話速度が話者によってまちまちであり、それに応じてポーズのおかれる長さも大きく異なるため、すべての講演者に対して同一の値を閾値として用いるのは適切でない。そこで、閾値として各話者ごとの平均ポーズ長を用いることにする。予備実験においても、一定の値を閾値として用いる場合には、平均ポーズ長が最良であった。この場合、平均ポーズ長以上のポーズに対してのみ$P(Y)$を考慮して句点に変換するか否かの判定を行う。\item[(3)表現に依存してポーズ長が変わると仮定\verb++($x_i>\theta$,\verb++$\theta$が$y_{j-1}$,$y_{j+1}$に依存):]「です」「ます」などの典型的な文末表現に付随する句点はあらゆる時間長のポーズになりうるが、書き言葉では通常文の区切り表現とならない「〜と」「で〜」、あるいは文中にも頻繁に使われる「〜た」の部分にある句点は平均ポーズ長以上の長さのポーズになると仮定する。この場合、「ます」「です」などの後のポーズは長さに関係なく句点に変換されうるが、「〜と」「で〜」「〜た」の部分のポーズは平均長以上のポーズに限り、句点に変換されうることになる。この場合も、最終的には$P(Y)$を考慮して判定を行う。\end{description}上記3通りについて、4章で比較・評価する。\subsection{文体の統一}話し言葉を書き言葉に変換する際に、その変換候補が複数ある場合には、どれを採用するかの判定を言語モデル確率$P(Y)$に基づいて行う。ここで、使用する言語モデルを異なるものにすると、変換結果も異なったものになる。本研究では2種類の言語モデルを用いることによって、それぞれ文体が「ですます」調あるいは「である」調に統一することができるか検討する。使用する言語モデルは、講演録のコーパスから作成されたものと、新聞記事のコーパスから作成されたものを用いる。前者の言語モデルを用いると「ですます」調の文体に、後者の言語モデルを用いると「である」調の文体に統一されると期待される。ただし、例えば「ですます」調の文でも「〜であると思われます」といった表現があるため、単純に「である」という表現をすべて「です」や「であります」という表現に変えればよいわけではない。ここでは、変換モデル確率において、表\ref{desumasu}の各グループ(同一行)間で相互に変換可能としたが、変換確率は等しいものとし、その選択は$P(Y)$に基づいて行うものとした。なお、変換の際に動詞の語幹が変化する表現、例えば「思います」→「思う」などの表現については変換規則を用意していない。\subsection{デコーディングアルゴリズム}これまでに、講演の書き起こしから整形された文章を生成する処理とモデルについて述べてきた。本研究では、確率$P(Y)$の計算に単語3-gramモデルを用いるので、これらの処理を逐次的に行うのではなく、統合的に行うように実装する必要がある。なぜなら、これらの処理を個別に行うと、すぐ前後に別の処理をする必要のある表現が存在する場合、式(2)の尤度の計算に影響を与えるからである。したがって、前後2単語に着目する必要のある表現が存在しなくなる範囲において、そのすべての変換パターンの尤度を比較して出力単語列を決定する。その様子を図\ref{renzoku}に示す。変換で複数の候補が生成されうることも考慮すると、可能な仮説の数は組み合わせ的に爆発するので、探索アルゴリズムを導入する必要がある。本研究ではビームサーチを行う。具体的には、生成したパターンの数が100を越えた場合は、そこまでの範囲で尤度を計算し、上位100個のパターンのみを選択することにした。\begin{table}[t]\begin{center}\caption{「ですます」調・「である」調の変換パターン}\label{desumasu}\vspace{2.0mm}\begin{tabular}{|l|}\hlineです・であります・である・だ\\\hlineでした・でありました・であった・だった\\\hlineします・いたします・する\\\hlineしました・いたしました・した\\\hlineおります・います・いる\\\hlineおりました・いました・いた\\\hlineあります・ございます・ある\\\hlineありました・ございました・あった\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\scalebox{1.0}{\includegraphics{renzoku.eps}}\end{center}\caption{変換の仮説生成}\label{renzoku}\end{figure} \section{実験と評価} \subsection{データと実験条件}以上の手法を用いて講演の書き起こしを整形し、その評価を行った。評価データとして、CSJに含まれる実際に学会で行われた4講演を用いた。評価データの概要および処理時間を表\ref{kouen}に示す。なお使用したマシンのCPUはIntelXeon2.8GHz、メモリは2GBである。また、$P(Y)$の計算に用いる言語モデルは、毎日新聞記事データで学習されたもの\cite{kawahara}と、Web講演録で学習されたもの\cite{katou}の2種類であるが、4.5節以外ではWeb講演録の方を使用している。$P(X|Y)$推定のための講演の書き起こしと整形文章のデータは評価データ以外のCSJの18講演を用いている。次節以降、行った実験の結果と評価について述べる。なお、3.2節のフィラーの削除は完全に機械的に行える。また、3.3節の書き言葉表現への変換もおおむね行えた。\subsection{デコーディングパラメータについて}3.1節で述べた式(2)の2つのパラメータについてまず検討した。評価尺度として、句点の挿入および助詞の挿入についてのF値の平均を用いる。句点挿入のモデルは最もよいものを用いている。様々な言語重み・挿入ペナルティの値について行った実験結果を図\ref{parameter}に示す。結果として(言語重み,挿入ペナルティ)=(5,8)の時にF値が最大となった。したがって、以降の実験はこれらの値を用いて行う。表4の処理時間もこの場合の計測値である。\begin{figure}[t]\begin{center}\scalebox{0.5}{\includegraphics{FM3.eps_new}}\end{center}\vspace{-1.0mm}\caption{パラメータの種々の値に対する句点および助詞挿入のF値の平均}\label{parameter}\end{figure}\begin{table}[t]\small\centering\caption{評価データの概要および処理時間}\label{kouen}\begin{tabular}{|r||r|r|r|r|}\hline&\multicolumn{2}{c|}{講演}&整形文&処理時間\\\cline{2-4}&\multicolumn{1}{c|}{時間}&サイズ&サイズ&(sec)\\\hline\hlineA01M0035&28分&5557語&5378語&17.42\\\hlineA01M0007&30分&3899語&3802語&13.65\\\hlineA01M0074&13分&2509語&2451語&5.97\\\hlineA05M0031&27分&5371語&4854語&19.99\\\hline\end{tabular}\vspace{-4.0mm}\end{table}\subsection{句点の挿入}3.5節で述べた3通りの句点挿入の実験結果を表\ref{pause}に示す。ポーズ長制限なしで挿入する場合は適合率が低い。その主な原因は、「〜と」「〜た」の後と「で〜」の前のポーズが誤って句点に変換されることが多いためである。「ます」「です」などの後のポーズが誤って句点に変換されることはなかった。「〜た」という表現は文末表現であるが、同時に文中にもよく使われるため、例えば「〜使われてきた$<$pause$>$データベースが〜」→「〜使われてきた。データベースが〜」のような誤りが起こる。また、「〜と」の場合は、例えば、「〜しようと思うと$<$pause$>$このように〜」→「〜しようと思う。このように〜」のような場合に誤ってポーズが句点に変換された。一方、平均ポーズ長以上に挿入する場合においては再現率が低い。その主な原因は、「ます」「です」などの、通常書き言葉で文末表現になるものの後で、ポーズ長が短い箇所が対象外になったためである。したがって、「です」「ます」などの典型的な文末表現部分にある句点はあらゆる時間長のポーズになりうるが、「〜と」「で〜」「〜た」の部分にある句点は平均ポーズ長以上の長さのポーズになるとするモデルを導入した。その結果、再現率・適合率とも高い精度を得ることができた。\begin{table}[t]\small\caption{句点挿入の実験結果}\centering\begin{tabular}{|l||c|c|c|}\hline&再現率&適合率&F値\\\hline\hlineポーズ長制限なし&309/371&309/410&0.791\\&(83.2\%)&(75.4\%)&\\\hline平均ポーズ長以上&239/371&239/255&0.763\\&(64.4\%)&(93.7\%)&\\\hline表現に依存して変化&283/371&283/306&0.835\\&(76.3\%)&(92.3\%)&\\\hline\end{tabular}\label{pause}\vspace{-3.0mm}\end{table}\subsection{助詞の挿入}次に、3.4節で述べた助詞の挿入に関する評価を行った。助詞が脱落している箇所は4講演で計47箇所あった。それらに対して、・プロの編集者が作成した講演録において挿入されている助詞・上記に含まれないが、意味的に妥当な助詞\\を正解としてそれぞれ再現率を評価した。また、挿入されたすべての助詞に対して・意味的に妥当である・許容範囲である\\の2段階で適合率を評価した。これらの評価基準に対して、統計的手法の有効性を調べるために、3.4節で述べたパターンの変換確率$P(x|y)$に関して次の2つの場合の比較を行った。\begin{description}\item[(1)$P(x|y)$の値として、統計的に推定したものを用いる]\item[(2)あらかじめ$P(x|y)$の値を全て1に設定する]\end{description}\begin{table}[t]\footnotesize\begin{center}\caption{助詞挿入の実験結果}\begin{tabular}{|l||c|c|c|}\hline$P(x|y)$の値&再現率&適合率&F値\\\hline\hline統計的に推定&37/47(78.7\%)&68/123(55.3\%)&0.650\\&(プロの講演録と一致)&(意味的に妥当)&\\&42/47(89.4\%)&81/123(65.9\%)&0.759\\&(意味的に妥当)&(許容範囲)&\\\hlineあらかじめ&33/47(70.2\%)&83/187(44.4\%)&0.544\\全て1に設定&(プロの講演録と一致)&(意味的に妥当)&\\&42/47(89.4\%)&109/187(58.3\%)&0.706\\&(意味的に妥当)&(許容範囲)&\\\hline\end{tabular}\label{joshikekka}\end{center}\vspace{-7.0mm}\end{table}結果を表\ref{joshikekka}に示す。適合率で大きな差が見られ、許容範囲のものまで正解にした場合において$P(x|y)$も用いた場合の方が7.6\%向上している。さらに、挿入された絶対数も約2/3に減少しており、実際に生成されたテキストの読みやすさという観点において大きく改善されている。誤って助詞が挿入された箇所の多くは「名詞」「名詞」のパターンであった。学会講演において用いられる専門用語の多くが複合名詞であるため、形態素解析を行うと「名詞」「名詞」と分解され、助詞の挿入箇所の候補になる。そこで、「名詞」「名詞」と連続しているもののうち、3回以上出現すればその箇所は専門用語であると判断するようにした。これにより多くの専門用語は助詞の挿入箇所の候補にならなくなったが、1〜2回しか使われていない専門用語や、人名・機関名などの固有名詞が複数の形態素に分解された結果、助詞が挿入されることがあった。例えば「データベース」や「東京大学」などである。参考までに、誤り箇所からこれらの複合名詞の箇所を除いて集計すると、適合率は許容範囲のものまでを正解とした場合で79.4\%(81/102)となった。\subsection{言語モデルの使いわけ}次に、3.6節で述べた言語モデルの違いによる文体の変化について評価を行った。結果を表\ref{buntai}に示す。\begin{table}[t]\small\caption{言語モデルの違いの影響}\centering\begin{tabular}{|l||c|c|}\hline$P(Y)$のモデル&「ですます」調&「である」調\\\hline\hline新聞記事モデル&52.3\%&47.7\%\\\hline講演録モデル&81.1\%&18.9\%\\\hline\end{tabular}\label{buntai}\vspace{-3.0mm}\end{table}入力データでは「ですます」調が81.5\%、「である」調が18.5\%であった。講演録言語モデルを用いて整形した場合は81.1\%が「ですます」調に、新聞記事言語モデルを用いて整形した場合は47.7\%が「である」調になった。入力データが基本的に「ですます」調であるため、講演録モデルを用いた場合はほとんど変換されていない。一方、新聞記事モデルを用いた場合は、「である」調の割合が30\%程度増えている。しかし、全体の半分程度しか「である」調にならないのは、3.6節でも述べたように、今回の変換モデルでは動詞の語幹が変化する表現に対応していないためである。\subsection{規則ベースの手法との比較}最後に、完全な規則ベースによる手法を用いて実験を行い、本論文で提案した統計的手法との比較を行う。ここでは、句点の挿入および助詞の挿入について評価した。句点の挿入については次の規則を用いた。3.5節及び4.3節における考察に基づいて、ポーズの閾値についても最も妥当なものにした。・「です」「ます」などの典型的な文末表現の後のポーズは全て句点に変換・「〜と」「〜た」「で〜」の部分のポーズは、平均ポーズ長以上なら句点に変換また助詞の挿入については、コンテキストを考えずに言語モデルの学習テキストにおいて出現頻度が高いものを挿入規則として抽出した。例えば学習テキスト中において、「名詞助詞動詞」の並びで出現頻度が最大となる助詞は「が」であったため、「名詞動詞」となっている箇所には、その前後のコンテキストは考えずに、出現回数が最大の「が」を挿入するという規則を抽出した。以上の手法により行った実験結果と提案手法との比較を表\ref{comp_kuten}、表\ref{comp_joshi}に示す。句点の挿入に関しては、規則ベースの方が再現率は若干高いものの、適合率が大幅に低下しており、誤った挿入がおよそ4倍に増えている。助詞の挿入に関しては、F値が0.759から0.696に低下している。以上より、提案手法の有効性が確認された。\begin{table}[t]\small\caption{規則ベースと提案手法との比較(句点挿入)}\centering\begin{tabular}{|l||c|c|c|}\hline&再現率&適合率&F値\\\hline\hline規則ベース&301/371(81.1\%)&301/392(76.8\%)&0.789\\\hline提案手法&283/371(76.3\%)&283/306(92.3\%)&0.835\\\hline\end{tabular}\label{comp_kuten}\vspace{-3.0mm}\end{table}\begin{table}[t]\small\caption{規則ベースと提案手法との比較(助詞挿入)}\centering\begin{tabular}{|l||c|c|c|}\hline&再現率&適合率&F値\\\hline\hline規則ベース&26/47(55.3\%)&60/91(65.9\%)&0.601\\&(プロの講演録と一致)&(意味的に妥当)&\\&31/47(66.0\%)&67/91(73.6\%)&0.696\\&(意味的に妥当)&(許容範囲)&\\\hline提案手法&37/47(78.7\%)&68/123(55.3\%)&0.650\\&(プロの講演録と一致)&(意味的に妥当)&\\&42/47(89.4\%)&81/123(65.9\%)&0.759\\&(意味的に妥当)&(許容範囲)&\\\hline\end{tabular}\label{comp_joshi}\vspace{-3.0mm}\end{table}\begin{figure}[t]\small\begin{center}\begin{tabular}{l}\hline続いて結果の方を見ていきたいと思います。まずこちら英語話者\\アメリカ人の英語話者による語頭にRLを含む単語Rのライト\\とLのライトの調音について一名の例を示しました。縦軸とこの\\グラフでいう縦軸と横軸というのはこの調音地図というのの元に\\なっている距離マトリックスをより反映するようにMDSという手法が\\抽出した次元一と二というようになりますで一つ一つの点のグラフ\\内の一つ一つの点が発話の一回一回を示していて同じ単語の点\\を見易いように見易く丸で囲んでグルーピングしています。\\\hline\end{tabular}\caption{提案手法による整形結果}\label{output}\end{center}\vspace{-1.0mm}\end{figure}\subsection{整形結果の具体例}ここでは、提案手法により図1で示した書き起こしを整形した具体例を図\ref{output}に示す。なお、本来入力は形態素解析結果であるが、図1では見やすくするために活用形や形態素番号などの情報は省いて示している。句点の挿入はおおむね正しく行えており、また、「結果の方見ていきたい」に「を」が挿入されているなどの整形が行えている。しかし、「になりますで1つ1つ」の所では、ポーズが本来の文末位置とは少しずれた所にあるため、句点が正しく挿入されていない。また、この場合、「調音地図」というパターンが3回以上出現しているため、これを専門用語であるとみなして助詞の挿入箇所の候補にはしていない。ただし、図2と比較すると言い直し部分の削除などを行っていない。 \section{結論} 統計的な機械翻訳の考え方に基づいて文体の整形を自動的に行う手法を提案した。行った処理は、フィラーの削除、句点の挿入、助詞の挿入、書き言葉表現への変換及び文体の統一である。ビームサーチを導入してこれらを統合的に行い、実際の講演の書き起こしを整形された文章に変換した。正解の文章として講演録編集者によって一次整形されたものを用いて、句点の挿入と助詞の挿入に関して定量的な評価を行った。句点の挿入においてはF値で0.835、助詞の挿入においてはF値で0.759という高い精度が得られた。また、実験的評価により、規則ベースの手法に比べて統計的なアプローチが有効であること、及び変換モデル確率$P(x|y)$の効果が示された。今後の課題としては、書き言葉表現への変換に関して人手により変換規則を作成するのではなく、大規模なコーパスから規則を抽出して変換確率$P(x|y)$を推定することや、文体の統一に関して不十分であった箇所に対応することが挙げられる。また、今回は正しい書き起こしを用いて評価を行ったが、今後は音声認識結果に適用していく予定である。\vspace{5.0mm}\acknowledgment本研究は,開放的融合研究『話し言葉工学』プロジェクトの一環として行われた。東京工業大学の古井貞煕教授をはじめとして、ご協力を頂いた関係各位に感謝いたします。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen}{Chen}{1999}]{Euro_1999}Chen,C.\BBOP1999\BBCP.\newblock\BBOQ{SpeechRecognitionwithAutomaticPunctuation}\BBCQ\\newblockIn{\BemProc.Eurospeech}.\bibitem[\protect\BCAY{I.Garcia-Varea,F.Casacuberta,\BBA\H.Ney}{I.Garcia-Vareaet~al.}{1998}]{ICSLP98-209}I.Garcia-Varea,F.Casacuberta,\BBA\H.Ney\BBOP1998\BBCP.\newblock\BBOQ{AnIterative,DP-BasedSearchAlgorithmForStatisticalMachineTranslation}\BBCQ\\newblockIn{\BemProc.ICSLP},\lowercase{\BVOL}~4.\bibitem[\protect\BCAY{P.Brown,S.Pietra,V.Pietra,\BBA\R.Mercer}{P.Brownet~al.}{1993}]{Brown}P.Brown,S.Pietra,V.Pietra,\BBA\R.Mercer\BBOP1993\BBCP.\newblock\BBOQ{TheMathematicsofStatisticalMachineTranslation:ParameterEstimation}\BBCQ\\newblockIn{\BemProc.ComputationalLinguistics},\lowercase{\BVOL}~19.\bibitem[\protect\BCAY{S.Furui,K.Maekawa,\BBA\H.Isahara}{S.Furuiet~al.}{2000}]{ICSLP2000}S.Furui,K.Maekawa,\BBA\H.Isahara\BBOP2000\BBCP.\newblock\BBOQ{Towardtherealizationofspontaneousspeechrecognition-introducingofajapanesepriorityprogramandpreliminaryresults-}\BBCQ\\newblockIn{\BemProc.ICSLP},\lowercase{\BVOL}~3.\bibitem[\protect\BCAY{Y.Wang\BBA\A.Waibel}{Y.Wang\BBA\A.Waibel}{1998}]{ICSLP98-826}Y.Wang\BBACOMMA\\BBA\A.Waibel\BBOP1998\BBCP.\newblock\BBOQ{FastDecodingForStatisticalMachineTranslation}\BBCQ\\newblockIn{\BemProc.ICSLP},\lowercase{\BVOL}~6.\bibitem[\protect\BCAY{加藤,南條,河原}{加藤\Jetal}{2000}]{katou}加藤一臣,南條浩輝,河原達也\BBOP2000\BBCP.\newblock\JBOQ{講演音声認識のための音響・言語モデルの検討}\JBCQ\\newblock\Jem{信学技報},SP2000-97,NLC2000-49(SLP-34-23).\bibitem[\protect\BCAY{若尾,江原,白井}{若尾\Jetal}{1998}]{98-NL-126-9}若尾孝博,江原暉将,白井克彦\BBOP1998\BBCP.\newblock\JBOQ{短文分割を利用したテレビ字幕自動要約}\JBCQ\\newblock\Jem{情報処理学会研究報告},98-NL-126-9.\bibitem[\protect\BCAY{竹沢他}{竹沢\JBA他}{1999}]{takesawa_1999}竹沢寿幸\BBACOMMA\他\BBOP1999\BBCP.\newblock\JBOQ{発話単位の分割または接合による言語処理単位への変換手法}\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6巻}(2号),83--95.\bibitem[\protect\BCAY{中嶋山本}{中嶋\JBA山本}{2001}]{nakashima_2001}中嶋秀治\BBACOMMA\山本博史\BBOP2001\BBCP.\newblock\JBOQ{音声認識過程での発話分割のための統計的言語モデル}\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42巻}(11号),2681--2688.\bibitem[\protect\BCAY{長谷川,秋田,河原}{長谷川\Jetal}{2001}]{hasegawa}長谷川将宏,秋田祐哉,河原達也\BBOP2001\BBCP.\newblock\JBOQ{談話標識の抽出に基づいた講演音声の自動インデキシング}\JBCQ\\newblock\Jem{情報処理学会研究報告},01-SLP-36-6.\bibitem[\protect\BCAY{村田}{村田}{2002}]{murata_nl2002_diff}村田真樹\BBOP2002\BBCP.\newblock\JBOQ{diffを用いた言語処理---便利な差分検出ツールmdiffの利用---}\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf9巻}(2号),91--110.\bibitem[\protect\BCAY{村田井佐原}{村田\JBA井佐原}{2001}]{murata_nl2001_henkei}村田真樹\BBACOMMA\井佐原均\BBOP2001\BBCP.\newblock\JBOQ{同義テキストの照合に基づくパラフレーズに関する知識の自動獲得}\JBCQ\\newblock\Jem{情報処理学会研究報告},2001-FI-61,2001-NL-142.\bibitem[\protect\BCAY{中沢,遠藤,古川,豊浦,岡}{中沢\Jetal}{1996}]{SP96-28}中沢正幸,遠藤隆,古川清,豊浦潤,岡隆一\BBOP1996\BBCP.\newblock\JBOQ{音声波形からの音素片記号系列を用いた音声要約と話題要約の検討}\JBCQ\\newblock\Jem{電子情報通信学会技術報告},SP96-28.\bibitem[\protect\BCAY{鹿野,伊藤,河原,武田,山本}{鹿野\Jetal}{2001}]{text2}鹿野清宏,伊藤克亘,河原達也,武田一哉,山本幹雄\BBOP2001\BBCP.\newblock\Jem{「音声認識システム」}.\newblockオーム社.\bibitem[\protect\BCAY{河原他}{河原\JBA他}{2000}]{kawahara}河原達也\BBACOMMA\他\BBOP2000\BBCP.\newblock\JBOQ{日本語ディクテーション基本ソフトウェア(99年度版)の性能評価}\JBCQ\\newblock\Jem{情処学研報},SLP-31-2,NL-137-7.\bibitem[\protect\BCAY{堀古井}{堀\JBA古井}{1999}]{99-SLP-29-18}堀智織\BBACOMMA\古井貞煕\BBOP1999\BBCP.\newblock\JBOQ{話題語と言語モデルを用いた音声自動要約法の検討}\JBCQ\\newblock\Jem{情報処理学会研究報告},99-SLP-29-18.\bibitem[\protect\BCAY{堀古井}{堀\JBA古井}{2000}]{SP2000-116}堀智織\BBACOMMA\古井貞煕\BBOP2000\BBCP.\newblock\JBOQ{係り受けSCFGに基づく音声自動要約法の改善}\JBCQ\\newblock\Jem{電子情報通信学会技術報告},SP2000-116.\bibitem[\protect\BCAY{加藤}{加藤}{1998}]{98-NL-126-10}加藤直人\BBOP1998\BBCP.\newblock\JBOQ{ニュース文要約のための局所的要約知識獲得とその評価}\JBCQ\\newblock\Jem{情報処理学会研究報告},98-NL-126-10.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{下岡和也}{2002年京都大学工学部情報学科卒業.現在,同大学院情報学研究科知能情報学専攻修士課程在籍.音声認識・理解の研究に従事.}\bioauthor{南条浩輝}{1999年京都大学工学部情報学科卒業.2001年同大学院情報学研究科修士課程了.現在,同博士後期課程在学中.音声認識・理解の研究に従事.情報処理学会,日本音響学会各会員.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年同博士後期課程退学.同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.この間,1995年から96年まで米国ベル研究所客員研究員.1998年からATR客員研究員.1999年から国立国語研究所非常勤研究員.2001年から科学技術振興事業団さきがけ研究21研究者.音声認識・理解の研究に従事.京大博士(工学).1997年度日本音響学会粟屋賞受賞.2000年度情報処理学会坂井記念特別賞受賞.情報処理学会連続音声認識コンソーシアム代表.IEEESPSSpeechTC委員.情報処理学会,電子情報通信学会,日本音響学会,人工知能学会,言語処理学会,IEEE各会}\end{biography}\end{document}
V15N01-04
\section{はじめに} 近年,コンピュータを含め,機械は我々の生活・社会と密接に関与し,必要不可欠な存在となっている.そのため,機械の目指すべき姿は「人と共存する機械(ロボット)」だと言えるだろう.この夢は,二足歩行ができる,走ることができる,踊ることができるなど,身体能力に長けたロボット\cite{HumanRobot1999}\cite{RoBolution2001}が数多く開発されたことにより,その一部が実現されつつある.今後,機械が真に「人と共存」するためには,優れた身体能力を持った機械に「知能」を持たせ,人間と自然な会話を行う能力が必要になる.機械が人間を主体としたスマートな会話を行うことにより,人と機械の円滑なコミュニケーションが可能となる.そこで,自然な会話を行うための自然言語処理の研究が注目を浴びている.しかしながら,従来の自然言語処理では,文の表層的な形式を重視し,ある限定された目的や特定の状況下での会話処理(タスク処理型会話)に重点を置いた研究が主流となっている.コンピュータ技術の進展に伴って,応答事例を大量に収集し知識ベース化する傾向が強い.このような方法はユーザの発した言葉の理解が,構築した知識ベースの大きさやシステム設計者の取得したデータに束縛されてしまうため,パターンに一致する会話事例が随時必要とされたり,限定された応答となってしまう.このような理由により,コンピュータとの人間らしい会話のためには,ただ応答事例や知識を大量に集めるだけでは対応しきれないと考えられる.そこで,コンピュータ自身によって会話文を生成する必要がある.人間は,基本的な文章の言い回し(応答事例)を元に,臨機応変に文章の可変部を変化させ,組み合わせることで文章を生成している.このように,コンピュータにおいても,基本的な応答事例を知識として与え,文章の可変部を連想によって変化させることができれば,より柔軟で多種多様な会話ができると考えられる.この考えに基づき,コンピュータによる会話文生成\cite{Yoshimura2006}が研究された.しかし,\cite{Yoshimura2006}は機械的な語の組み合わせに起因する一般的に見て不自然な語の組み合わせの応答を生成する恐れがある.例として次の会話を挙げる.A「休暇にサハラ砂漠へ行ってきました.」B「砂漠はさぞ暑かったでしょう.」\noindentこの応答を生成する場合,「雪国はさぞ寒かったでしょう」という文章事例(知識)より,[雪国]と[寒い]という可変部を連想によって変化させることで,「砂漠はさぞ暑かったでしょう」という文章を生成することができる.しかし,機械的に語を組み合わせることにより,「砂漠はさぞ寒かったでしょう」や「砂漠はさぞ涼しかったでしょう」のような人間が不自然と感じる組み合わせの応答をも生成する.そこで,このような違和感のある組み合わせの語の検出能力が必要となる.このため,本稿では,この違和感のある組み合わせの語の検出方式について論じる.本稿における「違和感表現」とは,聞き手が何らかの違和感を覚えたり,不自然さを感じる表現として用いる.違和感表現には以下のような表現が挙げられる.\begin{enumerate}\item\label{item:bunpo}文法的知識が必要な違和感表現\\「水が飲む」「本が読む」\item\label{item:joshiki}意味に関する常識的知識が必要な違和感表現\\「黒い林檎を食べた」「7月にスキーに行った」「歯医者へ散髪に行く」\end{enumerate}(\ref{item:bunpo})の表現を理解するには,助詞の使い方や動詞の語尾変化に関する文法的知識が必要である.コンピュータに文法的な知識を与えることで.「水が飲む」という表現を「水を飲む」,「本が読む」という表現を「本を読む」の誤りであると検出し,訂正することが可能になる.これは,文法的な知識や大規模コーパス等\cite{Kawahara2006}を用いることにより,検出可能と考えられる.本稿では,この範囲については扱わないものとする.これに対し,(\ref{item:joshiki})のような表現は,文法的な知識や事例を集めたコーパスだけでは対応できない.文法的にも,助詞の使い方や動詞の語尾変化に関しても誤りではないからである.しかし,人間は「黒い林檎を食べる」と聞けば,「林檎」が「黒い」ことに違和感を覚える.また,「7月にスキーに行った」という表現では,「スキー」を「夏」である「7月」に行ったということに違和感を覚え,「歯医者に散髪に行く」と聞けば,「散髪に行く」ためには「美容院」等に行くはずなのに歯を治療する場所である「歯医者」に行ったことに不自然さを感じる.これらの文章を理解するには,文法的な知識だけでなく,我々が経験上蓄積してきた,語に対する常識を必要とする.このような違和感表現を検出することができれば,応答合成だけでなく,人間が表現する違和感のある会話に柔軟に応答できると期待される.何故ならば,人間はこれらの文章に違和感を覚え,その違和感について話題を展開することで,会話を進めていくことができる.「7月にスキーに行った」のは,南半球の国や年中雪のある北国かもしれない.また,単なる言い間違いや聞き間違いかもしれない.人間は違和感のある表現を検出したとき,この疑問を具体的に相手に尋ねるような応答をする.これが人間らしい会話の一因となる.しかし,従来の機械との会話は質問応答が基本であり,違和感は考慮されていない.人間ならばどこがどのように不自然かをすぐに判別できる.これは人間が語の意味を知り,語に関する常識を持っているからである.しかし,機械は人間の持つ「常識」を持たず,理解していない.そこで,機械が「不自然だ」「一般的でない表現だ」と気づくためには,機械にも,一般的で矛盾のない表現を識別できる機能が必要だと考えられる.自然な応答を返すことは,機械が意味を理解し,常識を持って会話を行っていることを利用者に示すことになる.つまり,このような文章に対応できるシステムは聞き返すことで,話し相手としての存在感を強調し,人間らしい柔軟な会話ができると期待される.そこで,違和感表現を検出する手法の開発が必要となる.違和感表現には時間,場所,量,感覚などの様々な観点が存在する.\begin{itemize}\item\label{item:time}時間に関する違和感表現\\「7月にスキーに行った」\item\label{item:basyo}場所に関する違和感表現\\「歯医者へ散髪に行った」\item\label{item:ryo}量に関する違和感表現\\「机に家を入れました」\item\label{item:kankaku}感覚に関する違和感表現\\「黒い林檎を食べました」\end{itemize}このような違和感表現を検出するにはそれぞれの観点での常識に着目することが必要となるが,本稿では,その中でも,感覚に着目した違和感表現検出手法について述べる.これは,ある名詞に対する一般的な感覚を必要とする形容語に関する矛盾を判断する.つまり,「黒い」「林檎」などのように,名詞とそれを形容する語(以降,形容語)との関係の適切さを判断する.形容語とはある名詞を形容する形容詞・形容動詞・名詞(例:黒い,大きな,緑の)を指す. \section{名詞と形容語の関係} label{sec:bunrui}本論文では,提案する違和感表現検出処理のために,違和感の有無の観点から名詞と形容語の関係を整理し,どのような語が違和感の無い語であるかについて考察する.そこで,「林檎」という対象物を例に出す.「林檎」から人間が一般的に想起する形容語には「赤い,甘い,丸い」が存在する.この形容語は「林檎」を表現する上で特徴的な形容語であると言える.これらの形容語と「林檎」の関係は違和感がない.しかし,「赤い」と同様に,色を表現する形容語である「黒い」「白い」と,「林檎」の関係は違和感を覚える.このようなある対象物に対して人間が一般的に連想できる形容語の表現に対し,その対象物に対して連想は行われないが論理的に正しい形容語の表現が存在する.例えば,「重い林檎」「軽い林檎」という表現には人間は違和感を覚えない.この「重い,軽い」は「林檎」を特徴的に表現する形容語ではないため,人間は「林檎」から連想しない.ところが,「林檎」は質量を持つ物体であるため,「重い,軽い」という表現は論理的に正しく,違和感を覚えない表現だと言える.そこで,このような名詞と形容語の関係を整理するため,下記の4グループに分類した.\begin{description}\item[特徴的]対象物の特徴的な形容語\\赤い林檎,黄色いバナナ,丸い地球,広い海など\item[反特徴的]対象物の特徴的な形容語の反対の性質の形容語\\黒い林檎,黒いバナナ,四角い地球,狭い海など\item[論理的]対象物に対する形容語として論理的な矛盾のない形容語(対象物の特徴的な形容語ではない性質の形容語)\\黒い車,赤い風船,古い雑誌,重い扉など\item[非論理的]対象物に対する形容語として論理的に矛盾する形容語(対象物が取らない性質の形容語)\\暑い林檎,四角い病気,からい夕焼け,低い手袋など\end{description}この4グループをそれぞれ「特徴的」「反特徴的」「論理的」「非論理的」と呼ぶこととする.先に述べた例において,「特徴的」と「反特徴的」はその対象物に対して人間が一般的に連想する形容語に関係する表現である.これに対し,「論理的」「非論理的」はその対象物に対して人間が一般的に連想はしないが論理的に正しい形容語に関係する表現である.「論理的」の関係では,「黒い」「車」のように,対象物「車」に対し,一般的に想起する特徴的な性質(色)の形容語は存在しないが,その性質(色)を対象物は表現できる.これに対し,「非論理的」の関係は,「四角い」「病気」のように,対象物「病気」に対し,その性質(形)を対象物が持たない場合である.これらの「特徴的」「反特徴的」「論理的」「非論理的」の名詞と形容語の関係について,一般的に人間がどのように感じるかについて調べる必要がある.これについて実験を行った.\subsection{人間による評価実験}\label{sec:humanjikken}\ref{sec:bunrui}節で分類した「特徴的」「反特徴的」「論理的」「非論理的」の4パターンそれぞれについて,形容語と名詞のセットを各50セットずつ,全200セット用意した.この評価セットはシステム設計者とは異なる複数人物から「特徴的」「反特徴的」「論理的」「非論理的」の説明を行った上で,アンケートによって収集したものである.この形容語と名詞のセットをランダムな順番で表示し,被験者5名に「違和感なし」「どちらともいえない」「違和感あり」の3分類に分けてもらった.評価に用いた形容語と名詞のセット例と結果を表\ref{tb:humanhyoka}に示す.\subsection{実験結果と考察}\label{sec:humanjikkenkekka}あるセットに対し,5名中3名以上が分類した項目を一般的な感覚の分類項目として,採用する.各50セットの人間による分類は表\ref{tb:humanhyoka}のようになった.全てのセットにおいて,偏りが見られ,3項目に対し,2名・2名・1名のように分散することは無かった.\begin{table}[t]\caption{形容語と名詞の4分類に関する人間による評価}\label{tb:humanhyoka}\input{03table1.txt}\end{table}表\ref{tb:humanhyoka}を見ると,「特徴的」「論理的」「非論理的」の関係については特に顕著な偏りが見られることがわかる.そこで,「特徴的」「論理的」の関係については違和感なしの表現,「非論理的」の関係については違和感表現と機械が判断してもよいと考えられる.しかし,反特徴的にはある程度の揺れが見られた.例えば,西瓜の形状は一般的に,球形〜楕円形だが,近年では成長過程で枠にはめてしまう「四角い西瓜」というものが贈答用などで作られている.この「四角い西瓜」という表現のように,西瓜は丸いものだという通常観念があるにも関わらず,特殊な場合として存在する可能性があるために反特徴的には揺れが見られたと考えられる.このような表現は「美味しい関係」や「黒いバナナ」のように,日常会話では一般的ではないが,それゆえに,話題性があり,小説の題,広告の宣伝文句などに用いられ,目にした人をひき付ける効果を持つ.これは表現に違和感を覚えるからこそ,ひきたつと考えられる.本稿における違和感表現の検出は,文章の機械的合成において違和感表現を排除することや,相手の会話文に違和感を覚えることで相手に聞き返しを行うという目的に則り,このような表現に対しても違和感があるとして検出する.このため,「どちらともいえない」と「違和感あり」の項目をあわせると,「反特徴的」の関係については,90\%の割合で違和感表現であるといえる.そこで,この「反特徴的」の関係について機械は違和感表現と判断してよいと考える. \section{違和感表現検出} label{sec:Hijyoshiki}違和感表現を検出する手法として,言葉の統計情報を利用したデータベースを利用する方法(例:WEBを用いた大規模格フレーム,WEB検索システム)と,人間が記述したデータベースを用いる方法(IPAL形容詞版\cite{iPAL1990})の二手法が考えられる.まず,言葉の統計情報を利用したデータベースはWEBなどを用いるため,規模が大きく,一般的に利用されている語が多く存在する.このため,形容語と名詞のセットを検索することで違和感表現を検出できると考えられる.しかし,この手法はその表現の出現の有無で検出するしかない.つまり,一度でもその表現が出現すれば,一般的な表現と判断することになる.この手法では,\ref{sec:humanjikkenkekka}節で述べた,常識として一般的ではないが,それゆえに,小説の題,広告の宣伝文句などに用いられるような違和感表現には対応できない.対応案として,出現数の低い表現を違和感表現とする方法も考えられるが,語によって適切な閾値が異なり,適切な閾値の設定に根拠が存在しない.次に,人間が記述したデータベース,IPAL形容詞版(語彙体系上ならびに使用頻度上重要であると考えられる基本的な形容詞(136語)について,意味及び統語的な特徴を記述)のような,形容語と名詞との関係を格納したデータを用いる方法が考えられる.IPAL形容詞版では,ある形容語に対し,一般的に繋がりやすい名詞を記述している(例:青い−海,空,葱,瞳).これは「特徴的」の関係であり,このような関係を網羅的に把握することができれば,「特徴的」の文章を切り出すことが可能となる.しかし,人間が作成したデータベースにおいて網羅的にデータを格納することは不可能であり,また人により入れる名詞が異なると考えられる.更に,このようなデータベースにおいて記述される,ある形容語(例:青い)に関係する名詞(例:海,空,葱,瞳)は,我々が利用する頻度に関係する.つまり,よく使われる語の関係ほど想起されやすく,データベースに含まれやすい.しかし,特徴的ではないが論理的に正しい関係は,頻度としては低いが違和感はないにも関わらず,データベースに含まれにくい.このような関係を検出するためには,違和感という観点で整理した知識ベースが必要となる.そこで,本論文で提案する形容語に関する違和感表現の検出の方法は,感覚判断システム\cite{Watabe2004},\cite{Kometani2003}と形容語属性付きシソーラスを組み合わせている.後に\ref{sec:iwakanknowledge}節で感覚判断システムと形容語属性付きシソーラスについて説明する.違和感表現検出の方法の全体的な流れとして,まず,入力された文章から,判断対象となる名詞と形容語を取得する.このために,後述する意味理解システムを用いて文章を解析し,比較・判断対象となる可能性のある二語の対を全て取得する.更に,対象となる二語について,名詞・形容語の関係を「特徴的」「反特徴的」「論理的」「非論理的」のどれかに分類する.前述した実験より,「特徴的」「論理的」を違和感なしの表現,「反特徴的」「非論理的」を違和感表現と判断し,判断結果を取得する.\subsection{判断対象取得知識}違和感ありの表現の検出処理を行うためには,まず,文章中から判断対象となる名詞と形容語を取得する必要がある.対象となる名詞と形容語の出現を整理すると,以下のような一定のパターンが存在することがわかった.\begin{itemize}\item「形容語+名詞」節\\ex.赤い林檎,緑の西瓜,簡単な問題\item「名詞」が(は)「形容語」(主格に対象となる名詞,用言に形容語)\\ex.林檎は赤い,西瓜は緑だ.\end{itemize}形容語は,形容詞・形容動詞・名詞を含む.文章構造解析を行い,文章構造パターンを用意することで,これらのパターンを見つけ,判断対象となる名詞と形容語を取得する.文章構造解析のために,意味理解システム\cite{Shinohara2002}を利用する.本稿における意味理解システムとは機械が文章の内容を把握するために整理するものである.これは,複文や重文を含まない入力文(単文)を6W1H+用言(verb)のフレームに分割して格納する.意味理解システムを用いた例を図\ref{fig:Imirikai}に挙げる.\begin{figure}[t]\begin{center}\includegraphics{15-1ia3f1.eps}\caption{意味理解システム動作例}\label{fig:Imirikai}\end{center}\end{figure}\begin{table}[t]\caption{文章構造パターン}\label{tb:KankakuStructure_Pattern}\input{03table2.txt}\end{table}違和感表現検出処理を行うために,文章中から判断対象となる名詞と形容語を見つけるための文章構造パターンを用意した.そのパターンを表\ref{tb:KankakuStructure_Pattern}に示す.表\ref{tb:KankakuStructure_Pattern}において,「who-verb」は意味理解システムによって6W1Hに分類されたフレームのうち,whoフレームとverbフレームが一文中に共に存在しているという条件を示す.また,「allframe」は全てのフレームのうちどれかが存在しているという条件を示す.更に,条件を詳細化し,それぞれのフレームが取るべき品詞の条件を詳細情報として表\ref{tb:KankakuStructure_Pattern}のように格納している.また,どの二語が対象となる名詞とそれを形容する語であるかを共に格納している.この比較対象の二語は「情報フレーム内の条件」の語に準拠する.入力文が文章構造パターンに合致した場合,「対象語」とその語を形容する「対象語の形容語」を取得する.\subsection{違和感表現判断知識}\label{sec:iwakanknowledge}対象語と形容語の関係を知るために対象物に対する一般的な性質に関する知識構造が必要となる.例えば,「林檎」は「赤い」,「丸い」,「甘い」という具体的な特徴を持ち,「色」,「形」,「味」,「匂い」,「重さ」という性質を持ち,「明暗」「音」という性質は持たないという常識を知っておく必要がある.上記の「特徴」と「性質」の考え方はシソーラス構造を使い効率よく表現できる.対象概念の性質は親ノードから継承され,子ノードや個々のリーフには具体的な特徴を持たせる.例えば,「食料」というノードには「味」という性質を持たせる.このため,「食料」を継承する子ノード,リーフは「味」の形容語である「美味しい」や「まずい」などの語で形容できることを表現できる(例:美味しい林檎).一方,「味」という性質を継承しない別ノードであれば,「味」の形容語である「美味しい」や「まずい」などの語では形容できないことを表現する(例:美味しい辞書).以降,このような問題の追究を論理的矛盾の追究と呼ぶ.これに対し,例えば,「食料」を継承するリーフ「レモン」には具体的な特徴「酸っぱい」を持たせる.これにより,「レモン」は「酸っぱい」で形容できることを表現する(酸っぱいレモン).一方,「辛い」「甘い」「塩辛い」などの「レモン」に対して一般的でない特徴は「レモン」に持たせない.これにより,このような語では形容が難しいことを表現できる.以降,このような問題の追究を感覚的矛盾の追求と呼ぶ.つまり,「論理的」「非論理的」の名詞と形容語の関係は論理的矛盾の追究であり,「特徴的」「反特徴的」の名詞と形容語の関係は感覚的矛盾の追究であるといえる.このように,「特徴」と「性質」の概念はシソーラス構造で表記できる.そこで,NTTシソーラスを元にして作成された,感覚判断システム\cite{Watabe2004}と形容語属性付きシソーラスを利用することによってこのデータ構造を表現する.感覚的矛盾の追及のために,感覚判断システムを用いる.名詞から,感覚判断システムによって得られた結果をその名詞の「特徴」とする.更に,論理的矛盾の追及のために形容語属性付きシソーラスを利用し,その名詞の親ノードから「性質」を導き出す.感覚判断システム\cite{Watabe2004},\cite{Kometani2003}とは,ある名詞に対して人間が一般的に連想でき,特徴付けられる感覚(形容語)を取得するシステムである.感覚判断システムは自然会話において感覚という観点で言葉を扱うために開発された.この「感覚」とは視覚・聴覚・嗅覚・味覚・触覚の刺激によって得られる「五感」と,人間が一般的に抱く印象である「知覚」の2つを指す.感覚判断システムにおいて,全ての形容詞,形容動詞から五感に関する形容語(熱い,寒いなど)を人手で抽出した98語を感覚語,知覚に関する形容語(なつかしい,寂しいなど)を人手で抽出した114語を知覚語と呼ぶ.感覚判断システムはこの感覚語と知覚語の両方を用いて構築される.感覚判断システムは名詞とその特徴である感覚の関係を日常的な名詞の知識ベース(感覚判断知識ベース)を構築することによって明確にし,必要な感覚(感覚語及び知覚語)を取得する.感覚判断知識ベースはシソーラス構造をとる.感覚に関する語という観点で見た場合,名詞にはその名詞のグループが持つ感覚とその名詞固有の感覚の2種類がある.感覚判断知識ベースはこの2種類の感覚を継承できるようにするためにシソーラスのリーフとノードの関係を用いて構築されている.具体的には,日常よく使用される680語をシソーラスのリーフ(代表語)として登録し,それぞれにその語固有の感覚を付与している.また,それらをグループ化しシソーラス構造をとるための語をノード(分類語)として153語登録し,そのグループが持つ五感の感覚を付与している.この感覚判断知識ベースのイメージ図を図\ref{fig:kankakuDB}に示す.しかし,人間が登録した代表的な名詞と形容語の関係を格納した感覚判断知識ベースは,全ての単語を網羅しているわけではない.そこで,感覚判断システムは,汎用知識である概念ベース\cite{Hirose2002}とNTTシソーラス\cite{NttThesaurus1997}を用いることで,構築した感覚判断知識ベースにない語(未知語)に対しても感覚の連想を行う(未知語処理方法の詳細は文献\cite{Tsuchiya2002}を参照されたい).このことによって,単に人間が記述したデータベースよりも網羅できる範囲を拡大することができる.感覚判断システムを用いた例を表\ref{tb:Kankaku_JudgementSystem}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-1ia3f2.eps}\caption{感覚判断知識ベースのイメージ図}\label{fig:kankakuDB}\end{center}\end{figure}\begin{table}[b]\caption{感覚判断システムの判断例}\label{tb:Kankaku_JudgementSystem}\input{03table3.txt}\end{table}感覚判断システムにおける感覚判断知識ベースはある名詞に対し,特徴的な感覚の形容語を取得するという観点で作成された.この考え方を基とし,論理的な形容語と名詞の関係を検出するために作成したのが形容語属性付きシソーラスである.論理的矛盾の追究のためにこの形容語属性付きシソーラスを用いる.感覚判断知識ベースと同じシソーラスのデータ構造を持つが,それぞれのノードの持つ固有の形容語ではなく,更に一般的な性質の形容語を付与している.例えば,[具体物]ノードには重量(重い,軽い)があり,[人]ノードには老若(若い,年老いた)が付与されている.シソーラス構造を用いることで,ノードの性質を表した形容語は下位ノードに継承することが可能となる.形容語属性付きシソーラスのイメージ図を図\ref{fig:keiyou}に示す.図\ref{fig:keiyou}はイメージ図であり,実際には感覚判断知識ベースに追記する形で格納した.また,主な感覚(112語)に対し分類語(五感語(5語)と五感度語(10語))を格納した五感知識ベースを用意した.五感語は視覚・聴覚・触覚・味覚・嗅覚の5つに大別した語であり,五感度語は更に詳細に分類した語である.五感知識ベースの一部を表\ref{tb:Gokan_KnowledgeBase}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-1ia3f3.eps}\caption{形容語属性付きシソーラスのイメージ図}\label{fig:keiyou}\end{center}\end{figure}\begin{table}[b]\caption{五感知識ベースの一部}\label{tb:Gokan_KnowledgeBase}\input{03table4.txt}\end{table}また,本論文における提案手法では,人間で作成した代表的な知識だけでは補えない部分を汎用的な知識ベースである概念ベースとそれを用いた関連度計算によって,知識に一般性を持たせる.この概念ベース\cite{Hirose2002}と関連度計算\cite{Watabe2006}について,説明を加える.概念ベースとは,複数の国語辞書や新聞等から機械的に自動構築した,語(概念)とその意味を表す単語集合(属性)からなる知識ベースのことである.この概念と属性のセットにはその重要性を表す重みが付与される.任意の概念$A$は,概念の意味特徴を表す属性$a_i$とこの属性$a_i$が概念$A$を表す上でどれだけ重要かを表す重み$w_i$の対の集合として定義する.\begin{equation}A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_N,w_N)\}\end{equation}属性$a_i$を概念$A$の一次属性と呼ぶ.これに対し,$a_i$を概念とした場合の属性を$A$の二次属性と呼ぶ.展開していけば一つの概念は任意の次数までその属性を持つことができる.当初の概念ベースは,複数の電子化国語辞書を用いて機械的に自動構築されたもの\cite{Kojima2002}である.この概念ベースは人間の感覚では必要な属性が抜け落ち,明らかにおかしい属性が雑音として含まれている.このため本稿では,不適切なデータを削除し,必要なデータを追加する自動精錬処理を行った概念ベース(概念数約9万語)\cite{Hirose2002}を利用する.また,関連度とは,概念と概念の関連の強さを定量的に評価するものである.関連度の計算方式は,それぞれの概念を二次属性まで展開し,重みを利用した計算によって最適な一次属性の組み合わせを求め,それらの一致する属性の重みを評価することで算出する.この関連度の値は0〜1の実数値をとり,値が高いほど関連の深い語であることを意味する.概念$A$と概念$B$に対して関連度計算を行った例を表\ref{tb:kanrendoExam}に挙げる.\begin{table}[t]\begin{center}\caption{関連度計算の例}\label{tb:kanrendoExam}\input{03table5.txt}\end{table}\subsection{違和感表現検出手法}これまでの考え方と知識構造を用いて,名詞と形容語の関係を判断する違和感表現検出手法を提案する.大きく3つの部分に分けられる.まず,文章から判断対象となる「対象語」と「形容語」を取り出す.次に,論理的矛盾を追及するため,「形容語」から「対象語」の適合性を判断する.最後に,感覚的矛盾を追及するため,「対象語」から「形容語」の適合性を判断する.アルゴリズムは以下の通りである.\begin{enumerate}\item文章を意味理解システムにかけ,文章を解析する.\item文章の解析結果と文章構造パターンを比較し,一致するパターンを探す.\item一致するパターンがなければ,判断対象の文であると判断しない.\item一致するパターンがあれば,文章から対象となる名詞「対象語」と形容する語「形容語」を取得する.\end{enumerate}以上が,文章から比較対象となる「対象語」と「形容語」を取り出す部分である.例えば,「林檎は赤い」という文章を,意味理解システムにかけて解析すると「who:林檎(名詞),verb:赤い(形容詞)」という結果が得られる.これは文章構造パターンに一致するため.対象語として「林檎」,形容語として「赤い」を取得する.一方,例えば,「林檎が転がる」という文章では,「who:林檎(名詞),用言:転がる(動詞)」という結果が得られる.これは文章構造パターンに一致するパターンがないため,判断対象の文ではないと判断する.取得した「対象語」と「形容語」に対し,論理的矛盾を追及する.\begin{enumerate}\item「形容語」と五感知識ベース内の全ての「感覚」を比較する.比較には,関連度計算を用い,最高関連度を示した語の関連度の値を取得する.\item関連度の値が閾値未満の場合,判断対象であると判断しない.\item関連度の値が閾値以上の場合,その「感覚」の分類語を取得する.\item取得した分類語を形容語属性付きシソーラスのノードに与えられた「性質」と比較する.一致する「性質」を持つ全ノードを取得する.\item取得した全ノードと「対象語」のシソーラスノードを比較する.\item一致するノードがなければ,「非論理的」の関係であると判断し,「違和感表現」と判断する.\item一致するノードがあれば,次の処理へ移る.\end{enumerate}以上により,対象語と形容語の論理的矛盾を調べる.この処理の具体例を図\ref{fig:RonritekiMujun}を用いて説明する.\begin{figure}[b]\begin{center}\includegraphics{15-1ia3f4.eps}\caption{論理的矛盾の処理例}\label{fig:RonritekiMujun}\end{center}\end{figure}対象語「林檎」,対象語の形容語「蒸し暑い」の場合(蒸し暑い林檎)を例とする.まず,形容語「蒸し暑い」と五感知識ベース内の全ての感覚を比較し,対応する語を探す.比較には関連度計算を用い,最高関連度の値が閾値以上を示した場合,その感覚を形容語と対応する語と考える.この場合,「蒸し暑い」は「暑い」と対応する.対応する語が取れない場合には判断対象とは判断しない(例:右の道).対応がとれた場合は,その感覚「暑い」の分類語「気温」を五感知識ベースより得ることができる.分類語「気温」と形容語属性付きシソーラスのノードに与えられた「性質」と比較し,一致する性質を持つ全ノード「熱」「風」「季節」「衣服」を取得する.この取得したノードと,対象語「林檎」のシソーラスノード「……植物—樹木—果実」を比較する.すると,一致するノードが存在しないため,「非論理的」の関係であると判断し,「違和感表現」であると判断できる.一致するノードがある場合には,以下のように感覚的矛盾を追及する.\begin{enumerate}\item「対象語」に対し,感覚判断システムによって「感覚」を取得する.\item取得した「感覚」と「形容語」を比較する.比較には関連度計算を用いる.\item閾値以上の関連度を示した場合,「特徴的」と判断し,「違和感なしの表現」である,と判断する.\item関連度が閾値未満であれば,「感覚」の分類語を取得する.\item五感知識ベース内で同じ分類語を持つ全ての語(取得した「感覚」以外)を取得する.\item(5)と「形容語」を比較する.比較には,関連度計算を用い,最高関連度を示した語の関連度の値を取得する.\item関連度の値が閾値以上の場合,「反特徴的」と判断し,「違和感表現」と判断する.\item関連度の値が閾値未満の場合,「論理的」と判断し,「違和感なしの表現」と判断する.\end{enumerate}ここで,「違和感なしの表現」はデータとの対応のとれない表現を含む.今回の提案手法は応答文の機械的拡張における違和感表現検知,人間の発話における違和感表現検知が背景にあるため,違和感表現を抽出することが目的であり,違和感なし表現を取り出すことが目的ではない.違和感がある,ないという判断はその中間地点においては曖昧であり,人間でも完全に白黒つけられるものではないと考えられる.この理由としては,流行や新しい価値観,もしくはその人自身に知識がない(機械に置き換えた場合,データが存在しない)ことに関わってくる.この曖昧な部分については解決が困難であるため,提案手法では「違和感表現である」と言える表現のみの抽出を試みた.データが存在しない場合は,必ずしも違和感表現であるとは言い切れない.このため,違和感なしの表現には違和感があるとは言えない表現も含ませた.以上の手法により,対象語と形容語の感覚的矛盾を調べる.この処理の具体例を図\ref{fig:KankakutekiMujun}を用いて説明する.\begin{figure}[t]\begin{center}\includegraphics{15-1ia3f5.eps}\caption{感覚的矛盾の処理例}\label{fig:KankakutekiMujun}\end{center}\vspace{-0.5\baselineskip}\end{figure}対象語「林檎」,対象語の形容語「真っ黒」の場合(真っ黒な林檎)を例とする.対象語「林檎」を感覚判断システムにかける.すると,「赤い」という感覚が得られる.得られた感覚「赤い」と対象語の形容語「真っ黒」を比較する.関連度が閾値以上の値であれば,「特徴的」と判断し,「違和感なしの表現」であると判断する(例:赤い林檎).しかし,「赤い」と「真っ黒」の関連度は閾値を超えない.そこで,感覚「赤い」の分類語「色」を取得する.この分類語「色」と同じ分類語を持つ\pagebreak全ての語「白い」「黒い」「青い」「黄色い」を取得する(対象語の感覚「赤い」は除く).「赤い」以外の「色」に関する感覚と形容語「真っ黒」を比較し,対応する語を探す.比較には関連度計算を用い,最高関連度の値が閾値以上を示した場合,その感覚を形容語と対応する語と考える.この場合,「真っ黒」は「黒い」と対応する.対応する語が取れない場合には「論理的」と判断し,感覚に関して「違和感なしの表現」と判断する(例:赤い車).この場合は対応する語がとれるため,「反特徴的」と判断し,「違和感表現」と判断する.「赤い車」の場合,直前の論理的矛盾処理において違和感表現から除かれている.感覚的矛盾では,まず「車」の感覚「速い,便利な」を感覚判断によって導く.この「速い」(もしくは「便利な」)と「赤い」との関連性をみて,関連が低いと判断する.そこで,「遅い」(「速い」と同じ分類の語)と「赤い」との関連性もみるが,これも関連が低いと判断する.つまり,「赤い」は「車」の特徴である語との関連性は特に無いということを表す.そこで,論理的矛盾を持たず(車は色属性を持つ),感覚的矛盾が無い(「赤い」は「車」の特徴に違反しない)ことから,「赤い車」は違和感なし表現であると判断する.このアルゴリズムを用いることで,「形容する語」が知識ベース内に存在しなくとも,意味的に非常に近い感覚に代替することができる.意味的に近い語への代替のために用いる関連度計算の閾値の設定にはX-ABC評価セットを用いた関連度計算の実験値を指標とする.X-ABC評価セットとは,概念Xに対し,人間が常識的に判断して高関連の語(X-A),中関連の語(X-B),無関連の語(X-C)を集めた評価セット(1780セット)である.本稿で用いた関連度計算方法では,概念Xに対して高関連の語(X-A)の関連度の平均値が実験的に0.335と求められた.そこで,本稿では,意味的に近い語に代替するための閾値の値としてこのX-Aの関連度の平均値を用いる. \section{実験と評価} \subsection{実験方法}\subsubsection{システム全体評価}\label{sec:systemHyoka}対象語とそれを形容する語を含む文章について,人間が不自然に感じる違和感表現の文章と違和感なしの表現の文章を100文ずつ,計200文章用意した.これらの文章に対し,違和感表現検出処理を行い,正しく判断できる割合を評価する.また,この評価文章は,\ref{sec:humanjikken}節で使った文章と同じ文章を用いる.これは,「特徴的」「反特徴的」「論理的」「非論理的」について各50文章ずつに分類し,人間の評価との比較を行うためである.\subsubsection{他手法との比較}\label{sec:otherHyoka}\ref{sec:humanjikken}節と同様の評価文章を用い,他手法との比較評価を行う.\ref{sec:Hijyoshiki}節で記述したように,違和感表現の検出には言葉の統計情報を利用したデータベースを利用する方法と,人間が記述したデータベースを用いる方法の二手法が考えられる.そこで,WEB検索システムを用いた手法(googleを利用)とIPAL形容詞版\cite{iPAL1990}を用いた手法の二手法と本提案システムとの比較を行う.WEB検索システムを用いた手法では,WEB上から評価文章中の形容語と名詞を検索し,検索結果が0件の場合を違和感表現とする.これは,WEB空間上において使用されない語が違和感表現であるという意味と同時に,利用頻度は低いが正しい表現の検索結果に意味のある閾値を設定できないためである.また,評価文章のうち,特徴的・論理的の文章は必ずWEB上に検索結果が存在し,意味のある分類はできないため,WEB検索システムを用いた手法では,反特徴的・非論理的の評価文章に対して違和感表現を検出する評価を行った.そのため,本論文での提案手法の評価もこれに対応した反特徴的・非論理的の評価文章に対する評価とした.また,IPAL形容詞版を用いた手法では,IPAL形容詞版のデータベース内に評価文章の形容語と名詞が存在すれば,違和感のない表現であるとする.評価文章のうち,反特徴的・非論理的の評価文章に関する情報をIPAL形容詞版は持たずこれらの評価文章に対して適切な判断ができない.このため,IPAL形容詞版を用いた手法では,特徴的・論理的の評価文章に対して違和感のない表現を検出する評価を行った.そのため,本論文での提案手法の評価もこれに対応した特徴的・論理的の評価文章に対する評価とした.更に,全体的な評価の比較のため,反特徴的・非論理的の評価文章に対してWEB検索システムを用い,特徴的・論理的の評価文章に対してIPAL形容詞版を用いた手法と本提案手法との比較を行う.\subsubsection{手法評価}\ref{sec:humanjikken}節と同様の評価文章を用い,システム内の各手法の評価を行う.提案手法では,一連の手法を説明しているが,実験のため,手法を分割する.まず,関連度計算による意味的に近い語への代替を行わず,表記一致によって行う感覚的矛盾の判断手法のみを用いた場合を評価する.同様に,関連度計算による意味的に近い語への代替を行わず,表記一致によって行う論理的矛盾の判断手法のみを用いた場合を評価する.次に,同様に表記一致によって行う感覚的矛盾と論理的矛盾の判断手法双方を用いた場合を評価する.最後に,提案手法に沿って,感覚的矛盾と論理的矛盾の判断手法に関連度計算を用いた場合の4方法を評価する.\subsection{実験結果}\label{HyokaKekka}\subsubsection{全体評価}\label{sec:allHyoka}違和感表現検出処理の評価を図\ref{fig:Result},「特徴的」「反特徴的」「論理的」「非論理的」に分類した詳細結果及び,人間の評価との比較を表\ref{tb:ResultHikaku}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-1ia3f6.eps}\caption{全体評価}\label{fig:Result}\end{center}\end{figure}図\ref{fig:Result}において,違和感表現の文章を違和感表現と判断した結果を「F→F」,違和感なしの表現の文章を違和感なしの表現と判断した結果を「T→T」,違和感表現の文章を違和感なしの表現と判断した結果を「F→T」,違和感なしの表現の文章を違和感表現と判断した結果を「T→F」として表す.本稿では「F→F」と「T→T」の割合が全体の何割を占めているかを精度とする.表\ref{tb:ResultHikaku}では,評価文章を「特徴的」「反特徴的」「論理的」「非論理的」の4観点で分類した評価文章に対するシステムの評価結果を示した.これにより,人間の評価との比較を行う.人間の評価結果は表\ref{tb:humanhyoka}と同じであるが,比較の簡便化のため,表\ref{tb:ResultHikaku}では「どちらともいえない」と「違和感表現」を合わせて「違和感表現」と表記する.\begin{table}[t]\caption{提案手法と人間の評価比較}\label{tb:ResultHikaku}\input{03table6.txt}\vspace{-1\baselineskip}\end{table}\subsubsection{他手法との比較}他手法との比較結果を図\ref{fig:otherResult}に示す.\ref{sec:otherHyoka}節で記述したように,反特徴的・非論理的の評価文章に対してWEB検索システムを用いた手法(他手法)と提案手法との比較を行い,特徴的・論理的の評価文章に対してIPAL形容詞版(他手法)と提案手法との比較を行った.\begin{figure}[h]\begin{center}\vspace{-1\baselineskip}\includegraphics{15-1ia3f7.eps}\caption{他手法との比較}\label{fig:otherResult}\end{center}\vspace{-1\baselineskip}\end{figure}\subsubsection{手法評価}図\ref{fig:howResult}に感覚的矛盾と論理的矛盾の手法評価,図\ref{fig:howResult2}に表記一致と関連度を用いた手法の評価結果を示す.数値はそれぞれの割合を示している.図\ref{fig:howResult},図\ref{fig:howResult2}における表記番号は以下に準ずる.\begin{figure}[t]\begin{minipage}{.48\linewidth}\begin{center}\includegraphics{15-1ia3f8.eps}\caption{感覚的矛盾と論理的矛盾の手法評価}\label{fig:howResult}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\includegraphics{15-1ia3f9.eps}\caption{表記一致と関連度を用いた手法の評価}\label{fig:howResult2}\end{center}\end{minipage}\end{figure}\begin{description}\item[1]感覚的矛盾の判断手法のみを用いた場合(表記一致)\item[2]論理的矛盾の判断手法のみを用いた場合(表記一致)\item[3]感覚的矛盾と論理的矛盾の判断手法双方を用いた場合(表記一致)\item[4]感覚的矛盾と論理的矛盾の判断手法双方を用いた場合(関連度計算による意味的に近い語への代替)\end{description}システムが判断しなかったセット数の割合をUNKNOWNとし,判断した中で「F→F」と「T→T」の割合が全体の何割を占めているかを正解率,「F→T」と「T→F」の割合が全体の何割を占めているかを不正解率とする.補足となるが,図\ref{fig:Result}や図\ref{fig:otherResult}の評価では,UNKNOWNは全て違和感表現として判断し,精度として評価した.このため,正解率と精度は一致しない.\subsection{考察}図\ref{fig:Result}より,87\%の高い精度で判断を行うことが出来た.表\ref{tb:ResultHikaku}を見ると,特に「特徴的」「反特徴的」の関係の文章を非常に高い精度で分類できていることがわかる.また,図\ref{fig:otherResult}より,本提案手法は他手法を用いるよりも高い評価を得られた.これは,他手法が本論文で目的とする文章の機械的合成において違和感表現を排除することや,相手の会話文に違和感を覚えることで相手に聞き返しを行うという観点における違和感表現を考慮できていないという理由が挙げられる.そのため,本提案手法はこれらの目的に則った利用価値のある手法だと考える.また,図\ref{fig:howResult}より,感覚的矛盾と論理的矛盾の判断手法双方を用いると,正解率が上昇することがわかる.これは,感覚的矛盾と論理的矛盾の判断する対象が異なり,両方を使うことで相乗効果を生み出しているからである.それぞれの観点において成功した例と失敗した例を表\ref{tb:JudgeResult}に示す.表内の「F→F」等の表記は図\ref{fig:Result}の表示の説明に準じる.失敗した文章の原因を調べると,論理的矛盾と感覚的矛盾を調べる知識ベース及びシステムが全てを網羅していないことが挙げられる.人間が連想する個数に対して感覚判断システムが連想する個数の比率である想起率は,\cite{Watabe2004}より,63.64\%(内,未知語の場合は34.94\%,代表語の場合は84.35\%)であることが判っている.感覚的矛盾を調べる「特徴的」「反特徴的」の精度はこの想起率に依存する.対象語の特徴が連想されなければ「特徴的」の関係の文章は論理的矛盾の判定へと進んでしまう.精度がこの想起率より比較的高かったのは,評価対象文内の対象語に未知語が少なかったためであると考えられる.詳しく見ると,「特徴的」の関係の評価文では,40文(50文中),「反特徴的」の関係の評価文では42文(50文中)が,感覚判断システムの代表語を対象語とする文であった.評価対象文はシステムの内部を見ることなく,システム設計者とは異なる人物が集めた文章群であるため,感覚判断システムの代表語は一般的に使われる語を多く含んでいる.そのため,「特徴的」「反特徴的」の関係は,完全網羅されていないものの,ほぼ一般的な語に関して有効であるといえる.更に,代表語に含まれていない未知語に対してもある程度の結果が得られたため,ただ人間によって記述されただけのデータより広い網羅性を持つことができた.\begin{table}[t]\caption{評価結果の一部}\label{tb:JudgeResult}\begin{center}\begin{tabular}{|l|l|l|l|l|}\hline&\multicolumn{2}{c|}{成功例}&\multicolumn{2}{c|}{失敗例}\\\hline特徴的&T→T&真っ赤な苺を貰ったよ&T→F&白い御飯を食べました\\\hline反特徴的&F→F&ドライアイスは暖かいですね&F→T&四角いトマトを買ったのですね\\\hline論理的&T→T&古い雑誌を読みました&T→F&深い森で迷ってしまいました\\\hline非論理的&F→F&低い財布を使いました&F→T&丸い学校へ通います\\\hline\end{tabular}\end{center}\end{table}これに対し,論理的矛盾を調べる「論理的」「非論理的」の関係の判断精度は形容語属性付きシソーラスの網羅性に依存する.形容語属性付きシソーラスのすべての感覚情報は人手によって作成され,検証されているが,少数の人間によって作成したため,適切な感覚が全て登録されているとは限らない.このため,失敗することがあると考えられる.しかし,図\ref{fig:howResult2}より,単なるデータの一致である表記一致の正解率が79\%であったのに対し,本提案手法を用いれば84.5\%の正解率を得ることができた.違和感表現検出処理結果においてUNKNOWNとは,判断対象とならなかった文章であり,更に本提案手法を用いることで,この率を下げることに成功している.これは,知識ベースにないために判断対象に含まれなかった語に対しても,判断が可能になったということを意味している.このことから,本手法は有効な手法であると言える.本稿で扱った形容語は「形容詞・形容動詞・名詞+の」であるが,これ以外にも動詞に関する表現(例:走る車,曲がった線,太っている人,慣れない道)が存在する.このような動詞に関する表現は膨大に存在し,その活用形によっても場合が異なる.このため,今回の提案手法のように,人手でデータを付与することが困難である.今後の課題として,このような動詞に関する表現に対応することが必要だと考えられる. \section{まとめ} 本稿では,コンピュータによる自然な会話の実現を目指して,\pagebreak違和感表現検出手法を提案した.対象語と形容語の関係に注目し,その関係を整理することで,違和感のある形容語を検出するための知識構造をモデル化した.更に,その知識構造を用いて,形容語の使い方に着目した違和感表現検出手法を提案した.本稿の手法を用いることで,形容語の違和感のある使い方の判定に関し,87\%の高い精度を得,有効な手法であることを示した.違和感表現に対応できるシステムを構築することにより,機械が常識を持ち,会話を理解していることを利用者にアピールすることができ,人間らしい会話に一歩近づくことができた.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{Hirose2002}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock\Jem{信学技報,TL2001-49},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{NttThesaurus1997}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1990}]{iPAL1990}情報処理振興事業協会技術センター\JED\\BBOP1990\BBCP.\newblock\Jem{計算機用日本語基本形容詞辞書IPAL(BasicAdjectives)}.\newblock情報処理振興事業協会技術センター.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2006}]{Kawahara2006}河原大輔\JBA黒橋禎夫\BBOP2006\BBCP.\newblock\JBOQ高性能計算環境を用いたWebからの大規模格フレーム構築\JBCQ\\newblock\Jem{情報処理学会,自然言語処理研究会171-12},\mbox{\BPGS\67--73}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{Kojima2002}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法—属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{米谷\JBA渡部\JBA河岡}{米谷\Jetal}{2003}]{Kometani2003}米谷彩\JBA渡部広一\JBA河岡司\BBOP2003\BBCP.\newblock\JBOQ常識的知覚判断システムの構築\JBCQ\\newblock\Jem{第17回人工知能学会全国大会論文集3C1-07}.\bibitem[\protect\BCAY{日経メカニカル\JBA日経デザイン共同編集}{日経メカニカル\JBA日経デザイン共同編集}{2001}]{RoBolution2001}日経メカニカル\JBA日経デザイン共同編集\JEDS\\BBOP2001\BBCP.\newblock\Jem{RoBolution(ロボリューション)—人型二足歩行タイプが開くロボット産業革命}.\newblock日経BP社.\bibitem[\protect\BCAY{篠原\JBA渡部\JBA河岡}{篠原\Jetal}{2002}]{Shinohara2002}篠原宜道\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ常識判断に基づく会話意味理解方式\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集,A2-9},\mbox{\BPGS\275--278}.\bibitem[\protect\BCAY{土屋\JBA小島\JBA渡部\JBA河岡}{土屋\Jetal}{2002}]{Tsuchiya2002}土屋誠司\JBA小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ常識的判断システムにおける未知語処理方式\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(6),\mbox{\BPGS\667--675}.\bibitem[\protect\BCAY{早稲田大学}{早稲田大学}{1999}]{HumanRobot1999}早稲田大学ヒューマノイドプロジェクト編著\JED\\BBOP1999\BBCP.\newblock\Jem{人間型ロボットのはなし}.\newblock日本工業新聞社.\bibitem[\protect\BCAY{渡部\JBA堀口\JBA河岡}{渡部\Jetal}{2004}]{Watabe2004}渡部広一\JBA堀口敦史\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ常識的感覚判断システムにおける名詞からの感覚想起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),\mbox{\BPGS\73--82}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{Watabe2006}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ概念の意味属性と共起情報を用いた関連度計算方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{吉村\JBA土屋\JBA渡部\JBA河岡}{吉村\Jetal}{2006}]{Yoshimura2006}吉村枝里子\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ連想知識メカニズムを用いた挨拶文の自動拡張方法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\117--141}.\end{thebibliography}\begin{biography}\bioauthor{吉村枝里子}{2004年同志社大学工学部知識工学科卒業.2006年大学院工学研究科知識工学専攻博士前期課程修了.同大学院工学研究科知識工学専攻博士後期課程在学.知識情報処理の研究に従事.言語処理学会会員.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.工学博士.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.2006年同教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\biodate\end{document}
V14N04-03
\section{はじめに} \label{はじめに}言語処理技術を利用した文章の推敲や校正の支援に関する研究が行われている.この研究分野を次の5段階に分けて考える.\begin{description}\item[表記レベル]誤字の検出と修正,表記揺れの指摘など.\item[統語レベル]統語構造の複雑さに起因する読みづらさの指摘など.\item[意味レベル1]欠落した格要素の推定や,照応先の特定が困難な場合の指摘.\item[意味レベル2]情報不足(論理の飛躍や説明が不足しているもの),情報過多(表現が冗長)の指摘.\item[文脈・構成レベル]文間のつながりに関する理解しづらさの指摘.文の構成による論旨の展開についての指摘など.\end{description}まず,「表記レベル」に関しては,自然言語処理の教科書\cite{tanaka}に詳しく解説されているように,研究開発が完成段階に達し\cite{ibuki},コンピュータのアプリケーションソフトとして実装されている\cite{kasahara}.次の「統語レベル」に関しても,係り受けの複雑さに起因する読みづらさを指摘し,書き換え候補を生成する研究が行われ,応用段階に到達している\cite{yokobayashi}\cite{suganuma2006}.以上の「表記レベル」と「統語レベル」の課題に対しては,文を言語解析し,その際の解析困難性の程度を誤りや読みづらさの指標にするという手法が広く用いられている.この手法が使われる理由は,表記レベルと統語レベルに対応した言語解析である形態素解析および係り受け解析の現状の解析精度が十分に高いためであると考えられる.それに対し,次の「意味レベル1」では欠落した格要素の推定や照応詞の照応先の特定の困難さを算出する必要がある.しかしながら,それに対応した格解析や照応解析といった意味解析技術の精度が現状では不十分なため,解析困難の理由が,解析技術の精度不足に起因するのか,原文側の問題に起因するのか区別がつかず,指摘の要否判定ができない.さらに,「意味レベル2」に含まれる情報不足や情報過多の指摘に関しては,対応する言語解析技術も定まっておらず,今後の技術と考えられている.このように,「意味レベル1,2」やその先の「文脈・構成レベル」の検出・支援の技術は研究が進展していないのが現状である.本論文は,「意味レベル2」に含まれる情報不足と情報過多の指摘のうち情報不足の指摘を扱う.以下,文章作成の理論の中で,この課題の位置付けを考える.言語表現とそれを用いる使用者や文脈との関係を研究する分野である語用論\cite{Green}と会話における意志疎通の原理を扱ったGriceの理論\cite{Grice}がある.これはコミュニケーションが成り立つための原理と条件を与える協調の原理についての内容であり,仕事文(仕事に用いる文を仕事文と称する\footnote{本論文では,岩波新書「仕事文の書き方」\cite{高橋昭男}にならい,仕事の場面で用いる文を仕事文と呼ぶ.これに近い概念の「論説文」は,仕事目的以外の,例えば教育用の論説文もあるため,仕事文と完全には一致しない.}.)が満たすべき条件を与える基礎理論である.協調の原理に従うために,いくつかの特定の条件(格率という)に従わなければならない.格率は量,質,関係,様態の4カテゴリにまとめられる.そのうちの量に関して,次の2つの格率に従う必要がある.\begin{enumerate}\item要求に見合うだけの情報を与える発言を行う.\item要求されている以上の情報を与えるような発言を行ってはならない.\end{enumerate}(1)の格率を満たさなければ,情報不足の問題が生じ,(2)の格率を満たさなければ,情報過多の問題を生じる.このうち,本論文で扱う課題は,量に関する1つ目の格率を満たさないために生じる情報不足の課題である.文章講座に関する一般書籍にも情報不足に関する解説が見られる.例えば書籍「仕事文の書き方」\cite{高橋昭男}では,仕事文において正確な文章を書くために,情報不足に注意することを述べている.この書籍では情報不足による論理の飛躍の例として,次に示す入学用ランドセルの広告文を取り上げている.\vspace{10.5pt}\begin{center}\fbox{\parbox{38zw}{ここ数年,児童の数が急激に減っています.そのため,品不足になる恐れがありますので,お早めにお求めください.}}\end{center}\vspace{10.5pt}\noindent第1文と第2文の間に論理の飛躍があって読みづらいため,間に言葉を補い,次のように修正すべきと述べている.\vspace{10.5pt}\begin{center}\fbox{\parbox{38zw}{ここ数年,児童の数が急激に減っており,{\bfそれに対応して,メーカーでは,製造数を大幅に減らしています.このような事情から,人気商品については,}品不足になる恐れがありますので,お早めにお求めください.(文字強調筆者)}}\\\end{center}\vspace{10.5pt}量の格率の2条件を満足しないために生じる情報不足と情報過多の問題の中で,本研究では情報不足の問題のみを扱い,情報過多の問題は扱わない.その理由について述べる.本研究では,ビジネス分野の文章作成支援を目指して,仕事文を対象とする.そのため,情報不足の場合には,文が難解になることに加え,論理の飛躍によって誤解を生じさせると言う深刻な事態を招くのに対し,情報過多の場合には,冗長な情報を無視するのに読解の負担がかかるものの,誤解を生じる可能性は低いため,深刻さの程度は低い.したがって,コンピュータによる文章推敲支援の課題として,情報不足の検出と指摘の課題を扱うことが有用であると考える.本研究では,この課題を情報不足が読者に受容されるかどうかを判定する問題として扱い,コーパスベースの統計的言語処理に基づくアプローチを用いた手法を開発する. \section{全体概要} 詳細説明に入る前に,本章では,実験に用いる文を準備する段階から,機械学習アルゴリズムを用いた自動判定に至る流れの概略を説明する(図\ref{fig:全体概要}).\begin{figure}[b]\includegraphics[width=\textwidth]{14-4ia3f1.eps}\caption{全体概要}\label{fig:全体概要}\end{figure}原文として,新聞記事を基にして作られた京大コーパス\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}を用いる.京大コーパスは,文に,形態素情報と係り受け情報が付与されているので,係り受け構造を利用して連体修飾節あるいは連体修飾句の場所を認定する.その部分を欠落させた文を作成し,被験者判定用の文とする.この文を被験者に提示して,欠落箇所に情報不足を感じるかどうか判定してもらう.被験者数は4名である.判定対象とする文の数は約1,800文である.全員が各々これら約1,800文を判定する.通常,被験者毎の判定結果は異なる.そのため,OK判定(情報不足なし)とNG判定(情報不足あり)の比率は1対1にならない.本研究は,機械判定の要素技術を確立する段階の研究であるため,手法の性能を評価する際の容易さから,次のように,OKとNG判定が1対1になるようなデータセットを作成する.すなわち,評価データから,各被験者毎に,OK判定とNG判定の比率が同じになるように文を抜き取り,データセットを作成する.そのように作成された被験者毎のデータセットは,判定の正解値に関するベースラインが50{\kern0pt}%である.次の段階は,機械判定に用いる素性値の算出である.素性は全部で11素性である.その中の1つは,例えば,各文の情報不足評価位置での文の滑らかさ等に関する素性情報である.それらの素性値を使って,10-foldcrossvalidation法に基づく学習と判定を行う.機械学習アルゴリズムを用いた自動判定の手法としてSVM(SupportVectorMachines)を用いる.なお,4名の被験者による判定を各々の正解値としたため,正解率も4通りが得られる.一方,被験者の判定の一致率によって手法の精度の上限を推定し,それを基に正解率を評価する. \section{課題文と正解データの作成} \subsection{課題文の作成手順}\label{課題文の作成手順}本研究では毎日新聞の記事に形態素・構文情報などの各種言語情報を人手で付与したテキストコーパスである京大コーパスを用いて課題文の作成を行った.京大コーパスを利用するのは次の理由による.\begin{itemize}\item自動的に付与した形態素,構文解析に関して人手修正を行っているため,解析誤りが少ない.\item京大コーパスの素材となった毎日新聞記事は新聞記事であり,本研究が対象とする仕事文に相当する.また,文の品質が高く,機械処理向きの優れた素材である.\end{itemize}次に,京大コーパスから機械処理で課題文を作成する方法について説明する.本研究では原文のある部分を削除する加工を行って情報不足を生じさせた文を生成する\footnote{場合によっては,曖昧な部分が削除されることによって,文が明確になる可能性もある.しかし,文意には立ち入らず機械処理によって文を生成する.}.削除する部分の選定基準を以下のように設定する.\begin{description}\item[連続した文字列]削除する部分は文中で連続した文字列部分である.\item[1文につき1箇所]削除する部分の数は1文につき最大1箇所に限定する.この条件を満たさない文は採用しない.削除する部分の候補が1文につき複数存在する場合,文頭に近い方1箇所を採用する.理由は,1文中に複数箇所ある場合に,後続の評価が,前の評価結果に影響される可能性を否定できないため,その影響を避けるためである.\item[連体修飾部]削除対象を連体修飾部(本論文では連体修飾句と連体修飾節を合わせて連体修飾部と称する)に限定する.連用修飾を扱わない理由について述べる.連体修飾と連用修飾では機械判定に使う素性が少し異なる.そのため,判定の正解率を高めるには,素性のセットを入れ換えて個々に処理することになる.しかし,解析の流れが煩雑になるだけで,判定手法の基本的な枠組は同一であるため,今回の研究では連体修飾部に限定して検討する.機械処理で連体修飾部を求めるには,係り受け解析結果から認定する(図\ref{fig:連体修飾部}参照).同図(b)は連体修飾部が再帰的な修飾状態(以下,再帰修飾と呼ぶ)になっている例を示す.再帰修飾の場合は,最も外側の修飾部を採用する.\item[係り先の品詞制限]連体修飾の係り先である名詞の種類を一般名詞に限定する.その理由を述べる.名詞は一般名詞,固有名詞,形式名詞,その他(数詞,時相名詞,副詞的名詞)に分かれる.情報不足判定のアルゴリズムを構築するにあたって,これらの種類によってアルゴリズムが異なる.このうち,出現頻度は一般名詞が非常に多く\footnote{京大コーパスの600記事中に,名詞が54,061個含まれ,そのうちの70{\kern0pt}%が一般名詞,14{\kern0pt}%が固有名詞,2%が形式名詞,その他(数詞,時相名詞,副詞的名詞)が4%である.},実用上の観点からも一般名詞を扱うのが有利である.次に判定処理を考えると,固有名詞では,初めに出現した固有名詞には説明が必要で,次回以降は不要であるといった判定法が有効であると予想される.また,形式名詞は指示照応の問題が深く関係し,先行文脈に関する文脈処理の判定問題となる.後述する通り,本研究では文脈の要素を除外して1文内で完結した主観評価と機械判定を行うため,固有名詞と形式名詞を扱うと,この基準を超えることになる.以上の理由から一般名詞に限定する.\item[直前文節が存在]連体修飾部を削除したとき,その位置の前に文節が存在するという条件を課す.このようにした理由は,本研究で扱う素性が文節間のつながりに関する情報を利用するためである.\end{description}\begin{figure}[b]\begin{center}\includegraphics{14-4ia3f2.eps}\end{center}\caption{連体修飾部の認定}\label{fig:連体修飾部}\end{figure}以上の処理により,京大コーパスの初めの600記事から,1文に1箇所の評価箇所を含む課題文を作成した結果1,792文が得られた.評価は1文毎の評価で行う.被験者への文の提示と評価も1文単位で行い,機械判定も1文内の情報を基に行う.主観評価において,文脈上の影響を除外するために,文の提示順をランダムにした.\subsection{主観評価}機械学習アルゴリズムに基づく自動判定に用いる正解値を与えるために,被験者による主観評価を行う.成人男性4名によって評価を行った.評価にあたって,被験者に与えた教示は次の通りである.\begin{quote}新聞記事(毎日新聞1995年版)の文を素材として,加工を加えた文を読んでもらい主観評価して頂きます.1文ずつ文が表示され,評価してもらいますが,文毎に独立しており,文脈はありません.1文につき1箇所の評価箇所があり,「★」印がついています.この部分に,原文ではなんらかの文字が挿入されていましたが,それを欠落させています.この文を読み,ここに何か言葉を補った方が良いか,その必要はないかを評価していただきます.なお,文字を欠落させるにあたり,言語解析を行うことにより,文法的な誤りは生じないようになっています.従いまして,ここに何か言葉を補わないと文を理解する上で読み辛いかどうかの観点で評価して下さい.\end{quote}被験者に,初めの10問は練習用と断って評価してもらい,以降のデータ処理で使用していない.評価の際に,評価時間に制限は設けていない.総計1,792文を評価するのにおおよそ10数時間を要するため,被験者の判断で,数日に分けて評価した.\subsection{被験者間での主観評価の一致率}\label{label:主観評価の一致率}被験者間での主観評価の一致率を計算する.一致率を次のように定義する.\begin{equation}一致率=一致した数/全評価数\end{equation}ただし,計算は文単位で行う.4名の被験者から2名を選んだ6通りの組に対しての一致率は,表\ref{table:一致率}に示す通りである.全て,ほぼ,80{\kern0pt}%の一致率が得られた.また,主観評価の一致の程度を$\kappa$係数\cite{kappa}\cite{kappa2}で検証した.$\kappa$係数について簡単に説明する.2名の被験者がカテゴリ判定したデータのクロス集計結果を表\ref{table:行列定義}とするとき,$\kappa$係数は,$\kappa=(P_o-P_e)/(1-P_e)$で定義される.ここで,$P_o$は実際の一致割合(被験者A,BともにNGあるいは,ともにOK)であり,$P_o=(a+d)/N$である.$P_e$は被験者AとBの間に関連がない場合の各セルの期待値を足して全数で割った値であり,$P_e=(n_1m_1/N+n_2m_2/N)/N$である.$\kappa$係数の値により,一致の度合は表\ref{table:カッパ係数}のように評価される.今回の実験において,6通り全ての組に関し,表\ref{table:一致率κ}に示すように,``moderate''な一致の範囲であった.\begin{table}[t]\input{table1-2.txt}\end{table}\begin{table}[t]\input{table3-4.txt}\end{table} \section{機械判定で用いる素性の定義} \label{label:機械判定用の素性定義}文の受容性に関する機械判定を行うための識別器としてSVMを用いる.SVMは最大マージン原理を利用した2クラスの分類問題を解くための識別器であり,SVMは言語処理分野の他にも様々な分野に利用されている\cite{SVMapplication}.SVMの一般的な教科書としては\cite{Cristianini}\cite{Vapnik}がある.また,高い性能を持つSVMの性能に関係する汎化誤差の議論については,例えば「パターン認識と学習の統計学」6.4節\cite{Aso}等を参照されたい.素性として,以下で定義する11個の素性を用いる.11個のうちの3個は語彙表記と語の意味クラスに関する素性である.その他の8個は,大規模な生コーパスから計算した言語統計量を用いて計算した素性である.以上の枠組を模式図の形式で図\ref{fig:機械判定の枠組}に示す.\begin{figure}[t]\begin{center}\includegraphics{14-4ia3f3.eps}\end{center}\caption{機械学習アルゴリズムに基づく自動判定の枠組を示す模式図}\label{fig:機械判定の枠組}\end{figure}\subsection{語彙素性}はじめに,語彙に関する3つの素性について図\ref{fig:素性1}を参照しながら説明する.\begin{figure}[t]\begin{center}\includegraphics{14-4ia3f4.eps}\end{center}\caption{語彙素性の説明図}\label{fig:素性1}\end{figure}\begin{description}\item[評価文節先頭形態素の表記]本論文では図\ref{fig:素性1}に示すように,文中に存在する複数の文節のうち,評価位置の直後に来る文節を「評価文節」と呼ぶ.評価文節に含まれる複数の形態素のうち,先頭に位置する形態素の表記が本素性である.\item[評価文節先頭形態素の意味クラス]「評価文節先頭形態素の表記」と同じ形態素に対して,日本語語彙大系\cite{語彙大系}の意味クラスをツリー構造を持たない単なるカテゴリとみなして素性に割り当てたものである.複数の意味クラスを持つ場合,第1語義に対する意味クラスを用いる.\item[直前文節末形態素の表記]本論文では図\ref{fig:素性1}の中で示すように,文を構成する複数の文節のうち,評価位置の直前に来る文節を「直前文節」と呼ぶ.本素性は,直前文節に含まれる複数の形態素のうち,最後の形態素の表記である.\end{description}\subsection{語彙素性以外の素性}以下に示す8個の素性は,大規模な生コーパスから計算した統計量を用いて計算した素性である.大規模な生コーパスとして,2000年の毎日新聞記事を収めた「CD-毎日新聞2000\cite{mainichi}」1年分を用いる.形態素の分割には標準的な形態素解析ソフトであり,また,京大コーパスとの親和性がよいためJUMANを用いる.\subsubsection{$n$-gramに基づく素性}$n$-gramに基づく素性として次の5つを用いる(図\ref{fig:素性2}参照).この中の「評価文節の確率」以外は,欠落箇所におけるつながりの滑らかさに関する特性を表現している.\begin{figure}[b]\includegraphics[width=\textwidth]{14-4ia3f5.eps}\caption{$n$-gramに基づく素性の説明図}\label{fig:素性2}\end{figure}\begin{description}\item[トライグラムの同時確率]直前文節の最後の2つの形態素表記と評価文節先頭形態素表記の同時確率の底を10とする対数(以下,同様)である.\item[トライグラムの条件付確率]直前文節の最後の2つの形態素表記が出現したという条件の下で,評価文節先頭形態素表記の出現する条件付き確率の対数である.\item[スキップバイグラム]評価文節先頭形態素とそこから2形態素前の形態素の出現する同時確率の対数である.通常,評価文節先頭形態素の直前形態素に助詞が来る確率が高い.そのため,評価文節先頭形態素と意味的な共起関係を表現する特徴量になりにくい.そこで,評価文節先頭形態素の直前の形態素の代わりに,2形態素前の形態素を扱う.\item[評価文節の確率]評価文節を構成する形態素列の出現確率(形態素の同時確率の対数)である.ただし,形態素数の上限を3形態素(トライグラム)までとする.\item[逆方向バイグラム]評価文節先頭形態素表記が出現したという条件の下で直前文節の最後の形態素表記の出現する条件付き確率の対数である.\end{description}\subsubsection{NoisyChannelModelに基づく素性}誤字の修正の問題にNoisyChannelModelに基づく手法が用いられている\cite{Kerninghan}.本素性はNoisyChannelModelの考え方にヒントを得たものである(図\ref{fig:noisy}参照).図\ref{fig:素性3}(a)に示すように,形態素の並び$\ldots,W_{-2},x,W_0,\ldots$を観測したとする.ここで,$x$はどんな形態素でも良い.$W_0$が与えられたという条件の下で,2つ前の形態素が$W_{-2}$である条件付き確率を$p(W_{-2}\vertW_0)$で表す.全ての語$\tildeW$に対して$\ldots,\tildeW,x,W_0,\ldots$となる確率を$p(\tildeW\vertW_0)$で表す.次に,$p(\tildeW\vertW_0)$が降順になるように$\tildeW$の並び順を定める.このときの並び順を${\tildeW}^{(1)},{\tildeW}^{(2)},\ldots,{\tildeW}^{(n)}$とする.すると,$W_{-2}$は$\tildeW^{(1)},\ldots,\tildeW^{(n)}$のいづれかに位置する.次に,$p(\tildeW\vertW_0)$から累積分布$P(\tildeW\vertW_0)$を次式で計算する.\begin{equation}P(\tildeW\vertW_0)=\sum_{W=\tildeW^{(1)}}^{\tildeW}p(W\vertW_0)\end{equation}累積分布の説明図を同図(a)中の右図に示す.この中で$W_{-2}$に対応する累積確率$P(W_{-2}\vertW_0)$が本素性(NoisyChannelModelに基づく素性)である.\begin{figure}[b]\begin{center}\includegraphics{14-4ia3f6.eps}\end{center}\caption{NoisyChannelModelに基づく素性}\label{fig:noisy}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-4ia3f7.eps}\end{center}\caption{NoisyChannelModelに基づく素性計算}\label{fig:素性3}\end{figure}以下,本指標の性質について図と例を用いて説明する.同図(b)のイラストに示す.例として,$W_0$が「今日」で$W_{-2}$が「日」と「直径」の2つについて説明する.各々の文脈は「…日○今日…」と「…直径○今日…」である.ここで,「○」はこの位置を何か1文節が占めていることを示している.$W_0$が定まると,それに従って累積分布$P(\tildeW\vertW_0)$のカーブも固定される.上記の例の場合,$W_0=「今日」$に対して,共起しやすい語である$W_{-2}=「日」$は$x$軸で左端(上位14位)に位置し,共起しにくい語である$W_{-2}=「直径」$は$x$軸の右端(上位362位)に位置する.累積分布のカーブであるため,$W_{-2}$が$x$軸上の上位(左側)に位置すると,指標は小さな値になる.ここの例で「…日○今日…」という自然な文脈に対応する.一方,$W_{-2}$が$x$軸上の下位(右側)に位置すると,指標は大きな値になる.ここの例で「…直径○今日…」という不自然な文脈に対応する.\subsubsection{エントロピーに基づく素性}ここで扱うエントロピーでも,他の素性同様,欠落評価位置を挟んだ前後の連結性を扱う.具体的には,連続した2形態素についての条件付き確率に基づくエントロピーとして,文頭から文末に向かう順方向エントロピーと文末から文頭に向かう逆方向エントロピーの2つを扱う(図\ref{fig:素性4}参照).\begin{figure}[t]\includegraphics[width=\textwidth]{14-4ia3f8.eps}\caption{エントロピーに基づく素性の説明図}\label{fig:素性4}\end{figure}\begin{description}\item[順方向エントロピー]直前文節の最後の形態素$W_{-1}$が与えられたという条件の下で,評価文節先頭形態素$W_0$の出現確率に基づくエントロピー(ただし,対数の底は10)である.\[H_f=-\sum_{W_0\in\Omega(W_{-1})}p(W_0\vertW_{-1})\log_{10}p(W_0\vertW_{-1})\]ただし,\\$\Omega(W)$:形態素$W$の直後に出現する形態素の集合\item[逆方向エントロピー]評価文節の先頭の形態素$W_0$が与えられたという条件の下で,直前文節の最後の形態素$W_{-1}$が出現する確率に基づくエントロピー(ただし,対数の底は10)である.\[H_b=-\sum_{W_{-1}\in\Omega'(W_{0})}p(W_{-1}\vertW_{0})\log_{10}p(W_{-1}\vertW_{0})\]ただし,\\$\Omega'(W)$:形態素$W$の直前に出現する形態素の集合\end{description}\begin{table}[b]\input{table5.txt}\end{table}いくつかの語でエントロピーを計算した例を表\ref{table:entropy}に示す.特定の文脈で使われる語はエントロピーが小さく,いろいろな文脈で使われる語はエントロピーが大きい.例えば,「記事」は「関連記事」,「この記事」という文脈で使われることが多いためエントロピーが小さいのに対し\footnote{本論文においてエントロピーの計算に使われるバイグラム,すなわち2形態素のつながりにおける条件付き確率の計算では,2000年1年分の毎日新聞記事データを使っているため,新聞記事特有の文脈の影響を受けている.},「ニュース」ではそのような文脈上のつながりがなく,エントロピーが少し大きくなる.「電池」は,「太陽電池」,「燃料電池」という文脈が非常に多いため,ここで示した6語の中で最小の値となっている.一方,「教育」,「文化」はいろいろな文脈で使われるため,エントロピーが大きい.「首相」は村上首相(人名+首相)のような特定の文脈で使われる場合と,そうでない場合が半々程度出現し,エントロピーは中程度の大きさになる.本節で導入するエントロピー指標は,文脈による次の語(順方向エントロピーの場合には次の語で,逆方向エントロピーの場合には前の語)の予測が容易か困難かの指標であり,連体修飾部の欠落の受容性と次の関係を持つ.\begin{description}\item[予測が容易]説明がなくても分かる(連体修飾部不要).エントロピー小.\item[予測が困難]十分に説明してほしい(連体修飾部が必要).エントロピー大.\end{description} \section{機械判定の正解率測定結果} 機械判定を行うにあたり,データセットに含まれる「補う必要なし」(以下,正例と表記する)と「補う必要あり」(以下,負例と表記する)の数が等しくなるようにサンプルの抜き取りを行って調整する.具体的には,全被験者とも,負例が少なかったので,正例の中からランダムに,負例の数のサンプルを抽出して,正例と負例のサンプル数が等しくなるようにデータセットを調整する.そのようにして得られた被験者毎のサンプル数を図\ref{fig:サンプル数}および表\ref{table:サンプル数}に示す.この操作により,サンプル数800弱の被験者2名と,サンプル数1,100弱の被験者2名の2グループに分けた.以下の機械判定では,調整後のデータセットを基に,学習と判定を行う.\begin{table}[b]\input{table6.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{14-4ia3f9.eps}\end{center}\caption{機械判定用のデータセットのサンプル数}\label{fig:サンプル数}\end{figure}\begin{figure}[t]\begin{minipage}{199pt}\begin{center}\includegraphics{14-4ia3f10.eps}\end{center}\caption{機械判定の学習曲線}\label{fig:学習曲線}\end{minipage}\hfill\begin{minipage}{171pt}\vspace{13pt}\begin{center}\includegraphics{14-4ia3f11.eps}\end{center}\caption{機械判定の正解率}\label{fig:正解率}\end{minipage}\end{figure}\begin{table}[t]\input{table7.txt}\end{table}前章で述べた素性を用い,分類器として自然言語処理で広く使われるSVMを使って判定を行った.SVMのパラメータとして線形カーネルを用い,ソフトマージンでコスト$C=1$を用いた\footnote{ソフトウェアパッケージとしてkernlab\cite{kernlab}を用いた.}.機械学習アルゴリズムを用いた自動判定の評価にあたり10-foldcrossvalidationを行った.学習コーパスの量と正解値の関係,すなわち学習曲線を図\ref{fig:学習曲線}に示す.課題の正解値は,4名の主観評価中の1名に関するデータを用いる.前述のようにデータセット中の正例と負例の比率を等しくすることによって,ベースラインを0.5に設定してある.ベースラインの値は,正例と負例の2値判定をランダムに行った場合の正解率に相当する.各被験者に対し,他の3名との一致率の相乗平均値を上限値の目安として横線で示す\footnote{\ref{label:主観評価の一致率}で計算した一致率は全データに対するものであるが,ここの一致率はベースラインが50{\kern0pt}%になるようにデータ抽出したデータセットに対する一致率であり,僅かに異なる.}.学習量に対する正解率のグラフを調べたところ,素性を語彙素性のみにすると,学習サンプル数の増加に伴って正解率が増加しており,ここで調べたサンプル数の範囲では,まだ飽和していない.素性を統計量に関する素性のみにすると学習サンプル数に依存せず,同じ値となり,語彙素性と統計量の双方を用いた場合の正解率は,語彙素性のみの正解率および統計量のみの正解率を上回った(図\ref{fig:学習曲線}).次に,被験者毎の正解率を図\ref{fig:正解率},表\ref{table:正解率}に示す.図中に,ベースラインおよび各主観被験者に対し,他の3名との一致率の相乗平均値を上限値の目安として横線で示す.被験者間での正解率に大きな違いはない.4名の正解率の平均値はベースライン0.5,上限0.76に対し,0.67であった. \section{機械判定のパラメータ検討} 本論文では,機械学習アルゴリズムとして正解率の高さから定評のあるSVMを用いた.しかし,SVMだけを対象としたのでは,達成される正解率の内訳が,選択された素性に基づく性能によるのか機械学習アルゴリズムの性能によるのか区別がつかない.そこで,機械学習アルゴリズムの中で基本的な手法であるKNN法(k-nearestneighbormethod)を使用した場合の正解率を求めてSVMの正解率と比較し,同じ素性でも,機械学習の違いによる性能向上分の程度を調べる\footnote{ソフトウェアパッケージとしてWeka\cite{Weka}の中のIBkを用いた.}.その結果,ベースライン0.5に対し,KNN法で0.65,SVMで0.67となった.したがって,性能のうちの大部分は素性によって実現されたものと考えられる.なお,KNN法はパラメータKを含むので,網羅的に調べるため,Kを1.5の冪乗(1,2,3,5,7,11,...,437)で変化させて正解率の最大を求めた.次に,SVMを使う場合の,素性選択による影響を調べるために,素性を1つずつ削除した場合の正解率を調べる.それによって,素性選択の改良による性能向上の余地がどの程度あるのかを調べる.その結果,逆方向バイグラム素性を削減したときに最高値を示し,正解率0.69であった.なお,正解率が最も低下したのは,順方向エントロピーを削除したときで,正解率0.65であった(表\ref{table:素性削減}).\begin{table}[t]\input{table8-9.txt}\end{table}最後に,本論文で導入した11素性を各々単一に用いた場合の正解率を調べる.単体性能の最高を示す素性が「語の表記」で0.66であり,全体を使った性能が0.67である.今回新規な素性としてNoisyChannelModelに基づく素性を導入しているが,単体での正解率は0.52であり,全体中,中間的な性能であった(表\ref{table:単一素性}).先の「素性を1つずつ削除」する実験でこの素性を削除した場合に,正解率の低下は中程度であり,補助的な役割は果たしている.主要な素性を補助するために導入した素性の場合,主要な素性無しで,補助的な素性のみを使っても,本来,高い性能は得られない.例えば,順方向エントロピーがこれに該当する.先の「素性を1つずつ削除した場合の正解率」では,削除による正解率低下が最も大きく,重要であるが,それに対して,単一で用いた場合,性能の低い順に2位である.以上の結果,素性選択の方法による正解率への影響を調べた結果,本実験で用いる素性に対して,素性選択を調整すると正解率は多少向上するが,その程度は大きくないことが判明した. \section{考察} 機械判定の正解率として,ベースライン50{\kern0pt}%,人間の評価のバラツキから定義した上限\footnote{人間の評価のバラツキの観点から,各被験者に対し,他の3名との一致率の相乗平均値で定義}76{\kern0pt}%に対し,67{\kern0pt}%の正解率を得た.上限に近い70{\kern0pt}%前半が正解率の最終目標になるであろうから,今回の正解率67{\kern0pt}%は,それと比べ,ある程度近い値に達していると思われる.なお,素性の削減実験で全素性から「逆方向バイグラム」の素性を削減したときに,正解率の最高値69{\kern0pt}%を記録したが,今回のデータに限って偶然高い値になった可能性もあり,また,素性選択の組合せは膨大で正解率の最大値を網羅的に調べるのは困難なため,パラーメータ検討前の正解率を本手法の正解率として代表させた.以下では,実験に用いた素性について,語彙素性とそれ以外の素性の2種類に分けて考察する.まず,語彙素性における機械判定による正解率について図\ref{fig:学習曲線}の学習曲線を参照すると,学習サンプル数が少ないときにベースライン手法とほぼ同一であり,十分多いサンプル数を機械学習に与えた場合に全素性とほぼ同等の正解率で判定できることが確認できた.これは語彙素性として使用したものが主に形態素の表記であったため,素性の異なり数が非常に多く,少ない学習サンプル数では十分学習できなかったためと考える.次に,語彙素性以外の素性について考察する.語彙素性以外の素性は8種類ある.これらは主に,$n$-gramに基づく素性など,語のつながりの滑らかさを反映した統計量であり,新聞記事1年分の生コーパスから求めたものである.図\ref{fig:学習曲線}の学習サンプル数は,被験者判定による学習サンプル数であり,統計量を求める際の生コーパスの量とは異なる.そのため,学習により,判定に用いられる素性に対する重み係数が調整されるものの,学習サンプル数による効果は小さい.本研究のように,被験者の主観評価に基づいて正解判定データを整備し,機械学習ベースの判定処理を行うという研究スタイルの場合,主観評価に関わる実験デザインの善し悪しが研究の成否に大きく影響する.本研究では,被験者評価用の文を作成する際に,\ref{課題文の作成手順}で述べたように,1文毎の評価に限定したり,1文内の連体修飾部を1箇所に限定するなど,様々な条件設定を工夫して,被験者間の一致度が高くなるよう配慮した.結果的に,被験者間の一致率が約8割で$\kappa$係数がmoderateという十分高い一致率となり機械判定処理に成功した.近年研究の盛んなテキスト自動要約の研究では,主観評価結果のバラツキの問題が大きいため,評価法に関して様々な研究が行われ\cite{難波},評価型ワークショップNTCIRのTSCにおいて,評価法をいかにすべきかの議論がなされている\cite{NTCIR}.本研究での被験者間の一致率を,従来研究における別のタスクの場合と比較してみる.Maniらの要約の研究\cite{Mani99}では,4名の被験者で,要約文(もしくは原文)がトピックスに適合する検索結果かどうかを判定してもらう適合性判定(二者択一)を行い,被験者間の一致率を調べている.その結果,2名1組での一致率は69{\kern0pt}%で,$\kappa=0.38$であった.また,要約文もしくは原文が,5カテゴリまたはその他のどれに該当するかを答える被験者実験の結果,2名1組での一致率は56{\kern0pt}%で$\kappa=0.29$であった.平尾らの重要文抽出の研究\cite{平尾}では,要約率を30{\kern0pt}%に設定したときの被験者間の重要文の一致に関し,2名1組の$\kappa=0.3$程度となっている.なお,この研究では,231記事,4,013文からなる文書データに対し,6名の被験者で,重要文の人手判定を行い,大規模な機械学習用の正解値データセットを作成している.また,小林らの音声要約における重要文抽出の研究\cite{小林}では,学会講演の音声に対する,人間による重要文抽出(要約率33{\kern0pt}%)の一致率を調べている.2名の評価者間の$\kappa$係数について,10組の平均値は$\kappa=0.286$である.重要文抽出に関しては,$\kappa=0.3$程度(Fair)である.以上の要約に関連した様々なタスクでの被験者間の一致率と比較して,本研究のタスクにおける被験者間の一致率は,$\kappa$が0.46〜0.56(全てmoderate)であり,一致率が高いと言える.要約文の品質評価法に関して,外的評価という方法がある.例えば,適合性判定のタスクを設定して,様々な品質の要約文で,タスクの達成時間を計測し,達成時間を短縮できた要約文の品質が高いと判定する方法である.この評価方法は競技型ワークショップSUMMACで用いられたが,評価の実施が高価だったことに加えて,時間の制限から原文書を比較的短いものに限定しており,評価の妥当性の疑問が問題点として挙げられている\cite{自動要約}.本研究では,被験者間のばらつきの少ない実験条件を整備することに留意し,被験者間の一致率約8割で$\kappa$係数がmoderateになる高い一致率を得た.その結果,機械判定の処理が成功した.次に,今回の課題設定に関する特殊性を吟味する.本研究で扱った連体修飾部の追加の要否判定(換言すると欠落に対する受容性判定)の課題には,意味レベルと表層レベルとが混在している.これらのレベルの構成比率についてはデータセット中にある課題文を分析することで算出することが可能である.同様に,それらの分析を行った上で,各レベルに属する課題文の中で正解率が特に低いものに照準を合わせて,素性の選定を行うという対策も考えることが出来る.しかし,そのような個別対策に基づくアプローチは,コーパスベースの統計的言語処理と機械学習による枠組に合致せず,オープンテストによる正解率評価の公正性にも反する恐れもある.以上の観点から個別対策は行っていない.本研究の意義を一言で言えば,文章推敲支援の分野において,これまであまり研究が進んでいなかった「意味レベル2」(\ref{はじめに}節で定義)の課題を扱い,広く行われている統計的言語処理のアプローチで機械判定を行い,ある程度高い正解率を達成した点である.成功のポイントは,意味処理の課題を扱うに際して,主観評価の安定性を向上させるよう,実験デザインを工夫することによって,学習量の圧縮や,機械判定の正解値評価の部分を容易にした点である. \section{関連研究} \begin{figure}[b]\includegraphics[width=\textwidth]{14-4ia3f12.eps}\caption{酒井らの連体修飾節省略可能性評価の課題との比較}\label{fig:酒井}\end{figure}酒井らはテキスト自動要約における文内要約の要素技術として動詞連体修飾節の省略可能性に関する知識をコーパスから獲得する手法を提案している\cite{sakai}\cite{sakai2}.この研究は,本研究とも関連が深いので,両者の枠組の違いを図\ref{fig:酒井}に図示する.両者の似ている点は,文中のある部分の削除に対して,その受容性に関する評価指標を構築することが中心課題である点である.そのため,$n$-gram素性やエントロピー素性など,語の統計量に基づく素性を構築する上で,酒井らの手法を参考にした.一方,最も異なる点は,省略可能性評価の場合に,省略のない完全な文と省略のある文を生成できるのに対し,本研究の場合には,与えられた文は,全て連体修飾部を欠落させた文であり,原文は与えられず,復元出来ない点である.そのため,省略可能性評価の場合,完全な文と省略のある文を対比して指標を構築するというアプローチを取ることが出来るのに対し,本研究の場合,欠落のある文のみから評価指標を構築しなければならないという難しさがある. \section{まとめ} 文章校正,推敲の支援に関する従来研究では,主に,タイプミス,構文構造の複雑さ,表記の揺れを指摘する手法など,表記レベルと統語レベルの手法に重点がおかれていた.一方,人間による文章の推敲の作業では,読みやすさを向上させるために,説明が不足していて論理展開が読み取りにくいと感じられる箇所を指摘する場面が多く見られ,コンピュータ支援に対するニーズは高い.しかし,これまで,このような課題は,意味処理レベルの困難な課題と考えられ,機械判定の対象として十分に研究されていなかった.本研究では,原文から連体修飾部を欠落させた文を生成し,被験者がその箇所に何か言葉を補った方が良いか,その必要はないかを評価してもらい,そのようにして作成した正解判定データを使って機械判定する.この課題設定に関して,人間の判定結果の一致率を調べた.その結果,4名の評定者による各1,792箇所の判定に関し,4名中2名ずつ,6通りの組合せについて,いずれもほぼ8割の高い一致率を示した.機械判定の主な素性として,語彙素性に関する素性3種,コーパスからの統計量に関する素性8種を用い,機械学習アルゴリズムに基づく自動判定の手法として,SVMを用いた.その際,ベースラインを50{\kern0pt}%にすべく,正例数と負例数が等しくなるようにサンプルの抽出を行い,928サンプル(4名の被験者の平均値)からなるデータセットを作成した.機械判定の正解率として,ベースライン50{\kern0pt}%,上限(人間の評価のバラツキから上限を定義)76{\kern0pt}%に対し,67{\kern0pt}%の正解率を得た.今回の実験上の制約の中で,1文毎で評価している点が最も大きな制約であろう.この制約を外し,文脈を含めて検討することが今後の課題である.その際,照応技術の進展に合わせて研究開発することが鍵となろう.また同様に,今回用いなかった技術として,格解析の技術がある.格要素の有無に関する情報は,情報不足の推定に有力な情報を与えることが期待できるため,格解析技術の進展に合わせて利用を検討すべきである.\acknowledgment本研究の一部は,文部科学省科学研究費特定領域研究(B)(2)16092213,および,21世紀COEプログラム「インテリジェントヒューマンセンシング」(豊橋技術科学大学)の援助により行われた.京大コーパス利用に関し,京都大学黒橋研究室と毎日新聞社に感謝いたします.日本語語彙大系使用に関して日本電信電話株式会社に感謝いたします.また,研究遂行に御協力いただきました豊橋技術科学大学増山研究室の助教酒井浩之氏,修士課程山本悠二氏他の方々,および実験被験者に感謝いたします.貴重な御指摘をいただきました査読者に感謝いたします.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{麻生\JBA津田\JBA村田}{麻生\Jetal}{2003}]{Aso}麻生英樹\JBA津田宏治\JBA村田昇\BBOP2003\BBCP.\newblock\Jem{パターン認識と学習の統計学},6.3\JCH,\mbox{\BPGS\77--80}.\newblock統計科学のフロンティア6.岩波書店.\bibitem[\protect\BCAY{Carletta,Isard,Isard,Kowtko,Doherty-Sneddon,\BBA\Anderson}{Carlettaet~al.}{1997}]{kappa2}Carletta,J.,Isard,A.,Isard,S.,Kowtko,J.~C.,Doherty-Sneddon,G.,\BBA\Anderson,A.~H.\BBOP1997\BBCP.\newblock\BBOQTheReliabilityofaDialogueStructureCodingScheme\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(1),\mbox{\BPGS\13--31}.\bibitem[\protect\BCAY{Cristianini\BBA\Shawe-Taylor}{Cristianini\BBA\Shawe-Taylor}{2000}]{Cristianini}Cristianini,N.\BBACOMMA\\BBA\Shawe-Taylor,J.\BBOP2000\BBCP.\newblock{\BemAnIntroductiontoSupportVectorMachinesandotherkernel-basedlearningmethods}.\newblockCambridgeUniversityPress.\newblock(大北剛訳\BBOP2005\BBCP.\Jem{サポートベクターマシン入門}.共立出版.).\bibitem[\protect\BCAY{Green}{Green}{1989}]{Green}Green,G.~M.\BBOP1989\BBCP.\newblock{\BemPragmaticsandNaturalLanguageUnderstanding}.\newblockLawrenceErlbaumAssociates.\newblock(深田淳訳\BBOP1990\BBCP.\Jem{プラグマティックスとは何か}.産業図書.).\bibitem[\protect\BCAY{Grice}{Grice}{1989}]{Grice}Grice,P.\BBOP1989\BBCP.\newblock{\BemStudiesintheWayofWords}.\newblockHarvardUniversityPress.\newblock(清塚邦彦,飯田隆訳\BBOP1998\BBCP.\Jem{論理と会話}.勁草書房.).\bibitem[\protect\BCAY{平尾\JBA賀沢\JBA磯崎\JBA前田\JBA松本}{平尾\Jetal}{2003}]{平尾}平尾努\JBA賀沢秀人\JBA磯崎秀樹\JBA前田英作\JBA松本裕治\BBOP2003\BBCP.\newblock\JBOQ機械学習による複数文書からの重要文抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\81--108}.\bibitem[\protect\BCAY{伊吹}{伊吹}{1998}]{ibuki}伊吹潤\BBOP1998\BBCP.\newblock\JBOQ同音異義語誤りの校正における各種の共起制約データの有効性の評価\JBCQ\\newblock\Jem{言語処理学会第4回年次大会発表論文集},\mbox{\BPGS\626--629}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{語彙大系}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{Karatzoglou,Smola,Hornik,\BBA\Zeileis}{Karatzoglouet~al.}{2004}]{kernlab}Karatzoglou,A.,Smola,A.,Hornik,K.,\BBA\Zeileis,A.\BBOP2004\BBCP.\newblock\BBOQkernlab---AnS4PackageforKernelMethodsinR\BBCQ\\newblock{\BemJournalofStatisticalSoftware},{\Bbf11}(9),\mbox{\BPGS\1--20}.\bibitem[\protect\BCAY{笠原\JBA小林\JBA荒井\JBA絹川}{笠原\Jetal}{2001}]{kasahara}笠原健成\JBA小林栄一\JBA荒井真人\JBA絹川博之\BBOP2001\BBCP.\newblock\JBOQマニュアルの校閲作業における文書推敲支援ツールの実適用評価\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(5),\mbox{\BPGS\1242--1253}.\bibitem[\protect\BCAY{Kernighan,Church,\BBA\Gale}{Kernighanet~al.}{1990}]{Kerninghan}Kernighan,M.~D.,Church,K.~W.,\BBA\Gale,W.~A.\BBOP1990\BBCP.\newblock\BBOQAspellingcorrectionprogrambasedonanoisychannelmodel\BBCQ\\newblockIn{\BemCOLING-90},\mbox{\BPGS\205--210}.\bibitem[\protect\BCAY{小林\JBA山口\JBA中川}{小林\Jetal}{2005}]{小林}小林聡\JBA山口優\JBA中川聖一\BBOP2005\BBCP.\newblock\JBOQ表層的言語表現と韻律情報を用いた講演音声の重要文抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(6),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{kappa}Landis,J.~R.\BBACOMMA\\BBA\Koch,G.~G.\BBOP1977\BBCP.\newblock\BBOQThemeasurementofobserveragreementforcategoricaldata\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{2001}]{mainichi}毎日新聞社\BBOP2001\BBCP.\newblock\Jem{CD-毎日新聞2000}.\newblock日外アソシエーツ.\bibitem[\protect\BCAY{Mani}{Mani}{2001}]{自動要約}Mani,I.\BBOP2001\BBCP.\newblock{\BemAutomaticSummarization}.\newblockJohnBenjaminsPublishingCompany.\newblock(奥村学,難波英嗣,植田禎子\BBOP2003\BBCP.\Jem{自動要約}.共立出版.).\bibitem[\protect\BCAY{Mani,House,Klein,Hirschman,Firmin,\BBA\Sundheim}{Maniet~al.}{1999}]{Mani99}Mani,I.,House,D.,Klein,G.,Hirschman,L.,Firmin,T.,\BBA\Sundheim,B.\BBOP1999\BBCP.\newblock\BBOQTheTIPSTERSUMMACTextSummarizationEvaluation\BBCQ\\newblockIn{\BemProceedingsoftheninthconferenceonEuropeanchapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\77--85}.\bibitem[\protect\BCAY{難波\JBA奥村}{難波\JBA奥村}{2002}]{難波}難波英嗣\JBA奥村学\BBOP2002\BBCP.\newblock\JBOQ要約の内的(intrinsic)な評価法に関するいくつかの考察—第2回NTCIRワークショップ自動要約タスク(TSC)を基に—\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(3),\mbox{\BPGS\129--146}.\bibitem[\protect\BCAY{小野\JBA菅沼\JBA谷口}{小野\Jetal}{2006}]{suganuma2006}小野貴博\JBA菅沼明\JBA谷口倫一郎\BBOP2006\BBCP.\newblock\JBOQ日本語文章推敲支援における係り受けを誤解される文の抽出\JBCQ\\newblock\Jem{情報処理学会研究報告},``2006-NL-175''\JVOL,\mbox{\BPGS\99--104}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2004}]{sakai}酒井浩之\JBA増山繁\BBOP2004\BBCP.\newblock\JBOQ動詞連体修飾節の省略可能性に関するコーパスからの知識獲得\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ87-D-II}(8),\mbox{\BPGS\1641--1652}.\bibitem[\protect\BCAY{Sakai\BBA\Masuyama}{Sakai\BBA\Masuyama}{2006}]{sakai2}Sakai,H.\BBACOMMA\\BBA\Masuyama,S.\BBOP2006\BBCP.\newblock\BBOQKnowledgeAcquisitionabouttheDeletionPossibilityofAdnominalVerbPhrases\BBCQ\\newblock{\BemSYSTEMSandCOMPUTERSinJAPAN},{\Bbf37}(2),\mbox{\BPGS\25--36}.\bibitem[\protect\BCAY{高橋}{高橋}{1997}]{高橋昭男}高橋昭男\BBOP1997\BBCP.\newblock\Jem{仕事文の書き方},4\JCH,\mbox{\BPGS\77--85}.\newblock岩波新書.岩波書店.\bibitem[\protect\BCAY{田中}{田中}{1999}]{tanaka}田中穂積\JED\\BBOP1999\BBCP.\newblock\Jem{自然言語処理—基礎と応用},7\JCH.\newblock電子情報通信学会.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockJohnWiley\&Sons,Inc.\bibitem[\protect\BCAY{Wang}{Wang}{2005}]{SVMapplication}Wang,L.\BBOP2005\BBCP.\newblock{\BemSupportVectorMachines:TheoryAndApplications}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Witten\BBA\Frank}{Witten\BBA\Frank}{1999}]{Weka}Witten,I.~H.\BBACOMMA\\BBA\Frank,E.\BBOP1999\BBCP.\newblock{\BemDataMining}.\newblockMorganKaufmannPublishers.\bibitem[\protect\BCAY{横林\JBA菅沼\JBA谷口}{横林\Jetal}{2004}]{yokobayashi}横林博\JBA菅沼明\JBA谷口倫一郎\BBOP2004\BBCP.\newblock\JBOQ係り受けの複雑さの指標に基づく文の書き換え候補の生成と推敲支援への応用\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(5),\mbox{\BPGS\1451--1459}.\bibitem[\protect\BCAY{福島\JBA奥村\JBA難波}{福島\Jetal}{2002}]{NTCIR}福島孝博\JBA奥村学\JBA難波英嗣\BBOP2002\BBCP.\newblock\JBOQTextSummarizationChallenge—自動要約の評価型ワークショップ—\JBCQ\\newblock\Jem{情報処理},{\Bbf43}(12),\mbox{\BPGS\1295--1299}.\end{thebibliography}\begin{biography}\bioauthor{梅村祥之}{1981年名古屋大学大学院修士課程工学研究科修了.同年,東京芝浦電気株式会社入社.1988年株式会社豊田中央研究所入社.現在に至る.同社走行安全研究センターに所属.主に,自動車に関わる人間特性の研究に従事.2003年豊橋技術科学大学博士後期課程社会人コース入学.ヒューマンインタフェース学会,情報処理学会,日本音響学会,言語処理学会,自動車技術会会員.}\bioauthor{増山繁}{1977年京大・工・数理卒.1982年同大学院博士後期課程単位取得退学.1983年同了(工博).1982年日本学術振興会奨励研究員.1984年京大・工・数理助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授,2005年同大学インテリジェントセンシングシステムリサーチセンター教授併任.アルゴリズム工学,特に,グラフ・ネットワークのアルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等,情報アクセス支援への応用の研究に従事.}\end{biography}\biodate\end{document}
V10N02-06
\section{はじめに} 近年,情報化社会の進展と共に大量の電子化された文書情報の中から,自分が必要とする文書情報を効率良く検索することの必要性が高まり,従来のKW検索に加えて,全文検索,ベクトル空間法による検索,内容検索,意味的類似性検索など,さまざまな文書検索技術の研究が盛んである.その中で,文書中の単語を基底とする特性ベクトルによって文書の意味的類似性を表現するベクトル空間法は,利用者が検索要求を例文で与える方法であり,KW検索方式に比べて検索条件が具体的に表現されるため,検索精度が良い方法として注目されている.しかし,従来のベクトル空間法は,多数の単語を基底に用いるため,類似度計算にコストがかかることや,検索要求文に含まれる単語数が少ないとベクトルがスパースになり,検索漏れが多発する恐れのあることなどが問題とされている.これらの問題を解決するため,さまざまな研究が行われてきた.例えば,簡単な方法としては,$tf\cdotidf$法\cite{Salton}などによって,文書データベース中での各単語の重要度を判定し,重要と判定された語のみをベクトルの基底に使用する方法が提案されている.また,ベクトル空間法では,ベクトルの基底に使用される単語は,互いに意味的に独立であることが仮定されているのに対して,現実の言語では,この仮定は成り立たない.そこで,基底の一次結合によって,新たに独立性の高い基底を作成すると同時に,基底数を減少させる方法として,KL法\cite{Borko}やLSI法\cite{Golub},\cite{Faloutsos},\cite{Deerwester}が提案されている.KL法は,単語間の意味的類似性を評価する方法で,クラスタリングの結果得られた各クラスターの代表ベクトルを基底に使用する試みなどが行われている.これに対して,LSI法は,複数の単語の背後に潜在的に存在する意味を発見しようとする方法で,具体的には,データベース内の記事の特性ベクトル全体からなるマトリックスに対して,特異値分解(SVD)の方法\cite{Golub}を応用して,互いに独立性の高い基底を求めるものである.この方法は,検索精度をあまり低下させることなく基底数の削減が可能な方法として着目され,数値データベースへの適用\cite{Jiang}も試みられている.しかし,ベクトルの基底軸を変換するための計算コストが大きいことが問題で,規模の大きいデータベースでは,あらかじめ,サンプリングによって得られた一定数の記事のみからベクトルの基底を作成する方法\cite{Deerwester}などが提案されている.このほか,単語の共起情報のスパース性の問題を避ける方法としては,擬似的なフィードバック法(2段階検索法とも呼ばれる)\cite{Burkley},\cite{Kwok}なども試みられている.また,ベクトルの基底とする単語の意味的関係を学習する方法としては,従来から,MiningTermAssociationと呼ばれる方法があり,最近,インターネット文書から体系的な知識を抽出するのに応用されている\cite{Lin}.しかし,現実には,単語間の意味的関係を自動的に精度良く決定することは容易でない.これに対して,本論文では,ベクトル空間法において,検索精度をあまり低下させることなく,基底数を容易に削減できることを期待して,単語の意味属性をベクトルの基底として使用する方法を提案する.この方法は,従来の特性ベクトルにおいて基底に使用されている単語を,その意味属性に置き換えるものである.単語意味属性としては,日本語語彙大系\cite{池原}に定義された意味属性体系を使用する.この意味属性体系は,日本語の名詞の意味的用法を約2,710種類に分類したもので,属性間の意味的関係(is-a関係とhas-a関係)が12段の木構造によって表現されている.また,日本語の単語30万語に対して,どの意味属性(1つ以上)に属す単語であるかが指定されている.従って,本方式では,意味属性相互の意味的上下関係を利用すれば,検索精度をあまり落とさずにベクトルの基底数を削減できる.同時に基底として使用すべき必要最低限の意味属性の組を容易に決定できることが期待される.また,本方式では,検索要求文に使用された単語とデータベース内の記事中の単語の意味的な類似性が,単語意味属性を介して評価されるため,再現率の向上が期待できる.すなわち,従来の単語を基底とした文書ベクトル空間法では,ベクトルの基底として使用された単語間のみでの一致性が評価されるのに対して,本方式では,すべての単語(30万語)が検索に寄与するため,検索漏れの防止に役立つと期待される.本論文では,TRECに登録された情報検索テストコレクションBMIR-J2\cite{木谷}を検索対象とした検索実験によって,従来の単語を用いた文書ベクトル空間法と比較し,本方式の有効性を評価する. \section{意味属性体系を基底とした文書ベクトル空間法} \label{vector}\subsection{単語を基底とした文書ベクトル空間法(W-VSM)}従来の単語を基底とした文書ベクトル空間法では,文もしくは文書の意味的類似性はその中に出現した単語の組で表現されるものと仮定している.すなわち,文書の意味的類似性を表現するために使用される単語の番号を$i\\(1\leqi\leqn)$とし,文書中での単語$i$の重みを$w_i$とするとき,文書は,以下のような特性ベクトルで表わされる.\begin{equation}\label{equ1}V=(w_1,w_2,\cdots,w_i,\cdots,w_n)\end{equation}ベクトルの基底とすべき単語としては,キーワード検索の場合と同様,データベース全体に使用された単語の出現統計から,$tf\cdotidf$値などによって重要と判断された単語を通常使用している.また,重み$w_i$の値としては,文中に単語$i$が使用されているときは1,使用されていないときは0とする方法と,文中に使用された単語の出現頻度とする方法がある.また,各文書全体の相対的重みはいずれも等しいとする立場から,ベクトルの絶対値が1となるよう正規化する方法も採られている.本論文では以後,式\ref{equ1}で与えられる特性ベクトルを「単語を基底とした文書ベクトル」と呼び,このベクトルを使用したベクトル空間法を「単語を基底とした文書ベクトル空間法W-VSM(Word-VectorSpaceModel)」と呼ぶ.\subsection{単語を基底とした文書ベクトル空間法における意味的類似度}単語を基底とした文書ベクトル空間法において,文書の意味類似度を特性ベクトルで表現したとき,異なる文書$D_i$,$D_j$間の意味的類似性$sim(D_i,D_j)$は,それぞれの文書に対して求めた特性ベクトルの内積として,式\ref{equ2}のように表現される.\begin{equation}\label{equ2}sim(D_i,D_j)=V_i\cdotV_j\end{equation}但し,$V_i\cdotV_j$は,それぞれ,文書$D_i$,$D_j$の特性ベクトルを表す.従って,単語を基底とした文書ベクトル空間法を用いた情報検索では,利用者の与えた検索要求文について特性ベクトルを求めて,データベースに収録された各文書の特性ベクトルとの間で類似度を計算し,類似度がある一定値以上の文書を抽出している.また,単語を基底とした文書ベクトル空間法では,任意の文書をつなぎ合わせた文書についての特性ベクトルも容易に合成できるから,類似度の高い文書相互間で順にベクトル合成を行えば,文書全体を容易にクラスタリングすることができる.\subsection{単語意味属性を基底とした文書ベクトル空間法(S-VSM)}\label{word_meaning}本論文では,単語の代わりに,その単語の意味属性を使用する方法を提案する.本方式では,すべての単語を$k$個の意味属性に分類したのち,分類された意味属性を要素とする特性ベクトルによって文書の意味的類似性を表現する.すなわち,対象とする文書$D_j$において$i$番目の意味属性を持つ単語全体の重み$S_i$とするとき,文書$D_j$の特性ベクトル$V_j$は,次式で表現される.\begin{equation}\label{equ3}V_j=(S_1,S_2,\cdots,S_i,\cdots,S_k)\end{equation}重み$S_i$の与え方としては,種々の方法が考えられるが,本論文では,単語を基底とした文書ベクトル空間法の場合と同様,$tf\cdotidf$法の考えを適用し,以下の方法で得られた値とする.\begin{enumerate}\itemデータベースに収録された文書全体に対して,意味属性$S_i$に属す単語が出現した頻度の合計を求め,それぞれの$idf$値を計算する.\item文書$D_j$を対象に,意味属性$S_i$に属す単語が出現した頻度の合計を求め,その値を文書$D_j$の$tf$値とする.\item上記で得られた$tf$値と$idf$値から,意味属性$S_i$の$tf\cdotidf$値を求める.\item上記で得られた$tf\cdotidf$値を$|V_j|=1$となるように正規化する.\end{enumerate}なお,式\ref{equ1}で与えられる特性ベクトルを「単語を基底とした文書ベクトル」と呼んだのに対して,以下では,式\ref{equ3}で与えられる特性ベクトルを「単語意味属性を基底とした文書ベクトル」と呼び,このベクトルを使用したベクトル空間法を「単語意味属性を基底とした文書ベクトル空間法S-VSM(Semantic-VectorSpaceModel)」と呼ぶ.\subsection{日本語単語の意味属性体系}\label{goitaikei}単語の代わりに意味属性を基底とする文書ベクトル空間法では,単語の意味属性についての分類体系が必要である.本論文では,意味分類体系として,最近,「日本語語彙大系」\cite{池原}で提案された日本語名詞の意味属性体系を使用する.図\ref{imi}に意味属性体系の一部を示す.\begin{figure}[h]\begin{center}\epsfile{file=figure/zu1.eps,scale=0.77}\end{center}\caption{一般名詞意味属性体系の一部}\label{imi}\end{figure}この意味属性体系は,日本語名詞の意味的な用法を2,710種類の意味属性に分類したもので,意味属性間の意味的関係(is-a関係,has-a関係)が,12段の木構造で表現されている.また,単語意味辞書では,日本語名詞30万語のそれぞれが,どのような意味属性を持つか(一つ以上)が規定されている.従って,文書中に使用された名詞の出現頻度が分かれば,\ref{equ3}式のベクトルの要素$S_i$は,$i$番目の意味属性を持つ名詞の出現頻度から\ref{word_meaning}章で述べた方法で容易に求めることができる.\subsection{単語意味属性を基底とした文書ベクトルの効果}情報検索において,従来の単語を基底とした文書ベクトル空間法W-VSMに比べて,単語意味属性を基底とする文書ベクトル空間法S-VSMが,どのような効果を持つかについて考察する.\begin{enumerate}\itemベクトルの基底数削減の可能性従来の単語を基底とした文書ベクトル空間法では,ベクトルの基底として使用される名詞の意味は,互いに独立であることが仮定されているが,現実にはこの仮定は成り立たない.そのため,ベクトルの基底数を減少させるため,従来,基底をクラスタリングで得られたクラスターのベクトルとしたり,特異値分解(SVD:SingularValueDecomposition)によって得られたベクトルに変換する方法の研究\cite{Deerwester}が行われてきた.しかし,これらの方法は,ベクトルの変換に多くのコストを要する点が問題であった.これに対して,本論文で基底として使用する単語意味属性は,木構造によって意味的上下関係(is-a関係とhas-a関係)が規定されている(\ref{goitaikei}節参照).この関係を利用して基底数を削減するため,計算コストはきわめて小さい.また,あまり効果のない意味属性を上位の意味属性で代用できるので,削減された意味属性も検索精度に寄与できるため,従来の方法と同様,検索精度をあまり落とすことなく,基底数が削減できると期待される.\item検索漏れの減少の可能性従来の単語を基底とした文書ベクトル空間法では,文書中に出現した単語のうち,ベクトルの基底として選択された単語のみがその文書の意味に反映する.そのため,意味が同じであっても,表記が異なる語は別の語として判定される.また,同義語や類義語を含む文書であっても,それが基底として採用されない限り検索の対象とならない.これに対して,単語意味属性を基底とした文書ベクトル空間法では,\ref{word_meaning},\ref{goitaikei}節で述べたように,30万語の名詞が2,710の意味属性にマッピングされ,検索要求文に使用された単語とデータベース内の記事中の単語の意味的な類似性が,単語意味属性を介して評価される.すなわち,文書中に使用される語は,それが異表記語,同意語,同義語のいずれでであっても,その意味が特性ベクトルに反映するため,情報検索において,検索漏れの削減の効果が期待できる.\item適合率の低下単語意味属性を基底とした文書ベクトル空間法では,1つの単語に対して意味属性による検索をおこなうため,複数の単語を検索するのと等価になる.そのため適合率の低下が予想される.\end{enumerate} \section{必要最小限の意味属性の決定} 本論文では,\ref{vector}章で述べた単語意味属性を基底とした文書ベクトルの効果を評価するため,日本語語彙大系で定義された意味属性2,710種類のすべてを使用する場合と,その中から必要最小限と見られる意味属性を選択して使用する場合について検索精度を調べる.本章では,意味属性の上下関係に着目した汎化により,ベクトルの基底として使用すべき必要最小限の意味属性の組を発見する方法について述べる.\subsection{汎化の方法}\label{generation}汎化とは,モデル学習において,事例から規則を発見するための帰納的推論の一種である.ここでは,特性ベクトルの基底数を減少させるため,情報検索に効果が少ないと推定される意味属性を直属上位の意味属性に縮退させることを汎化と呼ぶ.本論文では,汎化によって基底から削除された意味属性の$tf\cdotidf$値は,その上位の意味属性の$tf\cdotidf$値に加えることとする.汎化の対象とする意味属性の選び方については,様々な方法が考えられるが,ここでは,意味属性の粒度と意味属性の$tf\cdotidf$値に着目する方法を考える.\subsubsection{粒度による汎化\\S-VSM(g)}ベクトルの基底に使用される意味属性は,12段の木構造からなり,下位になるほど意味の粒度が相対的に小さくなる.そこで,各意味属性の位置する段数を粒度と考え,ある一定の粒度より小さい意味属性を汎化する.図\ref{generation-fig}に,8段以下の意味属性を7段目の意味属性に汎化する場合の例を示す.\subsubsection{$tf\cdotidf$値による汎化\\S-VSM(w)}検索対象となるデータベースの文書全体での$tf\cdotidf$値の小さい意味属性は,検索に寄与する程度が小さいと考えられるため,$tf\cdotidf$値の小さい意味属性を汎化の対象とする.汎化によって削除された意味属性の$tf\cdotidf$値は,上位直属の意味属性の$tf\cdotidf$値に加算する.直属の意味属性が削除されているときは,さらに上位の意味属性の$tf\cdotidf$値に加算する.図\ref{generation-fig}に,$tf\cdotidf$値が5以下の意味属性を汎化する場合の例を示す.\begin{figure}[ht]\begin{center}\epsfile{file=figure/zu2.eps,scale=0.92}\end{center}\caption{汎化の方法}\label{generation-fig}\end{figure}\subsection{必要最小限の意味属性の決定}\label{decision}ベクトル空間法では,計算量を削減する観点から,ベクトルの基底数を減少させることが望まれる.しかし,多くの場合,検索精度は低下させずに基底数を削減することは困難である.そこで,前節で述べた汎化の方法を使用し,検索精度をある一定値以上低下させない範囲で,必要最小限の意味属性の組を求める方法を考える.\subsubsection{粒度による汎化\\S-VSM(g)}元来,特性ベクトルで表現される文書の意味の粒度は,ベクトルの基底に単語そのものを使用する場合が最も細かい.意味属性を使用する方法では,すでに意味的な汎化が行われており,意味の粒度は荒くなっている.粒度に着目した汎化がさらに進めば検索精度は次第に低下すると考えられるため,必要最小限の意味属性の組を発見するには,順次,汎化を進めながら,検索精度の変化を追跡する必要がある.その結果,検索精度が低下する直前に使用した意味属性の組を必要最小限の組とする.\subsubsection{$tf\cdotidf$値による汎化\\S-VSM(w)}\begin{enumerate}\item{基本的な考え方}データベース中で$tf\cdotidf$値の小さい意味属性が汎化の対象となる.しかし,必ずしも,$tf\cdotidf$値の小さい意味属性のすべてを汎化すればよいとは限らない.いま,データベース内に収録された文書が検索対象となる確率はすべて均等だとし,すべての文書を対象に求めた特性ベクトルの和を$V_t$とする.$V_t$要素$n_i$の値の小さい意味属性$\#i$は,検索精度に与える影響が少ないから,情報検索において少ないベクトルの基底数で高い検索精度を得るには,各$n_i$の値がバランスしていることが必要である.すなわち,$tf\cdotidf$値の低い意味属性でも,基底間でアンバランスが増大するような汎化は,検索精度低下の原因となるから,高い検索精度を得るためには,データベース内の文書全体で出現する$tf\cdotidf$値がバランスするような意味属性を特性ベクトルの基底に選定する必要がある.\item{汎化すべき意味属性の選択基準}汎化すべき意味属性の選択基準について考える.データベース内に収録された文書全体の特性ベクトルを式\ref{equvec}とする.\begin{equation}\label{equvec}V_t=(n_1,n_2,\cdots,n_i,\cdots,n_m)\end{equation}ただし,$n_i$は,意味属性$\#i$に属す単語のデータベース全体での$tf\cdotidf$値の和を,また,$m$は,基底に使用される意味属性の数を示す.ここで,各$n_i$の値の均等さを変動によって評価するとし,評価関数$H$を以下のように定義する.\begin{equation}H=(n_1-n)^2+(n_2-n)^2+\cdots+(n_i-n)^2+\cdots+(n_m-n)^2\end{equation}但し$n$は$n_i$の平均値とする.\begin{equation}n=\sum_{i=1}^{m}{n_i\overm}\end{equation}基底のバランスを向上させるには,$H$の値が,減少するような基底(意味属性$\#i$)を選んで汎化を行う.そこで,意味属性$\#i$を汎化することを考える.$\#i$の直属上位の意味属性の番号を$\#j$とすると,汎化では,$n_i$の値が$n_j$に加算され,基底数$m$が1だけ減少する.従って,このようにして得られた$H$の値を$H_1$とすると,$H$と$H_1$の差は,近似的に\footnote{$H_1$の平均$n'$は$n'=\frac{m}{m-1}n$となる.ここで$m>>1$とすると$\frac{m}{m-1}\simeq1$から$n'\simeqn$となる.}式\ref{equuvi1}が得られる.\begin{equation}\label{equuvi1}H-H_1\simeq(n_i-n)^2+(n_j-n)^2-(n_i+n_j-n)^2\end{equation}ここで,条件から,$H-H_1>0$とおくと,式\ref{equuvi2}が得られる.\begin{equation}\label{equuvi2}n_i\cdotn_j<n^2/2\end{equation}以上から,汎化すべき基底は,その重$tf\cdotidf$値と直属上位の基底の$tf\cdotidf$値との積が,基底の平均値の二乗値の半分以下になるものを選択する.\item汎化の手順具体的には,以下の手順で汎化を行う.\begin{enumerate}\item汎化\label{itemitem1}上下関係にある意味属性$n_i$,$n_j$のすべての組のうち,積が最も小さい組を汎化する.\item検索情報検索実験を行い,検索精度を求める.\item停止検索精度の低下がある閾値以下の値のときは(a)に戻り,それ以上の時は,汎化を停止する.\end{enumerate}\end{enumerate}\subsection{ベクトル変換のための計算コスト}\ref{generation}節で述べた汎化は,基本となるベクトルの軸を変換する点では,従来のKL法やLSI法と同様である.そこで,そのために必要な計算コストを比較する.まず,ベクトルの基底数を削減するのに要するコストについて考える.データベースに収録された文書の総数と削減前のベクトルの基底数の和を$N$,削減後のベクトル基底数を$k$とすると,単語を基底とした文書ベクトル空間法の場合,通常,計算量は$N^4$もしくは$N^5$に比例すると言われている.LSI方式でも,特異値分解に必要な計算量は,$N^2\cdotk^3$に比例する.このため,データベースの規模が増大すると急激に計算量が増大することが大きな問題であった.\footnote{なお,大規模疎行列の固有値計算アルゴリズムはKrylov部分空間法の一種であるLanczos法を用いて高速に解くことができる.この方法は,一定次元の部分空間における近似固有ベクトルをもとに新たに初期ベクトルを計算し,反復法として用いることによって記憶容量を低減させる.反復Lanczos法は,特に疎行列を扱う場合に実際的な解法であるといえるが,固有値が近接している場合,正確な計算が難しいことが知られている.}これに対して,使用される意味属性の総数を$M$,段数を$d$(日本語語彙大系の場合$M=2,710$,$d=10$)とすると,単語意味属性を基底とした文書ベクトルにおいて粒度による汎化を行うときは,必要最小限の意味属性の数を求めるための計算コストは,ほぼ,$M\cdotd$に比例する.また$tf\cdotidf$値による汎化の場合は,ほぼ,$M^2-k^2$に比例する.また,必要最小限の意味属性の組が決定した後,文書毎の特性ベクトルを変換することは容易で,その計算コストは,文書量に比例する. \section{実験} \label{experiment}本章では,情報検索の精度と必要最小限の意味属性の組に関する実験を行い,提案した方式の特徴を評価する.\subsection{使用する文書}実験には,TRECに登録された「情報検索評価用テストコレクションBMIR-J2」\cite{木谷}(以下BMIR-J2)を利用する.BMIR-J2は,1994年の毎日新聞より国際十進分類(UDC)で経済,工学,工業技術一般に分類される記事5,080件を対象とするもので,文書集合,検索要求,正解判定結果から構成される.検索要求は「$\sim$に関する記事が欲しい」という形式で統一され,「$\sim$」の部分にあたる名詞句が列挙されている.また,検索要求に対する正解として,下記の通り,2種類の記事が示されている.\begin{enumerate}\itemランクA検索要求を主題としている記事\itemランクB検索要求の内容を少しでも含む記事\end{enumerate}\subsection{評価のパラメータ}実験結果は,以下の4つのパラメータを用いて評価する.\begin{enumerate}\item$sim$:文書類似度\begin{equation}sim(D_i,D_j)=V_i\cdotV_j\end{equation}(但し,$V_i\cdotV_j$は,それぞれ,文書$D_i,D_j$の特性ベクトル)\item$R$:再現率(recallfactor)\begin{equation}R={抽出された正解文書数\overデータベース中の正解文書数}\end{equation}\item$P$:適合率(precisionfactor)\begin{equation}P={抽出された正解文書数\over抽出された文書数}\end{equation}\item$F$:検索精度(f-parameter)\begin{equation}\label{equ-12}F={{(b^2+1)\cdotP\cdotR}\over{b^2\cdotP+R}}\end{equation}\end{enumerate}但し,式\ref{equ-12}のパラメータ$b$は,$P$に対する$R$の相対的な重みを示す.実験では,両者を対等と考え,$b=1$とする.\subsection{実験の方法}検索要求として新聞記事が与えられたとき,類似した新聞記事を検索することを考え,「主題が一致している新聞記事」を正解とする.具体的には,主題が一致している記事(ランクA)のうちの1つを検索要求用の記事に使用し,データベース内に収録された5,079件の記事の中から残りのランクAの記事を検索する.検索要求用の記事を替えながら,この手順を90回繰り返し,平均の検索精度で評価する.従来の単語を基底とした文書ベクトル空間法による実験では,データベース記事全体を対象に使用されている名詞の$tf\cdotidf$値を求め,その値の大きい順に基底とする名詞を決定する.また,基底毎の重要度を考慮し,各単語ベクトルの要素の値には,単語の文書中での出現頻度に$idf$値を掛けた値を使用する.なお,情報検索では,ある一定値以上の類似度を持つ文書を抽出の対象とするが,その値の選び方によって,再現率,適合率の値は変化する.そこで,検索の精度評価では,いずれの場合も,$F$値が最大となるよう類似度を設定する. \section{実験結果} \subsection{単語意味属性を基底とした文書ベクトル(S-VSM)と単語を基底とした文書ベクトル空間法(W-VSM)の比較}2,710種類の意味属性のすべてを使用する場合について情報検索実験を行い,従来の単語を基底とした文書ベクトル空間法(W-VSM)と検索精度を比較する.本論文の方法による検索精度を従来の単語を基底とした文書ベクトル空間法と比べた結果を図\ref{result1}に示す.図\ref{result1}では,情報検索において類似度$\alpha$以上の文書を抽出した場合について,$\alpha$と再現率$R$,適合率$P$の関係を示している.なお,類似度0.7以上とする場合は,検索される文書が1件程度となってしまい,信頼できないので,グラフから削除した.\begin{figure}[ht]\begin{center}\epsfile{file=figure/gra22.eps,scale=0.82}\end{center}\caption{記事の類似度と検索の精度の関係}\label{result1}\end{figure}また,この結果から得られた類似度$sim$と検索精度$F$値の関係を図\ref{result2}に示す.\begin{figure}[ht]\begin{center}\epsfile{file=figure/gra1.eps,scale=0.92}\end{center}\caption{記事の類似度と検索の精度の関係}\label{result2}\end{figure}\newpageこれらの図から,以下のことが分かる.\begin{enumerate}\item単語意味属性を基底とした文書ベクトルは,単語を基底とした文書ベクトル空間法に比べて,すべての類似度領域で,再現率が高く,適合率が低い.\item検索精度($F$値の最大値)は,両者は殆ど変わらない.\end{enumerate}\subsection{粒度による汎化(S-VSM(g))と$tf\cdotidf$値による汎化(S-VSM(w))の比較}\ref{decision}節で述べたような,意味属性の粒度に着目する汎化(S-VSM(g))と意味属性の$tf\cdotidf$値に着目する汎化(S-VSM(w))の2つの汎化の方法を用いて,ベクトルの基底として使用する意味属性の数と検索精度の関係を求めた.その結果を図\ref{result3}に示す.また,このうち,意味属性の$tf\cdotidf$値による汎化の場合について,汎化に伴う評価関数$H$の値の変化を同図に示す.なお,ここでは,$b=1$とした.\begin{figure}[ht]\begin{center}\epsfile{file=figure/gra3.eps,scale=0.86}\end{center}\caption{必要最小限の基底数の決定}\label{result3}\end{figure}図\ref{result3}の結果から,検索精度をあまり低下させない範囲(ピーク値の$10\sim20\%$以内の低下)で必要最小限のベクトルの基底数を求めると表\ref{result4}の結果を得る.\begin{table}[ht]\begin{center}\caption{必要最小限の基底数}\label{result4}\begin{tabular}{|c|c|c|c|}\hline\raisebox{-1.8ex}[0pt][0pt]{方式種別}&\raisebox{-1.8ex}[0pt][0pt]{基底数削減の方法}&\multicolumn{2}{|c|}{検索精度($F$値)低下の許容度}\\\cline{3-4}&&ピーク値の10\%&ピーク値の20\%\\\hline本論文の方法&粒度による汎化(W-VSM(g))&900属性&700属性\\\cline{2-4}(単語意味属性を基底)&$tf\cdotidf$値による汎化(W-VSM(w))&600属性&300属性\\\hline従来の方法&$tf\cdotidf$による方法&2,200属性&1,500属性\\(単語を基底)&&&\\\hline\end{tabular}(注)意味属性を上位8段まで使用\\\end{center}\end{table}これらの図表から,以下のことが示される.\begin{enumerate}\item今回の実験では,単語意味属性を基底とする文書ベクトル空間法は,従来の単語を基底とする文書ベクトル空間法に比べて,基底数が小さくても検索精度が高いことが示された.\item汎化の方法としては,粒度による汎化(S-VSM(g))より$tf\cdotidf$値による汎化(S-VSM(w))の方が基底数削減に強い.\end{enumerate}必要最小限の基底数について見ると,十分な基底数を持つ場合に比べて,検索精度を10$\sim$20\%以上低下させないためには,単語を基底とする文書ベクトル法では,最低2,000程度の基底数が必要とされるのに対して,単語意味属性ベクトルを用いて,$tf\cdotidf$値による汎化では,基底数を約300$\sim$600程度まで削減できる. \section{考察} \subsection{単語意味属性を基底とする文書ベクトル空間法と単語を基底とする文書ベクトル空間法の比較}実験によれば,単語意味属性を基底とする文書ベクトルは,単語を基底とする文書ベクトル空間法に比べて,再現率が高いことが分かった.本研究では,簡単のため,文書中に使用された単語の頻度から直接,意味属性の$tf\cdotidf$値を求めることとし,複数の意味を持つ単語は,その$tf\cdotidf$値を,該当する複数の意味属性に均等に加える方法を採った.これは,単語を基底とする文書ベクトルの場合と同じ扱いであるが,適合率を減少させる原因の一つと考えられる.これに対して,文書中で使用された単語の多義解消を行うことができれば,適合率の向上は可能であると期待される.ただし,今回の実験は,BMIR-J2における新聞記事検索のタスクであり,文書数も約5,000件と少ない.今後検索する分野が変化したときや,文章数が増加した場合,これらの結論が変わってくる可能性がある.今後,これらの課題を追求する必要がある.\subsection{意味属性体系}本研究に使用した意味属性体系は,元来,単語多義の解消を狙って開発されたものであり,複数の語義を持つ単語は,通常,複数の意味属性を持つ構造となっている.日本語語彙大系には,さらに,動詞と名詞の共起関係から,両者の文中での意味を特定するための仕組みが定義されている.そこで,これらの情報を使用した意味解析によって文書中で使用された単語の意味的用法を決定し,その後,該当する意味の重みを求めることにすれば,質問文と同じ単語が使用された文書でも意味の異なる用法の文書は検索対象外とすることができるため,適合率は向上すると期待される.\subsection{基底数の削減のためのテストデータ}実験では,提案した単語意味属性を基底とした文書ベクトル空間法と従来の単語を基底とした文書ベクトル空間法が基底数削減にどれだけ強いかを比較評価するため,情報検索方式の評価実験用として広く提供されているBMIRのデータセット(検索条件と正解付き)を使用した.実験はいずれもオープンテストである.これは,以下に述べるように,この種の研究では大量のデータを対象としたオープンテストは困難なためである.すなわち,本手法では,検索対象とするデータベースに対して必要最小限の意味属性の組を発見することが必要であるが,そのためには,汎化を進める過程で検索精度が低下するかどうかの評価が必要で,検索結果についてあらかじめ正解を知っておく必要がある.しかし,大規模なデータベースの場合,様々な検索条件について,あらかじめ正しい検索結果を知ることは通常難しい(この事情は他の検索方式の場合も同様である).ところで,本方式を現実のシステムに応用するには,部分的な標本(例えば,数千件程度の記事)に対して今回と同様の実験により必要最小限の意味属性の組決める必要があるが,必要な意味属性の数(これを$n$個とする)が分かれば,$n$個を構成する意味属性の種類は,データベースの規模に応じてさらに最適化することができる.すなわち,大規模なデータベースでも単語の出現頻度統計を取るのは比較的容易であるから,単語統計から作成された意味属性を初期値とし,意味属性数が$n$となるまで汎化すれば,残った$n$個の意味属性は,データベース全体から見て最適な組み合わせとなり,運用段階においてもクローズドテストに近い検索精度が得られるものと期待できる.\subsection{必要最小限の意味属性}粒度による汎化(S-VSM(g))において文書ベクトル数を700に汎化したときに残った単語意味属性を調査した.この結果.汎化で残った単語意味属性の多くは,汎化をする前に$tf\cdotidf$値が大きく,かつ頻度も多い単語意味属性であった.例として「抽象」,「名詞」,「事」など意味意味属性であった.\subsection{$tf\cdotidf$値による汎化と頻度による汎化}\ref{generation}節において,必要最小限の意味属性の決定するために,粒度による汎化(S-VSM(g))と$tf\cdotidf$値による汎化(S-VSM(w))を示した.本論文でしめした両方法は,どちらも$tf\cdotidf$値を利用しているが,単語の出現頻度を利用する方法も考えられる.そこで\ref{experiment}節の実験の前に,予備実験として,出現頻度を利用する場合と$tf\cdotidf$値を利用する場合で$F$値がどちらが高くなるか調査した.この結果,$tf\cdotidf$値を利用する場合のほうが良い値を示した.そのため,以後の実験においては$tf\cdotidf$値を利用した.なお,頻度が大きいが$tf\cdotidf$値が小さくなる単語意味属性は,,「自尊,卑下」,「敬称(女)」,「自信,自棄」,「生産行程」,「自信」などであった.また,比較的頻度が小さいが$tf\cdotidf$値が大きくなる単語意味属性は,「乗り物」,「親、祖父母,先祖」,「親」,「報償」,「庭園」,「休養」,「余暇」などであった. \section{結論} 従来,ベクトル空間法では,文書の意味を表す特性ベクトルの基底に,文中に現れる単語を使用していた.本論文では,単語の代わりに単語の意味属性(「日本語語彙大系」で規定された約2,710件)を使用する方法を提案した.また,意味属性間の意味的上下関係に着目したベクトルの基底の汎化の方法を提案し,情報検索の精度を低下させない範囲で,基底数を削減する方法を示した.この方法は,基底数を削減するための計算量が,データベース内の文書数に依存しないため,大規模なデータベースへの適用が容易である.BMIR-J2の新聞記事(5,080記事)の検索に適用した実験結果によれば,提案した方法は,単語の表記上の揺らぎに影響されず,同義語や類義語の存在も検索の対象となることから,従来の方法と比べて高い再現率が得られた.その反面,単語を基底とする文書ベクトルの場合に比べて,不適切な記事を拾いやすく,適合率が低下することが分かった.この効果は,キーワード検索においてシソーラスを使用したKW拡張の効果に相当する.また,本方式は,次元数の削減に強い方法であり,従来の方法に比べて,検索精度を落とすことなく,ベクトルの基底数を大幅に削減できることが分かった.今回は,単語の多義性の問題は考慮しなかったが,単語意味属性を基底とする文書ベクトルでは,意味属性体系の持つ能力を用いて単語の多義を解消した後,基底とする意味属性の重みを計算する方法が可能と考えられるので,今後は,この方法についても検討していきたい.また,基底数をさらに削減する方法として,意味属性体系の上位のノードから順に,不適切な記事を拾いやすいノードを選択してベクトルの基底から削除する方法についても検討していく予定である.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{池原悟}{1967阪大・基礎工・電気卒.1969同大大学院修士課程修了.同年日本電信電話公社入社,電気通信研究所配属.1996鳥取大学工学部教授に着任,現在に至る.工博.この間,数式処理,トラフィック理論,自然言語処理の研究に従事.1996スタンフォード大学客員教授.1982情報処理学会論文賞,1993同研究賞,1995日本科学技術情報センタ賞(学術賞),同年人工知能学会論文賞受賞.2002電気通信普及財団テレコムシステム技術賞,電子情報通信学会,人工知能学会,言語処理学会,各会員.}\bioauthor{村上仁一}{1984筑波大・第3学群基礎工学類卒.1986同大大学院修了.同年NTT情報処理研究所に入社.1991より1995ATR自動翻訳電話研究所に出向.1998鳥取大学助教授就任,現在に至る.この間,自然言語処理,音声認識の研究に従事.日本音響学会,電子情報通信学会,各会員.}\bioauthor{木本泰博}{1998鳥取大・工学部・知能情報工学科卒.2000同大大学院修士課程修了.同年積水ハウス入社.現在に至る.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V06N02-03
\section{はじめに} 近年,連続音声認識において,N-gram言語モデルによる言語制約を用いた手法が幅広く用いられている.N-gramは,大規模なテキストデータを統計的に解析し,直前の{\itN-1}個の単語から次の単語への遷移を確率的に与える非常に単純な言語モデルである.しかし,その構築・実装の容易さ,統計的音響モデルとの相性の良さ,認識率向上や計算時間の短縮の効果が大きい等の理由から,連続音声認識にはでは盛んに用いられている\cite{Bahl}\cite{Woodland}.N-gramは当初,英語の連続音声認識に対して適用され,その有効性が示された.英語の文章は,単語がスペースで区切られており,テキストデータから単語を単位としたN-gramが容易に構築できる.しかし,日本語の文章は文字が連続しており単語の境界が明らかではなく,テキストデータのみでは単語N-gramを構築することはできない.このため,我々は日本語の連続音声認識の認識単位として形態素を用いているが,その有効性について2章で明らかにしている.形態素を単位としたN-gramを構築する場合,テキストデータに形態素を付与する,いわゆる形態素解析を行う必要がある.しかし,N-gramを構築するのに必要な,大量のテキストデータを全て人手で形態素解析を行うには多大な労力と時間が必要であり,また,かなりの経験がある人が作業を行わなければ,付与された形態素の揺れも大きくなると考えられる.従って,大量のデータをより正確に形態素解析を行うためには,自動的に形態素解析する手法が望ましい.自動形態素解析は,従来人手で作成したルールにより解析を行う方法が主流であったが,ルールの作成の作業は相当の知識・経験が必要であり,また,話し言葉等のより自然な文を全てカバーできかつ矛盾のないルールを作成するのは困難であると考えられる.これに対し,本論文ではN-gram統計に基づく形態素解析手法を考える.N-gramを構築するためには,事前に形態素体系の構築や定義を行う必要はあるが,従来の形態素解析で必要であった形態素間の接続ルールの作成・重みの変更等の作業に代わり,ある程度の量の形態素データを収集するという比較的単純な作業で構築できる利点がある.また,より自然な発話文に対しても,データさえ収集できれば容易に適用可能である.3章では,N-gramを用いた形態素解析の原理を説明する.統計的モデルにより形態素解析を行うためには,通常は統計モデルの学習用として形態素解析済みの言語コーパスが整備されていることが前提となる.このため,山本らは\cite{Yamamoto}辞書と接続コストのみを用いて文コーパスから形態素ネットワークを生成し,生成された形態素ネットワークから隠れマルコフモデルを学習し形態素解析を行うことにより,形態素解析された言語コーパスが存在しない場合でも形態素解析が可能な手法を提案している.しかしこの方法では,形態素解析にかかるコストは非常に小さいという長所はあるが,形態素解析の結果はモデル化能力の低いとされる品詞Bigramと大きくは変わらず,形態素解析の正解率の適合率が93.5\%程度と報告されており,正しい形態素データを学習しない方法には精度に限度があると考えられる.形態素解析の精度は連続音声認識の精度にも大きく影響すると考えられるため,我々は高い精度でかつできるだけコストを抑えた形態素解析の手法を考える.このため,本論文では,形態素解析のためのN-gram言語モデルとして,より少ない量の形態素解析された言語コーパスから精度の高い予測精度の言語モデルを得るため,品詞と可変長形態素列の複合N-gram\cite{Masataki}を用いることを提案する.複合N-gramは,基本的には品詞を単位としたN-gramであるが,言語モデルとしての精度を高めるため,特定の形態素は品詞クラスから分離させ独立して扱い,さらに特定の形態素列を結合させて新たな単位として扱うモデルである.このため,品詞という単位では表現できない形態素独自の特徴を表現でき,かつ長い範囲の形態素間の連接関係を効率良く表現することができるモデルである.4章では,品詞と可変長形態素列の複合N-gramについて解説する.通常連続音声認識では,辞書に登録されている語いを対象とした認識が行われている.しかし形態素解析では,大量のテキストデータをまとめて処理するため,辞書に登録されていない未知語が含まれている場合も多く存在する.このため,形態素解析においては,未知語を含む文に対しても正確に処理が行えることが重要であると考える.本論文では,品詞から未知語が出現確率する確率を考えることにより,未知語の形態素解析も行えるよう,5章で定式化を行った.本論文で使用した複合N-gramは,品詞を基本単位としたN-gramであるため,このような未知語処理が容易である.第6章では,形態素解析実験により,形態素N-gramや品詞N-gramに対する複合N-gramの有効性を示し,最後の7章で本論文の結論を述べる. \section{日本語連続音声認識のための形態素解析} 英語等の言語では,単語を認識単位とした連続音声認識システムが構成されている.しかし,日本語の文は連続した文字列から構成されているため,単語の定義が明らかでなく,適切な認識単位が定かではない.連続音声認識の適切な単位として,以下の条件を満たすが重要であると考えられる.\begin{itemize}\item認識単位から読みの対応が明確であること\\日本語の場合,漢字の読みや,助詞の「は」「へ」など,その文字だけでは読みが決定できない場合が多い.できる限りヴァリエーションの少ない読みが決定できる認識単位を選択することが,連続音声認識の探索空間の削減のために有効である.\itemポーズ(無音区間)の挿入位置が限定できること\\連続音声といっても,発声文にはポーズが挿入される.連続音声認識では,認識単位間にはポーズの挿入が可能であるとして認識を行うため,連続音声認識の探索空間の削減および認識率の向上のためには,認識単位をできるだけ長くしてポーズが挿入される個所を少なくし,かつ認識単位中にはポーズは挿入されないように決定するのが好ましい.\item言語理解システムとの整合性が良いこと\\音声認識のアプリケーションとして,機械翻訳等の言語理解と結合した音声理解システムが考えられる.言語理解には形態素解析・構文解析等の処理が必要である.このため,認識誤りにより認識結果の解析が不能に陥ることが少ない単位が望まれる.\end{itemize}以上の条件をよく満たす単位として,形態素が挙げられる.しかし,形態素を単位としてN-gramを構築する場合,テキストデータから形態素を切り出す必要があり,この作業をすべて手作業で行うにはかなりのコストが必要となり,N-gram構築上の大きな問題となる.このため,形態素切り出し作業を省くことを目的として,文字あるいは文字列を単位とした手法が提案されているが\cite{Yamada1}\cite{Yamada2}\cite{Itoh},上記3条件には適合せず,連続音声認識にとって好ましい単位とは言えない.従って,テキストデータから大量の形態素データを得るためには,自動で形態素解析を行う必要があると考えられる.\vspace{3mm}また,音声認識の対象となる文は基本的に話し言葉であり,文章の読み上げなどの場合を除いては,通常の発話において書き言葉を喋ることはまずありえない.このため,連続音声認識用の言語モデル構築のためには,話し言葉のテキストデータに対して形態素解析が可能でなければならない.現在形態素解析の手法としては,形態素間の接続ルールや重み付けを人手で作成するルールベースの手法が広く用いられているが,接続ルールは通常書き言葉を対象に作成されており,音声認識で必要な話し言葉に対して,十分な性能が得られない可能性がある.このため,本論文では,統計的な言語モデルを用いた形態素解析の手法を採用した.統計的モデルは,データから自動的に構築できるため,接続ルールや重み付けを手作業で行うことと比較して,話し言葉に対しても適用が容易であると考えられる.また,統計的言語モデルは,連続音声認識の言語モデルとしても盛んに使用されているため,形態素解析にも統計的モデルを用いることにより,認識用言語モデルに適した形態素解析結果が得られると考えられる. \section{N-gram言語モデルによる形態素解析} 日本語の形態素解析は,文の文字列$L$から,それに対応する形態素列$W_L$を獲得することである.統計的手法では,$L$に対して最も高い確率を与える形態素列$W_L$\mbox{を探索することにより}形態素解析を実現する.これは,以下の式で与えられる.\begin{equation}W_L~=~\arg\max_{W}P(W|L)\end{equation}ベイズ則により本式は下式のように変形される.\begin{equation}W_L~=~\arg\max_W\frac{P(L|W)P(W)}{P(L)}\label{eqn:Bayes1}\end{equation}本式において,$P(L)$は右式の最大値を与えるためには無関係な量である.従って,式\ref{eqn:Bayes1}は下式と等価となる.\begin{equation}W_L~=~\arg\max_WP(L|W)P(W)\end{equation}右辺の確率$P(L|W)$は形態素から文字列を与える確率であるが,これは,形態素の表記と文字列が一致する場合は必ず$1$であり,一致しない場合は$0$である.また,確率$P(W)$は,形態素列$W$の生成確率である.従って,統計的手法による形態素解析は,与えられた文字列と一致する全ての形態素列の中から,生成確率が最も高くなる形態素列を探索することによって実現できる.形態素列$W$を$w_1,w_2,\ldotsw_m$とすると,その生成確率$P(W)$は次のように表される.\begin{equation}P(W)~=~\prod_{t=1}^mP(w_t|w_1^{t-1})\end{equation}本式において,$w_x^y$は$x$番目$y$から番目までの形態素列を表す.\mbox{右辺の確率を直接求めるのは困}難であるから,各形態素は,直前のN-1形態素から確率的に予測できると近似する.これが,形態素N-gramである.N-gramを用いると,上式の形態素列$W$の遷移確率は次のように近似される.\begin{equation}P(W)~=~\prod_{i=1}^mP(w_i|w_{i-N+1}^{i-1})\end{equation}N-gramは,Nが大きくなるほど,パラメータ数が飛躍的に増大するため,通常は直前の形態素から次の形態素を予測するBigram(2-gram),および直前の2形態素から次の形態素を予測するTrigram(3-gram)程度がよく使用される. \section{品詞と可変長形態素列の複合N-gram} \subsection{品詞N-gram・可変長形態素列N-gram}形態素N-gramのパラメータ数,すなわち形態素遷移の組合せは$V^N$($V$は語い)であり,{\itN}を大きくするとパラメータ数が格段に多くなるため,それぞれの値の推定が困難になる.例えば,語いが10,000語の時,Trigramのパラメータ数は$10,000^3=10^{12}(=1兆)$となり,それぞれのパラメータを推定するためには,数兆語からなるテキストデータが必要となるが,これほどの大規模のデータを収集することは事実上不可能に近い.実際には,平滑化\cite{Jelinek}\cite{Katz}の手法を用いてデータ上に出現しない形態素遷移に対しても,確率を与えることができるが,その結果,実際には有り得ない形態素の遷移に対しても比較的高い確率を与える可能性がある.この問題を解決するため,品詞を単位としたN-gramが使用される場合がある\cite{Nagata}.これは,形態素の代りに品詞間の遷移を考えることによりパラメータ数を削減し,推定量の信頼性を高めるものである.$m$形態素からなる文の生成確率は一般に下式で表される.\begin{equation}P(w_1^m)=\prod_{t=1}^mP(w_t|c_t)\cdotP(c_t|c_{t-N+1}^{t-1})\end{equation}($c_t$は$w_t$の属する品詞を,$c_x^y$は$x$番目から$y$番目の形態素列に対応する品詞列を表す)上式で,$P(c_t|c_{t-N+1}^{t-1})$は直前の{\itN-1}形態素列に対応する品詞列から次の形態素の属する品詞への遷移確率を表し,$P(w_t|c_t)$は,次品詞から次形態素が出現する確率を表す.品詞数を100とした時,Trigramの全ての品詞間の遷移の組は$100^3=10^6(=100万)$であるから,形態素N-gramに比べてパラメータ数は極めて少なく,比較的信頼できる遷移確率が求めることができる.しかし,品詞単位でのモデルでは,それぞれの形態素特有の接続関係を表現することができないため,言語モデルとしての性能は劣ると考えられる.また,N-gramの単位を結合させ部分的に長くする手法も提案されている\cite{Giachin}.日本語の場合は特定の形態素列を結合させてN-gramの単位として扱い,固定長のN-gramと比較して,局所的にNを大きくさせる効果があり,パラメータ数の増大を抑えながら,より長い範囲の形態素間の関係を表現するものである.$m$形態素からなる文の生成確率は一般に下式で表される.\begin{equation}P(w_1^m)=\prod_{t=1}^{\hat{m}}P(ws_t|ws_{t-N+1}^{t-1})\end{equation}但し,$ws_t$は文章の$t$番目の形態素列(単独の形態素も含める)を意味する.また,$\hat{m}$は形態素列に分割した際の形態素列の個数を表し,$\hat{m}\leqm$である.可変長形態素列N-gramは,長い範囲の形態素間の連接関係を表現するのには有効であるが,パラメータ数が同じNの形態素N-gramより多くなり,少量の学習データから,信頼性の高いパラメータ推定を行うのは困難である.\subsection{品詞と可変長形態素列の複合N-gram}本論文では,形態素解析のための言語モデルとして,品詞と可変長形態素列の複合N-gramを使用することを提案する.品詞と可変長形態素列の複合N-gramは,品詞N-gramを基本としたN-gramであるが,品詞全体の性質とは異なった性質を呈する特殊な形態素はその品詞から分離させ独立して扱う.さらに,結合させることにより,言語モデルの精度を向上させる特定の形態素列は結合させた単位として扱う.従って,品詞と可変長形態素列の複合N-gramは,前節で示した品詞N-gramと可変長形態素列N-gramとのそれぞれの長所を生かしながら,それぞれの短所を補い合うことにより,少ないパラメータで高い予測精度が得ることを可能とした言語モデルである.N=2の場合,すなわちBigramを例にして,形態素N-gram,品詞N-gram,可変長形態素列N-gram,複合N-gramとの比較を図\ref{fig:probabilitycomparison}に示す.複合N-gramは,品詞クラス,形態素,形態素列を同時に扱うため複雑なモデルとなるが,本論文では,表現を簡単にするため,複合N-gramを次の3種類のクラス間のN-gramとして表現する.\begin{description}\item[A)]品詞クラス\item[B)]独立した1形態素のみで構成されるクラス\item[C)]1形態素列で構成されるクラス\end{description}\def\probability_FIG{}\probability_FIGこのクラス分類を用いると,複合N-gramによる文の生成確率は,下式のクラスN-gramの形で与えることができる.\begin{equation}P(w_1^m)=\prod_{t=1}^{\hat{m}}P(ws_t|c_t)\cdotP(c_t|c_{t-N+1}^{t-1})\end{equation}但し,\(ws_t\)は文章を上記のクラス分類を用いた場合の,t番目の形態素列(単独の形態素も含める)を意味する.また,$\hat{m}$は文章の形態素列の個数を表し,$\hat{m}\leqm$である.例として,次の文章(5形態素)を考える.\begin{center}「わたくし-橋本-と-言い-ます」\end{center}「橋本」は出現頻度が高くないため.固有名詞クラスとして扱う方が適切であると考えられる.「わたくし」および「と」は日本語の文章で頻繁に出現する形態素であるため.品詞クラスより分離して単独で扱う.また,「言い-ます」は日本語で頻繁に用いられるフレーズであるため.結合させて一単位として扱う方が効果的であると考えられる.従って,この文章の生成確率は,次の式で与えられる.\begin{eqnarray*}&P(w_1^m)&=P(わたくし|\{わたくし\})\cdotP(\{わたくし\})\nonumber\\&\cdot&P(橋本|\langle固有名詞\rangle)\cdotP(\langle固有名詞\rangle|\{わたくし\})\nonumber\\&\cdot&P(と|\{と\})\cdotP(\{と\}|\langle固有名詞\rangle)\nonumber\\&\cdot&P(言います|[言います])\cdotP([言います]|\{と\})\end{eqnarray*}但し,\(\langle\rangle\{\}[]\)はそれぞれ,クラスA)B)C)に属していることを表す.B)およびC)のクラスは,形態素(列)とクラスの出現頻度は等しいため(\(P(w_t)=P(c_t)\)),上式は次のように変形することができ,複合N-gramと等価であることがわかる.\begin{eqnarray*}&P(w_1^m)&=P(わたくし)\\&\cdot&P(橋本|\langle固有名詞\rangle)\cdotP(\langle固有名詞\rangle|わたくし)\\&\cdot&P(と|\langle固有名詞\rangle)\\&\cdot&P(言います|と)\end{eqnarray*}\subsection{複合N-gramの生成方法}より少ないパラメータで次形態素予測精度の高い効率的な複合N-gramを得るためには,初期クラスから独立させる形態素,および結合させる形態素列を適切に選択する必要がある.本論文では,品詞クラスを初期クラスとし,初期クラスからの形態素独立によるクラス分離,および形態素列結合によるクラス分離の2種類のクラス分離を逐次的に行うことによって,複合N-gramのためのクラス分類を決定する方法を提案する.形態素独立,および形態素列結合候補の決定は,式\ref{eqn:entropy}により求められるエントロピーを最小にさせる候補を1つのみ選択する.\begin{eqnarray}\label{eqn:entropy}&H&(\{c_i\})=-\sum_iP(c_i)\nonumber\\&&\sum_kP(ws_k|c_j)\cdotP(c_j|c_i)\log_2\{P(ws_k|c_j)\cdotP(c_j|c_i)\}\nonumber\\&&where~ws_k\inc_j\end{eqnarray}エントロピーはあいまいさを表す尺度であり,また,エントロピーを$H$としたときパープレキシティは$2^H$で与えられる.すなわち,エントロピーが小さいことはあいまいさが小さく,また,次形態素予測の分岐も少なく,言語モデルの精度が高いことを意味する.従って,クラス分離を行う際に,常にエントロピーを最小にする候補を選択する本手法は,より少ないパラメータで精度の高い複合N-gramを生成するために適した手法であると考えられる.なお,本手法において,エントロピーの減少は常に正になることが保証されており,クラス分離によって,学習データに関してエントロピーは単調に減少する.\begin{figure}[tb]\setlength{\unitlength}{1mm}\footnotesize\begin{center}\begin{picture}(60,65)(0,0)\put(10,55){\framebox(40,7){形態素→品詞の分類}}\put(10,45){\framebox(40,7){\shortstack{分離クラス候補の\\リストアップ}}}\put(10,35){\framebox(40,7){\shortstack{各候補に対する\\エントロピー減少量の算出}}}\put(10,25){\framebox(40,7){\shortstack{エントロピー減少量最大候補の\\クラス分離実行}}}\put(10,17){\line(4,1){20}}\put(10,17){\line(4,-1){20}}\put(50,17){\line(-4,1){20}}\put(50,17){\line(-4,-1){20}}\put(12,13){\makebox(40,7){所定の分離クラス数?}}\put(50,10){\makebox(10,7){{\bfNo}}}\put(30,7){\makebox(10,7){{\bfYes}}}\put(10,2){\makebox(40,7){終了}}\multiput(30,55)(0,-10){4}{\vector(0,-1){3}}\put(30,12){\vector(0,-1){3}}\put(50,17){\line(1,0){5}}\put(55,17){\line(0,1){36.5}}\put(55,53.5){\vector(-1,0){25}}\end{picture}\end{center}\normalsize\caption{複合N-gramの生成アルゴリズム}\label{fig:generationalgorithm}\end{figure} \section{未知語を含んだ文の形態素解析} 本論文では,未知語の形態素解析を行うために,品詞クラス$c_{\xi}$に対して,同一品詞の未知語のためのクラス$\hat{c_{\xi}}$を導入する.クラス$\hat{c_{\xi}}$は,任意の文字を1次を出力するクラスであり,同一\break未知語クラス$\hat{c_{\xi}}$が連続した場合は,それらをまとめて一つの未知語とみなす.図\ref{fig:UnknownWord}に,\mbox{「政瀧」と}\breakいう未知語を含んだ文の品詞Bigramを使用した形態素解析の処理例を示す.以下に,$\hat{c_{\xi}}$に関する確率の導出を行う.\def\unknown_FIG{}\unknown_FIGTuring推定によると,データ上に$r$回出現する形態素は,次式の$r^*$回と推定される.\begin{equation}r^*~=~(r+1)\frac{n_{r+1}}{n_r}\end{equation}ただし,$n_r$はデータ上に$r$回出現した形態素の種類数を表す.\mbox{従って,$r$回出現する形態素$w$の}品詞からの出現確率$P(w|c_{\xi})$は,\begin{equation}P(w|c_{\xi})~=~\frac{r^*}{N(c_{\xi})}\end{equation}となる.これを,クラス$c_{\xi}$に属する全ての形態素について計算し,$1$から引いた残りが品詞$c_{\xi}$から未知語出現する確率$P(\hat{c_{\xi}})$である.\begin{equation}P(\hat{c_{\xi}})~=~1-\sum_{w\inc_{\xi}}P(w|c_{\xi})\end{equation}品詞$c_{\xi}$の未知語の文字$l$の出現する確率$P(l|\hat{c_{\xi}})$は,本来文字毎に与えられるべきであるが,固有名詞等では,学習データにも出現しない文字が出現する可能性もあり文字毎に正確な確率を与えるのは困難であるため,全ての文字が等しい確率で出現するとし,未知語出現確率$P(\hat{c_{\xi}})$から均等に割り当てる.\begin{equation}P(l|\hat{c_{\xi}})~=~\frac{P(\hat{c_{\xi}})}{V}\end{equation}ただし,$V$は文字の種類数とする.また,$P(\hat{c_{\xi}}|\hat{c_{\xi}})$は,未知語が連続する確率である.本モデルにより生成される未知語の長さは二項分布に従うため,実際の未知語の長さも二項分布に従うという仮定を設けると,その品詞に属する語$w$の文字列$len(w)$より$P(\hat{c_{\xi}}|\hat{c_{\xi}})$は下式により求められる.\begin{equation}P(\hat{c_{\xi}}|\hat{c_{\xi}})~=~\sum_{w(\inc_{\xi})}\frac{len(w)-1}{len(w)}\end{equation} \section{評価実験} \subsection{各種N-gramモデルの形態素解析性能評価}自然発話旅行会話データベース\cite{Morimoto}を用いて形態素解析の評価実験を行った.本データベースには,間投詞や感動詞のほか,ら抜き表現,助詞落ち等の自然発話特有の言語現象が頻出する.また,本データベースは旅行会話という限定された内容の言語データであるが,実際のアプリケーションを想定した連続音声認識システムとしては,情報案内システム\cite{Tsutsumi}・予約システム\cite{Kawahara}等用途を限定し音声認識の精度を向上させている例が多く,このような内容の限定されたデータで評価を行うことは適切であると考えられる.データベースは,1,334対話,44,091文,559,711形態素から成り,語いは7,724語である.このうち,約4分の1(334対話,11,321文,137,691形態素)を評価用データとし,残り(1,000対話,32,770文,402,020形態素)を言語モデル学習に使用した.形態素解析精度の比較対象として,複合N-gramと形態素N-gram,および品詞N-gramを構築した.複合N-gramは,活用形,および活用型を含めた234品詞を初期状態とし,最大2,000クラスまで分離を行い,500分離おきにデータを採取した.また,形態素N-gram,品詞N-gram,複合N-gramともに,形態素および品詞クラスの遷移確率をback-offSmoothing\cite{Katz}により学習データに出現しない形態素および品詞クラス遷移に対して$0$でない確率を与えた.また,本節の実験では,辞書には学習データ,評価データに出現する全ての形態素が登録されており,未知語は存在しない.ただし,学習データに出現しない形態素に対する遷移確率は,全てのモデルにおいて1/(100*語数)という確率を与えた.これは,他に候補が無い場合はこの形態素を割り当てるために,0でない小さい値を与えることを目的としている.形態素の正解率の評価には,音声認識で広く用いられている単語正解率(Accuracy)にならい形態素Accuracyを用いた.形態素Accuracy(\%)は下式で表される.\begin{equation}100\times\frac{W-S-D-I}{W}\end{equation}ただし,W:正解の形態素数,S:置換誤り形態素数,D:削除誤り形態素数,I:挿入誤り形態素数を表す.\begin{table}[tb]\begin{center}\caption{各種言語モデルの形態素解析性能比較(品詞のみの評価)}\label{tbl:ModelComparison1}\begin{tabular}{|l||c|c|c|c|c|c|}\hline\lw{}&\lw{形態素N-gram}&\lw{品詞N-gram}&\multicolumn{4}{c|}{複合N-gram(分離クラス数)}\\\cline{4-7}&&&~~500~~&~~1000~~&~1500~&2000\\\hline\hlineBigram&98.90&98.56&\underline{99.13}&99.07&99.02&99.01\\\hlineTrigram&98.95&98.94&\underline{99.17}&99.08&99.01&99.03\\\hline\end{tabular}\end{center}\end{table}通常,形態素解析では,形態素の分割が正しく,かつ付与された品詞が正しければ,正解とみなされれる.この場合の形態素Accuracy(\%)を表\ref{tbl:ModelComparison1}に示す.また,形態素解析結果を音声認識に用いることを考えると,同一品詞の形態素でも読みが異なるものは,別単位として扱うことが好ましい.形態素に読みまで考慮した場合のた場合の形態素Accuracy(\%)を表\ref{tbl:ModelComparison2}に示す.ただし,読みの推定は,表記が同一の形態素でも読みが異なるものは別の形態素として扱い,異なる単位としてN-gramを構築し形態素解析を行うことにより実現している.\begin{table}[tb]\begin{center}\caption{各種言語モデルの形態素解析性能比較(品詞と読みを含めた評価)}\label{tbl:ModelComparison2}\begin{tabular}{|l||c|c|c|c|c|c|}\hline\lw{}&\lw{形態素N-gram}&\lw{品詞N-gram}&\multicolumn{4}{c|}{複合N-gram(分離クラス数)}\\\cline{4-7}&&&~~500~~&~~1000~~&~~1500~~&2000\\\hline\hlineBigram&98.54&96.78&98.62&\underline{98.64}&98.62&98.63\\\hlineTrigram&98.64&97.12&\underline{98.68}&\underline{98.68}&98.61&98.66\\\hline\end{tabular}\end{center}\end{table}表中で下線を付した値が,その次数の複合N-gramの最高の形態素正解率を示す.表\ref{tbl:ModelComparison1}および\ref{tbl:ModelComparison2}より,いずれの評価の場合も,複合N-gramの最も高い形態素正解率は,同次数の形態素N-gramおよび品詞N-gramよりも高い正解率を得ることができ,複合N-gramの他のモデルに対する優位性が実験的に示された.形態素正解率最高の値を与える分離クラス数は,品詞のみの評価の場合は分離クラス数500,読みも含めた評価の場合は分離クラス1000であり,それ以上増やしても逆に形態素正解率は低下する傾向にある.これは,クラス数が増加すると共に,パラメータ数も増加するため,各パラメータの確率推定が正しく行われないことに起因すると考えられる.このため,適切なクラス数を決定する必要があるが,これは,ニューラルネットワークの学習回数の決定等で用いられるCrossValidationの手法を用いることにより,適切なクラス数を実験的に求めることができる.以下に手順を示す.\begin{enumerate}\item学習データの一部を仮想的なテストデータとする\itemクラス数を徐々に増加させながらN-gramを学習する\item仮想的なテストデータに対し形態素解析を行い,形態素解析の性能が頭打ちになる所をクラス数とする\end{enumerate}3種類のモデルを比較すると,品詞N-gramは読みを含めた評価の場合に他のモデルと比較して形態素正解率が著しく低下している.これは,ある形態素の読みはその前後の形態素の読みに影響されると考えられるが,品詞という枠組みでは,前後の読みの関係が表現できないためと考えられる.形態素N-gramと複合N-gramでは,読みまで含めた形態素を単位として扱うことができるため,このような大きな低下は見られない.また,複合N-gramと形態素N-gramとの正解率の差は大きくはないが,5章で示した未知語処理の容易さとを考えると,複合N-gramが有利である.また,山本らの手法\cite{Yamamoto}では,タグなしコーパスから形態素ネットワークを生成する際に,ノイズを調整するための信頼性係数なるパラメータを変化させると,隠れマルコフモデルと品詞BigramおよびTrigramの形態素解析の精度は同等であると報告されている.しかし本実験の結果では,品詞Bigram,品詞Trigram,形態素Bigram,形態素Trigramの順に精度が向上しており,正解形態素列を学習させることにより,モデル化能力が形態素解析の正解率に反映されていると考えられる.また,複合N-gramは,複合Bigramでさえ隠れマルコフモデルよりもモデル化能力が高いとされる品詞Trigramよりも形態素の精度が高くなっている.従って,山本らの手法と比較し,正解形態素列を与えること,および複合N-gramを使用することにより,精度の高い形態素解析が可能であることが示せた.\subsection{学習データ量と形態素解析率との関係}前節の実験で,約40万語のデータより構築した複合N-gramモデルは,読みまで考慮した形態素解析率が98\%以上の,高い解析率が得られることが分かった.しかし,40万語の形態素データを集めることはそれほど容易ではなく,連続音声認識に使用するN-gramを学習するための,大量の形態素データを容易に集めるという本研究の目的と矛盾する.従って,データ量が少ない時にどの程度の形態素解析率が得られるかは,本論文の趣旨において重要なことである.これを調査するため,前節の実験で用いたデータを量を1/2,1/4から最小1/64とした時の形態素正解率を調べた.言語モデルには,複合Bigramの分離クラス数500と1000を用い,形態素正解率は読みも含めた場合の形態素Accuracyで評価した.実験結果を\ref{tbl:DataAmount}に示す.\begin{table}[tb]\begin{center}\caption{複合N-gramの学習データ量と形態素解析性能の関係}\label{tbl:DataAmount}\begin{tabular}{|l||c|c|c|c|c|c|c|}\hline&\multicolumn{7}{c|}{データ量}\\\hline全学習データに対する割合&1/64&1/32&1/16&1/8&1/4&1/2&1/1\\\hline学習形態素数&6,306&14,293&25,931&50,794&101,227&200,105&402,020\\\hline\hline複合Bigram(500)&94.45&95.87&96.97&97.53&98.02&98.45&98.62\\\hline複合Bigram(1000)&94.27&95.66&96.85&97.50&97.98&98.41&98.64\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:DataAmount}より,データ量が減少するに比例して,形態素正解率は低下することが分かる.しかし,データ量が全体の1/64の場合は,形態素数がわずか6,306であるが,このような非常に少ない量の学習データから構築したモデルでも,94\%程度の比較的高い正解率が得られる.94\%の形態素正解率は自動で形態素解析を行うには高い精度とは言えないが,自動形態素解析の結果を見て,人手で誤り個所を修正するような,半自動の形態素解析としては,使用に耐える性能であると考える.全学習データを使用した場合は,複合Bigramの分離クラス数1000の場合が分離クラス数500の場合よりも正解率が高いが,データ量が減少するにつれて,正解率は逆転している.これは,パラメータ数の多い分離クラス1000のモデルでは,データ量が少ない場合では,正確なパラメータ値を推定することが困難になることが原因であると考えられる.以上より,大量の形態素データを得るためには,まず,数千形態素程度のデータを人手で作成し,クラス数の少ない複合N-gramを構築して半自動の形態素解析を行い,数十万形態素程度のデータが集まった段階で,クラス数の大きい複合N-gramを構築し,その後は自動で形態素解析を行う,というのが効果的な手段であると考えられる.以下に,この作業に必要なコストについて検討した.まず,最初のN-gram学習用の形態素データを作成する必要があるが,これは,1形態素のデータ作成に1分あれば十分であるとして,6,000形態素のデータ作成にかかる時間は,1分×6,000=6000分=100時間である.これを基にして作成した複合N-gramで95\%程度の正解率が得られるため,形態素解析したデータの修正には,1形態素あたりでは形態素データ作成時の1/20の3秒程度で可能であると考えられる.40万形態素のデータを作成するためには,40万×3秒=120万秒=2万分=約333時間となる.一日8時間労働としても,2ヶ月程度で正解率98\%以上の形態素解析システムの構築が可能であることになる.また,修正を行うだけなら比較的単純な作業であり,多数の人間で平行して行うことができるため,さらにシステム構築の期間を短縮することが可能である.なお,以上の議論では文章データ収集のためのコストを無視している.しかし,英語・日本語に限らず音声認識システムを構築するためには文章データを収集することは必須の作業であり,この部分のコストに関してし議論するのは無意味である.このため形態素解析の作業量のみを議論した.\subsection{ルールベースの形態素解析との比較}形態素解析システムJUMAN\cite{Kurohashi}(Version3.5)との比較により,従来のルールベースの形態素解析に対する有効性を示す.ただし,我々の形態素解析とJUMANとでは,用いている形態素の体系や辞書に登録されている形態素の語数等が異なるため,できるだけ公平になるよう次のような方法で比較を行った.\begin{itemize}\item辞書サイズの均等化\\辞書サイズが,本論文の実験では約7千語であるのに対しJUMANでは約58万語あり,さらに,本論文の実験では評価データの全ての形態素が登録されている等,条件はJUMANが圧倒的に不利である.このため,名詞,動詞,形容詞等の自立語の語彙を我々のシステムと同一にした.ただし,「えー」「あのー」等の語は我々のシステムでは間投詞としているが,JUMANには間投詞という品詞は存在しないため感動詞とした.\item評価方法\\我々のシステムとJUMANとでは形態素の体系が異なり,評価データに対してJUMANの形態素体系の正解は存在しない.このため,提案方法よびJUMAN共に,形態素解析結果を目視して正誤の判定を行った.ただし,形態素の切り分けや品詞の判断は専門家でも困難な部分もあるため,明らかに誤りであると判断できる個所のみを誤りと判断している.また,評価データ約1万文を,目視により全て検査するのは時間を要するため,最初の200文のみを評価の対象とした.\end{itemize}6.1節の実験で,最も正解率の高かった複合Trigram(クラス数1000)とJUMANに関し,形態素数と形態素解析の品詞付与および読み付与正解率とで比較した結果を表\ref{tbl:RuleComparison}に示す.表より,形態素数はほぼ同じであり,両システムの形態素体系はは同程度の長さであることがわかる.形態素解析の精度に関しては,品詞付与で約4\%,読み付与で約5\%と本論文の提案手法の方が優れている.JUMANの誤り個所を調べると,大部分は感動詞と,数字の読みに関する誤りである.以下に代表例を示す.\begin{itemize}\item「たぶんえー大丈夫だと思います」\\→「たぶん(副詞)え(動詞)ー(記号)大丈夫だ(形容詞)と(助詞)思い(動詞)ます(接尾辞)」\item「九月十一日ご一泊」→「きゅうつきじゅういちにちごいちはく」\end{itemize}\begin{table}[h]\begin{center}\caption{ルールベースの形態素解析との比較}\label{tbl:RuleComparison}\begin{tabular}{|l||c|c|c|}\hline&~~形態素数~~&品詞付与正解率(\%)&読み付与正解率(\%)\\\hline\hlineJUMAN&2,158&95.83&94.21\\\hline提案法&2,129&99.91&99.91\\\hline\end{tabular}\end{center}\end{table}\newpageこれらの誤りの大部分は,接続ルールや重みを変更することで対応できると考えられる.しかし,そのためには,相当数のルールの追加・変更が必要になると考えられる.このような,修正を行うためには,試験的に形態素解析を行って形態素解析の誤り個所を見つけ,誤りの個所が修正でき,かつ正解個所の解析結果は変化しないように接続ルールや重みを変更する必要があると予想される.この作業を行うためにはルールの作成において相応の経験・知識を持つ人が,相当な時間をかける必要があると考えられる.これに対してN-gramでは,前節の実験でデータ量が増えるに比例して形態素解析率は向上していることから,形態素解析の誤り部分を修正するだけで形態素解析精度が向上でき,日本語において多少の文法的知識を持つ人なら容易に作業が可能であり,ルールベースの方法より精度の改善が容易であると考えられる.\subsection{未知語を含む文の形態素解析結果}次に,未知語を含む文の形態素解析実験を行った.学習・評価には,6.1節の実験と同一データを使用した.ただし,辞書には学習データに出現した形態素しか登録しておらず,評価データのみにしか出現しない形態素が未知語となる.このような未知語は632語存在し,評価データ中の137,691形態素中の859形態素(約0.6\%)を占める.ただし,形態素N-gramは,この処理は行えないため,品詞N-gramと複合N-gramのみで比較実験を行った.ただし,処理時間の都合上,両モデル共にBigramのみを用いた.形態素解析の評価は,品詞付与の形態素Accuracy(\%)のみで評価した.これは,現在の我々の形態素解析システムでは,未知語に対し読みを付与する機能がないためである.未知語に読みを付与するためには漢字毎の読みの情報があることが最低条件となるが,現在そのようなデータを持ちあわせていないことがその理由である.また,未知語,特に固有名詞の読みは人間でも間違う場合が多く,これを自動で行うのは技術的にも困難であると考えられる.表\ref{tbl:UnknownWord}に結果を示す.未知語処理を行った場合でも,複合Bigramが品詞Bigramよりも高い正解率を得た.辞書に全語いが登録されている6.1節の実験では正解率が99.13\%であったから,0.8\%程度低下はしているものの,98\%以上の比較的高い正解率が得られた.また,未知語の形態素解析誤りを分析したところ,「防音」が「防」と「音」のように,1形態素が複数の形態素に分割された例が多数見られた.これは,「音」という形態素が辞書に登録されているため「防」という文字のみが未知語として解析された結果生じた現象である.「防」も「音」も両方普通名詞であるから,これらの語を結合させることにより,誤りを低減することが可能であると考え\begin{table}[h]\begin{center}\caption{未知語を含む文の形態素解析性能}\label{tbl:UnknownWord}\begin{tabular}{|c||c|c|c|c|}\hline\lw{品詞Bigram}&\multicolumn{4}{c|}{複合Bigram(分離クラス数)}\\\cline{2-5}&~~500~~&~~1000~~&~1500~&2000\\\hline\hline97.66&\underline{98.31}&98.26&98.24&98.26\\\hline\end{tabular}\end{center}\end{table}\newpageられる. \section{むすび} 本論文では,連続音声認識用のN-gram言語モデルを構築するのに必要な形態素データを大量に収集することを目的として,品詞と可変長形態素列の複合N-gramを用い,テキストデータから自動で形態素解析を行う方法を提案した.形態素解析実験の結果,最高99.17\%の精度であり,読みまで考慮した結果でも最高98.68\%の精度を得ることができた.これは,従来のルールベースの手法よりも高い精度であり,提案手法の有効性が示された.また,実験により,6千語程度の少ない学習データから学習したモデルでも94\%程度の精度が得られることを確認した.さらに,品詞から未知語の出現確率を考えることにより未知語を含む文の形態素解析が行えるよう改良を行い,実験の結果,未知語が登録されている場合と比較して形態素解析精度の低下は0.8\%程度であることを確認した.今後の課題としては,形態素解析に最適な複合N-gramの分離クラス数を自動決定することが重要と考える.また,未知語に関しては,同一品詞の未知語と既知語とを結合させ,新たな未知語と考えること等により形態素解析率を向上させ,さらに,音声認識に直接活用できるよう,未知語に対して読みを自動的に付与する手法の開発も行いたい.\bibliographystyle{jnlpbbl}\bibliography{v06n2_03}\begin{biography}\biotitle{略歴}\bioauthor{政瀧浩和}{1989年京都大・工・電子工卒.1991年同大大学院工学研究科修士課程修了.同年住友金属工業株式会社システムエンジニアリング事業本部入社.1995年よりATR音声翻訳通信研究所に出向.自然言語処理,音声認識の研究に従事.電子情報通信学会,日本音響学会各会員.}\bioauthor{匂坂芳典}{1973年早大・理工・物理卒.1975年同大大学院修士課程修了.同年日本電信電話公社(現,NTT)武蔵野電気通信研究所入社.1986年より国際電気通信基礎技術研究所(ATR)に出向.現在,ATR音声翻訳通信研究所,第1研究室室長.工博.音声合成・音声認識を中心とした,音声情報処理,言語情報処理の研究に従事.電子情報通信学会,日本音響学会,IEEE,米国音響学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V30N01-04
\section{はじめに} \label{sec:intro}高性能な言語理解モデルを開発するためには,言語理解の能力を様々な観点から評価し分析するためのベンチマーク(データセット群)が必要である.英語においては,GLUE(GeneralLanguageUnderstandingEvaluation)\cite{wang-etal-2018-glue}が構築,公開されている.GLUEである程度の高スコアを達成できる言語理解モデルが開発されると,より難易度の高いベンチマークとしてSuperGLUE\cite{NEURIPS2019_4496bf24}などが構築され,ベンチマーク構築と言語理解モデル開発の好循環が生まれている.このような英語における言語理解研究活性化の潮流に乗じて,中国語版のCLUE\cite{xu-etal-2020-clue},フランス語版のFLUE\cite{le-etal-2020-flaubert-unsupervised},韓国語版のKLUE\cite{park2021klue}など,各言語におけるベンチマーク構築が進んでいる.しかし,日本語にはGLUEのようなベンチマークが存在せず,日本語自然言語処理にとって大きな問題となっている.日本語は英語や他の言語とは以下の点で異なることから,英語データセットにおける研究の知見は必ずしも日本語に適用できるとは限らない.\begin{itemize}\itemひらがな,カタカナ,漢字,アルファベットが使われる.\item単語間に空白区切りが無い.\item語順が比較的自由である.\end{itemize}以上の背景より,日本語の言語理解ベンチマークの構築は急務となっている.JSNLI\cite{jsnli:ipsj}やJSICK\cite{谷中瞳2021}など,個々の日本語データセットは構築されているが,それらの主な構築手法は英語のデータセットからの機械翻訳あるいは人手翻訳である.いずれの翻訳手法でも,翻訳文の不自然さや,翻訳元の言語(多くの場合英語)と翻訳後の言語(本研究では日本語)との間での文化・社会差が大きな問題となることが\citeA{clark-etal-2020-tydi}や\citeA{park2021klue}らに指摘されている.また,特定ドメインの日本語のデータセットとして,ホテルレビューを対象としたJRTEコーパス\cite{hayashibe-2020-japanese}や,運転行動を対象とした運転ドメインQA\cite{takahashi-etal-2019-machine}が構築されているが,いずれも一般的なドメインの言語理解能力を測るのには向かない.本研究では,一般的な日本語言語理解能力を測ることを目的として,翻訳を介することなく,日本語で一から言語理解ベンチマークJGLUEを構築する.JGLUEは,表\ref{tbl:jglue_overview}に示すように文章分類,文ペア分類,QAの3種類のタスクから構成し,GLUEおよびSuperGLUEのタスクを幅広くカバーするように設計した.また,構築したJGLUEを用いて種々の事前学習モデルを評価し,現状のモデルやデータセットの分析を行った.JGLUEは2022年6月より\url{https://github.com/yahoojapan/JGLUE}にて公開している.本ベンチマークによって日本語における言語理解研究が活性化することを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{03table01.tex}\caption{JGLUEの構成}\label{tbl:jglue_overview}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:relative}言語理解モデルを評価するためのベンチマークの先駆けはGLUEである.GLUEは,英語を対象として,文章分類および文ペア関係分類の2種のタスク,合計9つのデータセットで構成されている.GLUEより難易度の高いベンチマークとしてSuperGLUEが構築されている.SuperGLUEは,GLUEにおいて最も難易度が高い含意関係認識データセットを残した上で,QAや常識推論など難易度の高いデータセットを加えた合計8つのデータセットとして構築されている.このような英語におけるベンチマーク構築が言語理解モデル開発を活性化し,BERT\cite{devlin-etal-2019-bert}やその拡張モデルが多く生み出された.この動きに伴い,中国語,フランス語,韓国語,インドの言語群,アラビア語,カタルーニャ語などの各言語で,CLUE,FLUE,KLUE,IndicGLUE\cite{kakwani-etal-2020-indicnlpsuite},ARLUE\cite{DBLP:journals/corr/abs-2101-01785},ALUE\cite{seelawi-etal-2021-alue},CLUB\cite{rodriguezpenagos2021catalan}などの言語理解ベンチマークを構築する研究が活発になっている.また,XGLUE\cite{liang2020xglue},XTREME\cite{hu2020xtreme},XTREME-R\cite{ruder2021xtremer}などの多言語のベンチマークも構築されている.日本語も多言語ベンチマークに含まれているがデータ数は少量である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{JGLUEの構築} \label{sec:jglue}JGLUEは,表\ref{tbl:jglue_overview}のとおり,文章分類,文ペア分類,QAのタスクから構成する.以下では,各タスクのデータセットの構築方法について説明する.ただし,文章分類タスクの一つであるJCoLA(日本語容認性判断データセット)\cite{Someya2022}は他研究組織から提供を受ける予定であり,本稿では説明しない.各データセットは英語からの翻訳ではなく日本語のテキストを用いて構築し,正解の付与や自由記述文の作成はクラウドソーシング\footnote{Yahoo!クラウドソーシング\url{https://crowdsourcing.yahoo.co.jp/}を用いた.}を用いて行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{MARC-ja}\label{ssec:jglue:marc}文章分類タスクの一つとして,多言語商品レビューコーパスMARC(MultilingualAmazonReviewsCorpus)\cite{keung-etal-2020-multilingual}の日本語部分を基にデータセットを構築する.MARCは,通販サイト「アマゾン」における商品レビューとそれに紐づく1--5の5段階のレーティングをまとめているコーパスであり,英語や日本語などの複数言語で公開されている.JGLUEでは,MARCの日本語部分を使用し,また,計算機,人間ともにできる限り揺らぎなく判定できるように,5段階のレーティングのうち3を除く4つの評価について,1,2を``negative'',4,5を``positive''に変換した2値分類タスクとする.例えば,表\ref{tab:marc-ja-example}の上4件の例について,5段階のレーティングで4,5の評価がついている文章や,1,2の評価がついている文章のレーティングの判定は,人間にとっても困難であるが,positive,negativeの2値分類タスクとすることで判定が容易となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{03table02.tex}\hangcaption{MARC-jaの例(上4件はクラウドソーシングの前後でラベルが変わらなかった例,下2件はクラウドソーシングによってラベルが変わった例)}\label{tab:marc-ja-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%MARCにおける問題点として,positiveな内容のレビューに対し1や2の評価がついている場合など,内容と評価が乖離したデータが含まれている場合があることが挙げられる.これらのデータには,レビューの内容と明らかに異なったラベルが割り振られるため,データセットの品質を低下させる.評価に用いるdev/testセットに対しては,これらのデータを修正し高品質なものにするために,約12,000件のレビューに対してpositive/negative判定タスクをクラウドソーシングで実施する.10人から回答を収集し,7人以上から同じ回答を得られたデータのみを採用し,票の多い回答を正解ラベルとする.収集したデータを分割することでdev/testセットとする.以上の手続きにより,5,654件のdevセット,5,639件のtestセットを獲得した.trainセットは大規模であるため上記の手続きを実施せず,187,528件のデータを抽出した.MARC-jaのラベル分布を表\ref{tbl:marc-ja-detail}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{03table03.tex}\caption{MARC-jaのラベル分布}\label{tbl:marc-ja-detail}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%MARC-jaで用いる評価指標には,文章の2値分類タスクであることから,精度(accuracy)を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{JSTS・JNLI}\label{ssec:jglue:jsts-jnli}文ペア分類タスクについては,意味的類似度計算(SemanticTextualSimilarity,STS)データセットJSTSおよび自然言語推論(NaturalLanguageInference,NLI)データセットJNLIを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{概要}\label{sssec:jglue:jsts-jnli:overview}STSは,文ペアの意味的な類似度を推定するタスクである.正解の類似度は,クラウドソーシングによって複数人で付与した整数値0(意味が完全に異なる)から5(意味が等価)の平均値とされるのが一般的である.NLIは,前提文と仮説文の文ペアが与えられたときに,前提文が仮説文に対してもつ推論関係を認識するタスクである.推論関係としては「含意(entailment)」「矛盾(contradiction)」「中立(neutral)」の3値で定義されるのが一般的である.正解の推論関係は,クラウドソーシングによって複数人から回答を収集し,多数決によって付与することが多い.STS,NLIタスクはGLUEにおいて,それぞれSTS-B\cite{2017},MultiNLI\cite{williams-etal-2018-broad}データセットが含まれている.日本語では,英語NLIデータセットSNLI(StanfordNLI)\cite{snli:emnlp2015}を機械翻訳したJSNLI\cite{jsnli:ipsj},英語STS/NLIデータセットSICK\cite{marelli-etal-2014-sick}を人手翻訳したJSICK\cite{谷中瞳2021}がある.しかし,\ref{sec:intro}節で述べたように,これらには翻訳に由来する問題があるため,本研究では日本語で一から構築する.JSTSとJNLIの文ペアは,基本的に,MSCOCOCaptionDataset\cite{chen2015microsoft}の日本語版YJCaptionsDataset\cite{P16-1168}\footnote{YJCaptionsはMSCOCO\cite{chen2015microsoft}の各画像に対して,クラウドソーシングを用いて日本語のキャプションを5つ付与することで構築されている.}(以下,YJCaptionsと呼ぶ)から抽出する.SICKやJSICKと同様に,JSTSとJNLIを構成する文ペアの大部分は重複しており,同じ文ペアに対する類似度と推論関係との間の関係を分析することができる.JSTSにおける類似度は,STS-Bと同様に0~5の実数値とし,JNLIにおける推論関係は,SNLIやMultiNLIなどと同様に上記の3値とする.各推論関係の定義はSNLIに基づく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{構築方法}\label{sssec:jglue:jsts-jnli:construction}JSTSとJNLIの構築フローを図\ref{fig:jsts-jnli-flow}に示す.基本的には,YJCaptionsの同じ画像に対する2つのキャプションを文ペアとし,クラウドソーシングによって類似度および推論関係を付与する.ここで二つの問題が生じる.一つ目は,JSTSにおいて,同じ画像に対するキャプションからは類似度の低い文ペアを収集しにくいという問題である.そこで,異なる画像に対するキャプションから類似度の低い文ペアを収集する.二つ目は,JNLIにおいても同様に,同じ画像に対するキャプションからはcontradiction関係にある文ペアを収集しにくいという問題である.そこで,クラウドソーシングによって付与する推論関係はentailmentとneutralのみとし,contradiction関係については,あるキャプションに対して矛盾する文をワーカーに作文してもらうことによって収集する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia3f1.pdf}\end{center}\hangcaption{JSTS・JNLIの構築フロー(画像の出典:いらすとや(\protect\url{https://www.irasutoya.com/}),ONWAイラスト(\protect\url{https://onwa-illust.com/}))}\label{fig:jsts-jnli-flow}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%JSTSとJNLIの詳細な構築手順を以下に示す.\begin{description}\item[Step1]YJCaptionsの同じ画像に対する2つのキャプションを文ペアとしたSTSタスクをクラウドソーシングで実施する.5人から回答を収集し,その平均値を正解類似度とする.ただし,回答の分散が大きい文ペアについては,類似度の判断が難しい,もしくは回答の品質が悪い文ペアと判断し削除する.16,000件の文ペアを対象に上記タスクを実施し,類似度の分散が1.0以上の文ペアを削除した結果,10,236件の文ペアに対する類似度を収集した.この収集データをJSTS-Aと呼ぶ.\item[Step2]類似度の低い文ペアを収集するために,異なる画像に対するキャプションを文ペアとしたSTSタスクをクラウドソーシングで実施する.本タスクもStep1と同様の方法で類似度を獲得し,回答の分散によるフィルタリングを実施する.4,000件の文ペアを対象に上記タスクを実施し,2,970件の文ペアに対する類似度を収集した.この収集データをJSTS-Bと呼ぶ.\item[Step3]JSTS-Aに対して,NLIタスクをクラウドソーシングで実施する.推論関係には方向性があるため,文ペアについて双方向で推論関係を得る.前述のとおり,同じ画像のキャプションから収集したJSTS-Aからはcontradictionの事例を収集しづらいため,このステップではentailmentとneutralの事例を収集する.10人から推論関係の回答を収集し,6人以上が同一の回答をした場合に,それがentailmentかneutralであれば正解ラベルとして採用する.同一の回答が6人以上から得られなかった文ペアは採用しない.JSTS-Aに対して双方向で推論関係を得るため,JSTS-Aの2倍の20,472件の文ペアを対象に上記タスクを実施し,回答の一致度が高い17,501件の文ペアに対する推論関係を収集した.この収集データをJNLI-Aと呼ぶ.なお,JSTS-Bについては,文ペア間に関連性がなく,3つの推論関係から選択することが難しいことから,NLIタスクには使用しない\footnote{このような関係はneutralと定義するのが自然であるが,SNLIにおいてはcontradictionと定義されている.しかし,SNLIは,提示文に対して各関係の文をクラウドワーカーに書いてもらう仕様のため,このような文ペアは含まれていない.}.\item[Step4]contradictionのNLI事例を収集するため,YJCaptionsのキャプションに対して,矛盾する文を4つずつ作成するタスクをクラウドソーシングで実施する.作成された文のうち,短い文や,提示文と関連性の低い文といった品質の低い文を除去するために,編集距離が0.75以上の文ペアを除去する.さらに,作成した文ペアが本当に矛盾関係にあるかを確認するために,10人で片方向のNLIタスクを実施し,6人以上がcontradictionと回答した文ペアのみを採用する.最後に,矛盾関係には方向性がないため,採用された文ペアにおける反対方向の推論関係としてcontradictionを自動付与する.1,800件のキャプションを用いて7,200件の文ペアを獲得し,そこから,片方向のcontradiction関係を付与した文ペアを3,779件収集した.反対方向のcontradiction関係を自動付与することで,2倍の7,558件の事例を収集した.この収集データをJNLI-Cと呼ぶ.\item[Step5]Step4で収集した3,779件の文ペアについて,クラウドソーシングによるSTSタスクを実施する.Step1,2と同様の方法で類似度付与とフィルタリングを実施する.以上により,3,779件の文ペアから2,303件の文ペアに対する類似度を収集した.この収集データをJSTS-Cと呼ぶ.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{03table04.tex}\caption{JSTS・JNLIの例}\label{tbl:jsts-jnli-examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5and6\begin{table}[t]\begin{minipage}[t]{205pt}\input{03table05.tex}\caption{JSTSのラベル分布}\label{tbl:jsts-detail}\end{minipage}\hfill\raisebox{13pt}[0pt][0pt]{%\begin{minipage}[t]{205pt}\input{03table06.tex}\caption{JNLIのラベル分布}\label{tbl:jnli-detail}\end{minipage}}%\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上の手続きによって獲得したJSTS-A,B,Cの3つでJSTS,またJNLI-A,Cの2つでJNLIを構築した.最後に,重複する文ペア事例をJSTSから12件,JNLIから44件除去した.JSTSとJNLIの例を表\ref{tbl:jsts-jnli-examples}に示す.JSTSとJNLIのラベル分布をそれぞれ表\ref{tbl:jsts-detail},\ref{tbl:jnli-detail}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{03table07.tex}\caption{JSTSにおける類似度の分散の平均値と分散の標準偏差}\label{tbl:jsts-agreement}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%JSTSの質を評価するために,それぞれの文ペアに対してクラウドワーカー5人が回答した類似度の分散を計算し,分散の平均値と標準偏差を算出した.それぞれの値は表\ref{tbl:jsts-agreement}に示す通り,小さい値となっており,アノテーションの品質を保証する結果となっている.JNLIのアノテーションの一致度を評価するために,全ての文ペアにおける10人のクラウドワーカーの回答のFleiss'Kappa係数を計算した.係数の値は0.399であり,ある程度の一致を示す数値となった.この結果は,それぞれの回答の信頼度が高くないことを示しているものの,多数決によって収集したラベルは人間のスコアの高さ(\ref{ssec:experiment:results}節)から信頼度が高いと言える.\label{ssec:jglue:jsts-jnli:metric}JSTSの評価指標には,STS-Bと同様にPearsonおよびSpearman相関係数を用いる.JNLIの評価指標には,SNLI,MultiNLIなどと同様に精度を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{JSQuAD}\label{ssec:jglue:jsquad}QAデータセットとして,機械読解データセットである日本語版SQuAD(JSQuAD)と,常識推論データセットである日本語版CommonsenseQA(JCommonsenseQA,\ref{ssec:jglue:jcqa}節で説明)を構築する.機械読解タスクは文書を読み,それに関する質問に対して答えるというタスクである.多くの機械読解評価セットは英語で構築されているが,その他の言語での機械読解評価セット,もしくは多言語の評価セットが構築され始めている.日本語ではクイズを対象にした機械読解評価セット\cite{suzuki-2018}や運転ドメインの評価セット\cite{takahashi-etal-2019-machine}が構築されているが,一般ドメインのものはない.そこで,Wikipediaを用いて一般ドメインの評価セットを構築する.構築は基本的にSQuAD1.1\cite{rajpurkar-etal-2016-squad}にならう.まず,高品質な記事を対象とするために,Nayuki\footnote{NayukiはWikipedia内のハイパーリンクに基づき,記事の品質を推定するシステムで,SQuADでも利用されている.\url{https://www.nayuki.io/}}を使ってスコアトップ10,000記事を選出し,そこからランダムに822記事を選んだ.これらの記事には例えば「熊本県」「フランス料理」が含まれている.次に,記事を段落に分割し,クラウドワーカーに各段落を提示し,段落を理解できれば答えられるような質問とその正解を書いてもらう.書いてもらった正解が段落中にない場合は,その問題は採用しない.最後に,パターンマッチングと人手での確認により,質問文が段落のタイトルや本文に包含される事例など1,094件の問題を除去した.JSQuADの例を図\ref{fig:jsquad_example}に示す.dev/testセットについてはシステム評価を頑健にするために,質問と正解を書いてもらったワーカーとは別のワーカーに追加で2つの正解を書いてもらう.この際,「回答不可」の選択肢を用意し,ワーカーの回答が段落中に存在しない文字列あるいは「回答不可」であった場合には,その回答を採用しない.2つの回答が共に採用されない場合は,問題ごと除去する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{30-1ia3f2.pdf}\end{center}\caption{JSQuADの例}\label{fig:jsquad_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%評価指標はSQuADにならい,Exactmatch(EM)とF1を用いる.最大3つの正解が存在するので,システムの出力と各正解を比較して最大のスコアを取るEMならびにF1を採用する.英語ではF1は単語単位で計算されているが,日本語で形態素単位で計算すると採用する形態素解析器によって値が異なってしまうので文字単位で計算する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{JCommonsenseQA}\label{ssec:jglue:jcqa}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{概要}JCommonsenseQAは,CommonsenseQA\cite{talmor-etal-2019-commonsenseqa}の日本語版データセットであり,常識推論能力を評価するための5択のQAで構成する.JCommonsenseQAの例を図\ref{fig:jcqa-example}に示す.JCommonsenseQAは,CommonsenseQAと同様に,知識ベースConceptNet\cite{Speer_Chin_Havasi_2017}をシードとし,クラウドソーシングを用いて構築する.ConceptNetは,2つの概念(concept)と,その間の関係(relation)を表す3つ組からなる多言語知識ベースである.3つ組は方向性を持ち,例えば(新幹線,AtLocation,駅)のように,(sourceconcept,relation,targetconcept)として表される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3and4\begin{figure}[t]\raisebox{77.5pt}[0pt][0pt]{%\begin{minipage}[t]{0.49\linewidth}\begin{center}\includegraphics{30-1ia3f3.pdf}\end{center}\caption{JCommonsenseQAの例(\textbf{太字}は正解を表す)}\label{fig:jcqa-example}\end{minipage}}%\hfill\begin{minipage}[t]{0.49\linewidth}\begin{center}\includegraphics{30-1ia3f4.pdf}\end{center}\caption{JCommonsenseQAの構築フロー}\label{fig:jcqa-flow}\end{minipage}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{構築方法}\label{ssec:jglue:jcqa:construction}JCommonsenseQAの構築フローを図\ref{fig:jcqa-flow}に示す.まず,sourceconceptと,それに対して同じrelationを持つtargetconcept3つからなる集合をConceptNetから収集する.以降,この集合をQuestionSet(QS)と呼ぶ.次に,各QSに対して,1つのtargetconceptのみが正解となる質問文の作成と,2つの誤答選択肢の追加をクラウドソーシングで行う.以下では,CommonsenseQAとの違いを示しつつ,JCommonsenseQAの詳細な構築手順を説明する.\begin{enumerate}\itemConceptNetから日本語QSを収集する.CommonsneseQAにおいては,(sourceconcept,relation,targetconcept)という順方向の関係のみのQSを採用しており,relationは``RelatedTo'',``IsA''など一般的すぎるものを除いたものを用いている.JCommonsneseQAでも,一般的すぎるrelationを除外した22種類のrelation集合\footnote{使用したrelationはAntonym,AtLocation,CapableOf,Causes,CausesDesire,DefinedAs,DerivedFrom,Desires,DistinctFrom,EtymologicallyDerivedFrom,HasA,HasFirstSubevent,HasLastSubevent,HasPrerequisite,HasProperty,InstanceOf,MadeOf,MotivatedByGoal,NotDesires,PartOf,SymbolOf,UsedForの22種類.}を用いるが,問題の選択肢をより多様化させるために関係の方向は両方向とする.すなわち,(sourceconcept,relation$^{-1}$,targetconcept)という逆方向の関係も用いる\footnote{例えば,(駅,AtLocation$^{-1}$,新幹線)のような3つ組から,sourceconcept「駅」に対してtargetconcept「新幹線」「時刻表」「改札」を得る.}.以上の設定で,source/targetconceptが日本語である43,566件のQSを抽出し,そこから7,500件をランダムに選択した.\itemCommonsenseQAには,正解となり得る選択肢が複数含まれている低品質な問題が少数含まれている.JCommonsenseQAにおいては,正解の一意性を担保するために,CommonsenseQA構築では実施していない2つの処理を行う.まず,各QSについて,3つのtargetconcept内に表記揺れと判断されるものがあれば,そのQSを除去する.表記揺れの判断は,形態素解析辞書JumanDic\footnote{\url{https://github.com/ku-nlp/JumanDIC}}の単語ID(代表表記)が一致するかどうかで行う.さらに,targetconcept内に同義語が含まれているかを判定するタスクをクラウドソーシングで実施し,3つのtargetconcept中に同義語が含まれるQSを除去する.以上より,7,500件のQSから5,920件のQSを採用した.\item各QSにおいて,3つのtargetconceptのうちの1つのconceptだけが正解となる質問文をクラウドソーシングで作成する.さらにJCommonsenseQAでは,正解の文字数やキーワードの指定などでヒントを与えられた難易度の低い質問,および不適切な形式の質問文を除去するために,以下のいずれかに該当する質問文を持つ問題を除去する.\begin{enumerate}\item質問文に選択肢の言葉が含まれる\item質問文に「○文字」という文字列が含まれる\footnote{「値段が高いことを漢字2文字でなんという?」のような問題を除くために設定する.}(○は数字)\item質問文の文末が「?」ではない\end{enumerate}以上により,5,920×3=17,760件の問題を作成し,そこから不適切な問題を除去することで15,310件の問題を採用した.\itemCommonsenseQAでは,2つの誤答選択肢の追加にあたって,1つをConceptNetから選択し,もう1つをクラウドソーシングで作成している.JCommonsenseQAでは,より多様な誤答選択肢とするため,ConceptNetからの選択は行わず,クラウドソーシングで2つの誤答選択肢を作成し追加する.また,問題の品質向上のために,以下のいずれかに該当する選択肢が追加された問題を除去する.\begin{enumerate}\item質問文に含まれる言葉と同じ選択肢\item既存の選択肢と重複する選択肢\end{enumerate}以上により,15,310件の問題に誤答選択肢を追加し,そのうち13,906件を採用した.\item各問題を3人のクラウドワーカーに回答してもらい,2人以上が正解した問題のみを採用する.これにより,13,906件の問題のうち11,263件を採用した.\end{enumerate}最後に,パターンマッチングと人手での確認により,ひらがなやアルファベット1文字の選択肢が含まれる事例など87件の問題を除去した.JCommonsenseQAの評価指標には,CommonsenseQAと同様に精度を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{JGLUEによるベースラインモデルの評価} \label{sec:experiment}構築したJGLUEを用いて様々な事前学習モデルの性能評価を行った.また,人間のスコアを計算し,モデルと比較した.そして,各データセットの分析を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{03table08.tex}\hangcaption{実験に用いた事前学習モデルの詳細.モデル名の丸括弧内はHuggingFaceHubでの名称を示す.東北大\bertbase,XLM-\robertbase,早稲田大\robertbaseについてはLARGEサイズも使用する.早稲田大\robertbaseのmaxseqlengthは128,早稲田大\robertlargeのmaxseqlengthは128と512の2種類あり,その他のモデルのmaxseqlengthは512である.事前学習テキストのCCはCommonCrawlを表す.}\label{tab:pretrained_models}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{ssec:experiment:settings}事前学習モデルをファインチューニングすることで各データセットに対するモデルの学習を行った.実験に用いた事前学習モデルを表\ref{tab:pretrained_models}に示す.各事前学習モデルのファインチューニングはタスク/データセットに応じて以下のように行った\footnote{ファインチューニングは,HuggingFaceによって提供されているTransformersライブラリ(\url{https://github.com/huggingface/transformers})を用いて行った.}.\begin{itemize}\item文章分類タスクと文ペア分類タスク:\texttt{[CLS]}トークンに対する分類問題もしくは回帰問題を解く.\itemJSQuAD:各トークンに対して正解のスパンの開始/終了となるかどうかの分類問題を\linebreak解く\footnote{トークナイザにUnigram言語モデルを用いているXLM-\robertbaseとXLM-\robertlargeは,トークンの分割位置が解答の開始/終了位置と一致しない事例が頻出することで性能が低くなってしまうため,実験に使用しない.}.\itemJCommonsenseQA:質問と各選択肢を連結し,多肢選択式問題を解く.\end{itemize}実験に用いたハイパーパラメータを表\ref{tab:hyperparams}に示す.learningrateとepochについてはdevセットを用いて最適なハイパーパラメータを探索し,それを用いてtestセットで性能を評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{03table09.tex}\caption{実験に用いたハイパーパラメータ}\label{tab:hyperparams}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%モデルの性能を人間のスコアと比較するために,人間のスコアの獲得をデータセットごとに以下の手順で行った.\begin{itemize}\itemMARC-ja:positive/negative判定タスクをクラウドソーシングで実施し,10人から回答を収集して多数決をとる.同票についてはランダムにpositive/negativeのいずれかを人間のスコア獲得時の回答とする.構築済みのラベルと一致する回答の割合を人間のスコアとする.\itemJSTS:STSタスクをクラウドソーシングで実施し,5人から回答を収集したのち,その平均値を人間のスコア獲得時の類似度とする.構築済みラベルの値と人間のスコア獲得時の類似度のSpearman相関係数を人間のスコアとする.\itemJNLI:NLIタスクをクラウドソーシングで実施し,10人から回答を収集して多数決をとる.同票で1位の2つのラベルについては,ランダムにいずれかを選択して人間のスコア獲得時の回答とする.構築済みのラベルと一致する回答の割合を人間のスコアとする.\itemJSQuAD:構築済みの各問題に対する2つもしくは3つの正解のうち,1つ目の正解を人間のスコア獲得時の人間の回答とみなす.残りの正解と人間の回答との間のEMとF1スコアをそれぞれ計算し,最も大きいスコアを人間のスコアとする\footnote{システムの場合は最大3つの正解と比較してスコアを算出しているのに対し,人間の場合は最大2つの正解と比較しているため,条件が若干異なる.}.\itemJCommonsenseQA:各問題の回答をクラウドソーシングにより5人から収集し,多数決をとる.同票で1位の2つの選択肢については,ランダムに選んだ1つの選択肢を人間の回答とする.構築済みのラベルと一致する回答の割合を人間のスコアとする.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{03table10.tex}\caption{JGLUEによる各種モデルの評価結果}\label{tab:experimental_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{30-1ia3f5.pdf}\end{center}\hangcaption{早稲田大\robertlargeが正解を,東北大\bertbaseが不正解を出力したJCommonsenseQAの事例(\textbf{太字}が正解,\underline{下線}が不正解の出力)}\label{fig:jcqa-improved-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{ssec:experiment:results}表\ref{tab:experimental_results}に各種モデルのスコアならびに人間のスコアを示す.モデルの性能の比較では以下のことがいえる.\begin{itemize}\item早稲田大\robertlarge\cite{liu2019roberta}とXLM-\robertlarge\cite{conneau-etal-2020-unsupervised}の性能が全般的によい.これはモデルサイズがLARGEであることと,事前学習のテキストとしてWikipediaよりも大規模なCommonCrawlを使っていることが考えられる.\item解析単位について,サブワード単位(東北大\bertbase{})と文字単位(東北大\bertbase{}(char))を比較すると一貫してサブワード単位の方が精度が高い.\itemJCommonsenseQAはWikipediaには記載されにくい常識的な知識を要求することから,CommonCrawlを用いたモデルの精度が高い.図\ref{fig:jcqa-improved-example}に,早稲田大\robertlargeが正解を,東北大\bertbaseが不正解を出力したJCommonsenseQAの事例を示す.このような知識はWikipediaには記載されにくい.\item早稲田大\robertlargeshortと早稲田大\robertlargelongを比較すると,入力長が長いMARC-jaとJSQuADではs512の精度がs128よりも向上している.\itemMARC-jaとJCommonsenseQA以外のデータセットについては,ベストなモデルは人間のスコアと同等または超えている.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{03table11.tex}\caption{MARC-jaにおけるシステムの正解例・誤り例}\label{tab:system-output-marc-ja}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{03table12.tex}\hangcaption{JSTSにおけるシステムの正解例・誤り例(ここでの正解,誤りはそれぞれシステム出力と正解の差が比較的小さい,大きい事例のことを指す.)}\label{tab:system-output-jsts}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{議論}\label{ssec:experiment:discussion}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{03table13.tex}\caption{JNLIにおけるシステムの正解例・誤り例}\label{tab:system-output-jnli}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{03table14.tex}\caption{JSQuADにおけるシステムの正解例・誤り例}\label{tab:system-output-jsquad}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{システムの正解例・誤り例}表\ref{tab:system-output-marc-ja}から表\ref{tab:system-output-jcomqa}に,devセットに対するシステムの正解例ならびに誤り例を示す.各データセットで最も性能の高かったシステムの例を掲載している.MARC-ja(表\ref{tab:system-output-marc-ja})は全般的に性能が高く,正解例のように正しく判定できる場合が多い.誤りは例に示すように,レビュー文章中にpositiveな言及とnegativeな言及が混在し,判断が難しい場合が多い.JSTS(表\ref{tab:system-output-jsts})の正解例では,1つ目の例のように「痩せ型」と「細身」の同義関係が認識できていたり,2つ目の例のように「横転した白いトラックがあります」と「白色のトラックが横転しています」の語順の入れ替わりが認識できていた例があった.誤り例では,使われている単語の重複は多いが異なる意味の2文に対して誤って高い類似度を出力している場合があった.JNLI(表\ref{tab:system-output-jnli})では正解例にあげたような場合は正しく判定できている.誤り例の1つ目では「ティアラを身につけています」と「ティアラをかぶっています」の含意関係を認識できておらず,また2つ目では,「赤ん坊」と「テーブル」の位置関係を認識できておらず,誤ってentailmentと出力してしまっている.JSQuAD(表\ref{tab:system-output-jnli})では正解例にあげたようなケースは正しく判定できている.誤り例では答えとなる国の候補が3つあり,2文目と3文目を合わせて推論する必要があり,このような場合にシステムが誤っていた.JCommonsenseQA(表\ref{tab:system-output-jcomqa})では,正解例にあげたような常識的な知識をシステムが備えていることがわかる.\pagebreak誤り例の1つ目では質問中の「コンビニ」と「カウンター」から誤って「レジ」と答えてしまっており,また,2つ目では質問の「毎週発刊」と選択肢の「週刊誌」の関係性が捉えられておらず,このような常識的な知識をどのようにすれば得られるかは今後の検討課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[t]\input{03table15.tex}\caption{JCommonsenseQAにおけるシステムの正解例・誤り例(\textbf{太字}が正解,\underline{下線}が出力)}\label{tab:system-output-jcomqa}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[t]\input{03table16.tex}\hangcaption{MARC-jaにおける人間の誤り回答例(Pはpositive,Nはnegativeを表しており,\textbf{太字}は多数決で選ばれたラベルを表す。)}\label{tab:human-error-marc-ja}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[t]\input{03table17.tex}\caption{JSTSにおける人間の誤り回答例}\label{tab:human-error-jsts}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table18\begin{table}[t]\input{03table18.tex}\hangcaption{JNLIにおける人間の誤り回答例(Eはentailment,Cはcontradiction,Nはneutralを表しており,\textbf{太字}は多数決によって選ばれたラベルを表す.)}\label{tab:human-error-jnli}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table19\begin{table}[t]\input{03table19.tex}\caption{JSQuADにおける人間の誤り例}\label{tab:human-error-jsquad}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table20\begin{table}[t]\input{03table20.tex}\hangcaption{JCommonsenseQAにおける人間の誤り回答例(選択肢の\textbf{太字}は正解,[]内の数字は人間のスコア獲得時の人間の回答の票数を表す.)}\label{tab:human-error-jcomqa}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{人間の誤り回答}全般的に人間のスコアは高いが,人間の判断が揺れる問題が少ない割合ではあるが作成されている.表\ref{tab:human-error-marc-ja}から表\ref{tab:human-error-jcomqa}に,各データセットの人間の誤り回答例を示す.MARC-jaにおいては表\ref{tab:human-error-marc-ja}に示すように,positive(negative)な意味を前提としたnegative(positive)な発言を含む事例がしばしば存在しており,判断を悩ませている.JNLIでは表\ref{tab:human-error-jnli}に示すように,データ構築時や人間のスコア獲得時に4:6,5:5などに回答が分かれるような判断が難しい事例が少数含まれている.JSTSについても,データ構築時と人間のスコア獲得時で大きく類似度が異なってしまう事例が少数含まれている.JSQuADでは,表\ref{tab:human-error-jsquad}に示すように,正解のスパンの区切り位置の判別が難しい例や,別解が考えられる例,そのほか質問文が破綻している事例が含まれている.JCommonsenseQAにおいては表\ref{tab:human-error-jcomqa}に示すように別解が考えられる例や,人が誤って答えてしまう事例が含まれる.これらの誤りに対処するためには,データセット構築時の各事例の検証に,より多数のクラウドワーカーを用いることで,よりロバストな結果を得ることなどが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{訓練データの数の妥当性}訓練データの量の倍率を0.75,0.5倍と変化させてdevセットでの性能の変化を確認した.各データセットで最も高い性能を出したモデルを用いている.精度の変化を図\ref{fig:learning_curve}に示す.全てのデータセットで性能はほぼ飽和していることから,構築したデータセットの量は十分であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{30-1ia3f6.pdf}\end{center}\caption{学習データ量を変えた時の精度変化}\label{fig:learning_curve}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{JNLIにおけるAnnotationArtifacts}クラウドワーカーに作文してもらうことによって構築されたデータセットは,AnnotationArtifactsが発生することがあり,特にNLIデータセットにおいて顕著である\cite{poliak-etal-2018-hypothesis,tsuchiya-2018-performance}.AnnotationArtifactsとは,アノテーションによってデータ内に生じてしまうあるパターンのことを呼ぶ.例えば,クラウドワーカーによって作成された仮説文内に「not」が含まれている場合にたいてい推論関係がcontradictionであると,システムは仮説文のみを参照するだけでも十分高い性能を出すことができる.JNLIにおいて,仮説文のみを用いた推論の性能を確認した.はじめに,本実験用にJNLIから部分集合の抽出を行った.具体的には,推論関係がcontradictionである文ペア集合から,クラウドワーカーの作成文が仮説文である文ペアを抽出した.推論関係がentailment,neutralである文ペア集合については,片方向分のみ文ペア抽出した.そして,仮説文のみを用いた推論結果と,majorityベースラインとして全ての出力をneutralとする場合のスコアをそれぞれ比較した.比較の結果を表\ref{tab:hypothesis-only-JNLI}に示す.東北大\bertbaseモデルによる仮説文のみを用いた推論の結果が,majorityベースラインより高精度となっていることから\footnote{XLM-\robertlargeモデルでは学習がうまくできず,出力のすべてが最多ラベルであるneutralとなった.},若干AnnotationArtifactsが含まれていると考えられる.本データセットを利用することで,AnnotationArtifactsの軽減に関する研究が実施されることを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table21\begin{table}[t]\input{03table21.tex}\caption{仮説文のみを用いた推論によるJNLIのdevセットにおける精度}\label{tab:hypothesis-only-JNLI}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{JSQuADにおけるLexicalOverlap}JSQuADの質を評価するために,SQuADで指摘されているLexicalOverlapについて調査した.LexicalOverlapとは,段落と質問文において単語が重なっている割合を指す.この割合が大きい場合,モデルにとって容易に回答可能であるということが知られている\cite{clark-etal-2020-tydi}.JSQuADの各段落と質問文のペアを単語単位に分割\footnote{単語単位の分割にはMeCab+IPAdic(\url{https://taku910.github.io/mecab/})を使用した.}し,LexicalOverlapを算出した.LexicalOverlapの平均値は0.795であり,JSQuADはSQuADと同様の課題を持つ.しかしながら,日本語においてベンチマークが存在しないので,JSQuADを先駆けとして本課題に対する研究が進むことを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では日本語における言語理解ベンチマークJGLUEの構築について述べた.JGLUEは文章分類タスクであるMARC-ja・JCoLA,文ペア分類タスクのJSTS・JNLI,QAタスクのJSQuAD・JCommonsenseQAの計6つのデータセットで構成しており,それぞれのデータセットの文は全て人手で機械翻訳を用いることなく作成した.さらに,JGLUEを用いて各種事前学習モデルの性能比較を行うとともに,構築したデータセットのデータ量や品質について考察した.JGLUEは2022年6月より\url{https://github.com/yahoojapan/JGLUE}で公開中である.JGLUEを用いて,事前学習モデルの包括的な評価や,より難しい評価データの構築が進むことを期待している.今後はGLGE\cite{liu-etal-2021-glge}のような生成系タスクやFLEX\cite{bragg2021flex}のようなFew-shotタスクのデータセットなどを構築する予定である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はヤフー株式会社と早稲田大学の共同研究により実施した.また本論文は以下のLREC2022の論文を拡張・翻訳したものである.Kurihara,K.,Kawahara,D.,andShibata,T.(2022).JGLUE:JapaneseGeneralLanguageUnderstandingEvaluation.InProceedingsofthe13thLanguageResourcesandEvaluationConference(LREC2022).EuropeanLanguageResourcesAssociation(ELRA).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{栗原健太郎}{%2021年早稲田大学基幹理工学部情報通信学科卒業.2022年現在同大学院修士課程在学中.}\bioauthor{河原大輔}{%1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構主任研究員,京都大学大学院情報学研究科准教授を経て,2020年より早稲田大学理工学術院教授.自然言語処理,知識処理の研究に従事.博士(情報学).}\bioauthor{柴田知秀}{%2007年東京大学大学院情報理工学系研究科博士課程修了.京都大学大学院情報学研究科助教,特定講師を経て,2019年よりYahoo!JAPAN研究所上席研究員.専門は自然言語処理,特に深層学習を利用した日本語基礎解析.博士(情報理工学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V30N02-15
\section{はじめに} \label{sec:intro}複数の言語のテキストで学習したマルチリンガル事前学習モデルは,\pagebreak言語横断転移学習のタスクなどで高い性能を発揮しており\cite{conneau-etal-2020-unsupervised},これはモデルが異なる言語にわたって共有できる知識を学習していることを示している.タスクを解くために役立つ言語の知識には,単語などの語彙に関する知識もあれば,文法に関する知識もある.ここで言う文法とは,外国語学習に見られるような具体的な文法事項というよりは,ニューラルネットワークが,トークンの系列から情報を集約して,タスクを解くために必要な「意味」を導き出す内部処理のことを指す.このニューラルネットワークの「文法」に,異なる言語にわたって共有できる部分が存在することが示唆されている.\citeA{artetxe-etal-2020-cross}は,英語のデータのみで重みを学習したTransformerエンコーダを,異なる言語にも転用できることを示した.つまり,英語のデータから学習した「文法」に言語非依存なものが存在するということである.言語間で共有できる文法事項のうち,マルチリンガル事前学習モデルが実際に捉えているものとして,UniversalDependencies\footnote{\url{https://universaldependencies.org/}}で定義されている係り受け関係\cite{chi-etal-2020-finding}や,主格の概念\cite{papadimitriou-etal-2021-deep}が存在することが今まで示されている.これらは,我々にとっても直感的な文法であるが,ニューラルネットワークはより抽象度が高い概念や処理を,異なる言語にわたって共有できることが示唆されている.たとえば\citeA{papadimitriou-jurafsky-2020-learning}は,楽譜やプログラミングコードといった非自然言語データでLSTM言語モデルを訓練し,そのモデルが自然言語の言語モデリングのタスクに転用できることを示した.つまり,自然言語間に限らず,外見の全く異なる系列データ間にも共通の構造があり,それに関して学習した知識をモデルが転用できることを示している.しかしながら,具体的にどのような構造的知識が転用されるのかに関しては,十分に明らかになっていない.この点について理解を深めることは,ニューラルネットワークの言語処理に関する洞察を与え,かつ,言語共通の知識を効率的に捉えるモデルの考案にも役立つ.本研究は,転移可能な知識を人工言語からの転移学習(\cref{fig:artificial_pretraining})により分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia14f1.pdf}\end{center}\hangcaption{人工言語を用いた事前学習の概要.人工言語は何かしらの構造的特徴を持ち,そのデータから学習した知識が,自然言語のタスクへ転用できるかどうかを調べる.}\label{fig:artificial_pretraining}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本実験手法はTestforInductiveBiasviaLanguageModelTransfer\cite{papadimitriou-jurafsky-2020-learning}の実験手法から着想を得ており,転移元データで学習したモジュールを,異なる種類のデータへと転用した場合のタスク性能を評価することによって,転移元と転移先データで共有可能な知識が存在するかどうかを調べる.本研究では,系列データの持つ抽象的な構造に関する知識の転移可能性を調べるために,転移元データとして抽象的な構造以外の要素を捨象した人工言語を設計する.人工言語が持つ構造の転移可能性の評価として,事前学習した\Transformer{}を自然言語の言語モデリングへの転移した際の性能を測定した.本研究で着目する自然言語の構造的な性質は,単語の分布,単語の係り受け関係,ランダム性である.これらの構造について,自然言語に近いものを持つ人工言語,自然言語とは異なるものを持つ人工言語を設計し,比較実験を行った.得られた知見を以下にまとめる.\begin{itemize}\itemコーパス全体における単語分布そのものは転移可能な有用な知識になり得ず,自然言語へ転移できる\Transformer{}のパラメータを学習するためには,事前学習データの系列内の統計的依存関係が必要となる.この統計的依存関係から,\Transformer{}は入力中の文脈情報を集約するような学習をし,自然言語タスクに有用なものとなる.\item事前学習データとして,係り受け構造を持った人工言語を設計し,係り受け関係が入れ子状になる制約を持った言語と,そうでない言語を比較すると,入れ子制約を持っている方が高い自然言語への転移性能を示した.これは,トークン予測のタスクにおいて,入れ子構造が,自然言語の文法に見られるような,一貫した位置に依存する規則性を持っているからだと考えられる.\item人工言語にランダム性がなく,生成されたデータの系列の並びが決定的であったとしても,事前学習された\Transformer{}は自然言語に転移可能なものとなる.また,転移元の人工言語と転移先の自然言語の語彙サイズが近しいことそのものの有効性は確認されなかった.これら実験結果を踏まえると,転移学習の性能に影響を与える主たる要因は,系列データの統計的依存性であると考えられる.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事前学習エンコーダにおける転移可能な知識}\label{subsec:related-transfer}言語横断転移学習に用いられるマルチリンガルモデルは,言語共通の構造を捉えていることが示唆されている.マスク付き言語モデリングで学習したマルチリンガル言語モデル\cite{devlin2018bert,Doddapaneni2021APO}は,言語間の対応関係を示すデータを与えられていない場合でも,高い言語横断転移学習の性能を示す\cite{liu-etal-2020-multilingual}.これはモデルは言語共通の意味空間を獲得していることを意味しているが,言語横断転移学習の能力は,異なる言語の語彙の間に共通のサブワードが存在しない場合でも獲得されることが示されている\cite{K-mBERT-ICLR-2020,conneau-etal-2020-emerging}.したがって,ここでモデルが言語非依存な意味空間の学習の手がかりにしているのは,異なる言語にわたって見られる共通の構造だと考えられている.このような,言語共通の構造の存在を示唆する観察として,単言語コーパスで学習したエンコーダの転移可能性がある.\citeA{artetxe-etal-2020-cross}の報告によれば,転移元言語のデータのみで学習した\Transformer{}エンコーダは,転移先言語の単語埋め込みをそのエンコーダに合わせて学習するだけで,高い言語間転移学習の性能を示す.\citeA{papadimitriou-jurafsky-2020-learning}は,\LSTM{}エンコーダをプログラミングコード,楽譜,人工データなどの非言語データで学習し,それらのエンコーダがスペイン語の言語モデリングにおいても,ある程度の性能を発揮できることを示した.これらの結果は,ニューラルネットワークのエンコーダが,単言語/非言語データから,異なる言語にも共有できる何らかの知識を学習できることを示している.それでは,異なる言語の間で共有されている共通の構造とはどのようなものだろうか.Probingタスク\cite{ijcai2018-796,conneau-etal-2018-cram}を用いた分析から,マルチリンガル言語モデルは,言語普遍な依存構造\cite{chi-etal-2020-finding}や主格の概念\cite{papadimitriou-etal-2021-deep}など,言語非依存な構造を捉えていることが示唆されている.しかし,Probingの手法は,モデルがそうした言語知識を捉えていることは示しても,そうした知識を持つことが言語間転移学習の性能にどれほど貢献しているかを示すことはできない.また,単純な単語の分布構造や語彙サイズといった,抽象的な要素に関する知識の転移可能性は明らかにできない.本研究は,エンコーダが捉える異なる言語間で転移可能な知識とは何かという問いを明らかにするために,TestforInductiveBiasviaLanguageModelTransfer(TILT)\cite{papadimitriou-jurafsky-2020-learning}の枠組みに則り,人工言語を活用した実験を行う.TILTの枠組みは,転移先言語(ここでは自然言語)にも活用可能な抽象的な知識を,転移元言語から学習できるのかどうか,ということを明らかにする.我々の実験では,転移元言語として単純な構造的特徴から構成される人工言語を設計し,その特徴の転移可能性を分析した.人工言語からの転移学習による分析は\citeA{papadimitriou-jurafsky-2020-learning}においても,\Uniform{}や\Zipf{}の分布を持つ人工言語,同一トークン間の係り受け構造を模した人工言語を用いて行われている.先行研究との差異として,我々の研究では,係り受け関係を持つトークンについて自然言語により近い構造をしていると考えられる人工言語を採用し,文内の統計的依存関係の必要性を調べるための\LogLinear{}や,系列のランダム性を制御する\Bigram{}言語といった新たな人工言語を設計し詳細な分析を加え知見を広げる.また,\citeA{papadimitriou-jurafsky-2020-learning}はエンコーダとしてLSTMを取り上げているが,本研究は近年の転移学習における主流アーキテクチャであるTransformerを取り上げる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人工言語を用いた言語モデルの分析}言語の特徴に関わる分析における難点の1つに,言語の特徴の多様性が挙げられる.日本語と英語を比べると,文字も異なれば,語彙,文法も全く異なる.異なる自然言語には様々なレベルでの違いがあり,こうした言語特徴がモデルの性能に与える影響を調べようとしても,それぞれ違いを独立にコントロールして実験を行うことが難しい.こうした難点を避けるために.自然言語の性質を人為的に改変して人工言語を作り,元の言語と比較するアプローチがある.典型的には以下の手順を踏む:(1)対象の自然言語が持つある特徴に変更を加えて人工言語を作成する.改変される言語特徴として,たとえば,語順\cite{sinha-etal-2021-unnatural,dufter-schutze-2020-identifying,Sinha2021MaskedLM},文字\cite{K-mBERT-ICLR-2020,dufter-schutze-2020-identifying,conneau-etal-2020-emerging},形態素\cite{ravfogel-etal-2019-studying}などがある;(2)元の自然言語と改変後の人工言語のデータを用いて,それぞれのモデルを,分析タスクにおいて訓練・評価する.これにより,改変した言語特徴に絞って,モデルの性能に与える影響を調べることができる.このような利点がある一方で,自然言語に改変を加える手法は,容易に変更を加えられるような言語特徴しか分析の対象にできない.そこで,より幅広い言語特徴の影響を分析するアプローチとして,特定の言語特徴を持った人工言語の利用が挙げられる.\citeA{white-cotterell-2021-examining}は,名詞句や動詞句といった文法的構成素の語順をパラメータとして変更できる確率的文脈自由文法(PCFG)を設計し,パラメータの違いがLSTMとTrasformerそれぞれの言語モデリングの性能に与える影響について調べた.また,\citeA{Chiang2022AAAI}も人工言語を用いたアプローチで,様々な性質を持った人工言語で事前学習されたTransformerエンコーダの,GLUEベンチマーク\cite{DBLP:conf/iclr/WangSMHLB19}における性能を評価している.本研究も同様に,自然言語をもとにしない,抽象的な規則から生成された人工言語を用いて,自然言語タスクに転用できる構造的な知識をとは何かを調べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{人工言語を用いた転移学習} \label{sec:approach}本研究の実験手法は,\citeA{papadimitriou-jurafsky-2020-learning}の提案したTestforInductiveBiasviaLanguageModelTransfer(TILT)の実験手法にもとづく.TILTは以下のような事前学習と転移学習の2つのステップから構成される.\begin{enumerate}\itemエンコーダを転移元言語で事前学習をする.\itemエンコーダを転移先言語での下流タスクに転用し,性能を評価する.このとき,転移元言語の単語埋め込みは使わずに,転移先言語の単語埋め込みをランダムに初期化し,単語埋め込みパラメータのみを学習する.つまり,エンコーダのパラメータを固定することで,エンコーダが事前学習で獲得した知識の,転移先言語・タスクにおける有用性が検証できる.\end{enumerate}ここでいうエンコーダとは,ベクトルの系列を受け取り,系列全体の情報を考慮した出力ベクトルを得るモジュールのことを指す.本研究で扱う事前学習・評価タスクは,左から右にトークンを予測・生成していく言語モデリングであるため,このモジュールはデコーダともいえる.しかし,本論文では入力系列から文脈化されたベクトル表現に変換する点に焦点をあてることから,一貫してエンコーダと呼ぶことにする.本研究では,自然言語に転移可能な構造的知識とは何かを調べるために,転移元言語として自然言語の特定の性質を模した人工言語,転移先言語として自然言語(ここでは英語)を用いる.以下,人工言語の形式的な定義を与えた後に,実際に用いる人工言語を導入する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人工言語の定式化}人工言語は,語彙$\{w|w\in\mathcal{V}\}$,系列長の分布$p_{len}(l)$,系列のサンプリングアルゴリズム$f(l):l\mapsto\mathcal{V}^{l}$の3つの要素から構成される.事前学習に用いられるデータは1系列ずつ,以下の手順で生成される:(1)系列長$l$を分布$p_{len}(l)$からサンプリングして決定する;(2)その長さだけトークン$[w_{1},...,w_{l}]$を$f(l)$のアルゴリズムでサンプルする.ここでの人工言語の語彙は,単純な数字IDまたは記号と数字の組合せから構成されており,実際の自然言語の語彙との対応は想定されていない.また,すべての人工言語について,系列長の分布$p_{len}(l)$は,ベースラインのデータセット(ここでは英語WikipediaDump)から算出された系列長分布を用いる.人工言語の最も重要な特徴は,以下に詳述する系列のサンプリングアルゴリズム$f(l)$であり,これがどのような構造的知識をエンコーダが学習するかを決定づける要素となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語分布のモデリング}\label{subsec:word_distribution}自然言語における単語分布にはいくつかの特徴がある.こうした単語分布に関する事前知識の,自然言語のタスク学習への有効性を調べるために,自然言語を模した単語分布を持つ人工言語を設計する.単語分布のみを特徴としてもつ人工言語のサンプリングアルゴリズム$f(l)$は,言語の持つ単語分布$p(w)$からのサンプリング$w\simp(w)$を$l$回繰り返すことで行われる.\minisectionNoDot{\Uniform{}単語分布}を持つ人工言語では,1系列中のトークンを,語彙全体から一様にサンプリングする.これは,自然言語の単語分布とは掛け離れており,ベースラインとして用いられる.トークン$w$がサンプリングされる確率は以下のように表される.\begin{equation}p(w)=\frac{1}{|\mathcal{V}|}\end{equation}実際の自然言語における単語分布は,経験的にZipf'sの法則\cite{Zipf1949HumanBA}に従うことが知られており,各単語の頻度とその頻度順位が$\text{frequency}(w)\propto\frac{1}{\text{rank}(w)^{\alpha}}$で表される比例関係にある.係数$\alpha$は通常おおよそ$1$となるが,係数算出に用いるコーパスのドメインによって幾分かゆらぎを見せる\cite{Zanette2005DynamicsOT}.\minisectionNoDot{\Zipf{}単語分布}は自然言語のこのような性質を捉えており,それぞれのトークン$w$を$\alpha=1$と設定したZipfの分布からサンプリングする.\begin{equation}p(w)\propto\frac{1}{\text{rank}(w)}\end{equation}ここまで導入した2つの単語分布は,それぞれの系列中のトークンを独立にサンプリングしている.しかし,自然言語において文中の単語には統計的依存関係,つまり特定の単語共起パターンが存在することが知られている\cite{church-hanks-1989-word}.たとえば,\sentence{Thecatanddogarefightingoverfood.}という文を考える.単語\word{the}と\word{cat}は偶然より高い確率で共起するが,これは\word{cat}という名詞が,\word{the}という冠詞と結びついているからである.また\word{dog}と\word{cat}の間にもトピックの関連があるため,共起しやすくなっている.文中の単語は何かしらの統語的・意味的な関係に従って互いに結びついている.\minisectionNoDot{\LogLinear{}単語分布}はこのような性質をモデリングする.文毎に異なる単語分布を与えるため,単語分布は文$s$に条件づけられた形の$p(w|s)$となる.\citeA{arora-etal-2016-latent}のLog-linearモデルにならい,ある文$s$中の単語は以下の確率分布からサンプリングされる.\begin{equation}p(w|s)\propto\exp(\vect{c}_{s}\cdot\vect{v}_{w})\end{equation}ここで$\vect{c}_s\in\mathbb{R}^d$は文のdiscourseベクトルであり,$\vect{v}_w\in\mathbb{R}^d$はトークン$w$の単語ベクトルである.直感的には,discourseベクトルは文の話題を表し,単語ベクトルと合わせて文中のユニグラム分布\cite{Blei2003LatentDA}を定義しているとみなせる.このようなサンプリング関数を採用することで,1つの文中にはdiscourseベクトル$\vect{c}_s$に近い単語ベクトルを持つトークンがより高い確率でサンプルされ,特定の単語同士が共起しやすいという現象を表現できる.これらの単語ベクトルとdiscourseベクトルは自然言語のコーパスから学習することも考えられるが,本研究では自然言語の持つ具体的な共起構造の転移可能性というより,文中でトークンが共起するという単純な構造自体の転移可能性を調べたい.トークンが共起する構造自体は,それぞれのベクトルにランダムなベクトルを割り当てた場合でも表現できる.したがって,ここでは単語ベクトル$\vect{v}_w$として,各単語に多次元標準正規分布からサンプルされたベクトルを割り当てる.単語ベクトルは\LogLinear{}言語の初期化時にサンプリングされた後は固定される.discourseベクトル$\vect{c}_s$は,系列$s$をサンプリングする度に多次元標準正規分布からランダムに決定される.語彙サイズ$|\mathcal{V}|$が与えられている場合,\LogLinear{}単語分布の構造はベクトルの次元$d$によっても左右される.ここでは,生成されたデータ全体における単語分布が,Zipfの分布のような偏りをもつように$d=10$と設定した(\cref{fig:word-freq-dist}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-2ia14f2.pdf}\end{center}\hangcaption{単語分布をモデリングした人工言語から生成されるデータにおいて,頻度の高いトークンから順に頻度をプロットした対数グラフ.}\label{fig:word-freq-dist}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{係り受け構造のモデリング}\label{subsec:modeling_structure}自然言語は,単語分布によって特徴づけられるだけではなく,文の中に構造を持つ.その構造として,しばしば木構造\cite{Chomsky1957}や係り受け構造\cite{Melcuk1988}などが仮定されるが,ここでは人工言語の文に,2つのトークン間の単純な依存関係を仮定した構造を与えることを考える.自然言語における文中の単語は係り受け関係をもち,特定の単語の出現がまた他の特定の単語の出現を示唆するということがある(たとえば英語の動詞\word{am}は,ほぼ常に\word{I}と共起する).これを模して,語彙中の半分のトークンをheadトークンとし,もう半分をtailトークンとし,それぞれ1対1のペアを成しているとみなす.ここでは1つのペアを,同じ数字IDと括弧の片方から成るトークンで表す(例:\token{<123},\token{123>}).構造をもつ人工言語のサンプリングアルゴリズム$f(l)$は,\cref{subsec:word_distribution}で導入した単語分布に従ってトークンのペアを$\lceil\frac{l}{2}\rceil$組サンプルし,一定の構造を持つように並べ替える形となる.これにより,1つの系列中に特定のペアが常に現れることになり,単純な係り受け関係を表現している.係り受けを模した人工言語は,\citeA{papadimitriou-jurafsky-2020-learning}の分析でも用いられているが,本研究のものと異なり,headとtailトークンが同一トークンとなっている.本研究では,異なるトークン同士の依存関係を持った構造を,より自然言語に近いと考え採用する.\minisectionNoDot{\Flat{}係り受け構造}は,トークンをランダムに並べ替えるが,それぞれのペアについてheadはtailよりも必ず左に位置するという制約を加える(例:[\token{<5},\token{<84},\token{5>},\token{<123},\token{123>},\token{84>}]).このとき1系列中の依存関係を表すエッジはしばしば互いに交差し,non-projectiveな構造を示す.\minisectionNoDot{\Nesting{}係り受け構造}は,それとは対照的に,依存関係のエッジが交差しないように,括弧が入れ子状に配置されるようにトークンを並べる(例:[\token{<5},\token{<84},\token{84>},\token{5>},\token{<123},\token{123>}]).このときのトークンの並びは,\cref{algo:stack-nesting}に示す,スタックを用いたアルゴリズムから生成される\cite{papadimitriou-jurafsky-2020-learning}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo1\newcommand{\varInputStack}{input\_pairs}\newcommand{\varClosingStack}{closing\_stack}\newcommand{\varSentence}{sentence}\newcommand{\isEmpty}{is\_empty()}\newcommand{\pop}{pop()}\newcommand{\push}[1]{push(#1)}\newcommand{\append}[1]{append(#1)}\begin{algorithm}[ht]\caption{~~係り受け構造を持った\Nesting{}言語から系列を生成するアルゴリズム.}\label{algo:stack-nesting}\begin{algorithmic}[1]\Require\varInputStack{}:Stack[($w$,$w$)]]\Ensure\varSentence{}:List[$w$]\State\varClosingStack{}=[]\While{not\varInputStack{}.\isEmpty{}}\StateUniformsampling$p\sim[0,1]$\If{\varClosingStack{}.\isEmpty{}or$p<0.4$}\Statehead,tail=\varInputStack{}.\pop{}\State\varSentence{}.\append{head}\State\varClosingStack{}.\push{tail}\Else\Statetail=\varClosingStack{}.\pop{}\State\varSentence{}.\append{tail}\EndIf\EndWhile\While{not\varClosingStack{}.\isEmpty{}}\Statetail=\varClosingStack{}.\pop{}\State\varSentence{}.\append{tail}\EndWhile\State\Return\varSentence{}\end{algorithmic}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%自然言語の係り受け関係には,しばしば入れ子関係が見られる.たとえば,UDtreebank\footnote{\url{https://universaldependencies.org/}}中のさまざまな言語のデータで,projectiveな構造とnon-projectiveな構造を持つ文を数えると,ほとんどのコーパスでprojectiveな文(入れ子構造のみを持つ文)が9割以上を占めている.事前学習のデータが同様に入れ子状の係り受け構造を持つことの有効性を,\Flat{}と\Nesting{}を比較することで明らかにできる.係り受け構造を特徴づける要素として,2つのトークン間の係り受け関係の距離がある.ここでは,\Flat{}と\Nesting{}の構造の違いによる影響を比較する際に,係り受け関係の距離の違いの影響を排除するために,\Flat{}言語から生成される系列の係り受け関係の距離の分布を,比較する\Nesting{}言語での分布に合致するように調整して実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ランダム性のモデリング}\label{subsec:randomness}これまで導入した人工言語は,程度は異なるが,いずれもランダムに系列を生成する.自然言語も,単語を文法に則り自由に組合せることができ,ある程度のランダム性を備えているといえる.訓練データ系列にランダム性があることは,エンコーダの転移可能性にどのような影響を与えるのだろうか.また,事前学習データのランダム性が自然言語に近い方が,良い転移性能を示すのだろうか.これらの問いに答えるために,ここでは完全にランダムなものから決定的なものまで,生成する系列のランダム性を制御できるような人工言語を設計する.\minisectionNoDot{\Bigram{}言語}は,系列を単純マルコフ過程,つまり語彙のバイグラムの遷移行列に従って生成する.Bi-gram言語は実数パラメータ$\alpha$を持ち,ある単語$w_t$から次の単語$w_{t+1}$へ遷移する確率は次式のように定義される.\begin{equation}p(w_{t+1}|w_t)\propto\frac{1}{\text{rank}(w_{t+1};w_t)^{\alpha}}\end{equation}ここで$\text{rank}(w_{t+1};w_t)$は人工言語を初期化する際に決定されるパラメータであり,1つの$w_t$について$1\sim|\mathcal{V}|$の数字が各トークンにランダムに割り振られる.つまり,次にどの単語へ遷移するかの確率分布はZipfの分布となっている.これは$\alpha=0$のとき,前にあるトークンに条件づけられた次のトークンの分布が一様分布となり,完全にランダムに系列を生成する\footnote{$\alpha=0$の\Bigram{}言語は\Uniform{}単語分布で定義される人工言語と同じ振る舞いをする.}.一方で,$\alpha\rightarrow\infty$のときは,各トークン$w_t$の次は,ランクが最高値,つまり$\text{rank}(w_{t+1};w_t)=|\mathcal{V}|$となる$w_{t+1}$に必ず遷移し,完全に決定的な系列を生成する.$\alpha$が中間の値にある場合は,トークンは確率的に遷移するが,分布は偏っており,それぞれのトークンの次には,特定のトークンがよく生成される形になる.この$\alpha$のパラメータを変えることで,さまざまな程度のランダム性を持つ系列が生成できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \label{sec:experiment}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスク}訓練・評価タスクとして左から右に順に単語を予測するCausalLanguageModelを用いる.入力は1文ずつになるように処理され,言語モデリングは文レベルで行う.モデルの評価は,評価データセット内の文を入力したときの,データセット全体で計算したパープレキシティの値を用いる.$N$単語含むデータセット中の各単語$w_i$について,モデルが予測した単語の出現確率を$p(w_i)$とすると,データセット全体のパープレキシティは$\exp(\frac{1}{N}\sum^{N}_i-\logp(w_i))$と計算される.パープレキシティは分岐数とも呼ばれ,モデルが文脈を与えられて次の単語を予測する際の平均選択肢数と解釈できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エンコーダモデル}本実験ではエンコーダとして,近年の大規模言語処理モデルにおけるデファクトスタンダードとなっている\Transformer{}\cite{NIPS2017_7181}を用いる.モデルの層は3層,隠れ層のサイズは$300$次元,フィードフォワード層の次元は$600$,自己注意機構のヘッドは$4$つに設定した.また,単語出力層と単語埋め込み層の重みは共有されている\cite{press-wolf-2017-using}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事前学習コーパス}人工言語から系列データをサンプリングし,事前学習コーパスとして用いる.まず,文構造を持たず,トークンの分布のみをモデリングした人工言語として,\cref{subsec:word_distribution}で導入した\Uniform{},\Zipf{},\LogLinear{}分布からサンプリングされたトークンをランダムに並べたもので実験を行う.また,文構造をモデリングしたものとして,単語分布のうち1つを選び,それを\cref{subsec:modeling_structure}で導入した\Flat{}係り受け構造または\Nesting{}係り受け構造と組合せたものを用いる.系列のランダムさの影響を調べる実験では,\Bigram{}言語のパラメータ$\alpha$を$\{0,0.7,0.8,0.9,1.0,1.5,2.0,10\}$と設定して事前学習データを生成し,そこから訓練されたエンコーダを比較する.この$\alpha$の値は,バイグラム遷移確率のパープレキシティが幅広い値を含むように選定した.これに加えて,ベースラインとして,自然言語である英語(en)のWikipediaDumpで事前学習したエンコーダも評価する.WikipediaDump中のパラグラフは\package{icu}\footnote{\url{https://github.com/unicode-org/icu}}を用いて文に分割され,文は\package{Moses}\footnote{\url{https://github.com/moses-smt/mosesdecoder}}を用いて単語に分割した.英語以外のWikipediaコーパスで訓練した場合も,英語と同様の結果が得られたため,人工言語との比較は主に英語のデータを参照して行う.その他の自然言語を用いた場合のデータ処理と結果は\cref{appendix:nl}にて記載する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{30-2ia14f3.pdf}\end{center}\caption{英語Wikipediaから求めた系列長の分布.長さの最長値を$6$,最大値を$60$と設定している.}\label{fig:length_distribution}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人工言語から生成されるデータの系列長は,英語Wikipediaの事前学習コーパスと同じ分布(\cref{fig:length_distribution})に従うようにサンプリングする.人工言語と自然言語のいずれも語彙サイズ$|\mathcal{V}|$は16,000に設定され,自然言語コーパス中の語彙に含まれない単語は未知語トークンに置換される.エンコーダは,$12.8$M系列のデータを用いて$1$エポック,バッチサイズ$128$で$10$Kステップ訓練した.最適化アルゴリズムにはAdamW\cite{DBLP:conf/iclr/LoshchilovH19},学習率スケジューリングには学習率を徐々に上げた後に減衰させるNoamの学習率スケジューラ\cite{NIPS2017_7181}を,warmupのステップ数$4,000$で用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ファインチューニング・評価コーパス}事前学習されたエンコーダの評価には,PennTreebank(PTB)コーパス\cite{Marcus1993BuildingAL}の訓練セットを用いてファインチューニングの後,評価セットを用いてパープレキシティの値を計算する.コーパスは\citeA{Mikolov2010RecurrentNN}による前処理済みのものを用い,各単語は小文字化され,語彙サイズが10,000になるように低頻度語は未知語トークンに置換されている.PTBコーパスの統計情報を\Table{table:ptb-stat}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{14table01.tex}\caption{PennTreebank(PTB)コーパスの統計情報.}\label{table:ptb-stat}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ファインチューニングは,単語埋め込み層の重みのみをアップデートし,エンコーダ層の重みは固定される.最適なバッチサイズ$128$で訓練し,開発セットのパープレキシティによるアーリーストッピングにより訓練エポック数を決定した.最適化アルゴリズムにはAdamW\cite{DBLP:conf/iclr/LoshchilovH19},学習率スケジューリングにはNoamの学習率スケジューラ\cite{NIPS2017_7181}を,warmupのステップ数$4,000$で用いた.本実験の主眼は,さまざまな性質を持ったデータで事前学習されたエンコーダを比較することであるが,ベースラインとして,事前学習をせずにランダムな重みのまま固定されたエンコーダ(\NoTrain{})で評価した結果も提示する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Probingタスク}言語モデリングのタスクにおけるエンコーダの本質的な役割とは,次の単語を予測するために,入力系列中の情報を集約することである.したがって,事前学習されたエンコーダが,自然言語への転用にどの程度効果的であるかは,エンコーダがどのように入力系列情報を集約するかと強く関連すると予想される.ここでは,人工言語からエンコーダが学習した入力系列情報の集約パターンを分析するために,Probingタスクを導入する.ここで導入するProbingタスクは,エンコーダのあるタイムステップにおける出力ベクトルから,入力系列中のトークンの情報をどれだけ復元できるかを測るものである.Probingタスクに用いるデータとして,人工的な数字IDの系列を以下の通り生成する.まず,系列長を15~25の範囲から一様にサンプルし,その数だけトークンを語彙サイズ$100$から一様にサンプルすることで,100K系列生成する.このうち90K系列を訓練セットとして用い,5Kを開発セット,5Kをテストセットとして用いる.モデルが解くべきタスクは,この系列をエンコーダで受け取り,最後のタイムステップの出力ベクトルから,入力系列中の前に出現したトークンを予測することである.最後のタイムステップからの相対位置が異なるポジションにあるトークンをそれぞれ予測させ,その精度を測ることで,エンコーダがどの位置の文脈情報をどの程度保存しているかを分析できる.各ポジションにあるトークンの予測には,それぞれ異なる線形分類器を同時に学習する.本実験では,最後のタイムステップからの相対位置が[-9,-4,-3,-2,-1,0]にあるトークンを予測させた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果} \label{sec:results}本実験では,それぞれの設定について,異なる乱数シードでエンコーダを3つ事前学習し,さらにそれぞれのエンコーダから異なる乱数シードでファインチューニングを3回行い,合計9つのモデルを評価した.事前学習しない\NoTrain{}エンコーダに関しては,異なるランダムな初期値で同様に9つのモデルを学習した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語分布の転移可能性}\label{subsec:results-distribution}\cref{fig:results-distribution}に,単語分布のみをモデリングした人工言語で学習したエンコーダと,ベースラインの結果を示す.以下,それぞれの単語分布から,どのような知識が自然言語のモデリングに転移可能か議論していく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{30-2ia14f4.pdf}\end{center}\hangcaption{ランダムな重みを持つエンコーダ(\NoTrain{})と,単語分布をモデリングした人工言語(\Uniform{},\Zipf{},\LogLinear{})で事前学習したエンコーダの,転移学習とProbingタスクで評価した際の結果.}\label{fig:results-distribution}\end{figure}%%%%\subfloat[PTBデータセットで評価したパープレキシティ.]{\label{fig:word-dist-perplexity}\includegraphics[height=3.9cm]{data/results/word_distribution_perplexity.png}}%%%%\subfloat[Probingタスクの精度.]{\label{fig:word-dist-probing}\includegraphics[height=3.9cm]{data/results/word_distribution_probing.png}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,\NoTrain{}エンコーダはある程度,言語モデリングに有用なものになっていることを確認する.\NoTrain{}との比較対象として,たとえば英語のPTBコーパスにおけるトライグラム言語モデルのパープレキシティを挙げると,設定にもよるが180前後の値\footnote{\url{https://github.com/shayneobrien/language-modeling}の実装を用いて算出}になる.%%%%したがって,\NoTrain{}エンコーダの平均パープレキシティ$194.7\pm2.5$(\cref{fig:word-dist-perplexity})は,したがって,\NoTrain{}エンコーダの平均パープレキシティ$194.7\pm2.5$(\cref{fig:results-distribution}a)は,言語モデリングのタスクとしてある程度妥当な学習を行っている結果だといえる.%%%%\cref{fig:word-dist-probing}のProbingの精度をみると,\cref{fig:results-distribution}bのProbingの精度をみると,\NoTrain{}のエンコーダは2つ前のタイムステップまでのトークン情報を保持しており,言語モデリングにおいて次のトークンを予測するために,文脈情報を集約する役割を遂行できている.ランダムな重みでもタスクが解けることは非直感的ではあるが,学習されていない初期値のままのネットワークを含むモデルでも,比較的高い性能を達成できることが他のタスクやアーキテクチャでも観察されている\cite{Pilault2019OnTI,Tay2020SynthesizerRS}.一方で,\Uniform{}言語は何ら有用な事前知識を与えない.\Uniform{}言語で事前学習したエンコーダは,著しく高いパープレキシティ($338.6\pm21.4$)を記録している.\Uniform{}言語は自然言語に類似した性質を持たないため,転移性能が高くないことは予想できるが,何かしらの事前学習を行ったにも関わらず\NoTrain{}よりも著しく悪い性能を示す理由は自明でないかもしれない.このことについては,ランダムな系列を予測しようとする事前学習タスクの挙動を考えることで理解できる.\Uniform{}言語では,全てのトークンが同確率で現れうるため,事前学習におけるモデルの最適解は,全てのトークンを常に同確率で予測し続けることである.この場合,出力が文脈に依存することはないため,事前学習においてエンコーダは文脈情報を保持するような学習を行わない.%%%%\cref{fig:word-dist-probing}のProbingの精度を見ても,\cref{fig:results-distribution}bのProbingの精度を見ても,\Uniform{}エンコーダの出力からは1タイムステップより前のトークンの情報を全く復元できないものになっていることから,事前学習の過程で文脈を保持しないような解に収束していると考えられる.文脈情報が使えない\Uniform{}エンコーダにとって,転移先の言語モデリングにおける最適な戦略は,頻度の高いトークンを常に予測することである.このような学習がなされていることを確かめるために,PTBコーパスの開発セットに対して予測された最も確率の高いトークンの数を調査した(\cref{fig:results-prediction-count}).\Uniform{}は頻度の高いトークンだけを主に予測している一方で,パープレキシティがある程度低い\NoTrain{}や\LogLinear{}エンコーダは,頻度に関わらず幅広い種類のトークンを予測できている.このことは\Uniform{}エンコーダが文脈情報を十分に活用できず,頻度の高いトークンを予測するような学習に陥っていることの証左となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-2ia14f5.pdf}\end{center}\hangcaption{各エンコーダからの予測トークンの頻度を表したグラフ.グラフの横軸は,10,000種類あるトークンを頻度順に並べ,50個のビンに分けている.}\label{fig:results-prediction-count}\end{figure}%%%%\subfloat[\NoTrain{}.]{\label{fig:prediction-count-NoTrain}\includegraphics[height=3.9cm]{data/analysis/prediction_count_random.png}}%%%%\subfloat[\Uniform{}.]{\label{fig:prediction-count-uniform}\includegraphics[height=3.9cm]{data/analysis/prediction_count_uniform.png}}%%%%\subfloat[\LogLinear{}.]{\label{fig:prediction-count-loglinear}\includegraphics[height=3.9cm]{data/analysis/prediction_count_loglinear.png}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\Zipf{}言語も,\Uniform{}言語と同じく,トークンが文脈に依存している形にはなっていないので,事前学習における挙動も単純であり得られる知識も限られているはずである.しかしながら,\Zipf{}のパープレキシティ($196.4\pm4.6$)は\Uniform{}($338.6\pm21.4$)よりも著しく低く,Probingの精度からも文脈情報をある程度捉えている.\Zipf{}言語ではトークンの出現頻度に偏りがあるため,最適な戦略は最高頻度のトークンを常に高い確率で予測し続けることである.単純な戦略を学習すれば良いところは\Uniform{}言語と同じであるが,異なるのは学習時のパラメータの変化が比較的安定していることだと推測する.\Uniform{}は,全てのトークンを常に同確率で予測し続ける最適戦略に収束したとしても,トークンの予測が当たることは稀なため,損失関数から得られる誤差は常に大きく,パラメータもランダムな方向に更新され続ける.一方\Zipf{}では,頻度の高いトークンを予測する戦略に落ち着いた場合に,実際に頻度の高いトークンを予測することに成功するため,パラメータの更新幅は少ない.これにより,\Zipf{}エンコーダは初期値である\NoTrain{}の重みから比較的変化の少ないパラメータに収束し,事前学習タスクが文脈情報を必要しないものとしても,文脈情報をある程度残していると考えられる.最後に,\LogLinear{}言語は言語モデリングに有用な構造的知識を有していると考えられる.ここで取り上げる単語分布をモデリングした人工言語のうち,\NoTrain{}($194.7\pm2.5$)に比べて有意に低いパープレキシティを全ての言語で示しているのは,\LogLinear{}($183.2\pm5.8$)だけである.\LogLinear{}は他の分布と異なり,文中のトークン間に統計的依存性が存在する.統計的依存性が存在するということは,言語モデリングのタスクにおいて,文脈のトークンの情報を用いることで,次のトークンがある程度予測できるということである.したがって,事前学習時に\LogLinear{}エンコーダは,文脈情報をエンコーダ出力に保持するような学習をし,それが自然言語の言語モデリングにおいても有用であると解釈できる.%%%%実際に,\LogLinear{}エンコーダはProbingタスク(\cref{fig:word-dist-probing})において,実際に,\LogLinear{}エンコーダはProbingタスク(\cref{fig:results-distribution}b)において,他のエンコーダに比べて多くの文脈情報を保持するようなパターンを見せている.以上の分析をまとめると,コーパス全体における単語の頻度分布情報は,必ずしも自然言語に転移可能な知識とはならないこと,一方で文中のトークン間に統計的依存性が存在するという知識は,自然言語のモデリングに転移可能な有用な知識であることが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文構造の転移可能性}\label{subsec:results-structure}続いて,文中における係り受け構造の転移可能性を分析する.\cref{fig:results-structure}に,\Uniform{}分布からトークンのペアをサンプルし,\Flat{}と\Nesting{}の係り受け構造それぞれと組合せた人工言語で訓練したエンコーダと,自然言語である英語(\English{})で訓練したエンコーダの結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{30-2ia14f6.pdf}\end{center}\hangcaption{係り受け関係をモデリングした人工言語(\Flat{},\Nesting{})で事前学習したエンコーダと,英語(\English{})で訓練したエンコーダを,転移学習とProbingタスクで評価した際の結果.}\label{fig:results-structure}\end{figure}%%%%\subfloat[PTBデータセットで評価したパープレキシティ.]{\label{fig:structure-perplexity}\includegraphics[height=3.9cm]{data/results/structure_perplexity.png}}%%%%\subfloat[Probingタスクの精度.]{\label{fig:structure-probing}\includegraphics[height=3.9cm]{data/results/structure_probing.png}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,系列に係り受け関係を持つことが自然言語のモデリングに有用であることを議論する.\Uniform{}\Flat{}($183.7\pm5.6$)は\LogLinear{}($183.2\pm5.8$)と同程度のパープレキシティ,\Uniform{}\Nesting{}($168.8\pm4.3$)はそれらに比べて低いパープレキシティを示している.系列内に係り受け関係を持つということは,あるトークンの存在をもとに,別のトークンの存在を予測できるということであり,これは\LogLinear{}言語同様,系列が統計的依存性を持つことを意味する.この結果は,\LogLinear{}と異なる形の統計的依存性から得られる知識でも,自然言語のモデリングに役に立つことを示している.次に,入れ子構造の有用性を検証する.\Nesting{}($168.8\pm4.3$)が\Flat{}($183.7\pm5.6$)を下回る値を示しており\footnote{この傾向は,他の単語分布と組合せた場合も同様に観察される(\Appendix{appendix:structure}).},これは入れ子構造を持つことが,自然言語への転移学習により有用であることを示唆している.%%%%この理由について考えると,Probingタスクの結果(\cref{fig:structure-probing})では,この理由について考えると,Probingタスクの結果(\cref{fig:results-structure}b)では,\Flat{}エンコーダの方が,\Nesting{}よりも多く文脈情報を保持しているため,分布構造のみを持つ人工言語を比較した場合(\cref{subsec:results-distribution})と異なり,文脈情報を残しやすいために言語モデリングの性能が高いという可能性は排除される.単語モデリングにおける\Nesting{}構造の特徴を考えると,\Flat{}に比べてトークンの配置パターンが限られていることが挙げられるが,入れ子構造の優位性は,こうしたより一貫性のある規則と,自然言語の文法との類似性に帰せられると考えられる.エンコーダの主たる役割は文脈情報の集約であると考えれば,入れ子構造を考慮してトークン同士の位置関係を残しつつ文脈情報を集約するパターンが,自然言語に有用であるのだと考えられる.最後に,自然言語で訓練したエンコーダ(\English{})に着目すると,一番良い転移性能($154.6$\linebreak$\pm\2.6$)を発揮している.これは,ここで調べている構造を持った人工言語と,自然言語から学習できる転移可能な知識には隔たりがあることを示している.Probingタスクの精度をみると,\English{}エンコーダは文脈情報を近いものから遠いものまでよく捉えている.しかし,図にあげた3種類のエンコーダを比較したときに,パープレキシティの値と,Probingタスクの精度の間には一貫した傾向は見られない.このProbingタスクで捉えられる側面よりさらに細かい観点から,エンコーダの振る舞いを分析することが今後の課題となる.以上の分析をまとめると,単純な2トークン間の係り受け関係の構造は自然言語に転用可能な知識を与え,これはやはり文脈が次トークンの予測に役立つという統計的依存性が存在するからだと考えられる.構造に入れ子関係の制約がある場合はより転移性能が向上することから,トークン同士の位置関係に自然言語に類似性のある構造が認められる場合には,その知識も転移しうることが示された.これは,転移可能な知識として位置情報を考慮した統計的依存性が存在することを示唆する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{30-2ia14f7.pdf}\end{center}\hangcaption{\Bigram{}言語のランダムさを表すパラメータ$\alpha$を変化させて,転移学習とProbingタスクで評価した際の結果.グラフのx軸には,遷移確率のパープレキシティ($P$)も共に示しており,これは遷移先のトークンが平均何通りあるうるか示す数として解釈できる.}\label{fig:results-randomness}\end{figure}%%%%\subfloat[PTBデータセットで評価したパープレキシティ.]{\label{fig:randomness-perplexity}\includegraphics[height=3.9cm]{data/results/randomness_perplexity.png}}%%%%\subfloat[Probingタスクの精度.]{\label{fig:randomness-probing}\includegraphics[height=3.9cm]{data/results/randomness_probing.png}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ランダム性の転移可能性}\label{subsec:results-randomness}\cref{fig:results-randomness}に,\Bigram{}言語のランダム性を調整するパラメータ$\alpha$を変化させた場合の結果を示す.$\alpha=0.0$では単語遷移が完全にランダムであり,$\alpha=10$では遷移パターンが一意に決まる.$\alpha=0.0$は\Uniform{}言語と等価であり,\cref{subsec:results-distribution}で述べたように,系列中に統計的依存関係が存在しないため,そのデータからエンコーダは有用な情報を何も学習できない.一方で,$\alpha=0.7$以上のときは,前のトークンから次のトークンを予測できる構造,つまり統計的依存関係が生じ,$\alpha=0.0$のパープレキシティに比べて有意に低い値を示している.$\alpha=10$のように,完全に決定的な系列で事前学習した場合でも同様であり,このことから,系列にランダム性があること自体は自然言語へ転移できる知識の学習に影響を及ぼさないと考えられる.\Bigram{}エンコーダのパープレキシティ値は,$\alpha=0.8$で最低値を示している.この$\alpha=0.8$の\Bigram{}言語は,特に自然言語に有用な特徴を持っているのだろうか.$\alpha=0.8$のランダム性を定量化した値として,\Bigram{}言語の遷移確率分布のパープレキシティを確認すると約4,200であり,これは自然言語のランダム性と比べてかなり大きい\footnote{PTBコーパスの訓練セットでユニグラム言語モデルを作り,評価セットでパープレキシティを計算した場合でもおおよそ700前後の値をとる.}.したがって,転移性能が良いのは,ランダム性の度合いが自然言語に似ているためではない.この点については,異なる$\alpha$の値によってトークン予測における文脈情報の有用性が異なり,その結果学習されるエンコーダの文脈情報の集約パターンの違いが,パープレキシティに反映されていると考える.%%%%しかしながらProbingの結果(\cref{fig:randomness-probing})では,しかしながらProbingの結果(\cref{fig:results-randomness}b)では,パープレキシティに差のある$\alpha=0.8$と$\alpha=1.0$の間に目立った差は見られないため,本実験の分析では捉えきれない要因がこの結果をもたらしている.この結果は,今回の転移学習において,エンコーダの性能に大きく影響を与える要素が事前学習データの構造であり,データの複雑性/多様性はその構造を学習するのに必要最低限あれば良いことを示していると解釈できる.\Bigram{}言語においては,$\alpha$の値がある程度大きくなると,1つ前の単語から次の単語がある程度予測できるという構造が生まれるが,$\alpha$をそれ以上大きくし,系列が決定的になることでデータの多様性が減じても,構造自体は変わらない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{30-2ia14f8.pdf}\end{center}\hangcaption{\Uniform{}分布を持った\Nesting{}言語の語彙サイズを変化させて,転移学習とProbingタスクで評価した際の結果.}\label{fig:result-vocab_size}\end{figure}%%%%\subfloat[PTBデータセットで評価したパープレキシティ.]{\label{fig:vocab_size-perplexity}\includegraphics[height=3.9cm]{data/results/vocab_size_perplexity.png}}%%%%\subfloat[Probingタスクの精度.]{\label{fig:vocab_size-probing}\includegraphics[height=3.9cm]{data/results/vocab_size_probing.png}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,構造の影響が大きいことを支持する結果として,\Nesting{}言語の語彙サイズを変化させた場合のパープレキシティを\Figure{fig:result-vocab_size}に示す.語彙サイズがあまりにも小さい($|V|\leq100$)場合は,大きい語彙サイズの場合に比べてスコアが悪化しているが,語彙サイズが比較的小さい段階($|V|=1,000$)で最良スコアに到達している.この$1,000$という語彙サイズは,転移先のタスクにおける英語の語彙サイズ10,000に比べて,かなり小さい.おそらく,\Nesting{}言語の構造を,十分に一般化した形で学習するのに必要な語彙サイズが$1,000$であったのだと考える.この観察は,人工データを通じてモデルに帰納バイアスを埋め込む,という手法にある示唆を与える\cite{DBLP:conf/icml/WuRLBGS21,Chiang2022AAAI}.一般的に,機械学習,特にニューラルネットワークを基盤とするモデルは,データがあればあるほど良いという傾向にある.しかし,今回の結果は,モデルを構築したいドメインの意味論的な性質ではなく,構造的な性質をモデルに学習させ転移学習に活用する場合には,その構造を十分に学習できるだけのデータのみを確保すれば良い,ということを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,人工言語からの転移学習を通じて,自然言語の言語モデリングを解くために転移可能な構造的知識とは何かを調べた.その結果,トークンの頻度分布,トークンの種類数,系列のランダム性などの要素そのものによる,転移可能性への影響は限られており,系列中の統計的依存性が重要であることが分かった.特に,入れ子構造を持った\Nesting{}言語が,そうでない\Flat{}言語に比べて,転移性能が高いことから,トークンがどの位置にあるトークンに依存しているかのパターンも,転移可能な知識として存在する.位置を考慮した統計的依存性が存在するという知識は,たとえば,「今日の天気は」という分かち書きされた文脈が与えられて次の単語を予測するとき,一つ前が助詞の「は」で,二つ前が「天気」であるということが大きな手がかりとなり,「晴れ」という単語を予測できる,というような知識である.言語モデリング,もしくは一般的な言語タスクを解くのに有用な事前知識として,位置を考慮したトークンの文脈依存性があることは直感的にも納得できる.また,これは今日の言語の表現学習アルゴリズム\cite{Sinha2021MaskedLM}が仮定している,分布仮説\cite{harris54}が成立する,という知識であるともいえる.\citeA{papadimitriou-jurafsky-2020-learning}は,楽譜データやプログラミングコードで事前学習したエンコーダが,自然言語モデリングに転用できることを示した.系列中の,位置を考慮した統計的依存性の観点から考えると,楽譜中でメロディを形作る音符はしばしば近接しており,局所的なパターンを形成している.また,プログラミングコードにも繰り返し用いられる構文が数多く存在する.これらの非自然言語データにも,位置を考慮した統計的依存性が存在し,これが自然言語へ転移可能性をもたらしていると考えられる.\citeA{artetxe-etal-2020-cross}が示した,転移元言語で訓練したエンコーダが,また異なる転移先言語にも転用できるという結果も,この言語に共通する統計的依存性が大きな役割を担っていると考えられる.しかし,自然言語間での転移学習に関しては,今回の研究では対象外とした,意味空間の構造の共通性\cite{Mikolov:2013tp,Lample:2018wg,artetxe-etal-2018-robust}も少なからず転移性能に寄与している可能性がありうる.また,近年の研究によれば,言語データで訓練した多層Transformerエンコーダが,他の自然言語のみならず,オフライン強化学習\cite{Reid2022CanWH}や,さまざまな計算タスク\cite{Lu2021PretrainedTA}に効果的に転用できることが知られている.このような転移学習についても,位置を考慮した統計的依存性が重要な役割をになっているのか,より複雑なトークン間の依存関係を捉えられるような事前知識を学習しているのか,またはTransformerのアーキテクチャ,サイズ,層の数と転移可能性に何か関係があるのか,などの問いが残っている.言語から,また,言語への転移学習における,転移されている知識についての更なる理解は,今後の課題としたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliographystyle{jnlpbbl_1.7}%%%%\bibliography{j_yourrefs}\bibliography{14refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{その他の自然言語からの実験結果} \label{appendix:nl}一般的に,言語間転移学習においては,転移先と転移元の言語が,同じ語族に分類される,また,語彙の多くが共通しているなど,類似点が多い言語である場合に,より高い性能が発揮される傾向にある\cite{artetxe-etal-2020-cross}.ここでは,事前学習に用いる自然言語の違いによる,エンコーダの転移性能の差について調査するため,英語に加えて,スペイン語,日本語のデータを用いた実験結果を示す.事前学習に用いるデータは,英語のデータ同様,WikipediaDumpを用いた.スペイン語の文は\package{Moses}\footnote{\url{https://github.com/moses-smt/mosesdecoder}},日本語の文は\package{MeCab}\footnote{\url{http://taku910.github.io/mecab/}}を用いて単語に分割した.ここで,下流タスクはPTBコーパスを用いており,転移先の言語は英語となる.英語と,転移元の言語の近さに関して,スペイン語は,英語と同じインド・ヨーロッパ語族に属し,日本語は,英語と比較的離れた言語である.従って,転移先言語との近さは,英語$>$スペイン語$>$日本語,の順で近いといえる.しかしながら,\Figure{fig:nl}に示す通り,下流タスクのパープレキシティの値,Probingタスクの精度のどちらにおいても,これらの言語で訓練されたエンコーダの間に,顕著な差は認められない.今回の実験において,エンコーダが系列データから学習できる統計的規則に関しては,これらの言語の間に差はないということが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{30-2ia14f9.pdf}\end{center}\hangcaption{3種類の自然言語,英語(English),スペイン語(Spanish),日本語(Japanese)で事前学習したエンコーダを,転移学習で評価した際の結果.}\label{fig:nl}\end{figure}%%%%\subfloat[PTBデータセットで評価したパープレキシティ.]{\label{fig:nl-perplexity}\includegraphics[height=3.9cm]{data/appendix/natural_language_perplexity.png}}%%%%\subfloat[Probingタスクの精度.]{\label{fig:nl-probing}\includegraphics[height=3.9cm]{data/appendix/natural_language_probing.png}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{各単語分布と係り受け構造を組合せた人工言語からの実験結果} \label{appendix:structure}\Figure{fig:structure-distribution}は,各種分布と係り受け構造を組合せた人工言語で訓練したエンコーダを評価した結果である.基本的に,\cref{sec:results}で提示したデータと同様の傾向を示している.まず,\cref{subsec:results-structure}で観察された通り,トークンのペアをサンプルする分布に関わらず,\Flat{}の構造より,入れ子状の制約を持つ\Nesting{}の方が低いパープレキシティを記録している.また,同じ構造を持った人工言語内で比較した際に,\cref{subsec:results-distribution}で見られたように,\Uniform{}$>$\Zipf{}$>$\LogLinear{}の順でパープレシティが低くなることが確認できる.\LogLinear{}と\Nesting{}との組合せは,\LogLinear{}の構造だけを持つ言語と,\Uniform{}\Nesting{}言語のどちらよりも,低いパープレキシティを一貫して示しており,\LogLinear{}と\Nesting{}の構造は,それぞれ相補的に異なる有用な知識を与えていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[t]\begin{center}\includegraphics{30-2ia14f10.pdf}\end{center}\hangcaption{トークンのペアをサンプルする際の分布(\Uniform{},\Zipf{},\LogLinear{})と,係り受け関係(\Flat{},\Nesting{})を各種組合せた人工言語で事前学習したエンコーダを,転移学習で評価した際の結果.}\label{fig:structure-distribution}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{李凌寒}{%2023年東京大学大学院情報理工学系研究科博士課程終了.同年よりLINE株式会社所属.博士(情報理工学).言語処理学会,ACL各会員.}\bioauthor{鶴岡慶雅}{%2002年東京大学大学院工学系研究科博士課程修了.同年より科学技術振興事業団研究員.2006年マンチェスター大学研究員.2009年北陸先端科学技術大学院大学准教授.2011年より東京大学大学院准教授.2018年より東京大学大学院教授.博士(工学).言語処理学会,情報処理学会,人工知能学会,各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V32N01-03
\section{はじめに} \label{section:intro}メタファー(隠喩)とは「のような」といった直接的な例えの表現を伴わない比喩表現である.メタファーは日常のテキストにおいて頻繁に出現することから,多くの研究が行われている.例えば,認知言語学の分野ではLakoffとJohnsonによる研究\cite{mwlb}が代表的である.そこでは,メタファーは単なる言葉の綾でなく人間の認知を大きく反映する重要な機能である,と指摘されている.具体例として以下の2つの例を挙げる.\begin{exe}\exHe\textit{attacked}weakpointsinmyargument.\label{ex:attack}\exYoucan't\textit{win}thisargument.\label{ex:win}\end{exe}これらの例では,『議論(argument)』の概念を記述する際に\textit{attack}や\textit{win}などの『戦い』の概念に属する用語が使われている.このようなメタファーが使われるのは,『議論』には勝ち負けがあり,何らかの戦術を用いて攻めたり守ったりするなどの『戦い』と共有する性質があるためと考えられ,メタファーを使うことによって『議論』という概念を『戦い』というより具体的な概念を通じて理解することが可能となる.LakoffとJohnsonはメタファーの本質とは上の例のように,ある概念を別の概念を通じて理解することであり,そのメタファー的理解が人間の認知を形作っていると主張した.彼らはこのような認知の構造を概念メタファーと呼び,この考え方は言語学において大きな影響を及ぼした.その結果,メタファーは認知言語学において重要なテーマとなり,数多くのメタファーに関する仮説\cite{japmet,roleofmet}が生み出されてきた.しかし,そのような研究の多くは仮説の検証を,比較的少数の用例に対する内省に基づき行っており,大規模なコーパスに基づいた検証を行っている研究は少ない.そこで本研究では大規模言語モデルを用いたメタファー判別モデルと大規模なコーパスを用い,人手による分析では不可能な規模でメタファーに関する仮説の検証に取り組む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{本研究で扱うメタファーに関する仮説} \citeA{mwlb}は人間は概念メタファーを用いて,ある概念を他の概念を通じてメタファー的に理解していると主張した.(\ref{ex:attack}),(\ref{ex:win})に示した例では,『戦い』という,より具体的な概念を勝ち負けや戦術という共有の性質を通じて『議論』という概念に写像するはたらきが人間の認知を助けているといえる.このようなメタファー的写像において,『戦い』のような写像の起点となる概念は起点領域,『議論』のような写像先となる概念は目標領域と呼ばれる.また,\citeA{japmet}は「起点領域は具体的で表現しやすく,経験豊かな事物であるが,目標領域は抽象的で表現しにくく,身体的な経験があまりない事物である」と述べている.例(\ref{ex:win})と比較するため次の文を考える.\begin{exe}\exYoucan't\textit{win}thisbattle.\label{ex:battle}\end{exe}例(\ref{ex:win})における``argument''(目標領域)と例(\ref{ex:battle})における``battle''(起点領域)はどちらも動詞``win''の目的語であるが,``win''がメタファーとして使われている例(\ref{ex:win})の目的語である``argument''の方が抽象的であり,イメージしにくく,親密に感じにくいと考えられる.このようなメタファーの特性は,自然言語処理におけるメタファー判別タスクにおいても判別の手がかりとして利用されている\cite{turney,tsvetkov,rai}.例(\ref{ex:win}),(\ref{ex:battle})からも分かるように,一般的に非メタファー用例の場合の目的語は起点領域であるのに対し,メタファー用例の場合の目的語は目標領域となる.\kot{このような性質から,動詞とその直接目的語を含む文は,目標領域や起点領域に関わる仮説を検証するための用例として,目標領域や起点領域に属する単語を自動的に判別できる.そのため,\citeA{japmet}に関する仮説については動詞メタファーとその目的語に着目して検証を行う.}本研究では,目標領域が「抽象的で」「表現しにくく」,「身体的な経験があまりない事物である」という説を基に,\kot{具象度(concreteness),心像度(imageability),親密度(familiarity)の3つの指標を新たに導入することによって,動詞メタファーにおける動詞の目的語とそれ以外の動詞の目的語を比較し分析する.}\kot{ここで,具象度はある単語がどれだけ具体的な物事を指しているか,心像度はある単語がどれだけ表現しやすいか,親密度はある単語がどれだけ身体的な経験に紐づいているかをそれぞれ表す.仮に\citeA{japmet}による仮説が成り立つならば動詞メタファーの目的語は低い具象度,心像度,親密度を示すこととなる.}\citeA[pp.~181--182]{roleofmet}は\kot{``theycanpaintaricherandmoredetailedpictureofoursubjectiveexperiencethanmightbeexpressedbyliterallanguage.''(メタファーは,文字通りの言語によって表現されるよりも豊かで詳細な主観的経験を表現できる)}\footnote{{\kot{以降のものも含め,日本語訳は著者らによるものである.}}}と述べ,さらに\kot{``Thus,onemightexpectpeopletoemploymoremetaphoricaldescriptionswhentryingtocharacterizethesubjectiveexperientialqualityofemotionalstatesthanwhentryingtocharacterizetheovertbehaviorsassociatedwithsuchstates.''(感情的な状態の主観的な経験を特徴付けようとするときは,行動を特徴付けようとするときよりも,比喩的な説明を用いることが多くなる)}と主張している.また,\citeA[p.~67]{LEDOUX201867}は\kot{``thatsubjectiveemotionalexperience,thefeeling,istheessenceofanemotion,andthatobjectivemanifestationsinbehaviorandinbodyorbrainphysiologyare,atbest,indirectindicatorsoftheseinnerexperiences.''(主観的な感情体験が感情の本質であり,行動,身体,脳生理学における客観的な発現は,せいぜいこれらの内的体験の間接的な指標にすぎない)}と主張している.もしこれらの仮説が正しければ,主観的な経験や感情を表現する文ではメタファーが使われやすいということになる.そこで本研究ではある文の集合においてメタファーが使用される文の割合であるメタファー用例率という指標を用いてこれらの仮説を分析する.具体的には,主観的であったり,感情極性を持っていたりする文の集合においてメタファー用例率が実際に高いか検証する.\kot{また,本研究ではメタファーの定義として,本研究で使用したメタファー判別モデル\cite{misnet}が採用しているメタファー判別法であるMIP\cite{mip}に基づき,「基本義から意味的な推移が起きた単語」という定義を採用した.そのためシミリー(直喩)やメトニミー(換喩),シネクドキ(提喩)などについても,意味的な推移が起こっているものはメタファーとして扱う.また,慣習化され,慣用句とみなせるようなメタファー表現(``killtime'',``eatdirt''など)も動詞の辞書的な意味からは離れているため,メタファーとして扱うことになる.この定義は,概念メタファーによる意味的な写像を重視する\citeA{japmet}の定義とも合致し,また,比喩的な表現全般を取り扱う\citeA{roleofmet}のメタファーの定義とも矛盾は起こらない.}最終的に,本研究では\citeA{japmet}と\citeA{roleofmet}による仮説を基に,表\ref{tab:Claims}に示す5つの仮説を大規模なコーパスと大規模言語モデルによるメタファー判別モデルを用いて検証する.このうち,仮説A,B,Cは\kot{\citeA{japmet}を基に筆者が考案した}動詞-目的語と概念メタファーの関係性に関する仮説であり,仮説D,Eは\kot{\citeA{roleofmet}を基に著者らが考案した}メタファー表現における感情や主観性に関する仮説である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{02table01.tex}%\caption{本研究で検証する仮説.}\label{tab:Claims}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{仮説検証の準備} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{メタファー判別モデル}本研究では,MisNet\cite{misnet}を用いてメタファー判別を行った.MisNetは,MetaphorIdentificationProcedure(MIP)\cite{mip}とSelectionalPreferenceViolation(SPV)\cite{spv}という二つの考えに基づいた特徴量をメタファー判別に利用している.前者(MIP)はある単語について,メタファーとしての使用例と文字通りの意味での使用例でその単語の意味が異なるという考えを基にしたものである.MisNetはこの考えをもとに,ある単語における文脈を与えない場合の単語埋め込みと文脈を考慮した場合の単語埋め込みをそれぞれBERT\cite{bert}を用いて算出し,それらの差を特徴量の1つとして利用する.後者(SPV)はある単語がメタファーかどうかは,その周囲の単語との意味的な違いによって識別されるという考えに基づいたものである.MisNetはこの考えをもとに,ある単語に文脈を考慮した場合の単語埋め込みとその単語を含む文の文ベクトルをBERTを用いて算出し,それらの差を特徴量の1つとして利用している.本研究では,19万の字句単位について,メタファー,非メタファーのラベルが人手でアノテートされたデータセットであるVUAmsterdamMetaphorCorpus\cite{vuamc}を用いて訓練されたモデル\footnote{\url{https://github.com/SilasTHU/MisNet}}を利用した.メタファーに関する仮説の検証に先立ち,MisNetの実用的な性能を確認するため,MisNetを学習データと異なるデータに適用した場合の精度を調査した.結果を表\ref{tab:misnetacc}に示す.学習データセットであるVUAMCに適用した場合の精度0.95と比べると大幅に低い精度であるものの,それ以外のデータセットに対しても平均で0.74の精度で判別できることが確認できる.個別の判別精度は十分に高いとは言えないものの,本研究のように極めて大規模な用例を用いた統計的な分析においては,70\%程度の精度で解析できれば全体の傾向に関して正しくない結論が導かれる可能性は低く,十分に実用的な性能であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{02table02.tex}%\hangcaption{MisNetの複数のデータセットにおける判別精度.VUAMCデータセット\protect\cite{vuamc}はMisNetの学習データセットであり,TroFiデータセット\protect\cite{trofi1,trofi2},MoH-Xデータセット\protect\cite{moh},TSVデータセット\protect\cite{tsvetkov}は学習に用いられていないデータセットである.}\label{tab:misnetacc}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{具象度・心像度・親密度}用例に含まれる単語の具象度と心像度は,\textbf{L}jube\v{s}i\'{c},\textbf{F}i\v{s}er,\textbf{P}eti-Stanti\'{c}が作成したデータセット\footnote{\url{https://github.com/clarinsi/megahr-crossling/}}\cite{objs-dataset-conc}を用いて決定した.以下では,本データセットを\textbf{LFP}データセットと呼ぶ.LFPデータセットでは,77言語において,\kot{ある単語がどれだけ具体的かを表すスコア(concreteness),どれだけイメージしやすいかを表すスコア(imageablity)}が単語ごとに機械学習モデルによって算出され,その結果がまとめられている.このモデルは,英語とクロアチア語のデータセットからSVM回帰モデルとフィードフォワードネットワークを用いて訓練されたものである.本研究で利用したLFPデータセットの英語部分は,約10万の英単語に対して\kot{concreteness}と\kot{imageability}が付与されたものであり,値の範囲は\kot{concreteness}は0.87~5.35,\kot{imageability}は1.77~5.26である.\kot{本研究では具象度としてLFPデータセットにおけるconcretenessを利用し,心像度として,表現しやすい単語はイメージしやすいと考えimageabilityを利用する.}また,親密度は,単語の複雑度(complexity)に関するデータセットである\textbf{W}ord-\textbf{C}omplexity\textbf{L}exico\footnote{\url{https://github.com/mounicam/lexical_simplification}}\cite{objs-dataset-comp}を用いて算出した.以下,本データセットを\textbf{WCL}データセットと呼ぶ.WCLデータセットは,約15,000の英単語に対して非常に簡単(1)から非常に複雑(6)までの6段階の複雑度がアノテートされたデータセットである.各単語の複雑度スコアは非ネイティブの英語話者11名の評価の平均をとったものであり,\kot{複雑度スコアである}$c$は1~6の範囲で与えられる.\kot{人間にとって複雑と感じる語彙は,身体的な経験があまりない,つまり親密度の低い語彙であると考え,}本研究では親密度として6から$c$を引いた$6-c$の値を使用した.ここで,親密度に関するデータセットを使用せず,複雑度に関するデータセットから親密度を算出した理由は,本研究では親密度を算出可能な単語のカバー率を重視したためである.親密度を表す代表的なデータセットとしてMRCpsycholinguisticdatabase(WilsonandDivision1997)が挙げられるが,親密度が付与された単語数は約9,000語である.これに対しWCLデータは15,000語のデータを含んでいる.このため,親密度を算出可能な単語数が多くなるように,本研究では複雑度に関するデータセットから親密度を算出し使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{用例の収集}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{動詞-目的語ペアの収集}動詞メタファーの目的語に関する仮説である仮説A,B,Cの検証に利用するため,動詞と目的語のペアを収集した.まず,Webデータを収集した大規模なコーパスであるCommonCrawl\footnote{\url{https://commoncrawl.org/}}を基にして作成されたコーパスであるCC-100\footnote{\url{https://data.statmt.org/CC-100/}}から得られた10億の英語文から動詞-目的語ペアを含む文を抽出した.具体的には,構文解析ツールであるstanza\cite{stanza}を用いて各文の品詞タグ付け,係り受け解析を行うことによって文中の動詞に直接目的語が存在するか判別を行い,それらが同時に出現する文\footnote{\kot{本研究では句動詞(``carryon'',``carryout''など)も通常の動詞と区別せずに計数をした.句動詞は動詞本来の意味と異なる意味を持つ場合が多いことから計数の対象から除くことも考えられるが,使用したデータセット中に現れる句動詞の割合は6.5\%と限定的であったことから,処理の簡素化のため句動詞を区別せずに計数した.}}のみを分析対象とした.次に抽出された文をメタファー判別モデルに入力し,各文中の動詞がメタファーとして使われているかどうかを判別した.そして,目的語を見出し語化し,同一の動詞・目的語ペアごとに文をグループ化した上で,ある動詞-目的語ペアにおいて,データセットにおけるその用例が現れる文のうち,7割以上の文においてその動詞がメタファーと判定されたらその動詞-目的語ペアをメタファー用例,3割以下であったら非メタファー用例として扱った.例えば,attack-ideaのペアは,データセット中で``idea''とともに現れた``attack''のうち99\%の文で``attack''がメタファーであると判別されたため,メタファー用例として扱った.一方,attack-shipのペアは``ship''とともに現れた``attack''のうち18\%のみがメタファーであると判断されたため,非メタファー用例として扱った.ここでは直接目的語を持つ動詞が分析の対象であるため,主に他動詞として使われる動詞,具体的には収集した用例の70{\%}以上で他動詞であった動詞のみを検証に使用した.さらに,分析の信頼性を確保するために,メタファー用例と非メタファー用例の両方について,動詞と目的語のペアが異なり数で10以上ある動詞のみを分析した.その結果,表\ref{tab:allverbs}で示される49動詞が分析の対象となった.続いて,動詞-目的語ペアにおいてメタファー用例,非メタファー用例数を算出する.その際,具象度,心像度,および親密度の決定に使用するデータセットに含まれない目的語は除外して計数した.その結果,分析対象の動詞を含む動詞-目的語ペアのうち20\%程度が除外された.最終的に,動詞ごとに分析に使用された目的語の異なり数はメタファー用例については最大2,377,最小13,中央値743,非メタファー用例については最大3,292,最小18,中央値679であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{02table03.tex}%\caption{分析対象とする49動詞の一覧.}\label{tab:allverbs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{感情極性・主観性の異なる文の収集}仮説D,Eの検証に利用するため,異なる感情極性,主観性を持つ文を収集する.ここでは,CC-100コーパスから,3つの感情極性タイプと2つの主観性タイプの組み合わせごとに2万文ずつ,合計12万文を収集する\footnote{\kot{本研究ではコーパス中に含まれる重複文に対する処理は行っていない.}}.感情極性については,Stanza\cite{stanza}の感情分類モデルを使いCC-100の各英語文をポジティブ・ニュートラル・ネガティブの3つのグループに分類する.主観性については,主語が一人称代名詞(I,we)である文は主観表現を記述している可能性が高い文とみなし,主語が三人称代名詞(he,she,they)である文は客観的である可能性が高いとみなす.また,ここでは文長によるバイアスを取り除くため,6つのグループ間で文長の分布が一定になるように文を収集する.次に,収集した文にメタファー判別モデルを適用し,メタファーを含む文の割合を計算する.ここでは文中の単語が1つでもメタファーであると判断された場合,その文はメタファーを含むとみなす.\kot{ここで主観性(subjectivity)の判別において人称代名詞を使うことの妥当性について補足する.主観性の判別は評判分析などの分野で盛んに研究が行われており,人称代名詞を含む複数の指標が発見されている.一人称代名詞以外にも例えば感嘆符や形容詞の誇張表現\cite{Icardetal},絵文字,評価形容詞,疑問詞,強意詞\cite{savinova-hoek-2024-subjectivity}などが存在する.その中でも一人称の代名詞はここで挙げた両者を含む複数の研究\cite{niekrasz,KRUGER_LUKOWIAK_SONNTAG_WARZECHA_STEDE_2017,Icardetal,savinova-hoek-2024-subjectivity}で予測因子として利用されており,かつ人称代名詞であれば三人称と一人称の比較がしやすいこともあり,人称を指標とした.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{仮説の検証} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{メタファー用例における目的語の具象度・心像度・親密度}仮説A,B,Cを検証するため,動詞ごとにメタファー用例と判別された目的語,非メタファー用例と判別された目的語それぞれについて,具象度,心像度,親密度の平均を算出した.表4に,全49動詞の平均値と95\%信頼区間を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{02table04.tex}%\caption{全49の動詞における目的語の具象度,心像度,親密度の平均と95\%信頼区間(CI).}\label{tab:all-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%具象度については,メタファー用例の場合の平均が3.16,非メタファー用例の場合の平均が3.99と,メタファー用例における直接目的語が非メタファー用例に比べて具象度が低い傾向にあることを示しており,概念メタファーにおいて目標領域の具体性が低いという\citeA{japmet}の主張(仮説A)と一致している.表\ref{tab:conc-table}に,全49の各動詞について,メタファー率,メタファー用例および非メタファー用例の具象度の平均,目的語の例およびそれらの具象度を示す\footnote{表\ref{tab:conc-table},\ref{tab:img-table},\ref{tab:fam-table}における目的語の例は,それぞれスコアが算出できた目的語のうち頻度が多いもの2つを記載している.}.この結果から,全49の動詞において,メタファー用例における直接目的語の具象度の平均が非メタファー用例よりも低いことが確認できる.この分布を符号検定で検証した結果,p値は約$3.6\times10^{-15}$となり,有意水準0.0001で統計的に有意であることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[p]\input{02table05.tex}%\caption{各動詞についてのメタファー用例および非メタファー用例における具象度の平均値と目的語の例.}\label{tab:conc-table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%続いて,心像度についても,メタファー用例の場合の平均が3.57,非メタファー用例の場合の平均が4.28と,メタファー用例における直接目的語が非メタファー用例に比べて心像度が低い傾向にあることを示しており,概念メタファーにおいて目標領域の心像度が低いという鍋島(2011)の主張(仮説B)と一致している.表\ref{tab:img-table}に,全49の各動詞について,メタファー率,メタファー用例および非メタファー用例の心像度の平均,目的語の例およびそれらの心像度を示す.この結果から,全49の動詞において,メタファー用例における直接目的語の具象度の平均が非メタファー用例よりも低いことが確認できる.この分布を符号検定で検証した結果,p値は約$3.6\times10^{-15}$となり,有意水準0.0001で統計的に有意であることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[p]\input{02table06.tex}%\caption{各動詞についてのメタファー用例および非メタファー用例における心像度の平均値と目的語の例.}\label{tab:img-table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%親密度についても,メタファー用例の場合の平均が3.63,非メタファー用例の場合の平均が3.87と,メタファー用例における直接目的語が非メタファー用例に比べて親密度が低い傾向にあることを示しており,概念メタファーにおいて目標領域の親密度が低いという\citeA{japmet}の主張(仮説C)と一致している.表\ref{tab:fam-table}に,全49の各動詞について,メタファー率,メタファー用例および非メタファー用例の親密度の平均,目的語の例およびそれらの親密度を示す.親密度については,全49の動詞のうち,``kiss'',``attack'',``welcome'',``kill''の4動詞以外の45動詞において,メタファー用例における直接目的語の親密度の平均が非メタファー用例よりも低いことが確認できた.この分布を符号検定で検証した結果,p値は約$7.5\times10^{-10}$となり,有意水準0.0001で統計的に有意であることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[p]\input{02table07.tex}%\caption{各動詞についてのメタファー用例および非メタファー用例における親密度の平均値と目的語の例.}\label{tab:fam-table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%非メタファー用例の方が直接目的語の親密度が低くなった4動詞のうち,メタファー用例と非メタファー用例の差が0.1以上あった``attack''と``welcome''の直接目的語のうち頻度上位のものを確認したところ,``attack''については``Iraq''や``Syria'',``welcome''については``Kim''や``Julie'',``Susan''などの固有名詞が非メタファー用例の直接目的語として出現していることが分かった.これらの固有名詞は,相対的に低い親密度となることから\footnote{``Iraq'',``Syria'',``Kim'',``Julie'',``Susan''の親密度はそれぞれ3.80,3.00,3.50,3.67,3.57であった.},``attack''および``welcome''において,非メタファー用例の方が直接目的語の親密度が低くなった要因の1つとして,固有名詞が非メタファー用例の直接目的語となる場合が多かったこと\footnote{\kot{メタファー用例,非メタファー用例ごとに,welcomeとattackを除く各動詞の目的語の頻度上位10単語に含まれる固有名詞を調査したが,メタファー用例では1例(``Congress''),非メタファー用例では2例(``Scott'',``English'')であり,全体的な傾向として固有名詞の取りやすさに関する差異は確認できなかった.}}が考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[p]\input{02table08.tex}%\hangcaption{感情,主観性による分割されたグループごとのメタファー用例率.メタファー用例率は仮説Dが正しければ感情がニュートラルの場合に他の場合よりも小さくなり,仮説Eが正しければ主語が一人称の場合に三人称の場合よりも大きくなる.}\label{tab:Iwemetper}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[p]\input{02table09.tex}%\caption{感情,主観性によって分割されたグループごとのメタファー用例率における検証結果.}\label{tab:Iwepermtest}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[p]\input{02table10.tex}%\hangcaption{主観性,感情極性,メタファー・非メタファーの組み合わせごとの用例.モデルによってメタファーと判別された単語には二重下線,主語には下線を付した.}\label{tab:exs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{感情・主観性とメタファー用例率の関係}仮説D,Eを検証するため,感情極性や主観性の異なる文のグループごとにメタファー用例率を比較することで,感情極性・主観性とメタファー使用率との関係を分析した.各グループに対するメタファー用例率を表\ref{tab:Iwemetper}に示す.また,表\ref{tab:Iwepermtest}にニュートラルとポジティブ・ネガティブ,ポジティブ・ニュートラルとネガティブ,ネガティブ・ポジティブとニュートラル,および一人称と三人称のペアに対するメタファー用例率の差と並び替え検定\footnote{ここでのp値は試行回数100,000回の並び替え検定によって推定した.また有意水準は0.01とし,多重比較の問題に対処するためにボンフェローニ法\cite{bonferroni}を適用した.}で算出したp値の結果を示す.\kot{さらに,表\ref{tab:exs}に主観性,感情極性,メタファー・非メタファーの各組み合わせにつ}\kot{いて一例ずつ,計12例の用例を示す.}まず,感情極性に関して,ポジティブまたはネガティブな文はニュートラルな文に比べて有意に高いメタファー用例率を示した.さらに,ポジティブな感情を持つ文はニュートラルまたはネガティブな文に比べて有意に高いメタファー用例率を示したが,ネガティブな感情を持つ文ではそのような性質は確認できなかった.この結果は,感情極性を持つ文,特にポジティブな極性を持つ文においてメタファーの頻度が増加することを示しており,仮説Dを支持している.また,一人称代名詞を主語とする文は三人称代名詞を主語とする文に比べて有意に高いメタファー用例率を示した.一人称代名詞を主語とする文がより主観的な内容を表現する傾向があるという仮定が真である場合,この結果は,主観的な内容を表現する文においてメタファーが使用される可能性が高いことを示しており,仮説Eを支持している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} メタファーに関する自然言語処理に関する取り組みとして,メタファーの自動検出に関する研究は多く存在する.\citeA{tsvetkov}は単語埋め込みに加えてMRCPscycholinguisticdatabase\cite{mrc}を用いて算出した心理言語学的指標を用いた教師あり学習によってメタファー検出を行った.\citeA{shutova2016}はメタファーによる概念間写像において視覚イメージは重要な役割を果たすとして,メタファー検出に視覚埋め込みを利用し,モデルの性能向上を達成した.また,近年ではBERT\cite{bert}などの事前学習済みモデルを用いる手法が広まっている.\citeA{melbert}は前述したMIP\cite{mip}とSPV\cite{spv}というメタファー判別における理論をBERTを用いた単語埋め込み表現を用いることによって自動化した.具体的には,MIPについてはBERTを用いて文脈を考慮した場合の単語埋め込みと,文脈を考慮しない,つまりBERTに判別する単語のみを入力した場合の単語埋め込みの差分を算出している.またSPVについては文脈中の単語埋め込みとその文埋め込みの差分を算出し,最後にその2つの差分を特徴量にしてメタファー判別を行っている.本研究で利用したMisNet\cite{misnet}は\citeA{melbert}の手法を発展させた手法で,MIPにおける文脈を考慮しない場合の埋め込みを辞書を用いて算出することによって精度向上を達成している.メタファーに関するコーパスに取り組んだ研究も多く存在する.\citeA{vuamc}はBNC-Babyコーパス\footnote{\url{http://www.natcorp.ox.ac.uk/corpus/index.xml?ID=products}}からニュース,フィクション,会話,アカデミックの4つのジャンルの文を収集し,合計19万の字句単位についてメタファー,非メタファーのアノテーションを行った.このデータセットにおけるメタファー,非メタファーのアノテーションはMIPVUという,MIPを洗練させたメタファー判別法に基づいて行われており,対象とする単語が文中の意味より基本的な意味を持つ場合,メタファーと判別される.\citeA{tsvetkov}はWebから収集した頻出する形容詞-名詞ペアについてアノテーションを行い,メタファー,非メタファー,それぞれ約1,000の用例を収集した.\citeA{moh}は,WordNetに含まれる動詞についてメタファー用例かどうかのアノテーションを行った.アノテーションはクラウドソーシングを用いて集められた10人のアノテータによって行われ,WordNet内に現れる1,639の例文中の動詞についてメタファー,または,非メタファーのタグが付与され,全アノテータのうち七割以上がメタファー,または,非メタファーと判断した事例のみを収集することによってコーパスが作成された.\citeA{kato2020}はBCCWJから人手で比喩表現である可能性のある97,118用例から822件を抽出し,クラウドソーシングを用いて比喩情報のアノテーションを実施した.また,このデータセットにおいてもアノテーションはMIPVUに基づいて行われている.近年は,GPT-3などの大規模言語モデル(LLM)がどのようにメタファーを扱っているかにも興味が集まっている.\citeA{wachowiak2023}はメタファーにおける起点領域をGPT-3に生成させることによって,GPT-3のメタファー認識能力を調査した.その結果,英語やスペイン語で実験した場合や,12の例文を含むfew-shotプロンプトを与えた場合起点領域の推定精度が高くなることを示した.また,\citeA{tian2024}はMIPやSPVなどのメタファー判別法における推論のステップをLLMに指示することで,LLMのメタファー判別能力が向上することを示した.コーパスに基づきメタファーに関する仮説の検証に取り組んだ研究としては\citeA{goto2018}の研究がある.\citeA{goto2018}は,「不満をこぼす」は成立するが,「不満がほとばしる」は成立しないなどのような,感情を液体に例えるメタファーの成立条件についてそれまで提唱されていた仮説を現代日本語書き言葉均衡コーパス(BCCWJ)を用いて検証した.具体的には,感情を表すメタファーに現れる液体に関わる表現を手作業で数えることにより,従来の仮説では十分に成立条件を説明できないことを示し,感情における「活発さ」などの要因が大きく成立条件に関わっていることを示した.\citeA{goto2018}の研究で使用しているコーパスは人手でアノテーションが付与されたコーパスであるが,本研究ではメタファーの自動検出を行うことで,圧倒的に規模の大きいコーパスに基づく分析を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,大規模なコーパスを用いて,メタファーに関する既存の仮説から着想を得た5つの仮説の検証を行った.具体的には,概念メタファーと動詞メタファーの目的語の関係に関する3つの仮説とメタファーと感情,主観性の関係性に関する二つの仮説を検証した.検証結果は,メタファー用例の直接目的語は具象度,心像度,親密度が低い傾向があること,メタファーは感情極性があり,主観的な内容を記述する文で多く使用されることを示すものであり,これらの結果は,本研究で検証した5つの仮説の全てをそれぞれ支持するものであった.本研究の課題として,次の三点が挙げられる.まず,分析が英語に限定されている点である.メタファーは多くの言語で使用されているが,本研究で得られた結果が他の言語にも有効であるかどうかはさらなる検証が必要である.第二に,本研究ではWeb上のテキストコーパスであるCommonCrawlから作成されたデータセットを用いて用例を収集しているため,主に書き言葉が分析対象となっている点である.異なる特性を持つコーパス,例えば話し言葉を含むコーパスから収集した例を分析した場合に同様の結果が得られるかの検証は今後の課題である.最後に,複雑度の指標を使用して親密度を近似した点である.複雑度のスコアと親密度のスコアは負の相関関係にあることを仮定したが,この仮定が誤っている場合,本研究で得られた結論が必ずしも正しくない可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,JSPS科研費24H00727の支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{青野広太郎}{%2023年名古屋大学コンピュータ科学科卒業.同大学院情報学研究科知能システム学専攻博士前期課程在学中.}\bioauthor{笹野遼平}{%2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.2019年より理化学研究所AIPセンター客員研究員を兼任.博士(情報理工学).}\bioauthor{武田浩一}{%1983年京都大学大学院工学研究科情報工学専攻修士課程修了.同年日本アイ・ビー・エム株式会社に入社.2017年より名古屋大学教授.2024年より国立情報学研究所特任教授.博士(情報学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V14N01-04
\section{はじめに} キーワード抽出は情報検索に不可欠な技術の一つであり,現在,多様なキーワード抽出法が提案されている.その手法では,辞書を用いて形態素解析を行う方法\cite{Nakagawa1997}が一般的であるが,辞書を全く用いない方法\cite{TakedaAndUmemura2001}もある.辞書を用いて形態素解析を行う方法は,辞書に登録されていない語(未知語)の処理を考えなければならない.これは,未知語の存在がキーワード抽出の性能に悪い影響を与えるからである.したがって,日々増え続ける新しい未知語に対して,対処法を講じる必要がある.一方,辞書を一切用いずに,コーパスにおける文字列の統計量を元にキーワードを獲得する手法がある.文献\cite{TakedaAndUmemura2001}では,adaptation(反復度)を用いたキーワード抽出法を提案している.この手法では,文書数に上限があるとき複合語が分割されて抽出され,長いキーワードとして抽出できないという問題がある.この原因について我々は,文書中での文字列の反復出現が少ないことにより,反復度をうまく推定できていないと分析した.つまり,反復度は文書数をたくさん必要とする指標である.そこで本論文では,類似する文書への出現を考えた.情報検索における検索質問拡張では,新しい索引語を検索質問に付け加えることで検索質問の不足を補う.我々はこの手法を,コーパスの文書を拡張することに応用して,長い文字列の反復出現をうまく捕らえることができないかと考えた.ここで,文書拡張したコーパスを拡張文書集合と呼ぶことにする.本論文では,反復度を用いたキーワード抽出システムを利用する.そしてこのシステムにおいて,従来法と拡張文書集合を使用する提案法との比較実験を行う.結果として,文書拡張によるキーワード抽出法は,長いキーワードの反復出現をうまく捕らえるということを確かめる.また,これまでに取れなかった分野に特化したキーワード及びフレーズ的キーワードが抽出できるという新たな性質を報告する.結論として,キーワード抽出における文書拡張の有用性を報告する.本論文では,はじめに2節でキーワードの定義を行う.次に3節で反復度を用いたキーワード抽出法と文書拡張によるキーワード抽出法について,その手法及び手順と,文書拡張の妥当性について述べる.4節では従来法と提案法において反復度の振る舞いを調査する.そして5節で実際にキーワード抽出を行い,従来法と比較及び考察する.6節で先行研究と比較する.最後に7節で本論文の調査をまとめ,結論とする. \section{キーワードの定義} はじめにキーワードの定義について考える.キーワードの定義はその用途によって様々である.例えば情報検索分野を考えると,索引語をキーワードと見なせる.ここで,索引語は文書の内容をよく表す要素であり,語を索引語として用いることが多い\cite{Tokunaga1999}.また,キーワード抽出における論文に例を見てみると,キーワードは「文書中に出現し,著者が自分の主張を伝える上で重要であると考える語\cite{Mori2005}」と定義している.つまり,文書は著者が何かを伝えるために書いている以上,キーワードとしては著者の主張の上で重要な語を取り出すべきであるという考えである.研究者の情報をキーワードとして自動的に抽出する手法を提案する論文\cite{Matumura2002a}では,研究者の活動を表すために重要な語,例えば,所属組織,研究テーマ,共著者,プロジェクト名をキーワードと定義している.そして最後に,語の活性度に基づくキーワード抽出法を提案する論文\cite{Matumura2002b}では,文書を読んだ後に読者の記憶に強い印象を残す語をキーワードとしている.すなわち,強く活性化される語を著者の主張を表すキーワードと定義している.このように,キーワードの定義は様々である.ここでキーワードの単位について着目すると,多くの場合で語を単位としている.しかし,英語と違って日本語には,語を区切る空白というものが存在しないため,語の厳密な定義を与えることは困難である.ここで語とは,自然言語において一つの意味のまとまりをなし,文法上一つの機能をもつ最小の言語単位である\cite{Iwanami1995}.さらに,文を構成する際の働きを基準とした場合,日本語の語は自立語と付属語に大別される.自立語はそれだけで意味がわかる語で,付属語は自立語に接続して意味をつけくわえたりする語である.しかし,このような区別はあるが付属語を語と認めない考え方もある.また,どのような基準で複合語を1語としてみなすかも明確ではない.このように語の定義もさまざまである.このように多くのキーワードの定義,語の定義がある中で,文書中で繰り返し出現する確率(反復度)もキーワードを定義するものの一つである.反復度は自立語と付属語の境界を特定する特徴量として語彙分類の実験からその有用性が明らかにされている\cite{Church2000}.そして,この反復度を用いたキーワード抽出結果は,情報検索用途で実証もされている\cite{TakedaAndUmemura2004}.このようなことからも多くのキーワードらしさの中でも,主題を抽出するために利用できるものの一つである. \section{キーワード抽出} キーワード抽出とは,前節で説明したようなキーワードを,語の統計情報や文書の構文上の特徴をもとに自然言語で書かれた文書中から自動抽出する技術である.3.1節ではまず,従来法である反復度を用いたキーワード抽出法について述べる.3.2節では文書拡張によるキーワード抽出法を提案し,その妥当性を述べる.\subsection{反復度を用いたキーワード抽出法}\subsubsection{3.1.1反復度の定義}多くの語は文書に繰り返し出現する傾向にあり,その度合いを示す特徴量は語の意味に関わる値であるということが報告されている\cite{Church2000}.文献\cite{TakedaAndUmemura2001}では,キーワードらしさを測る上での反復度の有用性とキーワード抽出への応用が報告されている.{\bf定義3.1反復度}ここでの全事象は文書の出現とする.語を$w$,文書が語$w$を(1回以上)含む事象を$e_1(w)$,文書が語$w$を2回以上含む事象を$e_2(w)$とすると,反復度は次のように定義される.\[adaptation(w)=p(e_2(w)|e_1(w))=\frac{p(e_2(w)\wedgee_1(w))}{p(e_1(w))}=\frac{p(e_2(w))}{p(e_1(w))}\]反復度は,ある文書に単語$w$が1回以上含まれていることを条件とした時にある文書に単語$w$が2回以上含まれる条件付き確率である.語が文書に出現する確率と語が文書に2回以上出現する確率は,コーパス全体で考えると文書頻度を用いて推定することができる.コーパス全体である語$w$を含む文書の数を$df(w)$,2回以上含む文書の数を$df_2(w)$とすると,反復度は次のように推定することができる.\[adaptation(w)=\frac{p(e_2(w))}{p(e_1(w))}\approx\frac{df_2(w)}{df(w)}\]文献\cite{TakedaAndUmemura2001}では,キーワードに対して反復度がある範囲の値に集中していて,出現確率よりも高い値を持つという特徴があることが報告されている.さらに,キーワードらしさの単位境界を特定するための特徴量としても有用であると報告されている.そして,これらの反復度の分析結果から,単位の特定とキーワードの特定をし,キーワード抽出を行うシステムが実現されている.\subsubsection{3.1.2反復度によるキーワード抽出の手順}この手順は文献\cite{TakedaAndUmemura2001}の方法であるが,提案する手法でも同じ手順を使う.はじめにキーワード抽出の元となる文字列をなるべくキーワードらしい文字列になるように分割する.この単位分割のために用いるキーワードらしさは反復度を用いて次のように定義する.~\[Score_{adaptaion}(x_i)=\cases{-\infty&$\cdots\qquaddf_2<3$\cr\log0.5&$\cdots\quaddf_2\geq3,df/N>0.5$\cr\logdf_2(x_i)/df(x_i)&$\cdots\quaddf_2\geq3,df/N\leq0.5$\cr}\]~反復度はサンプル数が少数の場合($df_2<3$の領域),不安定になる.これに対処するためにスコアを$-\infty$として単純に切り捨て処理を行っている.また,高頻度の文字列($df_2\geq3,df/N>0.5$の領域)に対して反復度は語の種類の分別性を失うため,スコアを$\log0.5$に押さえることによって,キーワードらしいと特定されるのを避けている.このスコアを使用して,キーワード抽出元の文字列におけるすべての分割によってできるすべての部分文字列に対してスコアを計算する.そして,ビタビアルゴリズムを用いて,文字列全体におけるスコアが最大となる分割を求める.これは長さ$n$の文字列に対して$O(n^2)$の計算量のアルゴリズムである.\[viterbi\_adaptation=MAXARG_X\left(\sum_{X=\{x_1,x_2,\cdots,x_n\}}Score_{adaptation}(x_i)\right)\]次にキーワードか否か判定を行い,キーワードらしくないものを除去する.$l$を文字列の長さとし,キーワードと判定する条件を次のように定義する.\[keyword=\left\{x|0.00005<\frac{df(x_i)}{N}<0.1,1<l\right\}\]\subsection{文書拡張によるキーワード抽出法}\subsubsection{3.2.1文書拡張の妥当性}反復度を用いたキーワード抽出には,複合語が一般的なキーワードに分割され,情報検索に役立つ専門的な長いキーワードが抽出できないという問題がある.我々はこの主な原因として,文字列の反復出現が少なく,反復度をうまく推定できていないと分析した.本研究では長いキーワードの反復出現を捕らえる方法として,単一文書ではなく,類似する複数の文書への出現を考慮した.語の出現確率は,単一の文書に比べて,複数の文書のほうが高いからである.また,言及する内容によって語の出現が左右されるのならば,似たような文書では,語の出現も似通っているのではないかということを仮定している.したがって本論文では,単一文書を複数文書で拡張した拡張文書集合において,キーワード抽出を行うことを提案する.すなわち,文書をそのまま利用するのではなくて,前処理をしたのち文献\cite{TakedaAndUmemura2001}に提案される反復度を用いたキーワード抽出システムと同じ処理を行う.\subsubsection{3.2.2拡張文書集合の作成}拡張文書集合を作成するために,既存の情報検索システムを使用した.その情報検索システムは,検索質問の文字列をbigramに分割し,そのスコアの合計からコーパス内の類似する文書を検索するものである.ここで,bigramとは文字列の先頭から1文字ずつ移動しながら得た2文字の集合とする.例えば,文字列が「いろはに」であったなら,bigramは「いろ,ろは,はに」とする.スコアについては,情報検索によく使われるtfidf法をもとにし,それを文書の長さ($Document\quadLength$)のルートで割って文書長で正規化したものを使用する.次にその式を示す.\clearpage\[score=\frac{tf\cdotidf}{\sqrt{Document\quadLength}}\]\begin{itemize}\item$tf$:文書中の単語の頻度(termfrequency)\item$idf$:単語の出現する文書数が少ないことを重要と考える指標(inversedocumentfrequency)\item$Document\quadLength$:文書の長さ(文字数)\end{itemize}このような情報検索システムを用いて類似する文書を検索する.ここで類似する文書を元文書に結合する文書数を{\bf拡張数}と定義する.例えば,拡張数が2であれば,類似文書を2文書使って元文書を拡張する.この拡張数に応じて拡張文書集合を作成する.その手順を図~\ref{fig:mk-ex-corpus}に示す.\begin{figure}[t]\begin{center}\includegraphics[width=14cm]{mk-ex-corpus.eps}\end{center}\caption{拡張文書集合の作成}\label{fig:mk-ex-corpus}\vspace{-2\baselineskip}\end{figure}\subsubsection{3.2.3文書拡張によるキーワード抽出の手順}3.2.2節で述べたように,コーパスを文書拡張して拡張文書集合を作成する.この拡張文書集合において,反復度を用いてキーワード抽出を行う.つまり,従来法において,反復度を計算するコーパスを拡張文書集合に置き換えてキーワード抽出を行う. \section{文書拡張による反復度と出現確率のヒストグラム} 文書拡張による反復度と出現確率の変化について分析する.この調査はキーワードの反復度と出現確率をヒストグラムにすることで,その変化を視覚化することが目的である.調査に使用するコーパスとしてNTCIR-1Jコレクション\cite{Kando2001}を用いた.このコーパスは,情報検索問題における性能評価を主眼としたテストコレクションである.その内容は,学会発表データベースの一部で日本語論文抄録である.そして,それぞれの文書には,その文書の著者が付けたキーワードが付属している.全文書数は332,921件で,一文書は100〜400文字程度である.その構造を図~\ref{fig:corpus}に示す.\begin{figure}[t]\centering\begin{screen}\begin{verbatim}<REC><ACCN>gakkai-0000000001</ACCN><TITL>電気回路演習用CAIとその改良</TITL><ABST>大学等での基礎的な電気回路演習を支援するCAIソフトウェアとその改良について述べている.CAIはコンピュータが出題される回路を学習者各人のレベルに応じて自動的に作成すること,解答を数式で入力することが大きな特長である.また,誤った解答に対しては,原因の検討を容易にするメッセージが・・・の改良を行った.</ABST><KYWD>電気回路//演習</KYWD></REC>\end{verbatim}\end{screen}\caption{NTCIRコーパスの構造(一文書)}\label{fig:corpus}\vspace{20pt}\begin{center}\includegraphics[width=12cm]{ex-df2df.eps}\end{center}\caption{著者キーワードの反復度ヒストグラム}\label{fig:ex-df2df}\end{figure}このコーパスの先頭から500件の文書に付属する著者キーワードについて,従来法と文書拡張による手法で反復度と出現確率を調査した.その際,従来法はそのままのコーパス,文書拡張による手法は拡張数5の拡張文書集合を使用し,それらの先頭から50000件を反復度の推定コーパスとして用いた.図~\ref{fig:ex-df2df}に反復度ヒストグラム,図~\ref{fig:ex-dfn}に出現確率ヒストグラムを示す.このヒストグラムの縦軸はキーワード数,横軸は図~\ref{fig:ex-df2df}が$df_2/df$,図~\ref{fig:ex-dfn}が$df/N$である.ただし,出現確率ヒストグラムについては,グラフの見易さの面から縦軸がキーワード数+1を対数で表示する.500件に付属するキーワード総数は729個である.\begin{figure}[t]\begin{center}\includegraphics[width=12cm]{ex-dfn-plus1.eps}\end{center}\caption{著者キーワードの出現確率ヒストグラム}\label{fig:ex-dfn}\end{figure}図~\ref{fig:ex-df2df}のグラフから,文書拡張により反復度が高い値を持つことがわかる.また,図~\ref{fig:ex-dfn}のグラフにおいても文書拡張により出現確率が高い値を持つことがわかる.出現確率については,文書拡張という手法を考えると高くなることが容易に想像できる.これをさらに著者キーワードごとに調査した結果,文書拡張による手法では,著者キーワードの82\%において反復度($df_2/df$)が,すべての著者キーワードにおいて出現確率が,従来法以上の値を示した.これは,従来法において文書中でキーワードの反復出現が少なかったが,文書数に上限があるとき文書拡張により反復出現が多くなることから,文書拡張がキーワード判定に有用であることが示唆される.拡張文書における反復度も元文書における反復度と同様な情報を含み,値がより増幅されていると推定できる. \section{キーワード抽出実験} 従来法のキーワード抽出と文書拡張によるキーワード抽出結果の比較実験を行う.実験に使用するコーパスは4節で使用したNTCIR1-Jコレクションを用いる.\subsection{著者キーワード再現率の比較と考察}著者が付与した論文のキーワードを正解として判定した再現率を{\bf著者キーワード再現率}と呼ぶことにする.これは,著者の付与したキーワードが,システムが出力したもののなかに含まれる確率の推定値である.従来法と文書拡張による手法で著者キーワード再現率の比較を行った.この調査では,コーパスそのままのoriginal,コーパスの各文書を単純に半分の文字数でカットしたコーパスhalf,各拡張数(1文書に結合する文書数)の拡張文書集合expansion\_1〜5,これらの先頭から5万件を反復度の推定コーパスとして,著者キーワード再現率を調査した.キーワード抽出元の文書は1万件を単位にして,ランダムに選んだ5つに対してキーワード抽出を行った.その結果を図~\ref{fig:re-uniq}に示す.ここで,originalは従来法のNTCIRのコーパス,halfはoriginalの文書長を半分にしたコーパス,expansion1〜5は拡張数1〜5の拡張文書集合をそれぞれ表す.\begin{figure}[b]\begin{center}\includegraphics[width=12cm]{re-uniq.eps}\end{center}\caption{著者キーワード再現率}\label{fig:re-uniq}\end{figure}図~\ref{fig:re-uniq}の結果から,文書拡張して拡張数が増えると再現率が上昇することがわかる.従来法においては長い文字列の反復度の推定がうまく働いていないという問題があった.しかし,文書拡張により反復度の推定がうまく働き,再現率が改善された.特に従来法では,$df_2(w)<3$となる低頻度の文字列に対して,文書を特徴付けるキーワードではないと判断していた.$df_2(w)<3$となる文字列は非常に多く,それが反復度の推定に影響を与えていたのである.4節で述べたように,文書拡張により著者キーワードの$df_2(w)$値は大きくなり,反復度をうまく推定できるようになった.その結果,再現率が上昇した.\begin{figure}[p]\begin{center}\includegraphics[width=12cm]{re-doc-org.eps}\end{center}\caption{originalの文献数に対する再現率}\label{fig:re-doc-org}\vspace{1\baselineskip}\begin{center}\includegraphics[width=12cm]{re-doc-ex2.eps}\end{center}\caption{expansion\_2の文献数に対する再現率}\label{fig:re-doc-ex2}\end{figure}次に,反復度を推定するコーパスの文献数に対する著者キーワード再現率をoriginalとexpansion\_2に限って図~\ref{fig:re-doc-org},\ref{fig:re-doc-ex2}にそれぞれ示す.設定や入力などは今までと同一である.図~\ref{fig:re-doc-org}と図~\ref{fig:re-doc-ex2}のグラフから,文書拡張にかかわりなく文献数が増えると再現率が大きくなることがわかる.\subsection{キーワード抽出結果の比較と考察}キーワードの抽出結果について従来法と文書拡張による手法でどのような変化があるか調査を行った.それぞれの抽出結果を表~\ref{tab:out-key}に示す.ここで,角括弧に囲まれた文字列がキーワードとして抽出された文字列である.調査における反復度の推定コーパスは,4節の反復度と出現確率のヒストグラムの調査と同じ設定である.\begin{table}[b]\caption[extraction]{キーワード抽出結果}\begin{center}\begin{tabular}{|l|}\hline従来法のキーワード抽出結果\\\hline[クラウン][ガラス][マイクロレンズ]を[炭酸ガスレーザーの][照射]により加工し,\\その光学的特性を結像法により評価すると[炭酸ガスレーザーの][照射]条件に依存し\\て樽型の[歪曲][収差]と系巻型の[歪曲][収差]が表れることが判明した.\\\hline文書拡張によるキーワード抽出結果\\\hline[クラウンガラスマイクロレンズ]を[炭酸ガスレーザーの照射]により加工し,[その光]\\学的特性を[結像法により]評価すると[炭酸ガスレーザーの照射]条件に依存して[樽\\型の歪曲収差][と系巻型]の[歪曲収差]が表れることが判明した.\\\hline\end{tabular}\label{tab:out-key}\end{center}\end{table}表~\ref{tab:out-key}からわかるように,従来法では[クラウン][ガラス][マイクロレンズ]のように分割されて抽出されていたキーワードが,文書拡張による手法では分割されずに[クラウンガラスマイクロレンズ]として抽出されている.これは文書拡張により,従来法より複合語がうまく抽出できるようになったということを示す.さらに,従来法では抽出されていなかった[結像法により]というキーワードが文書拡張による手法では抽出された.しかし,[により]という助詞的な文字も一緒に抽出された.これは文書拡張により,[結像法]というキーワードが文章中で[により]という助詞的文字と一緒に使われる頻度が多くなり[により]までを含めてキーワードとして判定されてしまうためである.また,文書拡張による手法では[炭酸ガスレーザーの照射]や[樽型の歪曲収差]のように従来法ではほとんど見られなかったフレーズ的なキーワードが抽出できた.このように抽出される理由も助詞がついて抽出されてしまう理由と同様である.フレーズ的なキーワードの是非は,応用によって異なる.しかし,フレーズ的キーワードが重宝される用途は確実にある.例えば,フレーズ的キーワードの方が人間には直感的でその内容を理解しやすいものとする.また,文書要約においてフレーズ的キーワード単位で要約を考えることもできる.これらの用途において,反復度が有益な尺度になる.そして,複合語とフレーズ的キーワードは,その分野に特化したキーワードと考えることもでき,文書の重要語を抽出できているという見方をできる結果の一つといえる.\subsection{精度比較と考察}文書拡張により精度にどのような変化があるか調査を行った.従来法と文書拡張による手法のキーワード抽出結果の両方から,ランダムに500個のキーワードを選び出し,正しく抽出されているか調査した.従来法はそのままのコーパス,文書拡張による手法は拡張数2で作成した拡張文書集合expansion\_2を使用し,それらの先頭から10000件を反復度の推定コーパスとして用いた.キーワードの正解判定は人間が行い,キーワードの判定基準は,語を単位として意味のわかる自立語および自立語のみで構成された語とした.調査は,キーワード境界で厳密に正解と判断する場合と助詞や読点を含んでいても正解と判断する場合の2通りで行った.これらの正解不正解の判定例を表~\ref{tab:keyword-judge}に示す.キーワード抽出システムの各種閾値の設定は従来法と文書拡張による手法のそれぞれで良い結果を与える値に設定し,精度を調査した結果を表~\ref{tab:precision}に示す.\begin{table}[b]\centering\caption{キーワード正解不正解判定例}\begin{tabular}{l|c|c}正解判定&正解&不正解\\\hline(a)判定&形態素解析&形態素解析を\\&意味&意味する\\&システム&システムの構築\\&特長&その特長\\&過冷却液体窒素&過冷却液体窒素の\\\hline(b)判定&形態素解析&形態素解析を行\\&意味を&意味を知る\\&システムは,&システムは,始めに\\&の設計&システムの設計\\&辞書として&辞書として使う\\&,ギャップと&,ギャップと考え\\\end{tabular}\begin{tabular}{cl}※&(a):キーワード境界を厳密に判断\\&(b):助詞や読点を含んでもキーワードと判断\\\end{tabular}\label{tab:keyword-judge}\end{table}\begin{table}[t]\centering\caption{精度比較}\begin{tabular}{l|cc}手法&(a)精度&(b)精度\\\hline従来法&69.0&76.6\\文書拡張手法&69.4&83.6\\\end{tabular}\\\begin{tabular}{cl}※&(a):キーワード境界を厳密に判断\\&(b):助詞や読点を含んでもキーワードと判断\\\end{tabular}\label{tab:precision}\end{table}表~\ref{tab:precision}の結果から,従来法と文書拡張による手法との間には精度の違いがあまりないことがわかる.ただし,助詞や読点を含んでいる場合も正解と判断した場合は7%の精度改善が得られた.これは文書拡張によりキーワードに助詞や読点が付属しやすくなっているということを考慮して正解判定を行ったために,精度が改善した.\subsection{著者キーワード精度の比較と考察}著者が付与した論文のキーワードを正解として判定した精度を{\bf著者キーワード精度}と呼ぶことにする.これは,システムが出力したキーワードが著者の付与したキーワードに含まれる確率の推定値である.5.1節と同様に,従来法と文書拡張による著者キーワード精度の比較を行った.調査は5.1節と同様な設定で行った.ただし,文書拡張による手法において,助詞や読点が付属して抽出される傾向がある.これは従来法においても同様な傾向が少なからずある.しかし,本論文は助詞や読点が付属しないように閾値を設定及び対処法を講じることが目的ではないので,著者キーワードの前後に助詞や読点,および,記号(括弧など)が付属しても正解と判定するものとした.その結果を図~\ref{fig:pre-overlap}に示す.ここで,orginalは従来法のNTCIRのコーパス,halfはorginalの文書長を半分にしたコーパス,expansion1〜5は拡張数1〜5で作成した拡張文書集合を表す.\begin{figure}[t]\begin{center}\includegraphics[width=12cm]{pre-overlap.eps}\end{center}\caption{著者キーワード精度}\label{fig:pre-overlap}\end{figure}図~\ref{fig:pre-overlap}の結果から,文書拡張して拡張数が増えると著者キーワード精度がやや低下することがわかる.これは,5.2節で述べたように,従来法では文書拡張による手法に比べて多くの複合語が分割され,分割されたキーワードそれぞれが著者キーワードの正解数を増加するためである.例えば,従来法では[クラウンガラスマイクロレンズ]が分割され[クラウン][ガラス][マイクロレンズ]のように抽出される.このとき,[ガラス],[マイクロレンズ],[クラウンガラスマイクロレンズ]が著者キーワードに含まれており,分割されると正解数が増えることになる.その結果,拡張数が増えると著者キーワード精度が少し低下する.しかし,複合語を正確に抽出するという観点では[クラウンガラスマイクロレンズ]として抽出できる方が望ましい上に,分野をよく表していて人間が直感的にわかるキーワードとして考えれば,文書拡張の有用性の一つと言える.精度が低下するもう1つの理由としては,5.2節で述べたように,文書拡張による手法では,フレーズ的キーワードが抽出される.これは複数の概念を含むキーワードである.複数の概念を含むことについての是非は粒度決定の問題なので,ここでは一概に言えない.これを正解判定できていない.しかし,複数の概念を含むキーワードが取れたほうが有用な応用もある.次に,反復度を推定するコーパスの文献数に対する著者キーワード精度をoriginalとexpansion\_2に限って図~\ref{fig:pre-doc-org},\ref{fig:pre-doc-ex2}にそれぞれ示す.実験条件は今までと同一とする.結果より,文献数が少ないとき若干精度が低い傾向があるが,拡張数によらず精度は一定であるということがわかる.\begin{figure}[p]\begin{center}\includegraphics[width=12cm]{pre-doc-org.eps}\end{center}\caption{originalの文献数に対する精度}\label{fig:pre-doc-org}\vspace{\baselineskip}\begin{center}\includegraphics[width=12cm]{pre-doc-ex2.eps}\end{center}\caption{expansion\_2の文献数に対する精度}\label{fig:pre-doc-ex2}\end{figure}\subsection{著者キーワードF値の比較}5.1と5.4節の著者キーワードの再現率と精度の結果より,F値を計算した.F値は再現率と精度の二つを統合的に考える尺度として使用するものである.図~\ref{fig:re-uniq}と図~\ref{fig:pre-overlap}の結果より計算した著者キーワードのF値を図~\ref{fig:f-ex}示す.図~\ref{fig:re-doc-org}と図~\ref{fig:pre-doc-org}の結果より計算したoriginalの文献数に対するF値を図~\ref{fig:f-doc-org}に示す.図~\ref{fig:re-doc-ex2}と図~\ref{fig:pre-doc-ex2}の結果より計算した文献数に対するF値を図~\ref{fig:f-doc-ex2}に示す.\begin{figure}[p]\begin{center}\includegraphics[width=12cm]{f-ex.eps}\end{center}\caption{著者キーワードのF値}\label{fig:f-ex}\vspace{\baselineskip}\begin{center}\includegraphics[width=12cm]{f-doc-org.eps}\end{center}\caption{originalの文献数に対するF値}\label{fig:f-doc-org}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=12cm]{f-doc-ex2.eps}\end{center}\caption{expansion\_2の文献数に対するF値}\label{fig:f-doc-ex2}\end{figure}図~\ref{fig:f-ex}の結果から,文書拡張すると著者キーワードのF値も大きくなり,その後一定となることがわかる.図~\ref{fig:f-doc-org},~\ref{fig:f-doc-ex2}の結果からは,文献数が増えるとoriginalもexpansion\_2もF値が大きくなることがわかる.これらの結果から,定量的に性能が向上することが示せた. \section{先行研究との比較} 先行研究\cite{Church2000}でも,文書拡張を行った場合での反復度について述べられているが,ここでは,分析する文書の数が限られているという条件の設定はなされておらず,拡張文書における反復度は,文書の反復度よりも値が低いことが報告されている.本論文では,実際の応用の局面で想定される文書数の不足に注目した.その場合には,Churchの報告と異なり,拡張文書における反復度のほうが,通常の反復度よりも高い値となり,積極的に利用できて有用であることを報告したことが異なる.本論文において用いた著者キーワードは,文書の著者が付与したその文書の特徴を表すキーワードである.この著者キーワードには一般的なキーワードも含まれるが,専門用語とされるキーワードも多く含まれている.専門用語は名詞(単名詞と複合名詞)であることが多く,その多くは複合語である.このことから,複合語の分割を改善したことにより専門用語を多く抽出できるようになったと考えることもできる.専門用語抽出の先行研究として,出現頻度と連接頻度に基づく専門用語抽出\cite{Nakagawa2003}がある.この先行研究では専門用語抽出のために形態素解析を行う必要があるのに対し,本論文で用いたキーワード抽出法はコーパスのみで良いところが異なる.キーワードのスコア付けの違いについては先行研究が単語の出現頻度と連接統計情報を利用するのに対し,本論文ではある条件を満たす文書の出現の統計量を用いる.両手法とも抽出に利用する統計量が多くなるほど再現率が上昇するが,先行研究は統計量が多くなるほど精度が低下する問題がある.この点で考えると本論文が提案する手法は,精度がほぼ一定になるので安定していると言える.この先行研究\cite{Nakagawa2003}に関連した専門用語(キーワード)自動抽出用Perlモジュール“TermExtract”がWebページ(http://www.r.dl.itc.u-tokyo.ac.jp/~nakagawa/resource-index.html/)上で公開されている.このTermExtractは,形態素解析した結果を入力とし,キーワード候補をランキング順に出力する.このモジュールを使い,実際に我々と同じ入力を与え,著者キーワードからなる同じ正解集合を用いて性能の比較を行った.TermExtractの抽出にかかわる設定はデフォルトのままを用いた.また,TermExtractではキーワード候補ランキングの何位までをキーワードとして重要とするか,つまりキーワードとするかでその性能が左右される.そこで正解集合が入力1万件に対して著者キーワード数約1万3千個となるので,入力1万件に対するキーワード候補約8万個のうちランキング上位1万3千個を出力とした.入力はランダムに1万件単位で与えた.その結果を表~\ref{tab:research}に示す.\begin{table}[t]\centering\caption{先行研究との比較}\begin{tabular}{l|l|c|c|c|c}\raisebox{-1.8ex}[0pt][0pt]{指標}&\raisebox{-1.8ex}[0pt][0pt]{InputDocument}&\multicolumn{2}{c|}{文書拡張システム[\%]}&\multicolumn{2}{c}{先行研究システム[\%]}\\\cline{3-6}&&\multicolumn{1}{c|}{評価値}&\multicolumn{1}{|c|}{平均}&\multicolumn{1}{c|}{評価値}&\multicolumn{1}{|c}{平均}\\\hline&doc\_50001-60000&28.79&&23.51&\\&doc\_70001-80000&12.88&&26.68&\\recall&doc\_100001-110000&18.76&19.12&21.48&23.23\\&doc\_150001-160000&19.82&&20.69&\\&doc\_180001-190000&15.34&&23.80\\\hline&doc\_50001-60000&42.43&&27.26&\\&doc\_70001-80000&48.08&&26.49&\\precision&doc\_100001-110000&45.86&45.54&28.62&28.39\\&doc\_150001-160000&42.89&&28.79&\\&doc\_180001-190000&48.46&&30.77&\\\hline&doc\_50001-60000&34.31&&25.25&\\&doc\_70001-80000&20.31&&26.59&\\f-measure&doc\_100001-110000&26.62&26.33&24.54&25.46\\&doc\_150001-160000&27.11&&24.08&\\&doc\_180001-190000&23.31&&26.84&\\\end{tabular}\label{tab:research}\end{table}表~\ref{tab:research}の結果からわかるように,本文書拡張システムと専門用語抽出システムは,ほぼ近い性能だった.2つのシステムの動作原理がまったく異なるので性能の正確な比較は行えないが,この結果は本論文が提案する手法の効果を表す一つの目安として考えることができる. \section{結論} 拡張文書における反復度を分析し,その上で,反復度を用いたキーワード抽出法において,コーパスを文書拡張する手法を提案した.5.1節より,提案法には,文書数に上限があるとき文書拡張して拡張数が増えると著者キーワード再現率も上昇するという効果があった.そのキーワード抽出結果を見ると5.2節より,これまで取れていなかった多くの複合語が分割されずに抽出できることがあった.そして,著者キーワードを含むフレーズ的キーワードのような分野に特化したキーワードを抽出できるという結果が得られた.また,5.3節においては従来法と同程度のキーワード抽出精度が得られており,5.4節では,拡張数が増えると著者キーワード精度が若干低下するという結果が得られた.結論として,キーワード抽出において文書拡張を行うことは,キーワード抽出再現率を上昇させる効果を持ち,長い複合語を抽出できるようになる効果がある.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた梅村研究室の方々に感謝いたします.データを心よく提供していただいた関係各社に深く感謝いたします.また有用なコメントを頂いた査読者の方々に敬意を表します.本研究は文部科学省21世紀COEプログラム「インテリジェントヒューマンセンシング」の援助により行われました.\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{Church}{Church}{2000}]{Church2000}Church,K.~W.\BBOP2000\BBCP.\newblock\BBOQEmpiricalEstimatesofAdaptation:ThechanceofTwoNoriegasiscloserto$p/2$than$p^2$\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics(COLING'00)},\mbox{\BPGS\173--179}.\bibitem[\protect\BCAY{長尾真}{長尾真}{1995}]{Iwanami1995}長尾真\JED\\BBOP1995\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\newblock岩波講座ソフトウェア科学.\bibitem[\protect\BCAY{Kando}{Kando}{2001}]{Kando2001}Kando,N.\BBOP2001\BBCP.\newblock\BBOQOverviewoftheSecondNTCIRWorkshop\BBCQ\\newblockIn{\BemProceedingsoftheSecond\mbox{NTCIR}WorkshoponResearchinChinese\&JapaneseTextRetrievalandTextSummarization},\mbox{\BPGS\35--44}.\bibitem[\protect\BCAY{松村\JBA大澤\JBA石塚}{松村\Jetal}{2002a}]{Matumura2002a}松村真宏\JBA大澤幸生\JBA石塚満\BBOP2002a\BBCP.\newblock\JBOQSmallWorld構造に基づく文書からのキーワード抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1825--1833}.\bibitem[\protect\BCAY{松村\JBA大澤\JBA石塚}{松村\Jetal}{2002b}]{Matumura2002b}松村真宏\JBA大澤幸生\JBA石塚満\BBOP2002b\BBCP.\newblock\JBOQ語の活性度に基づくキーワード抽出法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(4-F),\mbox{\BPGS\398--406}.\bibitem[\protect\BCAY{森\JBA松尾\JBA石塚}{森\Jetal}{2005}]{Mori2005}森純一郎\JBA松尾豊\JBA石塚満\BBOP2005\BBCP.\newblock\JBOQWebからの人物に関するキーワード抽出\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf20}(5-C),\mbox{\BPGS\337--345}.\bibitem[\protect\BCAY{中川\JBA森\JBA松崎\JBA川上}{中川\Jetal}{1997}]{Nakagawa1997}中川裕志\JBA森辰則\JBA松崎知美\JBA川上大介\BBOP1997\BBCP.\newblock\JBOQ日本語マニュアル文における名詞間の連接情報を用いたハイパーテキスト化のための索引の抽出\JBCQ\\newblock\Jem{情報処理学会},{\Bbf38}(10),\mbox{\BPGS\1986--1994}.\bibitem[\protect\BCAY{中川裕志\JBA森辰則\JBA湯本紘彰}{中川裕志\Jetal}{2003}]{Nakagawa2003}中川裕志\JBA森辰則\JBA湯本紘彰\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\27--45}.\bibitem[\protect\BCAY{武田\JBA梅村}{武田\JBA梅村}{2001}]{TakedaAndUmemura2001}武田善行\JBA梅村恭司\BBOP2001\BBCP.\newblock\JBOQキーワード抽出を実現する文書頻度分析\JBCQ\\newblock\Jem{計量国語学会},{\Bbf23}(2),\mbox{\BPGS\65--90}.\bibitem[\protect\BCAY{Takeda\BBA\Umemura}{Takeda\BBA\Umemura}{2004}]{TakedaAndUmemura2004}Takeda,Y.\BBACOMMA\\BBA\Umemura,K.\BBOP2004\BBCP.\newblock\BBOQSelectingindexingstringsusingadaptation\BBCQ\\newblockIn{\BemThe25thinternationalACMSIGIRconferenceonresearchanddevelopmentininformationretrieval},\mbox{\BPGS\42--43}.\bibitem[\protect\BCAY{徳永健伸}{徳永健伸}{1999}]{Tokunaga1999}徳永健伸\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理}.\newblock東京大学出版会.\newblock辻井潤一.\end{thebibliography}\begin{biography}\bioauthor{長町健太}{2005年豊橋技術科学大学工学部情報工学課程卒業.同年,同大学院入学,現在に至る.}\bioauthor{武田善行}{2000年豊橋技術科学大学工学部情報工学課程卒業.2002年同大学大学院工学研究科情報工学専攻修士課程修了.2005年同大学大学院工学研究科電子・情報工学専攻博士課程修了.同年,同大学工学部情報工学系教務職員.同年,東京大学大学院工学系研究科附属総合研究機構助手,現在に至る.情報処理学会会員.}\bioauthor{梅村恭司}{1983年東京大学大学院工学系研究系情報工学専攻修士課程終了.博士(工学).同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,2003年教授,2005年インテリジェントセンシングシステムリサーチセンター兼務.現在に至る.システムプログラム,記号処理の研究に従事.ACM,ソフトウェア科学会,電子情報通信学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
V13N04-02
\section{まえがき} 確率的言語モデルは,文字列を出力とする言語処理において幅広く用いられている.音声認識システム\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}の多くが,解選択において,音響モデルとともに確率的言語モデルを参照する.文字誤り訂正\cite{Context-Based.Spelling.Correction.for.Japanese.OCR}や仮名漢字変換\cite{確率的モデルによる仮名漢字変換}においても,確率的言語モデルを用いる方法が提案されている.さらに,機械翻訳\cite{A.Statistical.Approach.to.Machine.Translation}や文書の整形\cite{講演の書き起こしに対する統計的手法を用いた文体の整形}などにも応用されている.多くの確率的言語モデルは単語や単語列の頻度に基づいており,これは正しく単語に分割された例文(単語分割済みコーパス)に対して計数される.この単語分割済みコーパスは,一般的と考えられる分野においては既に利用可能となっているが,新たに確率的言語モデルを用いる分野(医療現場やコールセンターでの音声認識など)の言語資源としては,単語に分割されていない例文(生コーパス)やその分野の単語リストのみが利用可能であることが多い.このような状況の下での一般的な対処は,単語リストを語彙に加えた自動単語分割システム\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}により生コーパスの各文を単語に分割し,可能な限り多くの文の分割結果を人手で修正し,自動解析の結果と合わせて単語分割済みコーパスとすることである.単語分割の修正量は,多ければ多いほど統計結果の信頼性が増し,確率的言語モデルの能力は高くなる.しかしながら,単語分割の修正作業にはコストや時間がかかるので,コーパスの一部分を修正の対象とし,残りの部分に関しては自動分割の結果をそのまま用いるということがしばしば行なわれる.文単位で修正する場合には,文法の専門家でさえも正確な単語分割が容易でない機能語列などの箇所が必然的に含まれることになるが,このようなの箇所での分割方針を作業者に徹底することは非常に困難であり,作業効率の著しい低下を招く.加えて,文単位で順に修正していくことが,限られた作業量を割り当てる最良の方法であるかということも疑問である\cite{Unsupervised.and.Active.Learning.in.Automatic.Speech.Recognition.For.Call.Classification}.本論文では,コーパスの修正を一文単位ではなく単語単位とし,修正箇所を単語リストなどで与えられる適応分野に特有の単語の周辺に集中することを提案する.これにより,上述のような困難を回避することが可能となり,さらに,適応分野に特有の単語の統計的な振る舞いを捕捉するという,適応分野のコーパスを利用する本来の目的にコーパス修正の作業を集中することが可能となる.このようにして得られるコーパスは一部分の単語境界情報のみが正確である文を含む.このようなコーパスから有限の語彙に対して確率的言語モデルを推定するために,本論文では,生コーパスから無限の語彙に対して確率的言語モデルを推定する方法\cite{Word.N-gram.Probability.Estimation.From.A.Japanese.Raw.Corpus}を語彙が有限の場合に応用する方法について述べる.実験では,生コーパスの単語境界の人手による修正の程度や方法を複数用意し,その結果得られるコーパスから推定される確率的言語モデルの予測力やそれに基づく仮名漢字変換の精度を計算した.実験の結果,単語リストの各単語に対して2箇所の出現のみを人手でマークする方法では,単語数の割合にして生コーパス全体の5.22\%の修正により,単語数の割合にして生コーパス全体の45.00\%の文を文単位で修正した場合と同程度の仮名漢字変換の精度を達成することができた.また,単語リストの各単語に対して全ての出現箇所を人手でチェックすることで,コーパス全体に対して自動分割の結果を人手で修正するのと同程度の予測力と変換精度を達成できた.この結果から,適応分野に特有の語彙の出現箇所に修正のコストを集中することにより,少ない作業量で効率良く確率的言語モデルを分野適応できるといえる. \section{確率的言語モデル} \label{section:LM}自然言語処理における確率的言語モデルの役割は,与えられた文字列がある言語の文である尤度を数値化することである.確率的言語モデルに基づく言語処理は,候補から解を選択する際にこの尤度を参照する.自動単語分割は解析系の一例であり,文字列が与えられると尤度が最大になる単語の列を計算する.認識系の代表例の音声認識では,音響信号列を入力として,尤度が最大となる文字列を算出する際に,音響モデルと併せて確率的言語モデルを参照する.\subsection{確率的言語モデル}最も一般的な言語モデルは,単語$w$を単位とする$n$-gramモデル$M_{w,n}$である.このモデルは,文を単語列$\Bdma{w}_{1}^{h}=\Conc{w}{h}$($h$は単語数)とみなし,これらを文頭から順に予測する\footnote{以下では,太字は列を表すとし,必要に応じて最初の要素の添字を右下に,最後の要素の添字を右上に書くこととする.}.\begin{displaymath}M_{w,n}(\Bdma{w}_{1}^{h})=\prod_{i=1}^{h+1}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})\end{displaymath}この式の中の$w_{i}\;(i\leq0)$は,文頭に対応する特別な記号であり,$w_{h+1}$は,文末に対応する特別な記号である.完全な語彙を定義することは不可能であるから,未知語を表わす特別な記号$\UW$を用意する.未知語の予測の際は,まず,単語$n$-gramモデルにより$\UW$を予測し,さらにその表記を文字$x$の列$\Bdma{x}_{1}^{h'}$($h'$は文字数)とみなし,文字を単位とする$n$-gramモデル$M_{x,n}$によって以下のように予測する.\begin{displaymath}M_{x,n}(\Bdma{x}_{1}^{h'})=\prod_{i=1}^{h'+1}P(x_{i}|\Bdma{x}_{i-n+1}^{i-1})\end{displaymath}この式の中の$x_{i}\;(i\leq0)$は,語頭に対応する特別な記号であり,$x_{h'+1}$は,語末に対応する特別な記号である.したがって,$w_{i}$が未知語の場合には以下のように予測される\footnote{正確には,履歴$\Bdma{w}_{i-n+1}^{i-1}$に含まれるすべての未知語は$\UW$に置き換えられ同一視される.}.\begin{displaymath}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})=M_{x,n}(w_{i})P(\UW|\Bdma{w}_{i-n+1}^{i-1})\end{displaymath}\subsection{応用}\label{subsection:word-segmenter}確率的言語モデルの応用は,自然言語認識と自然言語解析に大別できる.認識系の代表例は,音声認識である.確率的言語モデルを用いる音声認識では,以下の式のように,音響特徴量の列$\Bdma{s}$を入力とし,語彙${\calW}_{k}$のクリーネ閉包(空列を含む任意長の文字列の集合)のうち,確率最大となる要素(単語列)$\Bdma{w}$を出力する.\begin{displaymath}\hat{\Bdma{w}}=\argmax_{\Bdma{w}\in{\calW}_{k}^{*}}P(\Bdma{s}|\Bdma{w})P(\Bdma{w})\end{displaymath}この式における$P(\Bdma{w})$が確率的言語モデルである.確率的言語モデルの予測力と認識系の精度との関係は,解析的に導出できるような確固とした関係ではない.音声認識に対して実験的に得られた関係として,西村ら\cite{単語を認識単位とした日本語ディクテーションシステム}は相関係数0.6を報告している.解析系の代表例は,単語分割(と品詞付与)である.確率的言語モデルによる単語分割\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}は,以下の式が示すように,ある言語の文字列$\Bdma{x}$を入力とし,生成確率が最大となる単語列$\Bdma{w}$を出力する.\begin{displaymath}\hat{\Bdma{w}}=\argmax_{\Bdma{w}=\Bdma{x}}P(\Bdma{w})\end{displaymath}ここで$\Bdma{w}=\Bdma{x}$は,単語列$\Bdma{w}$を文字列とみなした場合,入力$\Bdma{x}$と等しいことを表す. \section{単語リストと生コーパスによる分野適応} \label{section:adaptation}この節では,適応対象の分野の単語リストと,それらが出現する生コーパスが利用可能である場合に,それらから確率的言語モデルを推定する方法を述べる.\subsection{確率的単語分割コーパスからの単語$n$-gram確率の推定}単語分割済みコーパスは,各文字間に単語境界が存在するか否かの情報が人手により付与されている.生コーパスはこの情報を持たないが,各文字間に単語境界が存在する確率を付与し,それによって生コーパスを確率的に単語に分割されたコーパス(確率的単語分割コーパス)とみなすことにより,無限の語彙に対する単語$n$-gram頻度や単語$n$-gram確率を計算する方法が提案されている\cite{Word.N-gram.Probability.Estimation.From.A.Japanese.Raw.Corpus}.以下では,この方法を説明する.生コーパス$C_{r}$(以下,長さ$n_{r}$の文字列$\Bdma{x}_1^{n_{r}}$として参照)を所与として,連続する2文字$x_{i},x_{i+1}$の間に単語境界が存在する確率$P_{i}$を付与したものを考える.最初の文字の前と最後の文字の後には単語境界が存在するとみなせるので,$i=0,\;i=n_{r}$の時は便宜的に$P_{i}=1$とする.\begin{list}{}{}\item[\textbf{単語0-gram頻度}]確率的単語分割コーパスにおける単語0-gram頻度$f_{r}(\cdot)$は,そのコーパス中の期待単語数であり,以下のように定義される.\begin{displaymath}f_{r}(\cdot)=1+\sum_{i=1}^{n_{r}-1}P_{i}\end{displaymath}\item[\textbf{単語1-gram頻度}]確率的に単語分割された生コーパスに出現する文字列$\Bdma{x}_{i+1}^{k}$が$l=k-i$文字からなる単語$w$である必要十分条件は以下の4つである.\begin{enumerate}\item文字列$\Bdma{x}_{i+1}^{k}$が単語$w$に等しい.\item文字$x_{i+1}$の直前に単語境界がある.\item単語境界が文字列中にない.\item文字$x_{k}$の直後に単語境界がある.\end{enumerate}したがって,単語$w$の生コーパス中の単語1-gram頻度$f_{r}$は,単語$w$の表記の全ての出現$O_{1}=\{(i,k)\,|\,\Bdma{x}_{i+1}^{k}=w\}$に対する期待頻度の和として以下のように定義される.\begin{displaymath}f_{r}(w)=\sum_{(i,k)\inO_{1}}P_{i}\left[\prod_{j=i+1}^{k-1}(1-P_{j})\right]P_{k}\end{displaymath}\item[\textbf{単語$n$-gram頻度}]単語1-gram頻度と同様に,$L$文字からなる単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$の生コーパス$\Bdma{x}_{1}^{n_{r}}$における頻度,すなわち単語$n$-gram頻度について考える.このような単語列に相当する文字列が生コーパスの$(i+1)$文字目から始まり$k=i+L$文字目で終る文字列と等しく($\Bdma{x}_{i+1}^{k}=\Bdma{x'}_{1}^{L}$),単語列に含まれる各単語$w_{m}$に相当する文字列が生コーパスの$b_{m}$文字目から始まり$e_{m}$文字目で終る文字列と等しい($\Bdma{x}_{b_{m}}^{e_{m}}=w_{m},\;1\leq\forallm\leqn$;$e_{m}+1=b_{m+1},\;1\leq\forallm\leqn-1$;$b_{1}=i+1$;$e_{n}=k$)状況を考える(\figref{figure:SSC}参照).単語1-gram頻度の計算の場合と同様に,単語列と生コーパスの部分文字列は,文字列として対応していることに加えて,各文字間における単語境界の有無も対応している場合にのみ単語列が出現していると考えられる.したがって,確率的に単語分割されたコーパスに出現する文字列$\Bdma{x}_{i+1}^{k}$が単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$である必要十分条件は以下の4つである.\begin{figure}[t]\begin{center}\includegraphics[scale=0.6]{SSC.eps}\end{center}\caption{確率的単語分割コーパスにおける単語$n$-gram頻度}\label{figure:SSC}\end{figure}\begin{enumerate}\item文字列$\Bdma{x}_{i+1}^{k}$が単語列$\Bdma{w}_{1}^{n}$に等しい.\item文字$x_{i+1}$の直前に単語境界がある.\item単語境界が各単語に対応する文字列中にない.\item単語境界が各単語に対応する文字列の後にある.\end{enumerate}したがって,生コーパスにおける単語$n$-gram頻度を以下のように定義することができる.\begin{displaymath}f_{r}(\Bdma{w}_{1}^{n})=\!\!\!\sum_{(i,e_{1}^{n})\inO_{n}}\!\!\!\!P_{i}\left[\prod_{m=1}^{n}\!\left\{\prod_{j=b_{m}}^{e_{m}-1}\!\!(1-P_{j})\right\}P_{e_{m}}\right]\end{displaymath}ここで\begin{eqnarray*}e_{1}^{n}&=&(e_{1},e_{2},\cdots,e_{n})\\O_{n}&=&\{(i,e_{1}^{n})|\Bdma{x}_{b_{m}}^{e_{m}}=w_{m},1\leqm\leqn\}\end{eqnarray*}とした.\item[\textbf{単語1-gram確率}]決定的に単語に分割されたコーパスからの単語1-gram確率の最尤推定の場合と同様に,確率的単語分割コーパスにおける単語1-gram確率を以下のように定義する.\begin{equation}\label{equation:1-gram}P_{r}(w)=\frac{f_{r}(w)}{f_{r}(\cdot)}\end{equation}\item[\textbf{単語$n$-gram確率}]決定的に単語に分割されたコーパスからの単語$n$-gram確率の最尤推定の場合と同様に,確率的単語分割コーパスにおける単語$n$-gram確率を以下のように定義する.\begin{equation}\label{equation:n-gram}P_r(w_{n}|\Bdma{w}_{1}^{n-1})=\frac{f_r(\Bdma{w}_{1}^{n})}{f_r(\Bdma{w}_{1}^{n-1})}\end{equation}\end{list}\subsection{有限の語彙に対する確率的単語分割コーパスからの単語$n$-gram確率の推定}確率的言語モデルを用いる音声認識においては,認識される語彙には発音が付与されている必要がある.また,確率的言語モデルを用いる仮名漢字変換においてもキー入力列が付与されている表記(単語)のみが変換結果として出現し得る.このように,現実的な応用では有限の語彙に対する確率的言語モデルを構築する必要がある.分野適応において単語リストが与えられている場合には,一般コーパスから得られる語彙と対象分野の単語リストを語彙として,対象分野の生コーパスから確率的言語モデルを構築する.この際に,未知語モデルを含めて確率的言語モデルの条件を満たすためには,未知語記号を含む単語$n$-gram確率を正しく定義する必要がある.単語分割済みコーパスにおいては,まず語彙${\calW}_{k}$に属さない単語をコーパスの全ての出現場所において未知語記号$\UW$に置き換え,その上で未知語記号を語彙に含まれる単語と同様に扱って頻度計算を行なう.決定的に単語に分割されていない確率的単語分割コーパスに対しては,この方法を採ることができない.また,語彙以外の任意の文字列に対する単語$n$-gram頻度を計数しその和を計算する方法も考えられる.語彙以外の任意の文字列は,実際には無限集合ではなく,コーパスの部分文字列のみを対象とすれば十分であるが,これは非常に大きな数となるので,この計算方法も現実的ではない.しかしながら,単語$n$-gram頻度の以下の性質を用いることにより,確率的単語分割コーパスに対しても未知語記号を含む単語$n$-gram頻度を容易に計算することができる.\begin{eqnarray}\label{equation:UT=sum}f_{r}(\Bdma{w}_{u}\UW\Bdma{w}_{v})&=&\!\!\!\!\!\!\!\sum_{w\in{\calX}^{+}-{\calW}_{k}}f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})\\\label{equation:decomp}\sum_{w\in{\calX}^{+}}\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})&=&\!\!\!\!\!\!\!\sum_{w\in{\calX}^{+}-{\calW}_{k}}\!\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})+\!\!\sum_{w\in{\calW}_{k}}\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})\end{eqnarray}ここで$\Bdma{w}_{u},\Bdma{w}_{v}\in({\calW}_k\cup\{\UW\})^{*}$は語彙と未知語記号からなる長さ0以上の任意の列であり,${\calX}^{+}$は文字集合${\calX}$の正閉包(1文字以上の任意長の文字列の集合)を表す.\equref{equation:UT=sum}の意味は,ある1箇所に未知語記号を含む単語$n$-gram頻度がその箇所を既知語以外のすべての文字列に置き換えた単語$n$-gram頻度の合計に等しいということである.また\equref{equation:decomp}は,単語$n$-gram頻度においてある箇所の単語を任意とした場合の合計が,その箇所が任意の既知語(${\calW}_{k}$)である場合の頻度の合計と任意の未知語(${\calX}^{+}-{\calW}_{k}$)である場合の頻度の合計の和に等しいことを意味する.\equref{equation:UT=sum}(\ref{equation:decomp})から,ある1箇所に未知語を含む単語$n$-gramの頻度に対して以下の式が成り立つことがわかる\footnotemark.\footnotetext{正確には複数の未知語記号を含む$n$-gramに対するの記述も必要であるが,式が繁雑になるため,ここでは1つの未知語記号のみを含む場合のみ記述した.}\begin{equation}\label{equation:UT}f_{r}(\Bdma{w}_{u}\UW\Bdma{w}_{v})=\!\!\!\sum_{w\in{\calX}^{+}}\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})-\!\!\!\sum_{w\in{\calW}_{k}}\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})\end{equation}\begin{list}{}{}\item[\textbf{未知語記号の単語1-gram頻度}]確率的単語分割コーパスにおける未知語記号の単語1-gram頻度$f_{r}(\UW)$は,コーパスに対して計数した単語1-gram頻度と単語0-gram頻度に対して成り立つ関係\begin{displaymath}f_{r}(\cdot)=\sum_{w\in{\calX}^{+}}f_{r}(w)\end{displaymath}と式(\ref{equation:UT})において$\Bdma{w}_{u}=\Bdma{w}_{v}=\varepsilon$($\varepsilon$は空列を表す)とすることで得られる等式\begin{displaymath}f_{r}(\UW)=\sum_{w\in{\calX}^{+}}\!\!\!f_{r}(w)-\!\!\sum_{w\in{\calW}_{k}}\!\!\!f_{r}(w)\end{displaymath}から以下のように,単語0-gram頻度と語彙に対する単語1-gram頻度の和から計算される.\begin{displaymath}f_{r}(\UW)=f_{r}(\cdot)-\sum_{w\in{\calW}_{k}}f_{r}(w)\end{displaymath}\item[\textbf{未知語記号を含む単語2-gram頻度}]任意の単語$w_{1}\in{\calW}_{k}$と未知語記号からなる列の確率的単語分割コーパスにおける頻度$f_{r}(w_{1}\UW)$はコーパスに対して計数した単語2-gram頻度と単語1-gram頻度に対して成り立つ関係\begin{displaymath}f_{r}(w_{1})=\sum_{w\in{\calX}^{+}}f_{r}(w_{1}w),\;\;\;\forallw_{1}\in{\calW}_k\cup\{\UW\}\end{displaymath}と式(\ref{equation:UT})において$\Bdma{w}_{u}=w_{1},\;\Bdma{w}_{v}=\varepsilon$とすることで得られる等式\begin{displaymath}f_{r}(w_{1}\UW)=\sum_{w\in{\calX}^{+}}\!\!\!f_{r}(w_{1}w)-\!\!\sum_{w\in{\calW}_{k}}\!\!\!f_{r}(w_{1}w)\end{displaymath}から以下のように単語1-gram頻度と既知語に対する単語2-gram頻度の和から計算される.\begin{displaymath}f_{r}(w_{1}\UW)=f_{r}(w_{1})-\sum_{w\in{\calW}_{k}}f_{r}(w_{1}w)\end{displaymath}同様に未知語記号と任意の単語$w_{2}\in{\calW}_{k}$からなる列の確率的単語分割コーパスにおける頻度$f_{r}(\UWw_{2})$は,以下のように計算される.\begin{displaymath}f_{r}(\UWw_{2})=f_{r}(w_{2})-\sum_{w\in{\calW}_{k}}f_{r}(ww_{2})\end{displaymath}さらに未知語記号の単語2-gram頻度$f_{r}(\UW\,\UW)$は\begin{displaymath}f_{r}(\cdot)=\sum_{w_{1}\in{\calX}^{+}}\sum_{w_{2}\in{\calX}^{+}}f_{r}(w_{1}w_{2})\end{displaymath}を用いることで以下のように計算される.\begin{eqnarray*}f_{r}(\UW\,\UW)&=&f_{r}(\cdot)-\!\!\sum_{w_{1}\in{\calW}_{k}}f_{r}(w_{1}\UW)-\!\!\sum_{w_{2}\in{\calW}_{k}}f_{r}(\UWw_{2})\\&&-\!\!\!\!\!\!\!\!\sum_{(w_{1}w_{2})\in{\calW}_{k}\times{\calW}_{k}}\!\!\!\!\!\!\!\!f_{r}(w_{1}w_{2})\end{eqnarray*}\item[\textbf{未知語記号を含む単語$n$-gram頻度($n\geq3$)}]未知語記号を含む一般の$n$-gram頻度も2-gram頻度の場合と同様に計算することが可能である.\item[\textbf{未知語記号を含む単語$n$-gram確率($n\geq1$)}]未知語記号を含まない場合の\equref{equation:1-gram}(\ref{equation:n-gram})と同様に,確率的単語$n$-gram頻度を確率的単語$(n-1)$-gram頻度で割ることで未知語記号を含む単語$n$-gram確率が得られる.\end{list}{}{}以上から,語彙を有限とし未知語記号を仮定する場合でも,確率的単語分割コーパスに対する単語$n$-gram確率を推定できることが示された. \section{生コーパスの利用方法} \label{section:raw-corpus}適応対象の分野のコーパスは,その分野の言語的な特徴を的確に捉えるために重要である.この利用方法としては,以下の3つが代表的である.\begin{itemize}\item未知語の取り出し\begin{quote}生コーパスに対して文字$n$-gramの統計などを取り,ある程度の頻度があり,かつ前後の文字の分布にばらつきがある文字列などを単語候補として抽出する\cite{nグラム統計によるコーパスからの未知語抽出}\cite{統計的手法による単語の切り出しについて}この結果得られた単語候補は,人手でチェックされる.さらに確率的言語モデルの応用に応じて読みの付与などを行なう.\end{quote}\item自動分割による単語分割結果\begin{quote}自動単語分割システム\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}により単語境界を推定し,これを単語分割済みコーパスとして利用する.単語分割システムは,人手により正しく単語に分割された一般的なコーパスから構築されるので,適応対象の分野の文に対する解析精度は必ずしも高くない.特に,適応分野に特有の単語や表現の周辺で分割を誤る傾向がある.しかしながら,適応対象の分野の単語分割済みコーパスは,多少の誤りが含まれていても,確率的言語モデルの構築に有用であることが知られている.\end{quote}\item人手による単語分割結果\begin{quote}理想的には,適応対象の分野のコーパスの全ての文が正しく(単語分割の指針に沿って)単語に分割されていることが望ましい.このときに確率的言語モデルの能力は最高になる.\end{quote}\end{itemize}確率的言語モデルの能力は,単語分割の修正量を増やせば増やすほど高くなる.現実には,単語分割の修正作業はコストや時間がかかるので,コーパスの一部分を修正の対象とし,残りの部分に関しては自動分割の結果をそのまま用いるということが行なわれる.しかし,この方法が有限の作業量を割り当てる最良の方法であるか疑問が残る.\begin{figure}[t]\begin{center}\begin{tabular}{cccc}\hline&女性エコノミスト、キャ&サリン&・カミリさんなどは「今\\&ローム・デーヴィッド・&サリン&ジャーは20世紀アメリカ\\○&に次ぐおぞましい地下鉄&サリン&事件、長い不況に追い打\\○&理が始まった中川被告は&サリン&生成を認めながら「目的\\&っているのを知りながら&サリン&流出を阻止する義務を怠\\\hline\end{tabular}\end{center}\caption{単語リストのKWICによる単語境界情報付与の例}\label{figure:KWIC}\end{figure}単語分割の修正作業は,コーパスに単語境界の情報を付与することである.単語境界の情報の最小単位は各文字の間に単語境界があるか否かである.しかし,一般的に行なわれる修正作業は文単位であり,文頭から順に各文字の間の単語境界情報が正しいかを確認し,必要に応じて修正する.これに対して,我々は修正作業の単位をより細かくとること,具体的には,単語リストなどで与えられる適応分野に特有の単語の周辺に集中することを提案する.具体的には,\figref{figure:KWIC}に示されるように,単語リストに含まれる語(例では「サリン」)の対象分野のコーパスでの出現位置をKWIC(KeyWordInContext)形式で提示し,注目している文字列が各文脈において単語として用いられているかのチェックをする.単語として用いられている箇所にマーク(図中では「○」)を付け,それ以外の箇所では何もしないという作業を行なう.各単語についてマークする箇所の数を制限するということも有効であろう.そうすれば,判断の難しい箇所で時間を浪費することを避けることもできる. \section{評価} \label{section:evaluation}適応分野の生コーパスの利用方法について比較検討するために,生コーパスに対する人手による単語境界情報の付与の程度や方法を複数用意し,その結果得られるコーパスから推定される確率的言語モデルの予測力やそれに基づく仮名漢字変換の精度を計算した.\subsection{実験条件}実験には,一般的な分野のコーパスとして会話辞典の例文と,適応対象として新聞記事を用いた(\tabref{table:corpus}参照).両分野のコーパスの各文は人手で単語に分割されているが,適応分野のコーパスは,主として生コーパスとして利用される.単語分割済みコーパスとしての利用は,比較対象としての理想的な状況を実現するためである.適応分野の単語リストは,適応分野のコーパスにのみ出現する21,855単語からなる.基本となる確率的言語モデルは以下の通りである.\begin{list}{}{}\item[$\bullet$Base]単語分割済みの一般分野のコーパスから単語2-gramモデルを構築した.既知語の数は5,112語である.適応分野の単語リストは,未知語モデルにおいて出現確率を嵩上げされ,未知語に対して出現しやすくなる外部辞書語\cite{日本語の情報量の上限の推定}として利用する.適応分野のコーパスは利用しない.\end{list}この確率的言語モデルの同一分野のテストコーパスに対するクロスエントロピーは4.509であり,テストセットパープレキシティーは64.28であった\footnotemark.\footnotetext{テストセットパープレキシティーは平均単語長に影響されるので,異なるテストコーパスに対する結果との比較には適さない.}実験に利用した自動単語分割システムは,この言語モデルに基づいており,入力文に対して最大確率となる単語列を返す(\subref{subsection:word-segmenter}参照).同一分野のテストコーパスに対する単語境界の推定精度は98.26\%であった\footnotemark.\footnotetext{対象分野のテストコーパス(\tabref{table:corpus}参照)に対する単語境界の推定精度は89.25\%であった.}後述する実験において,確率的単語分割コーパスの単語境界確率の推定方法としては,自動分割の結果を利用する方法を採用した.単語境界の推定結果の信頼度には,自動単語分割システムの精度$\alpha=98.26\%$を利用した.すなわち,自動単語分割システムにより単語境界であると判定された点では$P_{i}=\alpha$とし,単語境界でないと判定された点では$P_{i}=1-\alpha$とした.\begin{table}[t]\caption{コーパス}\begin{center}\begin{tabular}{c|c|r|r|r}\hline\hline用途&分野&\multicolumn{1}{c|}{文数}&\multicolumn{1}{c|}{単語数}&\multicolumn{1}{c}{文字数}\\\hline学習&会話&14,754&187,658&254,436\\学習&新聞&20,700&625,761&917,830\\テスト&会話&1,639&21,105&28,655\\テスト&新聞&2,300&68,566&100,091\\\hline\end{tabular}\end{center}\label{table:corpus}\end{table}\subsection{評価基準}確率的言語モデルの予測力の評価に用いた基準は,文字単位のクロスエントロピーと単語あたりのテストセットパープレキシティーである.まず,テストコーパス$C_{t}$に対して未知語の予測も含む文字単位のエントロピー$H$を以下の式で計算する\cite{An.Estimate.of.an.Upper.Bound.for.the.Entropy.of.English}.\begin{displaymath}H=-\frac{1}{|C_{t}|}\log_{2}\prod_{\Bdma{w}\inC_{t}}M_{w,n}(\Bdma{w})\end{displaymath}ここで,$|C_{t}|$はテストコーパス$C_{t}$の文字数を表す.次に,単語単位のテストセットパープレキシティを以下の式で計算する.\begin{displaymath}PP=2^{H\times\overline{|\Bdma{w}|}}\end{displaymath}ここで$\overline{|\Bdma{w}|}$は平均単語長(文字数)である.さらに確率的言語モデルの応用として仮名漢字変換\cite{確率的モデルによる仮名漢字変換}を採用し,文単位で一括変換した場合の第一候補の変換精度を計算した\footnotemark.\footnotetext{評価基準は文献\cite{確率的モデルによる仮名漢字変換}と同一である.}これは,音声認識において,音響モデルの誤りの影響を排した場合と考えることもできる.\subsection{適応分野の生コーパスの利用方法}適応分野の生コーパスの利用方法について比較検討するために,生コーパスの自動分割結果に対する単語境界情報の人手による修正の程度や方法として,以下の6つを準備した.\begin{list}{}{}\item[$\bullet$Auto]適応分野の生コーパスを自動的に単語分割し,その結果をそのまま用いる.これは,自動分割システムにより単語境界と判定された点では$P_{i}=1$とし,単語境界でないと判定された点では$P_{i}=0$とする確率的単語分割コーパスと等価である.\item[$\bullet$Raw]適応分野の生コーパスを確率的単語分割コーパスとして用いる.すなわち,自動単語分割システムにより単語境界であると判定された点では$P_{i}=\alpha$とし,単語境界でないと判定された点では$P_{i}=1-\alpha$とした.\item[$\bullet$Well-done]適応分野の生コーパスの全文を人手により正しく単語に分割し,これをAutoと同様に決定的に単語に分割されたコーパスとして利用する.\item[$\bullet$45\%-done]適応分野の生コーパスの最初から281,398単語目まで(45.00\%)を人手により正しく単語に分割し,その残りを自動的に単語分割した.これをAutoと同様に決定的に単語に分割されたコーパスとして利用する.\item[$\bullet$Medium]まずRawと同様に単語境界確率を設定する.さらに,単語リストに含まれる文字列が生コーパス中に単語として出現している全ての箇所において,その文字列内の単語境界確率を0とし,その文字列の直前と直後の単語境界確率を1とする.これは,生コーパスに対する単語リストに含まれる文字列のKWICを見て,その文字列が単語として出現している場合にマークをつける作業をした結果に相当する.マーク箇所は単語数でのべ138,483箇所(22.13\%)である.\item[$\bullet$Rare]まずRawと同様に単語境界確率を設定する.さらに,単語リストに含まれる文字列が生コーパス中に単語として出現している最初の2箇所において,その文字列内の単語境界確率を0とし,その前後の単語境界確率を1とする.これは,生コーパスに対する単語リストに含まれる文字列のKWICを見て,その文字列が単語として出現している場合にマークをつける作業を各文字列に対して2つのマークがつくまで行なった結果に相当する.マーク箇所は単語数でのべ32,643箇所(5.22\%)である.\end{list}以上のようにして得られる適応分野のコーパスから,Baseモデルの既知語と単語リストに含まれる単語を語彙として単語1-gram確率と単語2-gram確率を計算し,Baseモデルと補間して適応分野のための確率的言語モデルを構築した.\subsection{評価}\begin{table}[t]\caption{各モデルの予測精度と仮名漢字変換の精度}\begin{center}\begin{tabular}{@{\}c@{\}|@{\}c@{\}|@{\}c@{\}|@{\}c@{\}|@{\}c@{\}|@{\}c@{\}}\hline\hlineモデル&\lineB{生コーパス}{の利用方法}&$H$&$PP$&再現率&適合率\\\hlineBase&--&7.558&1938&62.74\%&72.34\%\\\hlineAuto&自動分割&6.618&755.7&80.52\%&85.24\%\\Raw&確率分割&6.276&536.5&84.70\%&87.85\%\\\hlineRare&部分修正&6.133&465.2&86.57\%&89.24\%\\Medium&部分修正&5.889&364.2&88.34\%&90.50\%\\45\%-done&部分修正&6.049&427.4&86.56\%&89.32\%\\Well-done&完全修正&5.858&353.1&88.90\%&90.90\%\\\hline\end{tabular}\end{center}\label{table:result}\end{table}各モデルの予測力と仮名漢字変換の精度を\tabref{table:result}に示す.Baseとコーパス修正のコストがないAutoとRawの結果から,適応分野のコーパスは可能な限り収集し,言語モデルの推定に利用するのがよいといえる.利用方法においては,AutoとRawの結果の比較から,誤りを含む自動分割結果を100\%信頼してそのまま用いるのではなく,単語境界か否かの判定結果を割り引いて,確率的単語分割コーパスとして用いるほうがよいといえる.コーパス修正のコストがないRawの予測力や変換精度は,自動分割の結果を人手で完全に修正した場合のWell-doneの予測力と変換精度に対してかなり低く,修正のコストを払うことで改善する余地があることが分かる.自動分割結果の修正は文単位で行なうのが一般的であるが,単語リストに含まれる単語が出現する箇所に限定して,文の一部分のみをチェックする場合の結果がRareとMediumである.単語リストの各単語に対して2箇所の出現のみを人手でマークするRareでは,単語数の割合にして5.22\%のみがマークの対象になるが,仮名漢字変換の精度はコーパスの最初から順に45.00\%の単語をチェックする45\%-doneの精度にほぼ等しい.単語リストの各単語に対して全ての出現箇所を人手でチェックするMediumと自動分割の結果を人手で完全に修正するWell-doneの予測力と変換精度は同程度である.この結果から,適応分野に特有の語彙の出現箇所に修正のコストを集中すれば,コーパス全体の約22.13\%の単語のみのチェックで,予測力においても,仮名漢字変換の精度においても,コーパス全体の分割結果を人手で修正したコーパスを利用する場合にかなり近い性能を達成することが可能であるといえる.文単位で分割結果を修正する方法と,特定の文字列のKWICを見てそれが各文脈で単語として用いられているかをマークするするのは,1単語あたりのチェックに要するコストが等しいとは限らない.しかしながら,Rareと45\%-doneのチェック対象の単語数には9倍の差がある.特定の単語のKWICにおける1箇所のマークが,注目単語の前後4単語の修正を含めた分割修正(合計9単語)に相当する時間を要するとは思えず,Rareと45\%-doneの総修正コストの順序関係は変わらないであろう.加えて,文全体に対して分割結果の修正を行なう場合には,主に活用語尾や助詞や助動詞からなる,文法の専門家でさえも正確な単語分割が容易でない箇所が含まれることになる.このような正確な単語分割が困難な機能語などの列の分割方針を作業者に徹底することは非常に困難である.単語リストに含まれる単語のみをチェック対象にすれば,このような困難を回避することが可能となり,さらに,適応分野に特有の単語の統計的な振る舞いを捕捉するという,適応分野のコーパスを利用する本来の目的のみにコーパス修正のコストを集中することが可能となる.以上のことから,適応分野に特有の語彙の出現箇所に修正のコストを集中し,この結果得られる部分的に修正されたコーパスを確率的単語分割コーパスとみなして確率的言語モデルを構築することにより,音声認識や仮名漢字変換などの適応対象の分野における精度をより低いコストでより短時間で向上させることが可能となる. \section{おわりに} 企業ソリューションとして音声認識などの音声言語処理技術が求められる場合,技術を適応する分野の単語リストと生コーパスのみが利用可能であることが多い.本論文では,このような状況を前提として,確率的言語モデルを分野適応する際に,コーパスの修正の程度や方法について比較検討を行なった.予測力や仮名漢字変換の精度を評価基準とする実験の結果,生コーパスの自動単語分割の結果の人手による修正を単語リストに含まれる単語が出現する箇所に限ることで,確率的言語モデルの適応分野における性能をより効率よく向上させることが可能となることが分かった.\begin{biography}\biotitle{略歴}\bioauthor{森信介}{1998年京都大学大学院博士後期課程修了.同年日本アイ・ビー・エム(株)入社.東京基礎研究所において計算言語学の研究に従事.工学博士.1997年情報処理学会山下記念研究賞受賞.情報処理学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\renewcommand{\Bbf}{}\bibitem[\protect\BCAY{Brown,Cocke,Pietra,Pietra,Jelineck,Lafferty,Mercer,\BBA\Roossin}{Brownet~al.}{1990}]{A.Statistical.Approach.to.Machine.Translation}Brown,P.~F.,Cocke,J.,Pietra,S.A.~D.,Pietra,V.J.~D.,Jelineck,F.,Lafferty,J.~D.,Mercer,R.~L.,\BBA\Roossin,P.~S.\BBOP1990\BBCP.\newblock\BBOQAStatisticalApproachtoMachineTranslation\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf16}(2),pp.~79--85.\bibitem[\protect\BCAY{Brown,Pietra,\BBA\Mercer}{Brownet~al.}{1992}]{An.Estimate.of.an.Upper.Bound.for.the.Entropy.of.English}Brown,P.~F.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1992\BBCP.\newblock\BBOQAnEstimateofanUpperBoundfortheEntropyofEnglish\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf18}(1),pp.~31--40.\bibitem[\protect\BCAY{Hakkani-T{\"{u}}r,Tur,Rahim,\BBA\Riccardi}{Hakkani-T{\"{u}}ret~al.}{2004}]{Unsupervised.and.Active.Learning.in.Automatic.Speech.Recognition.For.Call.Classification}Hakkani-T{\"{u}}r,D.,Tur,G.,Rahim,M.,\BBA\Riccardi,G.\BBOP2004\BBCP.\newblock\BBOQUnsupervisedandActiveLearninginAutomaticSpeechRecognitionForCallClassification\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonAcoustics,Speech,andSignalProcessing}.\bibitem[\protect\BCAY{Jelinek}{Jelinek}{1985}]{Self-Organized.Language.Modeling.for.Speech.Recognition}Jelinek,F.\BBOP1985\BBCP.\newblock\BBOQSelf-OrganizedLanguageModelingforSpeechRecognition\BBCQ\\newblock\BTR,IBMT.J.WatsonResearchCenter.\bibitem[\protect\BCAY{Mori\BBA\Takuma}{Mori\BBA\Takuma}{2004}]{Word.N-gram.Probability.Estimation.From.A.Japanese.Raw.Corpus}Mori,S.\BBACOMMA\\BBA\Takuma,D.\BBOP2004\BBCP.\newblock\BBOQWordN-gramProbabilityEstimationFromAJapaneseRawCorpus\BBCQ\\newblockIn{\BemInternationalConferenceonSpeechandLanguageProcessing}.\bibitem[\protect\BCAY{Nagata}{Nagata}{1994}]{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}Nagata,M.\BBOP1994\BBCP.\newblock\BBOQAStochasticJapaneseMorphologicalAnalyzerUsingaForward-DPBackward-A$^{*}$N-BestSearchAlgorithm\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalConferenceonComputationalLinguistics},\BPGS\201--207.\bibitem[\protect\BCAY{Nagata}{Nagata}{1996}]{Context-Based.Spelling.Correction.for.Japanese.OCR}Nagata,M.\BBOP1996\BBCP.\newblock\BBOQContext-BasedSpellingCorrectionforJapaneseOCR\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{西村,伊東,山崎,荻野}{西村\Jetal}{1997}]{単語を認識単位とした日本語ディクテーションシステム}西村雅史,伊東伸泰,山崎一孝,荻野紫穂\BBOP1997\BBCP.\newblock\JBOQ単語を認識単位とした日本語ディクテーションシステム\JBCQ\\newblock\Jem{情報処理学会研究報告},SLP15\JVOL,\BPGS\27--34.\bibitem[\protect\BCAY{中渡瀬}{中渡瀬}{1995}]{統計的手法による単語の切り出しについて}中渡瀬秀一\BBOP1995\BBCP.\newblock\JBOQ統計的手法による単語の切り出しについて\JBCQ\\newblock\Jem{電子情報通信学会技術研究会報告},\BPGS\69--74.\bibitem[\protect\BCAY{森,土屋,山地,長尾}{森\Jetal}{1999}]{確率的モデルによる仮名漢字変換}森信介,土屋雅稔,山地治,長尾真\BBOP1999\BBCP.\newblock\JBOQ確率的モデルによる仮名漢字変換\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),pp.~2946--2953.\bibitem[\protect\BCAY{森,山地}{森\JBA山地}{1997}]{日本語の情報量の上限の推定}森信介,山地治\BBOP1997\BBCP.\newblock\JBOQ日本語の情報量の上限の推定\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(11),pp.~2191--2199.\bibitem[\protect\BCAY{森,長尾}{森\JBA長尾}{1998}]{nグラム統計によるコーパスからの未知語抽出}森信介,長尾眞\BBOP1998\BBCP.\newblock\JBOQ$n$グラム統計によるコーパスからの未知語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(7).\bibitem[\protect\BCAY{下岡,南條,河原}{下岡\Jetal}{2004}]{講演の書き起こしに対する統計的手法を用いた文体の整形}下岡和也,南條浩輝,河原達也\BBOP2004\BBCP.\newblock\JBOQ講演の書き起こしに対する統計的手法を用いた文体の整形\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(2),pp.~67--83.\end{thebibliography}\end{document}
V13N03-10
\section{はじめに} 敬語は日本語の重要な特徴の一つとされており,日本語の敬語は単に依頼,要求あるいは人を示す代名詞において見られるだけでなく,言語体系,及び言語行動のほぼ全般にわたって発達している.このような特徴を持つ言語は日本語以外では,韓国語,チベット語,及びジャワ語等世界中に少数しか見られない\cite{Hayashi1974}.ところが現代の日本社会において,日本語の敬語に関する様々な誤用が指摘されてきている\cite{Kikuchi1997,Ishino1986}.日本社会における敬語の誤用は,言語によるコミュニケーションを通じた社会的人間関係の構築を妨げる場合がある.特にビジネスの場面における敬語の誤用は,時として円滑なビジネスを進める上での障害にもなり得る.このため,一般的には敬語の誤用はできるだけ避けることが望ましい.敬語の誤用を避けるには,敬語の規範に関する正しい知識の習得が不可欠である.このような知識習得を効率的に行うため,敬語学習を支援する計算機システムの実現が期待される.以上の背景の下,我々は日本語発話文に含まれる語形上の誤用,及び運用上の誤用を指摘するシステムを開発した.本システムは,日本語発話文,及び発話内容に関係する人物間の上下関係を表すラベルを入力とし,入力された日本語発話文における誤用の有無,誤用の箇所,及び誤用の種類(後者二つは誤用有りの場合のみ)を出力する.最近ではこれに類似した機能を搭載した日本語入力支援ツール等が開発されてきてはいるが,既存のシステムは主に語形上の誤用の一部のみを対象としており,運用上の誤用についても極めて限られた表現しか扱うことができなかった.本システムのように,発話文に含まれる敬語の誤用を指摘するシステムの構築にあたっては,(1)敬語の規範を何処に求めるか?及び(2)発話状況をどう取り扱うか?が問題になる.本研究では,以下の考え方に基づきこれらの問題に対処している.(1)敬語の規範敬語(正確には,敬語を含む言語一般)は時代の経過と共に変化する.例えば,``お話になられる''(二重敬語)等は伝統的な日本語学においては誤用とされてきたが,近年では必ずしも誤用としては認識しない人が少なからずいることが報告されている\cite{Bunkacho1999}.このため,現代の日本において幅広く社会のコンセンサスが得られている敬語の体系的規範はないと考えられる.この問題に対し本研究では,日本語学に関する様々な文献において共通して明示的あるいは暗示的に述べられていると解釈できる規範にできるだけ厳密に準拠する,という立場を取る.このため,現代の日本社会において敬語として概して許容されている表現であっても,本システムではその表現を規範的な敬語として見なさない可能性がある.しかしこのことは,少しでも誤用の可能性のある表現をできるだけ漏らさずピックアップできる,という利点として考えることもできる.(2)発話状況の取り扱い従来の敬語研究で指摘されているように,発話状況に応じた適切な敬語(即ち,運用上正しい敬語)を選択する際に考慮すべき主な要因には,発話に関わる人物間の上下関係(年齢差や社会的地位の違いに基づき話者が判断した上下関係,以下では``主観的上下関係''と呼ぶ),人物間の親疎,人物間のウチソト,及び各人物の体面に対して発話意図が及ぼすリスク,等がある.中でも人物間の主観的上下関係は,敬語が誤用である否かを判断する際の最も重要な要因であることが,日本語の敬語に関する多くの文献において明記あるいは暗示的に述べられている\cite[等]{Kikuchi1996,Kikuchi1997,Kabaya1998,Kokugoken1990,Kokugoken1992,Minami1987}.一方,このような判断の際に,人物間の親疎,人物間のウチソト,あるいは各人物の体面に対して発話意図が及ぼすリスクが,主観的上下関係より重要な要因であることを指摘した文献は殆どない.このことは,敬語の運用の規範に関わる要因としては,主観的上下関係が最も重要な要因であることを示唆する.従って本研究においては,敬語の運用上の規範を発話に関わる人物間の主観的上下関係のみに基づいて定義する.尚,実際の場面では人物間の主観的上下関係が殆ど同じ状況も想定されるため,実用的なシステムのためにはこのような状況も扱えることが望ましいが,今回は誤用指摘システム開発の最初のステップとして,明確な主観的上下関係の下での規範に焦点を当てることとし,上下関係が殆ど同じ状況の取り扱いは今後の課題としている.\bigskip以下では,本研究における``敬語の誤用''の定義を述べた後,それに基づいた誤用指摘システムについて述べる.更に,様々なテストデータを用いたシステムの妥当性の検証,及びシステムの今後の改善点等について述べる. \section{敬語の誤用} 前述のように,本システムは(1)語形上の誤用,及び(2)運用上の誤用を指摘することができる.敬語の誤用は,大きくこの2種類に分けられる.(1)語形上の誤用語形が敬語として規範的ではない表現の使用.本研究では,敬語の文献\cite[等]{Kikuchi1996,Kikuchi1997,Horikawa1969,Miyaji1999}を参考に語形上の誤用を定義した.本システムで用いている語形誤り表現リストの一部を表1に示す.表中``〜''は任意の動詞を表す.語形誤り表現リストに登録されている表現の総数(``〜''を含むパターンの表現はパターンとして1個とカウント)は約80個である.尚,一般的に日本語として誤っているか否かという観点からは語形上の誤用を無数に想定することができるが,本システムでは特に敬語に関わる表現の中で最も典型的な語形上の誤用を登録している.\begin{table}[htbp]\begin{center}\caption{語形誤り表現リスト(一部)}\label{tbl:table1}\begin{tabular}{ll}\hline\multicolumn{1}{c}{表現(``〜''は動詞)}&\multicolumn{1}{l}{誤用のタイプ}\\\hlineお/ご〜になられる&二重敬語\\お/ご〜なされる&二重敬語\\お/ご〜をなされる&二重敬語\\お/ご〜される&尊敬語形+謙譲語形の混用\\\hline\end{tabular}\end{center}\end{table}(2)運用上の誤用語形は正しいが,発話に関わる人物間の主観的上下関係と整合しない表現の使用.伝統的な日本語学では,例えば,話者より社会的に上に位置付けられる聞き手に対する発話文の文末は丁寧にすべきとされている.従って,このような状況における発話文として,文末が丁寧でない文は運用上の誤用と見なされる.発話に関わる人物間の主観的上下関係に基づいた運用上の規範をどのように定義するかは,本システムが対象とする発話文の特徴にも依存するため,次章(システムの説明)で述べる. \section{敬語誤用指摘システム} \subsection{本システムが対象とする発話文}本システムに入力される発話文は,以下三つの制約を満たすものとする.\begin{description}\item[制約1]発話文には述語が一つだけ(述語の主語,補語\footnote{主語以外の格要素を指す.研究者によっては他の語(例えば,``目的語'',``主格補語''等)を用いることがあるが,本研究では「敬語教育の基本問題(下)」\cite{Kokugoken1992}に倣ってこの語を用いる.}はそれぞれ一つ)含まれる.\item[制約2]発話に関係する人数は2名〜4名.ここで,2名の時は話者(名前は``S''とする),聞き手(名前は``L''とする),3名の時は話者,聞き手,及び発話文中で参照される人物1名(名前は``A''とする),4名の時は話者,聞き手,及び発話文中で参照される人物2名(4人目の名前は``B''とする)とする.\item[制約3]話者/聞き手/人物A/人物Bが述語の主語あるいは補語の場合はその人物の名前``S''/``L''/``A''/``B''を明記する.\end{description}\bigskip以上の制約は,現行の構文解析システムや意味解析システムを用いた際の,文構造の解析(特に,述語の主語,補語の同定等)における解析エラーの生じる可能性があるような複雑な文を排除するために設けた.従って,高い精度の文解析手法が将来開発されれば,これらの制約はより緩やかにできると考えられる.尚,発話に関わる人数が5名以上の状況はまれである(ここで,``彼ら''等のように複数人からなるグループの場合は,グループを擬人化して1名相当とみなす)と考えられるため,日常用いられている発話文の殆どは制約2を満たすと考えられる.また,発話に関わる人物が4名(S,L,A,B)の際,AとBを一つのグループ(例えば,``AさんとBさん'')としては扱わないものとする.従って,発話に関わる人物が4名の場合はAが主語でBが補語のケースのみであり(Bが主語でAが補語のケースはこれと等価),話者(S)や聞き手(L)が主語や補語になる状況は想定しない.一方,発話に関わる人物が3名(S,L,A)の場合はSやLが主語や補語になる場合があり,このときAは主語あるいは補語のいずれかになる.発話に関わる人物が2名(S,L)の場合は,Sが主語でLが補語のケース,及びLが主語でSが補語のケースのみである.制約3で記したように本システムでは発話に関わる人の名前を``S'',``L'',``A'',``B''に固定しているが,人名の情報等を事前にシステムに登録することによって人名を直接取り扱うことも可能である.\subsection{敬語特徴パターン}伝統的な日本語学の文献の多くにおいて,敬語は尊敬語,謙譲語,及び丁寧語に概ね分類できるとされている.尊敬語の中で最も典型的な語は,尊敬語を表すための形式を持つ述語,及び人物に対する敬称(例えば,``様'')である.謙譲語の中で最も典型的な語は,謙譲語を表すための形式を持つ述語である.丁寧語は主に文末における丁寧な語(例えば,``〜です.\unskip'')を指す.前述のように,本システムが対象とする発話文には述語が一つのみ現れる.従って,このような発話文の敬語的な特徴は,述語の主語の敬称の有/無,述語の補語の敬称の有/無,文末が丁寧/丁寧でない,及び述語の敬語的な特徴(尊敬語/謙譲語/二方面敬語\footnote{尊敬語かつ謙譲語である語のこと.例えば,``ご説明して下さった''(``ご説明する''が謙譲語,``下さった''が尊敬語)等.}/尊敬語でも謙譲語でもない語)で表すことができると考えられる.本研究ではこれを``敬語タイプ''と呼ぶ.このため本システムでは,発話文を形態素解析して得た形態素の並びに対して,表2に示すような敬語タイプ辞書を用いて表3に示すパターンを作り,このパターンで発話文の敬語的特徴を表すこととする(以下,このパターンを``敬語特徴パターン''と呼ぶ).\begin{table}[htbp]\begin{center}\caption{敬語タイプ辞書の一部(``〜''は動詞)}\tabcolsep=2em\begin{tabular}{ll}\hline\multicolumn{1}{c}{形態素の部分的並び}&\multicolumn{1}{c}{敬語タイプ}\\\hline``A''+``さん''&敬称\\``B''+``氏''&敬称\\``L''+``様''&敬称\\``お''+〜+``する''&謙譲語\\``ご''+〜+``する''&謙譲語\\``頂く''&謙譲語\\``申しあげる''&謙譲語\\``お''+〜+``なさる''&尊敬語\\``ご''+〜+``に''+``なる''&尊敬語\\``おっしゃる''&尊敬語\\``いらっしゃる''&尊敬語\\``です''+``.''&丁寧語\\``ます''+``.''&丁寧語\\\hline\end{tabular}\end{center}\end{table}敬語タイプ辞書に登録されている表現の総数(``〜''を含むパターンの表現はパターンとして1個とカウント.また``頂く''/``いただく''等の異表記は別個のものとしてカウント)は約250個である.また表3に示すように,敬語特徴パターンは4つの要素$s$,$o$,$e$,$p$からなる.要素$s$は,述語の主語(表中``$subj$''と標記)の敬称の有/無,に応じて1/0の値を取る.要素$o$は,述語の補語(表中``$obj$''と標記)の敬称の有/無,に応じて1/0の値を取る.要素$e$は,発話文の文末が丁寧/丁寧でない,に応じて1/0の値を取る.要素$p$は,述語の敬語タイプに応じて0/1/2/3の値を取る.尚,``$subj$''/``$obj$''は3.4節で述べる文構造解析によって述語の主語/補語と同定された人物を指す語である.\begin{table}[htbp]\begin{center}\caption{敬語特徴パターンの各要素の定義}\label{tbl:table3}\begin{tabular}{ll}\hline敬語特徴パターンの各要素の値&条件\\\hline$s=0$&$subj$の敬称なし\\$s=1$&$subj$の敬称あり\\\hline$o=0$&$obj$の敬称なし\\$o=1$&$obj$の敬称あり\\\hline$e=0$&文末が丁寧でない\\$e=1$&文末が丁寧\\\hline$p=0$&述語が尊敬語でも謙譲語でもない\\$p=1$&述語が尊敬語\\$p=2$&述語が謙譲語\\$p=3$&述語が尊敬語かつ謙譲語(二方面敬語)\\\hline\end{tabular}\end{center}\end{table}\subsection{入出力の形式}システムの入出力の例を図1に示す.図中,記号``A$>$B$>$L$>$S''は,話者(S),聞き手(L),人物A,及び人物Bの主観的上下関係を表すラベル(以下,``上下関係ラベル''と記す)である.``$>$''の左側に現れた記号に対応する人物は右側に現れた記号に対応する人物より主観的上下関係が上であるものと定義する.本システムでは,上下関係ラベルが表す人物間の主観的上下関係は常に正しいと想定して処理を行っている.上下関係ラベルと共に,聞き手(L)に対する話者(S)の発話文が入力される.この例では,発話意図:``AがBに言った''に対応する発話文が入力されている.システムは入力された発話文の語形上の誤用,及び発話文と上下関係ラベルとの整合性をチェックし,誤用の箇所が見つかった場合には,その箇所,及び誤用の種類を出力する.この例では,語形上の誤用は見つからなかったが,話者(S)より主観的上下関係が上の聞き手(L)に対する発話文において文末が丁寧ではないため,``誤用''と判定されている.\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{60mm}\baselineskip=4mm\\[入力]\\A$>$B$>$L$>$S\\AさんがBさんにおっしゃったそうだ.\\\\[出力]\\判定:$誤用$\\誤用の箇所:$文末$\\誤用の種類:$文末が丁寧ではない$\\\end{minipage}}\caption{入出力の例}\label{fig:figure1}\end{center}\end{figure}\subsection{処理の流れ}本システムにおける処理のフローを図2に示す.システムに入力された発話文はまず形態素解析され,形態素の並びに変換される(形態素解析には茶筌\footnote{奈良先端大が開発した形態素解析システム\\http://chasen.aist-nara.ac.jp/index.html.ja}を用いた).次に,語形誤り表現リスト(表1)を用いて,語形上の誤用がチェックされる.例えば,形態素の並びの中に,\mbox{``お''}+動詞+``に''+``なる''+``れる''が現れた場合には,語形上の誤用:``お〜になられる''であると判断し,その旨を出力して処理を終了する.語形上の誤用が見つからなかった場合には,文構造解析によって述語の主語と補語の同定を行う.文構造解析では,形態素の並びの異なる箇所に【人物を指す語(+敬称)+格助詞(``が''/``を''/``に''/``から''等)】が2箇所現れるようなテンプレートを始め様々なテンプレートを用意することによって主語と補語を同定する.テンプレートの総数は約140個である.具体的なテンプレートの例を表4に示す.表中``○'',``△''は人物を指す語,``〜''は任意の文字列を表す.例えば図1に示した発話文に対しては,``AさんがBさんに''に対する形態素の並び,即ち【``A''``さん''(敬称)``が''``B''``さん''(敬称)``に''】が表4の最初に記されたテンプレートと一致するので,主語がA,補語がBと同定される.\begin{figure}[htbp]\begin{center}\epsfxsize=11cm\epsffile{./fig2.eps}\caption{処理のフロー}\label{fig:figure2}\end{center}\end{figure}\begin{table}[htbp]\begin{center}\caption{テンプレートの例(``○'',``△''は人物を指す語,``〜''は任意の文字列)}\label{tbl:table4}\tabcolsep=2em\begin{tabular}{lll}\hline形態素の並び&主語&補語\\\hline〜○{敬称}が〜△{敬称}に〜&○&△\\〜○{敬称}が〜△に〜&○&△\\〜○が〜△に〜&○&△\\〜○が〜△から〜&○&△\\〜△{敬称}に〜○{敬称}が〜&○&△\\\hline\end{tabular}\end{center}\end{table}文構造解析の結果に基づき,敬語タイプ辞書(表2),及び敬語特徴パターンの各要素の定義(表3)を用いて,敬語特徴パターンを抽出する.例えば,図1に示した発話文に対する形態素の並びは【``A''``さん''(敬称)``が''``B''``さん''(敬称)``に''``おっしゃる''``た''``そう''``だ''``.''】となるが,これは主語(A)の敬称があり(``A''``さん''),補語(B)の敬称があり(``B''``さん''),文末が丁寧でなく(``だ''``.''),述語が尊敬語(``おっしゃる'')であるので,$s=1$,$o=1$,$e=0$,$p=1$となる.最後に,整合表(表5)を用いて,敬語特徴パターンと上下関係ラベルとの整合性がチェックされ,判定結果が出力される(図2中の「補足ルール」については3.6節で述べる).\begin{table}[htbp]\begin{center}\caption{整合表}\label{tbl:table5}\begin{tabular}{ll}\hline敬語特徴パターンの各要素の値&上下関係\\\hline$s=0$&S$>subj$\\$s=1$&$subj>$S\\\hline$o=0$&S$>obj$\\$o=1$&$obj>$S\\\hline$e=0$&S$>$L\\$e=1$&L$>$S\\\hline$p=0$&S$>subj$$\wedge$S$>obj$\\$p=1$&$subj>obj$$\wedge$$subj>$S\\$p=2$&$obj>$S$>subj$(i.e.$obj>$S$\wedge$S$>subj$)\\\hline$p=1$or3&$obj>subj>$S(i.e.$obj>subj$$\wedge$$subj>$S)\\\hline\end{tabular}\end{center}\end{table}整合表(表5)は,部分的上下関係と,それに対応した文の敬語特徴パターンにおける特定の要素が持つべき値との間の対応を記したルールである.ここで``部分的上下関係''とは,発話に関わる人物のうち一部の人物の間の主観的上下関係を表したものであり,上下関係ラベルと同じ表記法で記される.例えば表5の$e=1$に関する行は,話者(S)より聞き手(L)の主観的上下関係が上の場合(L$>$S)には,文末は丁寧($e=1$)とする,というルールを表している.図1の例では,A($subj$)$>$B($obj$)$>$L$>$Sと$s=1$,$o=1$,$e=0$,$p=1$との整合性がチェックされる.この時,$sub>obj>$L$>$Sは$s=1$,$o=1$,$p=1$とは整合するが,L$>$Sと$e=0$は整合しない.従って,$e=0$に対応する文中の箇所(即ち文末)が運用上の誤用と判定される.尚,ユーザによる入力の便宜のため,上下関係ラベルは省略可能とした.この場合には,過去に入力された上下関係ラベルのうち最後の上下関係ラベルを用いることとした.\subsection{整合表の構築}整合表(表5)は,学習データに基づいて構築した.学習データの例を図3に示す.学習データの基本的な単位は本システムの入力と同じ形式のデータ,即ち上下関係ラベルと制約1〜3を満たす発話文のペアである(記号``:''は入力文と上下関係ラベルのセパレータ).学習データでは,発話に関わる人数を4名(S,L,A,B)に固定した.前述の通り,このときAが主語($subj$)でBが補語($obj$)のケースのみ想定される(Bが主語でAが補語のケースはこれと等価).\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{80mm}\baselineskip=4mm\\AはBさんからお聞きしたそうです.:L$>$B$>$S$>$A\\AがBさんのところに伺いました.:L$>$B$>$S$>$A\\\end{minipage}}\caption{学習データの例}\label{fig:figure3}\end{center}\end{figure}発話文は,上下関係ラベルが表す人物間の上下関係に対応する文として規範的に正しいと考えられる文であり,具体的には日本語学に関する様々な文献\cite[等]{Ishino1986,Kabaya1998,Kikuchi1996,Kikuchi1997,Kokugoken1990,Kokugoken1992,Suzuki1984,Hoshino1993,Horikawa1969,Masuoka1989,Miyaji1999,Moriyama2000}において共通して明示的あるいは暗示的に述べられていると解釈できる規範に基づいて我々が作成した.上下関係ラベルのバリエーションはS,L,A,Bの間の全ての上下関係バリエーション(即ち,4!=24通り)である.各々の上下関係ラベルに対し,発話文を12個ずつ作成した.従って,学習データの総数は288個(=24×12)である.このようにして作った学習データに対して,以下の手続きによって整合表を構築した.この手続きは人手で行った.\bigskip[整合表構築手続き]\begin{description}\item[(Step1)]学習データにおける各々のペア:{上下関係ラベル,発話文}において,発話文の敬語特徴パターンを求め,その発話文とペアとなっていた上下関係ラベルとの間でペアを作る.敬語特徴パターンは3.4節と同様の手順,即ち発話文の形態素解析,文構造解析を行い,更に敬語タイプ辞書(表2),及び敬語特徴パターンの各要素の定義(表3)を用いることにより求める.\item[(Step2)]24種類の上下関係ラベルの各々に関し,以下を行う.\\Step1で得たペア:{上下関係ラベル,敬語特徴パターン}(計288個)の中からその上下関係ラベルとペアになっている敬語特徴パターンの全ての種類をリストアップする.\item[(Step3)]全ての上下関係ラベルに関しStep2で得られたリストをまとめて一つの表にする.ここで,一つの上下関係ラベルに複数の敬語特徴パターンが対応する場合は,同じ行の異なる列に記す(このようにして得られた表が表6).\item[(Step4)]敬語特徴パターンの要素$s$,$o$,$e$,$p$の各々に関し,以下を行う.\item[(Step4-1)]注目している要素の各々の値に関し,Step3で得られた表(表6)においてこの値を含む敬語特徴パターンに対応する全ての上下関係ラベルをピックアップしてひとまとまりのグループにする.ただし要素pに関しては,表6においてpの値だけが異なるような二つの敬語特徴パターンを持つ上下関係ラベル,即ちL$>$B$>$A$>$S,B$>$A$>$L$>$S,B$>$L$>$A$>$S,B$>$A$>$S$>$Lをひとまとまりのグループにした後,$p=$0,1,2の各々についてこの処理を行う.\item[(Step4-2)]Step4-1で得られた各グループにおいて,同じグループに含まれる上下関係ラベルの全てに共通し,かつ異なるグループに含まれるいかなる上下関係ラベルとも共通しないような特徴(部分的上下関係)を見つける.これには,カルノー図(Karnaugh1953)を用いて冗長な論理式から簡潔な論理式を導く方法と同様の方法を用いる.\item[(Step5)]敬語特徴パターンの全ての要素に関して得られた部分的上下関係をまとめて一つの表にする.\item[(Step6)]表中のAを$subj$,Bを$obj$に置き換える(このようにして得られた表が表5).\end{description}\begin{table}[htbp]\begin{center}\caption{上下関係ラベルと敬語特徴パターンの対応表}\label{tbl:table6}\begin{tabular}{lll}\hline\multicolumn{1}{c}{上下関係ラベル}&\multicolumn{1}{c}{$s$$o$$e$$p$}&\multicolumn{1}{c}{$s$$o$$e$$p$}\\\hlineS$>$L$>$A$>$B&0000&\\S$>$L$>$B$>$A&0000&\\S$>$A$>$L$>$B&0000&\\S$>$A$>$B$>$L&0000&\\S$>$B$>$L$>$A&0000&\\S$>$B$>$A$>$L&0000&\\L$>$S$>$A$>$B&0010&\\L$>$S$>$B$>$A&0010&\\L$>$A$>$S$>$B&1011&\\L$>$A$>$B$>$S&1111&\\A$>$B$>$L$>$S&1111&\\A$>$L$>$B$>$S&1111&\\L$>$B$>$S$>$A&0112&\\B$>$L$>$S$>$A&0112&\\L$>$B$>$A$>$S&1111&1113\\B$>$A$>$L$>$S&1111&1113\\B$>$L$>$A$>$S&1111&1113\\A$>$B$>$S$>$L&1101\\A$>$S$>$B$>$L&1001&\\A$>$S$>$L$>$B&1001&\\A$>$L$>$S$>$B&1011&\\B$>$A$>$S$>$L&1101&1103\\B$>$S$>$A$>$L&0102&\\B$>$S$>$L$>$A&0102&\\\hline\end{tabular}\end{center}\end{table}例えば,表5の$s=0$,及び$s=1$に対応する行は以下のようにして得られる.まずStep1〜Step3で表6が得られる.次にStep4で$s$に注目し,Step4-1において,$s=0$に対応する上下関係ラベルのグループ:S$>$L$>$A$>$B,S$>$L$>$B$>$A,S$>$A$>$L$>$B,S$>$A$>$B$>$L,S$>$B$>$L$>$A,S$>$B$>$A$>$L,L$>$S$>$A$>$B,L$>$S$>$B$>$A,L$>$B$>$S$>$A,B$>$L$>$S$>$A,B$>$S$>$A$>$L,B$>$S$>$L$>$A及び$s=1$に対応する上下関係ラベルのグループ:L$>$A$>$S$>$B,L$>$A$>$B$>$S,A$>$B$>$L$>$S,A$>$L$>$B$>$S,L$>$B$>$A$>$S,B$>$A$>$L$>$S,B$>$L$>$A$>$S,A$>$B$>$S$>$L,A$>$S$>$B$>$L,A$>$S$>$L$>$B,A$>$L$>$S$>$B,B$>$A$>$S$>$Lが得られる.次にStep4-2によって,$s=0$に対応する部分的上下関係:S$>$A,及び$s=1$に対応する部分的上下関係:A$>$Sが得られる.最後にAを$subj$に置き換えることにより,$s=0$に対応する部分的上下関係:S$>$$subj$,及び$s=1$に対応する部分的上下関係:$subj$$>$Sが得られる.\bigskip整合表の妥当性を検証するため,テストデータを用いた実験を行った.テストデータは整合表の構築に用いた学習データと同じ文献を用い,同じ要領で作成した.即ちテストデータでは,発話に関わる人数を4名(S,L,A,B)に固定し,上下関係ラベルのバリエーションを24通りとした.各々のバリエーションに関し,正例(上下関係ラベル+規範的な文),負例(上下関係ラベル+非規範的な表現を含む文)をそれぞれ6個ずつ作成した.従って,正例,負例の総数はいずれも144個である.これらのテストデータをシステムに入力したところ,全ての正例に対してシステムは``正しい''と判定し,全ての負例に対して``誤用''と判定した(誤用の箇所,種類も正しく指摘).この結果は,本研究の枠組み(敬語の規範に関する考え方,発話状況の取り扱い,及び対象とする文に関する制約)の下で,発話に関わる人物が4名(この時,Aが主語かつBが補語,あるいはBが主語かつAが補語)の場合には,敬語運用上の規範を整合表(表5)が過不足なく表していることを示唆する.また3.1節で述べたように,発話に関わる人物が3名(S,L,A)の場合は,Aは主語あるいは補語のいずれかになるが,この時SやLが主語や補語になるケースがある.また発話に関わる人物が2名(S,L)の場合は,Sが主語でLが補語のケース,及びLが主語でSが補語のケースがある.従って,整合表(表5)がこのようなケースでも有効に機能するようにするため,整合表の補足ルールを導入した.そして整合表と補足ルールが,発話に関わる人数,及び主語・補語のあらゆるバリエーションについて妥当か否かについての検証を行った.以下ではこれらについて述べる.\subsection{補足ルール}前述の通り,発話に関わる人物が4名の場合は,話者(S)や聞き手(L)が主語($subj$)や補語($obj$)になる状況は想定しないが,発話に関わる人物が2名,及び3名の場合はSやLが主語や補語になる場合がある.特にSが主語あるいは補語になる場合には,整合表(表5)における敬語特徴パターンの要素$s$,$o$,及び$p$に対応する上下関係が``$subj$$>$$subj$''や``$obj$$>$$obj$''となるケースが生じるため整合表をそのまま用いることができない.このためこのようなケースでは,``$subj$$>$$subj$''や``$obj$$>$$obj$''の項を整合表から削除(この処理は,これらの項の真理値を真とした場合と等価)した上で,以下に述べる規範から直接導いたルール,及び規範に基づき整合表を修正して導いたルール(以下これらを``補足ルール''と総称する)を用いることとする.この規範は整合表の構築に用いた文献を参考にして設けたものであり,その基本的な考えは「発話に関わる人物間の上下関係によらず,話者自身を高めるような語は用いない\footnote{例えば,「俺様は」等は扱わない.}」ということである.これを具体的に記述すると,規範a:話者自身の敬称はつけない,規範b:話者が主語の時は尊敬語を用いない,規範c:話者が補語の時は謙譲語を用いない,ということになる.尚,補足ルールは整合表において$subj$や$obj$を含むルールに関連する特徴敬語パターンの要素(即ち,$s$,$o$,及び$p$)に対するルールであり,整合表において対応する上下関係に$subj$や$obj$を含まない要素eについては適用しない(即ち,$e$に関しては整合表を用いる).具体的に,補足ルールは以下のように導かれる.まずSが$subj$の時,規範aにより直接$s=0$(上下関係によらず)が導かれる.また$p$に関しては,規範bにより$p=1$,及び$p=3$がルール化の対象から除外され,更に整合表(表5)の``S$>subj$''の項を削除することにより,$p=0$(S$>obj$)/$p=2$($obj>$S)が得られる.尚,$o$は整合表通り$o=0$(S$>obj$)/$o=1$($obj>$S)である.一方Sが$obj$の時,規範aにより直接$o=0$(上下関係によらず)が導かれる.またpに関しては,まず整合表(表5)の中で論理値が偽となる上下関係が記述された行,即ち整合表の一番下の行(部分的上下関係は,$obj>subj$$\wedge$$subj>$S)をルール化の対象から除外する.次に規範cにより$p=2$がルール化の対象から除外され,更に``S$>obj$'',及び``$obj>$S''の項を削除することにより,$p=0$(S$>subj$)/$p=1$($subj>$S)が得られる.尚,$s$は整合表通り$s=0$(S$>subj$)/$s=1$($subj>$S)である.以上をまとめると,補足ルールは下記となる(整合表通りのルールは省略).\bigskip[補足ルール]\begin{enumerate}\itemSが$subj$の時\begin{itemize}\item$s=0$(上下関係によらず)\item$p=0$(S$>obj$)/$p=2$($obj>$S)\end{itemize}\itemSが$obj$の時\begin{itemize}\item$o=0$(上下関係によらず)\item$p=0$(S$>subj$)/$p=1$($subj>$S)\end{itemize}\end{enumerate}\bigskip\subsection{我々が作成したテストデータを用いた妥当性の検証}整合表と補足ルールを合わせた機能の妥当性を検証するため,テストデータを用いた実験を行った.テストデータは整合表の妥当性の検証に用いたテストデータと同様の方法で作成した.ただしここでは,発話に関わる人数を2名(S,L),3名(S,L,A),及び4名(S,L,A,B)とし,それぞれの人数において,上下関係ラベル,及び主語・補語に関する全てのバリエーションを設定した.具体的には,人数が2名の場合は,上下関係ラベル2通り×主語・補語のバリエーション2通り=計4通り,人数が3名の場合は,上下関係ラベル6通り×主語・補語のバリエーション4通り(ここで,Aは主語あるいは補語)=計24通り,人数が4名の場合は,上下関係ラベル24通りとした(Aは主語,Bは補語に固定).各々のバリエーションに関し,正例(上下関係ラベル+規範的な文),負例(上下関係ラベル+非規範的な表現を含む文)をそれぞれ5個ずつ作成した.従って,正例,負例の総数はいずれも260個である(正例,負例の一部を図4に示す).尚,文作成の際想定する発話意図として,複数の発話意図をあらかじめ用意した.\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{80mm}\baselineskip=4mm\\(正例)\\SがLから聞いたんだよ.:S$>$L\\AがSに電話をかけてきたよ.:S$>$L$>$A\\AはBさんをご自宅までお送りした.:B$>$S$>$A$>$L\\(負例)\\SがLに電話をかけました.:S$>$L\\AさんはSにお写真を見せてくださった.:L$>$A$>$S\\AはBからお聞きしました.:L$>$S$>$B$>$A\\\end{minipage}}\caption{実験に用いた正例,負例の一部}\label{fig:figure4}\end{center}\end{figure}これらのテストデータをシステムに入力したところ,全ての正例に対してシステムは``正しい''と判定し,全ての負例に対して``誤用''と判定した(誤用の箇所,種類も正しく指摘).この結果は,整合表(表5),及び補足ルールの妥当性を示唆する. \section{システムの妥当性の検証} 本システムの妥当性(ただし,語形上の誤用に関する機能は主に語形誤り表現リストの適切さに依存するため,ここでは運用上の誤用に関する機能のみを対象とする)を更に検証するため,著者らの研究グループとは独立した日本語学の研究グループ(言語に関するデータ作成の専門機関に所属し,日本語学を主な専門とする研究グループであり,メンバは3〜5名)が作成したテストデータを用いた実験を行った.テストデータの作成に当たっては,様々な日本語学研究者の間で共通して述べられていると作業者が認識する敬語規範にできるだけ厳密に準拠し,3.7節で述べたテストデータと同じバリエーションに関し,3.1節の制約1〜3に従う発話文を記述するよう指示した.即ち,テストデータのバリエーションは,人数が2名の場合は4通り,人数が3名の場合は24通り,人数が4名の場合は24通りである.各々のバリエーションに関し,正例,負例はそれぞれ10〜12個ずつ作成された.正例,負例の総数はいずれも616個である.これらのテストデータをシステムに入力したところ,全ての負例に対し,システムは``誤用''と判定した(誤用の箇所,種類も正しく指摘).また,正例のうち587個(正例の約95%)に対し,システムは``正しい''と判定したが,残り29個(正例の約5%)については``誤用''と判定した.図5は,正例に対してシステムが``正しい''と判定した例である.\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{35mm}\baselineskip=4mm\\入出力例:\\[入力]\\L$>$S$>$A\\SがAに言いました.\\\\[出力]\\判定:文は正しい\\\end{minipage}}\caption{正例を``正しい''と判定した例}\label{fig:figure5}\end{center}\end{figure}また,システムが負例の誤用を正しく指摘した例を図6に示す.図6の入出力例1では,尊敬語でも謙譲語でもない語(この例では,``言った''等)にすべき述語が謙譲語(この例では,\mbox{``お伝えした'')}であったため誤用と指摘されている.また入出力例2では,部分的上下関係がB$>$Sであるにも関わらずBの敬称がない,という誤用が指摘されている.\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{65mm}\baselineskip=4mm\\入出力例1:\\[入力]\\S$>$A$>$L\\AがLにお伝えしたはずだよ.\\\\[出力]\\判定:誤用\\誤用の箇所:お伝えした\\誤用の種類:述語が謙譲語になっている\\\bigskip入出力例2:\\[入力]\\A$>$B$>$L$>$S\\AさんがBのところへいらっしゃいました.\\\\[出力]\\判定:誤用\\誤用の箇所:B\\誤用の種類:Bの敬称がない\\\end{minipage}}\caption{負例の誤用を正しく指摘した例}\label{fig:figure6}\end{center}\end{figure}システムによって``誤用''と判定された正例29個は以下3種類に分けられる(それぞれの種類に対応する3つの入出力例を図7に示す).(1)図7の入出力例1のように,人物の敬称はつけないことが整合表で期待される上下関係($subj$の敬称をつけないことが期待される上下関係はS$>subj$あるいはSが$subj$.また$obj$の敬称をつけないことが期待される上下関係はS$>obj$あるいはSが$obj$)において敬称がつけられていた(この例では,``Aさん'')正例は17個.(2)図7の入出力例2のように,尊敬語(例えば,``おっしゃる''等)あるいは二方面敬語(例えば,``お話しして下さる''等)の述語が期待される上下関係($obj>subj>$S)において述語が謙譲語(この例では,``申し上げる'')だった正例は6個.(3)図7の入出力例3のように,尊敬語でも謙譲語でもない述語(例えば,``説明する''等)が期待される上下関係(Sが$subj$でも$obj$でもない時はS$>subj$$\wedge$S$>obj$.Sが$subj$の時はS$>obj$.Sが$obj$の時はS$>subj$)において述語が謙譲語(この例では,``説明いたす'')だった正例は6個.この6個はいずれも部分的上下関係がL$>$S(即ち,話者より聞き手の主観的上下関係が上)のケースであった\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{65mm}\baselineskip=4mm\\入出力例1:\\[入力]\\S$>$L$>$A\\SがAさんに言ったんだ.\\\\[出力]\\判定:誤用\\誤用の箇所:Aさん\\誤用の種類:Aに不要な敬称がある\\\bigskip入出力例2:\\[入力]\\L$>$A$>$S\\AさんがLさんに申し上げました.\\\\[出力]\\判定:誤用\\誤用の箇所:申し上げる\\誤用の種類:述語が謙譲語になっている\\\bigskip入出力例3:\\[入力]\\L$>$S$>$A\\SがAに説明いたしました.\\\\[出力]\\判定:誤用\\誤用の箇所:説明いたす\\誤用の種類:述語が謙譲語になっている\\\end{minipage}}\caption{正例を``誤用''と判定した例}\label{fig:figure7}\end{center}\end{figure}\bigskip以上の結果のうち(1)は特に女性が用いる傾向がある丁寧な用法であり,一概には非規範的と決めつけることはできないと考えられる.(2)は,謙譲語として妥当な運用法であるとする解釈がある(例えば,国語研1992).また(3)は聞き手への丁重さを表すための表現であり,「主語を低める」という,いわゆる謙譲語の用法とは異なる用法(``丁重語''等と呼ばれることがある)として一般的になりつつあるが,今回は最も基本的と考えられる敬語の用法のみを対象としたため,このような表現を適切に取り扱えなかったものと考えられる.以上から,著者らの研究グループとは独立した日本語学の研究グループが作成したテストセットを用いた場合でも,本システムは概ね妥当な出力を行うことが確認された.ただし,一部の表現に対してはより詳細な取り扱いが必要であることが示唆された. \section{むすび} 日本語発話文,及び発話に関わる人物間の主観的上下関係を表すラベルを入力とし,入力された日本語発話文における誤用の有無,及び誤用が含まれる場合にはその箇所と種類を出力するシステムを開発した.本システムは,敬語における主要な2種類の誤用,即ち語形上の誤用,及び運用上の誤用の両方を指摘することができる.また発話に関わる人数としては,2名,3名,及び4名を取り扱うことができる.正例,及び負例を用いた実験によってシステムの妥当性を検証したところ,一部のケースを除き,本システムが妥当な出力を行うことが確認できた.本システムの構築に当たっては,日本語学に関する様々な文献において共通して明示的あるいは暗示的に述べられていると解釈できる規範にできるだけ厳密に準拠するよう心がけた.本システムは,日本語を勉強中の外国人や日本の子供が敬語の最も基本的な知識を学習するためのツールとして有用であると考えられる.またこのような人々に限らず,語形上の誤用をチェックすることのできる本システムの機能は,文書作成における敬語の語形のケアレスミスをチェックする等の用途として幅広く活用できると考えられる.一方,本システムで用いている整合表と補足ルールが表す敬語規範は,実際の社会で運用されている敬語規範に比べ,概して厳しい可能性がある.従って,より実用的な観点からは,社会言語学的調査等によって実際の運用を反映した整合表と補足ルールを獲得し,現在用いているものとの間で適宜使い分ける,あるいは両者を何らかの形で融合することが望ましいと考えられる.また実際の場面では,発話に関わる人物間の主観的上下関係がない(即ち,社会的地位が等しいと見なされる)ような状況がしばしば生じる.実用的な観点からは,このような状況に対処するルールの追加が必要であると考えられる.更に敬語学習の便宜のためには,誤用の指摘だけでなく正しい表現の候補を例示することが望ましい.このためには,発話意図や文としての自然さを損なわないような表現の選択法等を検討する必要があると考えられる.今後は,以上の課題の検討,機能拡張を行うことによって,より実用的なシステムの構築を目指す.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown}{Brown}{1987}]{Brown1987}Brown,P.\BBACOMMA\\BBA\Levinson,S.\BBOP1987\BBCP.\newblock{\BemPoliteness-Someuniversalsoflanguageusage-}\newblock{Cambridge.}\bibitem[\protect\BCAY{Karnaugh}{Karnaugh}{1953}]{Karnaugh1953}Karnaugh,M.\BBOP1953\BBCP.\newblock\BBOQTheMapMethodforSynthesisofCombinationalLogicCircuits\BBCQ\\newblock{\BemTrans.AIEE},{\Bbf72}(9).\bibitem[\protect\BCAY{石野}{石野}{1986}]{Ishino1986}石野博史\BBOP1986\BBCP.\newblock\JBOQ敬語の乱れ—誤用の観点から—\JBCQ\newblock文化庁「ことば」シリーズ24続敬語.\bibitem[\protect\BCAY{蒲谷,川口,坂本}{蒲谷}{1998}]{Kabaya1998}蒲谷宏,川口義一,坂本惠\BBOP1998\BBCP.\newblock\JBOQ敬語表現\JBCQ\\newblock大修館書店.\bibitem[\protect\BCAY{菊池}{菊池}{1997}]{Kikuchi1997}菊地康人\BBOP1997\BBCP.\newblock\JBOQ敬語\JBCQ\\newblock講談社.\bibitem[\protect\BCAY{菊池}{菊池}{1996}]{Kikuchi1996}菊地康人\BBOP1996\BBCP.\newblock\JBOQ敬語再入門\JBCQ\\newblock丸善ライブラリー.\bibitem[\protect\BCAY{国語審議会}{国語審議会}{1952}]{Kokugoshingikai1952}国語審議会\BBOP1952\BBCP.\newblock\JBOQこれからの敬語\JBCQ\\newblock文部大臣に対する建議.\bibitem[\protect\BCAY{国語研}{国語研}{1990}]{Kokugoken1990}国立国語研究所\BBOP1990\BBCP\newblock\JBOQ日本語教育指導参考書17敬語教育の基本問題(上)\unskip\JBCQ\\newblock大蔵省印刷局.\bibitem[\protect\BCAY{国語研}{国語研}{1992}]{Kokugoken1992}国立国語研究所\BBOP1992\BBCP\newblock\JBOQ日本語教育指導参考書18敬語教育の基本問題(下)\unskip\JBCQ\\newblock大蔵省印刷局.\bibitem[\protect\BCAY{鈴木,林}{鈴木}{1984}]{Suzuki1984}鈴木一彦,林巨樹編\BBOP1984\BBCP\newblock\JBOQ研究資料日本文法9敬語法編\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{林,南}{林}{1973}]{Hayashi1973}林四郎,南不二男編\BBOP1973\BBCP\newblock\JBOQ敬語講座6現代の敬語\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{林,南}{林}{1974}]{Hayashi1974}林四郎,南不二男編\BBOP1974\BBCP\newblock\JBOQ敬語講座1敬語の体系\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{林,南}{林}{1974}]{Hayashi1974}林四郎,南不二男編\BBOP1974\BBCP\newblock\JBOQ敬語講座8世界の敬語\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{文化庁}{文化庁}{1999}]{Bunkacho1999}文化庁文化部国語課\BBOP1999\BBCP\newblock\JBOQ世論調査報告平成10年度国語に関する世論調査−敬語・漢字・外来語−\JBCQ\\newblock文化庁.\bibitem[\protect\BCAY{星野,丸山}{星野}{1993}]{Hoshino1993}星野和子,丸山直子編\BBOP1993\BBCP\newblock\JBOQ日本語の表現\JBCQ\\newblock圭文社.\bibitem[\protect\BCAY{堀川,林}{堀川}{1969}]{Horikawa1969}堀川直義,林四郎\BBOP1969\BBCP\newblock\JBOQ敬語用例中心ガイド\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{益岡,田窪}{益岡}{1989}]{Masuoka1989}益岡隆志,田窪行則\BBOP1989\BBCP\newblock\JBOQ基礎日本語文法−改訂版−\JBCQ\\newblockくろしお出版.\bibitem[\protect\BCAY{南}{南}{1987}]{Minami1987}南不二男\BBOP1987\BBCP\newblock\JBOQ敬語\JBCQ\\newblock岩波書店.\bibitem[\protect\BCAY{宮地}{宮地}{1999}]{Miyaji1999}宮地裕\BBOP1999\BBCP\newblock\JBOQ敬語・慣用句表現論−現代語の文法と表現の研究(二)−\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{森山}{森山}{2000}]{Moriyama2000}森山卓郎\BBOP2000\BBCP\newblock\JBOQここからはじまる日本語文法\JBCQ\\newblockひつじ書房.\bibitem[\protect\BCAY{渡辺}{渡辺}{1971}]{Watanabe1971}渡辺実\BBOP1971\BBCP\newblock\JBOQ国語構文論\JBCQ\\newblock塙書房.\end{thebibliography}\begin{biography}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V29N04-04
\section{はじめに} \label{sec:introduction}科学は再現性の危機に瀕している.生化学や生命科学などの薬品を用いた化学実験を行う研究分野においては,75\%から80\%以上の研究者が他の研究者の実験結果を再現することができなかった経験があると報告している\cite{baker2016nature}.化学実験で再現性を担保する上で鍵となるのがプロトコルである.プロトコルは人がある実験を再現するために必要な操作を時系列順に記述した文書である(\figref{fig:overview}).プロトコルには,試薬や装置などの操作対象の物体名と,対応する操作方法が動詞で,実験を再現するのに必要十分な記述がされている\footnote{自明である物体名に関しては省略されることもある.例えば,\figref{fig:overview}の手順2では手順1の成果物を指しているが,明示的に記述してはいない.}.加えて,必要であれば物体の量や,操作する時間,あるいは操作の様態が副詞で記述されていることもある.例えば,\figref{fig:overview}の手順3の``Thoroughlyresuspendpelletwith250$\mu$LofCellResuspensionSolution''では,pellet,CellResuspensionSolutionという物体名の記述があり,resuspendという操作方法が動詞で記述されている.加えて,Thoroughlyという副詞や250$\mu$Lという量に関する記述もある.こうしたプロトコルに従って実行することで,理想的には実験を再現することができるはずだが,操作に抜け漏れがあったり,操作の詳細が記述されていなかったりといった問題があると,他の研究者が実験を再現することが困難になる.こうした再現性の危機に関する問題に対する有望な解決となりうるのが,視覚と言語の融合研究である.例えば,撮影した実験映像とプロトコルの組から,映像の操作シーンとプロトコルの各手順の対応関係を推定できれば,手順ごとに視覚的に操作を確認できる.あるいは,作業映像を入力としてプロトコルを自動生成できれば研究者がプロトコルを書く負担を軽減することができる.このように,化学実験を対象とした視覚と言語の融合研究は実験プロトコルの参照時と作成時の両方の負担を軽減し,実験再現性の向上に資するであろう.こうした有用性はあるものの,実験映像を対象とした視覚と言語の融合研究の数は多くない\cite{naim2014aaai,naim2015naacl}.その原因の1つに,実験映像を撮影し公開することが困難な点にある.現に,Naimらの研究で利用しているデータセットは公開されていない.そのため,我々はこの目標に向けた第一歩として,生化学分野を対象として実験映像を収集し,言語アノテーションを付与したBioVL2データセットを構築し研究コミュニティに公開する(\figref{fig:overview}).具体的には以下の2種類のアノテーションを作業映像に付与する.\begin{enumerate}\item\textbf{視覚と言語の対応関係のアノテーション.}プロトコルを動詞ごとに分割した文のそれぞれに対して(本論文ではこれを特に\textbf{手順}と呼ぶ),映像の中で手順が実施されている区間(以下,\textbf{イベント}と呼ぶ)を付与する.このアノテーションは従来の視覚と言語の融合研究\cite{zhou2018aaai,krishna2017iccv}と同様であり,映像キャプショニング\cite{xu2016cvpr,nishimura2021acmmm}や映像と視覚の対応関係の推定\cite{naim2014aaai,naim2015naacl}などの応用研究に活用できる.\item\textbf{プロトコル内に現れる物体の矩形アノテーション.}映像中の各フレームごとに,プロトコル中の物体が写っていて,かつ実験者の手と接触があった場合に物体の矩形情報を付与する.これにより,映像中の空間的な分析(例:何が写っているか,どういう状態か)や実験者の動作分析が可能になる.また,前述のアノテーションと合わせてプロトコル中の物体名と映像中の物体との対応関係の推定\cite{zhou2018bmvc}などの応用研究にも利用できる.\end{enumerate}これらのアノテーションの付与を行うことで,映像からのプロトコル生成や手順を入力としたシーン検索が可能となる.こうした検索が行えると,初学者に対する教育効果や作業補助が期待でき,実験の再現性の向上につながる.また,データがさらに集まるようになれば,最終的にはプロトコルからのロボット操作などのより挑戦的,かつ有用性が高い課題にも取り組むことが可能になる.本研究で提案するBioVL2データセットはこうした生化学実験を対象とした言語と視覚の融合研究への第一歩である.BioVL2データセットの収集において意識した設計は,一人称視点のカメラを用いることで,研究者への撮影の負担を最小限にしたことである.実験の度に大掛かりな撮影環境を構築していては,日々実験を行う研究者らは撮影に負担を感じ,結果データセットのサイズはスケールしない.研究者らが自ら撮影に取り組めるように,できるだけ研究者への負担が少ない設計を考える必要がある.この点で,三人称カメラは撮影の度に広範な実験空間をカバーするのに複数台の設置が必要で,故障のリスクが高くなる他,同時撮影などの手間が発生する.一人称カメラは広範な実験空間をカバーしつつも,生化学分野の研究者が手軽に撮影可能である.これが一人称カメラを用いた理由である.こうして撮影を行った結果,全32の実験映像とそのアノテーションからなるデータセットを構築した.得られたBioVL2データセットを用いて,その応用として本論文では実験映像からプロトコルを生成する課題に取り組む.実験映像の数は他の映像キャプショニングのデータセット\cite{krishna2017iccv,zhou2018aaai,xu2016cvpr}と比較すると少なく,こうした課題で提案されているEnd-to-endな深層学習モデルを本課題に直接適用することは困難である.そのため,本研究では,Ushikuら\cite{ushiku2017ijcnlp}によって提案された手順書生成モデルを活用する.このモデルは本研究と同様,少量の料理映像(20映像)に対して適用できるように外部リソースを活用しながら学習できるよう設計されている.このモデルにいくつかの改良を施し,BioVL2データセットの実験映像からプロトコル生成を生成する課題に取り組む.定量的,定性的評価の結果,モデルは弱いベースラインと比較して,適切なプロトコルを生成できることを確認する.本論文で述べるBioVL2データセットは\cite{nishimura2021iccvw}にて発表したBioVLデータセットの拡張である.具体的には,(1)映像の数を16から倍の32へ増加させたこと,(2)映像への矩形アノテーションを追加で行ったことの2点の拡張を行った.さらに,\cite{nishimura2021iccvw}では行わなかった,実験映像からプロトコルを生成する課題に取り組んだことも本研究の追加の貢献である.BioVLデータセットと同様,BioVL2データセットは研究用途に限り公開する予定である\footnote{\url{https://github.com/misogil0116/BioVL2}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 関連研究を大きく分けて2つの観点から説明する.第一に,作業映像と言語アノテーションの観点から,第二に,生物学の諸分野を対象とした自然言語処理,および視覚と言語の融合研究の観点から本研究の位置付けについて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{作業映像と言語アノテーションからなるデータセット}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Web上の作業映像を対象とした研究}ある目的に向かい処理を進める行動系列を理解するために,作業映像を対象とした研究は近年活発に取り組まれている.作業映像の理解の手がかりとして,言語情報をアノテーションする方法がよく採用され,様々なデータセットが提案されてきた.数ある分野(例:料理,家具の組み立て)の中で,最も注目を集めてきたのは料理分野である.この分野はWeb上でデータを集めやすく,物体や動作の種類が多様であることから,長年にわたり研究者の注目を集め続けてきた\cite{nishimura2021acmmm,zhou2018bmvc,wang2021wacv}.料理分野で提案された映像と言語アノテーションからなるデータセットのうち,最も大規模なデータセットはYouCook2\cite{zhou2018aaai}データセットである.このデータセットはYouTube上の料理映像を89のカテゴリに分けて収集し,映像に対し料理を達成する上で重要なイベントのアノテーションを行い,各イベントに対し手順を付与したデータセットとなっている.そして,映像の密キャプショニング\cite{krishna2017iccv,zhou2018cvpr},作業映像における質問応答\cite{wang2021wacv},作業映像からの手順書生成\cite{nishimura2021acmmm}など様々な研究におけるベンチマークデータセットとしてもよく用いられている.また,料理分野に続き,メイクアップ映像をYouTubeから収集し同様のアノテーションを付与したデータセットであるYouMakeup\cite{wang2019emnlp}も提案されている.特定の分野に限定せず,作業映像一般を収集し言語アノテーションを付与する取り組みも行われている.Howto100M\cite{miech2019iccv}はその中でも最も大規模なデータセットであり,1億の作業映像と言語の組からなるデータセットである.なお,Howto100Mに付与している言語アノテーションは,映像に付与しているナレーションを言語アノテーションとして自動的に収集し付与したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{一人称視点の作業映像を対象とした研究}Web上の映像の多くは視聴者のために編集されていることが多く,作業を行う上で必要な行動の全てが映像中に現れるわけではない.例えば,冷蔵庫から材料を取り出すシーンや,ミキサーで混ぜるなどの時間がかかるシーンは編集で切り取られやすい.こうしたシーンも含めた作業行動全体の理解のために,近年,一人称視点の未編集映像を収集する取り組みが行われてきた.料理分野における代表的なデータセットとして,EPIC-KITCHENデータセット\cite{damen2018eccv}がある.このデータセットは,32の参加者の料理を行う過程を一人称視点のカメラを使って撮影したもので,合計100時間,700映像からなり,各映像には全ての人間の動作が言語情報でアノテーションされている(例:冷蔵庫を開ける,じゃがいもを切るなど).他にも,おもちゃの車の組み立てを行うためのデータセットとしてAssembly101データセット\cite{sener2022cvpr}が提案されている.このデータセットは合計513時間,4,321映像からなるデータセットであり,EPIC-KITCHENSデータセットと同様に動作情報のアノテーションとして言語アノテーションが行われている.BioVL2データセットは,生化学分野における一人称視点の作業映像と言語アノテーションからなるデータセットであると位置付けられる.前述したデータセットと比較すると撮影した映像数は少ないが,今後の生化学分野における実験映像理解の研究において有用である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{生物学の諸分野を対象とした自然言語処理,および視覚との融合研究}生物学およびその諸分野(生化学,分子生物学)において,再現性の観点からも人工知能技術を適用することのニーズは高い(例:プロトコルから実験映像を検索,プロトコルからロボットの実験実行).以下では,自然言語処理,および視覚との融合研究に関する先行研究を挙げ,本研究の位置づけを明確にする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自然言語処理}生命科学を対象とした代表的なデータセットとして,GENIAコーパス\cite{kim2003bioinfo}がある.これは,生命科学論文のアブストラクトに対して,品詞情報や構文木,固有表現などの計6種類のアノテーションが付与されたデータセットである.Kulkarniら\cite{kulkarni2018naacl}は,生物学のプロトコルを処理するためのデータセットであるWetLabProtocolデータセット(WLPデータセット)を提案した.生物学のプロトコルを機械可読な動作グラフ表現\cite{kiddon2015emnlp}に変換することがこのデータセットの目的であり,\url{https://www.protocols.io/}から収集した全622のプロトコルについて,固有表現のアノテーション(bio-NamedEntity,以下b-NEと呼ぶ),加えてそれらの関係性(例えば,ある薬品をどのように操作するといった述語項構造のヲ格に当たる関係)を閉路のない有向グラフで表現するアノテーションを付与している.そして,このアノテーションの根のノードがプロトコルの最終成果物を表している.EMNLP2020併設のワークショップThe6thWorkshoponNoisyUser-generatedText(W-NUT)では,このデータセットをもとに共有タスクとして取り組まれ,固有表現認識および関係抽出の課題において多くの手法が提案されている\cite{knafou2020wnut,singh2020wnut,golam2020wnut}.本研究において,WLPデータセットのb-NEタグのアノテーション基準はBioVL2データセットのプロトコル中の動詞のタグ付けや,物体名の抽出などにおいて参考にしている.また,\secref{sec:protocol_generation}において,手順書生成のための文生成モデルの事前学習においてもWLPデータセットを活用している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{言語と視覚の融合研究}自然言語処理技術のみでの発展と比較すると,言語と視覚の融合研究の数は多くはない.Naimら\cite{naim2014aaai,naim2015naacl}はプロトコルと実験映像を入力としてプロトコル中の手順と動画の区間について対応関係を獲得する課題に対し,\cite{naim2014aaai}ではIBMモデル\cite{peter1993cl}をもとに,\cite{naim2015naacl}では条件付き確率場\cite{lafferty2001icml}をもとにして教師なしで学習する手法を提案している.Naimらの研究との本研究の差分は主に以下の3点にある.第一に,前述した研究ではデータセットを公開していないが,BioVL2データセットは公開する点.第二に,プロトコルの種類数,映像数ともにNaimらのそれを上回る点(BioVL2データセットが4種類8動画に対し,Naimらのデータセットは3種類2動画).第三に,本研究ではデータセットの応用課題として,言語と視覚の対応関係の獲得ではなく,実験映像からの手順書生成を行う点である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{BioVL2データセット} 本節では,構築したBioVL2データセットについて説明する.まず,データセットの構築方法について述べ,次に統計情報およびアノテーションの一致率を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{29-4ia3f2.pdf}\end{center}\caption{(a)実験映像の撮影風景.(b)撮影途中の一人称カメラの視点.}\label{fig:first_person_view}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセットの構築}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験映像の撮影}\textbf{撮影環境について.}1名の研究者(女性)の協力を得て実験映像の撮影を行った.\figref{fig:first_person_view}に撮影途中の光景およびカメラからの視点を示す.カメラにはPanasonicHX-A500を使用しているが,このカメラは十分に軽量であり,実験の邪魔にならないように配慮している.撮影における実験は普段実験を行うのと同じように行動してもらうことを依頼した.\textbf{撮影する実験について.}生化学分野の有名かつ基礎的な実験であるPCR,ミニプレップ法,DNA抽出,アガロースゲル作成の4種類の実験に焦点を当てて映像を撮影した.1つの実験あたり8の映像を撮影した.この際,DNA抽出に関しては方法がエタノール沈殿法およびフェノールクロロホルム法の2通りの方法があるため,それぞれ4映像ずつ収録している.合計32の映像からなるデータセットである\footnote{行う実験の内容は同じで,実験者も同じだが,初期状態は実験ごとに異なり,それに応じて行う動作なども映像ごとに異なる.\secref{sec:stats}で述べる通り,いくつかの手順はそれに応じて飛ばされている.こうした実際の実験の動作の違いにも富んだデータセットの構築のために,複数の映像を撮影している.}.\textbf{映像の前処理について.}いくつかの実験映像については,研究者が待機しなければならない手順が存在する(例:遠心分離機で5分遠心する).こうした待ち時間には,研究者はカメラを外し待機しており,手順の内容とは関係がない.そのため,本研究では映像の前処理としてこうした時間を手動で取り除いている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{映像と言語の対応関係のアノテーション}\label{subsec:alignment_annotation}著者のうち1名がアノテータとして映像と言語の対応関係のアノテーションを行った.実験を実施した研究室で使われているプロトコルはイラストなどを用いて視覚的に表現されており,明確な文書化はされていなかった.そのため,実験者に実験内容を口頭で説明してもらい,それを文字で書き起こしたものをプロトコルとして利用した.次に,プロトコルを動詞ごとに分割し,手順列を得た.例えば,``Invert4timestomixandadd10$\mu$lofAlkalineProteaseSolution.''という記述については,``Invert4timestomix''と``add10$\mu$lofAlkalineProteaseSolution.''という文の2つの手順に分割した.この時,接続詞(ここではand)については消去するよう指示した.ここでは,代名詞や省略については特別な処理を行ってはいない.次に,アノテータは映像を視聴し,各手順の開始時間,終了時間を決定してイベントのアノテーションを付与した.この時,開始時刻と終了時刻にできるだけ曖昧さが残らないように,手順対象の物体を持った時から,手順対象の物体を手放すまでの間をイベントとしてアノテーションした.\tabref{tab:annotation_file}にPCRのアノテーション結果の例を示す.\secref{sec:introduction}で述べた通り,プロトコルの手順には,操作対象の物体名と操作に関する動詞を持ち,必要に応じて副詞や量,時間,数などの情報が追加で記述される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{03table01.tex}\hangcaption{PCRを対象としたアノテーション結果の一例.表の値は秒数を示す.なお,商標登録マーク\textregisteredは表では記載しているが,データセットの実際のプロトコルには含まれていない.}\label{tab:annotation_file}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{29-4ia3f3.pdf}\end{center}\hangcaption{矩形アノテーションツールのアノテーション画面.ツールはブラウザからアクセスできるように開発されている.(A)にはプロトコル中に現れる物体が列挙されており,(B)にて矩形アノテーションを行う.(C)にて前後のフレームについて移動できる.}\label{fig:bb_annotation_tool}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{プロトコル内に現れる物体の映像矩形アノテーション}\label{subsec:bb_annotation}さらに,別のアノテータがプロトコル中に現れる物体の映像矩形アノテーションを行った.このアノテータも著者のうちの1名である.映像から4秒ごとにフレームを抽出し\footnote{映像の全てのフレームに矩形アノテーションを行うことは高コストである.アノテーションコストを下げるために,映像から疎にサンプリングしてアノテーションを行うことが一般的である.Zhouら\cite{zhou2019cvpr}は映像あたり10フレームをサンプリングして矩形アノテーションを行っている.},各フレームに対して(1)手が物体と触れている状態にあり,かつ(2)触れている物体がプロトコル中に存在する場合において,その物体を矩形で囲い,物体名と紐づけるアノテーションを施している(\figref{fig:bb_annotation_tool}).なお,これらの物体名はWLPデータセット中の物体名に基づく固有表現に該当するものをプロトコルから抽出し利用している.この時,\secref{subsec:alignment_annotation}のアノテーション結果を参照しながら矩形アノテーションを行っている.なお,イベントのみに矩形アノテーションを行っているのではなく,映像全体にアノテーションを行っている点は注意されたい.映像中のイベント以外の区間においても物体をアノテーションしておくことで,幅広い応用(例:映像からのプロトコル生成)や映像の分析に利用することを想定している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{統計情報}\label{sec:stats}次に,構築したBioVL2データセットについて統計情報を言語側,映像側それぞれの観点から述べる.この結果より,両側面においてBioVL2データセットは多様な実験を収録したデータセットであることを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{03table02.tex}\hangcaption{言語側の統計情報.各値について,平均と標準偏差を示している.ミニプレップ法とアガロースゲル作成について,同じ実験を行ってはいるが,一部の手順が状況に応じて飛ばされている.そのため,標準偏差が0にならない点は注意が必要である.}\label{tab:nl_stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{03table03.tex}\caption{他の実験には現れない,ある実験にユニークな物体の種類数および動詞の種類数.}\label{tab:mat_and_actions}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{プロトコル}\tabref{tab:nl_stats}に言語側の統計情報を示す.手順あたりの単語数と比較すると,手順数は実験ごとに大きく異なることが分かる.これは,BioVL2データセットの手順の多様性を表している.中でも最も手順数が多かった実験はミニプレップ法であり,最も少ないのはフェノールクロロホルム法であることが分かる.物体の種類数についてはこれと同様の傾向を示しているが,動詞の種類数については最も種類が少ないのはPCRであった.言語の多様性を検証するために,ある実験にユニークな動詞と物体の種類数を調査した(\tabref{tab:mat_and_actions}).この結果と\tabref{tab:nl_stats}の右2列を比較すると,物体の種類数は一致するのに対し,動詞の種類数は著しく下がっている.このことから,BioVL2データセットでは動詞については全実験を通して共通のものが現れる一方,物体については実験ごとに固有の表現を持っていることが分かる.よって,物体に対する言語の多様性はあると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{03table04.tex}\caption{実験ごとの映像の長さの統計情報.表の値は平均と標準偏差を示す.}\label{tab:video_length_stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{29-4ia3f4.pdf}\end{center}\caption{手順に紐づいたイベントの長さ(秒数)の割合.$d$は秒数を示す.}\label{fig:stats_event_dist}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験映像}\tabref{tab:video_length_stats}に各実験ごとの映像の長さ(秒数)について,\figref{fig:stats_event_dist}に手順に紐づいたイベントの長さ(秒数)についての統計情報を示す.この結果から,映像やイベントの長さの観点からも,BioVL2データセットは多様性に富んでいることが分かる.映像全体の長さが最も長いのはエタノール沈殿法であり(平均399秒),最も短いものはPCRである(平均254秒).また,イベントごとの長さに着目すると,ミニプレップ法はイベントの72.4\%は10秒以下の手順で構成されている一方,フェノールクロロホルム法は50.0\%のイベントが30秒以上の長いイベントを占めている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{03table05.tex}\caption{矩形アノテーションしたフレーム数の統計情報.}\label{tab:bb_frame_stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{03table06.tex}\hangcaption{矩形アノテーションに紐づく物体をb-NEタグのカテゴリ種類に分類した上での統計情報.実験ごとにユニークな物体を数え上げ報告している.b-NEタグのうち,物体に基づく固有表現にはReagent,Location,Device,そしてSealがあるが,SealはBioVL2データセットの物体名に該当するものが存在しなかった.そのため,本アノテーションにおいてはReagent,Location,Deviceのみ数えた結果を示している.}\label{tab:sample_annotation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{03table07.tex}\caption{矩形アノテーションの統計情報.}\label{tab:bb_total_stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{矩形アノテーション}\tabref{tab:bb_frame_stats}に少なくとも1つ以上矩形アノテーションを行ったフレームが何枚存在したかについて,\tabref{tab:bb_total_stats}にアノテーションした矩形の数についての統計情報を示す.また,\tabref{tab:sample_annotation}に矩形アノテーションに紐づく物体をb-NEタグのカテゴリ種類に分類した上での統計情報を示す.b-NEタグの物体に基づく固有表現にはReagent,Location,Device,そしてSealがあるが,SealはBioVL2データセットの物体名に該当するものが存在しなかった.そのため,Reagent,Location,Deivceのみ数えた結果を示している.この表より,Reagentが最も多く,ついでLocation,そしてDeviceが最も少ないことが分かる.\tabref{tab:bb_frame_stats}より,アノテーションするフレーム数には実験ごとに違いがあることが分かる.最もアノテーションをしたフレームの割合が大きいのはフェノールクロロホルム法であり,最も小さいのはミニプレップ法である.\tabref{tab:bb_total_stats}に着目すると,概ねフレームあたり矩形を1つアノテーションしていることが分かる.また,ミニプレップ法はアノテーションするフレームの割合は最も低いものの,アノテーションしている矩形の数は最も多いことも分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{一致率の計算}アノテーション結果の品質を確かめるため,前節でアノテーションを実施した者とは別のアノテータにアノテーションを依頼し一致率を計算した.映像と言語の対応関係のアノテーションに関しては著者のうち1名が,映像矩形アノテーションについては著者とは別の1名が行った.この時の作業指示については全て\secref{subsec:alignment_annotation},\secref{subsec:bb_annotation}と同様である.全ての映像に対してアノテーションを再度行うことはコストが高いため,実験ごとに1つランダムに映像を選択し,アノテーションを依頼した.以下,アノテーションの種類ごとに一致率を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{03table08.tex}\caption{視覚と言語の対応関係アノテーションの一致率.表の値はtIoUの平均値を示す.}\label{tab:event_agreement}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{映像と言語の対応関係のアノテーション}\label{sec:event_agreement}撮影した実験の経験者に映像と言語の対応関係のアノテーションを依頼し,その結果と\secref{subsec:alignment_annotation}の結果を比較して一致率を計算した.ここでは一致率の指標として2つのイベントの時間的な重なりを表現するtemporalIntersectionoverUnion(tIoU)を利用した.\tabref{tab:event_agreement}に一致率の結果を示す.この結果より,すべての実験においてtIoUは平均75\%を超えていることが分かる.言語情報と映像を入力としたイベント検索課題\cite{lei2020eccv}において,tIoUが0.7を超えた時正解とみなして再現率を計算している.この基準から述べると,75\%は高い値であると考えられ,アノテーションの品質は十分であることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{プロトコル内に現れる物体の映像矩形アノテーション}\secref{sec:event_agreement}とは別のアノテータに映像への矩形アノテーションを依頼し,\secref{subsec:bb_annotation}の結果と比較して一致率を計算した.ここでは,物体検出\cite{ren2016tpami}の評価尺度としてよく用いられるmeanAveragePrecision(mAP)を用いた\cite{cartucho2018iros,pascalvoc2012}.新たにアノテーションした方を予測結果,\secref{subsec:bb_annotation}の結果を正解とみなしてmAPの計算を行った\footnote{mAPの計算には,\url{https://github.com/Cartucho/mAP}を用いている(2022年5月11日アクセス).}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{29-4ia3f5.pdf}\end{center}\hangcaption{(a)物体ごとのAPおよびmAPの結果.(b)物体ごとのTruepositive(真陽性)とFalsepositive(偽陽性)の数.}\label{fig:mAP_TP_FP}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\figref{fig:mAP_TP_FP}にmAPの結果と真陽性と偽陰性の分布を示す.mAPは72.73\%となった.物体検出課題における最新モデル\cite{carion2020eccv,zhu2021iclr}のmAPが0.6から0.7の間であり,実用的な性能に達していることを考えると,この値は高いと考えられ,アノテーションの品質は十分であることが分かる.一方で,多くの物体のAPが0.7を超えているもののAPが低い物体もあることが分かる.最もAPが低かったのはnew\_tubeである.元々のアノテータはある手順以降の,新しいtubeのみアノテーションを付与しているのに対し,新たにアノテーションを行った者はすべてのtubeにアノテーションを付与していることが原因であった.このように,複数のインスタンスを文脈に応じて呼び分ける必要があるが,newなどの修飾語に応じた適切なアノテーション方法は今後検討の余地がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{応用例:実験映像からのプロトコル自動生成} \label{sec:protocol_generation}構築したBioVL2データセットの応用課題の一例として,\pagebreak実験映像からプロトコルを自動生成する課題に取り組む.BioVL2データセットの映像の数は32と少なく,深層学習をもとにした映像キャプショニングモデル\cite{krishna2017iccv,zhou2018cvpr}を適用することは困難である.少量の作業映像を対象とした手順書生成手法として,我々はUshikuら\cite{ushiku2017ijcnlp}の手法を活用する.この研究では料理映像を対象に,以下の5つのプロセスで手順書を生成する手法を提案している.(1)Faster-RCNN\cite{ren2016tpami}によって各フレームに対して物体認識を行い,(2)認識した物体の中からレシピ固有表現\cite{sasada2015nlp}(recipe-NamedEntity,以下r-NE)に該当する物体のみを抽出する.そして,(3)連続する部分フレームの認識結果を統合してr-NE列を得る.(4)あらかじめ大量のレシピで事前学習させておいたr-NE集合から文を生成するモデル(\cite{ushiku2017ijcnlp}ではLSTMを使用)を用いて,(3)のr-NE列ごとに文を生成する.最後に,(5)生成した文集合の中からレシピとして最も尤もらしい組み合わせをビタビアルゴリズムを用いて探索しレシピとして出力する.本手法の特徴的な点として,物体名以外の視覚情報を活用しない点にある.r-NEと対応する文の組み合わせは,固有表現認識器を用いればWeb上から大量に収集し,文生成モデルの事前学習を行うことができる.こうして学習したモデルと物体認識器を併せて利用することで,少数の映像からでもレシピを生成することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{29-4ia3f6.pdf}\end{center}\caption{(1)Primer1を操作している画像と(2)Primer2を操作している画像.}\label{fig:difference}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%BioVL2データセットでこの手法を適用するにあたり,以下の2点の変更を加えた.\begin{itemize}\item本研究では(1)と(2)の処理を行う代わりに,矩形アノテーション結果を後段の処理に利用している.料理分野では矩形アノテーションがあれば映像中の物体認識はある程度行うことができるが\cite{hashimoto2014ubicomp},本研究で対象とする生化学分野においては物体を正しく認識することは困難であることが推察できる.例えば\figref{fig:difference}においてPrimer1とPrimer2の認識を1枚のフレームから行うことは困難である.なぜなら,これらの物体は小さく認識が難しいだけでなく,外観も類似しているからである.映像を通して見ると作業者はこれらの物体を使い分けていることが分かるが,1枚のフレームだけからこの識別を行うことは人にとってもほとんど不可能である.そのため,本研究では矩形アノテーションの結果を入力としてプロトコルを生成する課題に取り組む.この課題設定は,今後QRコードなどを物体に貼り,何を持っているのかが機械的に推定できる状況を想定している.\item文生成の事前学習モデルにはLSTMではなくTransformer\cite{vaswani2017neurips}を用いる.Transformerは機械翻訳,文書要約\cite{liu2019acl},画像キャプショニング\cite{cornia2020cvpr}など多くの文生成課題においてLSTMよりも良い性能を発揮しており,本課題においても有用であると考えられる.さらに,Transformerにコピー機構\cite{see2017acl}を導入するモデルも検討する.これは,入力の矩形アノテーションの物体情報を含む文を生成しやすくするためである.また,モデルの事前学習を行うデータセットとして,WLPデータセット\cite{kulkarni2018naacl}を活用する.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{29-4ia3f7.pdf}\end{center}\caption{実験映像からのプロトコル生成手法.}\label{fig:ushiku_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この変更を加えた手法の概要を\figref{fig:ushiku_overview}に示す.以下,手法の詳細について順に説明する.ここで,矩形アノテーションが1つ以上存在するフレーム列を$\F=(f_1,f_2,\ldots,f_n,\ldots,f_{|\F|})$とする.我々の課題では,各フレームごとにアノテーション済みの物体名を用いて,b-NE列を獲得する.例えば,\figref{fig:ushiku_overview}では,DNAengineや(DNAengine,Template)が該当する.そして,事前学習した文生成モデルを用いて,b-NE列ごとにプロトコル候補文を生成する(\figref{fig:ushiku_overview}では,``SetitinDNAengine''が該当).最後に,プロトコル候補文の中から,プロトコルとして最も尤もらしい組み合わせをViterbiアルゴリズムを用いて探索し出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{b-NE列の獲得}\label{sec:bNE_sequence}処理(3)にならい,フレーム列の部分列$f_{n}^{n+(l-1)}$($l$は部分列の長さ)に対し,固有表現列を与える.与えられた固有表現列をバイオ固有表現(b-NE)列と呼ぶ.矩形アノテーションが1つ1つがb-NEであるとみなすと,$n$番目のフレーム$f_n$はb-NE集合$\mathcal{E}_n$を持つ.この時,部分フレーム列$f_{n}^{n+(l-1)}$に含まれるb-NE集合は$\mathbf{e}_n^{l}\in\mathcal{E}_n\times\mathcal{E}_{n+1}\times\ldots\times\mathcal{E}_{n+(l-1)}$として定式化する($\times$は集合のデカルト積)\footnote{Ushikuらの手法では,FasterRCNNの物体検出結果をもとに,デカルト積を用いてr-NE列を構築することで,検出誤りにも頑健にフレーム部分列を表現することを試みている.本研究では,人手でアノテーションしたb-NEを後段の処理に使っているが,従来手法のb-NE列の獲得方法を踏襲している.}.例えば,\figref{fig:ushiku_overview}の$l=1$の例では,$\mathbf{e}_n^l$はDNAengineのみ,$l=2$の例では,(DNAengine,Template)となる.部分列$l$について,Ushikuらと同様に$l=1,2,3$のb-NE列を構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{b-NE列からのプロトコル候補文生成}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{文生成モデルの事前学習}\label{sec:transformer}次に,b-NE列$\mathbf{e}$からプロトコルの候補文を生成する.これは,入力のb-NE列に対して,その情報を保持したまま,適切な動詞や前置詞などを補完しつつ文を出力する課題である.\figref{fig:transformer}にWLPデータセットを用いた文生成モデルの事前学習についての概要を示す.モデルはTransformerをベースにした自己回帰型エンコーダデコーダモデルにコピー機構を加えている.入力としてb-NE列を\texttt{[CLS]}という特殊トークンを先頭に,\texttt{[SEP]}トークンで区切って結合した単語列$\X=(x_1,x_2,\ldots,x_i,\ldots,x_{|\X|})$($x_i$は$i$番目の単語)に対し,出力文を$\Y=(y_1,y_2,\ldots,y_j,\ldots,y_{|\Y|})$($y_j$は$j$番目の単語)とする.Transformerエンコーダを$E(\cdot)$,Transformerデコーダを$D(\cdot)$とすると,エンコーダの出力ベクトル列$\Hvec=(h_1,h_2,\ldots,h_i,\ldots,h_{|\X|})$,デコーダの$j$番目の単語に対応する出力ベクトル$o_j$は以下のように計算する.\begin{align}\Hvec&=E(\X)\\o_j&=D(\Y_{<j},\Hvec)\end{align}ここで,$\Y_{<j}$は$j$番未満の部分単語列を表す.\figref{fig:transformer}にあるように,エンコーダの出力はデコーダのSource-targetattention層へ入力される.また,エンコーダとデコーダの単語の分散表現層は別々に最適化しており,デコーダ側には位置エンコーディングが加算されているが,エンコーダ側は集合のエンコードであることを考慮してこれを加えていない点は注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{29-4ia3f8.pdf}\end{center}\caption{Transformer文生成モデル.物体名を入力として対応する文を出力するように学習する.}\label{fig:transformer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究の設定では,入力の物体名は出力に必ず含まれるため,それを陽にモデル化することでより正しく文生成を行えるようになると考えられる.これを加味するために,コピー機構をモデルへ導入する.エンコーダの出力$\Hvec$とデコーダの出力$o_j$を用いて,注意確率$\beta_j^i$を以下のように計算する.\begin{equation}\beta_{j}^{i}=\frac{\exp{\{(o_j)^{\sfT}W_ch_i\}}}{\sum_{k}\exp{\{(o_j)^{\sfT}W_ch_k\}}},\end{equation}ただし,$W_c$は線形層を表す.次に,b-NE列から単語を選択するか,語彙の単語を選択するかの確率をコピーゲート$g_j(0\leqg_j\leq1)$を以下のように計算する.\begin{equation}g_j=\sigma(W_g[o_j;\sum_{m}\beta_{j}^{m}h_m]+b_g),\end{equation}ここで,$[\cdot]$,$\sigma(\cdot)$,$W_g$,$b_g$はそれぞれベクトルの結合関数,シグモイド関数,線形層の重みおよびバイアスを表す.$g_j$を用いて,単語の予測分布$p(y_j|y_{<j},\Hvec)$は以下のように計算する.\begin{equation}p(y_j|y_{<j},\Hvec)=(1-g_j)p_{voc}(y_j|y_{<j},\Hvec)+g_j\sum_{i:x_i=y_j}\beta_{j}^{i},\end{equation}ここで,$p_{voc}(y_j|y_{<j},\Hvec)$は語彙中の単語$y_j$の確率分布を表す.入力と出力の組$(\X,\Y)\in\mathcal{D}$($\mathcal{D}$は学習データ全体を表す)について,以下の負の対数尤度$\mathcal{L}(\theta)$を最小化するように学習を行う.\begin{equation}\mathcal{L}(\theta)=-\sum_{(\X,\Y)\in\mathcal{D}}\log{p(\Y|\X;\theta)},\end{equation}ここで,$\theta$はモデルの学習可能なパラメータ全体を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{b-NE列からのプロトコル候補文生成およびスコアの算出}WLPデータセットで事前学習したモデルを用いて,\secref{sec:bNE_sequence}で獲得したb-NE列から文を生成する.また,後段のプロトコル出力の探索のために,生成したプロトコル候補文のそれぞれについて,生成した文の尤もらしさをスコアとして得る.具体的には,$n$番目のフレーム,長さ$l$のb-NE列$\mathbf{e}_n^l$に対し,以下の式に則ってスコアを求める.\begin{equation}Score(\mathbf{e}_n^l)=\prod_{i=1}^{N}p(d_i|d_1,d_2,\ldots,d_{k-1};\mathbf{e}_n^l),\end{equation}ここで,$d_i$は出力文の$i$番目の単語を示し,$N$は単語列の長さを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{プロトコルの出力}生成した文集合の中から,プロトコルとして最も尤もらしい系列を選択しプロトコルを出力する.各文に対して与えるスコア$Score(\mathbf{e}_n^l)$の和が最大となるようにフレーム列を選択する.ここで,2つのヒューリスティックを導入する.第一に,1人の研究者が2つの作業を同時に行うことはほとんど不可能であるため,プロトコル手順の候補に対応する部分フレーム列は重なってはならないこととする.第二に,同じ手順が複数回登場することはないとし,プロトコル中に一度登場した手順のスコアを0とする.この第二の仮定のもとでは,手順候補のスコアが変化しうるため,全探索を行ってプロトコルを出力するべきである.しかし,スコアの変化は同一文の生成時のみに限定され,頻繁に発生するものではないと考えられるため,ビタビアルゴリズム\cite{viterbi1967ieee}を用いて時間方向に沿って探索を行う.手順候補のスコアを高めるための経路を選択した結果を結合してプロトコルとして出力する.スコアが高ければ高いほど,プロトコルとして尤もらしいと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価} \label{sec:experiments}前節で説明した手法をBioVL2データセットに適用してプロトコルを生成し評価を行った.以下では,実験設定について,利用したデータセット,モデルのハイパーパラメータなどの詳細設定,そして評価尺度の点から述べる.次に,生成したプロトコルの定量的,定性的な評価結果を報告する.評価の結果,我々はある程度正しくプロトコルを自動生成できていることを確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データセット}文生成モデルの学習において,b-NE集合と文の対からなるデータセットが必要である.データセットのサイズの観点からBioVL2データセットを学習に用いることは困難であるため,十分なサンプル数があるWLPデータセット\cite{kulkarni2018naacl}を学習に利用する.WLPデータセットの各文にはb-NEのアノテーションが行われているが,矩形アノテーションを付与した物体が,Reagent,Location,およびDeviceのいずれかである点を踏まえ(\tabref{tab:sample_annotation}),本研究では特にReagent,Location,Deviceの3つのタグを用いる.また,BioVL2データセットの手順あたりの単語数は平均10単語以下である点を考慮し(表\ref{tab:nl_stats}),(1)文に前述した3つのタグのいずれかが含まれない,あるいは(2)単語数が20を超える文については学習データと検証データから削除する.さらに,\tabref{tab:sample_annotation}ではDeviceは数が少ないことを加味して(Locationの$\frac{1}{4}$),フィルタリングの(1)について,ReagentとLocationのいずれかが含まれないケースも検討する.なお,フィルタリングの効果については,\secref{sec:word_overlap}にて考察する.\tabref{tab:wlp_stats}にて上記のフィルタリングを行わなかった場合と,行った場合のWLPデータセットの統計情報を示す.このデータセットで学習した文生成モデルを用いて,BioVL2データセットを評価データとして用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{03table09.tex}\hangcaption{WLPデータセットの統計情報.全てのb-NEタグを利用した場合,物体に基づく固有表現のみを利用した場合,そしてReagentとLocationのみを利用した場合について,20単語以上の文をフィルタリングするか,しないかの両ケースにおける統計を示している.データセットの分割は元のWLPデータセットの分割に従っており,評価データは本研究においては利用していない.BioVL2データセットを評価データとして用いているためである.}\label{tab:wlp_stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{詳細設定}文生成モデルの学習において,スペース区切りで文を単語に分割し,訓練データ内で頻度が5回以下のものは未知語として処理した.結果,語彙サイズは$1,827$となった.Transformerの隠れ層のサイズは$768$,層数は$2$,Multi-headattentionのヘッド数は$12$に設定した.位置エンコーディングには\cite{vaswani2017neurips}と同様の方法を用いる.また,Transformerの学習にはBERT\cite{dalvin2019naacl}の学習で行われているように,Adam\cite{diederik2015iclr}を学習率を$\alpha=0.0001$,$\beta_1=0.9$,$\beta_2=0.999$,L2重み減衰率を$0.01$に設定し,最初の5エポックをウォームアップとした.最大エポックは$50$に設定し,バッチサイズは$16$,WLPデータセットの検証用データを用いて損失関数の値が最小になったモデルを評価に用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価尺度}文の自動評価尺度として広く利用されるBLEU\cite{papineni2002acl},METEOR\cite{banerjee2005acl},ROUGE-L\cite{lin2004acl}を用いて評価を行った.BLEUの$N$については$N=1,2,3,4$の値を評価結果として報告する\footnote{評価を行うコードとして,\url{https://github.com/tylin/coco-caption}を用いた(2022年5月11日アクセス).}.なお,本研究で利用する手法によって生成されたプロトコルは必ずしも正解のプロトコルと同じ手順数になるとは限らないため,手順レベルでの評価は不可能である.そのため,本研究ではすべての手順を結合し,正解のプロトコルとの文書レベルでの評価結果を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定量的評価}\label{sec:word_overlap}文生成モデルとして,ベースラインモデル(入力のb-NE列をプロトコルとして出力するモデル),Transformerのみのモデル,Transformerにコピー機構を加えたモデル(以下,Transformer+コピー機構と呼ぶ)との間で比較を行う.\tabref{tab:overlap_metrics}に文の自動評価尺度による結果を示す.この結果より以下の4点のことが明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{03table10.tex}\caption{文の自動評価尺度による評価結果.太字は最も結果が良い値を示す.}\label{tab:overlap_metrics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第一に,正しいプロトコルの生成には文生成モデルの学習が必須であることである.ベースラインモデルに比べてTransformerモデルの性能が高いことから,このことが確認できる.第二に,WLPデータセットはBioVL2データセットの文生成に適用可能だということである.WLPデータセットは生物学のプロトコルを収集したものであり,生化学分野のプロトコルを対象としたBioVL2データセットとは分野がやや異なる(生化学は生物学の一分野).しかし,BioVL2データセットの語彙の83\%はWLPデータセットに現れ,両者のデータセットに大きな差はないことが分かる.第三に,Transformer+コピー機構はTransformerのみの文生成モデルよりも概ね良い性能を発揮することが分かる.これは,矩形アノテーションを付与した物体を正しく生成文に反映できているからと考えられる.第四に,学習に用いたb-NEタグの種類はモデルの性能に大きく影響を与えることである.全てのb-NEタグを学習に利用したモデル(フィルタリングなし)と,その他のモデルを比較すると後者のモデルは前者のモデルの性能を大きく上回った.また,Reagent,Location,Deviceのみを学習に用いたモデル(フィルタリングなし)とReagentとLocationのみを学習に用いたモデル(フィルタリングなし)を比較すると後者のモデルが概ね良い結果となった.これは,BioVL2データセットに含まれる物体にはReagentとLocationが大きい割合を占めるためと考えられる.一方,単語数によるフィルタリングには大きな性能の変化は見られなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定性的評価}図\ref{fig:pcr_generated_protocol}にTransformerのみ,Transformer+コピー機構,そして正解のプロトコルの比較結果を示す.\secref{sec:introduction}で述べた通り,プロトコルとして正しい点であるためには,生成した各手順は正しく操作対象の物体を記述できており,かつ対応する動詞が正しくあらねばならない.また,必要に応じて副詞,量や時間に関する表現を追加で記述して作業者が再現できる形であらねばならない.Transformerのみのモデルの場合,正しく物体を予測できている手順も存在する一方で(例:手順1のsterilewater),概ね物体の言語化において失敗していることが分かる.例えば,Primer1,Primer2,PrimeSTAR\textregisteredなどの単語については正しく言及できていない.一方で,コピー機構をTransformerに加えることにより,これらの物体の言及にある程度正しく生成できていることが分かる(例:手順2におけるPrimer1,手順3におけるPrimer2,手順4におけるPrimeSTAR\textregisteredなど).以上の結果を踏まえると,プロトコルとして必要な要件の中で,物体に関する生成という点では,コピー機構を加えることが有用であることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{29-4ia3f9.pdf}\end{center}\hangcaption{生成したプロトコルと正解のプロトコルの比較(実験はPCR).利用したモデルは,\tabref{tab:overlap_metrics}中の「Reagent,Location,Deviceのみ学習に利用,単語数によるフィルタリングあり」.各プロトコルの中央列は選択したフレームを示す.ここで,各フレームの下には入力となるb-NE列を表示している.商標登録マーク\textregisteredは論文中では図中には記載しているが,実際の生成文および正解の文には含まれていない.}\label{fig:pcr_generated_protocol}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{限界点.}コピー機構を入れることである程度正しくプロトコルを生成できるようになった一方で,このモデルには2点の限界点がある.第一に,動詞の生成である.図\ref{fig:pcr_generated_protocol}の手順1においてPrepareという動詞を生成しているが,正確にはAddを生成するべきである.本研究の手法には視覚情報は物体以外入力に与えていないため,動詞を正しく生成できるかは文生成モデルに依存する.この点は信頼性の高いプロトコル生成の点で提案手法が不十分な点の1つであろう.第二に,全ての物体が必ずしも生成したプロトコル中に含まれるとは限らない点である.図\ref{fig:pcr_generated_protocol}の正解の手順6において``DNAengine''という単語が文中に存在するが,生成したプロトコルの中にはこれが含まれていない.与えた物体を全て言語化することは正しくプロトコルの生成する上で重要であり,この点は今後の課題である.第三に,数や量についての正しい生成が挙げられる.図\ref{fig:pcr_generated_protocol}中では1volumeや1minutes,300lなどの量や時間に関する表現が生成されていることが分かるが,これらの量は実際には適切ではない\footnote{PCR実験においてプロトコルには量は記述されていない.PCRはキットによって試薬の量などがあらかじめ決められているため,実験者はそれを順に操作していくだけとなっている.}.これも,映像の情報を活用していないことの明確な限界点であり,動詞の生成と同じく正しい時間や量が生成されるかどうかは生成モデルに依存する.この量に関する記述も正しいプロトコル生成の点で提案手法の不十分な点であろう.今後,映像の情報を活用した文生成を行っていく必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{03table11.tex}\hangcaption{WLPデータセットの訓練データにおける,頻度が最も高い10の動詞とその出現頻度およびPMIが高い物体上位5件.低頻度な単語はPMIが過剰に高くなる傾向があるため,頻度が11以上の物体の上位5件を報告している.}\label{tab:pmi}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{物体と動詞の自己相互情報量の観点からの文生成モデルの挙動の考察}図\ref{fig:pcr_generated_protocol}中のTransformer+コピー機構において,手順2や手順3において,物体のみしか与えていないにも関わらず,正しく動詞``Add''を生成できている.前述した通り,これは文生成モデルに依存しているが,ある物体が決まれば正しい動詞を生成できるといったことは起こり得るだろうか.この点を明らかにするために,WLPデータセットの訓練データにおける頻度が最も高い10の動詞,および物体とその出現頻度,および自己相互情報量(PMI)が高い物体,および動詞の上位5件を計算した.\begin{equation}\mathrm{PMI(物体,動詞)}=\log_2\frac{P(物体,動詞)}{P(物体)P(動詞)}=\log_2\frac{C(物体,動詞)N}{C(物体)C(動詞)}\end{equation}ここで,$C(\cdot)$はある物体か動詞の単語の数,またはその両方が共起する文の数を示す.$N$は訓練データ中の全ての単語数を示す.\tabref{tab:pmi},\ref{tab:pmi_mats}にその結果を示す.その結果,ある物体に対してPMIの値が極端に高い物体が存在するわけではなく,上位5件は概ね同程度の値を示した.動詞からみた物体についても同様である.このことから,ある動詞あるいは物体に対し,特定の物体や動詞が一意に定まることはないと考えられる.ではなぜ\figref{fig:pcr_generated_protocol}にて正しい動詞を生成できたのであろうか.1つの考えられる仮説として,モデルは高頻度な動詞を生成しやすいことがある.実験において,Primer1やPrimer2は文生成時に未知語として処理されている\footnote{入力が語彙中に存在しない場合,モデルには未知語として与えられる.しかし,コピー機構は入力をそのまま出力文に含められるため,未知語であっても対応する単語をコピーして出力することが可能である.複数未知語が存在する場合に特別な処理を施してはいない.なお,BioVL2中の物体名のうち,未知語を含む物体の割合は34.3\%($=12/35$)であった.}.しかし,addはもっとも頻度が高い動詞であるので,\figref{fig:pcr_generated_protocol}ではこれを出力したものではないかと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{03table12.tex}\hangcaption{WLPデータセットの訓練データにおける,頻度が最も高い10の物体とその出現頻度およびPMIが高い動詞上位5件.低頻度な単語はPMIが過剰に高くなる傾向があるため,頻度が11以上の動詞の上位5件を報告している.}\label{tab:pmi_mats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\input{03table13.tex}\hangcaption{生成したプロトコルと正解のプロトコルの実験ごとの手順数,および文の自動評価尺度の結果.なお,ここで用いたモデルは\tabref{tab:overlap_metrics}中の「Reagent,Location,Deviceのみ学習に利用,単語数によるフィルタリングあり」である.}\label{tab:protocol_step_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{プロトコルの手順数と性能についての考察}\tabref{tab:protocol_step_results}に生成したプロトコルと\pagebreak正解のプロトコルの間の実験ごとの手順数と文の自動評価尺度の結果を示す.最も手順数の差が最も小さいのはPCRとフェノールクロロホルム法,最も差が大きかったのはミニプレップ法であった.手順数の差は小さい方が理想的である.一方で,文の自動評価尺度による評価では手順数の差が大きいミニプレップが最も良い性能を示している.生成したプロトコルの手順数が多くなるほど,文書で見た時の単語数が増加し,正解と比較して一致するn-gramが増加する.このことが,文書レベルでの評価を行った時に手順数が最も多いミニプレップが,正解との手順数に差はあれど評価結果が高くなる理由であると考えられる.今後,プロトコル生成の評価として,手順数の差も考慮に入れた評価,正しい動詞や物体が生成したプロトコル中に現れるかどうかといった,プロトコルの質をその要件と照らし合わせた評価を行う仕組みを検討する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究は生化学分野における一人称の実験映像データセットであるBioVL2データセットを構築した.BioVL2データセットは生化学における4種類の基本的な実験に対し,それぞれ8動画撮影した合計32映像からなるデータセットであり,言語アノテーションとして(1)視覚と言語の対応関係のアノテーション,(2)プロトコル中に現れる物体の矩形アノテーションの2種類のアノテーションを付与している.構築したデータセットを用いて,応用課題として実験映像からプロトコルを自動生成する課題に取り組んだ.その結果,ある程度正しくプロトコルを生成できることを確認した.今後,BioVL2データセットは研究用途に限り公開予定である.このデータセットを通して生化学分野における人工知能技術の発展が進むことを強く望む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP21J20250,JP20H04210,JP21H04910の助成を受けたものです.また,本研究を進めるにあたって,オムロンサイニックエックス株式会社の牛久祥孝氏からは有益なコメントを頂きました.本論文に内容の一部はThe4thWorkshoponClosingtheLoopBetweenVisionandLanguage(CLVL21)で発表したものです\cite{nishimura2021iccvw}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{WLPデータセットで定義されたタグの種類} \tabref{tab:tag_kinds}にWLPデータセットで定義された全てのタグ,\pagebreakそれらが属するカテゴリ,そしてその説明を示す.元論文\cite{kulkarni2018naacl}の定義によると,タグのカテゴリは動作を表すもの(表中のAction),物体に基づく固有表現を示すもの(表中のReagentからSealまで),測量に基づく固有表現(表中のAmountからpHまで),そして品詞に基づく固有表現(ModifierとMention)に分類されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{03table14.tex}\caption{WLPデータセットで定義されたタグ.}\label{tab:tag_kinds}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{tIoUの計算} イベントA,イベントB開始時間と終了時間の組からなり,その区間$A$,$B$とする.2つのイベントのtIoUは以下の式で計算できる.\begin{equation}\mathrm{tIoU}(A,B)=\frac{|A\capB|}{|A\cupB|}\end{equation}ここで,$|A\capB|$と$|A\cupB|$はそれぞれイベント区間の積集合と和集合を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{西村太一}{2019年九州大学芸術工学部卒業,2020年京都大学大学院情報学研究科修士課程修了.現在同大学博士課程.修士(情報学).マルチメディア,自然言語処理,コンピュータビジョンの研究に従事.言語処理学会学生会員.学術振興会特別研究員(DC1).}\bioauthor{迫田航次郎}{2020年神戸大学工学部卒業.2022年京都大学大学院情報学研究科修士課程修了.修士(情報学).言語処理学会学生会員.}\bioauthor{牛久敦}{2017年京都大学大学院情報学研究科修士課程修了.修士(情報学).}\bioauthor{橋本敦史}{2005年京都大学工学部卒業,2006年経産省VulcanusinEuropeプログラム国費奨学生.2013年京大大学院情報学研究科にて博士(情報学)取得.現在オムロンサイニックエックス株式会社研究員.主に,料理や組立作業を対象として,未来予測に基づく人と機械のインタラクションに関する研究などに従事.IEEE,IEICE,IPSJ各会員.}\bioauthor{奥田奈津子}{2012年神戸大学発達科学部卒業.2016年より大阪医科大学(現大阪医科薬科大学)医学部生命科学講座生理学教室に研究補助員として入職.現在,主たる実験動物ゼブラフィッシュの維持管理と分子生物学研究補助に従事.}\bioauthor{小野富三人}{1991年東京大学医学部卒業.国立国際医療研究センターの研修医を経て,1996年東京大学医学部博士課程修了.学術振興会特別研究員,ニューヨーク州立大学ポスドク,フロリダ大学助教授,NIH室長をへて2014年より大阪医科大学(現大阪医科薬科大学)生理学教室教授.神経系を中心とした生理学の研究に従事.日本生理学会,北米神経科学会会員.}\bioauthor{亀甲博貴}{2018年東京大学大学院工学研究科博士課程修了.博士(工学).同年より京都大学学術情報メディアセンター助教.自然言語処理,ゲームAI等に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授.2016年同教授.現在に至る.計算言語学ならびに自然言語処理の研究に従事.博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.言語処理学会,情報処理学会,日本データベース学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V10N05-02
\section{はじめに} \label{one}近年,音声認識技術や言語処理技術,計算機の処理能力の向上により,情報検索をはじめとする各種タスクを音声認識を介して実現する音声対話インタフェースへの期待が急速に高まっている\cite{NielsenAndBaekgaard1992,Godden1994,Zue1994,ZeiglerAndMazor1995,Godden1996,FergusonAndAllen1998,Nakano1999}.同時に,音声対話インタフェース実現のための対話制御方式も数多く提案されている\cite{Niimi1995a,Niimi1995b,Niimi1997,Niimi1998,KikuchiAndShirai2000,Chu-Carroll2000}.音声による入力は,操作に熟練を必要としないため利用者にとっては使い勝手が良く,入力速度はキー入力に比べ3〜4倍,手書き文字入力に比べ8〜10倍速いと言われている\cite{Hurui1998}.更に,他の器官を同時に使っての並行作業が可能であるという利点を有する.また,サービス提供者にとってはオペレータコストの削減に繋がる.実用サービスのフロントエンドとして音声認識を適用するためには,不特定多数の話者の入力に対して,迅速かつ正確に応答する必要がある.音声認識の性能は,発話様式によって大きな影響を受けることが指摘されている\cite{MurakamiAndSagayama1991}.最も単純なシステム主導,一問一答形式の単語認識でも,対象単語数が増えるほど誤認識は避けられず処理時間を要する.更に,音声認識は利用される環境や発話状況により誤認識を生じる場合も多く,公衆電話網は帯域が狭いため認識精度が落ちる.我々は,顧客が入力する住所や姓名の確定をタスクとする音声対話インタフェースの実現に向け,検討を進めている.音声認識技術においてエンジンの出力結果が正しいか否かを判断するには,発話者本人に正誤を確認するしか方法はない.特に,不特定多数の話者が入力する住所や姓名などの大語彙を認識対象とする場合,正確な応答を返すことは困難である.音声対話インタフェースの現状は,(1)~個々の質問において利用者が予期しない対象への誤認識が多い~(2)~正誤確認と誤認識を修正するための再入力要求が繰り返される,という2つの要因から利用者満足度が獲得できていない.従って,音声対話インタフェースの実用化のためには,上記2つの要因解決が必須となる.本稿は,上記要因~(1)~の解決に焦点を当て,人間が発話を聞き取る際の傾向に着目し「思い込み応答」という聞き取り結果の確認手法を提案する.そして思い込みによる認識結果の確認が,入力対象が大語彙であっても利用者にストレスを与えないことを検証する.この思い込み応答は音声入力の応答に特化したものではないが,本稿では音声入力を例として以下議論を進める.その他への適用については\ref{six}\,章の今後の課題で述べる.以下\ref{two}\,章では,大語彙を対象とした音声対話インタフェースの現状の課題について述べる.\ref{three}\,章では人間の対話における思い込み戦略を検証し,\ref{four}\,章では,市販の認識エンジンを用いて思い込み対象の選択方法について分析する.\ref{five}\,章では,思い込み戦略を取り入れた聞き取り確認手法を提案し,実装及び評価を通してその有効性を検証する.最後に\ref{six}\,章にて,まとめ及び今後の課題について述べる. \section{大語彙音声対話インタフェースの課題} \label{two}\subsection{現行の音声対話インタフェース}\label{two-two}音声認識技術の限界から,音声対話インタフェースは天気案内や株価照会,星占いなど対象語数の限られた分野でしか実現されていない\footnote{\tt{http://www.nomura.co.jp/service/kabukadial.html,http://www.ufj-tsubasa.co.jp/contact/index.html}など.}.特に,住所や姓名の確定をタスクとした音声対話インタフェースは,コールセンターの業務効率化などに有効であることから提案も多い\cite{Akahori1995,Arai1995,Yoshioka1997}.しかし対象が大語彙であるため,最終的に確定したい住所や姓名を最初の入力対象に設定するのは困難であり,高精度な結果が期待できる小語彙を入力対象とした質問を組合せることで対象を絞り込み,確定を実現している.住所確定に関しては,ボイスポータルの天気案内サービスに代表されるように,都道府県,市区郡,大字という階層的なデータ構造を利用して,上位から順に確定を行う提案が多い\footnote{\tt{http://www.ntt.com/v-portal/,http://www.voizi.net,http://www.jmscom.co.jp/automat/index.html}など.}.これは,情報検索におけるディレクトリ検索方式を音声入力に適用したものである.現在,日本全国には47都道府県,4,100市区郡,173,600の大字の約18万種の地名が存在する\footnote{中央区,本町など,全国に同一地名が複数存在する場合は1件にカウント.}\cite{tizu}.現状の音声認識技術を利用して,18万種の地名を一度に認識対象とすることは非現実的である.上位層から順に対象を絞り込みながら確定することで,各質問毎の応答は,リアルタイム性及び利用者にストレスを与えない精度を持ったものとなっている\cite{KamedaAndFujisaki1997}.音声入力型ディレクトリ検索方法には,以下の課題がある.\begin{enumerate}\item{利用者の入力対象を階層化して一度の質問における認識対象数を減少させ,上位から順に入力を確定する.そのため,対象の階層数分の$\langle$入力要求,正誤確認$\rangle$が必要になる.}\item{上位階層が確定しないと下位の対象を絞り込むことができない.そのため,各階層において認識結果が正解であるという確認が得られるまで,下位階層の入力要求へ進むことができない.}\end{enumerate}(1)~に関して,堂坂らは,個人名や部署名など予め規定したスロットを順に埋めていくタスクにおいて,現在のスロットとその値からスロット間の依存関係を考慮して,正誤確認の回数を最小化する方法を提案している\cite{Dohsaka2002}.しかし,質問順序は対象語数に制限され,システム主導に予め決められる.これに対して伊藤らは,効率を優先した質問順序がかえって機械特有の不自然さに繋がり,これが音声対話インタフェースが実用レベルで受け入れられない理由であると考察している\cite{Itou2002}.一方,個人姓名を入力対象としたインタフェースはパソコンのサポートセンターなどでの実用化例がみられる\footnote{\tt{http://vcl.vaio.sony.co.jp/info/ivr/index.html,http://support.jp.dell.com/jp/jp/spm/phone/}など.}.しかし階層的データ構造を持たない姓名には,ディレクトリ検索方式を適用できないため,数百名程度の事前登録会員のみに対象を限定するなど,対象を小規模にしなければ実現は困難である.夜間や休日などオペレータの業務時間外に自動応答で対応するサービスでは,音声認識技術を利用して,利用者の入力を正確に認識し確定することが困難なため,利用者に姓名や電話番号を留守番電話に録音してもらい,後日人間が聞いてコールバックする方法が一般的である\footnote{\tt{http://www.ntt.com/shop/toiawase/email.wbt}}.新規加入申込みなど,予め対象が限定できない姓名を対象とする実用インタフェースでは,実在者数の偏りを利用して実在頻度順位上位から数千種の頻出姓名のみを対象としている場合も多い.しかしこれでは希少姓を入力する利用者に対応できない.現状,多数の利用者からのアクセスが予想されるサービスでの姓名確定の実用化例は存在しない.\subsection{大語彙音声対話インタフェース実現に向けて}\label{two-three}我々は,資料や商品配送先の特定やチケット予約などにおいて,申込者の特定を行うための住所や姓名の確定をタスクとした音声対話インタフェースの実現を目指す.第一段階として,音声認識技術及びそれを利用したインタフェースの現状を踏まえ,利用者の入力対象が大語彙である場合,利用者にストレスを与えない応答を提供する必要があると考える.利用者から住所,姓名,年齢などを聞き取り,商品カタログ送付を専門業務とするコールセンターへの1日のアクセスを分析した\footnote{所在地は東京都港区,1日の平均アクセス数は5,000コール.}.オペレータから住所を尋ねられると,首都圏,及び各都道府県の県庁所在地に在住の利用者は,最初に港区,横浜市,名古屋市など住所の市区郡名を答える場合が多く,中でも東京23区内在住の利用者は,六本木,虎ノ門のように字名を答える傾向が多く見受けられた.それ以外の利用者は,都道府県名を最初に発声する場合が多い.この分析から,住所確定に関しては,どのレベルの地名が入力されても対応可能であることが望ましい.また,姓名に関しては,姓16万種,名は男性だけでも8万種存在する\cite{name}.現状の認識技術を利用して,この大語彙を一度に認識対象とすることは非現実的である. \section{思い込み戦略} \label{three}本章は,人間同士の対話における聞き取り傾向を分析し,話し手の発話対象が大語彙に及ぶ場合の聞き取り戦略を提案する.\subsection{人間の対話における思い込みの検証}\label{three-one}我々は,人間同士の対話においても聞き間違えがあることに着目した.すなわち,人間は初対面の相手に住所や名前を尋ねる際,聞き覚えのある地名や姓名は正しく聞き取れるが,初めて耳にするものに対しては正しく聞き取れたかどうか確信を持てない場合が多い.我々は,聞き手は話し手の発話対象を全て網羅しているわけではなく,過去の経験などから発話対象に対する思い込みが働き,その思い込んだ範囲内から聞き取った内容を探し出そうとするという仮説の検証を進めた.聞き手は思い込みのために,予測した範囲外の対象が発話された場合に聞き間違えを起こすと予想した.本節は,人間の対話における思い込み戦略を実証するために,約16万種の日本人姓を対象とした聞き取り試験を実施した.聞き手は日頃から良く耳にする姓は正しく聞き取れるが,聞き慣れない珍しい姓ほど聞き間違えやすいという結果が得られた.以下,試験概要を示す.男女合わせた10名の被験者\footnote{5名が20代〜30代の男性,5名が30代女性}に,電話回線を介して日本人の姓\footnote{ナレータ業務を専門とする女性による録音を使用}を聞いてもらい,結果の書き取りを依頼した.被験者には事前情報として日本人の姓が発話されることのみを伝え,1件につき1度の聞き取りを原則とした.1つの姓に対して被験者から書き取り終了の合図が出るのを確認して,実験担当者は次の姓を回線に流す.これを4,000種の姓に対して繰り返した.被験者の聞き取り結果の記入方法として,分からない場合のみ空欄を認めた.試験に用いた姓は,日頃から良く耳にする姓と聞き慣れない珍しい姓が均等になるように実在頻度順位\footnote{日本全国,実在件数が多い順に並べた時の順位}が均一になるように選択した\cite{name}.試験に使用した姓4,000種の実在頻度順位,及び被験者の平均正解率を表\ref{table1}\,に示す.\begin{table}[htbp]\caption{聞き取りに使用した4,000種の個人姓と被験者の聞き取り精度}\label{table1}\begin{center}\begin{tabular}{rcr|r|r}\hline\noalign{\vskip.5mm}&&実在頻度順位&データ数(件)&平均正解率(\%)\\\hline\hline1位&〜&5,000位&400&93.8\\\hline5,001位&〜&10,000位&400&93.7\\\hline10,001位&〜&20,000位&400&73.9\\\hline20,001位&〜&30,000位&400&62.6\\\hline30,001位&〜&40,000位&400&51.1\\\hline40,001位&〜&50,000位&400&48.1\\\hline50,001位&〜&60,000位&200&60.6\\\hline60,001位&〜&70,000位&200&59.2\\\hline70,001位&〜&80,000位&200&60.8\\\hline80,001位&〜&90,000位&200&64.9\\\hline90,001位&〜&100,000位&200&48.2\\\hline100,001位&〜&110,000位&100&52.8\\\hline110,001位&〜&120,000位&100&23.8\\\hline120,001位&〜&130,000位&100&28.3\\\hline130,001位&〜&140,000位&100&20.8\\\hline140,001位&〜&&200&14.0\\\hline\hline&&計&4,000&60.8\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}表\ref{table1}\,から実在頻度順位が上位の姓ほど正解率が高いと言える.特に実在頻度順位5,000位以内の姓に対する平均正解率は93.8\,\%,実在頻度順位5,000位から10,000以内の姓は93.7\,\%と非常に高いが,実在頻度順位110,000位以降の姓に対する平均正解率は3割に満たない.次に,人間同士の対話において正しく聞き取られることが多い姓,逆に聞き間違えられやすい姓の特徴をつかむために,被験者の聞き間違えに着目した.被験者の聞き間違えのうち,不正解であった姓の実在頻度順位~(X軸)~に対し,間違えた先の実在頻度頻度~(Y軸)~を図1にプロットした.\begin{figure}[htbp]\vspace*{-1cm}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=11cm\epsffile{fig1.eps}\caption{聞き間違えた姓の間違え先の実在頻度順位との関係}\label{fig1}\end{center}\end{figure}図1から,プロットはグラフ下部に集中していることが分かる.すなわち被験者の聞き間違え先は,実在頻度順位上位に集中する傾向が見られる.分析したところ,不正解のうち実在姓への聞き間違えは5,116件存在し,その約8割に該当する3,990件は実在頻度順位10,000位以内の姓に聞き間違えている.また,実在頻度順位20,000位以降の姓に間違えたものは全体の1割に満たない.更に5,116件のうち99.5\,\%は,自分自身よりも頻度順位が上位の姓に聞き間違えている.つまり人間は,個人姓の聞き取りにおいて,予め16万種全てを把握しているわけではなく,頻度順位上位の姓の中から正解を探し出そうとしていると言える.従って,聞き手は思い込んだ姓が発話された場合は正しく聞き取れるが,思い込み範囲外の姓に対しては,思い込んだ中で最も類似した姓に聞き間違える.この結果から人間同士の対話における思い込み戦略が確認できた.\subsection{思い込み戦略のインタフェースへの適用効果}\label{three-four}\ref{three-one}\,節の人間同士の対話の分析から,システムが誤認識結果を提示してしまうこと自体が利用者のストレスの要因なのではなく,人間の対話では起こりえないような聞き間違えが原因と考えられる.従って,人間が聞き間違えやすい対象を,システムが同じように間違えたとしても利用者は自然に受け止めると思われる.我々は,思い込みの仕組みを取り入れたシステムを構築するために,人間が聞き間違えないようなもののみを最初に認識対象とする.思い込み戦略の適用は,正しい認識結果を利用者に提供するために対象語数を制限しなければならないという認識技術の限界に対する一時的な解決に繋がる.すなわち,大語彙全体を認識対象とする場合と比較して,一部しか認識対象としないため認識処理時間の短縮,及び認識精度の向上が見込める. \section{認識エンジンを用いた思い込み対象の分析} \label{four}思い込み戦略において,利用者からアクセスされやすい対象を数多く思い込むほど,利用者に正解が提示できる可能性は高くなる.しかし,認識精度と網羅率はトレードオフの関係にあり,対象数の増加に伴い認識精度は低下する.本章では,市販の認識エンジンを利用した実験を通して,思い込み対象の選択方法について分析する.\subsection{認識精度と網羅率の関係}\label{four-one}本節では個人姓に焦点を当て,認識エンジンNuance\footnote{\tt{http://www.nuance.com}}を使用し,思い込み対象として選択すべき姓について分析した.利用者アンケートを通して,姓に対する網羅率と認識精度が利用者満足度に与える影響について述べる.Nuanceには,予め姓の仮名表記リストを認識用文法として与える.被験者が姓を入力すると,Nuanceは与えた認識用文法中の各姓に対して尤度を計算し,尤度の高い順に候補を提示する.提示候補数はデフォルト値の10とした\footnote{N-best値で設定する.}.すなわち最大で10候補が提示される.提示は画面に文字列で出力した.被験者は\ref{three-one}\,節で聞き取りを依頼した10名である.最適な思い込み対象数を調べるために,実在頻度順位1位から対象数を変化させた個人姓認識用文法を15種用意した.15種の文法は含まれる個人姓の数のみが異なり,被験者に与える実験環境に差異はない.被験者に予め選択した個人姓400種の発話を依頼した.400種は,実社会と同じ実在頻度件数の分布を構成するために,各認識用文法の網羅率と一致するよう選択した.表\ref{table4}\,にNuanceに与えた認識用文法を構成する個人姓の実在頻度順位と網羅率\cite{name},及び被験者に発話を依頼した400種の実在頻度順位の内訳と複雑度を示した.複雑度とは,聞き取り対象である姓の音韻上の複雑さの程度を表す情報量である.姓{\emL}における音韻列$W_{1}^{n}=w_{1}\;\cdots\;w_{n}$の生成確率を$P(W_{1}^{n})$とすれば,姓{\emL}のエントロピーは,式(1)より計算できる\cite{Kita1999}.\begin{eqnarray}H_{0}(L)=-\sum_{W_{1}^{n}}\;P(W_{1}^{n})\;\logP(W_{1}^{n})\end{eqnarray}複雑度とは一音韻あたりのエントロピーに相当し,式(2)より計算できる.各音韻の後には平均して$2^{H(L)}$種の音韻が後続可能であることを意味し,複雑度が大きいほど特定が困難なタスクである.\begin{eqnarray}H(L)=-\sum_{W_{1}^{n}}\;\frac{1}{n}\;P(W_{1}^{n})\;\logP(W_{1}^{n})\end{eqnarray}網羅率は,日本の総人口1億2,000万人に対して該当する姓を持つ実在者数を計算した値である.表\ref{table4}\,より16万種類存在する個人姓のうち,実在頻度順位上位5,000種の姓で実在者数の約9割を網羅できることから,個人姓は実在頻度に大きな偏りがあることが分かる.また,表\ref{table4}\,に記述した各実在頻度順位の区切りは,被験者に発話を依頼した姓が認識用文法に含まれる割合を示すため,15種の認識用文法の構成数の区切りと一致させた.すなわち,認識用文法Aの中には,被験者の入力姓400種のうち72.3\,\%にあたる289種が含まれ,この289種に対して尤度が計算されることになる.従って,残りの111種は認識用文法Aに含まれていないため結果に出力されることはない.表\ref{table6}\,に,被験者の入力に対する平均認識精度を各文法毎に示した.表\ref{table4}\,及び表\ref{table6}\,より,認識対象数が多くなるほど複雑度は大きくなる.現在実用化されている住所確定インタフェースの初回の入力対象に設定されることが多い47都道府県名の平均複雑度は9.2,株価照会システムの入力対象に設定されている約700社の一部上場企業名の平均複雑度は10.1である.また,星占いに用いられる12星座名の平均複雑度は8.1と小さい.これに対して,日本人の姓16万種の平均複雑度は16.7,名8万種の平均複雑度は14.9と大きい.現状の認識技術を用いてサービス提供が可能な認識対象数は,複雑度から考えると10程度,表\ref{table4}\,から10,000語程度が限界と考えられる.従って,姓や名は複雑度からも認識が非常に困難な対象であると言える.最適な思い込み対象の選択方法を分析するために,認識エンジンの出力結果がインタフェースの第一応答として受け入れ可能な精度か否かを被験者に尋ねた結果を表\ref{table6}\,の最右欄に示した.90\,\%以上の認識精度を持つ認識用文法C,D,Eに対しては,全被験者が音声対話インタフェースの第一応答として受け入れ可能と答えた.網羅率に関して分析すると,全被験者が受け入れ可能と判断した認識用文法C,D,Eの網羅率は90\,\%以上である.網羅率が95\,\%以上でも,認識精度が90\,\%以下である認識用文法F以降に対しては,利用者満足度は獲得できていない.同様に認識用文法A,Bに関しては,認識精度が90\,\%以上でも網羅率が低いため,思い込み範囲外の姓が発話される確率が高く正解が提示できない場合が多いことから,利用者のストレスに繋がると考えられる.\begin{table}[htbp]\caption{Nuanceに与えた認識用文法及び入力に使用した400種の個人姓}\label{table4}\begin{center}\begin{tabular}{c|r|r|r|r}\hline\noalign{\vskip.5mm}文法名&頻度1位からの選択数(件)&網羅率(\%)&含まれる発話姓数(件)&複雑度\\\hline\hlineA&1,000&72.3&289&8.2\\\hlineB&3,000&86.2&345&8.9\\\hlineC&5,000&90.6&362&9.3\\\hlineD&8,000&94.1&376&9.4\\\hlineE&10,000&95.6&382&9.8\\\hlineF&15,000&97.1&388&10.6\\\hlineG&20,000&98.0&392&11.2\\\hlineH&30,000&98.9&395&11.8\\\hlineI&40,000&99.4&397&12.6\\\hlineJ&50,000&99.6&398&13.1\\\hlineK&60,000&99.7&398&13.9\\\hlineL&70,000&99.7&398&14.7\\\hlineM&80,000&99.9&399&15.1\\\hlineN&90,000&99.9&399&15.5\\\hlineO&100,000&99.9&399&15.8\\\hlineP&160,000&100.0&400&16.7\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{認識用文法毎の認識結果及び被験者による受け入れ可否評価}\label{table6}\begin{center}\begin{tabular}{c|r|r|r}\hline\noalign{\vskip.5mm}文法名&網羅率(\%)&平均認識精度(\%)&受入れ可人数(10名中)\\\hline\hlineA&72.3&94.8&6\\\hlineB&86.2&95.9&7\\\hlineC&90.6&94.1&10\\\hlineD&94.1&91.2&10\\\hlineE&95.6&90.8&10\\\hlineF&97.1&80.3&8\\\hlineG&98.0&76.5&8\\\hlineH&98.9&66.3&7\\\hlineI&99.4&67.2&4\\\hlineJ&99.6&62.1&4\\\hlineK&99.7&57.4&2\\\hlineL&99.7&42.1&0\\\hlineM&99.9&44.7&0\\\hlineN&99.9&48.3&0\\\hlineO&99.9&44.4&0\\\hlineP&100.0&42.5&0\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}\subsection{人間と認識エンジンの思い込み結果の比較}\label{four-two}本節では,人間同士の対話との比較を通して思い込み戦略の有効性を検証する.\ref{four-one}\,節で全被験者が受け入れ可能と判断した中で,網羅率が最大の文法EをNuanceに思い込み対象として与える.入力には,\ref{three-one}\,節で個人姓の聞き取りに用いたナレータの録音音声4,000種のうち,実在頻度順位10,000位以内の姓400種を用いた.入力400種に対する認識結果を表\ref{table7}\,に示す.認識エンジンは頻度順位上位の姓10,000件を思い込み対象とした場合,\ref{three-one}\,節の試験における被験者の聞き取りとほぼ同じ精度を持った認識結果を返すことができる.\begin{table}[htbp]\caption{認識エンジンの出力結果と人間の聞き取り結果の比較}\label{table7}\begin{center}\begin{tabular}{rcr|c|c|c}\hline\noalign{\vskip.5mm}&&実在頻度順位&試験件数(件)&\multicolumn{2}{c}{平均認識精度(\%)}\\\cline{5-6}&&&&認識エンジン&被験者\\\hline\hline1位&〜&5,000位&200&93.9&93.8\\\hline5,001位&〜&10,000位&200&91.2&93.7\\\hline\hline&&計&400&92.6&93.8\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}次に,思い込み対象外の姓が発話された場合の認識エンジンの結果について考察する.今度は,\ref{three-one}\,節のナレータ録音音声4,000種のうち,実在頻度順位10,000位以降の3,600種を入力としてNuanceに与えた.Nuanceは与えられた思い込み対象文法Eに含まれる姓に対して尤度計算するため,入力姓3,600種に対する結果は全て誤認識となる.表\ref{table8}\,は,3.1節で被験者が実在姓に聞き間違えた5,116件のうち,被験者の間違えた姓とNuanceが尤度1位を算出した誤認識結果が一致した割合を示したものである.\begin{table}[htbp]\caption{認識エンジンと人間の聞き間違え一致度}\label{table8}\begin{center}\begin{tabular}{rcr|r}\hline\noalign{\vskip.5mm}&&実在頻度順位&聞き間違え一致度(\%)\\\hline\hline10,001位&〜&20,000位&87.3\\\hline20,001位&〜&30,000位&87.9\\\hline30,001位&〜&40,000位&86.5\\\hline40,001位&〜&50,000位&89.1\\\hline50,001位&〜&60,000位&91.1\\\hline60,001位&〜&70,000位&87.3\\\hline70,001位&〜&80,000位&91.4\\\hline80,001位&〜&90,000位&90.9\\\hline90,001位&〜&100,000位&88.3\\\hline100,001位&〜&110,000位&91.8\\\hline110,001位&〜&120,000位&90.9\\\hline120,001位&〜&130,000位&90.8\\\hline130,001位&〜&140,000位&88.1\\\hline140,001位&〜&&88.8\\\hline\hline&&平均&73.4\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}文法Eを思い込み対象とした場合,人間の聞き取りとほぼ同じ精度を持ち,思い込み対象外の発話に関しては聞き間違える先もほぼ一致する.従って,認識結果が誤認識であっても,人間同士の対話でも起こりえる間違え方であることから利用者はストレスを感じないと考える. \section{大語彙インタフェースの実装} \label{five}我々は,大語彙インタフェースの実現を目指している.検討の第一歩として,利用者にストレスを与えない応答を返すために,思い込み戦略を取り入れた聞き取り手法を提案する.これを「思い込み応答」と呼ぶこととする.一般に人間同士の対話における``応答''は,相手の発話に対して確認を伴うとは限らないが,思い込み応答の``応答''は,聞き取った結果を話し手に提示,確認する行為を表すことにする.思い込み応答とは,思い込んだ範囲内から聞き取った結果を探し出し,提示する聞き取り確認手法である.しかし,音声対話インタフェースは利用者の入力を確定することが最終目的であり,思い込みが外れた場合の対応も考える必要がある.本章は,思い込み応答にて正解を提示できない場合に利用者にストレスを与えない仕組みを提案し,この仕組みと思い込み応答を組み合わせたインタフェースを実装する.\subsection{思い込みが外れた場合の人間の反応}\label{five-one}思い込み範囲外の対象が発話された際の人間の対話を分析するために,\ref{three-one}\,節の聞き取り試験における被験者10名に実在頻度順位100,000位以降の希少姓100種の聞き取りを再度依頼した.発話は\ref{three-one}\,節で4,000種の個人姓を発話したナレータに再度依頼した.被験者には聞き取れるまで自由な質問を許し,発話者には被験者からの質問に対してYes又はNoの正誤応答と姓の再発話のみを応答として許容した.10名の被験者による計1,000件の第一応答は,701件の再発話要求(「もう一度お願いします」)と,299件の聞き取り結果の正誤確認質問(「〜さんで正しいですか?」)の2種に分類された.後者の299件中,正解は24件のみで,残りの275件は誤認識であった.発話者からNoと返された275件に対して,被験者全員が再発話を要求した.この結果を利用して,我々は,利用者の入力に対して確度の高い認識結果が得られなかった場合は思い込みが外れたと判断し,利用者に再入力を要求するインタフェースを構築する.\subsection{思い込み応答のインタフェースへの組み込み}\label{five-three}思い込みが外れた場合に利用者にストレスを与えない対応をするために,思い込み対象姓に対する認識結果を応答として利用者に提示する時間及びそれに対する利用者の回答時間内に,思い込み範囲外の姓に対して並行認識することを提案する.これにより,思い込み範囲外の発話に対して裏認識結果から正解が出力される可能性が生じる.実用インタフェースではリアルタイム性と精度が要求される.第一応答で正解が提示できない場合,第二応答提示時には裏認識を終了させ正解が提示できることが好ましい.精度の観点から,思い込み範囲外の残りも大語彙であり,裏認識で一度に認識対象としても精度は期待できない.そこで思い込み範囲外を精度が期待できる対象数毎に分割し,各文法に対する裏認識を提案する.我々は,以下のような思い込み適用フローを考案し,Nuanceを利用して実装した.\ref{four}\,章の分析に基づき,頻度順位上位10,000件の姓からなる文法Eを思い込み対象としてNuanceに与えた.利用者が入力すると,文法Eに含まれる姓に対して尤度計算する.第一応答では,閾値以上の尤度を持つ候補を利用者に提示し正誤確認を行うこととする.閾値以上の尤度を持つ候補が出力されない場合は,思い込みが外れたと判断し姓の再入力を要求する.システムは,思い込みの結果を応答として利用者に提示する時間,及びそれに対する利用者の回答時間を利用して裏認識を行う.複雑度を基に考えると,裏認識における各文法の語数は10,000件程度が限界であると考えた.現状Nuanceの認識処理時間は,N-best=10の場合,10,000語の認識用文法に対して0.58秒要する\footnote{10,000回の認識試験の平均CPU使用時間}.実装フローにおいて,閾値以上の尤度を持つ候補を提示するガイダンス「入れていただいたお名前は〜さんですか?」の出力に3.99秒,閾値以上の尤度を持つ候補が出力されない場合,姓の再入力を要求ガイダンス「もう一度お名前をお願いします」の出力に3.47秒を要する.それに対して利用者は,Yes又はNoの正誤回答に平均1.12秒,再入力に平均1.98秒要する.従って10,000語ずつに15分割すると,第二応答提示時までに15回の裏認識処理は終了可能なのでリアルタイム性も提供できる.裏認識では,最初の利用者の入力をシステム内部に録音したものを入力として用いる.フロー概要を図2に示す.\begin{figure}[htbp]\vspace*{-1cm}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=18cm\epsffile{teishutu-fig2.eps}\caption{思い込み適用フロー}\label{fig2}\end{center}\end{figure}第二応答は,思い込み範囲外の分割した各文法の裏認識結果を算出尤度順に並べ,最も尤度の高い姓を利用者に提示する.思い込みによる第一応答で正解候補を利用者に提示できた場合は,裏認識は不要であったことになる.裏認識処理の併用により,思い込みが外れても第二応答でリアルタイムに正解を提示できる可能性が大いにあると考えられる.\subsection{評価実験結果}\label{five-two}本節では,\ref{five-three}\,節で述べた思い込みを適用したフローを実装し,思い込み応答の有効性を検証する.評価のために,思い込みを適用しないフローも実装した.このフローでは16万種の姓を一度に認識用文法としてNuanceに与える.閾値以上の尤度を持つ候補が出力された場合は利用者に提示し正誤確認を行う.閾値以上の候補が提示されない場合,又は提示が否定された場合は,利用者に再入力を要求する.再入力された姓に対して,16万種を対象として再認識処理を行い,第二応答は尤度1位の候補を無条件に提示する.提示が誤認識の場合は未確定のまま終了する.思い込み適用フローは,思い込み応答及び裏認識で用いる文法は10,000語の小語彙であるため,未適用フローに比べ精度が期待できる.更に,第一応答は誤認識であっても人間同士の対話でも起こりえるような聞き間違えであることから,利用者はストレスを感じないと考える.実験において,システムの正誤確認に対する利用者の回答は100\,\%の精度で獲得可能であるものとする.新たな被験者20名\footnote{20〜30代の男女各10名ずつ}に,思い込み未適用フロー及び適用フローの2種に対して5.1節の希少姓100種の入力を依頼した.被験者に,両フローの第一応答,及び第二応答が音声対話インタフェースの応答として受け入れ可能か否かの判断を依頼した.第一応答及び第二応答に対する評価を独立に行うため,被験者はシステムからの第一応答提示直後に第一応答を評価し,第二応答提示直後に第二応答の評価を入力1件毎に行う.表6に両フローの第一応答,第二応答の応答内容の内訳,及び被験者の受け入れ可否評価を応答種別毎に示した.\begin{table}[htbp]\caption{思い込み応答の有効性検証}\label{table10}\begin{center}\begin{tabular}{c|r|r|r|r|r}\hline\noalign{\vskip.5mm}&\multicolumn{3}{c}{第一応答}&\multicolumn{2}{|c}{第二応答}\\\cline{2-6}&正解&再入力&誤提示&正解~~&誤提示~\\&(件)&(件)~~~&(件)~~~&(件)~~&(件)~~~\\\hline\hline思い込み未適用&175&490&1,335&202&1,623\\(受入れ可能応答)&(175)&(234)&(0)&(202)&(121)\\\hline思い込み適用&0&1,053&947&1,438&562\\(受入れ可能応答)&(0)&(426)&(670)&(1,438)&(307)\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}思い込み未適用フローは,入力計2,000件のうち,第一応答で正解を提示できたものが175件,再入力要求が490件,残り1,335件は誤った侯補の提示であった.この第一応答に対して被験者は,正解提示の175件及び再入力要求の一部234件の計409件(全体の約20\,\%)をインタフェースの第一応答として受け入れ可能と評価した.誤提示に対しては全て受け入れ不可と評価した.再入力後の第二応答で正解を提示できたものは202件のみであり,全体の約80\,\%にあたる1,623件は誤提示となり,未確定のまま終了した.第二応答の評価対象1,825件のうち,正解提示の202件及び誤提示の一部121件の計323件(全体の約18\,\%)を受け入れ可能と評価された.ここで,第二応答で受け入れ可能と評価された誤提示の一部121件の第一応答は,全て再入力を要求している.このことから,第一応答と第二応答で誤提示が繰り返された場合,利用者はストレスを感じると言える.一方,思い込み適用フローでは,各被験者の入力100件はいずれも思い込み範囲外の姓であるため,第一応答で正解が出力されることはない.第一応答は1,053件が再入力要求,947件が誤提示であり,再入力1,053件中の約40\,\%にあたる426件,及び誤提示947件中の約70\,\%にあたる670件の計1,096件(全体の54\,\%)が第一応答として受け入れ可能と評価された.第二応答では正解を提示できたものが1,438件,全体の約28\,\%にあたる562件が誤提示となり未確定のまま終了した.第二応答に対して被験者は,正解提示の1,438件及び誤提示の一部307件の計1,745件(全体の約87\,\%)を受け入れ可能と評価した.思い込み未適用の場合と同様に,誤提示で受け入れ可能と評価された307件の第一応答は,全て再入力を要求している.思い込みを適用しない場合,約8割の入力が未確定のまま終了し,第一応答,第二応答ともに受入れ不可という判断が約8割を占める.第一応答に着目すると,受け入れ可能と判断されたのは正解提示と再入力を要求した応答の一部のみであり,誤提示に対しては全て受け入れ不可と評価された.これに対して思い込み適用フローでは約8割が確定終了した.思い込みを適用した第一応答に着目すると,誤提示対話の約7割,再入力要求を合わせると全体の半数以上が受け入れ可能と判断された.第二応答に対しては約9割が受け入れ可能と評価された.思い込みを適用した応答は,誤認識であっても利用者には受け入れられることが分かる.このことから,誤認識を生じること自体が必ずしも利用者のストレスの要因ではないことが確認できた.思い込み適用フローにおいて未確定に終った562件の存在が,第二応答に対して受け入れ不可と判断された約1割の応答の存在に繋がると考えられる. \section{まとめ,及び今後の課題} \label{six}我々は,思い込み戦略,及びそれを取り入れた思い込み応答を提案することで,大語彙を入力対象とした実用インタフェースにおいて利用者にストレスを与えない応答を返す仕組みを実現した.また,思い込み応答による聞き取りの精度は人間同士の対話とほぼ同じであり,聞き間違え先も人間の聞き取りとほぼ一致することを確認した.5.3節の実験結果から,思い込みが外れた場合,裏認識処理のみでは第二応答で正解を提示できないことがある.更に実験結果から,第一応答と第二応答で誤提示が繰り返された場合は利用者に受け入れられないことが分かった.1章で述べたように,正誤確認と再入力の繰り返しは利用者のストレスに繋がる.我々は,思い込みの結果,利用者に正解を提示できなかった場合,利用者に別の質問をすることで迅速に正解を絞り込む方法を検討している.すなわち,絞り込みのための質問を利用者にストレスを与えない順序で,かつ利用者からの質問に対する回答も誤認識である場合を考慮して,質問を組み立てる必要がある.個人姓名に関しては,絞り込みに有効な質問の選定が大きな課題であると考える.「サトウ様ですか?」「カトウ様ですか?」「アトウ様ですか?」のような候補の提示と再入力の繰り返し,更に再入力後も誤認識を繰り返すことは利用者にストレスを与えるのは明らかである.人間は,相手の苗字や名前を聞き取れなかったと感じた時,漢字表記や頭文字を尋ねたり,曖昧な部分について問いかけをしながら正しい姓名を導きだそうとする.我々は,人間同士の対話の分析を進めることで,姓名確定のための対話制御方式の確立を目指す.一方,住所に関しては,サービスのアクセス頻度の偏りやコールセンターへの発信番号から思い込み対象を効果的に選択することで,利用者に都道府県名からの入力を強制する必要がなくなる.2.2節で述べたコールセンターのオペレータは,町村名が聞き取れない場合,再入力要求ではなく上位階層である都道府県名,或いは市区郡名を尋ねる傾向が見受けられた.この分析から住所に関しては,思い込みが外れた場合,階層構造を利用して対象数の少ない上位階層を確定する方向へ対話を進めた際の有効性について検証を進めている.その他の大語彙として,全国1,100万種の登録がある企業名の確定\footnote{職業別電話帳「タウンページ」掲載数}や年間約9万回主催されるコンサートの特定\footnote{定期刊行雑誌「ぴあ」(ぴあ株式会社)12ヶ月分の集計}などへの適用も検討している.これまで本稿は,音声入力の応答を例に挙げ議論を進めてきたが,思い込み応答は,音声入力に限らず,大量の検索空間から利用者が必要とする情報を高速かつ高性能に検索する手段として役立つと考える.検索空間が広範囲に及ぶ情報検索の分野では,検索キーに対して数多くの検索結果が取得できてしまい,情報を絞り込む手段がないのが現状である.利用者毎の行動履歴やアクセス履歴を基に,思い込み戦略を利用者の検索趣向を導き出す手段に適用することで,同じ検索キーが入力された場合でも個々人適応型の情報提供が可能になると考えられる.今後,思い込み戦略の他分野への適用を検討すると同時に,思い込みにより正解を提示できない場合に,迅速に正解を導くための対話制御方法の検討を続けていきたい.\vspace{0.2cm}\acknowledgment本論文に関してご指導頂きました~(株)~NTTアドバンステクノロジー東田正信氏,NTTコミュニケーション科学基礎研究所堂坂浩二氏,本研究の機会を与えて下さいました~(株)~NTTデータ技術開発本部長松本隆明氏,的確で有益なコメントを下さいました査読者の方に深く感謝致します.\bibliographystyle{jnlpbbl}\bibliography{papereuc}\begin{biography}\biotitle{略歴}\bioauthor{大森久美子}{平成8年慶應義塾大学大学院理工学研究科計算機科学専攻終了.同年,日本電信電話~(株)~情報通信研究所入社.平成10年より同社情報流通プラットフォーム研究所にて音声対話処理の研究に従事,現在~(株)~NTTデータ技術開発本部にて音声対話制御手法の研究,アプリケーション開発に従事.平成15年4月より,慶應義塾大学大学院理工学研究科開放環境科学専攻計算機科学専修後期博士課程在籍.自然言語処理,音声言語理解に興味を持つ.情報処理学会,言語処理学会,電子情報通信学会各会員.}\bioauthor{斎藤博昭}{慶應義塾大学工学部数理工学科卒業.現在同大理工学部情報工学科専任講師.工学博士.自然言語処理,音声言語理解などに興味を持つ.情報処理学会,言語処理学会,日本音響学会,電子情報通信学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V24N01-05
\section{はじめに} 製品やサービスを提供する多くの企業は顧客の問い合わせに対応するために,コールセンターを運営している.コールセンターでは,オペレータが電話やメールによる顧客問い合わせに対応する際や,顧客自身が答えを探す際の支援のために,FrequentlyAskedQuestion(FAQ)の整備および,FAQ検索システムを導入していることが多い.FAQ検索の利用者は,自然文や単語の集合を検索クエリとして,検索を実施するのが一般的である.しかし,FAQは過去の問い合わせ履歴の中から,同様の質問をまとめ,それらを代表するような抽象的な表現で作成されることが多いため,類義語や同義語,表記の揺れといった問題により,正しく検索できない場合がある.たとえば,以下の例のように入力の問い合わせと対応するFAQで語彙が一致しないことがある.\begin{itemize}\item問い合わせ:○○カードの再度発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.\item正解のFAQの質問部分:○○カードを紛失・盗難・破損した場合の手続き方法\item不正解のFAQの質問部分:○○カードを新規発行する方法\end{itemize}\noindentこの例では,正解のFAQへの語彙の一致は「○○カード」のみである.一方,不正解のFAQには,「○○カード」に加え,「発行」も一致するため,不正解のFAQが上位にランクされてしまう.このような問題に対して,たとえば,Yahoo!知恵袋などのコミュニティ型質問応答サイトにおける類似質問検索では,統計的機械翻訳で用いられるアライメントモデルを適用する方法が提案されている\cite{riezler:07,soricut:04,xue:08}.また,Web検索においては,ユーザのクエリに対して得られた検索結果の上位の文書集合を適合文書とみなしてクエリを拡張するpseudo-relevancefeedbackといった手法も用いられている.しかし,アライメントモデルが学習しているのは,単語と単語の対応確率であり,FAQを特定するために有効な語を学習しているとは言えない.また,Webやコミュニティ型質問応答サイトなど複数の適合文書が得られる可能性がある場合に用いられるpseudo-relevancefeedbackは,適合するFAQが複数存在することがWeb検索ほど期待できないFAQ検索では十分な効果が得られない可能性がある.本論文では,問い合わせを対応するFAQに分類する文書分類器を利用したFAQ検索システムを提案する.本システムでは,機械学習を基に各FAQに関連のある単語を学習することで,問い合わせ中の単語が検索対象のFAQに一致していなくてもFAQを精度良く検索することを目指す.しかし,FAQだけを文書分類器のための学習データとして用いる場合は,FAQに出現する単語だけの判別しかできないという問題が残る.そこで,文書分類器を学習するために,コールセンターにて蓄積されている顧客からの問い合わせとオペレータの対応内容である問い合わせ履歴から自動生成した学習データを用いる.問い合わせ履歴には,問い合わせに対するオペレータの対応内容は記入されているものの,明示的にどのFAQが対応するという情報は付与されていない場合がある.そのため,本論文では,Jeonらの\cite{jeon:05}「似た意味の質問には似た回答がされる」という仮定に基づき,FAQの回答部分と問い合わせ履歴の対応内容の表層的類似度を計算し,閾値以上となった対応内容と対になっている問い合わせをそのFAQに対応するものとみなして学習データとする方法を用いる.さらに,本論文では,文書分類器の判別結果に加え,問い合わせと検索対象のコサイン類似度といった多くの手法で用いられている特徴を考慮するために,教師有り学習に基づくランキングモデルの適用を提案する.素性には,問い合わせとFAQの単語ベクトル間のコサイン類似度などに加えて,文書分類器が出力するスコアを用いる.ある企業のコールセンターのFAQおよび問い合わせ履歴を用いて提案手法を評価をした.提案手法は,pseudo-relevancefeedbackおよび統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較して,高いランキング性能を示した. \section{関連研究} 類似質問を検索する方法として,機械翻訳で用いられる単語単位のアライメントモデルであるIBMModel\cite{brown:93}を用いた手法が提案されている\cite{jeon:05,riezler:07,soricut:04,xue:08}.IBMModelは単語の対応確率をEMアルゴリズムで推定する手法である.統計的機械翻訳では,アライメントモデルは,原言語と,目的言語の文の対からなる対訳コーパスを用いて,単語間の対応確率を推定するために用いられる.類似質問検索においては,質問とその回答の対を対訳コーパスとみなしたり,あるいは類似する回答を持つこの方法では,FAQと問い合わせ間の単語の対応確率を学習する.しかしながら,単語間の対応確率は,対応するFAQを検索するために有効な語彙知識であるとは言えない.例えば,入力の「方法」とFAQの「方法」が対訳コーパス中で良く共起して出現し,学習の結果,対応確率が高くなったとする.この対応確率を利用してFAQをスコアリングすると,「方法」が出現する誤ったFAQが上位になりうる.Caoら\cite{cao:10,cao:09}はYahoo!Answersのカテゴリ情報を考慮して,回答済みの質問を検索する手法を提案した.Yahoo!Answersの質問にはユーザによってカテゴリが付与されているため,この手法はカテゴリが付与された質問を学習データとして,事前に入力の質問をカテゴリに分類するための分類器を作成する.実際に検索する際には,まず入力の質問が検索対象の質問に付与されているカテゴリに所属する確率を分類器を使って計算する.入力の質問と検索対象の質問との間の単語の一致や,単語の対応確率に対して,カテゴリの確率を重みとして与え,検索対象の質問に対するスコアを計算する.文書分類器を用いて検索するという観点で本論文と類似する研究であるが,本論文で扱う問い合わせ履歴の問い合わせには事前にカテゴリが付与されていないこと,本論文ではFAQを直接カテゴリとみなしていることが異なる.Singh\cite{singh:12},Zhouら\cite{zhou:13}はWikipediaを外部知識として利用して,コミュニティ質問応答サイトの類似質問検索性能を上げる手法を提案した.たとえばFAQ検索においては,業務ルールなどのドメイン固有の知識を含むため,一般的な知識源だけでは十分ではない.\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f1.eps}\end{center}\caption{提案手法のモデルを学習する処理の概要と例}\label{fig:flow}\end{figure} \section{提案手法} 提案手法の学習時の処理を図\ref{fig:flow}に示す.提案手法の学習は大きく3つの処理からなる.まず,既存の方法を用いてFAQと問い合わせ履歴を用いて学習データを自動生成する(\ref{sec:train-data}節).続いて,問い合わせを対応するFAQに分類するための文書分類器を学習する(\ref{sec:classifier}節).最後に,学習データと,分類器の出力を素性に加えて,問い合わせに対して,正解のFAQが不正解のFAQよりもスコアが高くなるようにランキングモデルを学習する(\ref{sec:learn2rank}節).文書分類器の出力するスコアは問い合わせとFAQの単語の厳密一致や単語の関連度に依存せずに出力することができる.ランキング学習を適用することで,文書分類器から得られるスコアを,問い合わせとFAQの単語ベクトルのコサイン類似度などの素性とともに用いてFAQ検索結果のランキングをおこなうことが可能となる.\subsection{学習データの自動生成}\label{sec:train-data}先行研究\cite{jeon:05}に従い,FAQと問い合わせのペアについてお互いの回答部分の類似度をもとに自動で学習データを生成する.この手法は,似た意味の質問には似た回答がされるという仮説に基づき,回答間の表層的な類似度が閾値以上の回答済み質問文の対を収集した.この仮説はコールセンターではより有効であると考えられる.なぜならば,オペレータは問い合わせに対して対応する際に,対応するFAQを検索し,その回答部分を引用することが少なくないためである.学習データの生成には,FAQの質問$Q$および回答$A$,問い合わせ履歴中の問い合わせ$I$およびオペレータの対応内容$R$を用いる.図\ref{fig:flow}の例では$Q$,$A$,$I$,$R$はそれぞれ「○○カードを紛失」,「ヘルプデスクへご連絡ください」,「○○カードを失くしたかも」,「ヘルプデスクへご連絡ください」を形態素解析して得た名詞,動詞,形容詞の集合である.学習データの自動生成には,質問$Q$と回答$A$の対からなるFAQの集合$\FAQSet=\{(Q_1,A_1),\ldots,\linebreak(Q_{|\FAQSet|},A_{|\FAQSet|})\}$および,問い合わせ$I$とオペレータの対応内容$R$の対からなる問い合わせ履歴の集合$\HistorySet=\{(I_1,R_1),...,(I_{|\HistorySet|},R_{|\HistorySet|})\}$を用いる.具体的には全文検索を使って,オペレータの対応内容,FAQの回答の内容語でお互いにOR検索し,式(\ref{eq:hrank})によってスコア$\textrm{hrank}(A_{i},R_{j})$を計算する.\begin{equation}\textrm{hrank}(A_{i},R_{j})=\frac{1}{2}\left(\frac{1}{rank_{A_{i}}}+\frac{1}{rank_{R_{j}}}\right)\label{eq:hrank}\end{equation}$\textrm{rank}_{A_{i}}$は問い合わせ履歴の回答$R_{j}$を入力としてFAQの回答$A_1,...,A_{|\FAQSet|}$を検索した場合の$A_{i}$の順位,$\textrm{rank}_{R_{j}}$はFAQの回答$A_{i}$を入力として問い合わせ履歴の回答$R_1,...,R_{|\HistorySet|}$を検索した場合の$R_{j}$の順位である.$\textrm{hrank}(A_{i},R_{j})$があらかじめ人手で設定した閾値を超えたFAQと問い合わせのペアの集合$D=\{\langle(Q_i,A_i),I_j\rangle|1\leqi\leq|\FAQSet|,1\leqj\leq|\HistorySet|\}$を生成する.例えば,問い合わせ履歴の回答$R_j$でFAQの回答を検索して,FAQの回答$A_i$の順位が2位でFAQの回答$A_i$で問い合わせ履歴の回答を検索して,問い合わせ履歴の回答$R_j$が1位だった場合,hrankは0.75となる.学習データの自動生成手順をAlgorithm\ref{alg:gendata}に示す.hrankを計算するために,事前に問い合わせ履歴の回答を入力としたときのFAQの回答の順位の逆数を$\mathbf{M}_1\in\mathbb{N}^{|F|\times|H|}$に,FAQの回答を入力としたときの問い合わせ履歴の回答の順位の逆数を$\mathbf{M}_2\in\mathbb{N}^{|H|\times|F|}$に格納する.順位のリスト$\textrm{ranks}$を得るために,$\textrm{GetRanks}$の第一引数を入力($A$もしくは$R$),第二引数を順位を付与する対象の文書集合($\FAQSet$もしくは$\HistorySet$)として実行する.順位を付与するために,全文検索エンジンを使う.もし検索時に該当の文書が得られない場合,その文書の順位は,入力が問い合わせ履歴の回答であれば$|\FAQSet|$,FAQの回答であれば$|\HistorySet|$とする.\begin{algorithm}[t]\caption{学習データの自動生成の疑似コード}\label{alg:gendata}\input{06algo01.txt}\end{algorithm}\subsection{文書分類器の学習}\label{sec:classifier}文書分類器の学習には,\ref{sec:train-data}節で生成した学習データ$D$を用いて,FAQごとに正例と負例を作成して二値分類器を学習する.対象のFAQと対応する問い合わせの集合を正例,その他のFAQと対応する問い合わせの集合をすべて負例として学習データとする.対応する問い合わせを持たないFAQも存在するため,対象のFAQそのものも正例に追加している.例えば,「○○カードを紛失・盗難・破損した場合の手続き方法」というFAQの分類器を学習するときには,正例に「○○カードの再発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.」という問い合わせがあった場合,「○○カード」,「再発行」,「見当らない」といった素性の重みを正の方向に大きく更新する.学習にはAdaptiveRegularizationofWeightsLearning\cite{koby:09}を用いた.素性には,内容語(名詞,動詞,形容詞),係り受け関係にある名詞と動詞の対を用いる.名詞句は同一の文節中に連続して出現する接頭詞と名詞とした.また,少なくとも片方が内容語であるような単語bigramの出現も素性として用いる.\subsection{ペアワイズランキング学習}\label{sec:learn2rank}ペアワイズランキング学習では,\ref{sec:train-data}節で生成した学習データ$D$を用いて,問い合わせに対して,正解のFAQが,不正解のFAQよりもスコアが高くなるように重みベクトルを更新する.ランキングの重みの学習アルゴリズムにはSOLAR-IIを用いた\cite{wang:15}.SOLAR-IIはペアワイズランキングのオンライン学習手法であり,AdaptiveRegularizationofWeightsLearning\cite{koby:09}のように,素性の重み$\mathbf{w}\in\mathbb{R}^d$に対して共分散行列$\Sigma\in\mathbb{R}^{d\timesd}$を保持する.重みの更新時に,分散の値が小さい素性ほど,学習の信頼度が高いとみなして,重みの更新幅を小さくする.\begin{algorithm}[b]\caption{ペアワイズランキング学習}\label{alg:pairrank}\input{06algo02.txt}\end{algorithm}ランキングの重みベクトルの更新手順をAlgorithm\ref{alg:pairrank}に示す.最初に重み$\mathbf{w}$を$\mathbf{0}$,共分散行列$\Sigma$を単位行列$\mathbf{E}$として初期化する.問い合わせに対する正解のFAQおよびランダムに選択した不正解のFAQから抽出した素性ベクトル$\textbf{x}_p\in\mathbb{R}^d$および$\textbf{x}_n\in\mathbb{R}^d$を$\textrm{ExtractFeatureVector}$によって取得し,2つのベクトルの差$\textbf{x}$をもとに重みを更新する.$\gamma$はハイパーパラメータであり,値が大きいほど重みの更新幅を小さくする.本論文では$1.0$とした.$\alpha$はヒンジ損失であり,正解のFAQのスコアが不正解のFAQのスコアよりも低い値となったときに$0$以上の値を取る.$\beta$は事例に含まれる素性の分散が小さい,つまり信頼度が高いほど大きな値を取る.そのため,信頼度が高い素性を多く含む事例に対して順位の予測を誤った場合には重みの更新幅や信頼度の更新幅を減らし,学習が過敏になり過ぎないようにする役割を持つ.学習を高速化するために,負例の生成にランダムサンプリングを適用した.ランダムサンプリングによるランキング学習でも,ペアワイズランキング学習で良い性能を出しているRankingSVM\cite{joachims:02}と同等の性能であることが示されている\cite{sculley:09}.負例の数$K$は$300$とした.$\textrm{ExtractFeatureVector}$では基本的な素性のグループ\textbf{Basefeatures}および自動生成した学習データを用いた素性\textbf{tfidf\_FAQ+query}および\textbf{faq-scorer}を抽出する.\begin{itemize}\item{\bfBasefeatures}\begin{itemize}\item{\bfcos-q,cos-a}:cos-qは,問い合わせとFAQの質問に対する内容語(名詞,動詞,形容詞)のコサイン類似度.cos-aは,問い合わせとFAQの回答に対する内容語のコサイン類似度.これらの値は,問い合わせに出現する単語をより含み,出現する単語の異なり数が少ないFAQほど1に近い値を取り,そうでないほど0に近い値を取る.\item{\bfdep}:係り受け関係にある文節に出現する名詞,名詞句,動詞の対の一致回数.\item{\bfnp}:FAQの質問と問い合わせに対して,出現する名詞句が一致する割合.\end{itemize}\item{\bftfidf\_FAQ+query}:FAQの質問$Q$,回答$A$および$D$中のそのFAQに対して生成された$L$個の学習データ$\{I'_l\}_{l=1}^L$を用いて計算するtfidfに基づくスコア\\$\textrm{score}(Q,A,\{I'_l\}_{l=1}^L,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I))+\max_{{I'}_{l}}\textrm{tfidf\_sim}(I,I'_l)$.\\付録\ref{ap:es}の式(\ref{eq:es})を用いて計算した.入力の問い合わせに対して質問もしくは回答と一致している単語が多いほど高く,さらに学習データの問い合わせ集合の中で一致している単語が多いものが存在するFAQに対して高いスコアとなる.\item{\bffaq-scorer}:問い合わせに対して,該当するFAQの二値分類器のマージンを計算し,sigmoid関数によって$[0,1]$へ変換した値を素性に用いる.この分類器は過去の問い合わせ履歴を使って,どのような表現が出現する問い合わせならばこのFAQが正解らしいかどうかを学習したものである.そのため,この素性は問い合わせに対してこのFAQが正解らしいほどスコアが1に近く,そうでないほど0に近い値を取る.\end{itemize}学習した重みベクトル$\mathbf{w}$を使って未知の問い合わせ$I$に対してFAQをランキングするときには,各FAQから抽出した素性ベクトル$\mathbf{x}$と$\mathbf{w}$の内積を計算して,その値をもとにFAQをソートする. \section{実験} 本実験では,文書分類器の出力を用いたランキングの有効性を確認するために,ある企業のFAQおよび問い合わせ履歴を用いて,既存手法との比較をおこなう.また,自動生成した学習データを分析し,ランキングの評価値への影響を調べる.\subsection{実験設定}実験にはある企業のFAQおよび問い合わせ履歴を用いた.問い合わせ履歴は個人情報を含むため,人名や個人を特定しうる数字列や地名,所属などの情報をパターンマッチによって秘匿化している.そのため,本来は個人情報ではない文字列も秘匿化されていることがある.今回の実験で用いたFAQの数は4,738件で,問い合わせ履歴はおよそ54万件である.評価のために,問い合わせ履歴中の286件に対し,3人のアノテータで正解のFAQを付与したデータを作成した.アノテータには,問い合わせに対してもっとも対応するFAQを1つ付与するよう依頼した.評価データ中に付与されたFAQの異なり数は186件となった.正解を付与した問い合わせ履歴の286件のうち,86件は開発用のデータ,残りは評価データに用いた.開発用データは,学習データ自動生成の閾値を決定するために用いた.本実験では,閾値を0から1まで0.1刻みで変えて,MRRが最も高くなる$0.4$とした.評価データは,各手法の精度評価に用いる.回答が短いFAQは,誤った問い合わせが多くペアになりうるため,文字数が10文字以下のFAQに対しては学習データの自動生成候補から除外した.また,学習データの生成後,学習データの中から評価データに含まれる問い合わせを削除した.形態素解析器,係り受け解析器にはそれぞれ,MeCab\footnote{MeCab:YetAnotherPart-of-SpeechandMorphologicalAnalyzer$\langle$https://taku910.github.io/mecab/$\rangle$(2016年5月20日アクセス)},CaboCha\footnote{CaoboCha:YetAnotherJapaneseDependencyStructureAnalyzer$\langle$https://taku910.github.io/cabocha/$\rangle$(2016年5月20日アクセス)}を用いた.システム辞書にはmecab-ipadic-NEologd\cite{sato:15}を用いた.ユーザ辞書には秘匿化で用いたタグを追加し,秘匿化した際に用いたタグが分割されないようにしている.評価尺度にはランキングの評価で用いられるMRR(MeanReciprocalRank),Precision@N(P@N)を用いた.MRRは式(\ref{eq:mrr})で表され,正解の順位$r_i$の逆数に対して平均を取った値であり,正解のFAQを1位に出力できるほど1に近い値を取り,そうでないほど0に近い値を取る.P@Nは式(\ref{eq:patn})で表され,正解が$N$位以上になる割合である.正解が$N$位以上に出力している問い合わせが多いほど1に近い値を取り,そうでないほど0に近い値を取る.{\allowdisplaybreaks\begin{gather}\textrm{MRR}=\frac{1}{N}\sum_{i=1}^{N}\frac{1}{r_i}\label{eq:mrr}\\[1ex]\textrm{P@N}=\frac{\textrm{正解がN位以上の評価データの数}}{\textrm{評価データの数}}\label{eq:patn}\end{gather}}\subsection{比較手法}tf-idf法に基づく全文検索2種類,pseudo-relevancefeedbackおよび翻訳モデルを用いる手法と比較する.全文検索にはElasticsearch\footnote{ElasticRevealingInsightsfromData(FormerlyElasticsearch)$\langle$https://www.elastic.co/jp/$\rangle$(2016年5月20日アクセス)}を用いた.索引語は形態素解析器のkuromoji\footnote{elastic/elasticsearch-analysis-kuromoji:Japanese(kuromoji)AnalysisPlugin$\langle$https://github.com/\linebreak[2]elastic/\linebreak[2]elasticsearch-analysis-kuromoji$\rangle$(2016年5月20日アクセス)}によって形態素解析をおこない,品詞で指定された条件\footnote{$\langle$https://svn.apache.org/repos/asf/lucene/dev/branches/lucene3767/solr/example/solr/conf/lang/stoptags\_\linebreak[2]ja.txt$\rangle$(2016年5月20日アクセス)}と一致しない形態素の原形とした.また,全角半角は統一し,アルファベットはすべて小文字化した.\begin{description}\item[tfidf\_FAQ]検索対象はFAQの質問および回答としてtfidfにもとづく類似度を計算する.類似度は付録\ref{ap:es}の式(\ref{eq:es-base})を用いた.\item[tfidf\_FAQ+query]\ref{sec:learn2rank}節と同じ計算式を用いた.\item[pseudo-relevancefeedback]pseudo-relevancefeedbackにはofferweight\cite{robertson:94}を用いた.offerweightは式(\ref{eq:ow})のようにして,単語$w$に対するスコアを計算する.\begin{equation}score(w)=r\log\left(\frac{(r+0.5)(N-n-R+r+0.5)}{(n-r+0.5)(R-r+0.5)}\right),\label{eq:ow}\end{equation}\item[翻訳モデル]翻訳モデルに基づく検索には,Jeonら\cite{jeon:05}の手法を用いる.この手法では入力の問い合わせ$I$を受け付け,式(\ref{eq:jeon-score})によって検索対象のFAQを,質問部分$Q$を用いてスコアリングする.\begin{equation}P(Q|I)=\prod_{w\inQ}P(w|I)\label{eq:jeon-score}\end{equation}ただし$P(w|I)$は式(\ref{eq:jeon-pwd})のように計算する.\begin{equation}P(w|I)=(1-\lambda)\sum_{t\inQ}(P_{tr}(w|t)P_{ml}(t|I))+\lambdaP_{ml}(w|C)\label{eq:jeon-pwd}\end{equation}式(\ref{eq:jeon-pwd})の$P_{tr}(w|t)$は,\ref{sec:train-data}節で生成した$D$におけるFAQの質問と問い合わせを対訳部分とみなしてGIZA++\footnote{GIZA++$\langle$http://www.statmt.org/moses/giza/GIZA++.html$\rangle$(2016年5月20日アクセス)}を使って学習した単語$w$と$t$の対応確率である.$P_{ml}(t|I)$は問い合わせ$I$における単語$t$の相対的な重要度である.本論文では文書頻度の逆数に対して対数を掛けた値を求め,問い合わせに出現する単語の値の総和で割った値とした.$C$は$D$の問い合わせの集合とした.そのため$P_{ml}(w|C)$は単語$w$の一般的な重要度を表す.Jeonらの設定に従い,$P_{tr}(w|w)=1$というヒューリスティクスを加えている.$\lambda$は$0$から$1$まで$0.1$刻みで変えて実験をおこない,開発データのMRRが最も良くなる値を用いた.\end{description}\subsection{実験結果}\subsubsection{自動生成した学習データの分析}Algorithm\ref{alg:gendata}の自動生成手法により,学習データ$D$のサイズは38,420件となった.3,185件のFAQに対して学習データを生成し,学習データが生成されていないFAQも含めて平均すると1件のFAQにつき8.03件の問い合わせを生成した.問い合わせと対応するFAQの対は自動生成するため,学習データ$D$の問い合わせとFAQが正しく対応しているとは限らない.自動生成した学習データ$D$の中からランダムに50件の事例を抽出し,問い合わせとFAQの対応が正しいかそうでないかを人手で評価した結果を表\ref{tab:human-eval-pair}に示す.おおよそ半分のデータは正解のFAQと正しい対応になっており,残りの半分は不正解のFAQと対応する.FAQの回答が短い場合には,類似する回答がされる問い合わせが多くなることがあるのと,回答の内容は同じであるが,FAQの質問と対応する問い合わせの内容が意味的に一致しないような事例がみられた.\begin{table}[b]\caption{人手によるFAQと問い合わせの対応の評価}\label{tab:human-eval-pair}\input{06table01.txt}\end{table}提案手法の文書分類器の性能はFAQに対して学習データとして生成できた問い合わせの数が影響すると想定される.FAQごとに正例として生成できた問い合わせ数を調べた.図\ref{fig:histogram-train}は評価データおよび開発データに含まれるFAQに対して生成された問い合わせ数を表すヒストグラムである.区間の幅を10とした.評価データに含まれるFAQのうち,1件も正例となる学習データが生成できなかったFAQは7件となった.\begin{figure}[t]\begin{center}\includegraphics{24-1ia6f2.eps}\end{center}\hangcaption{正例として生成された問い合わせ数ごとのFAQの度数分布.x軸はひとつのFAQに対して正例として生成された問い合わせの数で,y軸はFAQの数を表す.}\label{fig:histogram-train}\end{figure}\subsubsection{ランキングの評価}比較手法と提案手法の実験結果を表\ref{tab:compare}に示す.faq-scorerは,\ref{sec:classifier}節で作成した文書分類器の出力に応じてFAQをランキングした場合の結果である.Basefeatures\&tfidf\_FAQ+queryおよびBasefeatures\&tfidf\_FAQ+query\&faq-scorerは\ref{sec:learn2rank}節で挙げた素性を用いて学習したランキングモデルである.\begin{table}[t]\caption{評価結果}\label{tab:compare}\input{06table02.txt}\vspace{4pt}\smallpairedt-testをおこない,有意水準0.05でBasefeatures\&tfidf\_FAQ+query\&faq-scorerと有意差がある比較手法の結果に$\dagger$を付与した.\end{table}faq-scorerは比較手法よりも高いP@1となった.一方で他の評価値はtfidf\_FAQ+queryを下回った.Basefeaturesおよびtfidf\_FAQ+queryに加えてfaq-scorerを素性としてランキングモデルを学習することでどの評価値も他の比較手法より高くなったことから,文書分類器を素性として加えることで,精度改善に貢献することがわかる.\subsubsection{結果分析}正例として生成された問い合わせ数が文書分類器に及ぼす影響を調べるため,評価データに含まれるFAQを正例として生成された問い合わせ数でまとめてfaq-scorerおよびtfidf\_FAQ+queryのMRRを算出した結果を図\ref{fig:mrr-numtrain}に示す.プロットする学習データの数は25までとした.評価データの数が多くないためばらつきがみられるが,生成される学習データの数が多いFAQほど,文書分類器は正しく分類できる傾向にあることを確認できる.一方で学習データが少ないFAQに対してはtfidf\_FAQ+queryよりも誤りが多い.\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f3.eps}\end{center}\caption{評価データ中のFAQの集合を正例として生成された問い合わせ数でまとめて算出したMRR}\label{fig:mrr-numtrain}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f4.eps}\end{center}\hangcaption{Basefeatures+tfidf\_FAQ+queryのMRRの学習曲線.横軸は利用した学習データの件数を表し,縦軸はMRRを表す.}\label{fig:mrr-lr}\end{figure}提案手法に対する学習データの影響を調べるため,学習データの数を変えて実験した.Basefeatures+tfidf\_FAQ+queryのMRRの学習曲線を図\ref{fig:mrr-lr}に示す.MRRの学習曲線をプロットするために,学習データとしてFAQと問い合わせの対応を1,000件ずつ増やして文書分類器およびランキングモデルを学習している.提案手法は学習データの量に応じてMRRが向上している.表\ref{tab:human-eval-pair}が示すようなある程度ノイズを含むような学習データであっても,量を増やすことでランキングの性能向上に貢献していることがわかる.文書分類器は問い合わせに出現する単語などを素性として分類するため,問い合わせのトピックが複数存在するような場合に誤りやすいと考えられる.ただし,トピックを明示的に与えることが難しい.そこで問い合わせの単語数が長いほど複数のトピックが出現しやすいという仮定のもと,問い合わせの単語数に応じてMRRの評価値を算出する.評価データを単語数で10刻みで分割し,単語数が1から100までの問い合わせ集合に対して,Basefeatures\&faq-scorerとtfidf\_FAQについてMRRを評価した.結果を表\ref{tab:mrr_each_num_token}に示す.単語数が1から10個の問い合わせは,単語数が10個以上の問い合わせに比べてMRRが高くなる傾向にあるが分かる.このことから,単語数が多い問い合わせに対しては質問のトピックを認識するような技術が必要であるが,これは今後の課題とする.\begin{table}[t]\caption{全文検索とBasefeatures+tfidf\_FAQ+queryの単語数ごとのMRR}\label{tab:mrr_each_num_token}\input{06table03.txt}\end{table}最後に,学習結果の内容の詳細を確認するため,「○○カードを紛失・盗難・破損した場合の手続き」というFAQについて,文書分類器の学習結果の内容を調べた.大きい重みのついた素性から順に眺め,人手で選択した素性を表\ref{tab:feature}に示す.自動生成した学習データを用いることで,「磁気不良」「おとした」等のこのFAQの質問や回答には出現しない表現であるが,判別に寄与する語彙を学習していることがわかる.\begin{table}[t]\caption{FAQ「○○カードを紛失・盗難・破損した場合の手続き」の学習結果の中で重みが大きい素性}\label{tab:feature}\input{06table04.txt}\end{table} \section{おわりに} 本論文では,FAQおよび問い合わせ履歴が持つ特徴を利用して自動生成した学習データを用いて,問い合わせを対応するFAQへ分類する文書分類器を学習し,その文書分類器の出力をランキング学習の素性として用いる手法を提案した.ある企業のFAQを用いた評価実験から,提案手法がFAQ検索の性能向上に貢献することを確認した.今後は,学習データの自動生成方法をより改善すること,さらに,より検索対象が多い場合でも同様の結果が得られるか検証したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown:93}Brown,P.~F.,Pietra,V.J.~D.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Cao,Cong,Cui,\BBA\Jensen}{Caoet~al.}{2010}]{cao:10}Cao,X.,Cong,G.,Cui,B.,\BBA\Jensen,C.~S.\BBOP2010\BBCP.\newblock\BBOQAGeneralizedFrameworkofExploringCategoryInformationforQuestionRetrievalinCommunityQuestionAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonWorldWideWeb},WWW'10,\mbox{\BPGS\201--210}.ACM.\bibitem[\protect\BCAY{Cao,Cong,Cui,Jensen,\BBA\Zhang}{Caoet~al.}{2009}]{cao:09}Cao,X.,Cong,G.,Cui,B.,Jensen,C.~S.,\BBA\Zhang,C.\BBOP2009\BBCP.\newblock\BBOQTheUseofCategorizationInformationinLanguageModelsforQuestionRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe18thACMConferenceonInformationandKnowledgeManagement},CIKM'09,\mbox{\BPGS\265--274}.ACM.\bibitem[\protect\BCAY{Crammer,Kulesza,\BBA\Dredze}{Crammeret~al.}{2009}]{koby:09}Crammer,K.,Kulesza,A.,\BBA\Dredze,M.\BBOP2009\BBCP.\newblock\BBOQAdaptiveRegularizationofWeightVectors.\BBCQ\\newblockInBengio,Y.,Schuurmans,D.,Lafferty,J.~D.,Williams,C.K.~I.,\BBA\Culotta,A.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems22},\mbox{\BPGS\414--422}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Jeon,Croft,\BBA\Lee}{Jeonet~al.}{2005}]{jeon:05}Jeon,J.,Croft,W.~B.,\BBA\Lee,J.~H.\BBOP2005\BBCP.\newblock\BBOQFindingSimilarQuestionsinLargeQuestionandAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe14thACMInternationalConferenceonInformationandKnowledgeManagement},CIKM'05,\mbox{\BPGS\84--90}.ACM.\bibitem[\protect\BCAY{Joachims}{Joachims}{2002}]{joachims:02}Joachims,T.\BBOP2002\BBCP.\newblock\BBOQOptimizingSearchEnginesUsingClickthroughData.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},KDD'02,\mbox{\BPGS\133--142}.ACM.\bibitem[\protect\BCAY{Riezler,Vasserman,Tsochantaridis,Mittal,\BBA\Liu}{Riezleret~al.}{2007}]{riezler:07}Riezler,S.,Vasserman,A.,Tsochantaridis,I.,Mittal,V.,\BBA\Liu,Y.\BBOP2007\BBCP.\newblock\BBOQStatisticalMachineTranslationforQueryExpansioninAnswerRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\464--471}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Robertson\BBA\Jones}{Robertson\BBA\Jones}{1994}]{robertson:94}Robertson,S.~E.\BBACOMMA\\BBA\Jones,K.~S.\BBOP1994\BBCP.\newblock\BBOQSimple,ProvenApproachestoTextRetrieval.\BBCQ\\newblock\BTR\TechnicalReportNo.356.\bibitem[\protect\BCAY{Sato}{Sato}{2015}]{sato:15}Sato,T.\BBOP2015\BBCP.\newblock\BBOQNeologismDictionarybasedontheLanguageResourcesontheWebforMeCab.\BBCQ\\texttt{https://github.com/neologd/mecab-ipadic-neologd}.\bibitem[\protect\BCAY{Sculley}{Sculley}{2009}]{sculley:09}Sculley,D.\BBOP2009\BBCP.\newblock\BBOQLargeScaleLearningtoRank.\BBCQ\\newblockIn{\BemNIPSWorkshoponAdvancesinRanking}.\bibitem[\protect\BCAY{Singh}{Singh}{2012}]{singh:12}Singh,A.\BBOP2012\BBCP.\newblock\BBOQEntitybasedQ\&ARetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\1266--1277}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Soricut\BBA\Brill}{Soricut\BBA\Brill}{2004}]{soricut:04}Soricut,R.\BBACOMMA\\BBA\Brill,E.\BBOP2004\BBCP.\newblock\BBOQAutomaticQuestionAnsweringUsingtheWeb:BeyondtheFactoid.\BBCQ\\newblockInSusan~Dumais,D.~M.\BBACOMMA\\BBA\Roukos,S.\BEDS,{\BemHLT-NAACL2004:MainProceedings},\mbox{\BPGS\57--64}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Wang,Wan,Zhang,\BBA\Hoi}{Wanget~al.}{2015}]{wang:15}Wang,J.,Wan,J.,Zhang,Y.,\BBA\Hoi,S.\BBOP2015\BBCP.\newblock\BBOQSOLAR:ScalableOnlineLearningAlgorithmsforRanking.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1692--1701}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Xue,Jeon,\BBA\Croft}{Xueet~al.}{2008}]{xue:08}Xue,X.,Jeon,J.,\BBA\Croft,W.~B.\BBOP2008\BBCP.\newblock\BBOQRetrievalModelsforQuestionandAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe31stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},SIGIR'08,\mbox{\BPGS\475--482}.ACM.\bibitem[\protect\BCAY{Zhou,Liu,Liu,Zeng,\BBA\Zhao}{Zhouet~al.}{2013}]{zhou:13}Zhou,G.,Liu,Y.,Liu,F.,Zeng,D.,\BBA\Zhao,J.\BBOP2013\BBCP.\newblock\BBOQImprovingQuestionRetrievalinCommunityQuestionAnsweringUsingWorldKnowledge.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalJointConferenceonArtificialIntelligence},IJCAI'13,\mbox{\BPGS\2239--2245}.AAAIPress.\end{thebibliography}\appendix \section{Elasticsearchで利用したtfidfスコアの計算式} label{ap:es}本論文でElasticsearchを利用したFAQのスコア計算は2種類ある.1つはFAQの質問と回答を利用する場合で,もう1つはFAQの質問と回答および$D$中のそのFAQに対して生成された学習データを利用する場合である.FAQが質問$Q$,回答$A$とフィールドを分けて索引付けしている場合,問い合わせ$I$を入力としたときのFAQのスコアは次のように計算する.\pagebreak\begin{equation}\textrm{score}(Q,A,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I)),\label{eq:es-base}\end{equation}この計算では入力の問い合わせに対して,質問もしくは回答と一致している単語が多いほど高いスコアとなる.FAQが質問$Q$,回答$A$に加えて,$D$中でそのFAQに対して生成された学習データ$\{I'_l\}_{l=1}^L$と3つのフィールドで索引付けしている場合,問い合わせ$I$に対するFAQのスコアを次のように計算する.\begin{equation}\textrm{score}(Q,A,\{I'_l\}_{l=1}^L,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I))+\max_{{I'}_{l}}\textrm{tfidf\_sim}(I,I'_l),\label{eq:es}\end{equation}この計算では入力の問い合わせに対して,質問もしくは回答と一致している単語が多いほど高く,さらに学習データの問い合わせ集合の中で一致している単語が多いものが存在するFAQに対して高いスコアとなる.質問,回答,学習データなどの検索対象を$T$,$T$の索引語の数を$|T|$,$T$の索引語と一致する問い合わせ中の名詞,動詞,形容詞からなる単語集合を$\{i_s\}_{s=1}^{S}$とすると,以下のようにtfidfに基づく類似度を次のように設定した.\begin{equation}\textrm{tfidf\_sim}(T,I)=\textrm{coord}\sum_{s=1}^S(\textrm{tf}(i_s)\cdot\textrm{idf}(i_s)^2\cdot\textrm{fieldNorm}),\nonumber\end{equation}ただし,\begin{align*}\textrm{coord}&=\frac{S}{|I|},\\\textrm{fieldNorm}&=\frac{1}{|T|},\end{align*}とする.coordは$T$がより多くの単語を含んでいる検索クエリを含んでいるほど高い値を取る.fieldNormは$T$の索引語の数$|T|$が大きいほど小さい値を取る.\begin{biography}\bioauthor{牧野拓哉}{2012年東京工業大学総合理工学研究科物理情報システム専攻修士課程修了.同年,(株)富士通研究所入社.自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{野呂智哉}{2002年東京工業大学大学院情報理工学研究科計算工学専攻修士課程修了.2005年同専攻博士課程修了.同専攻助手,助教を経て,2015年(株)富士通研究所入社.現在に至る.博士(工学).自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{岩倉友哉}{2003年(株)富士通研究所入社.2011年東京工業大学大学院総合理工学研究科物理情報システム専攻博士課程修了.博士(工学).現在,(株)富士通研究所主任研究員.自然言語処理の研究開発に従事.情報処理学会,言語処理学会会員.}\end{biography}\biodate\end{document}
V08N02-03
\section{はじめに} 人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.本研究の前提とする「常識的判断」とは,「女性−婦人」,「山−丘」などは同義・類義の関係,「山−川」,「夕焼け−赤い」などは密な関係,「山−机」,「電車−空」などは疎な関係であると判断するなど,語と語の意味的関係について,コンピュータにも人間の常識的な感覚に近い判断をさせることをねらうものである.このような常識的判断を可能とするメカニズムは,利用者の意図を汲み取ることのできる人間的な情報処理システムの開発基盤として役立つと考えている.我々が開発を進めている常識的判断システム全体は,日常的な事項,すなわち,大きさ,重さ,速さ,時間,場所等に関する基本的な知識\cite{Kikuyama,Obata}と感覚や感情に関する知識\cite{Baba,Hanada,Tsutiya}で構成する判断知識ベースサブシステムと本論文で対象とする語概念間の関連度を評価する概念連鎖メカニズムで構成している.判断知識ベースを構成する知識は少数(約5千語)の代表的な語(代表語)の間の常識的な関係(事物の大小関係,夕焼け−赤いなど)を定義したものである.常識的判断システムに入力される多くの語は代表語ではなく,知識ベースには陽に表現されていない未知語となるため概念連鎖メカニズムは,これらの未知語について,意味的関係やその強さの度合いを評価し,最も関連の強い代表語を決定する.本稿では,この概念連鎖メカニズムの基盤となる概念ベースの構造,すなわち,語とその意味を表す属性(関連の強い語)の集合の構成とそれを用いた概念間の関連度の定量化方式について提案している.従来は一般に,概念間の類似性に重点が置かれ類似度として評価されているが,本稿では類似性のみならず「山と川」,「電車と駅」,「川と水」など概念間の幅広い関係の評価を対象とするため関連度として評価している.例えば,類似性の評価において「車と馬」は乗り物という観点において類似しているという考え方がとられているが,本稿の関連度評価では,両者の概念は乗り物という共通の属性をもっているに過ぎないと考え,全体としての関連度はかなり低いものとなる.当然,観点として乗り物が設定された場合の関連度は高くなる.観点となる概念のもつ属性の範囲に限定した関連度を評価する\cite{Irie2}ことにより,類似や相対,反意などにも対応可能である.概念間の類似度に関するテーマについては,幾つかの研究成果が報告されているが\cite{okada,oosuga,suzuki},多くは,連想に関する理論,あるいは,自然言語処理における類似語の処理などの研究であり,本研究で対象とするような常識的判断のための概念ベースや概念関連度とは異なる.概念ベースの構造や必要とされる正確さは目的により異なったものとなる.我々の対象とする常識的判断システムの概念ベースは自動学習や利用者の教示による継続的な改善(成長)が前提となる.常識的判断の適切さは概念ベースの内容と関連度計算方式に左右されるため,利用を通じた概念ベースの恒常的な成長の容易性は極めて重要な評価要因となる.\cite{kasahara4}では,概念構造の定義と概念ベースの機械構築および概念類似度の計算方式について興味深い報告がなされている.そこでは,一つの概念を,「意味特徴を表す属性」と「概念と属性の関連の深さを表す重み」で表現された$m$次元ベクトルとして取り扱い,2つの概念間の類似度は正規化された2ベクトルの内積として計算している.このベクトル空間モデルでは,約4万の概念を約3千の独立性の高い属性で表現することによりベクトル表現のための直交性の問題に対処しているが,必ずしも直交性が保証されているとは言えない.また,属性の重みの問題として,出現頻度に基づき重みが付与されているが,属性の追加/修正が発生した時,新しい属性の重みをどのように決定するのか,既に存在する属性の重みはどのように変更するのか,という問題が生じ,概念ベースの継続的な成長を前提とすることは難しい.本稿では,これらの問題を考慮した上で,継続的な成長を容易とするような新たな概念ベースを構築し,常識的判断として適切な関連度を計算できるような関連度評価方式を提案し,実験により評価する.以下,2章で,まず,概念連鎖メカニズムの実現に必要となる概念ベースの構造について述べ,より単純な構造の概念ベースを提案する.3章では,本稿の主題である概念関連度の定量化の問題を定式化し,概念の$n$次属性までの論理関係を考慮する新方式の提案を行う.4章では,2,3章で提案した概念ベースと概念関連度計算方式の各組合わせについて評価実験を行い,人間の常識的判断により近いかという観点と,概念ベースの継続的な成長の容易性の観点において従来法との比較検討を行う. \section{概念ベースの構造} \subsection{概念ベース}\label{BasicCB}本研究では\cite{kasahara1,kasahara4}で抽出された約4万の概念の利用を前提としており概念の定義は以下とする.概念の定義:概念$A$はその属性$a_i$と重み$w_i$の対の集合とする.\begin{eqnarray}A&=&\{(a_1,w_1),(a_2,w_2),\cdots,(a_m,w_m)\}\end{eqnarray}ここで,属性の直交性が仮定できるならば任意の概念は形式的に$m$次元属性空間のベクトルとして表現できる(ベクトルの大きさは1に正規化する).\begin{eqnarray}A&=&(w_1,w_2,\cdots,w_m)\label{Vector}\\&&0\lew_i\le1\nonumber\\&&\sum_{i=1}^mw_i^2=1\nonumber\end{eqnarray}ただし,$m$はすべての概念を定義するために必要な属性数である.概念ベースはそれら概念の集合である.以下に評価の前提とする3種の概念ベースについて述べる.\begin{description}\item[基本概念ベース:]約4万の概念Aとその属性$a_i$および重み$w_i$を複数の国語辞書などの語義文から自動的に獲得している.辞書の見出し部の単語を概念とし,語義文に含まれる自立語を属性として抽出し,それらの重みは属性の出現頻度を基に付与している.さらに,属性の自己参照による新たな属性の追加,及び不要な属性の統計的な除去からなる精錬を行うことによって概念ベースを機械構築している.このようにして構築された概念ベースをその後に変更を加えた概念ベースと区別するため,基本概念ベースと呼び,そこで使われている属性を基本属性と呼ぶことにする.(概念数:約4万,属性種別:約4万,一概念の属性数:平均約45,最大400)\item[圧縮概念ベース:]基本概念ベースの各基本属性をALT-J/Eシソーラス\cite{ikehara}の約3千種の概念カテゴリーに分類圧縮し,これらを新属性として各属性の重みを正規化し直す.この新属性の概念ベースを圧縮概念ベースと呼ぶ.(概念数:約4万,属性種別:約3千,一概念の属性数:平均約70,最大533)\item[縮小概念ベース:]基本概念ベースの各概念がもつ属性の中から重み順に30個を抽出することにより属性数を縮小し,属性の重みも正規化し直す.これを縮小概念ベースと呼ぶ.なお,属性数30という数は,\cite{irie}による最適な打ち切り属性数に関する実験結果によるものである.(概念数:約4万,属性種別:約4万,一概念の属性数:平均約26,最大30)\end{description}これらの3種の概念ベースは以下の特性を有している.\begin{itemize}\item機械構築しているため概念の属性には少なからぬ雑音(属性としてふさわしくない単語)が含まれている.\item属性の重みは概念の語義文内での自立語の出現頻度に基づいており,概念と属性の意味的関連の強さを正しく表しているとは言えない.\item概念により,その属性数は異なっており属性数の不充分な概念も多々ある.\end{itemize}\subsection{概念ベースの利用形態}\label{DefCon}3種の概念ベースのもつこれらの特性を考慮して,本研究では以下のような利用形態を評価する.\begin{enumerate}\item基本概念ベースでは属性の直交性を仮定できないので概念をベクトルとして表現することができず,関連度を2つの概念ベクトルの内積として定義できない.そのため,2つの概念の関連の強さを属性集合の近さ(一致する要素の数)で評価する.\item約3千種の属性と重みで表現された圧縮概念ベースの場合には,カテゴリー圧縮により属性間の独立性がある程度高められていることから,各概念を約3千次元のベクトルとして扱うことができ,関連度は2つの概念ベクトルの内積として定義する.\item概念の属性数を30個以下に縮小した縮小概念ベースにおいても属性の直交性を仮定できないので,2つの概念の関連の強さを集合としての近さで評価する.\end{enumerate}概念をベクトルとして取り扱う方式では,属性の重みは極めて重要な役割を果たすことから,新しい概念の追加や,既存の概念への属性の追加,修正に伴う重みの変更は困難となる.また,属性圧縮により基本属性がもっていた詳細な意味情報が失われ,十分な評価精度が得られない恐れがある.概念間の関連の度合いを属性集合の近さで評価する方式では,本稿で提案するような重みを使用しない評価方式や属性も概念としてとらえ,概念を属性の連鎖的関係で定義する方式も可能となる.属性の重みを使用しない方式では,当然ながら,概念に対する新たな属性の追加時に重みの付与は不必要であり,また,明らかに不適切と思われる属性の削除も極めて容易となる.\subsection{概念の連鎖的定義}\label{CBchain}概念ベースにおける各概念は,ある単語の表記によってラベル付けできる.また,基本概念ベースおよび縮小概念ベースでは,属性$a_i$もある単語表記である.したがって,概念ベース中の任意の属性の単語表記が同じ概念ベース中の概念の単語表記中に存在すると仮定すると,属性$a_i$をその単語表記に対応する概念とみなすことで,属性の属性を取り出すことができる.基本概念ベースと縮小概念ベースはこの条件を満たしているが,圧縮概念ベースはこの条件を満たしていない.いま,単語表記を$Word_i$,概念の属性を$a_i$と表現すると,ある概念$A$は次式で定義される.ただし,本節では重みは省略して記述する.\begin{eqnarray}\mbox{概念}A&=&Word_A\\&=&\{a_1,a_2,\cdots,a_i,\cdots,a_N\}\\&=&\{Word_1,Word_2,\cdots,Word_N\}\end{eqnarray}ここで,属性$a_i$を概念$A$の1次属性と呼ぶ.$Word_i$はある概念と見なせるので,\begin{eqnarray}\mbox{1次属性}a_i&=&WORD_i\\&=&\{a_{i1},a_{i2},\cdots,a_{ij},\cdots,a_{iM}\}\end{eqnarray}これらの属性$a_{ij}$(1次属性の1次属性)を概念$A$の2次属性と呼ぶ.概念$A$を2次属性までの概念連鎖で定義すると以下のようにマトリックス状になる.{\samepage\begin{eqnarray}&&\left(\begin{array}{cccc}\hspace{0.2cm}a_1\hspace{0.2cm}&a_2\hspace{0.2cm}&\cdots\hspace{0.2cm}&a_{N}\hspace{0.1cm}\end{array}\right)\nonumber\\A&=&\left[\begin{array}{cccc}a_{11}&a_{21}&\cdots&a_{N1}\\a_{12}&a_{22}&\cdots&a_{N2}\\\vdots&\vdots&\vdots&\vdots\\a_{1M}&a_{2M}&\cdots&a_{NM}\end{array}\right]\label{EMatrix}\end{eqnarray}}ただし,式\ref{EMatrix}では,$a_{ij}$は概念$A$の2次属性であり,概念$A$の各1次属性の1次属性数は一定($M$)としている.さらに,概念の2次属性もその1次属性の集合で表現でき,同様に概念$A$の$n$次属性まで定義可能である.したがって,基本概念ベースおよび縮小概念ベースでは,概念$A$は$n$次までの属性の連鎖で定義されていることになる. \section{概念関連度の評価モデル} \subsection{概念の属性ベクトル空間モデル}従来,概念関連度の評価は,2つの正規化された概念ベクトルの内積により行われている\cite{matsuzawa,kasahara4,salton,ishikawa,hokari}.すなわち,式\ref{Vector}のように表現された概念ベクトル間の内積により計算できる.しかし,この方式では各属性間の直交性を仮定しており,直交属性を選ぶことは容易ではなく\cite{takama},また,適切な重みを設定することも非常に困難であると思われる.\cite{kasahara4,ishikawa,hokari}ではALT-J/Eシソーラス\cite{ikehara}の約3千種の概念カテゴリーを属性として利用し,各属性の重みは,基本的には出現頻度により与えているが,十分な直交性を有しているか,また,適切な重みになっているか,あるいは,そのような適切な性質を持つような概念ベースへと自動的に精錬を行えるかが問題となる.\subsection{概念の属性集合モデル}\ref{CBchain}で示したように,本稿で提案する概念の定義では,任意の概念$A$はその属性の集合として定義されている.また,各属性はある概念であるため,結果として任意の概念$A$は$n$次までの属性の連鎖で定義されている.このような概念定義に対する関連度評価モデルを以下に述べる.\subsubsection{1次属性集合の一致度}各概念の属性には,その概念に関連する概念が並んでいるものと考えられるので,一致する属性数が多い程関連が強いと考えられる.したがって,2つの概念$A$,$B$の関連度は,それぞれの1次属性同士の一致単語数を0から1の範囲に正規化したものとする.すなわち,2つの概念$A$,$B$を1次属性$a_i,b_j$とその重み$u_i,v_j$を用いて,\begin{eqnarray}A&=&\{(a_i,u_i)|i=1\simL\}\label{ConA}\\B&=&\{(b_j,v_j)|j=1\simM\}\label{ConB}\end{eqnarray}と表現し,$a_i=b_j$なる$a_i$の個数を$s$個とするとき,概念$A$と概念$B$の一致度$Match(A,B)$を次式で定義する.\begin{eqnarray}Match(A,B)&=&(s/L+s/M)/2\label{Ematch}\end{eqnarray}この式は,概念$A$から見たときの属性の一致割合$s/L$と概念$B$から見たときの一致割合$s/M$の平均を表しており,重み情報は無視している.また,$L=M=N$(属性数が等しい)のとき,式\ref{Ematch}は,\begin{eqnarray}Match(A,B)&=&s/N\label{EmatchN}\end{eqnarray}となる.また,重み情報を利用する場合の一致度$MatchW(A,B)$を以下のように定義する.\begin{eqnarray}MatchW(A,B)&=&(s_A/n_A+s_B/n_B)/2\label{EmatchW}\\s_A&=&\sum_{a_i=b_j}u_i\nonumber\\s_B&=&\sum_{a_i=b_j}v_j\nonumber\\n_A&=&\sum_{i=1}^Lu_i\nonumber\\n_B&=&\sum_{j=1}^Mv_j\nonumber\end{eqnarray}この式は,概念$A$から見たときの一致している属性の重みの割合$s_A/n_A$と概念$B$から見たときの一致している属性の重みの割合$s_B/n_B$の平均を表している.\subsubsection{概念連鎖による関連度}1次属性同士を比較する際に,単語の完全一致ではなく,その単語が表している概念としての一致度を利用することができる.すなわち,1次属性同士の概念としての一致度は,それぞれの2次属性同士の一致単語数から導き,1次属性同士が単語としては一致していなくても,その一致度合いを見積もれるようにする方法である.一致度を利用することにより,2つの概念間の関連度はそれぞれの1次属性同士の一致度の平均として定義できる.ただし,一致度は0から1の範囲の実数であるため1次属性同士の対応関係が問題になってくる.いま,ある1次属性$a_i$と相手のすべての1次属性$b_j(j=1,\cdots,M)$との一致度を計算したとき,$a_i$は一致度が最大の$b_j$に対応させるべきである.しかし,同じことが他のすべての$a_i(i=1,\cdots,L)$にも言えるため,問題は複雑になる.これは,1次属性同士を並べるときに,対応する1次属性間の一致度の合計が最大になるように並べ替える問題である.このような並べ替え問題は,組み合わせ最適化問題の一種であり,要素数が多くなると組み合わせ爆発を起こすため,真の最適解を求めることはそれほど容易ではない.しかし,\cite{ukita}で提案している「単純法」のように,単純な方法でも比較的最適解に近い値がでることから,本稿で行う実験では並び替え問題の部分には単純法を利用している.単純法とは,最適化手法の欲張り法の一種で,一致度が最大のものを順に選択していく方法であり,その結果が最適解である保証はないが,比較的良好な解が得られるので,ここでの適用には十分であると判断している.なお,より正確に一致度の合計が最大になるように並び替えたい場合は,遺伝的アルゴリズムなどを用いることができる\cite{ukita}.以上の考察より,概念$A$と概念$B$との2次属性までの概念連鎖による関連度$Chain(A,B)$は以下に示すアルゴリズム(CNW)により評価する.{\bf概念連鎖による関連度評価アルゴリズム(CNW)}\begin{enumerate}\item1次属性数の少ない方の概念を概念$A$とし($L\leM$),概念$A$の1次属性の並びを固定する.\begin{eqnarray}A&=&(a_1,a_2,\cdots,a_L)\end{eqnarray}\item概念$B$の各1次属性を対応する概念$A$の各1次属性との一致度($Match$)の合計が最大になるように並べ替える.ただし,対応にあふれた概念$B$の1次属性($b_{x_j},\j=L+1,\cdots,M$)は無視する.\begin{eqnarray}B_x&=&(b_{x_1},b_{x_2},\cdots,b_{x_L})\end{eqnarray}\item概念$A$と概念$B$との関連度$Chain(A,B)$は,\begin{eqnarray}Chain(A,B)&=&(s/L+s/M)/2\label{Echain}\\s&=&\sum_{i=1}^LMatch(a_i,b_{x_i})\nonumber\end{eqnarray}である.また,1次属性数が同じ場合($L=M=N$)の関連度は,\begin{eqnarray}Chain(A,B)&=&s/N\end{eqnarray}となる.\end{enumerate}アルゴリズムCNWでは重み情報を利用していない.重み情報を利用した概念連鎖による関連度評価アルゴリズム(CW)は以下のようになる.{\bf重み付き概念連鎖による関連度評価アルゴリズム(CW)}\begin{enumerate}\item1次属性数の少ない方の概念を概念$A$とし($L\leM$),概念$A$の1次属性の並びを固定する.\begin{eqnarray}A&=&((a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L))\nonumber\\\end{eqnarray}\item概念$B$の各1次属性を対応する概念$A$の各1次属性との重み付き一致度($MatchW$)の合計が最大になるように並べ替える.ただし,対応にあふれた概念$B$の1次属性($b_{x_j},\j=L+1,\cdots,M$)は無視する.\begin{eqnarray}B_x&=&((b_{x_1},v_{x_1}),(b_{x_2},v_{x_2}),\cdots,(b_{x_L},v_{x_L}))\nonumber\\\end{eqnarray}\item概念$A$と概念$B$との関連度$ChainW(A,B)$は,\begin{eqnarray}&&ChainW(A,B)=(s_A/n_A+s_B/n_B)/2\label{EchainW}\nonumber\\\\&&\hspace*{1cm}s_A=\sum_{i=1}^Lu_iMatchW(a_i,b_{x_i})\nonumber\\&&\hspace*{1cm}s_B=\sum_{i=1}^Lv_{x_i}MatchW(a_i,b_{x_i})\nonumber\\&&\hspace*{1cm}n_A=\sum_{i=1}^{L}u_i\nonumber\\&&\hspace*{1cm}n_B=\sum_{j=1}^{M}v_j\nonumber\end{eqnarray}である.ただし,$u_i,v_j$は,それぞれ属性$a_i,b_j$の重みである.\end{enumerate}アルゴリズムCWは,流れとしてはアルゴリズムCNWと同様であるが,1次属性同士の一致度の計算に重み付き一致度を用いる点と得られた一致度に重みを掛け合わせる点が異なる.\small\begin{figure}[tb]\begin{center}(a)1次属性\begin{tabular}{rrrrrrr}\hline机&=&\{&学校,&勉強,&本棚&\}\\椅子&=&\{&勉強,&教室,&木&\}\\\hline\end{tabular}\vspace{0.2cm}(b)2次属性\begin{tabular}{rrrrrrr}\hline学校&=&\{&大学,&生徒,&木造&\}\\勉強&=&\{&勉学,&鉛筆,&成績&\}\\本棚&=&\{&勉学,&書籍,&壁&\}\\教室&=&\{&生徒,&黒板,&大学&\}\\木&=&\{&木造,&樹木,&曜日&\}\\\hline\end{tabular}\vspace{0.2cm}(c)一致度マトリックス\begin{tabular}{r|rrr}\hline&学校&勉強&本棚\\\hline勉強&0&{\bf1}&1/3\\教室&{\bf2/3}&0&0\\木&1/3&0&{\bf0}\\\hline\end{tabular}\vspace{0.2cm}(d)計算\begin{eqnarray}椅子_x&=&(教室,勉強,木)\nonumber\\s&=&2/3+1+0=5/3\nonumber\\Chain(机,椅子)&=&(5/3)/3=5/9\nonumber\end{eqnarray}\end{center}\caption{関連度の計算例}\label{Eassoc}\end{figure}\normalsize図\ref{Eassoc}に重みを利用しない場合の概念連鎖による関連度(CNW)の計算例を示す.比較する対象概念を「机」と「椅子」とし,属性数を3個とした場合のそれぞれの(a)1次属性,および,1次属性の1次属性,すなわち,(b)2次属性の例である.(c)一致度マトリックスは,概念「机」の各1次属性と概念「椅子」の各1次属性とのそれぞれの1次属性集合の一致度である.たとえば,「学校」と「教室」の一致度は,「生徒」と「大学」が一致するので3個中2つが一致し,一致度は$2/3$である.この一致度マトリックスから最大値を順に選んでいくと,太字で示した1,2/3,0となり,「椅子」の1次属性の並びは(教室,勉強,木)となる.したがって,一致度の合計は5/3となるので,関連度は5/9である. \section{評価実験と考察} 関連度の性能は,使用する概念ベースと関連度計算方式の両方に左右されるが,本稿では概念ベース3通り(基本概念ベース,圧縮概念ベース,縮小概念ベース)に対して,以下に示す5通りの関連度計算方式の各組合せについて検討する.\begin{description}\item[Match]重み情報を利用しない1次属性同士の一致度(式\ref{Ematch})\item[MatchW]重み情報を利用する1次属性同士の一致度(式\ref{EmatchW})\item[Chain]重み情報を利用しない2次属性までの概念連鎖による関連度(式\ref{Echain})\item[ChainW]重み情報を利用する2次属性までの概念連鎖による関連度(式\ref{EchainW})\item[Vector]ベクトル内積による関連度\end{description}ただし,使用する概念ベースによって利用できる関連度計算方式が限られてくるので,実際には表\ref{Case}に示す9通りについて評価する.この中で,圧縮概念ベースに対するベクトル内積(Vector)が従来方式である.\begin{table}[tb]\caption[]{概念ベースと関連度計算方式}\label{Case}\begin{center}\begin{tabular}{r|r|r|r}&重み&1次属性&2次属性\\\hline基本&利用&一致度(MatchW)&概念連鎖(ChainW)\\\cline{2-4}&無視&一致度(Match)&概念連鎖(Chain)\\\hline圧縮&利用&ベクトル内積(Vector)&\\\hline縮小&利用&一致度(MatchW)&概念連鎖(ChainW)\\\cline{2-4}&無視&一致度(Match)&概念連鎖(Chain)\\\end{tabular}\end{center}\end{table}\subsection{評価法}まず,以下のような4つの概念の組(サンプル概念)を準備する.\begin{center}(概念X$|$概念A\概念B\概念C)\end{center}ここで,概念Xは任意の概念(対象概念)であり,概念Aは概念Xと同義か類義の概念,概念Bは概念Xに密に関係する概念,概念Cは概念Xに疎な関係の概念である.密な関係とは反意関係・対関係・上位下位関係・全体部分関係・兄弟関係など具体的な関係を定義できるものを指し,疎な関係とは具体的な関係を定義できないものを指す.すなわち,対象概念Xに対してAが非常に関連が強く,Bが関連があり,Cはほとんど関連がない概念である.$r_A$を概念Xと概念Aとの関連度,$r_B$を概念Xと概念Bとの関連度,$r_C$を概念Xと概念Cとの関連度とすると,\begin{equation}r_A>r_B>r_C\end{equation}のとき,その関連度計算結果は正解であり,それ以外は不正解である.次に,そのようなサンプル概念をどのように作成するのかが問題となるが,本研究では,人間の常識的判断に近いものほど良いと考えているので,サンプル概念の作成は人手によるものとした.すなわち,被験者約30名に対して,サンプル概念(X,A,B,C)を20組以上作成してもらい,さらに,サンプル概念作成者以外の2人により各サンプル概念が正しいかどうか判断してもらい,1人でも正しいとは言えないと答えたサンプル概念は削除した.したがって,3人中3人とも同じと判断したサンプル概念を抽出した.以上のような過程を経て,合計559組のサンプル概念(da33-559)を準備した.表\ref{Sample}に,準備したサンプル概念の一部を示す.\begin{table}[tb]\caption[]{サンプル概念(抜粋)}\begin{center}\begin{tabular}{r|rrr}\hline概念X&概念A&概念B&概念C\\\hlineご飯&飯&米&青空\\安易&簡易&気持ち&経済\\意図&志向&内心&帰宅\\飲料&飲み物&喉&反省\\羽&翼&鳥&返還\\延期&順延&日程&関連\\演技&芝居&俳優&灯油\\演算&計算&処理&芋\\王女&王妃&王様&一致\\価格&物価&相場&転職\\河川&川&対岸&予想\\火&炎&火事&海\\花&花弁&花瓶&弁別\\過去&以前&歴史&減額\\会合&集会&集団&現行犯\\会話&対話&話&電車\\回想&回顧&過去&研修\\海&海洋&魚&机\\絵画&絵&画家&文庫\\獲得&取得&取捨&類似\\\hline\end{tabular}\end{center}\label{Sample}\end{table}関連度評価方式の評価点は,全サンプル概念(559組)に対する正解率,すなわち,サンプル概念100組あたりのA,B,Cの順序正解個数とする.\subsection{評価結果と考察}以上で準備したサンプル概念を用いて,表\ref{Case}に示した9通りの方式(概念ベースと関連度計算方式)に対して,評価実験を行った.実験結果を表\ref{Result1}に示す.\begin{table}[tb]\renewcommand{\arraystretch}{}\caption[]{関連度評価方式の実験結果}\label{Result1}\begin{center}\begin{tabular}{r|r|r}概念ベース&関連度計算方式&正解率\\\hline基本&一致度(Match)&75.1\\&一致度(MatchW)&77.8\\&概念連鎖(Chain)&79.8\\&概念連鎖(ChainW)&83.5\\\hline圧縮&ベクトル内積(Vector)&79.4\\\hline縮小&一致度(Match)&61.7\\&一致度(MatchW)&64.4\\&概念連鎖(Chain)&82.6\\&概念連鎖(ChainW)&84.3\\\hline\end{tabular}\end{center}\end{table}実験結果から,ChainW,Chain方式の正解率が従来のVector方式より高いことが分かる.その中でも,基本概念ベースよりも縮小概念ベースを用いた方がより高い.これは,基本概念ベースには多くの雑音(不適切な属性)が含まれているため,属性数を重みの大きい順に30個で打ち切ることにより,雑音をある程度除去できたことによる効果であると思われる.ただし,MatchW,Match方式では,逆に,縮小概念ベースよりも基本概念ベースを用いた方が正解率が高い.MatchW,Match方式は,1次属性のみしか用いないために,属性同士の一致確率が極めて低く,さらに属性数を30個に打ち切ってしまう縮小概念ベースでは,雑音の抑制効果よりも,属性同士の一致確率の減少がまさってしまうため,このような結果となったものと考えられる.この点においても,概念を連鎖的に利用することにより,属性同士が完全に一致していなくても概念としての一致度を利用できるChainW,Chain方式が有効であることが確認できる.圧縮概念ベースを用いたVector方式でも,属性数を30個で打ち切ると正解率が落ちる(正解率76.0\%)が,その落ちかたはMatchW,Match方式に比べて小さい.これは,基本概念ベースおよび縮小概念ベースでは属性種別が約4万であるのに対し,圧縮概念ベースでは属性種別が約3千と少ないため属性同士の一致確率が比較的高いことによる効果と考えられる.しかし,ChainW,Chain方式よりは劣っており,また,ChainW,Chain方式では縮小概念ベースを用いた方がより正解率が上がる.したがって,関連度計算方式としてChainW,Chainを採用すれば,よりコンパクトな概念ベース(縮小概念ベース)で,より良い関連度を計算できることが分かる.属性の重みを関連度計算に利用する場合と利用しない場合とを比較してみると,重みを利用した方がよりよい結果となっている.このことは,辞書での出現頻度を基に付与した重み情報が,どの程度正しいかは不明ではあるが,有効であることを示している.しかし,概念ベースを成長させて行くには,人間からの直接教示,電子新聞・書籍,インターネットを利用した文書収集などを通じて,概念や属性の追加・修正・削除を行っていく必要があり,その場合の適切な重み情報の付与は非常に困難である.したがって,重み情報を利用しない計算方式であるChainの正解率が,ChainWに比べてそれほど劣っていないことは,注目に値する.すなわち,単純に雑音的な属性は削除し良い属性は追加していくことで,概念ベースおよび関連度計算結果がより良いものになっていくであろうことが期待できる.もちろん,適切な重み情報を付与することが可能ならば,ChainWによりより精度の高い関連度を求めることができる.PentiumII400MHzのパーソナルコンピュータで実行した場合,サンプル概念559組(1677回の関連度計算)に対する計算時間は,圧縮のVector,縮小のMatchおよびMatchWでは約12秒,縮小のChainおよびChainWでは約23秒である.ChainやChainWでは,やや複雑な計算を行っているにもかかわらず倍程度の計算時間で済んでいる.これは,関連度計算を行うためには,概念表記(単語)を基にその概念を概念ベースから検索する必要があり,概念ベースの概念数が約4万と多いために,概念の検索処理に多くの計算時間がかかるためである.純粋な関連度計算の時間では,Vector,Match,MatchWの計算時間を1とすると,Chain,ChainWの計算時間は,縮小概念ベースの場合で30×30=900であるが,実際の利用においては検索処理は省略できないので,関連度計算時間は倍程度で済むようである.\subsection{概念ベースへの属性追加実験}従来の関連度計算方式Vectorでは,概念ベースを構築・拡張・精錬する際には,シソーラスなどの概念カテゴリーデータベースが必要であるのに対し,提案した関連度計算方式ChainW,Chainでは,シソーラスなどは不要である.そのため,概念ベースの構造は単純なものとなり,拡張・精錬,すなわち概念ベースの成長が容易に行えるであろうことが予想される.さらに,Chain方式では重み情報が不要なため,特に属性の追加は容易に行える.そこでここでは,縮小概念ベース+Chainに対して,概念への人手による適切な属性の追加実験を行い,概念ベースの成長の容易性と関連度性能の向上可能性を示す.実験手順および結果は以下の通りである.\begin{enumerate}\item評価実験で用いたサンプル概念559組(da33-559)から,100組を抽出し(da33-100)評価実験を行う.その結果,正解率86\%,すなわち,不正解数は14であった.\item不正解のサンプル概念組の各概念の関連度を見て,不当に低い概念に適切と思われる属性を人手により2〜6個追加する.\item属性追加を行った概念ベースを用いて,サンプル概念100組(da33-100)に対して,評価実験を行う.その結果,正解率98\%となった.(属性追加を行っても正解とはならなかったサンプル概念が14組中2組あった.)\item属性追加を行った概念ベースを用いて,サンプル概念559組(da33-559)に対して,評価実験を行う.その結果,正解率85.0\%となった.属性追加を行う前の概念ベースでは正解率82.6\%であり,正解数にすると462である.正解率85.0\%を正解数に換算すると475であり,正解数が13増えたことになる.\end{enumerate}Chain方式は,重みを計算には使用せずに概念の2次属性までを連鎖的に利用する方式である.したがって,一つの概念Xの属性を修正すると,概念Xを属性として持つ多くの概念に影響がおよぶ可能性がある.しかし,上の実験結果からは,そのような影響はプラス側にやや見られた程度であり,ほぼプラスマイナスゼロとみなせる.以上,単純な属性追加実験によって,概念ベースを容易に成長させることが可能であることが分かった. \section{おわりに} コンピュータに常識的な判断能力をもたせるための第一歩として,本稿では,語と語の意味的関係の強さの評価に関し人間の常識的感覚による判断とできるだけ近い判断のできる概念連鎖メカニズムの実現手段を提案した.具体的には,学習や利用者の教示により常に概念を更新できることを前提とする概念ベースの適切な構造とそれを用いた概念間の関連度の定量化方式を提案した.従来の関連度定量化方式は,概念を属性の重みベクトルで表現し,概念の関連度は2つの重みベクトルの正規化されたベクトル内積により評価している.ただし,ここでの属性はシソーラスなどを用いて,概念カテゴリーに置き換えておく必要があった.本稿では,この従来方式と概念の関連度合いを属性集合の近さとして評価する提案方式を実験により比較した.提案方式では,概念をその属性集合の2次元の連鎖的な集合(マトリックスで表現される)とみなし,2つの概念の対応する1次属性間での2次属性の一致度合いで評価している.また,属性を概念カテゴリーに置き換える操作は不要であり,より単純な構造の概念ベースとなる.実験は,機械構築した約4万語の概念ベースと複数の人間がそれぞれの常識的感覚に基づき作成した559組の評価サンプル概念を用いて行った.結果として,提案方式は判断の的確性の点で,従来のベクトル方式よりも優れていることを示した.また,提案方式で属性の重みを概念ベースの縮小化にだけ使い関連度計算では重みを使わない場合には,属性の追加・削減が容易となり,属性が学習や利用者の教示により継続的に改善され,判断の正確性は一層高いものとなることが期待できる.これらの理由から,提案方式は常識的判断のための概念連鎖メカニズムの実現に適した方式であると言える.\acknowledgment本研究は文部省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,CAD/CAM,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,電子情報通信学会,情報処理学会,IEEE(CS)各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V24N01-01
\section{はじめに} 日本は,2007年に高齢化率が21.5\%となり「超高齢社会」になった\cite{no1}.世界的に見ても,高齢者人口は今後も増加すると予想されており,認知症治療や独居高齢者の孤独死が大きな問題となっている.また,若い世代においても,学校でのいじめや会社でのストレスなどにより精神状態を崩すといった問題が起きている.このような問題を防ぐ手段として,カウンセリングや傾聴が有効であると言われている\cite{no2}.しかし,高齢者の介護職は人手不足であり,また,家庭内においても,身近に,かつ,気軽に傾聴してもらえる人がいるとは限らない.このような背景のもと,本論文では,音声対話ロボットのための傾聴対話システムを提案する.我々は,介護施設や病院,あるいは,家庭に存在する音声対話ロボットが傾聴機能を有することにより,上記の問題の解決に貢献できると考えている.傾聴とは,話を聴いていることを伝え,相手の気持ちになって共感を示しつつ,より多くのことを話せるように支援する行為であり,聴き手は,表1に挙げる話し方をすることが重要であるとされる\cite{no3,no4,no5}.また,傾聴行為の一つとして回想法が普及している.回想法とは,アメリカの精神科医Butlerによって1963年に提唱されたものであり\cite{no6},過去の思い出に,受容的共感的に聞き入ることで高齢者が自分自身の人生を再評価し,心理的な安定や記憶力の改善をはかるための心理療法である\cite{no7}.本論文は,この回想法による傾聴を行う音声対話システムの実現を目指す.\begin{table}[b]\caption{傾聴において重要とされる話し方}\label{table:1}\input{01table01.txt}\end{table}音声対話システムとして,音声認識率の向上やスマートフォンの普及などを背景に,AppleのSiri\cite{no8}やYahoo!の音声アシスト\cite{no9},NTTドコモのしゃべってコンシェル\cite{no10}といった様々な音声アプリケーションが登場し,一般のユーザにも身近なものになってきた.単語単位の音声入力や一問一答型の音声対話によって情報検索を行うタスク指向型対話システムに関しては,ある一定の性能に達したと考えられる\cite{no11}.しかしながら,これらの音声対話システムは,音声認識率を高く保つために,ユーザが話す内容や発声の仕方(単語に区切るなど)を制限している.一方で,雑談対話のような達成すべきタスクを設定しない非タスク指向型対話システムも多く提案されており(Tokuhisa,Inui,andMatsumoto2008;BanchsandLi2012;Higashinaka,\linebreakImamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,andMatsuo2014;\linebreakHigashinaka,Funakoshi,Araki,Tsukahara,Kobayashi,andMizukami2015)\nocite{no12,no13,no14,no15},傾聴対話システムも提案されている.傾聴対話システムの先行研究として,Hanらの研究\cite{no16,no17},および,大竹らの研究がある\cite{no18,no19}.これらの研究は,いずれも対話システムによる傾聴の実現を目的としており,5W1H型の疑問文による問い返し(e.g.,Usr:とっても美味しかったよ.⇒Sys:何が美味しかったの?)や,固有名詞に関する知識ベースに基づく問い返し(e.g.,Usr:ILikeMessi.⇒Sys:WhatisMessi'sPosition?),あるいは,評価表現辞書を用いた印象推定法による共感応答(e.g.,Usr:寒いしあまり炬燵から出たくないね.⇒Sys:炬燵は暖かいよね.)などの生成手法が提案されている.Hanら,大竹らの研究は傾聴対話システムの実現を目的としている点において,我々と同様である.しかしながら,これらの研究はテキスト入力を前提としているため,音声入力による対話システムへ適用する際には,音声認識誤りへの対応という課題が残る.傾聴のような聞き役対話システムの先行研究としては,目黒らの研究がある\cite{no20,no21,no22}.この研究では,人同士の聞き役対話と雑談を収集し,それぞれの対話における対話行為の頻度を比較・分析し,さらに,聞き役対話の流れをユーザ満足度に基づいて制御する手法を提案している.ただし,この研究の目的は,人と同様の対話制御の実現であり,また,カウンセリングの側面を持つ傾聴ではなく,日常会話においてユーザが話しやすいシステムの実現を目指している点で,我々と異なる.また,山本,横山,小林らの研究\cite{no23,no24,no25,no26,no27}は,対話相手の画像や音声から会話への関心度を推定し,関心度が低い場合は話題提示に,関心度が高い場合は傾聴に切り替えることで雑談を継続させる.発話間の共起性を用いて,音声の誤認識による不適切な応答を低減する工夫も導入している.さらに,病院のスタッフと患者間の対話から対話モデル(隣接ペア)を用いた病院での実証実験を行っており,ロボットとの対話の一定の有効性を示している.しかしながら,傾聴時において生成される応答は「単純相槌」「反復相槌」「質問」の3種類であり,ユーザ発話中のキーワードを抽出して生成されるため,ユーザ発話中に感情表現がない場合に(e.g.,Usr:混雑していたよ),傾聴において重要とされる「共感応答」(e.g.,Sys:それは残念でしたね)は扱っていない.同様に,戦場の兵士らの心のケアを目的とした傾聴対話システムSimCoachや,意思決定のサポートをするSimSenseiという対話システムも構築されている\cite{no28,no29}.SimCoachやSimSenseiはCGによるAgent対話システムで,発話内容に合わせた豊かな表情や頷きを表現することで,人間とのより自然な対話を実現している点も特徴である.我々は,対話システムの機能を,回想法をベースとした傾聴に特化することにより,音声認識や応答生成のアルゴリズムをシンプル化し,対話が破綻することなく継続し,高齢者から若者まで満足感を感じさせるシステムの実現を目指す.Yamaguchiら,Kawaharaらは,傾聴対話システムがユーザ発話に対して傾聴に適した相槌を生成する手法とその有効性について報告している\cite{no30,no34}.具体的には,人同士の傾聴時の対話で生じる相槌を対象として相槌が持つ先行発話との関係を分析し,それに基づいて相槌生成の形態,韻律を決定する手法を検討した.結果として,先行発話の境界のタイプや構文の複雑さに応じて相槌を変えることや,先行発話の韻律的特徴と同調するように韻律的特徴を制御することの有効性を述べている.相槌の生成ではタイミング,形態,韻律が重要であるが,今回のシステムでは,適切な内容の応答生成による対話の継続と満足感の評価を目的としている.本論文の貢献は,音声認識誤りを考慮した上で,傾聴時に重要な応答の生成を可能にする手法の提案,および,提案手法が実装されたシステムの有効性を,応答正解率の観点と,100人規模の被験者実験による対話継続時間と主観評価による満足度の観点で評価した点である.本論文の構成は,次のようになっている.第2章で本傾聴対話システムの概要を述べる.第3,4,5章は,本対話システムの機能である音声認識,および,認識信頼度判定部,問い返し応答生成部,共感応答生成部に関する実装に関して,第6章で評価実験と結果について説明し,第7章でまとめる. \section{傾聴システムの概要} 本章では,提案する傾聴システムの概要について述べる.\subsection{目指す対話例}図\ref{fig:1}に,回想法の実施事例を示す\cite{no32}.聞き手(S)は,話し手(A)が自身の過去を思い出しやすいように「問い返し」を重ね,それに対して話し手が答える,というスタイルがベースとなって対話が進行している.また,聞き手は,適切なタイミングで,「言い換え」「要約」「相槌」「共感」「繰り返し」といった,傾聴に重要とされる応答を行っていることが分かる.我々は,図1に示すような回想法による傾聴対話を実現するため,対話のテーマを「過去の出来事」に設定し,ユーザが語る過去の行動や感情に対して,音声認識誤りを考慮した上で,システムが傾聴に重要とされる応答を生成するための手法を提案する.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f1.eps}\end{center}\caption{回想法の実施例(須田2013より抜粋)}\label{fig:1}\end{figure}なお,本論文では,上記の応答のうち,「繰り返し」「問い返し」「共感」「相槌」の4種類の応答を対象とする.なぜなら,「言い換え」および「要約」については「繰り返し」により粗い近似が可能である,と考えたためである.次節では,このような対話を実現するための傾聴システムの機能構成について述べる.\subsection{傾聴システムの機能構成}提案する傾聴システムの機能構成を図2に示す.大きく分けて,「音声認識・信頼度判定」「繰り返し/問い返し応答の生成」「共感応答の生成」「相槌応答の生成」「応答選択」の5つの機能で構成されている.以下で,それぞれの機能の概要を述べる.\noindent\textbf{■音声認識・信頼度判定}入力されたユーザ発話を音声認識し,音声認識結果の信頼度を算出する.認識結果が信頼できると判定された場合は,当該認識結果を用いて,繰り返し/問い返し応答,および,共感応答を生成する.一方,信頼できないと判定された場合には,当該認識結果を用いた応答を行うのではなく,予め用意された相槌応答を生成する.これにより,誤認識結果を用いた応答生成を低減し,対話の破綻を防ぐ.詳細は3章で述べる.\clearpage\noindent\textbf{■繰り返し/問い返し応答の生成}ユーザ発話の最終述語に着目し,認識信頼度が高いと判定された当該述語,および,当該述語が持つ格に基づき,繰り返し/問い返し応答を生成する.ここで,本論文では,以下のものを「述語」と定義し,ユーザ発話に含まれるこれら全ての表現のうち,最後に出現するものを「最終述語」として抽出する.\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{24-1ia1f2.eps}\end{center}\caption{傾聴システムの機能構成}\label{fig:2}\vspace{1\Cvs}\end{figure}\begin{table}[b]\caption{本論文で定義する「述語」の候補となる語}\label{table:2}\input{01table02.txt}\end{table}\begin{table}[b]\caption{本論文で扱う過去表現}\label{table:3}\input{01table03.txt}\end{table}\begin{enumerate}\item表2に示す語のうち,表3に示す過去表現を伴っているもの.\itemただし,表2に示す語と,表3に示す過去表現との間にアスペクト(〜していた,〜しに行った),ムード(〜したかった,〜しなかった),ヴォイス(〜してもらった,〜された)などの表現が含まれる場合には,それらも含む.\end{enumerate}過去表現を伴うものに限定するのは,2.1節でも述べたように,本論文では,対話のテーマを「過去の出来事」に設定するためである.また,アスペクトやムードなどを考慮することにより,より自然なシステム応答の生成(e.g.,Usr:もっと食べたかったよ.Sys:食べたかったんですか.)を可能にする.問い返し応答は,以下で述べる(A),(B)の手法により生成する.これら2つの手法により,音声認識の信頼度が高い場合のみ,繰り返し応答や問い返し応答を生成することで,ユーザの発話内容を正確に繰り返し「聴いている」ことを示すと同時に,ユーザの過去を思い出しやすくし,次の発話を促す.\noindent\textbf{(A)最終述語の不足格判別に基づく問い返し}ユーザ発話の最終述語が動詞,および,「サ変名詞+する」の場合に,当該述語に対する不足格の判別を行うことにより,ユーザ発話には含まれない格を問い返す応答を生成する.図2の例では,ユーザ発話の最終述語「貰う」について,あらかじめ作成した動詞の必須格辞書を用いて,発話に必須格「誰から」が含まれていないことを判別し,『誰からもらったんですか?』を生成する.不足格判別に基づく問い返し応答の生成の詳細は4.1節で述べる.\noindent\textbf{(B)辞書を用いた適切性判断に基づく問い返し}ユーザ発話の最終述語,および,格要素について,表4に示す問い返しが適切かどうかを辞書に基づき判断し,応答を生成する.図2の例では,最終述語「貰う」に対する感想,および,格要素「お花」の詳細については,問い返すことが適切であると判断され,『どうでしたか?』,および,『どんなお花ですか?』が生成されている.辞書を用いた適切性判断に基づく問い返しの詳細については4.2節で述べる.\begin{table}[b]\caption{辞書を用いた適切性判断に基づき生成される問い返しの種類}\label{table:4}\input{01table04.txt}\end{table}\noindent\textbf{■共感応答の生成}感情推定に関しては様々な研究がある\cite{no33}.Balahurらは感情が非明示的に表現された文から感情を推定することを目的として,感情生起のトリガーとなる事態を記述したEmotiNetの構築を提案している\cite{no31}.また,長谷川らは,聞き手にターゲットとなる感情を生起させるための応答生成手法を考案している\cite{no35}.この中で長谷川らは,Twitterから構築した感情タグ付き対話コーパスを利用することで,「一緒に夕食に行かない?」という入力に対して「38度の熱があるのでいけません」と応答し,聞き手に「悲しみ」を喚起するような応答生成を実現している.これに対して我々は,話し手であるユーザの発話内容に対するユーザ自身の感情を推定し,その結果を利用することにより,ユーザへの共感応答を生成する.図2の例では,「誕生日にお花を貰う」に対するユーザ自身の感情が「嬉しい」であると推定した結果,共感応答『それは嬉しいですね』が生成されている.本論文では,この例のように,ユーザ発話中に明示的な感情表現(e.g.,嬉しい)が含まれていない場合であっても,音声認識誤りが含まれるユーザ発話からデータ駆動型で感情推定を行い,共感応答を生成する.詳細は5章で述べる.\noindent\textbf{■相槌応答の生成}認識信頼度が低いと判定された場合は,相槌応答を生成する.ここでは,相槌応答として,以下の2種類を生成する.\begin{enumerate}\itemシステムの直前発話として,「感情・形容表現に対する理由を尋ねる」問い返し応答が生成されていた場合は,システムが「理解」あるいは「納得」したことをより強くユーザに示した方が,対話の自然性が向上するため,相槌『なるほど』を生成する.\itemそれ以外の発話が生成されていた場合は,相槌『そうですか』を生成する.\end{enumerate}\noindent\textbf{■応答選択}認識信頼度が高いと判定され,繰り返し応答,問い返し応答,共感応答のいずれかの応答が生成された場合は,以下の考えに基づき,繰り返し/問い返し応答を優先的に選択する.\begin{itemize}\item繰り返し応答により,「聴いている」ことを効果的にユーザに伝えることができる\item問い返し応答により,ユーザが過去の記憶を思い出しやすくなると同時に,対話をより継続することができる\item共感応答は,繰り返し応答と同時に出力することで,「共感している」ことをより効果的に伝えることができる\end{itemize}具体的には,以下のように応答選択を行う.\begin{enumerate}\item繰り返し/問い返し応答のいずれかが生成されている場合は,それらの中からランダムに選択する.なお,ランダムに選択した結果が繰り返し応答の場合は,繰り返し応答の後に続けて出力する応答を,以下のように選択する.\begin{itemize}\item問い返し応答が生成されている場合は,それらの中からランダムに選択し,繰り返し応答に続けて出力する(e.g.,お花を貰ったんですか.誰から貰ったんですか?).\item問い返し応答は生成されていないが,共感応答が生成されている場合は,共感応答を繰り返し応答に続けて出力する(e.g.,お花を貰ったんですか.それは嬉しいですね.).\item問い返し応答,共感応答のいずれも生成されていない場合は,繰り返し応答のみを出力する.\end{itemize}\item繰り返し/問い返し応答が一切生成されていない場合は,共感応答を選択する.\end{enumerate} \section{音声認識,および,認識信頼度アルゴリズム} 本章では,音声認識,および,認識信頼度判定アルゴリズムについて述べる.\subsection{音声認識}まず,音声認識については,音声認識エンジンとしてJulius\cite{no36}を使用した.ここで,音響モデルは,不特定話者PTMモデル\cite{no37}を利用した.言語モデルについては,想定する対話の特性を踏まえ,次の2点を考慮して作成した.なお,作成した言語モデルの語彙数は6万語である.\noindent\textbf{(1)ユーザ発話の多くは,過去の行動や感情に関する発話である}システムは回想法によりユーザに過去の出来事に関する発話を促すため,ユーザ発話には行動や感情に関する単語が含まれることが予想される.表5に試作版の傾聴システムへの入力例を示す.\begin{table}[b]\caption{試作版の対話システムへの入力例}\label{table:5}\input{01table05.txt}\end{table}\noindent\textbf{(2)ユーザ発話中に,名詞単独の発話が含まれる}我々の傾聴システムは,問い返し応答の1つとして,不足格を問い返す応答を生成する.この問い返しに対し,ユーザが名詞単独で発話することが予想される(e.g.,Sys:どこで食べたんですか?Usr:お店).以上2点を踏まえ,言語モデルは以下のように作成した.\paragraph{\underline{手順[1]}:}Web上のテキストデータ\cite{no38}において,行動や感情が記述されやすいWebページを選別し,学習コーパスとした.学習コーパスの総量は,約215万ページ,3350万文であった.これまでに,行動や感情が記述されたコーパス作成手法として,大規模ブログデータから,人間の経験(時間と空間,動作とその対象,感情)を,適切な動詞と121個の感情語を用いて抽出する手法\cite{no39}や,過去時制動詞を主とした特徴語と,未来と現在時制動詞を主とした特徴語により,個人的な話題をブログデータから抽出する手法\cite{no40}などが提案されている.ここでは,言語モデル作成のためであり,コーパス内容をそれほど限定する必要がないことから,以下に示す方法でWebページを選別した.\begin{enumerate}\item行動や感情が記述されやすい日記のWebページを学習データとする.具体的には,URLに「BLOG,Blog,blog,DIARY,Diary,diary」のいずれかを含むWebページを採用した.\item試作版の傾聴システムを用いて,開発者数名で予備実験したところ,対話ログに述語691語が含まれていた.この述語のうち,30語以上を1ページ内に含むWebページを採用した.これは,日記や物語などに関して記述されたWebページが中心である.\end{enumerate}\paragraph{\underline{手順[2]}:}上記コーパスに出現した名詞を対象に,それらの名詞単独からなる文(e.g.,映画)を,その出現頻度に従い学習コーパスに追加した.なお,追加した名詞は40,239語である.\subsection{認識信頼度アルゴリズム}次に,認識信頼度判定アルゴリズムについて述べる.認識信頼度判定の目的は,繰り返し/問い返し応答生成,および,共感応答生成を行う前に,認識結果に含まれる認識誤りした単語を棄却し,信頼できると判定された認識結果のみを用いて,応答生成を行うことである.ここで,繰り返し/問い返し応答を生成する場合と,共感応答を生成する場合では,以下に述べるように,ユーザ発話中の着目すべき要素,つまり,信頼できるかどうかを判定すべき要素が異なると考えられる.まず,繰り返し/問い返し応答については,2.2節で述べたように,ユーザ発話中の最終述語,および,その述語が持つ格から生成される.つまり,繰り返し/問い返し応答の生成において,ユーザ発話中で着目すべき要素は〈格要素,格助詞,最終述語〉である.一方,共感応答を適切に生成するためには,〈格要素,格助詞,最終述語〉といったようにユーザ発話の一部分のみに着目することはできない.例えば,ユーザ発話『会社の飲み会で,すごく美味しいお酒を飲んだ』に対する共感応答(e.g.,それは楽しかったですね)や,『会社の飲み会で,我慢してお酒を飲んだ』に対する共感応答(e.g.,それは大変でしたね)を適切に生成するためには,「お酒を飲んだ」のみに着目するのではなく,「すごく美味しい」や「我慢して」といった情報も考慮した上で,それに対するユーザの感情を推定する必要がある.そのため,共感応答生成においては,生成に必要な要素をあらかじめ特定しておくことは難しい.つまり,共感応答を生成する場合には,認識結果全体に対する信頼度判定が必要となる.以上の考察に基づき,認識信頼度判定は,以下のように,繰り返し/問い返し応答を目的とした場合と,共感応答を目的とした場合とで,異なる手法により行う.なお,「相槌応答」は,以下のいずれの認識信頼度判定においても「信頼度が低い」と判定された場合に生成される.\noindent■{\bfseries繰り返し/問い返し応答の生成を目的とした場合}ここでの目標は,認識結果中の最終述語,および,当該述語に付随する格助詞,および,格要素(具体的には,最終述語とその一つ前の述語との間に出現する格助詞,および,格要素.以降,このようにして得られた結果を〈格要素,格助詞,最終述語〉と記述する.)について,以下のような繰り返し/問い返し応答生成のために,信頼度が高いもののみを高精度に抽出すること,である.\begin{verbatim}●繰り返し応答:お花を貰ったんですか/お花をですか/お花ですか/貰ったんですか●不足格の問い返し応答:誰に貰ったんですか?\end{verbatim}本論文では,「Juliusから得られる認識結果の候補10Bestにおいて,多くの候補に出現するほど信頼度は高い」という考え方をベースに,〈格要素,格助詞,最終述語〉のそれぞれに対する認識信頼度を判定する.Hazenら\cite{no41}は,単語の認識信頼度を10種類の特徴量を用いて算出し,それらの単独使用と複合使用の時のエラー率の比較結果を示しており,ここで用いた手法は,その単独特徴量中でもっとも性能の良かった特徴量(N-bestPurity)の考え方と近い.例として,ユーザ発話『東京に行った』を考える.認識候補10Bestにおいて,「東京に行った」や「東京に行って」以外に,例えば「故郷に行った」や「遠くに行った」などの誤った候補が得られていた場合,格助詞「に」の格要素については曖昧であるが,格助詞「に」,および,述語「行く」は多くの候補に出現していることから,少なくとも「〜に行った」という部分については,信頼度が高いと判定することができる.同様に,ユーザ発話『ボールを投げた』に対する認識候補10Bestにおいて,認識結果が「ボールを」「ボールと」「ボールで」の場合には,どのような格助詞に対する格要素かは曖昧だが,格要素「ボール」については信頼度が高いと判定することができる.このように,〈格要素,格助詞,最終述語〉のそれぞれの項目に対する個別の信頼度については,10Bestにおけるそれぞれの項目の出現頻度をベースとした手法により信頼度判定が可能である.しかし,ここでは,〈格要素,格助詞,最終述語〉の組み合わせとして信頼度が高いかどうかを判定する必要があるため,以下の方法をとる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f3.eps}\end{center}\caption{繰り返し/問い返し応答生成を目的とした認識信頼度判定の処理フロー}\label{fig:3}\end{figure}提案手法の処理のフローを図3に,手続きを以下に示す.\paragraph{\underline{手順[1]}:}Juliusより得られる音声認識結果の10Bestそれぞれに対し,「(文頭)格助詞最終述語」や「動詞の連用形最終述語」などのように,着目すべき最終述語の周辺の品詞の並びが不適切な候補を棄却する.\paragraph{\underline{手順[2]}:}手順[1]で残った認識結果の候補について,まず,最終述語,格助詞,および,格要素を,それぞれの単語認識信頼度\cite{no42}と共に抽出する.また,最終述語が持つ格(格要素+格助詞)の認識信頼度を,格助詞と格要素の単語認識信頼度の平均により算出する.なお,格要素を抽出する際,連続する名詞は複合名詞と判断し,それぞれの名詞の単語認識信頼度の平均を,当該複合名詞の認識信頼度とする.\paragraph{\underline{手順[3]}:}10Bestそれぞれについて得られた手順[2]の結果を,格要素,格助詞,格,および,最終述語ごとに合算する.この結果を,ユーザ発話に含まれる格要素,格助詞,格,および,最終述語の候補とする.得られる結果の例を図4に示す.なお,この例では,手順[1]により,残り5つの認識候補が棄却されたとする.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f4.eps}\end{center}\caption{手順[3]までの処理で得られる結果の具体例}\label{fig:4}\end{figure}\begin{table}[b]\caption{本論文で設定した認識信頼度判定のための閾値}\label{table:6}\input{01table06.txt}\end{table}\paragraph{\underline{手順[4]}:}ここまでの結果を用いて,ユーザ発話中の着目すべき要素のうち,どの認識結果が信頼できるのかを判定する.具体的には,以下のように判定する.\begin{enumerate}\item格要素,格助詞,格,最終述語のそれぞれについて,最大,かつ,閾値以上の信頼度を持つ候補を抽出する.なお,格助詞,および,格については,それぞれの格ごとに判定を行う.また,信頼度判定の閾値は,格要素,格助詞,格,最終述語のそれぞれについて,個別に設定する.本論文で設定した閾値を表6に示す.表6の値は,開発者2名が実験的に,「積極的な繰り返し/問い返し応答の生成」と「相槌応答の生成」とのバランスを鑑みた上で決定した値である.この値に従うと,図4の例では,以下のものが信頼できる認識結果として抽出される.\begin{itemize}\item格要素:彼,ボール\item格助詞:に,を\item格:彼に\item最終述語:渡す\end{itemize}なお,これら4つの閾値のうち,「格要素」「格」「最終述語」に関しては,「より積極的に認識結果を利用して応答生成する」のか「誤認識を用いた応答生成を防ぐために相槌を生成するのか」を判断する値である.具体的には,閾値を低く設定すると,より積極的にそれらの認識結果を利用して応答生成するようになり,反対に,閾値を高く設定すると,認識結果は信頼できないと判定されて相槌を生成する可能性が高くなる.一方,「格助詞」に関しては,「より積極的に,不足格の問い返し応答を生成する」かどうかを判断する値である.具体的には,閾値を低く設定すると,「当該格助詞はユーザ発話に含まれている」と判断しやすくなり,不足格の問い返し応答の生成数は減少する.反対に,閾値を高く設定すると,「当該格助詞はユーザ発話に含まれていない」と判断しやすくなり,不足格の問い返し応答の生成数は増加する.なお,格助詞についての閾値は,他と比べ低く設定した.これは,格助詞は誤認識が起こりやすく\cite{no43},格要素や最終述語と比べ認識信頼度の判断が難しいため,格助詞認識に対するRecallを高くし,「ユーザ発話に含まれているにも関わらず不足格として問い返してしまうエラーによる満足度低下」を防ぐことを目的としたためである.また,本論文では認識候補の10Bestを利用したが,ある閾値以上の認識結果を利用するなど,利用する認識候補の数を一定にしない方法も考えられる.このような場合には,単語信頼度の合算値を,利用した認識候補の数で正規化した上で閾値判定を行う必要がある.\item格要素,格助詞,および,最終述語の個別の項目については,(1)で抽出された結果を信頼できる要素と判定する.一方,〈格要素,格助詞,最終述語〉の共起の信頼度については,格(e.g.,彼に)と最終述語(e.g.,渡す)の共起が日本語として適切かどうかを判定する必要がある.なぜなら,個別の認識候補については言語モデルにより共起の適切性が考慮されているが,提案手法では,〈格要素,格助詞,最終述語〉を一旦独立したものとして扱うため,例えば「格(格要素+格助詞)については10Best中の上位4候補にのみ含まれる(下位6候補には含まれない)結果が信頼できると判定されるが,最終述語については下位6候補にのみ含まれる(上位4候補には含まれない)結果が信頼できると判定される」という可能性があるためである.日本語として適切かどうかの判定にはWeb5億文コーパス\cite{no38}を用いる.今回は,Webテキストに〈格要素,格助詞,最終述語〉の組み合わせが10回以上出現した場合に,日本語として適切であるとみなした.\end{enumerate}以上の手順で,信頼できると判定された「格要素」「格助詞」「格」「最終述語」を用いて繰り返し/問い返し応答を生成する.なお,信頼できると判定された「格要素」「格助詞」「格」「最終述語」が全く存在しない場合は,繰り返し/問い返し応答は生成されない.\noindent\textbf{■共感応答の生成を目的とした場合}共感応答の生成では,ユーザ発話の音声認識結果に対し,1単語単位ではなく,1発話単位の信頼性を評価し,信頼できる発話候補のみ共感応答生成への入力とする.しかし,Juliusから得られる単語単位の信頼度は,音響モデル尤度,および,3-gram言語モデル尤度に基づき算出された値であるため,後段で,この値を用いて1発話全体の信頼性を判定することは容易ではない.そこで,「発話全体が信頼できる認識候補かどうか」ではなく,「感情推定がロバストに行える認識結果の候補であるかどうか」という観点で認識結果を精査することとした.具体的には,名詞や動詞,形容詞などの自立語が一語の場合には,発話の曖昧性が高く正確な感情推定できない場合が多いが,「プレゼントを貰った」や「足をぶつけた」のように自立語を2語以上含む場合には,発話の曖昧性が下がり「それは良かったですね」や「それは大変でしたね」といった共感応答の生成が期待できる.そこで,10Bestそれぞれに含まれる「名詞」「動詞」「形容詞」「副詞」,および,「否定表現」の総数が2以上の候補を,感情推定がロバストに行える認識候補と判定し,5章で述べる共感応答生成への入力とする.\subsection{音声認識性能,および,認識信頼度判定アルゴリズムの有効性評価}本節では,提案システムの音声認識性能,および,認識信頼度判定アルゴリズムの有効性評価についての予備実験結果を示す.なお,テストセットとして,被験者39名による1,042発話を用いた.まず,音声認識性能についての結果について述べる.テストセットに対する単語認識率は,recall:70.1\%,precision:66.7\%であった.提案システムのように項構造を用いる場合は,ユーザ発話に含まれる格要素,格助詞,最終述語をどの程度適切に認識できるかでシステムの応答精度が大きく変わってくる.一般的に,格助詞は誤認識されやすく,藤原らの調査\cite{no43}によると,「認識信頼度が0.5以上の範囲で,助詞は動詞より約13\%程度認識率が低下する」というデータがある.彼らの試算に従うと,提案システムにおいて,ユーザ発話に含まれる格助詞の認識精度は約50\%程度になると考えられる.次に,このように多くの誤認識を含むユーザ発話に対して,提案手法により,高精度な応答生成が可能かどうかを検証した結果について述べる.自然な話し言葉においては,省略,音声認識器の誤認識,文境界の不明確さなどにより,項構造を誤って理解する可能性があり,これまでに,タスク依存型モデルにおける部分的な構文解析,多数の音声認識候補(N-Best)の利用,1単語単位の信頼度と1発話単位の信頼度の組み合わせ,会話内容全体を考慮した信頼度尺度の使用等により,意味解釈の精度を向上させる多くの手法が検討されてきた\cite{no44}.今回のシステムでは,応答生成の種類に応じて,N-Best利用による1単語単位の信頼度と,ロバストに感情推定できるかという尺度での\linebreak1発話単位の信頼度を使い分けることにより,適切な応答を引き出している.また,いずれの認識信頼度判定においても信頼度が低いと判定された場合には「相槌応答」を生成することで,誤認識による不適切な応答生成を最小限にしている.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f5.eps}\end{center}\caption{認識信頼度アルゴリズムの有効性検証結果}\label{fig:5}\end{figure}3.2節で述べた認識信頼度アルゴリズムの有効性を,上記テストセットを用いて検証した結果を図5に示す.図5の「1Bsetのみ利用」は,Juliusから得られる認識結果の1bestのみを用い全ての認識結果が信頼できるとして応答生成した場合で,「認識信頼度判定有り」は,我々の提案アルゴリズムにより信頼度が高い候補を抽出して応答生成した場合を示す.なお,ここでは,応答正解率=適切な応答数/(適切な応答数+誤応答数)とし,提案アルゴリズムにより相槌が生成された場合(452発話)については,評価の対象外とした.図5が示す通り,Juliusから得られる認識結果の1bestを用いて応答生成した場合には,応答正解率は55.8\%だが,我々が提案する認識信頼度判定を用いた場合には,応答生成の正解率は74.7\%であった.このことから,音声認識誤りにロバストな認識信頼度判定アルゴリズムが構築できたと考える.音声認識器の誤認識に関しては,今後さらに低減されていくと考えられるが,周囲騒音の大きい環境や高齢者の小声発話などに対しては認識が難しく,誤認識の問題は依然として残ると予想される.今回採用したような認識信頼度の利用手法は,今後のシステムにおいても必須であると考えることができる. \section{問い返し応答の生成アルゴリズム} 本章では,問い返し応答の生成アルゴリズムについて述べる.2.2節で述べたように,問い返し応答には,「最終述語の不足格の問い返し」と「辞書を用いた適切性判別に基づく問い返し」の2種類がある.以下,それぞれについて述べる.\subsection{最終述語の不足格判別に基づく問い返し応答の生成アルゴリズム}本節では,最終述語の不足格判別に基づく問い返し応答の生成アルゴリズムについて述べる.提案システムでは,最終述語が「動詞」および「サ変名詞+する」の場合のみ不足格判別に基づく問い返し応答を生成し,他の最終述語に関しては不足格の問い返し応答は生成しないものとした.なぜなら,ユーザの行動を表す「動詞」および「サ変名詞+する」に関しては,不足格(e.g.,誰と,どこに,何を)を問い返すことがユーザの次発話を促す効果があると期待されるが,ユーザの感情や形容表現を表す「形容詞」「形容詞+なる」「形容動詞」「名詞+だ」に関しては,不足格判別に基づく問い返し応答(e.g.,いつより嬉しかったんですか?,何より美味しかったんですか)は不自然な応答となる場合が多いためである.なお,ユーザの感情や形容表現を表すこれらの述語に関しては,4.2.3節で述べる理由を問い返す表現により次発話の生成を促す.\subsubsection{問い返し応答生成アルゴリズムの概要}図6に,問い返し応答生成アルゴリズムの概要を示す.3.2節で述べた信頼度判定アルゴリズムにより,信頼度が高いと判定された動詞,および,格助詞を用いて,以下の手順により問い返し応答を生成する.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f6.eps}\end{center}\caption{最終述語の不足格の問い返し応答生成アルゴリズムの概要}\label{fig:6}\end{figure}\paragraph{\underline{手順[1]}:}当該動詞をキーとして,予め作成された必須格辞書を検索する.ここで,必須格辞書には,図6に示すように,ある動詞についての必須格が深層格レベルで登録されていると同時に,当該格を尋ねる際に最適な疑問詞と表層格がペアで登録された辞書である.ここで,図6中の「ヲ(object)」などの表記は,「表層に現れた格助詞(深層格)」を意味する.なお,想定している対話の性質上,ユーザ発話内の「ガ(agent)」は省略されることが多いため,ここでは,必須格としては登録しない.必須格辞書の作成手法の詳細は,4.1.2節で述べる.\paragraph{\underline{手順[2]}:}信頼度が高いと判定された格助詞と,手順[1]で検索された必須格との照合を行うことで,当該動詞の不足格を判別し応答を生成する.例えば,ユーザ発話中の動詞「貰う」の不足格が「カラ格(source)」と判別された場合,問い返し応答として『誰から貰ったんですか?』を生成する.不足格判別手法の詳細は,4.1.3節で述べる.\subsubsection{必須格辞書の作成}本節では,必須格辞書の作成について述べる.\noindent\textbf{(ア)「不足格の問い返し応答」に適した深層格の定義}前述したように,必須格は深層格レベルで登録する.なぜなら,表層的には同じ「二格」であっても,それが「goal格」なのか「time格」なのかで尋ね方が異なる上に,深層格レベルで考慮しないと,どちらが必須格なのかを適切に判定できないためである.一般的に,表層格は「ガ」「ヲ」「二」「デ」「ト」「ヘ」「カラ」「ヨリ」「マデ」の9種類とする定義が広く用いられているのに対し,深層格については,どのような種類をどのような基準で認定するかの共通見解がない.そこで,我々は,EDR日本語共起辞書\cite{no45}において定められている意味的関係の定義をベースに深層格を定義した.具体的には,EDR日本語共起辞書において,名詞と動詞の間に付与されている「概念関係子」をベースに深層格を定義する.表7に,概念関係子の例を示す.\begin{table}[b]\caption{EDRにおける概念関係子の付与例}\label{table:7}\input{01table07.txt}\end{table}本論文では,「動詞の不足格を問い返す」という目的を鑑み,以下の考察に基づいて深層格を定義した.\begin{table}[b]\caption{表層格「ヲ」に付与された概念関係子objectの例}\label{table:8}\input{01table08.txt}\end{table}\noindent\textbf{\underline{1.概念関係子の細分化が必要}}例として,EDRで定義されている概念関係子objectに着目する.表層格「ヲ」に付与されたobject,および,表層格「ト」に付与されたobjectの例を,表8と表9に示す.EDRにおけるobjectの定義は「動作・変化の影響を受ける対象」であり,どちらもその定義に従っているが,意味的には,「ヲ」が示すobjectは動作の「対象」,一方,「ト」が示すobjectは動作の「相手」と考えられ,全く異なるものである.仮に,動詞「競い合った」を考えた際,「ヲ」が示すobject(=「対象」)が不足格であった場合,それを問い返す適切な応答は「何を競い合ったの?」であるのに対し,「ト」が示すobject(=「相手」)が不足格であった場合の適切な問い返し応答は「誰と競い合ったの?」となる.つまり,動詞の不足格を問い返すことを目的とした場合,動詞「競い合う」にとっての概念関係子objectを2種類の深層格に細分化する必要がある.このような細分化は,上記の例のように,異なる表層格に付与された概念関係子を対象とした場合だけではなく,同一の表層格に付与された概念関係子も対象となる.例えば,表10に示すような,表層格「ト」に付与された概念関係子goalに着目すると,上2つの動詞(一致する,関係する)では,不足格を尋ねる際に「〜と……?」と尋ねるのが自然なのに対し,下2つの動詞(なる,考える)では,「どう……?」と尋ねるのが自然である.\begin{table}[t]\caption{表層格「ト」に付与された概念関係子objectの例}\label{table:9}\input{01table09.txt}\end{table}\begin{table}[t]\caption{表層格「ト」に付与された概念関係子goalの例}\label{table:10}\input{01table10.txt}\end{table}\begin{table}[t]\caption{表層格「ヲ」に付与された概念関係子objectおよびbasisの例}\label{table:11}\input{01table11.txt}\end{table}\noindent\textbf{\underline{2.概念関係子の統合が可能}}また,格の尋ね方が同一かどうかの観点で考えると,異なる概念関係子を統合できる場合もある.例えば,表11に示すような,表層格「ヲ」に付与されている概念関係子objectおよびbasisの場合,どちらも「対象」を示しているが,動詞の意味が「過不足・優劣」などの場合はbasis,それ以外の場合にはobjectが付与されている.ここで,これらの格を尋ねる際には,いずれも「〜を……?」と尋ねるのが自然である.つまり,上記の観点では,これらの概念関係子は全て「〜を……?」と尋ねるobjectに統合可能と言える.以上の考察に基づき,本論文で定義した深層格の一部を表12に示す.\begin{table}[t]\caption{本研究で再定義した深層格(抜粋)}\label{table:12}\input{01table12.txt}\end{table}\noindent\textbf{(イ)必須格辞書の作成}(ア)で述べた定義に従い,動詞の必須格辞書を作成する.具体的には,以下の手順で作成した.\subparagraph{\underline{手順[1]}:}毎日新聞記事5年分(毎日新聞社1991--1995)\nocite{no46}を対象として,全ての文に対し係り受け解析を行い,〈格要素,格助詞,動詞〉を抽出する.\subparagraph{\underline{手順[2]}:}手順[1]の抽出結果に対し「格助詞置換分析法」\cite{no47}を用いて深層格の判別を行う.この手法は,格要素や動詞の意味属性情報に加え,当該動詞がどのような表層格のパターンを持っているか,別の表層格に置換可能であるかどうか,などの情報を統計的に獲得し,これらの情報を利用して,ルールベースにより深層格の判別を行うものである.具体的な処理を図7に示す.例として,「飛行機が成田空港を出発する」の「ヲ」格の深層格を判別する.\subparagraph{A)}まず,図7(A)に示す通り,上記の毎日新聞記事5年分から,「出発する」が持つ表層格パターンを抽出する.\subparagraph{B)}次に,「ガ−ヲ」の格パターンの「ヲ」が,別の表層格に置換されたパターンが存在するかどうかを検索する.その結果,「出発する」は「ガ−カラ」という「ヲ」が「カラ」に置換されたパターン,あるいは,「ガ−二」という「ヲ」が「二」に置換されたパターンを持つことが分かる.ここで,置換されたパターンが存在するかどうかは,シソーラス\cite{no48}から得られる格要素の意味属性を利用して判断する.\subparagraph{C)}最後に,図7(C)に示す通り,あらかじめ作成した深層格判別ルールに従い,「ヲ」の深層格が「source」であると判別する.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f7.eps}\end{center}\caption{格助詞置換分析法\protect\cite{no47}の概要}\label{fig:7}\end{figure}なお,EDR日本語共起辞書内で付与されている概念関係子を,本研究で再定義した深層格体系(表12)に人手で変換したデータ685事例(e.g.,変換前:「群衆と握手する(ト=object)」⇒変換後:「群衆と握手する(ト=partner)」)を深層格の正解データとし,上記提案手法の深層格判別精度を評価した結果,判別精度は75.7\%であった.\subparagraph{\underline{手順[3]}:}手順[2]の結果を動詞ごとにまとめ,それぞれの深層格について頻度が一定以上あるものを当該述語の必須格とする.\subparagraph{\underline{手順[4]}:}手順[3]で必須格と判断された深層格それぞれについて,シソーラスを用いて,出現した全ての格要素の意味属性を【人/場所/人工物/…】といったレベルで判別する.\subparagraph{\underline{手順[5]}:}手順[4]で得られたそれぞれの意味属性を【人⇒誰/場所⇒どこ/物⇒何/…】のように,尋ねる際に最適な疑問詞に置換し,最頻出の疑問詞を,当該深層格を尋ねる際に最適な疑問詞として登録する.なお,受動態や使役態の場合は,能動態とは必須格が異なる.しかし,本論文で作成した深層格判別ルールは能動態のみにしか対応していない.したがって,例えば,ユーザ発話「ずいぶんと怒られたよ」に対し,「誰に怒られたんですか?」といったような不足格の問い返し応答は生成できない(2.2節で述べたように,「怒られたんですか.」という繰り返し応答の生成は可能).この点については,今後の課題とする.\subsubsection{不足格の判別手法}本節では不足格の判別手法について述べる.音声認識誤りがない場合には,入力された〈格要素,格助詞,動詞〉を用いて4.1.2節と同様の方法で深層格解析をし,不足格を尋ねる応答を生成する方法をとることができるが,我々のタスクでは〈格要素,格助詞,動詞〉の全てが閾値以上の信頼度で認識できるとは限らない.特に,格要素の信頼度が低いと判定され抽出されなかった場合には,深層格解析を行うことができない.しかし,このような場合であっても,格助詞と動詞の信頼度が高いと判定された場合には,表層格レベルでの不足格判別は可能である.したがって,ここでは,格要素も含めて信頼度が高いと判定されたかどうかに関わらず,格助詞と動詞のみを用いて,表層格の情報に基づいた不足格の判別を行う.具体的には,以下の手順で行う.例として,ユーザ発話「北海道に行ったよ」に対し,認識信頼度判定の結果,格助詞「二」,および,動詞「行く」のみが,信頼度が高いと判定されて抽出された場合を考える.\paragraph{\underline{手順[1]}:}信頼度が高いと判定された動詞について,4.1.2節で述べた手法により作成された必須格辞書を検索し,それぞれの必須格について,当該深層格を表現し得る全ての表層格に置き換える.上記の例では,動詞「行く」の必須格として登録されている深層格「goal」および「partner」を,対応する全ての表層格「二・ヘ」および「ト」に置き換える.\paragraph{\underline{手順[2]}:}手順[1]で置き換えた表層格のいずれもがユーザ発話に含まれていない深層格に限り,当該必須格を不足格と判別する.上記の例では,表層格「二」が含まれているため,深層格「goal」はユーザ発話に含まれており,深層格「partner」が不足格であると判断して,不足格を問い返す応答「誰と行ったんですか?」を生成する.前述したように,音声認識において,格助詞は他の単語に比べて誤認識されやすい.また,話し言葉においては格助詞の省略も頻繁に起こる.これらに対する提案手法の有効性に関して考察する.まず,音声認識誤りに関して,ユーザ発話「北海道に行ったよ」の認識が難しく,認識候補の上位に格助詞「に」が認識されなかった場合を考える.仮に,単純に1bestの認識結果に対して,上記の不足格判別手法を適用したとすると,「goal」は不足格であると判別され,「どこに行ったんですか?」という誤応答が生成されてしまう.しかし,提案手法では,3.2節でも述べたように,認識結果の10bestを利用し,格助詞については,認識信頼度判定の閾値を低い値に,つまり,「当該格助詞がユーザ発話に含まれている」と判定しやすい値に設定してある.したがって,上位の認識結果では格助詞「二」が認識されていなかったとしても,10best内の下位の認識結果では認識されており,単語認識信頼度の合計が閾値以上であれば,格助詞「二」は認識信頼度が高いと判定され抽出される.これにより,「goal」は不足格ではないと判別され,「どこに行ったんですか?」という誤応答の生成を防ぐことが可能となる.次に,格助詞の省略に関しては,例えば,「北海道行ったよ」といった発話の場合,提案手法で手がかりとする格助詞(この例では「二」)が,信頼度が高い結果として抽出されることは考えにくいため,実際には「goal」が含まれているにも関わらず誤って不足格であると判別される.この発話に対して,「goal」が含まれていることを正しく判別するためには,格要素(北海道)の意味属性から深層格を理解するような手法や,省略された格助詞を補完するような技術の開発が必要となる.この点については今後の課題とする.\subsection{辞書を用いた適切性判別に基づく問い返し応答の生成アルゴリズム}本節では,辞書を用いた適切性判別に基づく問い返し応答の生成アルゴリズムについて述べる.前述したように,この応答には,「格要素の詳細」「感想」「感情・形容表現に対する理由」をユーザに尋ねる3種類の応答がある.以下,それぞれについて述べる.\subsubsection{格要素の詳細を尋ねる問い返し応答の生成アルゴリズム}まず,ユーザ発話「お花を貰った」に対するシステム応答「どんなお花ですか?」といったような,格要素の詳細を尋ねる問い返し応答の生成アルゴリズムについて述べる.\paragraph{\underline{手順[1]}:}Webテキスト\cite{no38}において,格要素の詳細を尋ねる際の疑問詞(「どんな」「何の」「どこの」の3種類)と係り受け関係にある名詞の頻度をカウントする.\paragraph{\underline{手順[2]}:}手順[1]で各疑問詞との係り受け関係が頻度閾値以上の名詞については,当該疑問詞で詳細を尋ねることが適切であると判定する.\begin{table}[b]\caption{詳細を尋ねることが適切であると判定された格要素の例}\label{table:13}\input{01table13.txt}\end{table}表13に,登録されている名詞の例を示す.表13の(a)は疑問詞「どんな」との係り受け関係が閾値以上で出現した名詞で,例えば『どんな動物なの?』『どんなドラマなの?』などの応答を生成する.しかし,当該名詞がユーザ発話に含まれたとしても,ユーザ発話には既にその詳細についての情報が含まれている可能性がある.そこで,ここでは,信頼度が高いと判定された格要素を含む認識候補について,当該格要素の直前に「形容詞」「形容動詞」または「〜の」が存在する認識候補が1つでも存在すれば,ユーザ発話には既に格要素の詳細についての情報が含まれていると判断し,格要素の詳細を尋ねる問い返しの生成は行わない.\subsubsection{感想を尋ねる問い返し応答の生成アルゴリズム}次に,ユーザ発話「お花を貰った」に対してシステム応答「どうでしたか?」というユーザ発話の感想を尋ねる問い返し応答の生成アルゴリズムについて述べる.我々のシステムでは,言語モデルに含まれる述語を対象に,感想を尋ねることが自然であるかどうかを人手により判断してもらい,「感想を尋ねることが不自然な述語の辞書」を構築した.辞書の一部を表14に示す.我々のシステムは,ユーザ発話の最終述語がこの辞書に登録されていない場合に,感想を尋ねる問い返し応答を生成する.例えば,ユーザ発話が「お花を貰ったの」の場合には「貰った」は辞書に登録されていないため「どうでしたか?」という発話を生成するが,ユーザ発話が「ムキになったの」の場合には表14に示す辞書に「ムキになる」が登録されているため「どうでしたか?」というシステム発話は生成しない.\begin{table}[b]\caption{感想を尋ねることが不自然であると人手により判断された述語の例(エントリ数:422)}\label{table:14}\input{01table14.txt}\end{table}ただし,「ディズニーランドに行った」の場合は「どうでしたか?」と尋ねることが適切だが,「食堂に行った」のように日常的な事態に関しては「どうでしたか?」と尋ねることは適切でないというように,感想を尋ねることが適切かどうかの判断は,述語のみではなく格要素などの情報も考慮した上で行う必要がある.この点に関しては今後の課題である.\subsubsection{感情・形容表現に対する理由を尋ねる問い返し応答の生成アルゴリズム}最後に,ユーザ発話「楽しかったよ」に対するシステム応答「どうして楽しかったんですか?」のような,感情・形容表現に対する理由を尋ねる問い返し応答の生成アルゴリズムについて述べる.提案手法では,「人手により,理由を尋ねることが適切であると判定された感情・形容表現」が登録された辞書に基づき,当該応答の適切性を判定する.登録されている感情・形容表現の例を表15に示す.\begin{table}[b]\caption{理由を尋ねることが適切であると人手により判断された感情・形容表現の例(エントリ数:130)}\label{table:15}\input{01table15.txt}\end{table}ただし,ユーザ発話に,既に当該感情・形容表現に対する理由が含まれている可能性があるため,単純に辞書に登録されているかどうかのみで応答生成の適切性を判定することはできない.そこで,ここでは,信頼度が高いと判定された感情・形容表現を含む認識候補について,当該感情・形容表現の直前に,「ので」「から」などの接続詞が存在する認識候補が1つでも存在すれば,ユーザ発話には既に理由が含まれると判断し,当該応答の生成は行わないこととした. \section{共感応答の生成アルゴリズム} 本章では,共感応答の生成アルゴリズムについて述べる.\subsection{応答生成アルゴリズムの概要}図8に共感応答の生成アルゴリズムの概要を示す.3.2節で述べたように,本論文では,前段で認識誤りを含む認識結果を棄却するのではなく,「誤認識結果が含まれる場合でも適切に感情推定を行う」手法を提案する.具体的には,「感情推定の際に重要となるキーワードが正しく認識されていれば,複数の認識候補に共通して出現し,それらの認識候補に対する感情推定結果は同一となる」という仮説に基づき,前段の認識信頼度判定アルゴリズムにより得られた3つの認識候補に対して感情推定を行い,多数決,および,閾値判定に基づき,得られた感情推定結果が適切であるかどうかを判断する.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f8.eps}\end{center}\caption{共感応答の生成アルゴリズムの概要}\label{fig:8}\end{figure}\paragraph{\underline{手順[1]}:}認識信頼度判定により得られた3つの各認識結果に対して,5.2節で述べる手法によりユーザの感情を推定する.その際,それぞれの感情推定結果には信頼度(0〜1)が付与される.また,具体的な感情のレベル(e.g.,嬉しい/恐い)での推定結果が高信頼度で得られた場合は当該結果が出力されるが,推定信頼度が低い場合には,感情極性のレベル(ポジティブ/ネガティブ/ニュートラル)で出力される.\paragraph{\underline{手順[2]}:}3つの認識候補毎に得られた推定結果について,感情と感情極性ごとに信頼度の和を算出し,値が最大,かつ,閾値以上の信頼度を持つ結果を,ユーザ発話に対する感情推定結果とする.もし閾値を以上の信頼度を持つ結果がなければ,感情極性はニュートラルとする.\paragraph{\underline{手順[3]}:}手順[2]で得られた最終的な推定結果を用いて共感応答を生成する.具体的には,最終的な推定結果が「嬉しい」であれば,「それは嬉しいですね」という応答が生成され,最終的な推定結果が「ポジティブ」であれば,「それはいいですね」という応答が生成される.一方,最終的な推定結果が「ニュートラル」の場合は,共感応答は生成しない.これにより,大きな感情の変化が起きない内容のユーザ発話(e.g.,電話をした)や,誤認識により信頼できる感情推定結果が得られなった場合に,不適切な共感応答を生成することを防ぐことができる.\subsection{感情推定アルゴリズム}ここでは,感情推定アルゴリズムについて説明する.本論文では,徳久らの手法\cite{no12}により感情推定を行う.具体的には,感情推定を「ユーザ発話をある感情クラスに分類する問題」ととらえ,大量の学習データに基づく機械学習によりこの問題を解く手法である.ここで,我々は,システムがユーザに共感していることをより明確に示すために,単に感情極性(ポジティブ,ネガティブ,ニュートラル)を推定するだけではなく,より具体的なレベルでの感情(「嬉しい,楽しい,安心,怖い,悲しい,残念,嫌,寂しい,不安,腹立たしい」の10クラス)を推定する.感情推定は,次の3つの処理により実現する.\noindent\textbf{\underline{処理1:感情生起要因コーパスの作成}}機械学習を行う際の学習データとなる感情生起要因コーパスを作成する.感情生起要因コーパスとは,ある事態に対してどのような感情が生起するかが記述されたコーパスであり,\textbf{{}感情が生起する要因となる事態\textbf{}}と〈感情〉とで構成される.まず,獲得対象とする感情表現を定義する.寺村\cite{no51}は,感情表現に関して,『X=感情主,Y=対象,Z=当該語のとき,「XはYをZ」「XはYにZ」「XはYがZ」のいずれかの表現ができれば,Zは感情表現である.』と定義している.この定義を参考にして,小林らの評価値表現辞書\cite{no52}から感情表現を抽出した結果,349語の感情表現を得た.表16に,感情ごとの感情表現の数と例を示す.\begin{table}[b]\begin{center}\caption{感情ごとの感情表現の数と例}\input{01table16.txt}\end{table}次に,図9に示す言語パターンを用いてWebコーパスから自動的に感情生起要因を獲得する.獲得の手がかりとする感情表現には表16の349語を,接続表現には右記の8種類(ので,から,ため,て,のは,のが,ことは,ことが)を用いる.例えば,「突然雨が降り出したのはがっかりだ」という文からは,〈がっかり〉が生起する要因として\textbf{{}突然雨が降り出した\textbf{}}を獲得する.この方法で,河原らのWeb5億文コーパス\cite{no38}から感情生起の要因を獲得した結果,約130万件の感情生起要因が獲得された.表17に10種類の感情ごとの感情生起要因の獲得数を示す.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f9.eps}\end{center}\caption{感情生起要因を獲得するための言語パターン}\label{fig:9}\end{figure}\begin{table}[b]\caption{感情生起要因コーパスの規模}\label{table:17}\input{01table17.txt}\end{table}\noindent\textbf{\underline{処理2:感情極性のレベルでの推定}}上記で作成した感情生起要因コーパスを学習データとして,感情生起要因コーパスに含まれるポジティブの事例とネガティブの事例を用いて感情極性推定モデルを構築し,ユーザ発話の感情極性推定結果が感情極性推定モデルの分離面に近い場合にニュートラルと推定する.感情極性の推定に関しては,さまざまな手法が提案されている\cite{no53,no33,no54}.これらを参考にして,我々は単語を特徴量として文の感情極性を推定する.図10に「福祉の費用の負担が増えてしまう」という感情極性がネガティブである文を形態素単位で記述した例を示す.図10の例について3-gram以下の列を展開すると,「福祉,福祉の,福祉の費用,の,の費用,…」などが得られる.これらを素性としてSVMで学習し感情極性推定モデルを構築する.判別した結果,SVMのスコアが正,かつ,閾値以上ならば感情極性はポジティブ,スコアが負,かつ,閾値以下ならば感情極性はネガティブ,それ以外ならばニュートラルを出力する.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f10.eps}\end{center}\caption{形態素列の例}\label{fig:10}\end{figure}\noindent\textbf{\underline{処理3:具体的な感情のレベルでの推定}}ここでは,ポジティブ,および,ネガティブのそれぞれを細分類化し,処理2と同様に機械学習によりユーザ発話に対する感情を推定する.表16に示すように,我々は先行研究\cite{no55,no56}による知見を考慮し,ポジティブな感情として\textbf{{}嬉しい,楽しい,安心\textbf{}}の3種類,ネガティブな感情として\textbf{{}恐い,悲しい,残念,嫌,寂しい,心配,腹立たしい\textbf{}}の7種類の感情を対象として感情推定を行う.SVMは2クラス判別器が,多クラスへの分類を行うため,図11に示す2種類の方式を試す.一般に,大量のデータから少量の事例を識別することは難しい.図11の〈方式1〉は,表17に示す感情生起要因の獲得数を考慮して事例の多い順に識別モデルを配置した方式である.まず入力文が\textbf{{}嫌\textbf{}}か\textbf{{}嬉しい,残念,楽しい,恐い,不安,寂しい,腹立たしい,悲しい,安心\textbf{}}かを判別し,続いて\textbf{{}嬉しい\textbf{}}か\textbf{{}残念,楽しい,恐い,不安,寂しい,腹立たしい,悲しい,安心\textbf{}}かを判別し,さらに\textbf{{}残念\textbf{}}か\textbf{{}楽しい,恐い,不安,寂しい,腹立たしい,悲しい,安心\textbf{}}かを判別する.このような方法で判別を繰り返し,最後に\textbf{{}悲しい\textbf{}}か\textbf{{}安心\textbf{}}かを判別する.一方,図11の〈方式2〉は,感情極性(ポジティブまたはネガティブ)を判別した上で,感情生起要因の獲得数を考慮して判別モデルを配置した方式である.感情極性の推定には処理2で構築したモデルを用いる.方式1と方式2のどちらの方法を採用するかについては,5.3節で評価実験を行い,その結果を踏まえて決定する.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f11.eps}\end{center}\caption{感情推定の判別モデル}\label{fig:11}\end{figure}\subsection{感情推定アルゴリズムの評価}本節では,5.2節で述べた感情推定アルゴリズムのそれぞれのモジュールを評価する.\noindent\textbf{\underline{評価1:感情生起要因コーパスの構築精度の評価}}感情生起要因コーパスの評価のため,ランダムに2,000事例を抽出し,獲得した感情生起要因の精度を調べた.評価は,感情生起要因コーパスの獲得に関わっていない評価者1名で行った.表18に評価結果を,表19に具体例を示す.表18および表19の「感情極性」は獲得した事態が実際にその感情極性であったかどうかを評価した結果を,「感情」は獲得した事態が実際にその感情を表すかどうかを評価した結果である.また,「正例」は“正例”,「文脈依存」は“文脈によっては正例”,「負例」は“負例”を示す.\begin{table}[t]\caption{感情生起要因コーパスの評価}\label{table:18}\input{01table18.txt}\end{table}\begin{table}[t]\caption{感情生起要因コーパスの評価の例}\label{table:19}\input{01table19.txt}\vspace{-0.5\Cvs}\end{table}表18に示す通り,感情極性については,57.0\%が正例,文脈によって正例となる事例も加えると90.9\%の事態が正例であった.また,感情に関しては,49.4\%が正例,文脈によって正例となる事例を加えると73.9\%が正例であった.負例について分析したところ,表19の「ジュースが飲みたい」と「大変だ」のように,本来は係り受け関係にない従属節と感情表現が係り受け解析誤りにより獲得されることが原因であることが分かった.感情生起要因コーパスの精度が十分かどうかは,感情生起要因コーパスを用いた感情推定精度を評価して初めて言及できるが,大規模で比較的信頼性の高いコーパスが構築できたと考えている.\noindent\textbf{\underline{評価2:感情極性推定の評価}}感情極性推定の精度を評価するため,以下の2つのテストセットを構築した.\subparagraph{TestSet1:}1つ目は,システムの開発者以外の弊所所員6名がキーボード対話によるプロトタイプ対話システムに入力した発話に対して話者自身が感情極性を付与した65発話である.これらには,ポジティブ31発話,ネガティブ34発話が含まれる.\subparagraph{TestSet2:}2つ目は,表18で感情極性が正例の1,140事例(ポジティブ491事例,ネガティブ649事例)事例である.なお,実験の際は,感情極性推定モデルはこれらを除いた事例で学習する.上記のテストセットで評価した結果を表20に示す.数値はF値を算出した結果である.感情極性推定精度に関しても,この精度で十分かどうかは言及しにくいが,特徴量は単語n-gramという非常にシンプルなものであるものの,1)大規模な学習コーパスを利用したことで比較的高精度であること,2)音声認識による対話システムへの実用化を想定した場合には,単語n-gramのようなシンプルな特徴量の方が利用しやすいという2つの理由から,実用的な感情極性推定モデルが構築できたと考えている.\begin{table}[b]\vspace{-0.5\Cvs}\caption{感情極性推定結果(F値)}\label{table:20}\input{01table20.txt}\end{table}\noindent\textbf{\underline{評価3:感情推定の評価}}以下の3つのテストセットを用いて感情推定の評価実験を行う.\subparagraph{TestSet1:}1つ目は,感情極性の評価実験のTestSet1(65発話)に対して,作業者2名が10種類の感情クラスを独立に付与したものである.なお,ある発話に対して複数の感情が該当する場合には,もっとも適切な感情クラスをひとつ選択した.作業者の付与した感情の一致率は$\kappa=0.76$であった.評価では,作業者のひとり以上が付与した感情が出力されれば正解とした.表21に例を示す.\begin{table}[b]\caption{2名の作業者による感情クラス付与の例}\label{table:21}\input{01table21.txt}\end{table}\subparagraph{TestSet2:}2つ目は,感情極性の評価実験のTestSet1(65発話)に対して,作業者1名が10種類の感情クラスを付与したものである.ある発話に対して複数の感情が該当する場合には,該当する感情クラスをすべて付与した.その結果,ポジティブの発話に対しては平均1.48個,ネガティブの発話に対しては平均2.47個の感情クラスが付与された.表22に例を示す.\subparagraph{TestSet3:}3つ目は,表18で感情が正例の988事例である.実験の際は,感情推定モデルはこれらを除いた事例で学習する.評価結果を表23に示す.表23の「感情推定」は図11の方式1の結果を,表23の「感情極性+感情推定」は図11の方式2の結果を示す.表23の結果から,どのテストセットにおいても感情極性を推定した上で感情クラスを推定するという図11の方式2の精度が高かった.したがって,次章以降の評価実験では,方式2の方法により感情推定するモデルを採用し,共感応答を生成する.\begin{table}[t]\caption{1名の作業者による感情クラス付与の例}\label{table:22}\input{01table22.txt}\end{table}\begin{table}[t]\caption{感情推定の評価実験結果(Accuracy)}\label{table:23}\input{01table23.txt}\end{table} \section{評価実験} 提案した傾聴システムの評価するため,20〜70代の男女110名の一般被験者に対する評価実験を行った.本章では,評価実験結果について述べる.\subsection{実験条件}まず,表24に,実験に参加した110名の内訳を示す.\begin{table}[b]\caption{実験参加者の性別・年代別の内訳}\label{table:24}\input{01table24.txt}\end{table}次に,実験設定について説明する.対話ロボットとしては犬型ロボットAIBO(ソニー製,型番:ERS-210)を用いた.対話実験は防音室内で行い,実験進行と対話システムの開始・終了作業は,オペレータが防音室外で行った.防音室内には椅子とテーブル,オペレータが被験者に実験開始終了を伝えるためのスピーカを設置し,テーブル上に,ロボット,および,ロボットの声を出すためのスピーカを設置した.被験者は椅子に座り,単一指向性のヘッドセットマイク(オーディオテクニカ製,型番:ATM75)を装着して,ロボットに向かって発話した.また,話しかけやすさを考慮し,常時,ロボットのしっぽを左右に動かした.さらに,ロボットが話を聴いていると被験者が感じるように,相槌を生成する際には,ロボットの耳が動くようにした.なお,これらのロボットの動作音,および,音声合成音は,ヘッドセットマイクに入り込まない十分小さな音であった.本実験では,回想法におけるテーマとして「1:印象深い旅行」と「2:子どもの頃の遊び」の2種類の話題を用意し,それぞれの話題について1回ロボットと対話をしてもらった.各話題において,対話は,以下の2つのシステム発話でスタートする.\begin{enumerate}\item「これまでの印象深い旅行についてお聞かせ下さい.これまでにどこに行きましたか?」\item「子どもの頃の遊びについてお聞かせ下さい.子どもの頃,何をして遊びましたか?」\end{enumerate}被験者への教示としては,「各話題について,対話を終了したくなったら『バイバイ』という発話でいつでも対話の終了が可能である」ことを示したのみで,事前に練習しなかった.これは,事前練習が評価に影響することを避けるためである.以上の実験設定のもと,被験者には5章までに述べた方法で構築した傾聴システムとの対話を体験してもらい,実験終了後,アンケートによる主観評価や意見を収集した.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f12.eps}\end{center}\caption{継続対話時間に関するヒストグラム}\label{fig:12}\end{figure}\subsection{継続対話時間}はじめに,継続対話時間に関する評価結果について述べる.対話が長く継続するということは,「より多くのことを話せるように助ける」という傾聴の本質的な点であり,システムの重要な客観的評価基準の一つと考えられる.なお,ここでの継続対話時間とは,上記2種類の各話題において,システム側からのスタートの発話からユーザが対話を終了させる(=「バイバイ」と発話)までの時間のことである.継続対話時間に関する結果を図12に,また,継続対話時間毎の平均発話数,および,平均発話単語数を表25,表26に示す.話題が「印象深い旅行」の場合は,45.5\%(50/110)の被験者が2分以上(ユーザ発話数の平均12.40)対話を継続していた.一方,話題が「子どもの頃の遊び」の場合,95.5\%(105/110)の被験者が2分以内(ユーザ発話数の平均4.76)に対話を終了していた.対話継続時間の平均はそれぞれ,1分46秒,1分8秒であり,「印象深い旅行」の方が対話が継続しやすいことがわかった.これは,話題が「印象深い旅行」の場合,旅先で自分がとった行動を思い出すことにより,話す内容がスムーズに思い浮かびやすいのに対し,話題が「子どもの頃の遊び」の場合,「何をして遊んだか?」を答えた後,何を話して良いのかなかなか思い浮かばないことが原因の一つとして考えられる.継続時間について何分以上なら良いというような絶対評価を行うことは難しいが,旅行の話題では3分以上対話が継続した被験者が観察されるなど,ロボットでも比較的長い時間傾聴を行えることが分かった.\begin{table}[t]\caption{継続対話時間毎の平均発話数,および,平均発話単語数(印象深い旅行)}\label{table:25}\input{01table25.txt}\end{table}\begin{table}[t]\caption{継続対話時間毎の平均発話数,および,平均発話単語数(子どもの頃の遊び)}\label{table:26}\input{01table26.txt}\end{table}なお,1分以内に対話が終了してしまった事例を分析したところ,主に,次の2つの現象が見られた.\begin{description}\item[(1)最初のユーザ発話に対して,誤認識により不適切な応答を生成している]\mbox{}\\例1Usr:公園でよく遊びました.⇒Sys:いつを過ぎたんですか?\\例2Usr:鬼ごっこをして.⇒Sys:子猫ですか.\\例3Usr:え?っと,留学と旅行ですね.⇒Sys:遊学ですか.\item[(2)システムから問い返し応答がないため,ユーザが次に何を話して良いか分からない]\mbox{}\\例1Usr:ショッピングです.⇒Sys:ショッピングですか.\\例2Usr:かくれんぼ.⇒Sys:かくれんぼですか.\end{description}いずれの場合も,ユーザが早々に「対話がつまらない」と感じて対話を終了させた(『バイバイ』と発話した)と考えられる.ここで,(1)については,6.1節で述べたように,システムから「これまでにどこに行きましたか?」や「何をして遊びましたか?」と話し始め,最初のユーザ発話の認識が高精度で行えるようにユーザ発話を誘導したにも関わらず,誤認識した事例である.誤認識を防ぐ手段として,認識信頼度判定の閾値を高くすることも考えられるが,その場合のシステム応答は相槌となり,ユーザに最初に与える印象が改善されるとは考えにくい.したがって,音声認識性能の向上が重要な課題となる.一方,(2)については,音声認識精度ではなく,対話を継続させるための応答生成の課題である.(2)の例にあるように,名詞(格要素)のみが発話された場合,提案手法では,問い返し応答として,適切と判断された場合にのみ,その詳細を尋ねる応答しか生成されない.したがって,この例のように,「どんな」や「どこの」などの疑問詞で問い返すことが不適切だと判定された場合には,その名詞について話題を広げることができない.このような事例の対策としては,例えば,(2)例2で,「かくれんぼ」と「鬼ごっこ」は関連が深い,という知識を利用して,「かくれんぼですか.鬼ごっこもしましたか?」といった問い返し応答を生成することなどが考えられる.また,本論文では,ユーザの1発話のみを利用して応答を生成しているが,過去のユーザ発話を利用することにより,さらに多様な応答生成が可能になると考えられる.その際には,ゼロ代名詞などの省略された情報の補完が重要な課題となる.今後は,例えば,今村らの手法\cite{no49}を用いてゼロ代名詞照応解析により項を補完した上で応答生成を行うことなども検討していきたい.\subsection{応答正解率}次に,応答正解率に関する評価結果について述べる.110名の被験者以外の2名の評価者が,ユーザ発話とそれに対するシステム応答の全ペアに対し,応答の適切性を主観で判断し,両名が共に「適切」と判定したシステム応答のみを正解とした.なお,相槌が生成されている場合は,「相槌応答」として分類した.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f13.eps}\end{center}\caption{生成されたシステム応答の分類結果}\label{fig:13}\end{figure}まず,図13に,生成されたシステム応答の「正解応答」「誤応答」「相槌応答」の割合を示す.なお,後述するように,相槌応答についても「適切」「不適切」の分類を行っている.図13から,実験における相槌応答は全体の38.0\%($34.9+3.1$),また,相槌応答を除く応答を対象にした応答正解率は68.06\%(42.2/62.0)であった.以降では,まず,相槌を除く応答を対象に考察を行い,次に,相槌も含めた応答全体についての考察を行う.図14に,相槌を除く応答を対象にした,年代別/男女別の応答正解率の結果を示す.この結果から,男女別では女性に対する応答正解率が,年代別では20代〜40代に対する応答正解率が相対的に高いことが分かる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f14.eps}\end{center}\caption{相槌を除く応答を対象にした応答正解率(男女別/年代別)}\label{fig:14}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f15.eps}\end{center}\caption{生成されたシステム応答種別毎の割合}\label{fig:15}\end{figure}次に,図15に,生成されたシステム応答種別毎の割合,および,図16に,システム応答種別毎の正解率を示す.図16から,共感応答(e.g.,それは良かったですね.),および,感情・形容表現の理由を尋ねる問い返し(e.g.,どういう所がおもしろかったんですか?)については約80\%程度と高い精度が得られているが,不足格判別に基づく問い返し(e.g.,どこで遊んだんですか?)については,他の応答種別と比べ著しく精度が低いことが分かる.ここで,共感応答,および,感情・形容表現の理由を尋ねる問い返しの精度が高い理由としては,次のことが考えられる.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f16.eps}\end{center}\caption{生成されたシステム応答種別毎の応答正解率}\label{fig:16}\end{figure}\begin{itemize}\item共感応答は,認識結果を直接的に用いて応答を生成するのではなく,感情推定結果を利用するため,仮に誤認識結果が含まれていたとしても,感情推定結果として正しければ適切な共感応答が可能となる.\item感情・形容表現の理由を尋ねる問い返しは,最終述語が「おもしろい」や「楽しい」の場合に生成されるが,このようなユーザ発話は,システムからの「感想を尋ねる応答(e.g.,〜に行ったんですか.どうでしたか?)」に対して発話されることが多く,しかも多くの場合は,「楽しかったよ」といった短い発話でユーザが返答するため,精度良く認識することが可能となる.また,当該応答の生成が適切であるかどうかを判定するための辞書は人手により作成されているため,辞書の精度も高い.\end{itemize}一方,不足格判別に基づく問い返しの応答精度が低い理由としては,誤認識結果を利用した応答が生成されていることに加え,次のことが挙げられる.\begin{description}\item[(1)格情報が含まれているにも関わらず,当該格を不足格と判別してしまう]\mbox{}\\例1Usr:ご飯を食べたりしました⇒Sys:何をしたんですか?\\例2Usr:缶蹴りしました⇒Sys:何をしたんですか?\item[(2)最終述語が「〜した」の場合に,「した」のみを最終述語として抽出してしまう]\mbox{}\\例1Usr:ご飯を食べたりしました⇒Sys:何をしたんですか?\\例2Usr:缶蹴りしました⇒Sys:何をしたんですか?\item[(3)深層格解析エラーにより,必須格辞書に誤りがある]\mbox{}\\例Usr:海で泳ぎました⇒Sys:どこを泳いだんですか?\end{description}ここで,(1)の例1は,ユーザ発話中の格助詞「二」が,認識信頼度判定アルゴリズムによって「信頼できない」と判定され,結果として不足格と判別された例である.4.1.3節で述べた通り,我々の提案手法では,格助詞の音声認識誤りが極力少なくなるような対策をしているが,(1)の例1のような事例も観察された.誤応答を減らすためのシステム改良は今後も続けていきたい.また,(1)の例2は,ユーザ発話において格助詞が省略されたことにより,不足格判別を誤った例である.4.1.3節でも述べたように,このような場合の不足格判別については今後の課題である.一方,(2)の例については,2つとも,最終述語が適切に抽出できなかった例である.2.2節で述べた通り,「最終述語の不足格判別に基づく問い返し」はユーザ発話の最終述語が動詞,もしくは,「サ変名詞+する」の場合に生成されるが,上述の事例のように,「する」はサ変名詞以外の品詞と接続する場合も多い.最終述語の抽出精度の向上については今後の課題である.最後に,(3)の例については,深層格解析エラーにより,必須格辞書に誤りがある例である.具体的には,動詞「泳ぐ」について,深層格解析の段階で,「〜で泳ぐ」の格助詞「デ」を深層格「place(act)」として,一方,「〜を泳ぐ」の格助詞「ヲ」を深層格「object」として解析し,双方ともが必須格として登録されたため,既に泳いだ「場所」が発話されたにも関わらず,その情報を誤って不足格として問い返している.この例については,「デ」「ヲ」共に「動作の場所」を表す深層格であることを適切に解析する,というように,深層格解析の精度向上が必要である.ここまでで,「相槌応答」を除いた応答を対象に述べてきた.次に,「相槌応答」も含めた応答全体について述べる.我々は,誤認識を含む場合でもロバストに応答を生成する手法として,認識信頼度を判定し,信頼度が低い場合には相槌を生成することで,誤認識結果を用いた応答生成を防ぐ手法を提案した.しかし,ユーザが発話を終える前に生成された相槌(e.g.,Usr:子供のころは,す……⇒Sys:そうですか),あるいは,システム応答が聞き取れずユーザがシステムに問い返した際に生成された相槌(e.g.,Usr:はい?⇒Sys:そうですか)などは,誤認識結果を用いた応答ではないものの,応答として不適切であると考えられる.今回の実験で生成された相槌応答(応答全体の38.0\%)の中に,このような不適切な相槌が8.04\%(応答全体の3.1\%)含まれていた.前者については,発話の区切りを検出する性能の向上,後者については,ユーザ発話が問い返しであるかどうかを判定する機能の構築が必要である.以上を踏まえて,適切な相槌も含めた応答正解率は77.1\%であった.また,図17に,適切な相槌も含めた年代別/男女別の応答正解率を示す.男女別,年代別で,応答正解率に極端に大きな差はないが,男性では50,70代,女性では40代の応答正解率がやや低いことがわかる.最後に,図18に,年代別/男女別の相槌応答の割合を示す.これより,20,30代,および,50,60代の女性については,相槌応答の割合が低く,一方,70代については,男女ともに相槌応答の割合が高いことが分かる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f17.eps}\end{center}\caption{適切な相槌も含めた応答正解率(男女別/年代別)}\label{fig:17}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f18.eps}\end{center}\caption{相槌応答の割合(男女別/年代別)}\label{fig:18}\end{figure}\subsection{アンケートによる主観評価結果}『システムと話してみて,満足度はどのくらいでしたか?』という質問に対する,年代別/男女別の結果を図19に示す.全体的に女性の評価が高かったことがわかる.特に50代以上の女性と70代の男性の満足度は相対的に高く,高齢者に対して有効なシステムとなる可能性が示唆された.その中でも70代については,相槌応答の割合が高く(図18),単調な対話であったにも関わらず,満足度が顕著に低下していないことから,単調な対話でも受容性が高いことも示唆された.40代女性の評価が低いのは,50,60代の女性と比べて応答正解率が低い(図17),および,相槌応答の割合が高い(図18)ことが原因と考えられる.一方,男性については,30,40代の被験者の評価が他の年代に比べて相対的に低く,満足感は与えられていないことがわかった.ただし,女性の結果とは異なり,30,40代の男性に対する応答正解率が低い,あるいは,相槌応答の割合が高い,といった傾向は見られない.この点についての要因の解明は,今後の課題とする.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f19.eps}\end{center}\hangcaption{設問『システムと話して,満足度はどのくらいでしたか?』に対する主観評価結果(男女別/年代別)}\label{fig:19}\end{figure}\begin{table}[b]\centering\caption{ユーザから得られた自由記述の感想(抜粋)}\label{table:27}\input{01table27.txt}\end{table}また,実験後,ユーザから得られた自由記述の感想の抜粋を,表27に示す.表27のネガティブな意見や対話ロボットへの要望については,今後の開発に生かしたい.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f20.eps}\end{center}\caption{実際の対話例}\label{fig:20}\end{figure}\subsection{実際の対話例}最後に,実際の対話例\cite{no50}を図20に示す.なお,図中のシステム応答「そこで何をしたんですか」「そこで他になにをしましたか?」「他には何をしましたか?」については,本実験で対象とした2つの話題に合わせて,問い返し応答として用意した定型応答であり,ユーザが沈黙した場合などに発話を促すために生成される.この結果より,対話が大きな破綻なく継続していることがわかる. \section{まとめ} 本稿では,回想法の効果による高齢者の認知症予防や,独居高齢者の孤独感の軽減,あるいは,若い世代のストレス軽減,などへの貢献を目的として,音声対話ロボットのための傾聴システムの開発について述べた.ユーザ発話中の述語の不足格判別などによる「繰り返し/問い返し応答」,ユーザ発話に対する感情推定による「共感応答」の生成アルゴリズム,および,それらの応答と「相槌応答」とを,音声認識信頼度を考慮した上で適切に生成するアルゴリズムを提案した.110名の一般被験者に対する評価実験の結果,「印象深い旅行」を話題とした場合で,45.5\%の被験者が2分以上(ユーザ発話数平均12.40)対話を継続していた.また,システムの応答を主観的に評価した結果,相槌を除いた場合で約68\%,適切な相槌も含めた場合で約77\%のユーザ発話に対して対話を破綻させることなく応答生成ができていた.また,生成された応答種別毎では,共感応答や感情・形容表現の理由を尋ねる問い返しについては高い応答正解率が得られていたが,一方で,特に不足格判別に基づく問い返しについては応答正解率が低かった.さらに,被験者へのアンケートの結果,特に高齢の被験者から肯定的な主観評価結果が得られた.今後の課題としては,主に,下記の事項が挙げられる.これらの問題を解決することにより,高齢者のみならず,若い世代に対する満足度向上につながると期待される.\begin{enumerate}\item深層格解析精度の向上(格助詞の省略,および,動詞の受動態・使役態への対応)\itemより多様な応答の生成(名詞の関連語知識の利用や,過去のユーザ発話の利用など)\item発話区切り検出精度の向上(ユーザ発話を遮って応答生成を行わない)\itemユーザ発話の談話行為推定(ユーザの問い返しなどに対して相槌を生成しない)\item音声認識精度の向上\end{enumerate}また,実際のユーザへの効果の評価として,本傾聴システムを体験したことによる,ユーザの話し方や顔表情などの状態変化に関する評価を行い,システムの改良を進める予定である.\acknowledgmentWeb上の5億文のテキストを提供して頂いた京都大学の河原大輔氏に深く感謝致します.\bibliographystyle{jnlpbbl_1.5}\nocite{*}\begin{thebibliography}{}\bibitem[\protect\BCAY{Balahur\BBA\Hristo}{Balahur\BBA\Hristo}{2016}]{no31}Balahur,A.\BBACOMMA\\BBA\Hristo,T.\BBOP2016\BBCP.\newblock\BBOQDetectingImplicitExpressionsofAffectfromTextusingSemanticKnowledgeonCommonConceptProperties.\BBCQ\\newblockIn{\Bemthe10thInternationalConferenceonLanguageResourcesandEvaluation(LREC2016)},\mbox{\BPGS\1165--1170}.\bibitem[\protect\BCAY{Banchs\BBA\Li}{Banchs\BBA\Li}{2012}]{no13}Banchs,R.\BBACOMMA\\BBA\Li,H.\BBOP2012\BBCP.\newblock\BBOQIRIS:AChat-orientedDialogueSystembasedontheVectorSpaceModel.\BBCQ\\newblockIn{\Bemthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\37--42}.\bibitem[\protect\BCAY{Bellegarda}{Bellegarda}{2013}]{no8}Bellegarda,J.\BBOP2013\BBCP.\newblock\BBOQLarge-ScalePersonalAssistantTechnologyDeployment:TheSiriExperience.\BBCQ\\newblockIn{\BemINTERSPEECH},\mbox{\BPGS\2029--2033}.\bibitem[\protect\BCAY{Butler}{Butler}{1963}]{no6}Butler,R.\BBOP1963\BBCP.\newblock\BBOQTheLifeReview:AnInterpretationofReminiscenceintheAged.\BBCQ\\newblock{\BemPsychiatry},{\Bbf26},\mbox{\BPGS\65--76}.\bibitem[\protect\BCAY{De~Mori,Bechet,Hakkani-Tur,McTear,Riccardi,\BBA\Tur}{De~Moriet~al.}{2008}]{no44}De~Mori,R.,Bechet,F.,Hakkani-Tur,D.,McTear,M.,Riccardi,G.,\BBA\Tur,G.\BBOP2008\BBCP.\newblock\BBOQSpokenLanguageUnderstanding.\BBCQ\\newblock{\BemIEEESignalProcessingMagazine},{\Bbf25}(3),\mbox{\BPGS\50--58}.\bibitem[\protect\BCAY{DeVault,Artstein,Benn,Dey,Fast,Gainer,Georgila,Gratch,Hartholt,Lhommet,Lucas,Marsella,Morbini,Nazarian,Scherer,Stratou,Suri,Traum,Wood,Xu,Rizzo,\BBA\Morency}{DeVaultet~al.}{2014}]{no29}DeVault,D.,Artstein,R.,Benn,G.,Dey,T.,Fast,E.,Gainer,A.,Georgila,K.,Gratch,J.,Hartholt,A.,Lhommet,M.,Lucas,G.,Marsella,S.,Morbini,F.,Nazarian,A.,Scherer,S.,Stratou,G.,Suri,A.,Traum,D.,Wood,R.,Xu,Y.,Rizzo,A.,\BBA\Morency,L.\BBOP2014\BBCP.\newblock\BBOQSimSenseiKiosk:AVirtualHumanInterviewerforHealthcareDecisionSupport.\BBCQ\\newblockIn{\Bemthe2014InternationalConferenceonAutonomousAgentsandMulti-agentSystems},\mbox{\BPGS\137--139}.\bibitem[\protect\BCAY{藤原\JBA伊藤\JBA荒木}{藤原\Jetal}{2005}]{no43}藤原敬記\JBA伊藤敏彦\JBA荒木健治\BBOP2005\BBCP.\newblock音声言語理解のための助詞・付属語の信頼度利用に関する調査.\\newblock\Jem{日本音響学会2006年春季研究発表会講演論文集},{\Bbf1-P-28},\mbox{\BPGS\199--200}.\bibitem[\protect\BCAY{Gordon\BBA\Swanson}{Gordon\BBA\Swanson}{2009}]{no40}Gordon,A.\BBACOMMA\\BBA\Swanson,R.\BBOP2009\BBCP.\newblock\BBOQIdentifyingPersonalStoriesinMillionsofWeblogEntries.\BBCQ\\newblockIn{\Bemthe3rdInternationalConferenceonWeblogsandSocialMedia,DataChallengeWorkshop},\mbox{\BPGS\16--23}.\bibitem[\protect\BCAY{Han,Bang,Ryu,\BBA\Lee}{Hanet~al.}{2015}]{no17}Han,S.,Bang,J.,Ryu,S.,\BBA\Lee,G.~G.\BBOP2015\BBCP.\newblock\BBOQExploitingKnowledgeBasetoGenerateResponsesforNaturalLanguageDialogListeningAgents.\BBCQ\\newblockIn{\Bemthe16thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\129--133}.\bibitem[\protect\BCAY{Han,Lee,Lee,\BBA\Lee}{Hanet~al.}{2013}]{no16}Han,S.,Lee,K.,Lee,D.,\BBA\Lee,G.~G.\BBOP2013\BBCP.\newblock\BBOQCounselingDialogSystemwith5W1HExtraction.\BBCQ\\newblockIn{\Bemthe14thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\349--353}.\bibitem[\protect\BCAY{長谷川\JBA鍛冶\JBA吉永\JBA豊田}{長谷川\Jetal}{2014}]{no35}長谷川貴之\JBA鍛冶伸裕\JBA吉永直樹\JBA豊田正史\BBOP2014\BBCP.\newblockオンライン上の対話における聞き手の感情の予測と喚起.\\newblock\Jem{人工知能学会論文誌},{\Bbf29}(1),\mbox{\BPGS\90--99}.\bibitem[\protect\BCAY{Hazen,Seneff,\BBA\Polifroni}{Hazenet~al.}{2002}]{no41}Hazen,T.~J.,Seneff,S.,\BBA\Polifroni,J.\BBOP2002\BBCP.\newblock\BBOQRecognitionConfidenceScoringanditsUseinSpeechUnderstandingSystems.\BBCQ\\newblock{\BemComputerSpeech\&Language},{\Bbf16}(1),\mbox{\BPGS\49--67}.\bibitem[\protect\BCAY{東中\JBA貞光\JBA内田\JBA吉村}{東中\Jetal}{2013}]{no10}東中竜一郎\JBA貞光九月\JBA内田渉\JBA吉村健\BBOP2013\BBCP.\newblockしゃべってコンシェルにおける質問応答技術.\\newblock\Jem{NTT技術ジャーナル},{\Bbf25}(2),\mbox{\BPGS\56--59}.\bibitem[\protect\BCAY{Higashinaka,\mbox{Funakoshi},Araki,Tsukahara,Kobayashi,\BBA\Mizukami}{Higashinakaet~al.}{2015}]{no15}Higashinaka,R.,\mbox{Funakoshi},K.,Araki,M.,Tsukahara,H.,Kobayashi,Y.,\BBA\Mizukami,M.\BBOP2015\BBCP.\newblock\BBOQTowardsTaxonomyofErrorsinChat-orientedDialogueSystems.\BBCQ\\newblockIn{\Bemthe16thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\97--95}.\bibitem[\protect\BCAY{Higashinaka,\mbox{Imamura},Meguro,Miyazaki,Kobayashi,Sugiyama,\mbox{Hirano},Makino,\BBA\Matsuo}{Higashinakaet~al.}{2014}]{no14}Higashinaka,R.,\mbox{Imamura},K.,Meguro,T.,Miyazaki,C.,Kobayashi,N.,Sugiyama,H.,\mbox{Hirano},T.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014\BBCP.\newblock\BBOQTowardsanOpen-domainConversationalSystemFullyBasedonNaturalLanguageProcessing.\BBCQ\\newblockIn{\Bemthe25thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\928--939}.\bibitem[\protect\BCAY{池見}{池見}{1996}]{no2}池見陽\BBOP1996\BBCP.\newblock傾聴とフォーカシングの臨床心理学.\\newblock\Jem{聴能言語学研究},{\Bbf13}(3),\mbox{\BPGS\213--220}.\bibitem[\protect\BCAY{今村\JBA東中\JBA泉}{今村\Jetal}{2015}]{no49}今村賢治\JBA東中竜一郎\JBA泉朋子\BBOP2015\BBCP.\newblock対話解析のためのゼロ代名詞照応解析付き述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf22}(1),\mbox{\BPGS\3--26}.\bibitem[\protect\BCAY{乾\JBA奥村}{乾\JBA奥村}{2006}]{no33}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockテキストを対象とした評価情報の分析に関する研究動向.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{磯\JBA颯々野}{磯\JBA颯々野}{2013}]{no9}磯健一\JBA颯々野学\BBOP2013\BBCP.\newblock「音声アシスト」の音声認識と自然言語処理の開発.\\newblock\Jem{情報処理学会研究報告},{\Bbf2013-SLP-98}(4),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{河原}{河原}{2013}]{no11}河原達也\BBOP2013\BBCP.\newblock音声対話システムの進化と淘汰—歴史と最近の技術動向—.\\newblock\Jem{人工知能学会誌},{\Bbf28}(1),\mbox{\BPGS\45--51}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{no38}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\Bemthe5thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{河原\JBA李}{河原\JBA李}{2005}]{no42}河原達也\JBA李晃伸\BBOP2005\BBCP.\newblock連続音声認識ソフトウェアJulius.\\newblock\Jem{人工知能学会誌},{\Bbf20}(1),\mbox{\BPGS\41--49}.\bibitem[\protect\BCAY{Kawahara,Uesato,Yoshino,\BBA\Takanashi}{Kawaharaet~al.}{2016}]{no34}Kawahara,T.,Uesato,M.,Yoshino,K.,\BBA\Takanashi,K.\BBOP2016\BBCP.\newblock\BBOQTowardAdaptiveGenerationofBackchannelsforAttentiveListeningAgents.\BBCQ\\newblockIn{\BemInternationalWorkshopSpokenDialogueSystems(IWSDS)},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{no52}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock意見抽出のための評価表現の収集.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{小林\JBA山本\JBA横山\JBA土井}{小林\Jetal}{2010}]{no25}小林優佳\JBA山本大介\JBA横山祥恵\JBA土井美和子\BBOP2010\BBCP.\newblock高齢者向け対話インタフェース—雑談時における関心度検出方法とそれを利用した対話システム—.\\newblock\Jem{人工知能学会言語・音声理解と対話処理研究会},{\BbfSIG-SLUD-B001-01},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{小林\JBA山本\JBA土井}{小林\Jetal}{2011}]{no26}小林優佳\JBA山本大介\JBA土井美和子\BBOP2011\BBCP.\newblock高齢者向け対話インタフェース—発話間の共起性を利用した傾聴対話の基礎検討—.\\newblock\Jem{情報科学技術フォーラムFIT2011(第2分冊)},\mbox{\BPGS\253--256}.\bibitem[\protect\BCAY{小林\JBA山本\JBA土井}{小林\Jetal}{2012}]{no27}小林優佳\JBA山本大介\JBA土井美和子\BBOP2012\BBCP.\newblock高齢者向け対話インタフェース—病院スタッフ・患者間の対話モデルを使用したコミュニケーションロボツト—.\\newblock\Jem{人工知能学会言語・音声理解と対話処理研究会},{\BbfSIG-SLUD-B103-12},\mbox{\BPGS\253--256}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{no48}国立国語研究所\BBOP2004\BBCP.\newblock\Jem{分類語彙表—増補改定版—}.\newblock秀英出版.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2004}]{no54}工藤拓\JBA松本裕治\BBOP2004\BBCP.\newblock半構造化テキスト分類のためのブースティングアルゴリズム.\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(9),\mbox{\BPGS\2146--2156}.\bibitem[\protect\BCAY{倉島\JBA藤村\JBA奥田}{倉島\Jetal}{2009}]{no39}倉島健\JBA藤村考\JBA奥田英範\BBOP2009\BBCP.\newblock大規模テキストからの経験マイニング.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ92-D}(3),\mbox{\BPGS\301--310}.\bibitem[\protect\BCAY{黒川}{黒川}{2005}]{no7}黒川由紀子\BBOP2005\BBCP.\newblock\Jem{高齢者の心理療法—回想法}.\newblock誠信書房.\bibitem[\protect\BCAY{Lee,Kawahara,\BBA\Shikano}{Leeet~al.}{2001}]{no36}Lee,A.,Kawahara,T.,\BBA\Shikano,K.\BBOP2001\BBCP.\newblock\BBOQJulius---AnOpenSourceReal-timeLargeVocabularyRecognitionEngine.\BBCQ\\newblockIn{\BemEuropeanConferenceonSpeechCommunicationandTechnology(EUROSPEECH2001)},\mbox{\BPGS\1692--1694}.\bibitem[\protect\BCAY{李}{李}{2000}]{no37}李晃伸\BBOP2000\BBCP.\newblockPhoneticTied-Mixtureモデルを用いた大語彙連続音声認識.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ83-DII}(12),\mbox{\BPGS\2517--2525}.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{19911995}]{no46}毎日新聞社\BBOP1991--1995\BBCP.\newblockCD—毎日新聞データ集91版〜95版.\\newblock日外アソシエーツ.\bibitem[\protect\BCAY{目黒\JBA東中\JBA堂坂\JBA南}{目黒\Jetal}{2012}]{no22}目黒豊美\JBA東中竜一郎\JBA堂坂浩二\JBA南泰浩\BBOP2012\BBCP.\newblock聞き役対話の分析および分析に基づいた対話制御部の構築.\\newblock\Jem{情報処理学会論文誌},{\Bbf53}(12),\mbox{\BPGS\2728--2801}.\bibitem[\protect\BCAY{目黒\JBA東中\JBA堂坂\JBA南\JBA磯崎}{目黒\Jetal}{2009}]{no20}目黒豊美\JBA東中竜一郎\JBA堂坂浩二\JBA南泰浩\JBA磯崎秀樹\BBOP2009\BBCP.\newblock聞き役対話システムの構築を目的とした聞き役対話の分析.\\newblock\Jem{情報処理学会研究報告},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{目黒\JBA東中\JBA南\JBA堂坂}{目黒\Jetal}{2011}]{no21}目黒豊美\JBA東中竜一郎\JBA南泰浩\JBA堂坂浩二\BBOP2011\BBCP.\newblockPOMDPを用いた聞き役対話システムの対話制御.\\newblock\Jem{言語処理学会第17回年次大会発表論文集(2011年3月)},\mbox{\BPGS\912--915}.\bibitem[\protect\BCAY{三島\JBA久保田}{三島\JBA久保田}{2003}]{no4}三島徳雄\JBA久保田進也\BBOP2003\BBCP.\newblock\Jem{積極傾聴を学ぶ—発見的体験学習法の実際—}.\newblock中央労働災害防止協会.\bibitem[\protect\BCAY{Morbini,Forbell,DeVault,Sagae,Traum,\BBA\Rizzo}{Morbiniet~al.}{2012}]{no28}Morbini,F.,Forbell,E.,DeVault,D.,Sagae,K.,Traum,D.~R.,\BBA\Rizzo,A.\BBOP2012\BBCP.\newblock\BBOQAMixed-InitiativeConversationalDialogueSystemforHealthcare.\BBCQ\\newblockIn{\Bemthe13thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\137--139}.\bibitem[\protect\BCAY{中村}{中村}{1993}]{no56}中村明\BBOP1993\BBCP.\newblock\Jem{感情表現辞書}.\newblock東京堂出版.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{2001}]{no45}日本電子化辞書研究所\BBOP2001\BBCP.\newblock\Jem{EDR電子化辞書2.0版使用説明書}.\bibitem[\protect\BCAY{楡木}{楡木}{1989}]{no5}楡木満生\BBOP1989\BBCP.\newblock積極的傾聴法.\\newblock\Jem{医学教育},{\Bbf20}(5),\mbox{\BPGS\341--346}.\bibitem[\protect\BCAY{大石\JBA松本}{大石\JBA松本}{1995}]{no47}大石亨\JBA松本裕治\BBOP1995\BBCP.\newblock格パターン分析に基づく動詞の語彙知識獲得.\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(11),\mbox{\BPGS\2597--2610}.\bibitem[\protect\BCAY{大竹\JBA萩原}{大竹\JBA萩原}{2012}]{no18}大竹裕也\JBA萩原将文\BBOP2012\BBCP.\newblock高齢者のための発話意図を考慮した対話システム.\\newblock\Jem{日本感性工学会論文誌},{\Bbf11}(2),\mbox{\BPGS\207--214}.\bibitem[\protect\BCAY{大竹\JBA萩原}{大竹\JBA萩原}{2014}]{no19}大竹裕也\JBA萩原将文\BBOP2014\BBCP.\newblock評価表現による印象推定と傾聴型対話システムへの応用.\\newblock\Jem{日本知能情報ファジィ学会誌},{\Bbf26}(2),\mbox{\BPGS\617--626}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1980}]{no55}Plutchik,R.\BBOP1980\BBCP.\newblock\BBOQAGeneralPsycho-evolutionaryTheoryofEmotion.\BBCQ\\newblockIn{\BemTheoriesofEmotion}.AcademicPress.\bibitem[\protect\BCAY{下岡\JBA徳久\JBA吉村\JBA星野\JBA渡部}{下岡\Jetal}{2010}]{no50}下岡和也\JBA徳久良子\JBA吉村貴克\JBA星野博之\JBA渡部生聖\BBOP2010\BBCP.\newblock音声対話ロボットのための傾聴システムの開発.\\newblock\Jem{人工知能学会言語・音声理解と対話処理研究会},{\BbfSIG-SLUD-58},\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{総務省統計局}{総務省統計局}{2013}]{no1}総務省統計局\BBOP2013\BBCP.\newblock高齢者の人口.\\newblockhttp://www.stat.go.jp/data/topics/topi721.htm/.\bibitem[\protect\BCAY{須田}{須田}{2013}]{no32}須田行雄\BBOP2013\BBCP.\newblock\Jem{回想法実施マニュアル}.\newblock第1回公募研究,一般社団法人日本産業カウンセラー協会.\bibitem[\protect\BCAY{寺村}{寺村}{1982}]{no51}寺村秀夫\BBOP1982\BBCP.\newblock\Jem{日本語のシンタクスと意味}.\newblockくろしお出版.\bibitem[\protect\BCAY{Tokuhisa,Inui,\BBA\Matsumoto}{Tokuhisaet~al.}{2008}]{no12}Tokuhisa,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQEmotionClassificationUsingMassiveExamplesExtractedfromtheWeb.\BBCQ\\newblockIn{\Bemthe22thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\881--888}.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{no53}Turney,P.\BBOP2002\BBCP.\newblock\BBOQThumbsUp?ThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews.\BBCQ\\newblockIn{\Bemthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{ホールファミリーケア協会}{ホールファミリーケア協会}{2004}]{no3}ホールファミリーケア協会\BBOP2004\BBCP.\newblock\Jem{傾聴ボランティアのすすめ}.\newblock三省堂.\bibitem[\protect\BCAY{Yamaguchi,Inoue,Yoshino,Takanashi,Ward,\BBA\Kawahara}{Yamaguchiet~al.}{2016}]{no30}Yamaguchi,T.,Inoue,K.,Yoshino,K.,Takanashi,K.,Ward,N.,\BBA\Kawahara,T.\BBOP2016\BBCP.\newblock\BBOQAnalysisandPredictionofMorphologicalPatternsofBackchannelsforAttentiveListeningAgents.\BBCQ\\newblockIn{\BemInternationalWorkshopSpokenDialogueSystems(IWSDS)},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{山本\JBA小林\JBA横山\JBA土井}{山本\Jetal}{2009}]{no23}山本大介\JBA小林優佳\JBA横山祥恵\JBA土井美和子\BBOP2009\BBCP.\newblock高齢者対話インタフェース〜『話し相手』となって,お年寄りの生活を豊かに〜.\\newblock\Jem{ヒューマンコミュニケーション基礎研究会},{\Bbf109}(224),\mbox{\BPGS\47--51}.\bibitem[\protect\BCAY{横山\JBA山本\JBA小林\JBA土井}{横山\Jetal}{2010}]{no24}横山祥恵\JBA山本大介\JBA小林優佳\JBA土井美和子\BBOP2010\BBCP.\newblock高齢者向け対話インタフェース—雑談継続を目的とした話題提示・傾聴の切替式対話法—.\\newblock\Jem{情報処理学会研究報告音声言語情報処理},{\Bbf2010-SLP-80}(4),\mbox{\BPGS\1--6}.\end{thebibliography}\begin{biography}\bioauthor{下岡和也}{2002年京都大学工学部情報学科卒業.2005年京都大学大学院知能情報学専攻修士課程修了.同年(株)豊田中央研究所入社.現在,空間情報処理とその応用に関する研究,開発に従事.}\bioauthor{徳久良子}{2001年九州工業大学大学院情報科学専攻修士課程修了.同年(株)豊田中央研究所入社.2009年奈良先端大学大学院博士後期課程修了.博士(工学).感情や対話研究に従事.人工知能学会,情報処理学会,言語処理学会会員.}\bioauthor{吉村貴克}{1997年名古屋工業大学知能情報システム学科卒.2002年同大学大学院博士後期課程修了.博士(工学).現在,(株)豊田中央研究所にて,車両の走行データのデータ処理とその応用に関する研究に従事.IEEE会員.}\bioauthor{星野博之}{1988年名古屋大学大学院工学研究科修士課程修了.同年(株)豊田中央研究入社,現在に至る.音声認識,ヒューマンインタフェース等の研究に従事.電子情報通信学会,日本音響学会他.博士(情報科学).}\bioauthor{渡辺生聖}{2000年筑波大学第三学群情報学類卒業.2002年同大学院修士課程修了.現在,トヨタ自動車(株)パートナーロボット部にて,シニアライフ支援のための対話ロボットの開発に従事.}\end{biography}\biodate\end{document}
V24N04-04
\section{はじめに} \label{sec-introduction}さまざまな種類のテキストや,音声認識結果が機械翻訳されるようになってきている.しかし,すべてのドメインのデータにおいて,適切に翻訳できる機械翻訳器の実現はいまだ困難であり,翻訳対象ドメインを絞りこむ必要がある.対象ドメインの翻訳品質を向上させるには,学習データ(対訳文)を大量に収集し,翻訳器を訓練するのが確実である.しかし,多数のドメインについて,対訳文を大量に収集することはコスト的に困難であるため,他のドメインの学習データを用いて対象ドメインの翻訳品質を向上させるドメイン適応技術が研究されている\cite{foster-kuhn:2007:WMT,foster-goutte-kuhn:2010:EMNLP,axelrod-he-gao:2011:EMNLP,Bisazza:SMTAdaptation2011,sennrich:2012:EACL2012,sennrich-schwenk-aransa:2013:ACL2013}.このドメイン適応は,機械翻訳を実用に供するときには非常に重要な技術である.本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案する.本稿の提案方式は,複数のモデルを対数線形補間で組み合わせる方法である.シンプルな方法であるが,機械学習分野のドメイン適応方法である素性空間拡張法\cite{daumeiii:2007:ACLMain}の考え方を流用することで,複数ドメインの利点を活かす.具体的には,以下の2方式の提案を行う.\begin{enumerate}\item複数ドメインの同時最適化を行う方法.この場合,拡張された素性空間に対して,マルチドメイン対応に変更した最適化器で同時最適化を行う.\item複数ドメインを一つ一つ個別に最適化する方法.この場合,素性空間を制限し,通常の対数線形モデルとして扱う.既存の翻訳システムへの改造が少なくても実現できる.\end{enumerate}いずれの方法も,さまざまなドメインで未知語が少ないコーパス結合モデルと,ドメインを限定した際に翻訳品質がよい単独ドメインモデルを併用する.さらに,複数モデル組み合わせ時のハイパーパラメータをチューニングする.素性空間拡張法を機械翻訳に適用した例には,\citeA{Clark:SMTAdaptation2012}がある.これは,翻訳文の尤度の算出に用いられる素性ベクトルの重みだけを適応させていて,素性関数は適応させていない.本稿の新規性は,コーパス結合モデルと単独ドメインモデルを使って,素性関数を適応させていること,および,複数モデル組み合わせ時のハイパーパラメータを適切に設定することの2点である.モデルの選択と設定を適切に行うことによって,最先端のドメイン適応と同等以上の精度が出せることを示す.なお,本稿では,事前並べ替えを使ったフレーズベース統計翻訳方式(PBSMT)\cite{koehn-och-marcu:2003:HLTNAACL,koehn-EtAl:2007:PosterDemo}を対象とする.以下,第\ref{sec-related-work}節では,統計翻訳のドメイン適応に関する関連研究を述べる.第\ref{sec-proposed-method}節では,提案方式を詳細に説明する.第\ref{sec-experiments}節では,実験を通じて本方式の特徴を議論し,第\ref{sec-conclusion}節でまとめる. \section{統計翻訳のドメイン適応} \label{sec-related-work}機械翻訳のドメイン適応は,翻訳対象のドメイン(内ドメイン)データが少なく,他のドメイン(外ドメイン)データが大量にある場合,内外ドメインのデータ双方を使って,内ドメインの翻訳品質を向上させる技術である.ドメイン適応には,「ニュース」「Web」のように,あらかじめデータがどのドメインに属するか決まっている場合の他に,自動クラスタリングによって仮想的に作られる場合もある.自動で分割されたドメインでも,重みを最適化することによって,トータルの翻訳品質が向上するという報告もある\cite{finch-sumita:2008:WMT,sennrich-schwenk-aransa:2013:ACL2013}.本稿では,前者のあらかじめデータのドメインが決まっている場合で議論する.\subsection{コーパス結合}最もシンプルなベースラインとして用いられている方法は,内ドメインと外ドメインのデータを結合して学習し,1つのモデルを構築する方法である(本稿ではコーパス結合方式と呼ぶ).学習された結合モデルは,各ドメインの開発セットで最適化される.一般的な機械学習では,結合されたコーパスで学習したモデルは,内ドメイン,外ドメイン双方の中間的性質を持つため,その精度も内ドメインデータのみ,外ドメインデータのみで学習されたモデル(単独ドメインモデルと呼ぶ)の中間の精度になることが多い.一方,機械翻訳の場合,コーパスを結合することにより,カバーする語彙が増加するため未知語が減少し,単独ドメインモデルより翻訳品質が向上する場合もある.最終的に翻訳品質が向上するか否かは,未知語の減少とモデルパラメータの精度低下のトレードオフになる.\subsection{線形補間,対数線形補間}統計翻訳では,翻訳に使用するサブモデル(フレーズテーブル,言語モデル,並べ替えモデルなど)が返す値(素性関数値)を,線形または対数線形結合して,翻訳文の尤度を算出する.対数線形モデルでは,以下の式で尤度$\logP(e|f)$を算出する.\begin{equation}\logP(e|f)\quad\propto\quad\mathbf{w}\cdot\mathbf{h}(e,f)\end{equation}ただし,$e$は翻訳文,$f$は原文,$\mathbf{h}(e,f)$は素性ベクトル,$\mathbf{w}$は素性関数の重みベクトルである.このとき,重みベクトル$\mathbf{w}$をドメイン毎に切り替えることで,ドメイン依存訳を生成する方法がある.たとえば,\citeA{foster-kuhn:2007:WMT}は,PBSMTのサブモデルをドメイン毎に訓練し,線形補間,対数線形補間でドメイン毎の重みを変えて翻訳を行った.彼らはパープレキシティなどを目標関数にして,独自の重み推定を行ったが,近年は,重みの推定に誤り率最小訓練法(MERT)\cite{Och:2003:ACL}などの最適化方法が用いられている\cite{foster-goutte-kuhn:2010:EMNLP}.素性空間拡張法\cite{daumeiii:2007:ACLMain}は,翻訳に限らず,機械学習全般に使われるドメイン適応方式で,素性関数の重みをドメイン毎に最適化する(\ref{sec-feature-augmentation}節参照).\citeA{Clark:SMTAdaptation2012}は,これを対数線形補間方式の一種として翻訳に適用し,効果があったと報告している.なお,彼らは単一のモデルを用い,モデルの重みのみをドメイン適応させている.\subsection{モデル適応}重みベクトルではなく,素性ベクトル$\mathbf{h}(e,f)$(素性関数)を変更することによってドメイン適応する方法は,大きく2つに分けられる.一つは,訓練済みサブモデル自身を変更する方法である.もう一つは,ドメインに適応させたコーパスからモデルを訓練する方法である.このうち,サブモデル自身を変更する方法には,fill-up法\cite{Bisazza:SMTAdaptation2011},翻訳モデル混合\cite{sennrich:2012:EACL2012},インスタンス重み付け\cite{foster-goutte-kuhn:2010:EMNLP,matsoukas-rosti-zhang:2009:EMNLP}が知られている.fill-up法は,フレーズテーブルから翻訳候補を取得する際,内ドメインの単独モデルにフレーズが存在する場合はその素性関数値を使用,存在しない場合は外ドメインの単独モデルからフレーズを取得し,その値を使用する.翻訳モデル混合は,2つのフレーズテーブルに記録された翻訳確率を重み付きで混合し,新たなフレーズテーブルを生成する.重みは開発セットのパープレキシティが最小になるように,素性関数毎に設定される.インスタンス重み付けは,フレーズテーブルのモデルパラメータ一つ一つを,内ドメインと外ドメインを識別するように内ドメインの開発セットで混合する.これらの方法は,素性関数値のみでなく,デコード時のフレーズ候補も2つのモデルのフレーズを使用するため,一般的には未知語は減少する.しかし,フレーズテーブル以外のサブモデルは,別の構築・混合法を使わなければならないというデメリットも存在する.\subsection{コーパスフィルタリング}素性ベクトル$\mathbf{h}(e,f)$を変更するもう一つの方法は,モデル訓練用コーパスをドメイン適応させる方法である.最初に述べたコーパス結合も,この一種であるが,よりドメインに適応させるには,外ドメインコーパスから対訳文を取捨選択した方がよい.この,外ドメインコーパスから対訳文を取捨選択し,内ドメインコーパスとともにモデルを作成する方式を,コーパスフィルタリングと呼ぶ.\citeA{axelrod-he-gao:2011:EMNLP}は,内ドメインに適した対訳文を,内外ドメインの交差エントロピーの差に基づき,外ドメインコーパスから取捨選択した.選択された文を内ドメインコーパスに追加してモデルを訓練することで,ドメイン適応を行った.コーパスフィルタリングは,翻訳器が使用する全サブモデルを,その種類を問わず適応させることができる点がメリットであるが,最適な追加訓練文数は,あらかじめ予想できない点がデメリットである.\subsection{その他の方法}その他の方法としては,2つの翻訳器を直列に接続し,外ドメイン翻訳器による翻訳結果を,さらに内ドメイン翻訳器を使って訂正する方法もある\cite{jeblee-EtAl:2014:ANLP20142}.これは,ドメイン依存訳の生成を一種の誤り訂正ととらえていることに相当する. \section{マルチドメイン適応方式} \label{sec-proposed-method}\subsection{素性空間拡張法}\label{sec-feature-augmentation}素性空間拡張法\cite{daumeiii:2007:ACLMain}は,一般的な機械学習におけるパラメータ(統計翻訳では素性の重みに対応)のドメイン適応に用いられる方式である.素性空間を共通,内ドメイン(ターゲットドメイン),外ドメイン(ソースドメイン)に分割し,素性を,それが由来するドメインごとに異なる空間に配置する.内ドメインの素性は共通空間と内ドメイン空間に,外ドメインの素性は共通空間と外ドメイン空間にコピーして配置するのが特徴である.そして,全体を最適化することにより,適応された重みベクトルを得る.素性が疎な二値素性の場合,共通空間に格納される素性は,内ドメインデータから得られる素性と,外ドメインデータから得られる素性の和(OR)になる.そのため,共通空間にある素性が,内外ドメインのお互いに欠落した素性を補完し,精度が向上する.統計翻訳のような密な実数素性の場合,共通空間を介して,外ドメインの素性が内ドメインの事前分布として作用し,より内ドメインに適合した重みに調整される(\citeA{daumeiii:2007:ACLMain}の3.2節参照).通常は,外ドメインを内ドメインに適応するために使用されるが,素性空間拡張法では,外ドメインと内ドメインを同等に扱っており,容易に$D$ドメインに拡張することができる.その場合,素性空間は共通,ドメイン1,...ドメイン$D$のように,$D+1$空間に分割される(図\ref{fig-feature-augmentation}).すなわち,\begin{equation}\mathbf{h}(f,e)=\langle\mathbf{h}_{c},\mathbf{h}_{1},\ldots,\mathbf{h}_{i},\ldots,\mathbf{h}_{D}\rangle\label{eqn-augmented-vector}\end{equation}ただし,$\mathbf{h}_{c}$は共通空間の素性ベクトル,$\mathbf{h}_{i}$はドメイン依存空間の素性ベクトルである.共通空間には常に素性が配置されるが,ドメイン依存空間には,データの属するドメインが一致する場合だけ,素性が配置される.\begin{align}\mathbf{h}_{c}&=\mathbf{\Phi}(f,e)\label{eqn-aug-common}\\\mathbf{h}_{i}&=\left\{\begin{array}{ll}\mathbf{\Phi}(f,e)&\text{if}\\mathrm{domain}(f)=i\\\emptyset&\text{otherwise}\end{array}\right.\label{eqn-aug-dependent}\end{align}ただし,$\mathbf{\Phi}(f,e)$はモデルスコア等を格納した部分ベクトルで,素性空間を拡張しない場合は,$\mathbf{h}(f,e)$と同じになる.この素性マトリクスを最適化し,重みベクトルを得る.\begin{figure}[t]\begin{center}\includegraphics{24-4ia4f1.eps}\end{center}\caption{素性空間拡張とコーパス結合モデル/単独ドメインモデルの併用}\label{fig-feature-augmentation}\end{figure}\ref{sec-experiments}節の実験では,Mosesツールキット\cite{koehn-EtAl:2007:PosterDemo}のデフォルト素性(15次元)を使用する.素性の一覧を表\ref{tbl-feature-list}に示す.これに素性空間拡張法を適用すると,共通空間では15次元,ドメイン依存空間では各14次元となる\footnote{未知語数を表す素性UnknownWordPenaltyは,重みの調整は不可とされているため,共通空間だけに配置する.}.\citeA{Clark:SMTAdaptation2012}は,アラビア語$\rightarrow$英語翻訳(ドメインはNewsとWeb),およびチェコ語$\rightarrow$英語翻訳(ドメインはFictionなど6ドメイン)について素性空間拡張法を適用し,効果が観測されたと報告している.ただし,彼らは,翻訳モデル,言語モデルなどのサブモデルは,コーパス結合モデル1種類だけを使用しており,純粋に素性関数の重みだけをドメイン最適化している.\begin{table}[t]\caption{本稿で用いる素性の一覧}\label{tbl-feature-list}\input{04table01.txt}\end{table}\subsection{提案法}\subsubsection{コーパス結合モデルと単独ドメインモデルの導入}\label{sec-concat-and-specific}機械翻訳では,素性の重みより素性関数の方が翻訳品質に対する影響が大きいため,素性空間によってモデルを切り替えるのは自然な拡張である.本稿で用いる素性関数は,実数値を返す関数であるが,その実態は,モデルファイルに記録されているインスタンスを読み込み,それに対応する値を返している.もし,訓練データ不足などの理由でモデルファイル中にインスタンスが存在しない場合,素性関数値は極小値になる.つまり,実数値の素性関数であっても,実際には二値素性と同様に,スパースネスの問題がある.そこで本稿では,二値素性の素性空間拡張法の考え方を素性関数に適用し,共通空間に対応するモデルとして,全ドメインのコーパスから作成したコーパス結合モデルを使用する.ドメイン依存空間には,それぞれの単独ドメインモデルを使用する.具体的には,\begin{itemize}\itemフレーズテーブル,語彙化並び替えモデル,言語モデルなどのサブモデルについて,単独ドメインモデルとコーパス結合モデルを作成しておく.\item素性空間拡張では,共通空間にはコーパス結合モデルのスコアを素性関数値として配置し,各ドメインの空間には,単独ドメインモデルのスコアを配置し,最適化する(図\ref{fig-feature-augmentation}).式(\ref{eqn-aug-common})(\ref{eqn-aug-dependent})は以下の式に置換される.\begin{align}\mathbf{h}_{c}&=\mathbf{\Phi}_{c}(f,e)\label{eqn-flat-common}\\\mathbf{h}_{i}&=\left\{\begin{array}{ll}\mathbf{\Phi}_{i}(f,e)&\text{if}\\mathrm{domain}(f)=i\\\emptyset&\text{otherwise}\end{array}\right.\label{eqn-flat-dependent}\end{align}ただし,$\mathbf{\Phi}_{c}(f,e)$はコーパス結合モデルから得られた素性ベクトル,$\mathbf{\Phi}_{i}(f,e)$は,単独ドメインモデル$i$から得られた素性ベクトルである.\itemデコーディングの際は,まず,単独ドメインモデルとコーパス結合モデルのフレーズテーブルをすべて検索し,翻訳仮説を生成する.探索の際には,共通空間と対象ドメインの空間の素性だけを使って尤度計算をする.\end{itemize}翻訳仮説生成にコーパス結合フレーズテーブルを使用することにより,他のドメインで出現した翻訳フレーズも利用でき,未知語の減少が期待できる.また,翻訳仮説が単独ドメインモデルに存在している場合,高い精度の素性関数値が得られると期待される.本方式は,拡張素性空間を最適化することによって,重みベクトル{$\mathbf{w}$}を適応し,コーパス結合モデルと単独ドメインモデルを併用することで,素性関数{$\mathbf{h}(e,f)$}の適応を行っている.どちらもモデルの種類に依存しないため,翻訳に使用する全サブモデルについて,適応させることができる.なお,機械翻訳では,言語モデルを大規模な単言語コーパスから作成する場合がある.このモデルは,いわば非常に多くのドメインを含むコーパス結合モデルに相当するため,共通空間に配置するとよい.このように,外部知識から得られたモデル(素性関数)を追加する場合には,共通空間の次元を増加させる.\subsubsection{empty値}本方式では,コーパス結合モデル,単独ドメインモデルのどちらか一方にのみ出現するフレーズ対が多数存在する.これらフレーズなどのインスタンスに関しても素性関数は値を返す必要がある.この値を本稿ではempty値と呼ぶ.これはいわばn-gram言語モデルにおける未知語確率に相当するものであるので,フレーズの翻訳確率分布から算出されるべきものであるが,本稿では,パイパーパラメータとして扱い,開発コーパスにおけるBLEUスコアが最高になるよう,実験的に設定する\footnote{Mosesでは,empty値として一律に$-100$を割り当てている\cite{Koehn:DomainAdaptation2007,Birch:MultipathDecoding2007}.\ref{sec-experiments}節で述べるように,これは小さすぎる値で,BLEUスコアが下がる原因となる.}.\subsection{最適化}\label{sec-optimization}\subsubsection{同時最適化}\label{sec-joint-optimization}一般的な機械学習における素性空間拡張法の利点の一つは,素性空間を操作しているだけなので,最適化アルゴリズムは既存の方法が使えるという点である.機械翻訳の場合,最適化方法には,誤り率最小訓練(MERT)\cite{Och:2003:ACL},ペアランク最適化(PRO)\cite{hopkins-may:2011:EMNLP},kベストバッチMIRA(KBMIRA)\cite{cherry-foster:2012:NAACL-HLT}が知られている.本稿では,高次元の最適化に適したKBMIRAを使用する\footnote{もう一つの理由は,予備実験において,ベースラインシステムのBLEUスコアが最も高かったためである.}.通常の機械学習における最適化と,機械翻訳の最適化の大きな相違点は,多くの機械学習の損失関数が,尤度などデコーダが出力するスコアを使用しているのに対して,機械翻訳はBLEU\cite{papineni-EtAl:2002:ACL}のような,翻訳文の自動評価値を使用する点である.この自動評価値は,翻訳文と参照訳との比較によって算出され,{\emコーパス単位に}計算される場合が多い.実際,MERT,KBMIRAは開発セットのBLEUスコアを損失関数の一部に使用している\footnote{\citeA{Clark:SMTAdaptation2012}が素性空間拡張法の最適化に使用したPROは文単位に近似したBLEUスコアを用いている.}.つまり,複数ドメインを同時に最適化する場合は,ドメイン毎にBLEUスコアを算出しないと,結果がドメイン最適にならないことを意味している.上記問題を解決するため,本稿ではKBMIRAを変更する.\citeA{cherry-foster:2012:NAACL-HLT}のアルゴリズム1に対する変更点は,以下のとおりである.\begin{enumerate}\item処理済み翻訳文のBLEU統計量(n-gram一致数など)を保存する変数$BG$を,1つからドメイン数$D$個に拡張する.\item各翻訳文のBLEUスコアは,その翻訳文のドメイン$i$の$BG_{i}$から算出する.\item素性重みを更新後,その翻訳文のBLEU統計量を$BG_{i}$に追加する.\end{enumerate}この変更によって,各ドメイン空間の素性重みは,そのドメインの開発セットに最適化される.\subsubsection{個別最適化}\label{sec-independent-optimization}同時最適化は,適応させたいドメインが限られている場合にも,すべてのドメインを最適化しなければならないので,少々非効率である.そこで,全$D$ドメインのうち,ドメイン$i$だけ適応させたい場合,ドメイン$i$に関連する空間だけに限り,最適化を行う.これを本稿では個別最適化と呼ぶ.個別最適化は,素性空間を共通空間とドメイン$i$空間に制限し,チューニングデータもドメイン$i$に関するものだけにする.すなわち,式(\ref{eqn-augmented-vector})は式(\ref{eqn-augvector-simple})に置き換える.\begin{align}\mathbf{h}(f,e)&=\langle\mathbf{h}_{c},\mathbf{h}_{i}\rangle\label{eqn-augvector-simple}\\\mathbf{h}_{c}&=\mathbf{\Phi}_{c}(f,e)\\\mathbf{h}_{i}&=\mathbf{\Phi}_{i}(f,e)\end{align}これは,一般的な対数線形モデルであるので,同時最適化を行わなくても,既存の最適化器をそのまま使うことができる.また,デコーダも,(1)複数モデルを同時に使えること,(2)empty値を設定できること,の2点を満たすものであればよいため,既存のものを少し修正するだけで利用可能となる.同時最適化に比べると,共通空間の最適化が弱くなる恐れがあるが,もともと機械翻訳は素性の重みより素性関数の影響の方が大きいため,実用上は問題は少ないと考えられる.ただし,以下の2点に関しては,同時最適化と共通に満たす必要がある.\begin{enumerate}\item共通空間の素性にコーパス結合モデルを使うこと.\itemempty値を適切に設定すること.\end{enumerate} \section{実験} \label{sec-experiments}\subsection{実験設定}\label{sec-experimental-settings}\subsubsection{ドメイン/コーパス}本稿では,英日/日英翻訳を対象に,以下の4つのドメインの最適化を行う.各ドメインのコーパスサイズを表\ref{tbl-corpus-size}に示す.MEDコーパスは比較的小規模で,それ以外のドメインは100万文規模である.なお,訓練文は80単語以下のものだけを使用した.\begin{itemize}\item\textbf{MED}:病院等における医師(スタッフ)と患者の疑似対話のコーパス.内部開発.\item\textbf{LIVING}:外国人が日本に旅行や在留する際の疑似対話コーパス.内部開発.\item\textbf{NTCIR}:特許コーパス.訓練コーパスと開発コーパスは国際ワークショップNTCIR-8,テストコーパスはNTCIR-9のものを使用\footnote{http://research.nii.ac.jp/ntcir/index-ja.html}.\item\leavevmode\hboxto160pt{\textbf{ASPEC}:科学技術文献コーパス}\cite{Nakazawa:ASPEC2016}\footnote{http://lotus.kuee.kyoto-u.ac.jp/ASPEC/}.ASPEC-JEのうち,対訳信頼度の高い100万文を使用.\end{itemize}\begin{table}[b]\caption{コーパスサイズ}\label{tbl-corpus-size}\input{04table02.txt}\end{table}\subsubsection{翻訳システム}各コーパスの対訳文は,内部開発の事前並べ替え(\citeA{Goto:2015:PUT:2791399.2699925}の4.5節)を適用したのちに使用した.これは,新聞,Wikipedia,旅行会話,生活会話,科学技術文,ブログなどを混合した対訳コーパスから,ランダムに500万文程度を抽出して訓練した,特定のドメインに依存しない事前並び替えである.今回は,全ドメイン,全方式について同一の事前並び替えを適用した.また,日本語に関しては,訓練,テスト等すべての文について,あらかじめ形態素解析器MeCab\cite{kudo-yamamoto-matsumoto:2004:EMNLP}で単語分割を行ってから使用した.英語に関しては,Mosesツールキット\cite{koehn-EtAl:2007:PosterDemo}付属のtokenizer,truecaserで前処理した.翻訳システムの訓練のうち,フレーズテーブル,語彙化並び替えモデルの学習にはMosesツールキットをデフォルト設定で使用した.言語モデルはKenLM\cite{heafield-EtAl:2013:Short}を用いて,訓練セットの目的言語側から5グラムモデルを構築した.最適化は\ref{sec-joint-optimization}節で述べたマルチドメインKBMIRAを使用した.デコーディングには,内部開発のMosesのクローンデコーダを使用した.デコーダの設定値はMosesのデフォルト値と同じ$\texttt{phrase\_table\_limit}=20$,$\texttt{distortion\_limit}=6$,ビーム幅200とした.なお,フレーズ候補取得の際には,複数のフレーズテーブルをすべて検索して候補を取得後,拡張素性空間で算出された尤度に従って,20個に絞り込んだ.\subsubsection{empty値}\ref{sec-concat-and-specific}節で述べたempty値は,$-3$から$-20$の間の整数値のうち,全ドメインの開発セット翻訳結果を1ドキュメント扱いしたときのBLEUスコアが最高値になる値を採用した.結果,英日翻訳に関しては$-7$,日英翻訳は$-6$となった.これを確率値とみなした場合,英日は$\exp(-7)\approx0.0009$,日英は$\exp(-6)\approx0.0025$となる.\subsubsection{評価指標}評価指標にはBLEU,翻訳編集率(TER)\cite{Snover:TER2006},Meteor\cite{denkowski:lavie:meteor-wmt:2014}(英語のみ),RIBES\cite{D10-1092}(日本語のみ)を使用し,MultEvalツール\cite{clark-EtAl:2011:ACL-HLT2011}\footnote{https://github.com/jhclark/multeval}で有意差検定を行った\footnote{RIBESに関しては,http://www.kecl.ntt.co.jp/icl/lirg/ribes/index.htmlのスクリプトと同等なものをMultEvalツールに組み込んで測定した.}.危険率は$p<0.05$とした.最適化の揺れを吸収するため,5回最適化を実施し,その平均値を使用した.なお,単純化のため,本文ではBLEUで説明する.\subsubsection{比較方式}各ドメインコーパスだけでモデルを構築,最適化,テストする単独ドメインモデル方式をベースラインにし,他の方式と比較する.従来法としては,\ref{sec-related-work}節で述べた以下の方式を使用する.\begin{itemize}\item\textbf{コーパス結合}:全ドメインのコーパス結合モデルを使用し,各ドメインの開発セットで最適化,テストした場合.\item\textbf{素性空間拡張法(Clark)}:\pagebreak共通空間,ドメイン空間共に,コーパス結合モデルの素性関数を使った素性空間拡張法.\citeA{Clark:SMTAdaptation2012}の設定と同じだが,最適化にはマルチドメインKBMIRAを使用した.\item\textbf{Fill-up法}:ドメイン適応方式にfill-up法\cite{Bisazza:SMTAdaptation2011}を用いた場合.\item\textbf{翻訳モデル混合}:ドメイン適応方式に翻訳モデル混合\cite{sennrich:2012:EACL2012}を用いた場合.Moses付属の\texttt{tmcombine}プログラムで混合した.\item\textbf{コーパスフィルタリング}:\citeA{axelrod-he-gao:2011:EMNLP}が提案した修正Moore-Lewisフィルタリングで,自分以外のドメインのコーパスから対訳文を選択し,ドメインの訓練文に加えた場合.追加文数は,10万文単位に文数を変え,各ドメインの開発セットのBLEUスコアが最高になった文数を採用した\footnote{数十万文単位で追加文数を変えながら開発セットBLEUスコアを測定し,その後,最適文数近傍で10万文単位の調整を行った.}.\end{itemize}提案法は,以下のバリエーションをテストする.\begin{itemize}\item\textbf{提案法(同時最適化)}:提案法のうち,\ref{sec-joint-optimization}節で述べた同時最適化を使用した場合.\item\textbf{提案法(個別最適化)}:提案法のうち,\ref{sec-independent-optimization}節で述べた個別最適化を使用した場合.\item\textbf{提案法($\mathbf{empty}\boldsymbol{=-100}$)}:提案法のempty値を,Mosesと同じ$-100$に設定した場合.なお,最適化は個別最適化を使用したが,同時最適化でも同じ傾向が観察された.\item\textbf{提案法(外ドメイン)}:提案法のうち,共通空間に対応するモデルとして,コーパス結合モデルではなく,内ドメインデータを取り除いた外ドメインコーパス(つまり,内ドメイン以外の3ドメインのコーパス)だけから学習したモデルを使用した場合.これも個別最適化を使用した.\end{itemize}\subsection{翻訳品質}\label{sec-experimental-quality}各方式について,英日翻訳および日英翻訳における自動評価スコアを,それぞれ表\ref{tbl-result-ej},表\ref{tbl-result-je}に示す.なお,表中太字は方式間最高値,(+)は,単独ドメインモデル方式をベースラインとしたとき有意に向上したもの,($-$)は有意に悪化したものを表す($p<0.05$).\begin{table}[t]\caption{方式別の自動評価スコア(英日翻訳)}\label{tbl-result-ej}\input{04table03.txt}\end{table}今回用いたデータは,ドメイン同士の関連性が比較的薄かったため,従来法では,適応によって翻訳品質は軒並み悪化した.たとえば,コーパス結合方式と素性空間拡張法(Clark)は,単独モデルより翻訳品質が低下する傾向が強かった.コーパス結合方式は各ドメインが平均化されたモデルが作成され,素性関数の精度が落ちたためと考えられる.Fill-up法は,コーパス結合方式に比べると翻訳品質は向上する場合が多かったが,単独ドメインモデルより悪化した.翻訳モデル混合は,ドメインによって有意に向上する場合と悪化する場合があり,この実験での有効性は確認できなかった.コーパスフィルタリングは,ASPECの英日翻訳を除き,単独ドメインモデルより有意に向上,または同等品質となった.ASPEC英日翻訳は10万文を加えただけだったが,これが悪影響しており,コーパスフィルタリングは有効だが,最適な追加文数の決定は難しいことを示している.一方,提案法は,同時最適化,個別最適化ともに,すべてのドメインにおいて単独ドメインモデルより向上あるいは同等品質となり,適切に適応できた.同時最適化に比べ,個別最適化の方が,BLEUスコアが高い傾向がある.なお,empty値を$-100$にすると,最適化時にBLEUスコアが振動して,最適化できない場合があった(表中のN/A).また,提案法でも,共通空間に使用するモデルを外ドメインモデルにすると,大部分のケースでは提案法に比べ品質が悪化した.共通空間に使用するモデルは,内ドメインを含むコーパス結合モデルの方が望ましいことを示している.\begin{table}[t]\caption{方式別の自動評価スコア(日英翻訳)}\label{tbl-result-je}\input{04table04.txt}\end{table}まとめると,提案法はドメイン適応方式の中ではほぼ最高品質を確保できた.特に,個別最適化方式のような標準的な対数線形モデルであっても,適切な設定をすれば,最先端方式と同等以上のドメイン適応が実現できることを示している.\subsection{シングルドメイン適応としての効果}\label{sec-size-experiments}ドメイン適応が必要となる場面は,新たなドメインデータの翻訳を行わなければならないにも関わらず,十分な量の訓練文が集まらない場合である.本節では,MED英日翻訳に絞って,訓練コーパスのサイズを変えて翻訳品質を測定する.なお,他のドメインについては変更せず,全訓練文を使用する.表\ref{tbl-quality-among-sizes}は,単独ドメインモデル,コーパス結合,コーパスフィルタリングと提案法(個別最適化)を比較した結果である.表中の(+)は単独ドメインモデルと比較して有意に高く,($-$)は有意に低いことを表す.(\dag)はコーパス結合と比較して有意に高く,({$\uparrow$})はコーパスフィルタリングと比較して有意に高いことを表している($p<0.05$).\begin{table}[t]\caption{訓練コーパスサイズ別BLEUスコア(MEDコーパス,英日翻訳)}\label{tbl-quality-among-sizes}\input{04table05.txt}\end{table}訓練コーパスが1,000文(1~k)しかない場合は,提案法は単独ドメインモデルに比べて非常に高い品質となっているが,コーパス結合とはほぼ同じである.訓練コーパスサイズが増えるにしたがい,全方式ともにBLEUスコアが向上するが,コーパス結合の品質向上は単独ドメインモデルより緩やかで,約10万文(100~k)で単独ドメインモデルの品質が逆転する.提案法は,3,000文(3~k)以上では常に単独ドメインモデル,コーパス結合の品質を上回っており,両者の利点をうまく融合させた方式であることを示している.コーパスフィルタリングは,提案方式とほぼ同様に,3万文(30~k)以上では,単独ドメインモデル,コーパス結合を有意に上回ったが,提案法を有意に上回ることはなかった.\ref{sec-experimental-quality}節でも述べたように,コーパスフィルタリングは,最適な追加文数の決定が難しい.実際,この実験では,10万文単位での最適な追加文数を決定するため,1試行あたり10回以上の訓練,最適化,テストを繰り返した.提案法の訓練回数は,個別最適化の場合,コーパス結合モデルと単独ドメインモデルの2回に固定されており,使いやすさの観点では提案法がコーパスフィルタリングより優れていると考える.ここで,表\ref{tbl-result-ej},\ref{tbl-result-je}に戻る.表\ref{tbl-result-ej},\ref{tbl-result-je}では,MEDコーパスにおける提案法(同時最適化,個別最適化)の翻訳品質が英日,日英ともに向上した.この理由は,MEDコーパスが約22万文と,他のコーパスに比べて小規模で,翻訳品質向上の余地を残していたためと推測できる.一方,MED以外のドメインは,100万文規模の大規模コーパスから学習しているため,必ずしも翻訳品質が向上するわけではない.しかし,特筆したいのは,大規模コーパスに提案方式を適用しても,翻訳品質が下がることがなく,データによっては向上する場合もあるという点である.その点で,提案方式はコーパスサイズに対して非常にロバストな方式といえる.\subsection{未知語}本稿の提案方式の特徴は,コーパス結合モデルと単独ドメインモデルの利点を融合させたものとまとめられる.本節では各モデルの未知語の観点から分析する.本稿では,\citeA{Irvine:MTErrors2013}に準じて,未知語を原言語未知と目的言語未知に分けて考える\footnote{原言語未知は,\citeA{Irvine:MTErrors2013}のSEENエラー,目的言語未知はSENSEエラーに相当する.}.原言語未知は入力の単語あるいはフレーズがフレーズテーブルに存在しない場合である,目的言語未知は,原言語のフレーズは存在するが,目的言語の単語あるいはフレーズが存在しないために,参照訳が生成できない場合である.これは,強制デコーディング\cite{yu-EtAl:2013:EMNLP}を行い,参照訳が生成できるかどうかで判定できる.英日翻訳におけるドメイン毎の未知語率を表\ref{tbl-unk-rate}に示す.これは,5回の最適化のうちの1試行を取り出した結果である.ドメイン毎に割合の差はあるが,単独ドメインモデルに比べ,コーパス結合は原言語未知,目的言語未知ともに減少する.たとえば,MEDコーパスでは,原言語未知は9.1\%$\rightarrow$0.9\%,目的言語未知は38.5\%$\rightarrow$16.1\%と減少し,他のドメインの単語が利用可能になっている.しかし,最終的な翻訳品質は単独ドメインモデルの方がよかったことを考えると,未知語の減少が直接品質向上に寄与したわけではない.最適化が重要であることがわかる.\begin{table}[t]\caption{未知語を含む文の割合(英日翻訳)}\label{tbl-unk-rate}\input{04table06.txt}\end{table}提案法は,NTCIRを除き,さらに未知語が減少した.提案法はコーパス結合モデルと単独ドメインモデルのフレーズテーブルをOR検索している.2つのフレーズテーブルは,重複する訓練コーパスを使用しているにも関わらず,訓練によって得られるフレーズは異なるため,結果的にカバレッジが向上したものと考えられる.\begin{table}[p]\caption{翻訳の変化例(MEDドメイン,英日翻訳,テストセット)}\label{tbl-trans-examples}\input{04table07.txt}\end{table}\subsection{ドメイン適応による翻訳の変化例}統計翻訳のモデルを変更した場合,翻訳文の変化を適切に分類するのは非常に難しい.本提案のドメイン適応に関しても,正確な分類は困難だと判断したが,翻訳品質が向上している場合,典型的には以下の3パターンが観察された.ここでは表\ref{tbl-trans-examples}に示す翻訳例を参照しながら説明する.この例はMEDドメインの英日翻訳から抜き出したものである.\begin{itemize}\item単語の翻訳がドメイン依存訳に変化したものがある.例1の``firstvisit''の翻訳に関しては,コーパス結合では「初めて」と一般的な訳になっているが,単独ドメインモデルと提案法では,「初診」となり,病院における対話に適応した訳となっている.同様に,例2では``openinghours''の訳が「診療時間」と翻訳されている.\item例3,4のように,コーパス結合では常体の翻訳文になっているが,単独ドメインモデル,提案法では敬体の翻訳文となっている.コーパス結合モデルでは,特許や論文のコーパスを用いているため,常体が多数派を占めているためだと考えられる.提案法は,コーパス結合モデルを併用しているにも関わらず,MEDの単独ドメインモデルを適切に利用して,敬体の翻訳文を生成した.これも一種のドメイン依存訳であると考えられる.\item例5,6では,単独ドメインモデルでは原言語未知になる単語があった(starvation,\linebreakSangenjaya,Shimokitazawa)が,コーパス結合,提案法ではこれが解消されている.\end{itemize} \section{まとめ} \label{sec-conclusion}本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案した.本稿の方式は,カバレッジが広い(未知語が少ない)コーパス結合モデルと,素性関数の精度がよい単独ドメインモデルを併用し,機械学習分野のドメイン適応方法である,素性空間拡張法の考え方を利用して両者を結合した.また,empty値をチューニング対象に追加した.実験では同時最適化を行った場合,個別最適化を行った場合ともに,単独ドメインモデルに比べ,翻訳品質が向上または同等を保持した.提案法は,当該ドメインの訓練コーパスが小規模である場合に高い効果を持ち,100万文規模の大規模コーパスを持つドメインへの適応に使用しても,翻訳品質を下げることなく,ドメインによっては品質向上の効果がある.基本的な対数線形モデルでも,モデルの選択とチューニングを慎重に行うことで,最先端方式と同等以上の適応方式になることを示した.提案方式は,対数線形モデルに基づく統計翻訳にはすべて適用可能であるので,木構造変換のような翻訳方式でも効果を確認したいと考えている.ただし,木構造変換の翻訳方式は,構文解析を利用しているため,翻訳品質は構文解析自身の精度にも影響を受ける.本稿で用いた事前並び替えも,構文解析を利用している.構文解析などの翻訳に使われているコンポーネントについては,別途ドメイン適応させる必要がある(森下,赤部,波多腰,Neubig,吉野,中村2016)が,本稿の提案方式は,コンポーネントの適応とは独立に併用可能である.\nocite{Morishita:ParsingAdaptation2016j}\acknowledgment本研究は総務省の情報通信技術の研究開発「グローバルコミュニケーション計画の推進—多言語音声翻訳技術の研究開発及び社会実証—I.多言語音声翻訳技術の研究開発」の一環として行われました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Axelrod,He,\BBA\Gao}{Axelrodet~al.}{2011}]{axelrod-he-gao:2011:EMNLP}Axelrod,A.,He,X.,\BBA\Gao,J.\BBOP2011\BBCP.\newblock\BBOQDomainAdaptationviaPseudoIn-DomainDataSelection.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\355--362},Edinburgh,Scotland,UK.\bibitem[\protect\BCAY{Birch,Osborne,\BBA\Koehn}{Birchet~al.}{2007}]{Birch:MultipathDecoding2007}Birch,A.,Osborne,M.,\BBA\Koehn,P.\BBOP2007\BBCP.\newblock\BBOQCCGSupertagsinFactoredStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\9--16},Prague,CzechRepublic.\bibitem[\protect\BCAY{Bisazza,Ruiz,\BBA\Federico}{Bisazzaet~al.}{2011}]{Bisazza:SMTAdaptation2011}Bisazza,A.,Ruiz,N.,\BBA\Federico,M.\BBOP2011\BBCP.\newblock\BBOQFill-upversusInterpolationMethodsforPhrase-basedSMTAdaptation.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSpokenLanguageTranslation(IWSLT)},SanFrancisco,California,USA.\bibitem[\protect\BCAY{Cherry\BBA\Foster}{Cherry\BBA\Foster}{2012}]{cherry-foster:2012:NAACL-HLT}Cherry,C.\BBACOMMA\\BBA\Foster,G.\BBOP2012\BBCP.\newblock\BBOQBatchTuningStrategiesforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\427--436},Montr{\'{e}}al,Canada.\bibitem[\protect\BCAY{Clark,Dyer,Lavie,\BBA\Smith}{Clarket~al.}{2011}]{clark-EtAl:2011:ACL-HLT2011}Clark,J.~H.,Dyer,C.,Lavie,A.,\BBA\Smith,N.~A.\BBOP2011\BBCP.\newblock\BBOQBetterHypothesisTestingforStatisticalMachineTranslation:ControllingforOptimizerInstability.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\176--181},Portland,Oregon,USA.\bibitem[\protect\BCAY{Clark,Lavie,\BBA\Dyer}{Clarket~al.}{2012}]{Clark:SMTAdaptation2012}Clark,J.~H.,Lavie,A.,\BBA\Dyer,C.\BBOP2012\BBCP.\newblock\BBOQOneSystem,ManyDomains:Open-DomainStatisticalMachineTranslationviaFeatureAugmentation.\BBCQ\\newblockIn{\BemProceedingsofthe10thbiennialconferenceoftheAssociationforMachineTranslationintheAmericas(AMTA2012)},SanDiago,California,USA.\bibitem[\protect\BCAY{Daum{\'{e}}}{Daum{\'{e}}}{2007}]{daumeiii:2007:ACLMain}Daum{\'{e}},III,H.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\256--263},Prague,CzechRepublic.\bibitem[\protect\BCAY{Denkowski\BBA\Lavie}{Denkowski\BBA\Lavie}{2014}]{denkowski:lavie:meteor-wmt:2014}Denkowski,M.\BBACOMMA\\BBA\Lavie,A.\BBOP2014\BBCP.\newblock\BBOQMeteorUniversal:LanguageSpecificTranslationEvaluationforAnyTargetLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe9thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\376--380},Baltimore,Maryland,USA.\bibitem[\protect\BCAY{Finch\BBA\Sumita}{Finch\BBA\Sumita}{2008}]{finch-sumita:2008:WMT}Finch,A.\BBACOMMA\\BBA\Sumita,E.\BBOP2008\BBCP.\newblock\BBOQDynamicModelInterpolationforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\208--215},Columbus,Ohio,USA.\bibitem[\protect\BCAY{Foster,Goutte,\BBA\Kuhn}{Fosteret~al.}{2010}]{foster-goutte-kuhn:2010:EMNLP}Foster,G.,Goutte,C.,\BBA\Kuhn,R.\BBOP2010\BBCP.\newblock\BBOQDiscriminativeInstanceWeightingforDomainAdaptationinStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\451--459},Cambridge,Massachusetts,USA.\bibitem[\protect\BCAY{Foster\BBA\Kuhn}{Foster\BBA\Kuhn}{2007}]{foster-kuhn:2007:WMT}Foster,G.\BBACOMMA\\BBA\Kuhn,R.\BBOP2007\BBCP.\newblock\BBOQMixture-ModelAdaptationforSMT.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\128--135},Prague,CzechRepublic.\bibitem[\protect\BCAY{Goto,Utiyama,Sumita,\BBA\Kurohashi}{Gotoet~al.}{2015}]{Goto:2015:PUT:2791399.2699925}Goto,I.,Utiyama,M.,Sumita,E.,\BBA\Kurohashi,S.\BBOP2015\BBCP.\newblock\BBOQPreorderingUsingaTarget-LanguageParserviaCross-LanguageSyntacticProjectionforStatisticalMachineTranslation.\BBCQ\\newblock{\BemACMTransactionsonAsianandLow-ResourceLanguageInformationProcessing},{\Bbf14}(3),\mbox{\BPGS\13:1--13:23}.\bibitem[\protect\BCAY{Heafield,Pouzyrevsky,Clark,\BBA\Koehn}{Heafieldet~al.}{2013}]{heafield-EtAl:2013:Short}Heafield,K.,Pouzyrevsky,I.,Clark,J.~H.,\BBA\Koehn,P.\BBOP2013\BBCP.\newblock\BBOQScalableModifiedKneser-NeyLanguageModelEstimation.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\690--696},Sofia,Bulgaria.\bibitem[\protect\BCAY{Hopkins\BBA\May}{Hopkins\BBA\May}{2011}]{hopkins-may:2011:EMNLP}Hopkins,M.\BBACOMMA\\BBA\May,J.\BBOP2011\BBCP.\newblock\BBOQTuningasRanking.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1352--1362},Edinburgh,Scotland,UK.\bibitem[\protect\BCAY{Irvine,Morgan,Carpuat,Daum{\'{e}},\BBA\Munteanu}{Irvineet~al.}{2013}]{Irvine:MTErrors2013}Irvine,A.,Morgan,J.,Carpuat,M.,Daum{\'{e}},III,H.,\BBA\Munteanu,D.\BBOP2013\BBCP.\newblock\BBOQMeasuringMachineTranslationErrorsinNewDomains.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf1},\mbox{\BPGS\429--440}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{D10-1092}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\944--952},Cambridge,Massachusetts,USA.\bibitem[\protect\BCAY{Jeblee,Feely,Bouamor,Lavie,Habash,\BBA\Oflazer}{Jebleeet~al.}{2014}]{jeblee-EtAl:2014:ANLP20142}Jeblee,S.,Feely,W.,Bouamor,H.,Lavie,A.,Habash,N.,\BBA\Oflazer,K.\BBOP2014\BBCP.\newblock\BBOQDomainandDialectAdaptationforMachineTranslationintoEgyptianArabic.\BBCQ\\newblockIn{\BemProceedingsoftheEMNLP2014WorkshoponArabicNaturalLanguageProcessing(ANLP)},\mbox{\BPGS\196--206},Doha,Qatar.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn-EtAl:2007:PosterDemo}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\177--180},Prague,CzechRepublic.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn-och-marcu:2003:HLTNAACL}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemHLT-NAACL2003:MainProceedings},\mbox{\BPGS\127--133},Edmonton,Alberta,Canada.\bibitem[\protect\BCAY{Koehn\BBA\Schroeder}{Koehn\BBA\Schroeder}{2007}]{Koehn:DomainAdaptation2007}Koehn,P.\BBACOMMA\\BBA\Schroeder,J.\BBOP2007\BBCP.\newblock\BBOQExperimentsinDomainAdaptationforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\224--227},Prague,CzechRepublic.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo-yamamoto-matsumoto:2004:EMNLP}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsofEMNLP2004},\mbox{\BPGS\230--237},Barcelona,Spain.\bibitem[\protect\BCAY{Matsoukas,Rosti,\BBA\Zhang}{Matsoukaset~al.}{2009}]{matsoukas-rosti-zhang:2009:EMNLP}Matsoukas,S.,Rosti,A.-V.~I.,\BBA\Zhang,B.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeCorpusWeightEstimationforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\708--717},Singapore.\bibitem[\protect\BCAY{森下\JBA赤部\JBA波多腰\JBAG.\JBA吉野\JBA中村}{森下\Jetal}{2016}]{Morishita:ParsingAdaptation2016j}森下睦\JBA赤部晃一\JBA波多腰優斗\JBAG.Neubig\JBA吉野幸一郎\JBA中村哲\BBOP2016\BBCP.\newblock統語ベース翻訳のための構文解析器の自己学習.\\newblock\Jem{自然言語処理},{\Bbf23}(4),\mbox{\BPGS\353--376}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,\protect\mbox{Kurohashi},\BBA\\mbox{Isahara}}{Nakazawaet~al.}{2016}]{Nakazawa:ASPEC2016}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,\protect\mbox{Kurohashi},S.,\BBA\\mbox{Isahara},H.\BBOP2016\BBCP.\newblock\BBOQASEPC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe10th\mbox{Edition}oftheLanguageResourcesandEvaluationConference(LREC-2016)},Portoroz,Slovenia.\bibitem[\protect\BCAY{Och}{Och}{2003}]{Och:2003:ACL}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\160--167},Sapporo,Japan.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\311--318},Philadelphia,Pennsylvania,USA.\bibitem[\protect\BCAY{Sennrich}{Sennrich}{2012}]{sennrich:2012:EACL2012}Sennrich,R.\BBOP2012\BBCP.\newblock\BBOQPerplexityMinimizationforTranslationModelDomainAdaptationinStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\539--549},Avignon,France.\bibitem[\protect\BCAY{Sennrich,Schwenk,\BBA\Aransa}{Sennrichet~al.}{2013}]{sennrich-schwenk-aransa:2013:ACL2013}Sennrich,R.,Schwenk,H.,\BBA\Aransa,W.\BBOP2013\BBCP.\newblock\BBOQAMulti-DomainTranslationModelFrameworkforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\832--840},Sofia,Bulgaria.\bibitem[\protect\BCAY{Snover,Dorr,Schwartz,Micciulla,\BBA\Makhoul}{Snoveret~al.}{2006}]{Snover:TER2006}Snover,M.,Dorr,B.,Schwartz,R.,Micciulla,L.,\BBA\Makhoul,J.\BBOP2006\BBCP.\newblock\BBOQAStudyofTranslationEditRatewithTargetedHumanAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe7thBiennialConferenceoftheAssociationforMachineTranslationintheAmericas(AMTA-2006)},\mbox{\BPGS\223--231},Cambridge,Massachusetts,USA.\bibitem[\protect\BCAY{Yu,Huang,Mi,\BBA\Zhao}{Yuet~al.}{2013}]{yu-EtAl:2013:EMNLP}Yu,H.,Huang,L.,Mi,H.,\BBA\Zhao,K.\BBOP2013\BBCP.\newblock\BBOQMax-ViolationPerceptronandForcedDecodingforScalableMTTraining.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1112--1123},Seattle,Washington,USA.\end{thebibliography}\begin{biography}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年〜2014年日本電信電話株式会社.1995年〜1998年NTTソフトウェア株式会社.2000年〜2006年ATR音声言語コミュニケーション研究所.2014年より(株)ATR-Trek所属として,国立研究開発法人情報通信研究機構(NICT)へ出向.現在NICT先進的音声翻訳研究開発推進センター主任研究員.主として自然言語処理技術の研究・開発に従事.博士(工学).電子情報通信学会,情報処理学会,言語処理学会,ACL各会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学)取得.1982年〜1991年(株)日本アイ・ビー・エム東京基礎研究所研究員.1992年〜2009年国際電気通信基礎技術研究所研究員.主幹研究員.室長.2007年〜現在国立研究開発法人情報通信研究機構(NICT)先進的音声翻訳研究開発推進センター(ASTREC)副センター長.2016年NICTフェロー.機械翻訳の研究に従事.}\end{biography}\biodate\end{document}
V30N04-03
\section{はじめに} \label{sec:intro}近年,深層学習に基づく言語モデルは左右の文脈から単語の穴埋めをしたり\cite{devlin-etal-2019-bert},テキストからテキストを生成したり\cite{Raffel2020t5},次に続く単語を予測したり\cite{BrownGPT3NEURIPS2020_1457c0d6}して訓練することで,多くの自然言語処理タスクにおいて高性能を出せるような汎用的な表現を得ることができる.また,このようなモデルを元にファインチューニングを行うことで,数量推論のような複雑な処理が必要だと思われる問題においてもある程度高い性能を出せることが知られている\cite{geva-etal-2020-injecting}.数量推論の例を以下に示す.\begin{quote}Q.ジョンは5本ペンを持っていて、そのうち3本をマリーにあげた。ジョンは今ペンを何本持っている?A.2本\end{quote}このような問題に答えるためには,モデル内で「5」や「3」といった数や「あげる」という行為の意味を理解し,$5-3=2$という処理を行う必要がある.「数」は実社会の至る所に存在しているため数を用いて推論することは世界理解や経済的な知的活動のためにも必要不可欠であり,このようなモデルは実用的にも有用である\cite{thawani-etal-2021-representing,chen-etal-2019-numeracy}.では,そもそも言語モデルはどの程度数値計算ができるのだろうか.先ほどの例を以下のように単純化すると,純粋な数値計算能力を問う問題となる.\begin{quote}Q.$5-3=?$A.2\end{quote}複数の先行研究では線形代数や初等数学のような数値計算のタスクを通じて言語モデルが持つ潜在的な能力を測っており\cite{saxton2018analysing,Francois:2021},現在のモデルによって解ける問題や解けない問題の性質が分かりつつある.言語モデルの数学的な能力を調査することは数量推論時に必要な数値計算能力を調査できるという意味で実用上役立つだけでなく,ニューラルネットワークの記号処理能力を理解するという科学的な興味にも繋がる.一方で,モデルがこのような問題を解く際,その内部で何が行われているかについての研究はほとんど行われていない.しかし,モデルの能力をよりよく理解するためには,入出力の結果だけでなくその内部での処理を分析することも非常に重要だと考えられる.内部処理を明らかにすることはモデルの解釈可能性を向上させ,実用的にはエンジニアやユーザが数量推論モデルをより信頼できるようにすることができる.また,科学的視点からは,ニューラルネットワークの記号処理能力を入出力を分析するだけでは判断できない部分まで詳細に理解することが可能になる.例えば,モデルはヒューリスティックではなく本当に数学的能力を獲得できているのか,すなわち汎化できているのかという議論\cite{Razeghi-etal-2022,patel-etal-2021-nlp}に対して新しい角度から証拠を提示することができる.モデル内部での処理を分析するため,本研究では数式とその\textbf{途中結果}に着目する.我々人間が$54-((258+314)-(143-96))$のような数式を解く時,まず$258+314=572,143-96=47$を計算して,次は$572-47=525$を計算して,というような\textbf{途中結果}を介した複数ステップに及ぶ推論を行っている.途中結果は任意の長さの数式を徐々に簡単化し,最終的な答えを出すための非常に重要な要素である.では,モデルはこのような途中結果を介した推論を行っているのだろうか?これを検証するためには,(a)モデル内部に途中結果が保存されていること(b)保存されているだけでなく,途中結果がモデルに使用されていることを示せば良いと考えられる.これを調べるため,本研究では数式が解けるモデル(これをニューラル数式ソルバーと呼ぶ)中の内部表現と数式の途中結果の相関関係,そして因果関係を分析する手法を提案する.本手法の概要を図~\ref{fig:overview}に示す.まず四則演算を学習したTransformer\cite{NIPS2017_3f5ee243}の内部状態から主成分分析を用いて途中結果と相関の高い,すなわち途中結果を符号化しているような方向を抽出したのち,その部分のアクティベーションを連続的に操作してモデルの予測結果が意図したように変化するかを観察する\footnote{先行研究にならい,本研究における``アクティベーション''は隠れ層のベクトルの要素の値だと定義する.}.これによって,途中結果を符号化している部分がモデルの推論に与える因果的な影響を調査する.その結果,途中結果を符号化しているような方向の中には実際にモデルの推論時にも途中結果としてはたらくものがあることを発見し,モデルが途中結果を介した推論を行っている因果的な証拠を示した.また,相関が高くてもモデルの推論には使用されていない方向も確認されたため,モデルの内部を分析する際に因果的な関係を調査することの重要性を示唆する結果となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f1.pdf}\end{center}\hangcaption{途中結果の追跡(Tracing)と操作(Manipulation)の概要.Tracing(上部)ではPCAを用いて,数式中の途中結果と相関が高いモデル内の方向を追跡する.Manipulation(下部)では,Tracingで追跡された方向に沿ってアクティベーションの操作が行われたモデル(操作済みモデル)のモデル予測の変化を観察する.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文の貢献は,言語モデルが数学的な問題を途中結果を保存,使用しながら解いていることを明らかにした点である.また,数学的な問題を解く際のモデルの内部処理を詳細に分析できる手法を提案した,ということ自体も貢献である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:realted_work}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{言語モデルと数値}言語モデルの数学的能力を調査することは科学的にも実用的にも興味深い研究課題である.科学的な立場から見れば,数学的な問題を通してニューラルネットワークの数値計算や記号処理に対する能力を調査,あるいは向上させることに繋がる.また実用的にも数を用いて推論することは常識を理解するために重要であり,特に科学論文や財務文書をモデル化する際などに有用である\cite{thawani-etal-2021-representing}.そのような背景から,言語モデルの数学的能力を調査,あるいは向上させる研究は一定数存在する.そのためのデータセットとして,Hosseiniら\cite{hosseini-etal-2014-learning}は足し算と引き算が必要となる文章題のデータセットを作成した.また,Duaら\cite{dua-etal-2019-drop}はより複雑な文書読解や常識が必要となるような数量推論のベンチーマークDROPを作成した.最近ではMishraら\cite{Mishra2022Lila}によって多様な数学的能力を統一的に評価できるベンチマークLiLAが提案された.同様に,数学的な問題を言語モデルに解かせる手法も複数提案されている.このようなタスクに対し,言語モデルの元々の学習目的を利用し,``$2+3=[MASK]$''から穴埋めを行うようなマスク言語モデルベースの手法\cite{piekos-etal-2021-measuring}や,``$2+3=$''から``$5$''を生成させるような手法\cite{geva-etal-2020-injecting}によって数量推論タスクの性能が向上することが示されている.また,GPT-3\cite{BrownGPT3NEURIPS2020_1457c0d6}のような大規模自己回帰型言語モデルは追加学習をしなくても,簡単な演算はできることが観察されている.さらに,数値計算に特化させたTransformerは初等数学や線形代数といったより複雑な記号推論の問題をある程度解けることも示されている\cite{saxton2018analysing,Francois:2021}.彼らの知見に基づき本研究では,モデルに解ける問題として四則演算を取り上げる.多くの先行研究ではどのような数学的問題が解けるかという点に注目しているが,モデルの振る舞いについて注目している研究も存在する.Razeghiら\cite{Razeghi-etal-2022}はGPT-3の数量推論における精度が事前学習時に含まれる項の頻度と相関があることを示した.また,Patelら\cite{patel-etal-2021-nlp}は数量推論モデルのアテンションを定量的に観察し,モデルが浅いヒューリスティックに依存している可能性を示唆した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{モデル内部の分析}モデルの内部表現にどのような情報が符号化されているかについては,近年高い関心が集まっている.このような研究の多くはプロービングの文脈で行われているが\cite{jawahar-etal-2019-bert,raganato-tiedemann-2018-analysis,hewitt-manning-2019-structural},Shibataら\cite{shibata-etal-2020-lstm}は本研究と似た手法で実験を行っている.彼らは形式言語で訓練した言語モデルを分析して,形式言語の深さと高い相関を持つアクティベーションの存在を示した.Liuら\cite{liu2022towards}らは汎化したモデルの内部はタスクの構造を反映している表現となっていることを理論的に示し,単純な足し算や剰余演算のトイデータセット上で実験的にも示した.一方で,例えプロービング等の手法である情報がモデル内部で符号化されていると示せても,その情報がモデルの推論時に使われていること,すなわち因果関係までは示せない\cite{lovering2021predicting}.因果関係を示すには,モデルの内部表現に対して因果的介入を行う必要がある.内部表現に対する介入としては単語ベクトルの上位主成分を削除する\cite{mu2018allbutthetop},分類器を用いて特定の方向を繰り返し削除する\cite{ravfogel-etal-2020-null}などがある.Elzarら\cite{elazar-etal-2021-amnesic}はINLP\cite{ravfogel-etal-2020-null}という手法を用いてプロービングによって抽出できる言語的特徴は必ずしもモデルの推論には使われていないことを明らかにし,内部表現への因果的介入を行う重要性を示した.本研究ではモデルの隠れ層を分析対象として,途中結果の情報を符号化している部分を抽出し,アクティベーションを\textbf{連続的に}変化させることで抽出された情報がモデルの推論に使用されているかについて粒度の細かい因果的介入を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{手法} \label{sec:method}本節では図~\ref{fig:overview}に示した本研究の提案手法について記述する.まず,$+$と$-$,そして()を含む様々な複雑度の四則演算のデータを自動的に生成し,図~\ref{fig:pre_training}に示すようにTransformerを訓練する\footnote{本研究ではできる限り単純な設定かつ途中結果の保存が求められるようなデータとして,加減算のみからなる数式を学習・分析対象とする.}.次に,下記に示す2つの方法でモデルの内部状態と数式の途中結果の関係を調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f2.pdf}\end{center}\hangcaption{数式によるモデルの学習のイメージ.数式はトークン化され,数式の答えを回帰する(実際の出力は0から1の間に正規化される).}\label{fig:pre_training}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{途中結果の追跡(Tracing)}数式(入力)を変化させると,出力と同時に隠れ層の表現も変化する.では,この表現は数式中の途中結果とどのような関係があるのだろうか.\ref{sec:intro}節で述べたように,人間は途中結果を介した推論を行うことで複雑な数式も解くことができる.すなわち,途中結果とは数式を解く上で非常に重要な要素だと考えることができる.ここで汎化したモデルの表現空間はタスクの特徴を捉えたような構造になる\cite{liu2022towards}ことを考慮すると,モデルが四則演算に対して汎化し,数学的能力を獲得しているのであれば数式中の途中結果は表現空間になんらかの形で符号化されているはずである.本研究では一番単純な符号化の形として,表現空間中の特定の方向と途中結果の関係を調べる.まず,モデルの各層に対してその表現空間中で支配的な方向を見つける.モデルの$l$層目,$j$番目のトークンにおける表現$h^{l}_{j}$を全て横に結合した表現$H^l=h^{l}_{1}\oplush^{l}_{2}\oplus\cdots\oplush^{l}_{n}$に対して主成分分析(PCA)を行うことで,主成分$p^{l}_{k},k\in[1,...,K]$を得ることができる.$n$は入力列の長さを表す\footnote{本研究では$K=10$とした.}.データセット中のあるインスタンス$i$に対してこのPCAモデルを適用すると,各主成分の重み$p^{l}_{i,k}$を得ることができる.次に,数式中の途中結果$R^{j}_{i}$と各主成分$p^{l}_{k}$の重みの相関$\mathbf{corr}(R^{j}_i,p^{l}_{i,k})$を測る.これを各層における全ての途中結果と主成分の直積に対して行うことで,ある途中結果と最も相関の高い主成分である\textbf{最大相関方向}$\hat{p}^l_k(R^{j}):=\mathbf{argmax}_k(\mathbf{corr}(R^{j}_i,p^{l}_{i,k}))$を得る.仮に最大相関方向の相関が十分高ければ,対応する途中結果を符号化していると考えることができる.例えば,図~\ref{fig:overview}のイメージは$a-(b-c)$という数式における途中結果$a$や$b-c$の値がある層のある主成分に符号化されていることを表す.この手法ではある位置で局所的な符号化がなされているかを見ることはできないが,本研究ではまず表現のどこかで途中結果が符号化されているかどうかを確かめることを主眼に置くため,全てのトークンにおける表現$H^l$を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{途中結果の操作(Manipulation)}本節では,Tracingによって得られた最大相関方向がモデルの推論に使用されているのかを検証するため,モデルに対して因果的介入を行う.具体的には図~\ref{fig:overview}下部に示すように,主成分に沿ってモデルのアクティベーションを操作し,それによるモデルの予測結果の変化を観察する.定式化して表すと,$l$層目の表現$H^l$に対して次の式に基づいて主成分$p^l_k$の重みを$r$倍することで,操作後の表現$H^{l^\prime}$を得る.\begin{align}H^{l^\prime}\leftarrowH^l+(r-1)\left({p^{l}_k}^{\top}H^l\right)p^l_k\end{align}直観的には$r$を変化させることで主成分$p^l_k$に沿ってアクティベーション$H^l$が移動し,それに伴ってモデルの予測結果も変化する.もし最大相関方向$\hat{p}^l_{k}(R^j)$が因果的にも途中結果$R^j$を符号化しているのであれば,${p}^l_{k}$の重みを動かすことは数式の途中結果$R^j$を動かすことに対応していると考えられる\footnote{例えば,$a-(b-c)$という数式において$a$の値と非常に相関が高い最大相関方向$p^l_k$が追跡されたとする.ここで,$43-(50-20)$という入力に対して$p^l_k$の操作を行って推論結果が$13$から$19$に変わったとすると,これはモデル中の$a=43$の表現が$49$に変わっためだと仮定することができる.}.すなわち,$R^j_i=f(p^{l}_{i,k})$となるような関数$f$を定義できる.この時,逆関数を取ることで途中結果から主成分の重みを予測する関数$f_p=f^{-1}$を定義することができる.「$\hat{p}^l_{k}(R^j)$が因果的にも途中結果$R^j$を符号化している」という仮説を検証するためには,この$f_p$が正しいかを確かめれば良い.すなわち,実際に入力項を変更した際の最大相関方向$\hat{p}^l_{k}(R^j)$の重みを$p^l_{i,k}=f_a(R^j_i)$のように表せる実測関数$f_a$と$f_p$を比較して確かめる.具体的な操作は\ref{subsec:manipulation_result}節にて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \label{sec:experiment_setting}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}足し算と引き算,括弧を含む四則演算のデータをテンプレートから自動生成する.数式はAlgorithm~\ref{alg:generate}で表される木構造を模した関数\textit{GENERATE}を再帰的に呼び出すことで生成される.各数式の計算木の深さは最大で5である.学習データと検証データのサイズはそれぞれ19万と1万であり,数式の各項$x$の大きさは$0<x<1000$な整数である.生成された数式データの例を表~\ref{tab:generated_formula}に示す.全データにおける数式の種類は87797種類である.また,内部状態の解析のために,項を$100\lex<1000$と3桁に揃えた5000個の数式を用意した.\ref{subsec:tracing_result},\ref{subsec:manipulation_result}節で使用したデータセットの例を表~\ref{tab:analysis_example}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.1\begin{algorithm}[b]\caption{数式の生成}\label{alg:generate}\begin{algorithmic}[1]\Function{generate}{$depth$}\Stateleaf\_p$\gets$0.4\StateMaxDepth$\gets$5\If{random()$\leq$leaf\_p\text{or}depth$\geq$MaxDepth}\State$N\gets$random(0,1000)\State\ReturnLeaf(N,1)\EndIf\Statechildren$\gets$[generate(depth+1),generate(depth+1)]\Stateoperator$\gets$random.choice(['+','-'])\State\ReturnNode(operator,children,depth+1)\EndFunction\end{algorithmic}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{02table01.tex}%\caption{訓練に使用した四則演算データセットの例}\label{tab:generated_formula}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{02table02.tex}%\caption{分析用に数式の形,桁数を揃えた四則演算データセットの例}\label{tab:analysis_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{モデル}本研究ではTransformerモデルとしてPoorMan'sBERT\cite{sajjad2021effect}を使用する.これはBERT\cite{devlin-etal-2019-bert}の6層分を使用したモデルで,[CLS]トークンから線形回帰を行う.このモデルは通常のTransformerよりも層数が少ないため,性能を落とさずに学習時間を短縮することができる.本研究では,答えが数という連続値になる数式を解く最も単純な設定として回帰を採用した.BERTを用いた数量推論で有効であることが示されている先行研究\cite{geva-etal-2020-injecting}に従い,入力中の数字は1桁ごとにトークン化する.例えば,``$123$''という数字は$1,\#\#2,\#\#3$にトークン化される.出力はニューラルネットワークで回帰問題を解く際の一般的な設定にならい,各数式の答え$x_{i}$を正規化した数を用いる.すなわち,教師データとしては実際の答え$x_{i}$ではなく以下の式で正規化された数$x_{i}^{\prime}$が使用される.\begin{align}x_{i}^{\prime}=\frac{x_{i}-\min_i(x_{i})}{\max_i(x_{i})-\min_i(x_{i})}\end{align}また,学習にはミニバッチ学習を採用し,[PAD]トークンを用いて系列長を同一に揃える.モデルの詳しい学習設定は表~\ref{tab:hyper_parameter}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{02table03.tex}%\caption{ハイパーパラメータの一覧}\label{tab:hyper_parameter}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{モデルの学習}前述のモデルを上述のデータセットで訓練し,検証セットで回帰を行った結果を図~\ref{fig:regression_result}に示す.図~\ref{fig:regression_result}から,このモデルは高い回帰性能を発揮していることがわかる.つまり,異なるパターンの数式を並列に学習させても正しい答えを出力することができている.次節では,ここで学習したモデルに対して途中結果の追跡,操作を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f3.pdf}\end{center}\hangcaption{数式で学習したモデルによる回帰結果(モデル予測値は正規化された出力を戻している).モデルは高い精度で数式を解くことができる.}\label{fig:regression_result}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f4.pdf}\end{center}\caption{主成分$p^{2}_{3}$の重みと$a-(b-c)$における途中結果$b-c$の値の関係.非常に高い相関が見られる.}\label{fig:pca_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結果} \label{sec:results}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{途中結果の追跡(Tracing)}\label{subsec:tracing_result}今回は,途中結果を介した複数ステップの推論が必要だと思われる数式の中でできるだけ簡単な$a-(b-c)$,$(a-b)-(c-d)$の2種類を分析の対象とする.本実験において,Tracingを行うトークン数は訓練時と同じく$n=100$とする.まず,$a-(b-c)$という数式での結果を示す.例として$p^{2}_{i,3}$と$b-c$の値の関係を図~\ref{fig:pca_example}に示す.図~\ref{fig:pca_example}から,途中結果の値と非常に高い相関を持つ成分が存在することがわかる.各途中結果と上位10主成分の重みの関係を測定した結果を図~\ref{fig:pca_heatmap}に示す.図~\ref{fig:pca_heatmap}から,中間層において数式中の途中結果と相関が高い最大相関方向が複数存在することがわかる.例えば,1層目の第3主成分の重みと$b$の値の相関係数は0.91,2層目の第3主成分の重みと$b-c$の値の相関係数は0.97である.ここから,数式の途中結果はモデル内部の表現空間における特定の方向に線形的,局所的に符号化されていると考えることができる.一方で図~\ref{fig:pca_heatmap}からは$p^4_1$が最終結果とほぼ1の相関を持っていることがわかり,4層目の時点で数値計算処理が終了していると推察できる.Tracingによって,このような層ごとの役割の違いも推察することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f5.pdf}\end{center}\hangcaption{$a-(b-c)$における層ごとの各主成分重みと数式の途中結果の相関関係のヒートマップ.各セルは第$k$主成分の重み(列)とある途中結果(行)との相関係数の絶対値を表す.}\label{fig:pca_heatmap}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%続いて,$(a-b)-(c-d)$という形の数式で同じ実験を行った結果を図~\ref{fig:pca_heatmap2}に示す.図~\ref{fig:pca_heatmap2}から,この数式においてもその相関が高い最大相関方向が存在することがわかる.例えば,1層目の第4主成分は$b$の値と0.97,2層目の第3主成分は$c-d$の値と0.94の相関が見られる.これらの結果から,複数の形の数式においてモデルの内部表現はその数式の特徴,すなわち途中結果を捉えたような構造になっていることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f6.pdf}\end{center}\hangcaption{$(a-b)-(c-d)$における層ごとの各主成分重みと数式の途中結果の相関関係のヒートマップ.各セルは第$k$主成分の重み(列)とある途中結果(行)との相関係数の絶対値を表す.}\label{fig:pca_heatmap2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{途中結果の操作(Manipulation)}\label{subsec:manipulation_result}まず,数式$617-(555-602)$とその途中結果$b-c=-47$を例に取り,Manipulationを行う.\ref{subsec:tracing_result}節から,数式$a-(b-c)$において,最大相関方向$\hat{p}^{2}_{3}(b-c)$は0.97という高い相関を持つ.ここで,$p^2_{3}$に沿ってモデルのアクティベーションを操作すると,%%%%モデルの予測結果は図~\ref{fig:manipulate_result_change}に示されるように,モデルの予測結果は図~\ref{fig:manipulation}(1)に示されるように,元の予測結果(664)から約$-1000$~$2000$まで変化することがわかる\footnote{わかりやすさのため,これ以降モデルの予測結果は正規化を戻した値を表記する.}.本研究では,Manipulation後の主成分の重みが5000個の同形データにおける重み$p^l_{i,k}$に対し,$min(p^l_{i,k})\times1.5$から$max(p^l_{i,k})\times1.5$の範囲を超えないように変化量$r$を調整した.この時,予測結果の変化をモデル内の途中結果$b-c$の表現を変えたものによるものだと仮定すると,%%%%図~\ref{fig:manipulate_result_change}の右軸を得ることができ,図~\ref{fig:manipulation}(1)の右軸を得ることができ,軸を反転することで$p^{2}_{i,3}=f_p(b-c)$となるような関数$f_p$が得られる.この予測関数$f_p$を,実際に$b-c$の値を変化させた時の重みを$p^{2}_{i,3}=f_a(b-c)$と表せるような実測関数$f_a$と比較した結果を%%%%図~\ref{fig:compare_predict_and_actual_component}に示す.図~\ref{fig:manipulation}(2)に示す.%%%%図~\ref{fig:compare_predict_and_actual_component}から,図~\ref{fig:manipulation}(2)から,予測関数$f_p$と実測関数$f_a$の傾向は概して一致しており,特に元データの周りでは一致度が高いことがわかる.これは,$\hat{p}^{2}_{3}(b-c)$が$b$の値を一定の範囲では因果的にも符号化している証拠だと考えることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{30-4ia2f7.pdf}\end{center}%%%%\label{fig:manipulate_result_change}%%%%\label{fig:compare_predict_and_actual_component}\caption{$\hatp^{2}_{3}(b-c)$に対するManipulationの結果.影の部分はデータセット中に現れない重みの範囲を表す.}\label{fig:manipulation}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{30-4ia2f8.pdf}\end{center}%%%%\label{fig:manipulate_result_change2}%%%%\label{fig:compare_predict_and_actual_component2}\caption{$\hatp^{4}_{2}(b)$に対するManipulationの結果.影の部分はデータセット中に現れない重みの範囲を表す.}\label{fig:manipulation_p4_2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,相関は高いが実測関数と一致しないような成分も存在する.例えば,$\hat{p}^{4}_{2}(b)$は$b$と0.86の高い相関を持つが,この方向に対して同じインスタンスでManipulationを行った結果は図~\ref{fig:manipulation_p4_2}のようになる.図~\ref{fig:manipulation_p4_2}からは,$\hat{p}^{4}_{2}(b)$がモデル内で線形かつ局所的に$b$の値として使用されているわけではないことが読み取れる.定量評価として,同じ実験を異なる値を持つ$a-(b-c)$の1000インスタンスで行った時の$|f_p(b-c)-f_a(b-c)|$の中央値を図~\ref{fig:manipulation_quantity}に示す.平均値でなく中央値を採用したのは,誤差が大きい少数のインスタンスに全体としての結果が引っ張られないようにするためである.$f_a,f_p$についてはどちらも最小二乗法による4次近似で点間を補完している\footnote{$f_p$は多価関数になる可能性があるが,その際も同様の近似手法を用いている.}.図~\ref{fig:manipulation_quantity}から,$\hat{p}^{2}_{3}(b-c)$と比べると$\hat{p}^{4}_{2}(b)$は誤差が非常に大きいことがわかる\footnote{$\hat{p}^{2}_{3}(b-c)$の誤差は最大で10程度だが,$\hat{p}^{4}_{2}(b)$では1000以上にもなることが見て取れる.}.ここから,特に元データの近辺では$\hat{p}^{2}_{3}(b-c)$が$b-c$の値を因果的に符号化していること,$\hat{p}^{4}_{2}(b)$は$b$の値と相関は高いがモデルの推論に$b$として使われているわけではないことが定量的にも観察される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[b]\begin{center}\includegraphics{30-4ia2f9.pdf}\end{center}%%%%\label{fig:manipulation_quantity_l2k3}%%%%\label{fig:manipulation_quantity_l4k2}\hangcaption{1000個の$a-(b-c)$のデータに対して重みの操作を行った際の誤差$|f_p(b-c)-f_a(b-c)|$の中央値.横軸は操作前のインスタンスにおける$b-c$の値からどれほど離れた値で誤差の測定を行ったかを表す.}\label{fig:manipulation_quantity}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{30-4ia2f10.pdf}\end{center}%%%%\label{fig:manipulate_result_changel2k3c-d}%%%%\label{fig:compare_predict_and_actual_componentl2k3c-d}\hangcaption{数式$(a-b)-(c-d)$について,$\hatp^{2}_{3}(c-d)$に対するManipulationの結果.影の部分はデータセット中に現れない重みの範囲を表す.}\label{fig:manipulation_quality4args}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%$(a-b)-(c-d)$の数式においても同じくManipulationを行う.$(524-539)-(609-793)$という数式を元データとして,$\hat{p}^{2}_{3}(c-d)$に対してManipulationを行った結果を図~\ref{fig:manipulation_quality4args}に示す.%%%%図~\ref{fig:compare_predict_and_actual_componentl2k3c-d}から,図~\ref{fig:manipulation_quality4args}(2)から,$c-d$が$-250$から$600$の範囲では$f_a(c-d)$と予測関数$f_p(c-d)$は一致度が高く,$p^2_3$が$c-d$の値を因果的に符号化していることがわかる.同じ形を持つ1000個の数式データでManipulationを行った際の誤差中央値を図~\ref{fig:manipulation_quantity_l2k3_c-d}に示す.図~\ref{fig:manipulation_quantity_l2k3_c-d}から複数の数式で定量的に見ても,元データの周りでは特に誤差が少なく,$p^2_3$が$c-d$の値を因果的に符号化していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f11.pdf}\end{center}\hangcaption{1000個の数式$(a-b)-(c-d)$に対して重みの操作を行った際の誤差$|f_p(c-d)-f_a(c-d)|$の中央値.}\label{fig:manipulation_quantity_l2k3_c-d}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{議論} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エラー分析}Manipulationを行った際の予測関数$f_p$と実測関数$f_a$の誤差にはインスタンスごとにバラつきがある.では誤差が大きいインスタンス(元データ)にはどのような性質があるのだろうか.\ref{subsec:manipulation_result}節の結果と同様に$(a-b)-(c-d)$という数式の$\hatp^{2}_{3}(c-d)$に対してManipulationを行った際,誤差平均値が最も大きかった2インスタンスの結果を図~\ref{fig:manipulation_failure}に示す.図~\ref{fig:manipulation_failure}に示した例における共通点は,どちらも$c-d$の値が0に近いことである.1000インスタンスにおける元データの$c-d$の値とManipulation結果の誤差平均値の関係を図~\ref{fig:intermed_value-error}に示す.図~\ref{fig:intermed_value-error}から途中結果$c-d$の値が0に近いほど誤差が大きい傾向にあることがわかるが,この結果は学習データの分布に起因するものだと推察することができる.モデルの学習において項は0から1000までの整数からランダムで選ばれる.この時,ランダムな2項の引き算$a-b$の値の分布は図~\ref{fig:rand_sub_distribution}のようになる.図~\ref{fig:intermed_value-error},\ref{fig:rand_sub_distribution}はどちらも0付近で値が大きくなり,類似した形となっていることが見てとれる.ここから,図~\ref{fig:manipulation_failure}に示したような例でManipulationが失敗するのは$c-d$が0付近となるようなインスタンスが学習データ中に多く存在するため,その周りでの内部表現は過学習されたものとなっているためではないかと考えることができる.これは,ニューラル数式ソルバーの性能が学習データ中の頻度に依存するという先行研究\cite{Razeghi-etal-2022}の結果とも関連する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f12.pdf}\end{center}%%%%\label{fig:compare_predict_and_actual_component312}%%%%\label{fig:compare_predict_and_actual_component116}\caption{Manipulationを行った際,誤差$|f_p(c-d)-f_a(c-d)|$が大きくなる例.}\label{fig:manipulation_failure}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.13\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f13.pdf}\end{center}\caption{$(a-b)-(c-d)$における$c-d$の値とManipulation誤差の関係.}\label{fig:intermed_value-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f14.pdf}\end{center}\caption{ランダムな2項の引き算$a-b$の値の分布.}\label{fig:rand_sub_distribution}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本研究の限界}本研究で用いた手法や設定には複数の制限や限界がある.本研究で用いたデータセットは足し算と引き算,かっこのみから構成されており,この狭いスコープで観察されたことがどこまで一般化できるかについては疑問が残る.より複雑度を上げるためにはかけ算や割り算,剰余などの演算子を導入することが考えられるが,特にかけ算を導入した場合は回帰の設定で訓練を行っていることもあり,答えの分布が疎になってしまうことに留意するべきである.また,本研究では直接数式の答えの大きさを予測する回帰の設定で行っているが,\ref{sec:realted_work}節で述べた数量推論の研究の多くは生成やマスク穴埋めによって答えを出す,シンボルからシンボルへの設定で行われている.この点においても,本研究の結果を一般的な数量推論モデルに適用する際のギャップがあると考えられる.一方で,内部状態さえ取得できれば手法を適用することは可能なため,GenBERT\cite{geva-etal-2020-injecting}のような本研究で使用したデータセットと近い数式でも訓練しているモデルに対して途中結果の追跡や操作を試みることが手段として考えられる.さらに,本研究の手法は前提としてモデルの内部状態を取得できることが必要である.そのため,GPT-3のような入力と出力しか知ることができず,内部状態が公開されていないようなモデルに対してはそもそも途中結果の追跡や操作を行うことができない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conclusion}本研究では言語モデルが数値計算を行う時に内部で行っている処理を明らかにするため,数式中の途中結果に着目し追跡と操作を行った.その結果,「数値計算ができるモデル」の内部では途中結果の情報が存在し,かつその情報はモデルの推論時にも使われていることを解明した.本研究の手法はアクティベーションを連続的に変化させることでモデルに対して詳細な因果推論を行うこと自体も貢献である.今後の方向性としては,本研究の知見を他のデータセット,あるいは他の設定でのモデルに適用して同様に数値計算能力を調査し,TracingとManipulationの分析道具としての有用性を示すといったことが考えられる.また,さらに複雑な数式を分析対象とし,符号化される時とされない時の違いを調査するといったことも考えらえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSTCRESTJPMJCR20D2,JSPS科研費21K17814の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{松本悠太}{%2021年東北大学工学部電気情報物理工学科卒業.2023年同大学院修士課程修了.同年,株式会社リクルートに機械学習エンジニアとして入社.}\bioauthor[:]{BenjaminHeinzerling}{%BenjaminHeinzerlingisapostdoctoralresearcheratRIKENAIPandTohokuUniversityinSendai,Japan.Hisresearchinterestsincludetheanalysisofworldknowledgeinlanguagemodels,linkingtextsandknowledgebases,andmultilingualsubwordmethods.HeholdsaPhDdegreeinComputationalLinguisticsfromHeidelbergUniversity,Germany.}\bioauthor{吉川将司}{%2020年奈良先端科学技術大学院大学先端科学技術研究科情報科学領域博士課程修了.同年,東北大学助教.}\bioauthor{乾健太郎}{%東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V08N03-05
\section{はじめに} \label{sec:introduction}よく知られているように,人間が英語を日本語に翻訳するとき,英語の代名詞を日本語の代名詞としては表現せず,ゼロ代名詞化したり他の表現に置き換えたりすることが多い.これに対して,従来の英日機械翻訳システムでは,多くの場合,英語の代名詞はそのまま日本語の代名詞に訳される.このように代名詞を直訳すると,英文が伝えている意味と異なる意味を伝える訳文が生成されたり,文意は同じでも不自然で読みにくい訳文が生成されてしまうという問題が生じる.従って,品質の高い英日機械翻訳システムを実現するためには,ゼロ代名詞化する必要のある代名詞や他の表現に置き換えるべき代名詞を直訳しないようにすることが重要な課題となる.直訳すべきでない代名詞を認識することは一見単純であるように思えるが,ゼロ代名詞化や他の表現への書き換えには様々な要因が絡んでいるため,代名詞を直訳してもよい場合とそうでない場合をどのように区別すればよいかはそれほど自明なことではない.なお,本稿では,紛れない限り,人称代名詞と限定的機能を持つ所有代名詞\cite{Quirk85}を単に代名詞と呼ぶ.ゼロ代名詞化に関する工学的な研究は,滑川ら\cite{Namekawa99}や宮ら\cite{Miya00}による報告がある程度で,これまであまり行なわれていない.宮らの方法では,機械翻訳システムの出力文から代名詞を消すかそのまま残すかの二値の判定が,代名詞とそれに付属する助詞の表記に着目して人手で記述した規則に基づいて行なわれる.しかし,二値の判定では次の文(J\ref{SENT:scold})のような場合に適切に対処できない.文(J\ref{SENT:scold})には,``she''が``Mary''を指しているという文(E\ref{SENT:scold})の文意を伝えないという問題がある\cite{Kanzaki94}.この問題に対処するために,文(J\ref{SENT:scold})から「彼女」を消すと「家を出る」の主語が「メアリー」であるのか「ジョン」であるのかが曖昧になるという問題が新たに生じる.主語の曖昧さが生じるのを抑え,かつ文(E\ref{SENT:scold})と同じ文意を伝えるためには,文(J\ref{SENT:scold}'')のように「彼女」を「自分」に置き換える必要がある.\begin{SENT3}\sentEMaryscoldedJohnbefore{\itshe}lefthome.\sentJ彼女が家を出る前に,メアリーはジョンを叱った.\NewsentJ$\phi_{she}$家を出る前に,メアリーはジョンを叱った.\YAJ自分が家を出る前に,メアリーはジョンを叱った.\label{SENT:scold}\end{SENT3}また,代名詞をどのように書き換えるかは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,統計的帰納学習法を利用して事例集から規則を自動的に作成するほうが適切であると考えられる.このようなことから本稿では,1)代名詞を消すか残すかの二値の判定ではなく,消すか残すかあるいは他の表現に置き換えるかの多値の判定を行ない,2)規則の記述を人手で行なうのではなく,決定木学習アルゴリズムを利用して事例集から規則を自動的に作成する方法を示す.以下,代名詞を直訳するとどのような問題が生じるかを\ref{sec:problems}\,節で整理する.次に\ref{sec:decision_tree}\,節で決定木学習に簡単に触れる.\ref{sec:corpus}\,節では決定木学習に必要な正解付きコーパスの作成について述べ,\ref{sec:feats}\,節で決定木学習に使用した属性について説明する.\ref{sec:experiment}\,節では,提案手法の有効性を検証するために行なった実験の結果について考察する. \section{代名詞の日英対照比較} \label{sec:problems}英語の代名詞を日本語の代名詞に直訳したときに生じる問題として,英文では代名詞がある名詞句を指していないのに,訳文では指しているように解釈されてしまうという問題と,その逆に,英文では代名詞がある名詞句を指しているのに,訳文ではそのように解釈できないという問題がある.本節では,後者の問題について検討する.\subsection{後方照応(語順逆転)}英語では代名詞による後方照応が可能であるのに対して,日本語では基本的に不可能である\cite{Kanzaki94}.このため,次の文(E\ref{SENT:bank-cataphora})では``he''は``John''を指していると解釈されるのに対して,文(J\ref{SENT:bank-cataphora})では「彼」が「ジョン」を指しているとは解釈されない.\begin{SENT}\sentEWhen{\ithe}arrived,Johnwentstraighttothebank.\sentJ彼が着くと、ジョンは、銀行にまっすぐ行った。\label{SENT:bank-cataphora}\end{SENT}また,英語では前方照応であっても,日本語に翻訳するときに主節と従属節の順序を逆転させると,文(J\ref{SENT:bank-anaphora})のような不適格な訳文となる.文(J\ref{SENT:bank-cataphora})や文(J\ref{SENT:bank-anaphora})を適格文にするには,文(J\ref{SENT:bank-anaphora}')のように代名詞「彼」をゼロ代名詞化する必要がある.\begin{SENT2}\sentEJohnwentstraighttothebankwhen{\ithe}arrived.\sentJ彼が着くと、ジョンは、銀行にまっすぐ行った。\NewsentJ$\phi_{he}$着くと、ジョンは、銀行にまっすぐ行った。\label{SENT:bank-anaphora}\end{SENT2}後方照応は限られた条件の下でしか用いられず使用頻度も低いため,あまり問題にならないともいえるが,従来の機械翻訳システムによる処理では主節と従属節の順序の逆転は頻繁に生じるため,代名詞に対する適切な書き換えが重要となる.\subsection{総称名詞句と不定代名詞}\label{sec:problem:indef_pron}英語の代名詞は総称的に使われている名詞句を指すことができるのに対して,日本語の代名詞は総称的名詞句を指すことはできない\cite{Kanzaki94}.例えば,次の文(E\ref{SENT:indef-pron})を機械翻訳システムで処理すると,文(J\ref{SENT:indef-pron})のように翻訳される.\begin{SENT2}\sentEBythetimetheaverageAmericanreachestheageof70,{\ithe}consumes13tonsofbeef.\sentJ平均的米国人は70歳に達する時までに、彼は、13トンの牛肉を消費する。\NewsentJ平均的米国人は70歳に達する時までに、$\phi_{he}$13トンの牛肉を消費する。\label{SENT:indef-pron}\end{SENT2}文(E\ref{SENT:indef-pron})において,``theaverageAmerican''は特定の人物を指しているのではなく総称的な意味で用いられているが,``he''は``theaverageAmerican''を指していると解釈できる.これに対して,文(J\ref{SENT:indef-pron})では「彼」が「平均的米国人」を指しているとは解釈されにくい.不適格文(J\ref{SENT:indef-pron})を適格文にするには,文(J\ref{SENT:indef-pron}')のように代名詞「彼」をゼロ代名詞化しなければならない.総称名詞句と同じく,``nobody''や``everyone''などの不定代名詞も英語では代名詞によって指示されるが日本語では指示されない.従って,次の文(J\ref{SENT:everyone})は,文(J\ref{SENT:everyone}')のように,代名詞「彼」をゼロ代名詞化するかあるいは再帰代名詞「自分」に置き換える必要がある.\begin{SENT2}\sentEEveryoneloves{\ithis}mother.\sentJ全ての人は、彼の母親を愛する。\NewsentJ全ての人は、$\{\phi_{his},自分の\}$母親を愛する。\label{SENT:everyone}\end{SENT2}\subsection{伝達文の話法}\label{sec:problem:narration}英語では話法が比較的確立されており直接話法と間接話法の対立が形式上明確であるのに対して,日本語では厳密な間接話法は事実上不可能である\cite{Anzai83}.このため,英語の間接話法は,日本語では直接話法あるいはそれに近い形式で表現される.このとき,英語の代名詞を直訳すると,不適格なあるいは不自然な訳文になることがある.例えば,次の文(E\ref{SENT:narration})を機械翻訳システムで翻訳した文(J\ref{SENT:narration})は,引用符が存在しないだけで実質的には直接話法になっている.このとき,代名詞``he''を直訳することは不適切である.代名詞「彼」をゼロ代名詞化するか「私」に置き換えると,日本語として自然な文(J\ref{SENT:narration}')が得られる.\begin{SENT2}\sentEJohnsaid{\ithe}usuallygetsupat6o'clock.\sentJジョンは、彼がいつも6時に起きると言った。\NewsentJジョンは、$\{\phi_{he},私は\}$いつも6時に起きると言った。\label{SENT:narration}\end{SENT2}話法の問題は,伝達文の出現頻度が比較的低い技術文書を対象としている限りあまり生じないが,本研究では,伝達文の出現頻度が比較的高い新聞記事を主な対象としているため,被伝達部に現れる代名詞を適切に翻訳することが重要な課題となる.\subsection{theyの訳}\label{sec:problem:they}三人称複数の代名詞``they'',``their'',``them''を直訳するとき,少なくとも「彼ら」か「それら」に訳し分けなければならない.この訳し分けの手がかりになるのは共起的意味制約や照応関係であるが,従来の機械翻訳システムではこれらの手がかりが必ずしも有効に活用できていないため,訳し分けの精度は十分高いとはいえない.実際,実験に用いたシステムでは,文(E\ref{SENT:they-artists})のように``they''が人間を表わす表現を指していると考えられるときでも「それら」と訳されることが多く,次の文(J\ref{SENT:they-artists})のような不自然な訳文となる.文(J\ref{SENT:they-artists})のような翻訳では,おそらく先行文中に存在する人間を表わす表現を「それら」が指しているとは解釈されない.文(J\ref{SENT:they-artists})の主節の主語の「それら」はゼロ代名詞化すると主語の曖昧さが生じる可能性があるので,「彼ら」に置き換えなければならない.\begin{SENT2}\sentE{\itThey}gatheredtodiscusswhattodotopreventenvironmentaldestruction.\sentJそれらは、公害を防ぐために何をするかを議論するために、集まった。\NewsentJ彼らは、公害を防ぐために何をするかを議論するために、集まった。\label{SENT:they-artists}\end{SENT2} \section{決定木学習の利用} \label{sec:decision_tree}本研究では,代名詞の書き換えを実現するために,統計的帰納学習手法の一つである決定木学習を利用する.代名詞をどのようなときにどのように書き換えればよいかを決定する要因は,多岐に渡っており複雑に関連し合っていると考えられる.書き換えに関連する様々な要因を人手で明示的にかつ統一的に記述することは容易ではない.これに対して,決定木による方法では,様々な要因の統合と重要な要因の選別が自動的に行なわれる.決定木学習にはC4.5\cite{Quinlan92}を利用する.C4.5は,事例を一般化することによって決定木の形式で分類モデルを帰納的に作成する.事例は,あらかじめ定められた属性とクラスによって表現される.決定木は,クラスを表わす終端節点と,一つの属性を調べるテストに対応する非終端節点(判別節点)から成り,根節点から終端節点に向けて判別節点でのテストの結果に従って,終端節点に対応するクラスに事例を分類する.C4.5による決定木の作成は,事例の集合$T$を$n$個の部分集合に分割するテスト$X$を利得比基準に従って選択することによって行なわれる.利得比基準では,$T$をテスト$X$で分割することによって得られる情報量を,$T$を$n$個の部分集合に分割することによって得られる全情報量で割った値(利得比)を最大にするようなテスト$X$が選ばれる. \section{正解付きコーパスの作成} \label{sec:corpus}\subsection{作成の基本方針}\label{sec:corpus:policy}不適切な代名詞をどのように書き換えるべきかを人手で判断し,書き換え方を示すラベルを付与したコーパスを次のような方針で作成した.ラベルは決定木学習のクラスに対応する.\begin{enumerate}\item代名詞を書き換えるか否か,書き換える場合どのように書き換えるかは,文意の正しさはもちろん,文意の曖昧さや文の簡潔さ,自然さなどの条件も考慮に入れて決定しなければならない.これらすべての条件を満たす書き換え方が常に存在するとは限らず,いくつかの条件は満たすが他の条件は満たさないような書き換えしかできないこともある.このようなときには,文意の正しさが保たれる書き換えと文意の曖昧さが生じない書き換えを優先する.すなわち,原文の文意と訳文の文意が異なったり,原文には存在しない曖昧さが訳文で生じてしまったりするような書き換えは,たとえその書き換えによって文の簡潔さや自然さが増すとしても行なわない.\itemある代名詞をどのように書き換えればよいかは,その代名詞を含む文がどのような文脈で用いられているかを参照しなければ確定できない場合と,その文の情報だけでほぼ確実に判断できる場合がある.特に,代名詞を消すか残すかに関しては,ある特定の先行文が存在すれば消すことができる(消しても文意が曖昧にならない)が,そのような先行文が存在しなければ消すことはできない(消すと曖昧になる)ということが起こりやすい.今回のコーパス作成では,先行文が存在しないという条件の下で適切な書き換えになるようにする.\end{enumerate}\subsection{代名詞に付与するラベル}\label{sec:corpus:label}代名詞の書き換え方を示すラベルとして,[残],[消],[換(私)],[換(我々)],[換(彼ら)],[換(自分)]の六種類を設けた.ラベル[残]は,着目している代名詞を書き換えると,意味的に不適格になるか,文意の曖昧さが増すか,文の不自然さが増すときに付与する.[消]は,代名詞を消しても意味的に適格であり,曖昧さが生じず,文の自然さが増すときに付与する.[換(私)],[換(我々)],[換(彼ら)],[換(自分)]は,それぞれ,代名詞を括弧内の語(「私」など)に置き換えると意味的に適格であり,曖昧さが生じず,より自然であるときに付与する.[換]は,代名詞を消しても残しても不適切である場合に対処するために設けたラベルであり,[換(私)]と[換(我々)]は\ref{sec:problem:narration}\,節で述べた話法の問題の解決を,また[換(彼ら)]は\ref{sec:problem:they}\,節で述べた``they''の訳語の問題の解決を主に目指している.ある一つの代名詞に対して複数通りのラベル付けができることがある.例えば,「私は,彼が私を助けてくれた恩を忘れはしない.」という文において,「私を」は消しても「自分を」に置き換えてもよい.このようなときには,次の優先順位に従ってラベル付けを行なうことにした.\[[消]>[残]>[換]\]\subsection{作成された正解付きコーパスの諸元}\label{sec:corpus:spec}正解付きコーパス作成用の資料には英字新聞記事300記事を用いた.この300記事は4240文から成るが,このうち代名詞を含む文は1845文であった.この1845文を我々の機械翻訳システムで処理して得られた訳文から,代名詞の問題を除けば文法的にも意味的にも適格である文を選別し,1015文を得た.1015文には合計で1350個の代名詞が出現していたが,1015文のうち代名詞を一つだけ含む文が734文(72.3\%),二つ含む文が218文(21.5\%)と,ほとんどの文が代名詞を一つか二つ含む文であった.最も多い場合,一文に五つ含まれていた.1015文における各代名詞の出現頻度と各代名詞に付与されたラベルの分布を表\ref{tab:pron-freq-label}\,に示す.「彼」,「それ」「それら」で出現した全代名詞の75.2\%を占めている.また,「あなた」は全く出現していなかった.設定したラベルのうち「我々」への置き換えを示すラベル[換(我々)]は付与する必要がなかった.ラベル[消]や[残]の数に比べ[換]の件数が少ないが,これは\ref{sec:corpus:label}\,節で述べたラベルの優先順位を設けたことに一因がある.表\ref{tab:pron-freq-label}\,において,「それら自身」,「彼自身」,「それ自身」は再帰代名詞``{\itoneself}''の訳ではなく,``{\itone's}own''の訳であり,これらに付与されているラベル[消]は,全体を消すのではなく,それぞれ「それら」,「彼」,「それ」を消し「自身」は残すことを意味する.\begin{table}[htbp]\caption{各代名詞の出現頻度と付与したラベルの分布}\label{tab:pron-freq-label}\begin{center}\begin{tabular}{|l||r|r|r|r|r|r|r|}\hline&\multicolumn{1}{c|}{[消]}&\multicolumn{1}{|c}{[残]}&\multicolumn{1}{|c}{[換(私)]}&\multicolumn{1}{|c}{[換(我々)]}&\multicolumn{1}{|c}{[換(彼ら)]}&\multicolumn{1}{|c|}{[換(自分)]}&\multicolumn{1}{c|}{計}\\\hline\hline彼&212&263&12&0&0&19&506\\それ&161&109&0&0&0&0&270\\それら&158&22&0&0&58&1&239\\我々&28&99&0&0&0&1&128\\私&54&56&0&0&0&1&111\\彼女&21&21&1&0&0&2&45\\彼ら&1&24&0&0&0&0&25\\それら自身&7&0&0&0&3&0&10\\自分&6&2&0&0&0&0&8\\彼自身&3&0&0&0&0&0&3\\それ自身&3&0&0&0&0&0&3\\私自身&0&1&0&0&0&0&1\\それら双方共&0&1&0&0&0&0&1\\\hline&654&598&13&0&61&24&1350\\\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{計}}&(48.4\%)&(44.3\%)&(1.0\%)&(0.0\%)&(4.5\%)&(1.8\%)&(100\%)\\\hline\end{tabular}\end{center}\end{table}\subsection{正解付きコーパス作成に要する労力}決定木学習による代名詞書き換えにおける課題の一つは,代名詞に関する英日比較対照コーパスをいかにして作成するかである.現在のところ,大規模で一貫性のある正解付きコーパスはほとんど整備されていない.正解付きコーパスの作成に必要な作業は,対訳コーパスの作成と,代名詞への正解ラベルの付与の二つの作業であるが,一般にこれらは両方とも労力を要する作業である.対訳コーパスには,本研究では,人手で作成したものではなく,機械翻訳システムで作成したものを利用している.なぜならば,機械翻訳システムからの出力文に含まれる不適切な代名詞を書き換えることが本研究の目的であるため,決定木学習に必要な属性は,人間による訳文から得られる属性ではなく,機械翻訳システムによる訳文から得られる属性であるからである.このように,人手による対訳コーパスを必要としない本研究では,正解ラベルの付与の労力だけで済む.正解付きコーパスの作成に今回要した労力は,およそ1.6人月であった. \section{着目した属性} \label{sec:feats}決定木学習による代名詞の書き換えでは,学習に用いる属性としてどのような情報を取り入れるかが重要である.代名詞の書き換えには,文の情報構造(旧情報と新情報の区別)や結束性,視点なども関連している\cite{Kuno78,Kuno83,Mizutani83,Kamio85,Hinds86,Takami97}.しかし,現状の技術レベルではこれらを直接利用することは容易でないので,これらに関連し現状の技術レベルで扱える情報を利用せざるを得ない.また,日英機械翻訳などにおいてゼロ代名詞をどのようにして復元するかが課題となっており,様々な手法が提案されている\cite{Fujisawa93,Kudo93,Nakaiwa93,Dosaka94,Ehara96,Murata96,Nakaiwa96}が,これらの手法で利用されている情報も属性として有効である可能性が高い.このようなことから本稿では,書き換えに影響しうる属性として,表\ref{tab:feats}\,に示す13種類の属性に着目した.これらの属性には構文レベルのものや照応レベルのものも含まれているが,構文解析や照応解析は行なわずに,「茶筅」\cite{Matsumoto99}による形態素解析の結果に基づいて,後述する単純な方法で正解付きコーパスから求めた.表\ref{tab:feats}\,の「属性数」欄は作成した正解付きコーパスに実際に出現した属性値の数であり,「属性値」欄は値の例である.\begin{table}[htbp]\caption{着目した属性の一覧}\label{tab:feats}\begin{center}\begin{tabular}{|l|r|p{0.6\textwidth}|}\hline\multicolumn{1}{|c|}{属性名}&\multicolumn{1}{c|}{属性数}&\multicolumn{1}{c|}{属性値(一部)}\\\hline\hline\PRON&14&それ,その,それら,それら自身,それら双方共,それ自身,我々,私,私自身,自分,彼,彼ら,彼自身,彼女\\\FZKG&25&から,が,と,と共に,に,において,にとっての,には,によって,に関する,に対して,の,のうちの,のために\\\COORD&2&有,無\\\GVNRSEM&69&111,112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,130,131,132,133,未定義\\\GVNRFZKG&45&から,が,で,と,と共に,に,において,における,について,にもかかわらず,意志形,基本形,連用テ接続,連用ニ接続,連用形\\\CLSTYPE&4&主節,伝達節,従属節,対象外\\\CLSENDB&48&\Q{が},\Q{けれども},\Q{て},\Q{と,と},\Q{と,ので,て},\Q{と,ので},\Q{と,のに,と},\Q{と,連用形},\Q{と},\Q{ので},\Q{ば,連用形},\Q{連用形,て},\Q{連用形,ば},\Q{連用形,連用形},\Q{連用形},無\\\CLSENDF&65&\Q{けれども,と},\Q{て},\Q{で,と},\Q{と,て},\Q{と,と,と,連用形},\Q{と,と,ば},\Q{と,と},\Q{と,連用形,と},\Q{と},\Q{ので,と},\Q{ので},\Q{ば},\Q{連用形,と},\Q{連用形,ば},\Q{連用形},無\\\INDEFPRON&3&だれ,全て,無\\\SAMEPRONB&40&\Q{[消]我々},\Q{[消]我々,[消]我々},\Q{[消]それ},\Q{[消]それら},\Q{[残]私},\Q{[残]我々,[消]我々,[消]我々},\Q{[残]我々},\Q{[消]彼},\Q{[消]彼,[残]彼},\Q{[消]彼女},\Q{[残]彼},\Q{[残]それ},無\\\SAMEPRONF&41&\Q{[消]それ},\Q{[消]それら},\Q{[消]私},\Q{[消]我々},\Q{[消]我々,[残]我々,[換(自分)]我々},\Q{[消]彼},\Q{[消]彼,[消]彼},\Q{[消]彼女},\Q{[換(自分)]彼},\Q{[換(自分)]我々},\Q{[残]それ},\Q{[残]我々},\Q{[残]我々,[換(自分)]我々},無\\\ANAPH&4&成立,不成立,先行名詞無,文脈外\\\CONJ&15&けれども,しかし,しかしながら,そこで,そして,それでも,それに,だが,なぜなら,にもかかわらず,または,もしくは,一方,従って,無\\\hline\end{tabular}\end{center}\end{table}以下,各属性について,その属性に着目した理由と,それを文から抽出する方法について述べる.\paragraph{\PRON}表\ref{tab:pron-freq-label}\,からわかるように,適切な書き換えの傾向は代名詞毎に異なる.例えば,「それら」はほとんどの場合書き換える必要があるのに対して,「我々」や「彼ら」は書き換えられにくい.従って,代名詞の表記は書き換え方を分類する手がかりとして利用できる可能性がある.\paragraph{\FZKG}一般に,旧情報は省略されやすく,新情報は省略されにくいことが知られている\cite{Kuno78}.旧情報と新情報を区別する手がかりの一つとして助詞がある.助詞「は」には旧情報を示す一機能があり,助詞「が」には新情報を示す機能がある.このようにゼロ代名詞化は助詞の影響を受けるため,代名詞に付属する助詞の表記を属性として取り入れる.\paragraph{\COORD}次の文(J\ref{SENT:coord})における「彼」や「私」のように代名詞が等位句の構成要素になっているとき,その代名詞をゼロ代名詞化してはならない.従って,代名詞が等位句の構成要素になっているかどうかを,助詞「と」が直前に存在するかどうかで判断する.なお,「彼」が等位句の構成要素になっているかどうかは,属性「\FZKG」によって判断できる.\begin{SENT}\sentEHeandIwentthere.\sentJ彼と私は、そこに行った。\label{SENT:coord}\end{SENT}\paragraph{\GVNRSEMと\GVNRFZKG}代名詞の書き換えには,「\PRON」や「\FZKG」のような形態素語彙レベルの情報だけでなく,構文レベルの情報,例えば代名詞が係っている用言や体言に関する情報も重要である.特に用言には,待遇表現\cite{Mizutani83}や受給表現のようにゼロ代名詞を復元するために有効な情報が含まれている.これらの情報は,「伺う」や「いらっしゃる」のような動詞から得られる場合と,「致します」や「下さい」のような助動詞(相当表現)から得られる場合\cite{Kudo93,Nakaiwa96}があるが,属性「\GVNRSEM」は前者を対象とし,属性「\GVNRFZKG」は後者を対象とする.ここで,代名詞がどの用言あるいは体言に係っているかを正確に認識するためには構文解析を行なう必要がある.しかし,本稿では,次のような簡単な手順で近似的に認識する.代名詞が体言に係りうるとき,最も近い体言に係るものとし,その体言の意味標識を属性「\GVNRSEM」の値とし,その体言に付属する助詞の表記を属性「\GVNRFZKG」の値とする.代名詞が用言に係りうるときは,代名詞に付属する助詞が「は」でありその直後に読点「,」が存在するとき最も遠い用言に係るものとし,それ以外は最も近い用言に係るものとする.意味標識としては,分類語彙表\cite{NLRI84}の意味コードの上位三桁を利用する.用言あるいは体言の意味コードが分類語彙表に記述されていないとき,属性「\GVNRSEM」の値は未定義とする.\paragraph{\CLSTYPE}\ref{sec:problem:narration}\,節で述べたように,英語の間接話法の被伝達節で使用されている代名詞は,日本語では「私」などに置き換える必要がある.従って,代名詞が被伝達節に属しているかどうかが代名詞書き換えの手がかりになる.また,代名詞が属している節が被伝達節でないときでも,主節か(被伝達節以外の)従属節かの区別は有用であると考えられる.代名詞が属する節の種類についても正確な認識には構文解析が必要であるが,次のような簡単な手順で近似的に認識する.代名詞が属している節が被伝達節かどうかは,引用の助詞「と」や引用符が代名詞より文末側に存在するかどうかで判断する.代名詞が属している節が主節か従属節の判断は次のように行なう.もし,代名詞に付属する助詞が「は」でありその直後に読点「,」が存在すれば,主節に属するものとする.さもなければ,代名詞より文末側に存在する用言の数が一つだけならば主節に属するものとし,複数ならば従属節に属するものとする.ただし,この区別は代名詞が用言に係っているときにのみ行ない,体言に係っているときは対象外とする.\paragraph{\CLSEND}久野の考察\cite{Kuno83}によれば,次の文(J\ref{SENT:yamada})の適格性が低いのに対して文(J\ref{SENT:yamada}')が適格である理由の一つは,「ので」と「間に」の違いにある.文(J\ref{SENT:yamada}')では,因果関係を表わす「ので」の存在によって,「山田」を「批判した」の目的語とする蓋然性が高くなっている.これに対して,「間に」によって従属節と主節が結び付けられている文(J\ref{SENT:yamada})では,主節で「山田」を目的語とする蓋然性はそれほど高くない.\begin{JSENT}\sentJ山田がアメリカに行っている間に,私が学会で$\phi_{山田}$批判した.\sentJJ山田が久し振りで帰って来たので,$\phi_{山田}$夕食に招いた.\label{SENT:yamada}\end{JSENT}このように従属節の接続形が代名詞の書き換えに影響を及ぼすことから,着目している代名詞より文頭側あるいは文末側にどのような従属節の接続形が存在するかを属性として取り入れる.\paragraph{\INDEFPRON}\ref{sec:problem:indef_pron}\,節で述べたように,日本語で総称名詞句や不定代名詞を指せるのはゼロ代名詞か再帰代名詞「自分」である.このことを考慮して,着目している代名詞より文頭側に不定代名詞が存在するかどうか,存在する場合それはどのような不定代名詞かを属性として取り入れる.総称名詞句は,その認識が容易ではないため,本稿では対象外とする\footnote{総称名詞句の認識に村田の手法\cite{Murata96}を利用することが考えられる.しかし,村田の手法では構文構造が正しく得られることが前提になっているのに対して,本稿ではごく簡単な処理によって得られる属性を利用する方針であるため,総称名詞句は対象外とする.}.\paragraph{\SAMEPRON}ある代名詞をどのように書き換えるかには,それと同じ代名詞が文のどの位置に存在しており,かつそれらがどのように書き換えられるかも関連している可能性がある.次の文(J\ref{SENT:he})において文頭の「彼」を消す理由の一つは,(主節の主語である)「彼」が後方に存在しており,それが残されることであろう.\begin{SENT2}\sentE{\itHe}does{\ithis}workwhen{\ithe}feelslikedoing{\itit}.\sentJ彼がそれをしたいと思うとき、彼は、彼の仕事をする。\NewsentJ$\phi_{he}$$\phi_{it}$したいと思うとき、彼は、$\phi_{his}$仕事をする。\label{SENT:he}\end{SENT2}表\ref{tab:feats}\,の「\SAMEPRONB」と「\SAMEPRONF」の属性値はそれぞれ,着目している代名詞より文頭側,文末側に存在する同一代名詞のリストを表わしている.各代名詞に付与されているラベルは,その代名詞に対する書き換えを示す.例えば\Q{[残]我々,[換(自分)]我々}は,残される「我々」と「自分」に置き換えられる「我々」がこの順に存在することを意味する.\paragraph{\ANAPH}藤沢らの調査\cite{Fujisawa93}によれば,明示されている代名詞の先行詞は代名詞が含まれている文の直前の文に現れることが最も多いのに対して,ゼロ代名詞の先行詞はゼロ代名詞が存在する文と同じ文に現れることが最も多い.このことから,逆に,代名詞とその先行詞が同じ文に存在すれば,代名詞をゼロ代名詞化する必要性が高いとも考えられる.照応に関する属性値は,照応成立,照応不成立,先行名詞無,文脈外照応とする.代名詞が一人称か二人称であるときは,先行名詞を指さない文脈外照応であるとみなす.代名詞が三人称であり先行名詞が存在するとき,分類語彙表の意味コードを利用して照応の成立,不成立を次のような簡単な手順で判定する.代名詞が人間を指せる「彼」,「彼女」,「彼ら」であるとき,人間を表わす分類語彙表の意味コード120,121,123,124を持つ先行名詞が存在すれば照応成立とみなす.代名詞が人間以外を指せる「それ」,「それら」であるときは,上記以外の意味コードを持つ先行名詞が存在すれば照応成立とみなす.先行名詞の意味コードが分類語彙表で未定義であるときは照応不成立とする.着目している代名詞と同一の代名詞が存在するときはそれとの間で照応が成立するとみなす.\paragraph{\CONJ}代名詞の書き換えには,同一文内の照応だけでなく,先行文との関係も影響を及ぼす.二つの文をつなぐ言語的手段の一つとして,先行文との修辞的関係\cite{Cohen84,Mann84,Knott94}を表わす接続表現の使用がある\cite{Halliday76}.このような先行文との修辞的関係を考慮に入れ,文頭に存在する接続詞の表記を属性として取り入れる. \section{実験と考察} \label{sec:experiment}代名詞書き換えの有効性を検証するために,次の五種類の実験を行なった.決定木学習アルゴリズムにはC4.5をオプションなしで利用した.いずれの実験でも十分割の交差検定を行なった.\begin{LIST}\item[\bf実験1]代名詞を消すか残すかの二クラスでの実験\item[\bf実験2]代名詞を消すか残すか他の表現に置き換えるかの五クラスでの実験\item[\bf実験3]各クラスの事例数をほぼ同数にしての実験(五クラス)\item[\bf実験4]各属性の効果を確認するための実験(五クラス)\item[\bf実験5]代名詞毎の実験(五クラス)\end{LIST}\subsection{[消]/[残]の二クラスでの実験}\label{sec:experiment:binary}まず予備的な実験として,宮ら\cite{Miya00}の設定と同じく,代名詞を消すか残すかを分類する場合について精度を調べる実験を行なった.実験に用いた事例は,作成した1350事例のうちラベル[消]または[残]が付与されている1252事例である.誤分類率は,十分割の交差検定の平均で,訓練事例に対して6.4\%,試験事例に対して21.8\%であった.試験事例に対する正誤行列を表\ref{tab:confusion_matrix1}\,に示す.表中の数値は,十分割の交差検定による結果の和である.表\ref{tab:confusion_matrix1}\,より,正しく分類された事例は,消すべき代名詞が正しく消された564件と,残すべき代名詞が正しく残された437件である.他方,誤って分類された事例は,残すべき代名詞が誤って消された161件と,消すべき代名詞が誤って残された90件である.誤りのうち前者の場合は,曖昧さの増大につながり翻訳品質に悪影響を及ぼす.これに対して後者の場合は,翻訳品質は現状維持となり,実用上新たな悪影響は出ないと考えてよい.このことから,提案手法で[消]/[残]の二クラスの分類を行なった場合の真の精度は79.9\%((564+437)/1252),実用精度は87.1\%((564+437+90)/1252)となる.実験に用いた1252事例のうち,代名詞を消すべき事例は654件,残すべき事例は598件である(表\ref{tab:pron-freq-label}\,参照)ので,単純な多数決基準に従って分類したときの誤分類率は47.8\%(598/1252)である.この値を基準誤分類率とみなせば,提案手法は有効であると考えられる.実験条件が異なるので単純な比較はできないが,宮らの実験結果では人手で記述した規則の精度が85.8\%であることから,決定木学習によってほぼ同程度の精度が達成できているといえる.\begin{table}[htbp]\caption{[消]/[残]での分類精度}\label{tab:confusion_matrix1}\begin{center}\begin{tabular}{|rr|rr|l|}\hline\multicolumn{2}{|c|}{(a)}&\multicolumn{2}{c|}{(b)}&$\leftarrow$classifiedas\\\hline\hline564&(45.0\%)&90&(7.2\%)&(a):[消]\\161&(12.9\%)&437&(34.9\%)&(b):[残]\\\hline\end{tabular}\end{center}\end{table}\vspace{6pt}\subsection{[消]/[残]/[換(私)]/[換(彼ら)]/[換(自分)]の五クラスでの実験}\label{sec:experiment:trinary}本節では,代名詞を消しても残しておいても不適切な翻訳に対処するために他の表現に置き換えるというクラスを設定した場合の実験結果について考察する.実験対象は1350事例である.誤分類率は,十分割の交差検定の平均で,訓練事例に対して9.2\%,試験事例に対して29.2\%であった.試験事例に対する正誤行列を表\ref{tab:confusion_matrix2}\,に示す.表\ref{tab:confusion_matrix2}\,より,提案手法で[消]/[残]/[換(私)]/[換(彼ら)]/[換(自分)]の五クラスの分類を行なった場合,真の精度は72.2\%((566+409)/1350)である.また,[残]に分類された事例は翻訳品質に新たな悪影響を及ぼさないので,実用精度は80.1\%((566+409+87+1+13+5)/1350)になる.表\ref{tab:confusion_matrix2}\,を見てまず気付くことは,新たに導入したクラス[換]に分類されるべき事例が一件も正しく分類されていないことである.クラス[換]の全事例が誤って分類された原因は,表\ref{tab:pron-freq-label}\,に示したように,このクラスの事例数がクラス[消]や[残]の事例数に比べて極端に少なかったため,適切な学習ができなかったことあると考えられる.この点に関しては,クラス分布の偏りが少ない場合にどの程度の分類精度が得られるのかを確認するための実験を\ref{sec:experiment:same_num_of_class}\,節で別途行なう.\begin{table}[htbp]\caption{[消]/[残]/[換]での分類精度}\label{tab:confusion_matrix2}\begin{center}\begin{tabular}{|r|r|r|r|r|l|}\hline\multicolumn{1}{|c|}{(a)}&\multicolumn{1}{c|}{(b)}&\multicolumn{1}{|c|}{(c)}&\multicolumn{1}{c|}{(d)}&\multicolumn{1}{|c|}{(e)}&$\leftarrow$classifiedas\\\hline\hline566&87&0&0&1&(a):[消]\\187&409&1&1&0&(b):[残]\\12&1&0&0&0&(c):[換(私)]\\48&13&0&0&0&(d):[換(彼ら)]\\19&5&0&0&0&(e):[換(自分)]\\\hline\end{tabular}\end{center}\end{table}十分割の交差検定によって作成された十本の決定木のうちの一本の一部を図\ref{fig:d-tree}\,に示す.図\ref{fig:d-tree}\,の決定木では,属性「\CLSTYPE」が最も重要であり,「\PRON」,「\FZKG」が次に重要であるとみなされている.十本のうち七本の決定木で,このように,「\CLSTYPE」が根節点に配置され,「\PRON」,「\FZKG」,「\ANAPH」,「\SAMEPRONB」がその子節点に配置されていた.残り三本の決定木では,根節点に配置された属性は「\FZKG」であり,その子節点に配置されたのは,「\SAMEPRONB」,「\CLSENDB」,「\CLSENDF」,「\ANAPH」,「\PRON」,「\GVNRSEM」であった.宮らは代名詞と助詞の表記に着目して規則を記述しているが,これら形態素語彙レベルの属性以外に,「\CLSTYPE」などの構文レベルの属性や「\ANAPH」などの照応レベルの属性も重要であることを,実験で得られた決定木の形状は示唆している.ただし,今回の実験では構文レベルの属性値と照応レベルの属性値は近似的な方法で決定しているが,これら重要視された属性の値をより正確に求め今後さらに検証を行なう必要がある.\ref{sec:feats}\,節で設定した属性のうち最も重要視されなかった属性は,「\COORD」と「\INDEFPRON」であった.「\COORD」と「\INDEFPRON」以外は全ての決定木に現れたが,「\COORD」は1本の決定木にしか現れず,「\INDEFPRON」はどの決定木にも現れなかった.これらが重要視されなかった理由は,等位句,不定代名詞がコーパス中にそれぞれ20個と少数しか存在しなかったことにあると考えられる.\begin{figure}[tbhp]\begin{DTREE}{0.9\textwidth}\begin{verbatim}節タイプ=主節:|代名詞の表記=我々:[残](15.0)|代名詞の表記=私:[残](11.0/1.0)|代名詞の表記=彼ら:[残](19.0)|代名詞の表記=彼女:[残](7.0)|代名詞の表記=それ:||接続表現=しかし:[消](4.0)||接続表現=そして:[残](7.0)||接続表現=なぜなら:[残](1.0):::||接続表現=無:|||係り先の意味コード=114:[残](1.0)|||係り先の意味コード=116:[消](1.0)::::|代名詞の表記=それら:||従属節の接続形(文頭側)=<ば>:[換(彼ら)](4.0)||従属節の接続形(文頭側)=<連用形>:[消](1.0):::|代名詞の表記=彼:||係り先の意味コード=231:[残](106.0):::節タイプ=従属節:|代名詞の付属語=において:[消](1.0)|代名詞の付属語=に対して:[換(自分)](1.0)|代名詞の付属語=のように:[残](1.0)|代名詞の付属語=の後:[消](1.0)|代名詞の付属語=は:[残](3.0)::|代名詞の付属語=が:||同一代名詞(文末側)=<[消]それら>:[消](3.0/1.0)||同一代名詞(文末側)=<[消]彼>:[消](8.0):::|代名詞の付属語=に:||係り先の付属語=こと:[換(自分)](1.0)||係り先の付属語=ば:[残](5.0):::|代名詞の付属語=を:||代名詞の表記=それ:[消](2.0/1.0)||代名詞の表記=それら:[換(彼ら)](1.0):::\end{verbatim}\end{DTREE}\caption{作成された決定木の一部}\label{fig:d-tree}\end{figure}\subsection{クラス分布の偏りを排除した実験}\label{sec:experiment:same_num_of_class}\ref{sec:experiment:trinary}\,節の実験で見られたクラス分布の偏りの影響を抑えるために,各クラスの数をほぼ同じになるように,クラス[消]が付与されている事例とクラス[残]が付与されている事例からそれぞれ50事例ずつを無作為に抽出し,これらの事例とクラス[換]の全事例を合わせた198事例を対象として実験を行なった.この場合の誤分類率は,十分割の交差検定の平均で,訓練事例に対して7.6\%,試験事例に対して35.3\%であった.\ref{sec:experiment:trinary}\,節での実験結果(訓練事例:9.2\%,試験事例:29.2\%)に比べると試験事例に対する誤分類率が高くなっているが,これは事例数が少ないことが主な原因であろう.試験事例に対する正誤行列を表\ref{tab:confusion_matrix3}\,に示す.クラス[換(私)]と[換(自分)]の正解率は十分高いとはいえないが,\ref{sec:experiment:trinary}\,節での結果に比べると改善されている.また,クラス[換(彼ら)]は全事例が正しく分類されている.このことから,クラス[換]に関する事例を今後重点的に収集していくことが,全体の精度向上に有効である.\begin{table}[htbp]\caption{[消]/[残]/[換]での分類精度(ほぼ同じ事例数)}\label{tab:confusion_matrix3}\begin{center}\begin{tabular}{|r|r|r|r|r|l|}\hline\multicolumn{1}{|c|}{(a)}&\multicolumn{1}{c|}{(b)}&\multicolumn{1}{|c|}{(c)}&\multicolumn{1}{c|}{(d)}&\multicolumn{1}{|c|}{(e)}&$\leftarrow$classifiedas\\\hline\hline24&6&5&12&3&(a):[消]\\9&32&3&3&3&(b):[残]\\1&3&3&0&6&(c):[換(私)]\\0&0&0&61&0&(d):[換(彼ら)]\\4&5&5&1&9&(e):[換(自分)]\\\hline\end{tabular}\end{center}\end{table}\subsection{各属性の有効性を調べる実験}本節では,着目した個々の属性が分類精度にどの程度寄与しているかを調べる.各属性を利用しないときに誤分類率がどのように変化するかを表\ref{tab:feats-effect}\,に示す.表\ref{tab:feats-effect}\,より,精度に悪影響を及ぼしている属性は存在しないことがわかる.特に分類に有効な属性は,「\PRON」,「\GVNRSEM」,「\GVNRFZKG」,「\CLSENDF」である.属性「\PRON」の有効性が高いことから,宮らが「\PRON」を手がかりにしていることは適切であるといえる.属性「\GVNRSEM」の値は分類語彙表に基づいて与えたが,1350事例のうち220事例(16.3\%)で,代名詞の係り先である用言や体言の意味コードが分類語彙表に記述されていないため,「\GVNRSEM」の値が未定義となっていた.これらに対して適切な意味コードを与えることができれば,精度向上につながる可能性が高い.他方,分類精度の向上に寄与していない属性は,「\COORD」,「\INDEFPRON」,「\SAMEPRONB」である.このうち,「\COORD」と「\INDEFPRON」が寄与しなかった理由は,事例数が少なかったことにある.「\SAMEPRONB」が寄与しなかった理由は,\ref{sec:corpus:spec}\,節で示したように,代名詞を一つしか含まない文がコーパス全体の72.3\%を占めており,これらの文から作成される事例では「\SAMEPRONB」の値がすべて同じ「無」になるため,有効に働かなかったのではないかと考えられる.しかし,「\SAMEPRONB」が精度向上にまったく寄与していないのに対して,「\SAMEPRONF」は若干寄与している.この差がなぜ生じたかについては今後の検討課題である.\begin{table}[htbp]\caption{各属性の有効性}\label{tab:feats-effect}\begin{center}\begin{tabular}{|l||r|}\hline\multicolumn{1}{|c||}{属性}&\multicolumn{1}{c|}{誤分類率}\\\hline\hline全属性&9.2\%\\\PRON&11.0\%\\\FZKG&9.6\%\\\COORD&9.2\%\\\GVNRSEM&10.4\%\\\GVNRFZKG&10.0\%\\\CLSTYPE&9.6\%\\\CLSENDB&9.9\%\\\CLSENDF&10.2\%\\\ANAPH&9.3\%\\\SAMEPRONB&9.2\%\\\SAMEPRONF&9.5\%\\\CONJ&9.7\%\\\INDEFPRON&9.2\%\\\hline\end{tabular}\end{center}\end{table}\subsection{代名詞毎の実験}分類精度は代名詞の種類によっても異なると予想される.そこで,表\ref{tab:pron-freq-label}\,に示した代名詞のうち,出現頻度が高い「彼」,「それ」,「それら」,「我々」,「私」の五種類の代名詞について,代名詞毎に実験を行なった.結果を表\ref{tab:pron-freq-result}\,に示す.基準誤分類率は,出現頻度が最も高いクラスを選んだときの誤分類率である.表\ref{tab:pron-freq-result}\,を見ると,代名詞「それら」と「私」に対する分類精度が特に悪い.「それら」に関しては,適切に分類できないクラス[換]の多さが高い誤分類率の原因である.「私」に関しては,分類に有効であろうと当初考えていた手がかり(属性値)が適切に得られなかったことに原因がある.「私」に関する有力な手がかりの一つは受給表現や待遇表現であり,これらは「\GVNRSEM」や「\GVNRFZKG」の値として反映されるものと考えていた.ところが,実験に用いた機械翻訳システムからの出力文にはこれらの表現が含まれていなかった.今後,他のシステムからの出力文を用いてこれらの表現の有効性を検証していく必要がある.\begin{table}[htbp]\caption{代名詞毎の誤分類率}\label{tab:pron-freq-result}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&\multicolumn{2}{|c|}{誤分類率}&\\\cline{2-3}\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{代名詞}}&\multicolumn{1}{c|}{訓練事例}&\multicolumn{1}{|c|}{試験事例}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{基準誤分類率}}\\\hline\hline彼&8.2\%&24.7\%&48.0\%\\それ&8.0\%&28.5\%&40.4\%\\それら&13.1\%&35.1\%&33.9\%\\我々&4.6\%&14.8\%&22.7\%\\私&13.0\%&47.7\%&49.5\%\\\hline\end{tabular}\end{center}\end{table} \section{おわりに} 本稿では,従来の英日機械翻訳システムにおける代名詞翻訳の問題点を挙げ,それらを解決する方法を提案した.すなわち,従来研究と異なり,1)不適切な代名詞を消すか残すかあるいは他の表現に置き換えるかの判定を行ない,2)決定木学習アルゴリズムを利用して事例集から規則を自動的に作成する方法を示した.評価実験を通じて明らかになった主要な点は,1)人手で記述した規則の精度と同程度の精度が得られることと,2)ゼロ代名詞化に関する言語学的制約だけでなく,ゼロ代名詞の復元に関する手がかりも,ゼロ代名詞化を含む代名詞書き換えの可否を判断するための手がかりとして利用できることである.今後の課題として,次のような点が残されている.\begin{LIST}\item[\bf機械翻訳システムとの密な結合]提案手法は,既存の機械翻訳システムから独立した後編集と位置付けることができるが,既存システムの生成部に組み込むことも可能である.一般に生成部では目的言語の構文木を参照することができるので,提案手法を既存システムの内部に組み込むことによって正確な構文情報を得ることが可能になり,分類精度の向上が期待される.今後この点に関して検討を行なっていく.\item[\bf用言属性の拡張]今回の実験では,代名詞が係っている用言に関する属性として用言の意味コードと用言に付属している助動詞(相当表現)を用いたが,今後は結合価フレームも用言の属性として取り入れていく必要がある.なぜならば,代名詞がゼロ代名詞化されるかどうかは,代名詞に付属している助詞の表記と用言の結合価フレームによって判断しなければならないこともあるからである.例えば,助詞「に」をとることが明らかな用言のとき,「に」格の代名詞をゼロ代名詞化しても,それを復元することは比較的容易であるので,ゼロ代名詞化されやすい.これに対して,「に」をとることが明らかでない用言のときは,「に」格の代名詞のゼロ代名詞化は起こりにくいものと考えられる.\item[\bfテキスト属性の導入]今回の正解付きコーパス作成では,代名詞をどのように書き換えるかの判断を,先行文が存在しないという条件の下で行なった.しかし,一文単位では代名詞の存在が不自然でなくとも,代名詞を含む文が連続して出現すると,日本語テキストして不自然になることもある.従って,テキストレベルでの属性を取り入れる必要がある.このとき,一文内で観察される現象に比べて,複数の文から成るテキストにおいて初めて観察される現象の頻度が低くなることは避けられない.このため,テキストレベルの属性の信頼性を保つためには,非常に大規模なコーパスが必要となる.\end{LIST}\acknowledgment議論に参加頂いた英日機械翻訳グループの諸氏に感謝します.また,本稿の改善に有益なコメントを下さった査読者の方に感謝いたします.\vspace{6pt}\bibliographystyle{jnlpbbl}\bibliography{delpron}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1987年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V26N01-01
\section{はじめに} \label{sec:intro}Universal\Dependencies\(UD)\\cite{mcdonald:2013}は,言語間で共通のアノテーション方式を用いて多言語の構文構造コーパス(ツリーバンク)を開発する国際プロジェクトである.多言語の構文構造コーパスを構築する試みはこれまでにも行われているが,言語ごとに独自のアノテーション方式(アノテーション対象,タグ,ラベルなど)が定義されていた\cite{hajivc-EtAl:2009:CoNLL-2009-ST}.UDは全ての言語で共通のアノテーション方式を用いるため,異なる言語間の構文的対応関係が明示的に記述される.したがって,多言語構文解析器の開発,構文解析器を用いた多言語アプリケーションの処理の共通化\cite{udpipe:2017},コーパスを用いた言語間比較\cite{noji:2015}などさまざまな研究開発に利用されており,さらに2017年と2018年には国際会議において構文解析のsharedtaskが行われた\cite{zeman2017conll,udst2018:overview}.2018年6月現在,約60の言語で100以上のコーパスが開発・公開されており,国際的には構文解析研究においてもっとも重要なプロジェクトの一つと認識されている.日本語構文解析やその応用の研究を国際的な研究の俎上に載せ,国際的な研究の流れに取り残されないようにするためには,UDに基づく日本語コーパスの整備が必須である.UDでは,品詞(UniversalPOSTags;以降はUPOSと表記する)\cite{petrov:2012:lrec}や依存関係ラベル(UniversalTypedDependencyRelation)があらかじめ定義されており,全ての言語のコーパスはこれに従ったアノテーションを行うことが求められる.しかし,\ref{sec:japanese}節以降で示すように,UDの仕様を各言語に適用する際にタグやラベルが一意に決定できない事象が多数存在し,UPOSや依存関係ラベルで各言語の実際のテキストデータをどのようにアノテートすべきかは自明でない.日本語も例外ではなく,現在のUDの定義を適用するためには,日本語の構文構造の特性や他の言語との対応関係を考慮しながら,日本語用のアノテーション仕様を定義する必要がある.著者らは,UDにおいて日本語コーパスを開発することを目指して,品詞および依存関係ラベルの仕様を策定し,UDへの自動変換に必要な言語資源を整備し,既存の日本語コーパスをUDに準拠したコーパスに変換するプログラムの開発を進め,UDとしての正解データの構築に努めてきた.このような努力にもかかわらず,現在までに開発してきたデータは,仕様の策定・変換元の言語資源の整備・変換プログラムのいずれかに問題があるために,UDの仕様に完全に則したものに至っていない.残された問題については定量的に評価することは困難であるが,発見次第,仕様の変更・必要な言語資源の整備・変換プログラムの修正を行いながら,随時改善を行っている.本稿では,これまでに策定した日本語UDの定義と,それに至るまでの主要な論点を紹介し,特に問題となる並列構造の扱いについて議論しながら,今後の日本語UDあるいはUD全体の改善について展望を述べる.まず,\ref{sec:ud}節でUDの概要について解説する.\ref{sec:japanese}節では,UDに基づいた日本語の構文アノテーションを行うための,語の単位,品詞体系,依存構造ラベルの定義について述べる.しかしながら,UD本体の仕様が言語横断的に必ずしも整合していないために,日本語に適応する上で様々な問題がある.本稿で述べる定義に至るまでに主として議論されてきた点を\ref{sec:discussion}節にて列挙しながら,既存の言語資源やツールに情報が足りないものや,UDの基準を日本語に適用する際に問題が起きる事象について定義を与えていく.なお,未解決の問題について網羅的に言及することは困難であるため,コーパスにおける頻度が大きい代表的な問題についてのみ触れる.\ref{sec:coord}節では,依存構造木で本質的にそのスコープを表現できない並列構造の扱いについて議論する.以上の定義に従って開発されたUD日本語版の言語リソースや,その構築の手順や公開の状況を\ref{sec:resources}節にて紹介する.\ref{sec:related}節で本稿に散在する先行研究をまとめる.\ref{sec:summary}節で今後の展望について述べる. \section{UniversalDependencies} \label{sec:ud}UniversalDependencies(UD)\cite{mcdonald:2013}は,言語間で共通した構文構造アノテーションを用いた多言語コーパスの開発を目指している.データ構造やアノテーション作業を単純化するため,またくだけた文や特殊な構造に対して頑健にするために,句構造(phrasestructure)ではなく,すべての構文構造を語の間の依存関係と関係ラベルで表現する方針(lexicalism)を採用している.語の品詞体系はGoogleUniversalPart-of-speechTags\cite{petrov:2012:lrec}を,語の素性はIntersetinterlinguaformorphosyntactictagsets\cite{Zeman2008}を,依存関係ラベルはUniversalStanfordDependencies\cite{demarneffe:2014:LREC}を基とし,言語横断性を高めるためにタグ・ラベルの統廃合が行われている.なお,全言語で共通の品詞や依存関係ラベルは固定されているが,言語固有の現象(例えば格標識など)を記述するための拡張が認められており,言語横断的な情報を保ちながら言語固有の詳細なアノテーションが可能となっている.品詞タグや依存関係ラベルの設計は必ずしも言語類型論などの言語学に基づいてはおらず,アノテーションのしやすさやアプリケーションでの利用しやすさを考えてボトムアップに策定されている.UDの基本理念を表すものとして,以下の6つの項目が示されている\cite{UDgithub}.\renewcommand{\labelenumi}{}\begin{enumerate}\itemUDneedstobesatisfactoryonlinguisticanalysisgroundsforindividuallanguages.\itemUDneedstobegoodforlinguistictypology,i.e.,providingasuitablebasisforbringingoutcross-linguisticparallelismacrosslanguagesandlanguagefamilies.\itemUDmustbesuitableforrapid,consistentannotationbyahumanannotator.\itemUDmustbesuitableforcomputerparsingwithhighaccuracy.\itemUDmustbeeasilycomprehendedandusedbyanon-linguist,whetheralanguagelearneroranengineerwithprosaicneedsforlanguageprocessing.Werefertothisasseekingahabitabledesign,anditleadsustofavortraditionalgrammarnotionsandterminology.\itemUDmustsupportwelldownstreamlanguageunderstandingtasks(relationextraction,readingcomprehension,machinetranslation,…).\end{enumerate}[1],[2]は言語学的知見を重視するものであるが,[3]--[6]は工学的あるいは応用的視点からの要請である.各項目はそれぞれ妥当な主張であるが,トレードオフの関係にあり,これら全てを完全に満たすのは現実的ではない.実際にUDに基づく各言語のコーパスを開発する際には,UDのアノテーション方式を各言語に適用するための仕様を個別に策定する必要があり,その際にさまざまなトレードオフが存在する.日本語コーパスを開発してきた過程でも多くの言語現象について問題点が見つかっており,\ref{sec:discussion}節以降ではこれらの問題点を重点的に議論する.UDの開発はコミュニティ駆動方式が採られており,各コーパスの開発はボランティアに委ねられている.アノテーション方式やコーパス開発方法に関する議論は主にGitHub\cite{UDgithub}で行われており,アノテーション仕様や開発されたコーパス,さまざまな議論はすべてGitHub上で公開されている.UDのアノテーション方式やプロジェクトの進め方は現在も発展途上であり,活発な議論が続けられている.以下では,UDで定義されている語,品詞体系,依存関係ラベルについて解説する.なお,UDには複数のバージョンが存在するが,本稿では2017年以降の標準であるUniversalDependenciesversion2について紹介する.\subsection{語と品詞体系}\label{subsec:pos}UDでは構文構造を表すために単語間の依存関係を用いるため,アノテーションの単位は「語」となる.UDのアノテーション仕様では,アノテーション対象は\emph{構文的な語}(syntacticword)とすることが定められており,分かち書きにより示される\emph{正書法的な語}(orthographicword)とは必ずしも一致しない.例えば音韻的に融合したトークン(フランス語の`au'など)は構文的な語(`\`a'`le')に分解することが求められている.ただし,構文的な語の定義は述べられておらず,日本語のように語境界が明示されない言語における定義は自明でない.この問題については,\ref{sec:japanese}節で詳述する.\begin{table}[t]\caption{UniversalPOSTagsversion2の17種の品詞タグセット}\label{tab:pos}\input{01table01.tex}\end{table}全言語の品詞を集約するための体系として,表~\ref{tab:pos}に示す17種の品詞(UniversalPOSTagsversion2;UPOS)が定義されている.英語の場合,PennTreebankのタグとの対応付けをもって品詞タグの定義としており,例えば\utag{ADJ}は,PennTreebankにおける\utag{JJ}(形容詞),\utag{JJR}(比較級形容詞),\utag{JJS}(最上級形容詞)と定義されている.表~\ref{tab:pos}のほとんどは直感的に理解できるが,以下のものは注意を要する.\begin{description}\item[\utag{ADP}]PennTreebankの\utag{IN}(前置詞等)のうち従属接続詞を除いたもの,\utag{TO}(to)のうち前置詞となるもの.\item[\utag{PART}]所有格の`'s',否定の`n't',不定詞の`to'のみ.\item[\utag{CCONJ}]`and',`or'などの等位接続詞.\item[\utag{SCONJ}]`when',`since'など副詞的に使われる従属接続詞,`that'などの補文標識と,関係代名詞の`that'.\item[\utag{AUX}]`can'などのモダリティの助動詞やbe動詞および,受動態を示す`get'.\end{description}UPOSはPennTreebankの品詞体系などと比べるとかなり粗い分類であるが,これは全言語で弁別が観察されるカテゴリに限定したためと考えられる.実際には,各言語で品詞の細分類や性・数・時制・格などの文法的属性が必要となるが,これらは素性(feature)として別途アノテーションすることができるようになっている.素性も共通化されたリストが定義されているが,全ての言語の全ての素性が網羅されているわけではないため,言語ごとに拡張することが認められている.素性は現在のところ日本語コーパスでは利用していないため,説明は省略する.\subsection{依存関係とラベル}\label{subsec:label}UDでは,上記の品詞タグが付与された2語の間に方向を持った依存関係を付与して,構文構造を記述する.文の主辞({\sfroot})以外の語はいずれか1語を修飾する形とするため,文全体は木構造となる.\begin{table}[p]\caption{UniversalDependenciesversion2の37種の依存関係ラベルセット}\label{tab:dependency_types}\input{01table02.tex}\end{table}表~\ref{tab:dependency_types}に,UniversalDependenciesversion2で定義されている依存関係ラベル37種を示す.読みやすさのために,全ラベルを大きく3つのカテゴリに分けた.「節レベルの依存関係」は,主語や目的語など,述語の項や修飾語を表す依存関係であり,「名詞句レベルの依存関係」は,名詞句を構成する修飾語や機能語を表す依存関係である.それ以外のものは,「その他の依存関係」にまとめた.\begin{exe}\ex\label{sent:copula}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]He\&is\&a\&good\&teacher\&.\\\utag{PRON}\&\utag{AUX}\&\utag{DET}\&\utag{ADJ}\&\utag{NOUN}\&\utag{PUNCT}\\\end{deptext}\depedge{5}{1}{nsubj}\depedge{5}{2}{cop}\depedge{5}{3}{det}\depedge{5}{4}{amod}\deproot[edgeunitdistance=4ex]{5}{root}\depedge{5}{6}{punct}\end{dependency}}\end{exe}\begin{exe}\ex\label{sent:copula_ja}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]彼\&は\&良い\&先生\&です\&。\\\utag{PRON}\&\utag{ADP}\&\utag{ADJ}\&\utag{NOUN}\&\utag{AUX}\&\utag{PUNCT}\\\end{deptext}\depedge[edgeunitdistance=1.7ex]{4}{1}{nsubj}\depedge{4}{5}{cop}\depedge{1}{2}{case}\depedge{4}{3}{acl}\deproot{4}{root}\depedge{4}{6}{punct}\end{dependency}}\end{exe}\begin{exe}\ex\label{sent:copula_ru}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]Он\&хороший\&учитель\&.\\``He''\&``good''\&``teacher''\&.\\\utag{PRON}\&\utag{ADJ}\&\utag{NOUN}\&\utag{PUNCT}\\\end{deptext}\depedge{3}{1}{nsubj}\depedge{3}{2}{amod}\deproot{3}{root}\depedge{3}{4}{punct}\end{dependency}}\end{exe}UDの特徴の一つとして,機能語ではなく内容語を主辞とすることが挙げられる.したがって,依存関係は内容語どうし,あるいは内容語から機能語の間に限られ,原則として機能語間や機能語から内容語への依存関係は存在しない\footnote{例外として,\dt{flat}や\dt{goeswith}など非統語的関係を表す際に,機能語間に依存関係を張ることがある.}.伝統的な統語論では機能語を主辞とする理論が主流であるためこのアノテーション方式には批判もあるが,これにより格を明示する言語としない言語でほぼ同じ依存構造木で記述される,述語項関係が直接の依存関係で記述される,といった利点があり,言語横断性や工学的利点を重視した選択であると言える.典型的な例として,コピュラ文の依存構造を(\ref{sent:copula}),(\ref{sent:copula_ja}),(\ref{sent:copula_ru})に示す.英語UDの例(\ref{sent:copula})では,`teacher'を主辞(\dt{root})とし,`he'と`teacher'の間に直接の依存関係を付与する.be動詞を主辞,`he'と`teacher'はそれぞれbeの主語と補語と捉える従来の考え方と異なるが,これにより,日本語(\ref{sent:copula_ja})や,コピュラを持たないロシア語(\ref{sent:copula_ru})などと内容語の依存構造を共通化できる.例(\ref{sent:auxiliary})では,`Ivan'は助動詞`will'ではなく本動詞`give'の主語として\dt{nsubj}が付与されている.前置詞`to'を伴う`Anna'は\dt{obl}で直接`give'を修飾し,`to'は`Anna'の子となる.これにより,述語との位置関係で格を表現する英語,後置詞で格を示す日本語(\ref{sent:auxiliary_ja})\footnote{ニ格の扱いについては,\ref{sub:issue_case}節に示す.},名詞が格変化するロシア語(\ref{sent:auxiliary_ru})の間で,内容語間の依存関係が同一のアノテーションとなる\footnote{但し,英語のtoAnnaは前置詞を伴うため斜格(\dt{obl})となるなど,言語間で完全な一致が取れるとは限らない.}.\begin{exe}\ex\label{sent:auxiliary}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]Ivan\&will\&give\&a\&book\&to\&Anna\\\utag{PROPN}\&\utag{AUX}\&\utag{VERB}\&\utag{DET}\&\utag{NOUN}\&\utag{ADP}\&\utag{PROPN}\\\end{deptext}\depedge{3}{1}{nsubj}\depedge{3}{2}{aux}\deproot{3}{root}\depedge{5}{4}{det}\depedge{3}{5}{obj}\depedge[edgeunitdistance=1.9ex]{3}{7}{obl}\depedge{7}{6}{case}\end{dependency}}\end{exe}\begin{exe}\ex\label{sent:auxiliary_ja}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]イヴァン\&は\&本\&を\&アンナ\&に\&あげる\&だろう\\\utag{PROPN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{PROPN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\\\end{deptext}\depedge[edgeunitdistance=2ex]{7}{1}{nsubj}\depedge{1}{2}{case}\depedge[edgeunitdistance=2ex]{7}{3}{obj}\depedge{3}{4}{case}\depedge{7}{5}{iobj/obl}\depedge{5}{6}{case}\deproot[edgeunitdistance=3.5ex]{7}{root}\depedge{7}{8}{aux}\end{dependency}}\end{exe}\begin{exe}\ex\label{sent:auxiliary_ru}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]Иван\&будут\&дать\&книгу\&Анне\\``Ivan''-NOM\&-FUT\&``give''\&``book''-ACC\&``Anna''-DAT\\\utag{PROPN}\&\utag{AUX}\&\utag{VERB}\&\utag{NOUN}\&\utag{PROPN}\\\end{deptext}\depedge{3}{1}{nsubj}\depedge{3}{2}{aux}\depedge{3}{4}{obj}\depedge{3}{5}{iobj}\deproot{3}{root}\end{dependency}}\end{exe} \section{日本語UDの定義} \label{sec:japanese}本節では,UDの基準を日本語に適用し,どのように既存の言語資源やツールから変換するかについての原則を定義する.具体的には以下のような方針で日本語UDアノテーションの定義を与える:\begin{itemize}\item既存の言語資源から,変換規則に基づいて生成する\item語の単位は国語研短単位(後述)を基本とする\itemUDの品詞ラベルはUniDic品詞体系からの変換により定義する\item依存関係ラベルは既存の言語資源に含まれる情報から一意に決められる範囲で規定する\end{itemize}UDは言語横断で共通のアノテーション方式であることから,各言語の伝統的なアノテーションとは異なる部分が多い.各言語の伝統的なアノテーションにおいて複数のラベルで識別される言語現象が,UDにおいて1つのラベルに割り当てられる場合,UDのアノテーションでは隠蔽されてしまう可能性がある.また,アノテーションの基準に慣れていない初期の段階では,人手によるUDのアノテーションでは一貫性を保つことが困難になると予想される.さらに,UD本体のアノテーション仕様にたびたび修正が行われるために,ある特定の言語のUDのアノテーションを一から行うことは困難であると考えられる.このような理由から,日本語UDの言語資源を構築するにあたっては,工数をかけて人手により直接アノテーションを行う\footnote{大規模なツリーバンクの構築には多大な年数を要する.例えば,BCCWJ-DepPara\cite{Asahara-2016-ALR12}は構築には9年を要した.}よりも,既存のコーパスの構文構造を活用して,UDのアノテーション方式に適合するように変換することが現実的である.日本語UDのデータの整備においては,既存の言語資源やツールの出力からの変換が可能であること,一貫性を保持することを意識しながら,語の単位の問題,品詞体系,依存構造ラベルの設計を進めた.これらは,頻度・慣習・事後の扱いやすさに基づいて決定したものであり,UD本体の基準が曖昧なもの・既存の言語資源やツールの出力において情報が足りないもの・変換プログラムの不整合による問題点を有する.これらの一部については4節・5節で言及する.\subsection{語の定義}\label{sub:issue_word}日本語は空白による明示的な語の境界を持たないため,{\bf語}(word)の区切りはUDのアノテーションを作成する上で非常に重要である.日本語UDを考えるにあたって,そもそも語とは何であるかといった議論を避けるとともに,既存の辞書やコーパスをUDの形式に自動変換できることを目指し,UniDic\cite{den:2008:lrec,ogura:2011:book}の語彙項目,すなわち『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014-LRE}の国語研短単位を単語とする方針とした.現在のところ,全ての日本語UDの言語資源は,国語研短単位に基づいたものになっている.語の単位として検討されたものを知るために,BCCWJで規定されている,国語研短単位(\ref{sent:SUW})・長単位(\ref{sent:LUW})・文節単位(\ref{sent:BUNSETSU})の違いを,UDのアノテーションに基づいて付与した依存構造とともに示す.例文中,単語を囲む角丸四角は文節単位を表す.\begin{exe}\ex\label{sent:SUW}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]中国\&・\&北京\&大\&に\&留学\&し\&、\&帰国\&後\&に\&出産\\\utag{PROPN}\&\utag{PUNCT}\&\utag{PROPN}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\&\utag{PUNCT}\&\utag{VERB}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\deproot[edgeunitdistance=5ex]{12}{root}\wordgroup{1}{1}{5}{*}\wordgroup{1}{6}{8}{*}\wordgroup{1}{9}{11}{*}\wordgroup{1}{12}{12}{*}\depedge{4}{1}{compound}\depedge{4}{2}{punct}\depedge{4}{3}{compound}\depedge{4}{5}{case}\depedge{6}{4}{iobj}\depedge{6}{7}{aux}\depedge{6}{8}{punct}\depedge[edgeunitdistance=3.0ex]{12}{6}{advcl}\depedge{10}{9}{compound}\depedge{12}{10}{obl}\depedge{10}{11}{case}\end{dependency}\end{scriptsize}}\\\hfill【国語研短単位(SUW):BCCWJ:PN1c\_00001を一部改変】\end{exe}\begin{exe}\ex\label{sent:LUW}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]中国・北京大\&に\&留学し\&、\&帰国後\&に\&出産\\\utag{PROPN}\&\utag{ADP}\&\utag{VERB}\&\utag{PUNCT}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\deproot[edgeunitdistance=5ex]{7}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{6}{*}\wordgroup{1}{7}{7}{*}\depedge{3}{1}{iobj}\depedge{1}{2}{case}\depedge{3}{4}{punct}\depedge[edgeunitdistance=3.0ex]{7}{3}{advcl}\depedge{7}{5}{obl}\depedge{5}{6}{case}\end{dependency}\end{scriptsize}}\\\hfill【国語研長単位(LUW):BCCWJ:PN1c\_00001を一部改変】\end{exe}\begin{exe}\ex\label{sent:BUNSETSU}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]中国・北京大に\&留学し、\&帰国後に\&出産\\\utag{PROPN}\&\utag{VERB}\&\utag{NOUN}\&\utag{VERB}\\\end{deptext}\deproot[edgeunitdistance=3ex]{4}{root}\wordgroup{1}{1}{1}{*}\wordgroup{1}{2}{2}{*}\wordgroup{1}{3}{3}{*}\wordgroup{1}{4}{4}{*}\depedge{2}{1}{iobj}\depedge{4}{2}{advcl}\depedge{4}{3}{obl}\end{dependency}\end{scriptsize}}\\\hfill【国語研文節単位:BCCWJ:PN1c\_00001を一部改変】\end{exe}\ref{sec:ud}~節で示した通り,UDの仕様ではアノテーションの単位は{\bf構文的な語}(syntacticword)に基づくとされている.統語的に独立し音韻的に他の語に依存する接語(clitic)までを語として扱うとしているが,実務上は統語的にも音韻的にも他の語に依存する接辞(affix,語の一部)との区別が問題となる.空白による分かち書きがされず,語が単位が確立していない日本語においては,UDの立場に則る形で形態と音韻と統語の境界を規定することは難しい.国語研の単位認定においては,「日本国語大辞典」を典拠とし,国語研最小単位の同ラベルの1回までの結合による国語研短単位を規定している.他に,音韻的な単位として国語研中単位を,文節相当を構成する単位として国語研長単位を規定している.国語研短単位は,斉一性を担保のため,単語よりも短い形態素を解析の単位とするが,接語と接辞の区別は,活用形として扱うか助動詞として扱うかとしてのみ規定している.例えば,国語研短単位は,意志を表す「う」「よう」は活用形としている.国語学や日本語を対象とする言語学では,辞書の編纂そのものが語の単位認定に相当し,語の単位について研究論文として言及しているものは少ない.構造主義的観点から日本語の構文的な語を規定した事例\cite{Hattori:1960fuzoku,Miyaoka:2015go}があり,また,グレゴリー・プリングルによるブログ記事\footnote{www.cjvlang.com/Spicks/udjapanese.html}は,日本語UDにとって適切な単位について詳細に議論している.しかしながら,これらの語の規定は特定の解析器や言語資源に基づいたものではなく,規定もないために実データを構成するためには非現実的な議論である.言語類型論のHaspelmath\cite{Haspelmath:FLin2011}は斉一な単位を言語横断的に規定することは難しいとしている.さまざまな議論はあるが,理想的な語の単位を,辞書により表現するか,規則により表現するか,その双方をどう組み合わせて表現するかについての方法論は確立できていない.その中で我々は,国語研短単位をUDにおける語と定め,UDの依存構造ラベルに規定されていない形態論的な依存構造ラベルについて検討を重ねてきた.\subsection{日本語の品詞体系}\label{subsec:pos_j}英語版のUniversalPoSをPennTreebankの品詞体系との写像をもって定義しているのにならい,日本語版はUniDic品詞体系(Denetal.2008;小椋他2011)\nocite{den:2008:lrec,ogura:2011:book}との対応をもとに品詞を定義する.日本語の自然言語処理で使われている品詞体系として,IPADIC,JUMAN,UniDic品詞体系がある.IPADICの品詞体系はIPA品詞体系をマルコフモデルに基づき形態素解析器に実装するために適応したものである.また,JUMANの品詞体系は益岡・田窪の定義した体系に基づいている\cite{masuokatakubo}.UniDicは短単位・長単位の2層の単位に対して異なる品詞体系を持っている.一つの立場は,文脈によらず語彙自体がとりうる全ての品詞を表示する立場で,国語研短単位がこれに相当する.例えば,サ変名詞「勉強」には,`名詞-普通名詞-サ変可能'という品詞が与えられる.もう一つの立場は,文脈に基づいて統語的な曖昧性を解消する立場で,国語研長単位がこれに相当する.UDのアノテーションにおいては,前後文脈や係り先の品詞を見ながら,国語研短単位に対して品詞の曖昧性解消を行う変換規則に基づき,UD品詞への写像を実現する.\ref{sub:issue_pos}~節で示す通り,文脈に応じて,サ変名詞や形状詞語幹を動詞や形容詞と判定する.これらの操作を工学的に実現するために,形態素解析用辞書UniDicと形態素解析器MeCabにより短単位を認定し,長単位解析器Comainuなどにより長単位を認定する二重形態素解析を行っている.以下では,日本語のUD品詞タグの定義を例とともに示す.\begin{description}\item[\utag{ADJ}]形容詞(例:`大きい'),但し非自立となるものを除く.形状詞\footnote{形容動詞・ナ形容詞などとも呼ばれる.}(例:`\underline{豊か}だ').連体詞(例:`大きな'),但し\utag{DET}となるものを除く.\item[\utag{ADV}]副詞(例:`ゆっくり').UniDic品詞における「副詞」に加えて,「名詞-普通名詞-副詞可能」「名詞-普通名詞-(サ変)形状詞可能」が副詞的に用いられる場合.\item[\utag{INTJ}]感動詞(例:`あっ').\item[\utag{NOUN}]UniDic品詞における「名詞-普通名詞」「接尾辞-名詞的」など(例:`パン'),但し\utag{VERB},\utag{ADJ}として使われるものを除く.\item[\utag{PROPN}]UniDic品詞における「名詞-固有名詞」(例:`北海道').\item[\utag{VERB}]動詞(例:`食べ'),但し非自立となるものを除く・「名詞-サ変可能」で動詞の語尾が付いたもの(例:`\underline{食事}する').\item[\utag{ADP}]格助詞(例:`が')・副助詞(例:`しか')・係助詞(例:`こそ').\item[\utag{AUX}]助動詞(例:`た')・動詞/形容詞のうち非自立のもの(例:`して\underline{いる}',`食べ\underline{にくい}').\item[\utag{CCONJ}]接続詞(例:`また')\item[\utag{DET}]UniDicにおける「連体詞」の一部(例:`この'`その'`あんな'`どんな').\item[\utag{NUM}]数詞(例:`5').\item[\utag{PART}]「助詞-終助詞」(例:`か')・「接尾辞」(例:`衝撃\underline{的}だ').\item[\utag{PRON}]代名詞(例:`私').\item[\utag{SCONJ}]「助詞-接続助詞」(例:`て')・「準体助詞」(例:`行く\underline{の}が').\item[\utag{PUNCT}]「補助記号-句点/読点/括弧開/括弧閉」.\item[\utag{SYM}]UniDicにおいて記号・補助記号のうち\utag{PUNCT}・\utag{X}以外のもの.\item[\utag{X}]UniDicにおいては空白.\end{description}これらの品詞タグはUniDicの品詞に加えて,BCCWJ長単位の用法・係り先品詞などの情報に基づいた変換規則により決定する.\subsection{日本語の依存構造とラベル}\label{subsec:dep_j}\ref{subsec:pos_j}~節で示した品詞と同様に,UDのラベルに基づいて,対応する日本語の現象と例を記述していく.\begin{exe}\ex\label{sent:nsubj}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]誰\&が\&あなた\&に\&出張\&を\&命じ\&た\&の\&です\&か\\\utag{PRON}\&\utag{ADP}\&\utag{PRON}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\&\utag{SCONJ}\&\utag{AUX}\&\utag{PART}\\\end{deptext}\depedge{1}{2}{case}\depedge[edgeunitdistance=2.5ex]{7}{1}{nsubj}\depedge{3}{4}{case}\depedge{7}{3}{iobj}\depedge{5}{6}{case}\depedge{7}{5}{obj}\deproot[edgeunitdistance=4ex]{7}{root}\depedge{7}{8}{aux}\depedge{7}{9}{mark}\depedge{7}{10}{aux}\depedge{7}{11}{aux}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{6}{*}\wordgroup{1}{7}{11}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~80】\end{exe}文節内においては文節内の自立語主辞と他の構成要素との関係を定義する.文節間においては文節間係り受けを各文節間の自立語主辞に代表させる.(\ref{sent:nsubj})において,\dt{nsubj}は主格で係る名詞句主辞と述語の関係を表す.\dt{case}は名詞と格助詞の関係を表す.\dt{obj}は「を」で係る名詞句主辞と述語の関係を表す.\dt{iobj}は「に」で係る名詞句主辞と述語の関係を表す.\dt{aux}は自立語に係る助動詞の関係を表す.\dt{mark}は節標識を表し,この例では形式名詞「の」が節標識になる.\dt{root}は係り受け木の根を示す.なお,「に」については,\ref{sub:issue_case}~節で述べる通り,間接目的格相当の\dt{iobj}を割り当てるのか,斜格相当の\dt{obl}を割り当てるのかという問題がある.\begin{exe}\ex\label{sent:nmod}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]教科\&書\&の\&指示\&の\&とおり\\\utag{NOUN}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\\\end{deptext}\depedge{4}{2}{nmod}\depedge{2}{1}{compound}\depedge{2}{3}{case}\depedge{6}{4}{nmod}\depedge{4}{5}{case}\deproot{6}{root}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{5}{*}\wordgroup{1}{6}{6}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~36】\end{exe}(\ref{sent:nmod})において,\dt{nmod}は名詞句主辞から名詞句主辞への修飾関係を表す.この例では,属格の格助詞「の」を介して\dt{nmod}の関係を結んでいる.\dt{compound}は複合語の内部構造の関係を表す.\begin{exe}\ex\label{sent:csubj}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]高津\&さん\&は\&朝\&早く\&起きる\&の\&が\&苦手\&だ\\\utag{PROPN}\&\utag{NOUN}\&\utag{ADP}\&\utag{ADV}\&\utag{ADV}\&\utag{VERB}\&\utag{SCONJ}\&\utag{ADP}\&\utag{ADJ}\&\utag{AUX}\\\end{deptext}\depedge{2}{1}{flat}\depedge[edgeunitdistance=2.0ex]{9}{2}{dislocated}\depedge{2}{3}{case}\depedge{5}{4}{advmod}\depedge{6}{5}{advmod}\deproot[edgeunitdistance=3.0ex]{9}{root}\depedge{6}{7}{mark}\depedge{6}{8}{case}\depedge{9}{6}{csubj}\depedge{9}{10}{aux}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{8}{*}\wordgroup{1}{9}{10}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~182】\end{exe}(\ref{sent:csubj})において,\dt{dislocated}は主題を表す「は」が述語に係る場合に付与するが,「は」の扱いについては\ref{sub:issue_case}節においてあらためて議論する.\dt{advmod}は連用修飾句に付与する.なお,連用修飾節の場合には\dt{advcl}を付与する.\dt{csubj}は節主語に付与するが,基本的には形式名詞「の」のみとして,それ以外の形式名詞(「こと」「つもり」「わけ」「はず」「よう」「もの」)などは節主語とみなさず内容語として扱い,\dt{nsubj}を付与する.この構造については,\ref{sub:issue_case}~節と\ref{sub:issue_clause}節で詳しく述べる.\begin{exe}\ex\label{sent:obl}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]鈴木\&さん\&は\&かばん\&から\&書類\&を\&取り出し\&た\\\utag{PROPN}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\\\end{deptext}\depedge[edgeunitdistance=2.2ex]{8}{2}{nsubj}\depedge{2}{1}{flat}\depedge{2}{3}{case}\depedge[edgeunitdistance=1.9ex]{8}{4}{obl}\depedge{4}{5}{case}\depedge{8}{6}{obj}\depedge{6}{7}{case}\deproot[edgeunitdistance=3.2ex]{8}{root}\depedge{8}{9}{aux}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{5}{*}\wordgroup{1}{6}{7}{*}\wordgroup{1}{8}{9}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~17】\end{exe}(\ref{sent:obl})において,\dt{obl}は主語・目的語以外の格要素と述語の関係に付与する.\begin{exe}\ex\label{sent:ccomp}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]私\&の\&家\&に\&来る\&と\&言っ\&た\\\utag{PRON}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\\\end{deptext}\depedge{1}{2}{case}\depedge{3}{1}{nmod}\depedge{3}{4}{case}\depedge{5}{3}{iobj}\depedge{7}{5}{ccomp}\depedge{5}{6}{case}\deproot{7}{root}\depedge{8}{7}{aux}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{6}{*}\wordgroup{1}{7}{8}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~185】\end{exe}(\ref{sent:ccomp})において,\dt{ccomp}は補文を表す.\begin{exe}\ex\label{sent:amod}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]小さな\&力士\&が\&大きな\&力士\&を\&つりだし\&た\\\utag{ADJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\&\\\end{deptext}\depedge{2}{1}{amod}\depedge{2}{3}{case}\depedge[edgeunitdistance=1.7ex]{7}{2}{nsubj}\depedge{7}{5}{obj}\depedge[edgeunitdistance=1.9ex]{5}{4}{amod}\depedge{5}{6}{case}\deproot[edgeunitdistance=3ex]{7}{root}\depedge{7}{8}{aux}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{6}{*}\wordgroup{1}{7}{8}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~99一部修正】\end{exe}(\ref{sent:amod})において,\dt{amod}は連体詞による連体修飾を表す.連体詞は\dt{amod}を付与するが,形容詞は形容詞節を表す\dt{acl}を付与する.詳しくは\ref{sub:issue_clause}節で述べる.\pagebreak\begin{exe}\ex\label{sent:fixed}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]私\&に\&とっ\&て\&大きな\&励み\&と\&なっ\&た\\\utag{PRON}\&\utag{ADP}\&\utag{VERB}\&\utag{SCONJ}\&\utag{ADJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&{AUX}\\\end{deptext}\depedge{8}{6}{obl}\depedge[edgeunitdistance=1.6ex]{8}{1}{obl}\depedge{2}{3}{fixed}\depedge{2}{4}{fixed}\depedge{1}{2}{case}\depedge{6}{7}{case}\depedge{6}{5}{amod}\deproot{8}{root}\depedge{8}{9}{aux}\wordgroup{1}{1}{4}{*}\wordgroup{1}{5}{7}{*}\wordgroup{1}{8}{9}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~81】\end{exe}(\ref{sent:fixed})において,\dt{fixed}は複単語機能表現を表す.\begin{exe}\ex\label{sent:appos}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]米国\&の\&全国\&紙\&「\&USA\&TODAY\&」\\\utag{PROPN}\&\utag{ADP}\&\utag{NOUN}\&\utag{NOUN}\&\utag{PUNCT}\&\utag{PROPN}\&\utag{PROPN}\&\utag{PUNCT}\\\end{deptext}\depedge{1}{2}{case}\depedge{4}{1}{nmod}\depedge{4}{3}{compound}\depedge{4}{7}{appos}\depedge{7}{6}{compound}\depedge{7}{5}{punct}\depedge{7}{8}{punct}\deproot{4}{root}\wordgroup{1}{1}{4}{*}\wordgroup{1}{5}{8}{*}\end{dependency}\end{scriptsize}}\\\hfill【BCCWJ:PN1d\_00005】\end{exe}(\ref{sent:appos})において,\dt{appos}は同格を表す.句読点のほか,括弧などにも\dt{punct}を用いる.並列に関連するラベル\dt{conj},\dt{cc}については\ref{sec:coord}節で述べる.\dt{goeswith},\dt{vocative},\dt{list},\dt{parataxis},\dt{dep},\dt{clf},\dt{nummod},\dt{orphan}などについては割愛する.その他,日本語で用いていないラベルとして\dt{xcomp},\dt{expl}がある. \section{日本語特有の論点} \label{sec:discussion}\ref{sec:japanese}~節で述べた日本語の品詞タグや依存関係ラベルを定義するにあたって,UDの基準を日本語の言語現象に対して適用する際に問題となった日本語特有の論点について本節で示す.まず,品詞タグ付与における例外処理について,\ref{sub:issue_pos}節で述べる.次に,\ref{sub:issue_case}~節では,英語等の言語と異なり構文上での区別が難しい「格」に関連する,依存関係ラベルの付与の方法について述べる.\ref{sub:issue_clause}節では,同様に依存関係ラベルの決定のために重要となる「節」と「句」の区別に関する議論をまとめる.なお,本節で議論する言語現象はUD本体では明確な定義が与えられておらず,他言語での仕様を網羅的に調査することも現実的でないため,言語横断的な一貫性を保証する定義を与えるものではない.変換元データの情報,日本語コーパス内での一貫性,応用での使いやすさを基準に決められた定義と言える.将来課題として,同じ問題を持つ他の言語との対照を進め,言語間の一貫性を高めるように定義を修正していきたい.\subsection{品詞タグの例外処理}\label{sub:issue_pos}UDにおける品詞タグは,構文の中での用法よりも語彙に基づく傾向があり,例えば英語の動詞がto不定詞や動名詞の形で名詞として振る舞う場合には\utag{NOUN}でなく\utag{VERB}が用いられる.これと同様に,形容詞を名詞化する「さ」や名詞を形容詞化する「っぽい」などの品詞を変換する接尾辞を伴う場合も,(\ref{sent:sa})の例に示す通り,内容語の品詞タグをそのまま用いることとする.\begin{exe}\ex\label{sent:sa}\begin{xlist}\ex\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]かわい\&さ\\\utag{ADJ}\&\utag{PART}\\\end{deptext}\depedge{1}{2}{mark}\wordgroup{1}{1}{2}{*}\end{dependency}\end{scriptsize}}\ex\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]動物\&っぽい\\\utag{NOUN}\&\utag{PART}\\\end{deptext}\depedge{1}{2}{mark}\wordgroup{1}{1}{2}{*}\end{dependency}\end{scriptsize}}\end{xlist}\end{exe}この方針により,国語研短単位の品詞の分類をUDの品詞タグに変換するのが原則となるが,その際に例外的に考慮することとなった事象を以下に示す.\subsubsection{サ変動詞と形状詞}UniDic短単位の品詞体系では,サ変動詞の語幹は「名詞-サ変可能」,形状詞の語幹は「名詞-形状詞可能」という品詞になっており,それらが名詞として扱われる場合と同一である.これらをすべて名詞として扱うことは,用言を核とした情報抽出や構文解析,また他の言語とのマッピングの際に支障となると考え,日本語UDの品詞タグでは,これらが用言として振る舞う場合にはそれぞれ\utag{VERB},\utag{ADJ}のタグを付与し,(\ref{sent:suru})のような構造とした.\begin{exe}\ex\label{sent:suru}\begin{xlist}\ex\label{sent:surua}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]勉強\&する\\\utag{VERB}\&\utag{AUX}\\\end{deptext}\depedge{1}{2}{aux}\\\wordgroup{1}{1}{2}{*}\end{dependency}\end{scriptsize}}\ex\label{sent:surub}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]綺麗\&だ\\\utag{ADJ}\&\utag{AUX}\\\end{deptext}\depedge{1}{2}{aux}\\\wordgroup{1}{1}{2}{*}\end{dependency}\end{scriptsize}}\end{xlist}\end{exe}サ変動詞は,格要素や副詞などの要素を子に持つように,当然ながら用言としての振る舞いをするため,「勉強する」を一語の\utag{VERB}としたいところである.しかし,語の単位を国語研短単位で統一するという原則を重視して,内容語である「勉強」の部分が\utag{VERB}となる(\ref{sent:surua})の構造を採用するに至った.形状詞についても同様に,(\ref{sent:surub})のようになる.\subsubsection{補助用言}「走って\underline{いる}」「来て\underline{ほしい}」の下線部のように,一般に独立の文節を構成しない補助用言がある.これらはUniDicにおいて,それぞれ「動詞-非自立可能」「形容詞-非自立可能」といった品詞が割り当てられており,短単位の品詞としては「私が\underline{いる}」「飲み物が\underline{ほしい}」のような本動詞の場合との区別がない.日本語UDにおいては,依存構造を単純にするためにも,補助用言は子要素を持たない機能語とみなしたい.そのために,\ref{subsec:pos_j}~節で示した二重形態素解析の結果を参照し,自立語でないとみなされた用言には,「た」「れる」などの助動詞と同じ品詞タグ\utag{AUX}を割り当てた.(\ref{sent:iru})の例では,「いる」を機能語\utag{AUX}とみなし,「ずっと」の係り先が「いる」である(係り受けに交差が生じる)という可能性を排除した.\begin{exe}\ex\label{sent:iru}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]ずっと\&パン\&を\&食べ\&て\&いる\\\utag{ADV}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{SCONJ}\&\utag{AUX}\\\end{deptext}\depedge{4}{1}{advmod}\depedge{4}{2}{obj}\depedge{2}{3}{case}\depedge{4}{5}{mark}\depedge{4}{6}{aux}\deproot{4}{root}\wordgroup{1}{1}{1}{*}\wordgroup{1}{2}{3}{*}\wordgroup{1}{4}{6}{*}\end{dependency}\end{scriptsize}}\\\hfill【作例】\end{exe}\subsection{格のラベルと助詞の分類}\label{sub:issue_case}日本語の句構造木に基づくツリーバンク\cite{Tanaka-2013}は,格関係や節構造などUDに必要な統語関係の情報を含んでいる.しかしながら,日本語の文節に基づく係り受けツリーバンクの多くは,格関係などの統語関係の情報を含んでいない.以下では,その制約の下で,一貫性を持つ依存関係ラベルを割り当てるための設計を示す.主語や目的語が語順によって定まる英語と異なり,日本語は語順に自由度があり,格助詞などが格を示唆するものの,係助詞・副助詞が用いられたり,助詞が省略されたりする場合があり,格要素に\dt{nsubj},\dt{obj},\dt{iobj}といった依存関係ラベルを割り当てるのは簡単ではない.UDは構文の情報を付与するものであって,深層格など意味的なものをを示すものではないという立場から,原則として格助詞「が」を持つ名詞句に\dt{nsubj}を付与し,格助詞「を」を持つ名詞句に\dt{obj}を付与する.格助詞「に」の扱いは特に難しい.(\ref{fig:casemarker-4})に示す例のように,時間や場所を表す場合(この例では時間格「朝」)には\dt{obl},その他の場合(例では目標格「学校」)に\dt{iobj}を付与すれば,他の言語とラベルを近づけることができる.しかしながら,文節に基づく係り受けアノテーションから変換する際にはこれらの深層格の情報が不足している.このため,後で述べるUDJapanese-GSDおよびUDJapanese-PUDにおいては,格助詞「に」を持つ名詞句全てに\dt{iobj}を付与し,UDJapanese-BCCWJおよびUDJapanese-Modernにおいては\dt{obl}を付与している.述語項構造アノテーションBCCWJ-PASなどが手に入る場合には,参照して区別する必要があるが,現在は行っていない.\begin{exe}\ex\label{fig:casemarker-4}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]朝\&に\&学校\&に\&行く\\\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\deproot{5}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{5}{*}\depedge{1}{2}{case}\depedge{3}{4}{case}\depedge{5}{1}{obl}\depedge{5}{3}{iobj}\depedge[edgebelow,textonlylabel,arcedge,edgestyle={denselydotted}]{5}{3}{GOAL}\depedge[edgebelow,textonlylabel,arcedge,edgestyle={denselydotted}]{5}{1}{TEMPORAL}\end{dependency}\end{scriptsize}}\\\hfill【作例:「に」の曖昧性】\end{exe}UDの格に関する依存関係ラベルは主語優勢言語向けに設計されており,日本語のような主題優勢言語のアノテーションを設計する際には困難が生じている.主題に相当するラベルは設定されておらず,提題の係助詞「は」については扱いが難しい.UDでは,「主題は\dt{disclocated}を付与する.ただし、それが主語でもある場合は\dt{nsubj}を付与する.」と定義されている.これを行うためには「は」の用法を区別する必要があり,構文情報だけからはラベルを決定することができない.そこで,現在は以下のように近似的に「は」のラベルを付与している.(\ref{fig:casemarker-6})のように,「が」が含まれず,「は」が含まれる文に対しては,「は」がつく名詞句を主語相当とし,依存関係ラベル\dt{nsubj}を付与する.(\ref{fig:casemarker-3})のように,一つの文節の中に「に」と「は」が共起する名詞句は,格助詞「に」の用法に基づいて依存関係ラベル\dt{iobj}か\dt{obl}を付与する.(\ref{fig:casemarker-2})のように,「は」と「が」が同じ述語に係り受け関係を持つ場合には,「は」がつく名詞句に依存関係ラベル\dt{dislocated}を付与する.しかし,\dt{dislocated}は,英語において主題を明示する分裂文に用いられるものである.(\ref{fig:casemarker-5})のように,日本語における分裂文には依存関係ラベル\dt{dislocated}が用いられず,節主語を表す\dt{csubj}が用いられる.日本語の「は」は英語等において\dt{dislocated}で表される依存関係とは異なると考えられ,よりよいアノテーション方法は検討課題として残されている.なお,「は」以外の係助詞については\dt{nsubj}との区別が求められていないので,格が明示されている場合(例えば「にも」)はそれに相当する依存関係ラベルを,明示されていない場合には\dt{obl}を付与する.\begin{exe}\ex\label{fig:casemarker-6}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]太郎\&は\&きびしい\\\utag{PROPN}\&\utag{ADP}\&\utag{ADJ}\\\end{deptext}\deproot{3}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{3}{*}\depedge{1}{2}{case}\depedge{3}{1}{nsubj}\end{dependency}\end{scriptsize}}\\\hfill【作例:提題の「は」】\end{exe}\begin{exe}\ex\label{fig:casemarker-3}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]太郎\&に\&は\&問題\&が\&やさしい\\\utag{PROPN}\&\utag{ADP}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\\\end{deptext}\deproot{6}{root}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{5}{*}\wordgroup{1}{6}{6}{*}\depedge{1}{2}{case}\depedge{1}{3}{case}\depedge{4}{5}{case}\depedge{6}{1}{iobj}\depedge{6}{4}{nsubj}\end{dependency}\end{scriptsize}}\\\hfill【作例:「には」】\end{exe}\begin{exe}\ex\label{fig:casemarker-2}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]象\&は\&鼻\&が\&長い\\\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\\\end{deptext}\deproot{5}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{5}{*}\depedge{1}{2}{case}\depedge{3}{4}{case}\depedge{5}{1}{dislocated}\depedge{5}{3}{nsubj}\end{dependency}\end{scriptsize}}\\\hfill【作例:象鼻文】\end{exe}\begin{exe}\ex\label{fig:casemarker-5}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=0.3cm,rowsep=.1ex]鼻\&が\&長い\&の\&は\&象\&だ\\\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\&\utag{SCONJ}\&\utag{ADP}\&\utag{NOUN}\&\utag{AUX}\\\end{deptext}\depedge{3}{1}{nsubj}\depedge{1}{2}{case}\depedge{3}{4}{mark}\depedge{3}{5}{case}\depedge{6}{3}{csubj}\depedge{6}{7}{aux}\deproot{6}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{5}{*}\wordgroup{1}{6}{7}{*}\end{dependency}\end{scriptsize}}\\\hfill【作例:分裂文】\end{exe}\subsection{句と節の区別}\label{sub:issue_clause}UDでは,表\ref{tbl:clause}に示すように,子要素が語・句の場合と節の場合とで異なる依存関係ラベルを付与する設計になっている.\begin{table}[b]\caption{UDの統語関係ラベルにおける語・句と節の区別}\label{tbl:clause}\input{01table03.tex}\end{table}英語においては,形容詞句(名詞修飾句)(\ref{fig:amod_acl_en1})と形容詞節(名詞修飾節)(\ref{fig:amod_acl_en2})と明確に区別できる.形容詞は限定用法に限って\dt{amod}としている.なお,形容詞の叙述用法については\dt{cop}が割り当てられる.\begin{exe}\ex\begin{xlist}\ex\label{fig:amod_acl_en1}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]Sam\&eats\&red\&meat\&.\\\utag{PROPN}\&\utag{VERB}\&\utag{ADJ}\&\utag{NOUN}\&\utag{PUNCT}\\\end{deptext}\depedge{2}{1}{nsubj}\depedge{2}{4}{obj}\depedge{4}{3}{amod}\deproot{2}{root}\depedge{2}{5}{punct}\end{dependency}\end{scriptsize}}\\\hfill【UD:英語での形容詞の限定的用法\dt{amod}】\ex\label{fig:amod_acl_en2}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]I\&have\&a\&parakeet\&named\&cookie\&.\\\utag{PRON}\&\utag{VERB}\&\utag{DET}\&\utag{NOUN}\&\utag{VERB}\&\utag{NOUN}\&\utag{PUNCT}\\\end{deptext}\deproot{2}{root}\depedge{2}{1}{nsubj}\depedge{2}{4}{obj}\depedge{4}{5}{acl}\depedge{5}{6}{xcomp}\depedge{4}{3}{det}\depedge{2}{7}{punct}\end{dependency}\end{scriptsize}}\\\hfill【UD:英語での関係節\dt{acl}】\end{xlist}\end{exe}しかしながら,日本語においては,句と節の境界が曖昧であり,明示的に区別して依存関係ラベルを付与することが難しい.例えば,英語での形容詞の限定的用法にはラベル\dt{amod}が用いられるが,対応する日本語の現象は,用言の連体形を用いた体言の修飾である.(\ref{fig:acl})は限定的用法の例ではあるが,(\ref{fig:acl1})は「タイトル」が「長い」という主述の関係があり,述語的用法でもある.一方,(\ref{fig:acl2})は「車」と「長い」の間に主述の関係がないために,述語的用法ではない.\begin{exe}\ex\label{fig:acl}\begin{xlist}\ex\label{fig:acl1}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]タイトル\&の\&長い\&本\\\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\&\utag{NOUN}\\\end{deptext}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{3}{*}\wordgroup{1}{4}{4}{*}\depedge{1}{2}{case}\depedge{3}{1}{obl}\depedge{4}{3}{acl}\deproot{4}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例:連体修飾節\dt{acl}】\ex\label{fig:acl2}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]車\&の\&長い\&列\\\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\&\utag{NOUN}\\\end{deptext}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{3}{*}\wordgroup{1}{4}{4}{*}\depedge{1}{2}{case}\depedge{4}{1}{nmod}\depedge{4}{3}{acl}\deproot{4}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例:連体修飾節\dt{acl}】\end{xlist}\end{exe}このように,日本語において,限定的用法か述語的用法かの二分化が難しく,英語での形容詞の限定的用法(\dt{amod})と関係節(\dt{acl})に相当する連体修飾節との区別が明確でない.アノテーションの揺れを防ぐために,形容詞・形状詞が格を伴わずに名詞を修飾する場合も含めて常に\dt{acl}を用いることとし,\dt{amod}は連体詞による修飾に限定した.日本語の句と節の境界は,述語相当句が項を取りうるか否かの観点から識別することができるが,ゼロ主語の問題もあり「節でない」ことを判定することは困難である.そこで,項を取りうるか否かの観点に基づく句か節かの判定を放棄し,時制を帯びるかどうかの観点\cite{有田2007}に基づき,形容詞・形状詞においては一律に\dt{acl}とし,連体詞においては一律に\dt{amod}とした.同様に,述語の連用形が他の用言を修飾する場合も\dt{advcl}として,\dt{advmod}は副詞による修飾の場合のみに用いた.\begin{exe}\ex\label{fig:csubj}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]太郎\&が\&怒ら\&れる\&の\&は\&いや\&だ\\\utag{PROPN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\&\utag{SCONJ}\&\utag{ADP}\&\utag{ADJ}\&\utag{AUX}\\\end{deptext}\deproot{8}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{6}{*}\wordgroup{1}{7}{8}{*}\depedge{1}{2}{case}\depedge{3}{1}{nsubj}\depedge{3}{4}{aux}\depedge{3}{5}{mark}\depedge{3}{6}{case}\depedge{7}{3}{csubj}\depedge{7}{8}{aux}\end{dependency}\end{scriptsize}}\\\hfill【作例:節主語\dt{csubj}】\end{exe}節主語は,形式名詞「の」に対して定義する.(\ref{fig:csubj})のように,形式名詞「の」の品詞タグは\utag{SCONJ}とし,「の」を含む文節の主辞「怒ら」の依存関係ラベルを\dt{csubj}とする.\begin{exe}\ex\label{fig:ccomp}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]きれい\&だ\&と\&思う\\\utag{ADJ}\&\utag{AUX}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\deproot{4}{root}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{4}{*}\depedge{1}{2}{aux}\depedge{1}{3}{case}\depedge{4}{1}{ccomp}\end{dependency}\end{scriptsize}}\\\hfill【作例:節主語\dt{ccomp}】\end{exe}節補語は,引用の「と」に対して定義する(\ref{fig:ccomp})のように,引用の「と」には,品詞タグ\utag{ADP}を付与し,「と」を含む文節の主辞「きれい」の依存関係ラベルを\dt{ccomp}とする.\dt{xcomp}は,主語が明示的に出現する言語において,主語はないが,述語性補語や節補語のみが出現する(openclausalcomplement)ような動詞もしくは形容詞に対して定義される.しかし,日本語においては,そもそも主語が明示的に出現しないため,ラベル\dt{xcomp}を用いない. \section{並列構造} \label{sec:coord}本節では並列構造の扱いについて議論する.日本語は文節単位に関係を付与した場合には,同格や倒置などの構造を除いて,常に主辞が右に来る構造(主辞後置)になる.しかしながらUDでは,並列構造では常に左側の要素が主辞となると規定している.以下では,名詞句の並列,動詞句の並列について,UDの原則と現在の日本語コーパスにおける構造を比較し,今後の方向性を述べる.\subsection{名詞句の並列}\label{subsec:nominal}UDにおける並列構造のアノテーションは左側が主辞となる.(\ref{sent:cc})は,その原則に忠実に従って他の言語と同様のアノテーションを付与した時の名詞句並列の例である.\begin{exe}\ex\label{sent:cc}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[rowsep=.1ex]かわいい\&犬\&と\&猫\&が\&走る\\\utag{ADJ}\&\utag{NOUN}\&\utag{CCONJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\depedge{2}{1}{acl}\depedge{2}{4}{conj}\depedge{4}{3}{cc}\depedge{2}{5}{case}\depedge{6}{2}{nsubj}\wordgroup{1}{1}{1}{kawaii}\wordgroup{1}{2}{3}{inu}\wordgroup{1}{4}{5}{neko}\wordgroup{1}{6}{6}{}\deproot{6}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例:UDの原則に基づく】\end{exe}\dt{conj}は並列構造の構成要素を結ぶ依存関係ラベルである.\dt{cc}は接続表現「と」(品詞\utag{CCONJ})とその右側の構成要素とを結ぶ仕様になっている.このように,(\ref{sent:cc})の構造は日本語学の研究者にとっても,構文解析器を実装する研究者にとっても,非常に扱いにくい構造であると考える.そこで,日本語のUDコーパスを作成するにあたって,「犬と猫」の関係は,並列構造ではなく名詞句の修飾の一形態として取り扱うこととし,(\ref{sent:nmodcc})の形のアノテーションを定めた.ここでは,「と」は名詞句「犬」の\dt{case}とし,「犬」と「猫」は\dt{nmod}で結ぶ.これによって,並列構造の左側を主辞とするUDの規定に起因する問題を回避した.\pagebreak\begin{exe}\ex\label{sent:nmodcc}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[rowsep=.1ex]かわいい\&犬\&と\&猫\&が\&走る\\\utag{ADJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\depedge{4}{1}{acl}\depedge{4}{2}{nmod}\depedge{2}{3}{case}\depedge{4}{5}{case}\depedge{6}{4}{nsubj}\wordgroup{1}{1}{1}{kawaii}\wordgroup{1}{2}{3}{inu}\wordgroup{1}{4}{5}{neko}\wordgroup{1}{6}{6}{}\deproot{6}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例(\ref{sent:cc}):現在のコーパスの対処方法】\end{exe}\subsection{動詞句の並列}\label{subsec:verbal}次に動詞句の並列について示す.(\ref{sent:verbalcc})は,「て」で接続する動詞句を,左主辞原則に準じた並列構造として表現したものである.「食べ」と「走る」を並列とみなし,左構成要素を主辞とすると,「食べ」が\dt{acl}により「人」に関連づけられる.結果,連体形でない活用形であるのに名詞を連体修飾する\footnote{連体形であることは,子要素である最右の並列の構成要素を辿らないと把握できない.}という,極めて不自然な構造となる.\begin{exe}\ex\label{sent:verbalcc}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[rowsep=.1ex]食べ\&て\&走る\&人\\\utag{VERB}\&\utag{SCONJ}\&\utag{VERB}\&\utag{NOUN}\\\end{deptext}\depedge{1}{2}{mark}\depedge{1}{3}{conj}\depedge{4}{1}{acl}\wordgroup{1}{1}{2}{}\wordgroup{1}{3}{3}{}\wordgroup{1}{4}{4}{}\deproot{4}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例:UDの原則】\end{exe}一方,現在公開されている日本語UDのコーパスでは,基本的には,述語間の関係に並列構造を認定しない.(\ref{sent:verbalcc})の例のように,「て」による接続を動詞の並列(\dt{conj})とみなさず,副詞句による修飾(\dt{advcl})としている(\ref{sent:verbalcc3}).この解釈により,左側が主辞となる構造を回避し,より直感的な構造としている.英語の`eatandrun'と異なり,日本語では二つの動詞が文法的に並列ではなく,文法的要素は右側の語だけに付与されるという性質があり,さらに「て」で結ばれる関係は時間的な前後関係などもあり従属接続とみなすのが自然であることからも,この対応は妥当だと考えている.\begin{exe}\ex\label{sent:verbalcc3}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}食べ\&て\&走る\&人\\\utag{VERB}\&\utag{SCONJ}\&\utag{VERB}\&\utag{NOUN}\\\end{deptext}[rowsep=.1ex]\depedge{1}{2}{mark}\depedge{3}{1}{advcl}\depedge{4}{3}{acl}\wordgroup{1}{1}{2}{}\wordgroup{1}{3}{3}{}\wordgroup{1}{4}{4}{}\deproot{4}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例(\ref{sent:verbalcc}):現在のコーパスの対処方法】\end{exe}\subsection{並列構造に対する今後の方向性}以上で見た通り,UDの並列構造の原則に基づいた日本語のアノテーションは,日本語学的にも解析器の観点からも不自然な構造になってしまう.右側の要素を主辞とする並列構造を含むコーパスは,検証器によりUDとして妥当でないとされて,sharedtaskでの利用ができなくなるため,現状で公開している日本語のUDコーパスでは,名詞句の並列は名詞句の修飾(\dt{nmod}),動詞句の並列は従属的な副詞節の修飾(\dt{advcl})であるとみなして,この問題を回避している.しかしながら,言語横断処理や言語対照比較などの際に,他言語と対応する並列構造を\dt{conj}や\dt{cc}により表現をしたいという要望もある.同じ問題が韓国語にも起きていることが指摘されており\cite{Chun-2018},韓国語UDのコーパスが公式のものと右主辞型の非公式なものに分化してしまっている,日本語と韓国語には文法的に類似点が多いにもかかわらずUDコーパスの構造がまったく一致しない,といった問題が起きている.左主辞原則は日本語や韓国語のような主辞後置の言語については適用が困難であるために,並列構造における構造の方向性を言語ごとに定義できるよう,UD本体のコミュニティに働きかけていきたい. \section{日本語の言語資源と変換} \label{sec:resources}\subsection{公開中のコーパス}\label{subsec:resources}表~\ref{tab:status}に示すとおり,日本語UDのコーパスとして以下の資源が公開されている.{\bfUDJapanese-BCCWJ}はBCCWJ\cite{Maekawa-2014-LRE}を変換したUDのコーパスである.元のコーパスは約1億語からなり,短単位・長単位・文節の人手のアノテーションが付与されている.さらに,文節単位の並列構造を示すBCCWJ-DepPara\cite{Asahara-2016-ALR12}をUDへの変換の際に使用している.\begin{table}[b]\caption{公開中の日本語UDのコーパス}\label{tab:status}\input{01table04.tex}\end{table}{\bfUDJapanese-KTC}\cite{UD-LREC-2016}はNIIとNTTの共同研究により構築した句構造ツリーバンクをもとに整備されているKaedeTreebank\cite{Tanaka-2013,ttanaka:2014:NLP}を変換したUDのコーパスである.元テキストは京都大学テキストコーパス\cite{KTC}と同じ,毎日新聞の1995年版である.KaedeTreebankは,国語研長単位とUniDic品詞体系による形態論情報が付与されている.2018年5月現在,UDのVersion1の基準に準拠している.今後,UDのVersion2に対応させる予定である.{\bfUDJapanese-GSD}は,Wikipediaの記事からなる.以前はUDJapaneseと呼ばれていたデータで,CoNLL-2017のSharedTask\cite{zeman2017conll}に提供された.UDJapanese-GSDのVersion2.0の単語分かち書きはIBMの単語分割器により自動分割されたもので,頻出する誤りを辞書登録により修正したものである.文節単位の係り受け解析器\cite{Kanayama00}による出力を機能語に対する主辞規則\cite{UD-LREC-2016}により変換したものである.2017年11月に公開されたVersion2.1では,人手によるアノテーションとの重ね合わせを行い,修正を施した.{\bfUDJapanese-PUD}は,UDJapanese-GSDと同様の方法で作成されたもので,他言語との並行コーパスとなっている.{\bfUDJapanese-Modern}\cite{UD-Modern-JADH-2017}は『日本語歴史コーパス明治・大正編I雑誌』(CHJ)\cite{Ogiso-2017}に基づいたデータである.CHJは,BCCWJと同じ基準で形態論情報が付与されている.また,BCCWJ-DepParaと同じ基準で,文節係り受けと並列構造が付与されており,UDJapanese-BCCWJと同じ手法でUD基準に変換される.BCCWJとの違いとして,文語表現に基づく倒置(「曰」など)や述語性連体詞(「所謂」)などがある.\subsection{既存のコーパスからの変換}\label{subsec:conversion}\ref{sec:japanese}~節で述べた通り,UDの日本語コーパスは既存のコーパスからの変換に基づいて構成する.構文構造のコーパスには,BCCWJ\cite{Maekawa-2014-LRE}に文節ごとの係り受け関係を付与したBCCWJ-DepPara~\cite{Asahara-2016-ALR12},国語研短単位による単語の単位で係り受けを付与したコーパス\cite{mori:2014:lrec},句構造のツリーバンク(TanakaandNagata2013;吉本,周,小菅,大友,Butler2013;田中他2014)\nocite{Tanaka-2013,yoshimoto:2013:NLP,ttanaka:2014:NLP}などがある.UD自体は単語単位の係り受け構造であるが,節の単位を考慮して依存関係ラベル(\dt{acl},\dt{advcl},\dt{csubj},\dt{ccomp}など)を付与したり,並列構造のスコープを定めたりする必要がある.また,日本語のUDVersion2では,格関係のラベルは格助詞により表示された表層格で付与する(格助詞「が」=\dt{nsubj},格助詞「を」=\dt{obj}など)が,係助詞「は」「も」などにより格助詞が現れない場合や,格助詞「に」で表示された要素を必須要素として扱うか(\dt{iobj}),随意的要素として扱うか(\dt{obl})などの区別を行う必要があることから,変換元のコーパスに述語項構造の情報が含まれていることが望ましい.また,格関係を含め内容語間の係り受け関係を捉える上では,格助詞や助動詞相当の機能表現の複合語(「に対して」「かもしれない」など)をまとめて扱った方が都合が良く,国語研長単位を導入することによりこれらを一つの機能語として扱うことも有用である.これらの情報を持つコーパスとして句構造ツリーバンクKaedeTreebank\cite{Tanaka-2013,ttanaka:2014:NLP}と,文節係り受けのコーパスBCCWJからの変換によりUDのコーパスが構築されている.表~\ref{tab:ud-conversion}に,変換元としたコーパスとUD変換に必要な情報の取得源を示している.以下に,それぞれの変換の概要について述べる.\begin{table}[b]\caption{既存コーパスとUDへの変換に利用した情報}\label{tab:ud-conversion}\input{01table05.tex}\end{table}\subsubsection{句構造ツリーバンクからの変換}日本語句構造ツリーバンクKaedeTreebankでは,形態素や句構造などのアノテーションを参照することで,日本語UDへの自動変換を行っている.ツリーバンクは2分木で構成されており,左右のラベルを比較して主辞を決定する主辞規則を各分岐に順に適用することで,依存構造に変換することができる.依存構造ラベルも,各分岐ごとに周辺のノードのラベルを参照する変換規則を適用することにより決定することができる.図~\ref{fig:ex-constituent}は,変換元となる句構造の例を示している.図中の品詞ラベルは,元のツリーバンクのものからUPOSに変換した結果となっている.主辞を決定するために各分岐に対して,表\ref{tab:ex-headrule}で示されるような主辞規則を適用していく.例えば,左端の二つのノード「赤い/\utag{ADJ}」「車/\utag{NOUN}」に関して,図中の規則に従うと「\utag{ADJ}」「\utag{NOUN}」の品詞の並びは右側のノード「\utag{NOUN}」が主辞となる.図~\ref{fig:ex-constituent}で,四角で囲まれたノードは各分岐における主辞を示している.\begin{figure}[b]\begin{center}\includegraphics{26-1ia1f1.eps}\end{center}\caption{変換元になる句構造の例}\label{fig:ex-constituent}\end{figure}\begin{table}[b]\caption{主辞規則の例}\label{tab:ex-headrule}\input{01table06.tex}\end{table}依存関係ラベルの決定については,葉ノードにあたる語は全て,何らかの依存関係ラベルを介して,他の語あるいは根ノードを主辞としているので,各葉ノードを起点として行っていく.ある葉ノードをDとすると,DからDの主辞への依存関係ラベルは,Dから根ノードの方向にたどりDが主辞とならない最初のノードC,Cの左の子ノードL,Cの姉妹ノードHのように,それぞれのラベルを参照した規則により決定できる.表\ref{tab:ex-deplabelrule}は,依存関係ラベル変換規則の例を示す.図中の$\ast$は,任意のラベルを表している.例えば,葉ノード「車」と主辞との依存関係ラベルを決定する場合,ノードDは「車/\utag{NOUN}」,Cは「\utag{VP}」,Lは「\utag{PP-OBJ}」,Hは「\utag{SCONJ}」であるので,表\ref{tab:ex-deplabelrule}の3行目のルールから,依存構造ラベルは\dt{obj}に決定される.\begin{table}[b]\caption{依存関係ラベル変換規則の例}\label{tab:ex-deplabelrule}\input{01table07.tex}\end{table}図\ref{fig:ex-converted-results}は,図\ref{fig:ex-constituent}の句構造に,主辞規則,依存関係ラベル変換規則を適用して変換されたUDの例を示す.\begin{figure}[b]\begin{center}\includegraphics{26-1ia1f2.eps}\end{center}\caption{自動変換された依存構造の例}\label{fig:ex-converted-results}\end{figure}\subsubsection{文節係り受けコーパスからの変換}BCCWJにアノテーションされた文節係り受け情報に基づいたUD互換の言語資源を整備した.ここでは,概略を述べるにとどめ,詳細は文献\cite{Omura-WS-2017,Omura-WS-2018}を参照されたい.最初に,BCCWJのUniDic品詞体系から,UPOSへの変換が行われる.UPOSに変換するにあたっては,前述したようにサ変や形状詞のように用法に応じた品詞を必要とする場合があるため,短単位の品詞だけでなく,長単位の品詞も参照して変換する.表\ref{fig:ex-bccwj-segment}の例では,「所持」という短単位について,品詞は「名詞-普通名詞-サ変可能」であり,UPOSでは\utag{NOUN},\utag{VERB}のいずれかに変換される可能性があるが,長単位「所持し」の品詞「動詞-一般」を参照して,\utag{VERB}に変換される.\begin{table}[b]\caption{国語研短単位,長単位,文節による分割とUPOSの例}\label{fig:ex-bccwj-segment}\input{01table08.tex}\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-1ia1f3.eps}\end{center}\caption{文節係り受けと変換されたUDの例.色のついている単語が文節の主辞である.}\label{fig:ex-bunsetsu-dep}\end{figure}単語間の依存構造は,BCCWJ-DepParaが持つ文節間の係り受け情報を変換することにより,構築する.\ref{subsec:dep_j}節で述べたように,文節間係り受けを各文節間の自立語主辞に代表させるため,文節間の係り受けは各文節の主辞となる語の間の依存関係に変換される.図\ref{fig:ex-bunsetsu-dep}では,2つの文節「自動車を」「所持している」間の係り受け関係が,それぞれの文節の主辞である短単位「車」「所持」の間の依存関係に変換されている.また,文節内においては文節内の自立語主辞と他の構成要素との関係を定義するため,原則として,各文節の主辞にそれ以外の語が依存関係をもつ構造に変換される.例えば,図の「所持している」の文節においては,「し」「て」「いる」の各語が,文節の主辞「所持」との依存関係を持つ構造に変換されている.依存関係ラベルは,主辞の品詞タグ,短単位品詞,修飾語の品詞タグ,格助詞の情報などを参照した変換規則により変換される.例えば,主辞「所持」と修飾語「車」の間の依存関係ラベルは,主辞の品詞タグ\utag{VERB},修飾語の品詞タグ\utag{NOUN},述語「所持」に対して項「車」が格助詞「を」と依存関係があることの組み合わせにより\dt{obj}に変換される.以上,自動変換の例について述べたが,ここで挙げたコーパス以外で,UDへの自動変換に必要な全ての情報を網羅した言語資源は,現時点では非常に限定的であると考えられる.既存コーパスのアノテーションを活用した自動変換をベースにしつつ,\ref{sec:discussion}~節で挙げたような課題に対応するため,新たなアノテーションスキームに関するさらなる議論が必要である.\subsection{ライセンスと著作権}UDJapanese-BCCWJはBCCWJコーパスから変換されたもので,アノテーションはオープンライセンスとして提供されている.しかし,原文の入手にはDVDの購入が必要\footnote{https://pj.ninjal.ac.jp/corpus\_center/bccwj/}.UDJapanese-KTCは毎日新聞95年版に基づいているために,利用には,毎日新聞データを購入する必要がある.アノテーション自体はクリエイティブコモンズライセンス(CCBY-SA)で利用可能である\footnote{http://www.nichigai.co.jp/sales/mainichi/mainichi-data.html}.UDJapanese-GSDとUDJapanese-PUDデータは,テキストも含めてオープンデータである.いずれもクリエイティブコモンズライセンス(UDJapanese-GSD:CCBY-NC-SA,UDJapanese-PUD:CCBY-SA)で利用可能である.UDJapanese-Modernは『日本語歴史コーパス』を元データとしており,元テキストの著作権は失効している.テキストも含めてクリエイティブコモンズ(CCBY-NC-ND)で利用可能. \section{関連研究} \label{sec:related}本節では,本稿に散在する関連研究について再掲しながらまとめる.既存の日本語の句構造木のツリーバンクとして,国立情報学研究所とNTTの共同研究により構築した句構造ツリーバンクKaedeTreebank\cite{Tanaka-2013,ttanaka:2014:NLP}がある.他にKeyakiTreebank\cite{Horn:2017}や開発中のNINJALParsedCorpusforModernJapanese(長崎,バトラー,ホーン,パルデシ,吉本2018)\nocite{長崎:2018}がある.既存の文節係り受けのツリーバンクとして,京都大学テキストコーパス\cite{KTC}・BCCWJ-DepPara\cite{Asahara-2016-ALR12}・近代語コーパスに対する係り受けアノテーション\cite{浅原:2016}がある.単語単位の係り受けのツリーバンクとして京都大学の日本語係り受けコーパス\cite{mori:2014:lrec}がある.Twitterに対する日本語UDアノテーションの研究も進められている\cite{Iso:2018}.UDのコーパス\cite{UDgithub}に関しては関連研究が多く,日本語に近い言語である韓国語についての研究にとどめる.\cite{Chun-2018}は韓国語のUDの言語資源について解説している.GoogleUDKoreanTreebank\cite{mcdonald:2013}・PennKoreanTreebank\cite{PennKTB}・KAISTTreebank\cite{KAISTTB}からのUD基準への変換について議論している.そのほかKoreanNationalCorpus\cite{KNC}からの変換に関する議論もある\cite{Noh:2018}.しかしながら,韓国語UDコーパスでは文節に相当する単位をUDの語としているなど,日本語のアノテーション仕様とは大きな隔たりがある.これは,言語間でアノテーション仕様をなるべく統一するというUDの目的から外れている状態と言える.実際,並列構造の左主辞に起因する問題など共有している問題もある\cite{kanayama:2018}.今後は4節の日本語特有の問題を共有し,相互に情報を交換しながらアノテーション仕様を合わせていくことが期待される.このほか,各論に対する関連研究については紙面の都合上割愛する. \section{おわりに} \label{sec:summary}本稿では,UniversalDependencies日本語版の定義を示した.その際の方針や現在の状況は以下の通りである:\begin{itemize}\itemUD本体の基準の変更に追随するために,基本的に既存のアノテーションデータからの変換によりコーパスを生成する.UD本体の基準に変更があった場合には変換規則の修正により対応する.\item従って,既存のアノテーションデータに含まれる情報から変換が可能な粒度のタグ・ラベルを付与する.\item現在のところ語の単位を国語研短単位で統一している.\item品詞タグはUniDic品詞体系とUD品詞の対応付けに基づいて付与する.サ変動詞・形状詞・補助用言などの一部の可能性に基づく品詞体系に対しては例外的な規定を与える.\item依存関係は,句構造木もしくは文節係り受けからの変換によって認定する.\item依存関係ラベルは,既存のアノテーションデータによって決められない情報(格のラベル・句と節の境界)があるが,変換の可能性・一貫性を重視して規則を与える.\item並列構造は本質的に係り受け木ではそのスコープを決定できない場合がある.またUD本体のほうで左主辞の原則を与えているが,日本語や韓国語などの主辞後置言語に親和性がない構造となっている.この点については,韓国語UDコーパスを整備している研究者とともにUD本体に対して問題点を指摘している.\item様々な言語資源からUD日本語データを構築し,現在のところチェコ語に次いで世界2位の規模のデータを公開している.\end{itemize}このように,UDの原則的定義に従いつつ日本語の既存の言語資源との対応関係を意識している.これまでは日本語の言語資源は独自の基準で研究されてきた面があり,既存の言語資源とUDの定義では対応関係が自明でない点が多い.本稿で示した定義においても一貫性や変換可能性に課題が残っており,今後の議論により日本語の独自性と言語横断性を両立した体系の構築を目指す.この活動により,言語横断的な研究や新たな応用への取り組みが加速されることが期待される.例えば,複数言語のUDコーパスを利用した構文解析器の構築,対訳コーパスに対して付与したアノテーションの比較,UDの言語横断性を利用した機械翻訳,などの応用が考えられる.一方,\ref{sec:discussion}~節で挙げた課題を見ても,UD全体の定義が英語に特化していると思われる点もある.UDを日本語へローカライズすることにとどまらず,他の言語のコミュニティと連携しながらUD全体の発展に向けて情報発信していくことが必要となろう.\acknowledgment研究開始時およびUDコーパス構築・公開に関して植松すみれ氏の多大なる貢献がありました.森信介氏には研究の過程でご助言をいただきました.本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費JP15K12888,17H00917,18H05521の助成を受けました.本稿はLREC-2016:UniversalDependenciesforJapaneseとLREC-2018:UniversalDependenciesVersion2forJapaneseで発表したものを加筆修正したものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{有田}{有田}{2007}]{有田2007}有田節子\BBOP2007\BBCP.\newblock\Jem{日本語条件文と時制節性}.\newblock日本語研究叢書(フロンティアシリーズ).くろしお出版.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2016}]{Asahara-2016-ALR12}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQBCCWJ-DepPara:ASyntacticAnnotationTreebankonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofthe12thWorkshoponAsianLanguageResources(ALR12)},\mbox{\BPGS\49--58}.TheCOLING2016OrganizingCommittee.\bibitem[\protect\BCAY{浅原\JBA高橋}{浅原\JBA高橋}{2016}]{浅原:2016}浅原正幸\JBA高橋雄太\BBOP2016\BBCP.\newblock近代語コーパスに対する統語アノテーション基準の検討.\\newblock\Jem{日本語学会2016年度秋季大会}.\bibitem[\protect\BCAY{Choi,Han,Han,\BBA\Kwon}{Choiet~al.}{1994}]{KAISTTB}Choi,J.~D.,Han,Y.~S.,Han,Y.~G.,\BBA\Kwon,O.~W.\BBOP1994\BBCP.\newblock\BBOQKAISTTreeBankProjectforKorean:PresentandFutureDevelopment.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\7--14}.\bibitem[\protect\BCAY{Chun,Han,Hwang,\BBA\Choi}{Chunet~al.}{2018}]{Chun-2018}Chun,J.,Han,N.-R.,Hwang,J.~D.,\BBA\Choi,J.~D.\BBOP2018\BBCP.\newblock\BBOQBuildingUniversalDependencyTreebanksinKorean.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation(LREC2018)},\mbox{\BPGS\2194--2202}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{de~Marneffe,Dozat,Silveira,Haverinen,Ginter,Nivre,\BBA\Manning}{de~Marneffeet~al.}{2014}]{demarneffe:2014:LREC}de~Marneffe,M.-C.,Dozat,T.,Silveira,N.,Haverinen,K.,Ginter,F.,Nivre,J.,\BBA\Manning,C.~D.\BBOP2014\BBCP.\newblock\BBOQUniversalStanfordDependencies:ACross-linguisticTypology.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC2014)},\mbox{\BPGS\4585--4592}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Den,Nakamura,Ogiso,\BBA\Ogura}{Denet~al.}{2008}]{den:2008:lrec}Den,Y.,Nakamura,J.,Ogiso,T.,\BBA\Ogura,H.\BBOP2008\BBCP.\newblock\BBOQAProperApproachtoJapaneseMorphologicalAnalysis:Dictionary,Model,andEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation(LREC2008)},\mbox{\BPGS\1019--1024}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Haji{\v{c}},Ciaramita,Johansson,Kawahara,Mart{\'{\i}},M{\`{a}}rquez,Meyers,Nivre,Pad{\'{o}},{\v{S}}t{\v{e}}p{\'{a}}nek,Stra{\v{n}}{\'{a}}k,Surdeanu,Xue,\BBA\Zhang}{Haji{\v{c}}et~al.}{2009}]{hajivc-EtAl:2009:CoNLL-2009-ST}Haji{\v{c}},J.,Ciaramita,M.,Johansson,R.,Kawahara,D.,Mart{\'{\i}},M.~A.,M{\`{a}}rquez,L.,Meyers,A.,Nivre,J.,Pad{\'{o}},S.,{\v{S}}t{\v{e}}p{\'{a}}nek,J.,Stra{\v{n}}{\'{a}}k,P.,Surdeanu,M.,Xue,N.,\BBA\Zhang,Y.\BBOP2009\BBCP.\newblock\BBOQTheCoNLL-2009SharedTask:SyntacticandSemanticDependenciesinMultipleLanguages.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceonComputationalNaturalLanguageLearning(CoNLL2009):SharedTask},\mbox{\BPGS\1--18}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Han,Ryu,Chae,yunYang,Lee,\BBA\Palmer}{Hanet~al.}{2006}]{PennKTB}Han,N.-R.,Ryu,S.,Chae,S.-H.,yunYang,S.,Lee,S.,\BBA\Palmer,M.\BBOP2006\BBCP.\newblock\BBOQKoreanTreebankAnnotationsVersion2.0.\BBCQ\\newblock\texttt{https://catalog.ldc.upenn.edu/LDC2006T09}.\bibitem[\protect\BCAY{Haspelmath}{Haspelmath}{2011}]{Haspelmath:FLin2011}Haspelmath,M.\BBOP2011\BBCP.\newblock\BBOQTheIndeterminacyofWordSegmentationandtheNatureofMorphologyandSyntax.\BBCQ\\newblock{\BemFoliaLinguistica},{\Bbf45}(1),\mbox{\BPGS\31--80}.\bibitem[\protect\BCAY{服部}{服部}{1960}]{Hattori:1960fuzoku}服部四郎\BBOP1960\BBCP.\newblock附属語と附属形式.\\newblock\Jem{言語学の方法},\mbox{\BPGS\461--491}.岩波書店.\bibitem[\protect\BCAY{Horn,Butler,\BBA\Yoshimoto}{Hornet~al.}{2017}]{Horn:2017}Horn,S.~W.,Butler,A.,\BBA\Yoshimoto,K.\BBOP2017\BBCP.\newblock\BBOQKeyakiTreebankSegmentationandPart-of-speechLabelling.\BBCQ\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\417--417}.\bibitem[\protect\BCAY{Iso,Ito,Nagai,Okahisa,\BBA\Aramaki}{Isoet~al.}{2018}]{Iso:2018}Iso,H.,Ito,K.,Nagai,H.,Okahisa,T.,\BBA\Aramaki,E.\BBOP2018\BBCP.\newblock\BBOQParsingJapaneseTweetsintoUniversalDependencies(non-archivalsubmission).\BBCQ\\newblockIn{\BemProceedingsofUniversalDependenciesWorkshop2018(UDW2018)}.\bibitem[\protect\BCAY{Kanayama,Han,Asahara,Hwang,Miyao,Choi,\BBA\Matsumoto}{Kanayamaet~al.}{2018}]{kanayama:2018}Kanayama,H.,Han,N.-R.,Asahara,M.,Hwang,J.~D.,Miyao,Y.,Choi,J.,\BBA\Matsumoto,Y.\BBOP2018\BBCP.\newblock\BBOQCoordinateStructuresinUniversalDependenciesforHead-finalLanguages.\BBCQ\\newblockIn{\BemProceedingsofUniversalDependenciesWorkshop2018(UDW2018)},\mbox{\BPGS\75--84}.\bibitem[\protect\BCAY{Kanayama,Torisawa,Mitsuishi,\BBA\Tsujii}{Kanayamaet~al.}{2000}]{Kanayama00}Kanayama,H.,Torisawa,K.,Mitsuishi,Y.,\BBA\Tsujii,J.\BBOP2000\BBCP.\newblock\BBOQAHybridJapaneseParserwithHand-craftedGrammarandStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics(COLING2000)},\mbox{\BPGS\411--417}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kim}{Kim}{2006}]{KNC}Kim,H.\BBOP2006\BBCP.\newblock\BBOQKoreanNationalCorpusinthe21stCenturySejongProject.\BBCQ\\newblockIn{\BemProceedingsofthe13thNationalInstituteofJapaneseLiterature(NIJL)InternationalSymposium},\mbox{\BPGS\49--54}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{2003}]{KTC}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP2003\BBCP.\newblock{\BemBuildingaJapaneseParsedCorpus---whileImprovingtheParsingSystem},\BCH~14,\mbox{\BPGS\249--260}.\newblockTreebanks:BuildingandUsingParsedCorpora.SpringerNetherlands.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{masuokatakubo}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法・改訂版}.\newblockくろしお出版.\bibitem[\protect\BCAY{McDonald,Nivre,Quirmbach-Brundage,Goldberg,Das,Ganchev,Hall,Petrov,Zhang,T{\"{a}}ckstr{\"{o}}m,Bedini,Bertomeu~Castell{\'{o}},\BBA\Lee}{McDonaldet~al.}{2013}]{mcdonald:2013}McDonald,R.,Nivre,J.,Quirmbach-Brundage,Y.,Goldberg,Y.,Das,D.,Ganchev,K.,Hall,K.,Petrov,S.,Zhang,H.,T{\"{a}}ckstr{\"{o}}m,O.,Bedini,C.,Bertomeu~Castell{\'{o}},N.,\BBA\Lee,J.\BBOP2013\BBCP.\newblock\BBOQUniversalDependencyAnnotationforMultilingualParsing.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\92--97},Sofia,Bulgaria.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{宮岡}{宮岡}{2015}]{Miyaoka:2015go}宮岡伯人\BBOP2015\BBCP.\newblock\Jem{「語」とはなにか・再考:日本語文法と「文字の陥穽」}.\newblock三省堂.\bibitem[\protect\BCAY{Mori,Ogura,\BBA\Sasada}{Moriet~al.}{2014}]{mori:2014:lrec}Mori,S.,Ogura,H.,\BBA\Sasada,T.\BBOP2014\BBCP.\newblock\BBOQAJapaneseWordDependencyCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC2014)},\mbox{\BPGS\753--758}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{長崎\JBAアラステア・バトラー\JBAスティーブン・ライト・ホーン\JBAプラシャント・パルデシ\JBA吉本}{長崎\Jetal}{2018}]{長崎:2018}長崎郁\JBAアラステア・バトラー\JBAスティーブン・ライト・ホーン\JBAプラシャント・パルデシ\JBA吉本啓\BBOP2018\BBCP.\newblock統語解析情報付きコーパス検索用インタフェースの開発.\\newblock\Jem{言語処理学会第24回年次大会発表論文集},\mbox{\BPGS\1123--1126}.\bibitem[\protect\BCAY{Noh,Han,Oh,\BBA\Kim}{Nohet~al.}{2018}]{Noh:2018}Noh,Y.,Han,J.,Oh,T.,\BBA\Kim,H.\BBOP2018\BBCP.\newblock\BBOQEnhancingUniversalDependenciesforKorean.\BBCQ\\newblockIn{\BemProceedingsofUniversalDependenciesWorkshop2018(UDW2018)},\mbox{\BPGS\108--116}.\bibitem[\protect\BCAY{Noji\BBA\Miyao}{Noji\BBA\Miyao}{2015}]{noji:2015}Noji,H.\BBACOMMA\\BBA\Miyao,Y.\BBOP2015\BBCP.\newblock\BBOQLeft-cornerParsingforDependencyGrammar.\BBCQ\\newblock{\BemJournalofNaturalLanguageProcessing},{\Bbf22}(4),\mbox{\BPGS\251--288}.\bibitem[\protect\BCAY{Ogiso,Kondo,Mabuchi,\BBA\Hattori}{Ogisoet~al.}{2017}]{Ogiso-2017}Ogiso,T.,Kondo,A.,Mabuchi,Y.,\BBA\Hattori,N.\BBOP2017\BBCP.\newblock\BBOQConstructionofthe`CorpusofHistoricalJapanese:Meiji-TaishoSeriesI---Magazines'.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceofDigitalHumanities(DH2017)},\mbox{\BPGS\770--771}.AllianceofDigitalHumanitiesOrganizations.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2011}]{ogura:2011:book}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内佐夜香\JBA小西光\JBA原裕\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』形態論情報規程集第4版(上)(下)}.\newblock人間文化研究機構国立国語研究所.\bibitem[\protect\BCAY{大村\JBA浅原}{大村\JBA浅原}{2017}]{Omura-WS-2017}大村舞\JBA浅原正幸\BBOP2017\BBCP.\newblock現代日本語書き言葉均衡コーパスのUniversalDependencies.\\newblock\Jem{言語資源活用ワークショップ発表論文集},\mbox{\BPGS\132--142}.人間文化研究機構国立国語研究所.\bibitem[\protect\BCAY{大村\JBA浅原}{大村\JBA浅原}{2018}]{Omura-WS-2018}大村舞\JBA浅原正幸\BBOP2018\BBCP.\newblockUDJapanese-BCCWJの構築と分析.\\newblock\Jem{言語資源活用ワークショップ発表論文集},\mbox{\BPGS\161--175}.人間文化研究機構国立国語研究所.\bibitem[\protect\BCAY{Omura,Takahashi,\BBA\Asahara}{Omuraet~al.}{2017}]{UD-Modern-JADH-2017}Omura,M.,Takahashi,Y.,\BBA\Asahara,M.\BBOP2017\BBCP.\newblock\BBOQUniversalDependencyforModernJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceofJapaneseAssociationforDigitalHumanities(JADH2017)},\mbox{\BPGS\34--36}.JapaneseAssociationforDigitalHumanities.\bibitem[\protect\BCAY{Petrov,Das,\BBA\McDonald}{Petrovet~al.}{2012}]{petrov:2012:lrec}Petrov,S.,Das,D.,\BBA\McDonald,R.\BBOP2012\BBCP.\newblock\BBOQAUniversalPart-of-SpeechTagset.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonLanguageResourcesandEvaluation(LREC2012)},\mbox{\BPGS\2089--2096}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Straka\BBA\Strakov{\'{a}}}{Straka\BBA\Strakov{\'{a}}}{2017}]{udpipe:2017}Straka,M.\BBACOMMA\\BBA\Strakov{\'{a}},J.\BBOP2017\BBCP.\newblock\BBOQTokenizing,POSTagging,LemmatizingandParsingUD2.0withUDPipe.\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL2017SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies},\mbox{\BPGS\88--99}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{田中\JBA永田\JBA松崎\JBA宮尾\JBA植松}{田中\Jetal}{2014}]{ttanaka:2014:NLP}田中貴秋\JBA永田昌明\JBA松崎拓也\JBA宮尾祐介\JBA植松すみれ\BBOP2014\BBCP.\newblock統語情報と意味情報を統合した日本語句構造ツリーバンクの構築.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\737--740}.言語処理学会.\bibitem[\protect\BCAY{Tanaka,Miyao,Asahara,Uematsu,Kanayama,Mori,\BBA\Matsumoto}{Tanakaet~al.}{2016}]{UD-LREC-2016}Tanaka,T.,Miyao,Y.,Asahara,M.,Uematsu,S.,Kanayama,H.,Mori,S.,\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQUniversalDependenciesforJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation(LREC2016)},\mbox{\BPGS\1651--1658}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Tanaka\BBA\Nagata}{Tanaka\BBA\Nagata}{2013}]{Tanaka-2013}Tanaka,T.\BBACOMMA\\BBA\Nagata,M.\BBOP2013\BBCP.\newblock\BBOQConstructingaPracticalConstituentParserfromaJapaneseTreebankwithFunctionLabels.\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponStatisticalParsingofMorphologicallyRichLanguage(SPML2013)},\mbox{\BPGS\108--118}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{{UniversalDependenciescontributors}}{{UniversalDependenciescontributors}}{2014}]{UDgithub}{UniversalDependenciescontributors}\BBOP2014\BBCP.\newblock\BBOQUniversalDependencies.\BBCQ\\newblock{\hfill\hfill\linebreak\ttfamilyhttps://universaldependencies.github.io/docs/}.\bibitem[\protect\BCAY{吉本\JBA周\JBA小菅\JBA大友\JBA{Butler,A.}}{吉本\Jetal}{2013}]{yoshimoto:2013:NLP}吉本啓\JBA周振\JBA小菅智也\JBA大友瑠璃子\JBA{Butler,A.}\BBOP2013\BBCP.\newblock日本語ツリーバンクのアノテーション方針.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\924--927}.言語処理学会.\bibitem[\protect\BCAY{Zeman}{Zeman}{2008}]{Zeman2008}Zeman,D.\BBOP2008\BBCP.\newblock\BBOQReusableTagsetConversionUsingTagsetDrivers.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation(LREC2008)},\mbox{\BPGS\213--218}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Zeman,Haji{\v{c}},Popel,Straka,Ginter,Nivre,\BBA\Petrov}{Zemanet~al.}{2018}]{udst2018:overview}Zeman,D.,Haji{\v{c}},J.,Popel,M.,Straka,M.,Ginter,F.,Nivre,J.,\BBA\Petrov,S.\BBOP2018\BBCP.\newblock\BBOQCoNLL2018SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies.\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL2018SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies},\mbox{\BPGS\1--21}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zeman,Popel,Straka,Haji{\v{c}},Nivre,Ginter,Luotolahti,Pyysalo,Petrov,Potthast,Tyers,Badmaeva,G{\"{o}}k{\i}rmak,Nedoluzhko,Cinkov{\'{a}},Haji{\v{c}}~Jr.,Hlav{\'{a}}{\v{c}}ov{\'{a}},et~al.}{Zemanet~al.}{2017}]{zeman2017conll}Zeman,D.,Popel,M.,Straka,M.,Haji{\v{c}},J.,Nivre,J.,Ginter,F.,Luotolahti,J.,Pyysalo,S.,Petrov,S.,Potthast,M.,Tyers,F.,Badmaeva,E.,G{\"{o}}k{\i}rmak,M.,Nedoluzhko,A.,Cinkov{\'{a}},S.,Haji{\v{c}}~Jr.,J.,Hlav{\'{a}}{\v{c}}ov{\'{a}},J.,et~al.\BBOP2017\BBCP.\newblock\BBOQCoNLL2017SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies.\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL2017SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies},\mbox{\BPGS\1--19}.\end{thebibliography}\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.現在同准教授.博士(工学).情報処理学会,言語処理学会,日本言語学会,日本語学会各会員.}\bioauthor{金山博}{2000年東京大学大学院理学系研究科修士課程修了,同年より日本アイ・ビー・エム株式会社東京基礎研究所に所属し,自然言語処理の基盤技術と応用に関する研究に従事.博士(情報理工学).言語処理学会・電子情報通信学会各会員.}\bioauthor{宮尾祐介}{2000年東京大学大学院理学系研究科修士課程修了.2001年より同大学にて助手,2007年より助教.2006年同大学大学院にて博士号(情報理工学)取得.2010年より国立情報学研究所准教授,2018年より東京大学教授.人工知能学会,情報処理学会,言語処理学会各会員.}\bioauthor{田中貴秋}{1996年大阪大学大学院基礎工学研究科修士課程修了.同年,日本電信電話株式会社入社.2007年〜2012年西日本電信電話株式会社研究開発センタ勤務.現在,日本電信電話株式会社NTTコミュニケーション科学基礎研究所にて自然言語処理の研究に従事.言語処理学会,人工知能学会各会員.}\bioauthor{大村舞}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2017年より人間文化研究機構国立国語研究所コーパス開発センター非常勤研究員.修士(工学).言語処理学会,人工知能学会各会員.}\bioauthor{村脇有吾}{2011年京都大学大学院情報学研究科博士後期課程修了,博士(情報学).同年京都大学学術情報メディアセンター特定助教,2013年九州大学大学院システム情報科学研究院助教,2016年京都大学大学院情報学研究科助教,現在にいたる.テキスト解析および計算言語学に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{松本裕治}{1979年京都大学大学院工学研究科修士課程修了.同年電子技術総合研究所入所.1985〜1987年(財)新世代コンピュータ技術開発機構に出向.1988年京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.2016年9月より理研AIP知識獲得チームPI兼務.工学博士.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
V31N03-08
\section{はじめに} \label{section:introduction}近年,ニューラルネットワークをベースとした対話システム(以下,ニューラル対話システム)の発話生成の性能は著しく向上している\cite{brown2020language,ouyang2022training,glaese2022improving}.しかし,ユーザと対話をすること自体が目的である「非タスク指向型対話(雑談)」に関する研究では,ニューラル対話システムが受動的な発話を生成する傾向があるという問題が指摘されているなど\cite{akasaki:naacl2019:conversation-initiation,wu2019proactiveGuideTargetKG,Liao2023ProactiveAgentLLM,Yuan2020passiveMultiHop},話題や話題に関する情報,感想を積極的に提示する能力に欠けていることが知られている.一方で,人同士の雑談では感想を述べる発話が対話の盛り上がりに寄与すること\cite{tokuhisa:jsai2006:moriagari},また人がシステムと話すとき相手に人と同様の振る舞いを期待する傾向がある\cite{Nass2000MachinesAM}ことを踏まえると,対話システムが積極的に感想を述べる発話を生成することは,雑談を盛り上げユーザの満足度を高める上で重要と考えられる.こうした背景を踏まえ,感情を表現する対話システムの開発も行われてきた\cite{meguro:collling2010:marcov-dicision}.しかし,話題や相手発話に対して自然かつ共感を得られるような感想の表現は,話題や相手発話の理解に加え,それらから妥当な感想を推測するための常識的知識などの活用が求められる非常に挑戦的な課題と考えられる.実際に,対話システムが適切でない感情発話を生成することにより倫理面や安全性の観点で問題が起きる危険性について指摘されている\cite{Dian/DBLP/exposingProblems,Xu:DBLP:saftyChatbots}.そこで我々は,倫理面や安全性の問題に配慮しながら自然な感想を発話するシステムの実現方法のひとつとして,雑談において扱う話題に対して実際に人によって書かれた適切な意見や感想を外部情報として利用することを試みる.特に,SNSに集まった投稿を人々の感想として利用する具体的な例題として,ニュース記事を引用しているツイートを利用して,そのニュース記事の内容を話題とする雑談をすることを考える.図~\ref{fig:ideal-dialog-type}に,この例題において我々が目標とする対話システムの出力例を示す.図~\ref{fig:ideal-dialog-type}の左側はニュース記事とそれに対する\tweetを,右側はこれらを活用した対話例を示している.図~\ref{fig:ideal-dialog-type}に示すように,\tweetに含まれる感想を対話に取り入れて話題を提供することで,より魅力的で対話の盛り上がりに寄与する発話が生成できると期待している.このような発話生成の実現のためには,発話と発話に関連する外部情報として感想が付与された対話コーパスが有用となるが,現時点では存在しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-3ia7f1.pdf}\end{center}\caption{対話システムの全体像.}\label{fig:ideal-dialog-type}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文では,図~\ref{fig:ideal-dialog-type}に示すような対話システムの構築に有用な対話コーパスとして「感想付きニュース雑談コーパス」を構築する.本コーパスの特徴として,話者の一方はシステム役として,発話時に積極的に第三者の感想(ニュースに対する\tweet)を使って発話をし,もう一方の話者はユーザ役として,システム役が提示する話題に興味を持ち,その話題を深く理解しながら対話をしている.さらに,構築した「感想付きニュース雑談コーパス」を用いて,対話文脈に基づいた引用すべき第三者の感想の選択や,選択した感想を組み込んだ発話生成を対話システムに学習させ,生成発話を感想の表現に対する積極性や雑談の盛り上がりの観点で評価する.本論文における我々の貢献は以下の$2$点である.\begin{enumerate}\item「感想付きニュース雑談コーパス」を構築した\footnote{本論文で構築したコーパスは,\url{https://github.com/fukanarita/newschat-with-impression}で公開している.}.具体的には,$47$件のニュース記事に対して,$11,256$発話を含む$1,005$対話を収録したコーパスを構築した.\item\label{generation}構築した「感想付きニュース雑談コーパス」を用いて学習済の対話システムを\finetuningし,\tweetや文脈を入力して生成した発話を,感想の表現に対する積極性や雑談の盛り上がりの観点で評価した.評価の結果,従来法に比べて文脈に対して自然な発話を生成でき,かつ感想を含む発話を多く生成できることが分かった.加えて,これらのシステムにより生成された発話は,雑談を盛り上げるような発話となっていることが明らかとなった.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related-works}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{対話システム開発におけるコーパスの重要性}ChatGPT\footnote{\url{https://chat.openai.com/.}}などの大規模言語モデルにより,近年,対話システムの発話生成の性能は著しく向上している\cite{brown2020language,ouyang2022training,glaese2022improving}.ニューラル対話システムでは,新しいドメインやタスクに合わせて学習済モデルを\finetuningする方法が広く採用されており,高精度な対話システムを構築する上で,質の高い対話コーパスを構築することは近年ますます重要となっている\cite{akama-etal-2020-filtering,wang-etal-2023-self-instruct,wei2022finetuned-zeroshot}.本研究では,こうした背景を踏まえ,積極的な感想の表現が可能な対話システムの開発に有用な対話コーパスを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{感情を交える対話システム}対話システムの中でも,感情に着目して対話を行う研究が複数ある.Rashkinらは,人と対話するエージェントには,相手の暗黙の感情を理解し対応することが求められているとし,$24,850$対話が収録された対話コーパスEmpatheticDialoguesを構築した\cite{rashkin:2019:empatheticdialogues}.EmpatheticDialogesは,Sugiyamaらによって日本語版も構築されている\footnote{EmpatheticDialoguesの日本語版(JEmpatheticDialoges)は,右記から取得できる:\url{https://github.com/nttcslab/japanese-dialog-transformers/}.}.日本語版のEmpatheticDialogues(JEmpatheticDialogues)は,EmpatheticDialoguesと同様に,ある感情が生じる状況を想定した$4$発話の対話が収録されている.Sugiyamaらは,このコーパスを使用して事前学習したTransformer系列変換モデル\cite{vaswani2023attention}を\finetuningし,状況に合わせて自然に対話するシステムを実現している\cite{sugiyama:2021:ntt_model}.他にも,感情を表現する対話システムや人の感情に共感する傾聴対話システム,ユーザの感情を考慮する対話システムが複数提案されている\cite{Zhou2018EmotionalChatting,huang:etal2018:generationWithEmotions,inoue:jsai2021:ERICA,Deeksha2024EmoKGinDialog}.これらのシステムは,人間が対話を主導することを想定しているため,生成される発話は受動的である.我々は,対話システムから積極的に情報提供を行い,さらに,感想を交えて話すことでより魅力的で多様な生成を行うことを目指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{情報を提供する対話システム}システムから能動的に情報を提供する対話システムについてもいくつか研究がある.特に「タスク指向型対話」では,システム側から積極的に情報を提供することでタスクを適切に達成するシステムが提案されている\cite{eric-etal-2017-key,kodama2021movie-recommend,feng-etal-2022-topic}.例えば,Mihailらは車載の対話システムにおいて,天気や目的地の情報などを検索しながら,より適切にユーザの要求に回答するシステムを構築している.また,児玉らは,話者の発話意図を理解してそれに適した発話の生成を行うため,映画の推薦を題材としてコーパスを構築し,それに基づいてユーザの内部状態の推定を行っている.一方,「非タスク指向型対話」では,Akasakiらはユーザを飽きさせないよう雑談における最初の発話を多様化するため,ニュース記事を用いた対話を開始する発話の生成を行っている\cite{akasaki:naacl2019:conversation-initiation}.また,labanらは,ニュースに関する対話において,グラフを用いて対話の状態を追跡し,情報の重複を防ぎながら対話を行うニュースチャットボットを構築し,ユーザの満足度を向上させている\cite{laban-etal-2020-whats}.さらにDinanらは,外部情報を利用した対話を実現するため,Wikipediaを利用した対話のデータセットを構築したうえで,多彩な情報を対話に取り入れる雑談対話を行うモデルを構築した\cite{Dinan:CoRR2018:WOW}.我々は,対話によって情報提供を行うだけでなく,感想を発話に取り入れることによってより対話の盛り上がりにつながる発話を目指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{感想付きニュース雑談コーパスの構築} \label{sec:construction-of-corpus}本節では「感想付きニュース雑談コーパス」について説明する.まず,\ref{section:basic-corpus}節でコーパス構築の基本的な方針を述べた上で,\ref{section:collect-system-construction}節でコーパスの構築方法について説明する.最後に,\ref{section:collect-dialogues}節で「感想付きニュース雑談コーパス」の規模や対話例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスの基本設計}\label{section:basic-corpus}図~\ref{fig:ideal-dialog-type}に示すように,ある話題に対して集まっている人々の感想を用いて対話を行う対話システムの実現を目指し,「話題(ニュース記事)」「感想(話題に対してX\footnote{X(旧Twitter)とは,$2006$年にアメリカでスタートしたソーシャルネットワーキングサービス(SNS)で,日本語版のサービスは$2008$年に開始した.Xへの投稿は現在はポストと呼ばれるが,一般に定着している用語であることを鑑み,本論文ではツイートと表現する.}に投稿されたツイート)」「対話」の三つ組みからなる対話コーパスを構築する.一般的な対話コーパスには対話のみが収録されているが,本コーパスは,対話に加え,それに対応する「話題(ニュース記事)」および「感想(話題に対するツイート)」が含まれている点が特徴である(以降,対話に用いるニュース記事やツイートをまとめて「外部情報」と呼ぶ).本研究では,質の高いコーパスの構築を目指し,WizardofOz法\footnote{WizardofOz法とは,片方の話者がシステム役を演じる対話収集方法である.システムと人との対話を収集するのではなく,システム役を演じる人とユーザ役を演じる人との対話を収録することで,システムによる発話誤りを避け,質の高いコーパスを収集することができる.}により対話を収集する.具体的には,ニュース記事の話題に関して$2$名の話者が雑談する対話について,一方がニュース記事の話題を提供しながら雑談するシステム役として,もう一方はユーザ役として行われた雑談対話を収集する.本節では,対話に用いる外部情報であるニュース記事と\tweetの選定方法について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ニュース記事の選定}システム役がツイートを用いて感想を述べる際に,可能な限り多様なツイートの候補が与えられるよう,$15$個以上の\tweetから引用されているニュース記事を選択した.また,話者ができるだけ新しい話題について対話を行えるよう,使用する記事は対話収集時の直近$4$ヶ月を目安とした.ただし,東中が述べているように\cite{higashinaka:jjsai2016:ethics},対話システムの発言内容には倫理的観点から注意する必要があり,特定の組織を非難するような話題や,政治などの議論を呼ぶ話題は避ける方が望ましい.本研究で構築するコーパスについても,倫理的な面に配慮し,特定の個人や団体が非難される話題や政治の話題は除外した.また,事前の小規模対話収集\cite{narita:nlp2022:emotion}の結果,訃報に関するニュースは対話しづらいと報告されていたため,人の生死に関わる話題は除外した.これらの結果,選択したニュースは,長さ2~cmの細菌発見,スプリンクラーの誤作動による楽器の被害,屋根裏から古いノミの発見などの計$47$記事となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\tweetの選定}ニュースを引用したツイートには,ニュース記事のURLとタイトルのみのツイートも多数ある.しかし,URLやタイトルのみのツイートは,システム役がその内容を対話に取り込みづらいことから,対話の収集時にワーカーに提示するツイートから除外した.また,多いものでは一記事に対して$150$個以上のツイートがあったが,システム役が可能な限りスムーズに\tweetを対話に使えるように,具体的な感想が述べられている$16$文字以上の\tweetを$10$個から$15$個著者らにより選択\footnote{\ref{subsubsec:models-generation}節で述べるように,本コーパス以外に\tweetを用いた生成を拡張する場合には,\tweetの選定は自動で行う必要があるが,本コーパスの構築においては人手で\tweetを選択した.}してシステム役に提示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパス構築の方法}\label{section:collect-system-construction}図\ref{fig:chat_collection_framework}に,本コーパスの構築手順を示す.まず,Yahoo!クラウドソーシング\footnote{\url{https://crowdsourcing.yahoo.co.jp/}.}にシステム役用のタスクと,ユーザ役用のタスクをそれぞれ別タスクとして投稿する.対話参加者はYahoo!クラウドソーシングに投稿されたタスクのうち,システム役とユーザ役どちらかのタスクを選択し,タスクの指示に従って対話収集システムにアクセスする(図\ref{fig:chat_collection_framework}の(1)).対話収集システム上で教示を熟読した(図~\ref{fig:chat_collection_framework}(2))後,システム役とユーザ役を$1$人ずつマッチングし,対話収集した.なお,システム役のワーカーは,ニュース記事と\tweetを参照しながら対話し,対話収集システム上に提示された\tweetを適宜使って発話するように指示した(図\ref{fig:chat_collection_framework}の(3)).\tweetを使用した発話をする場合は,使用した\tweetを発話とともに対話収集システム上で記録させた\footnote{\tweetを使用した場合は,図~\ref{fig:checkbox}の上部の「新聞記事に対する世間のコメント」のチェックボックスにチェックを入れると,発話とチェックが入れられた\tweetがペアで保存される仕様になっている.}.なお,自然な対話を行わせるため,システム役が\tweetを使用する際には,「~という感想を述べている人がいます」と第三者の感想の形で引用したり,自分自身の感想として利用するなど,\tweetの表現を自由に変えて発話に取り入れるよう指示した.一方で,ユーザ役にはDinanら\cite{Dinan:CoRR2018:WOW}に倣い,好奇心旺盛な人という設定で,相手であるシステム役の話に興味を持って対話を進めるように教示した.ユーザ役は,システム役のようにニュース記事を見ることはできず,システム役である相手との対話を通してニュース記事について理解を深めるようにした.なお,システム役とユーザ役のどちらにも,対話相手が人間であることは教示したが,対話相手のタスク内容については教示していない.従って,ユーザ役はシステム役が\tweetを使用しながら対話していることを認識せずに対話している.本対話収集においては,対話は児玉ら\cite{kodama:nlp2021:chat_server}に倣って,一発話ずつ発話者が交互に変わる形式とした.システム役とユーザ役の発話数の合計が$11$発話以上になると,双方の終了ボタンを押すことが可能となり,任意のタイミングで対話を終了できるようにした.対話後には「チャットID」を対話収集システム上に表示し(図~\ref{fig:chat_collection_framework}(4)),Yahoo!クラウドソーシングのタスクに戻って入力させ,クラウドワーカー自身のIDと,入力されたチャットIDに結び付けて対話を確認した.役割ごとのタスクの所要時間を考慮し,1対話につきシステム役には$300$円,ユーザ役には$225$円を報酬として支払った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-3ia7f2.pdf}\end{center}\caption{クラウドソーシングを活用したコーパス構築の手順.}\label{fig:chat_collection_framework}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-3ia7f3.pdf}\end{center}\hangcaption{感想付きニュース雑談コーパスのシステム役の発話収集画面.図中の矢印,「UltraとかSEとかの機種が欲しい」に引かれた下線は本論文での説明のために追加したもので,実際の対話収集時にワーカーに対して表示されるものではない.}\label{fig:checkbox}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,本収集システムは,児玉ら\cite{kodama:nlp2021:chat_server}のシステム\footnote{児玉らのシステムは右記から入手できる:\url{https://github.com/ku-nlp/ChatCollectionFramework}.}を拡張したもので,クラウドソーシングにより対話を収集できる.簡単に機能を追加できる上に,対話を行うワーカーの負担が少ないことから,本システムを採用した.主な改変点は以下の通りである.\begin{itemize}\itemシステム役とユーザ役がそれぞれの教示を受けた上で対話を開始できるように,異なるURLから対話収集システムにアクセスするように変更した.\itemさまざまなニュースとツイートに対する対話を収集するため,システム役とユーザ役のペアごとに異なるニュースとツイートが表示されるように変更した.\itemシステム役のワーカーが\tweetに基づいた発話をする場合,その\tweetを記録する機能を追加した(図~\ref{fig:checkbox}).\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスの基本情報}\label{section:collect-dialogues}本コーパスは$1$対話$1$行のJSONLines形式となっており,それぞれの対話データは,\begin{itemize}\item対話の話題となったニュース記事\footnote{本コーパスでは実際にはニュース記事のURLを記載している.}\itemシステム役に提示された,ニュースを引用した\tweet\footnote{本コーパスでは実際には\tweetIDを記載している.}\itemシステム役とユーザ役の二者による対話\end{itemize}からなる.集められた対話の一例を表~\ref{table:dialog_example2}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{07table01.tex}%\hangcaption{感想付きニュース雑談コーパスに含まれる対話例.\textbf{対話}中で\blue{青字}で書かれたリストは,発話の元となった\tweetデータを示す.}\label{table:dialog_example2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%$1$組の対話データ中のシステム役とユーザ役による「対話」において,システム役からの発話には,発話の元となった\tweetデータも記録されている.元となった\tweetは対話を行ったシステム役自身が記録したものであるが,収集後,明らかに\tweetと関連しているが\tweetとの関連が記録されていない発話や,反対に明らかに\tweetと関連がないが何らかの\tweetとの関連が記録されている発話が確認された.そこで,全ての対話を著者の$1$人が確認し,\tweetと発話を関連付ける部分の修正を行った.基本統計情報を表~\ref{tab:dialog-statistics}に示す.表~\ref{tab:dialog-statistics}に示す通り,本コーパスは$47$件のニュース記事に対して,$11,256$発話から成る$1,005$対話が収録されている.$1$対話あたりの発話数は$11.2$発話,$1$対話あたり使用されたツイート数は$2.8$個であった.実際には,図\ref{fig:checkbox}の例のように,$1$発話に複数のツイートが使われている場合もあるが,$11.2$発話に対して$2.8$個のツイートが使われていることから,方針の通り感想を述べる発話が多く含まれるコーパスを構築できたと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{07table02.tex}%\caption{対話データの基本統計情報.}\label{tab:dialog-statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験設定} \label{sec:experiment-settings}\ref{sec:construction-of-corpus}節では,対話の話題に対する「人々の感想」および「ニュース記事」を外部情報として利用しながら,システム役の話者が積極的に感想を発話する雑談コーパスを構築した.本コーパスを用いて,人々の感想を外部情報として用いて発話を生成するよう対話システムを学習する.また,学習した対話システムは倫理的な問題を含まない自然な感想を積極的に生成できるか,さらにそれらの発話は雑談を盛り上げることに対し効果的かを検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{07table03.tex}%\caption{コーパスの分割情報.}\label{tab:split-data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスの分割}表~\ref{tab:split-data}に,構築したコーパスを分割することで作成した,学習データセット,開発データセット,評価データセットそれぞれに含まれる対話数を示す.それぞれのデータセット間の独立性を保てるよう,各データセットに含まれるニュース記事の集合には重なりがないようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価実験の入力および出力}\label{subsec:task-input-output}本実験では,評価対象となる対話システムに評価データセット中の対話に含まれる発話の系列の途中までを与え,それに続くシステム役の発話を生成させ,生成発話の質を評価する.具体的には,評価データセット中の対話に含まれるシステム役の特定の発話を\textbf{参照応答},参照応答に先行する発話の系列を\textbf{対話文脈},またコーパス構築において同対話がなされたときにシステム役に提示されていた「ニュース記事全文」および「ツイート群」を\textbf{外部情報候補}とする.対話システムは与えられる外部情報候補(ニュース記事およびツイート)や対話文脈をもとに,対話文脈の直後のシステム役の発話を生成する.なお,\ref{section:collect-dialogues}節で述べたように,本コーパスの各システム役発話には,発話時にシステム役がツイートを参考にした場合,与えられていたツイート群のうちどのツイートを用いて発話したかが記録されている.また,システム役がニュース記事に含まれる特定の文を参考にして発話した場合,ニュース記事中のその文と発話の類似度が高くなると考えられる.このことから,発話とニュース記事中のそれぞれの文との類似度を計算することで,システム役の話者が発話時に参考にしたニュース記事中の文を特定できる可能性がある.そのため,参照応答および参照応答に付与された情報を用いることで,システム役が参照応答をした際に,ツイート群とニュース記事全文うちどの情報を用いたかが推測できる.後述するように,本実験で評価対象とする対話システムのうち$2$つ(\upperNTおよび\upperN)は,参照応答および参照応答に付与された情報をもとに,コーパス構築時にシステム役が参照応答に用いた外部情報を把握した上で発話を生成する.これによって,対話システムが最適な外部情報の選択をした場合の発話の質を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価対象とする対話システムの学習と推論}\label{subsubsec:models-generation}本評価実験では,\nttTOKEN{},\upperNT{},\upperN{},\proposeNT{}の$4$個の対話システムの生成発話の質を評価する.\nttTOKEN{}はベースラインシステムで,その他は感想付きニュース雑談コーパスを用いてベースラインシステムを\finetuningして構築した対話システムである.$4$つのシステムによる発話の生成にはfairseq\cite{ott2019fairseq}を使用した.入力文の発話数,学習率,最適化手法,およびトークナイザはSugiyamaらの\finetuningの設定\cite{sugiyama:2021:ntt_model}に従った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{31-3ia7f4.pdf}\end{center}\caption{各対話システムの推論データの形式.}\label{fig:how_to_make_dataset2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\nttTOKEN}対話文脈のみの入力で自然な発話生成を行うベースラインシステムとして,Sugiyamaらが公開しているjapanese-dialog-transformersの事前学習モデルを用いる%た\cite{sugiyama:2021:ntt_model}.本システムは,\twitterのリプライを利用して学習されたTransformer系列変換モデル\cite{vaswani2023attention}で,公開されている日本語対話システムのうち高性能なものとして知られている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{推論時の入出力}評価データの対話文脈のうち直近$3$発話のみを連結したもの\footnote{コーパスにおけるシステム役の話者の発話の先頭に特殊トークン\texttt{[SPK1]},ユーザ役の話者の発話の先頭に特殊トークン\texttt{[SPK2]}をつけたうえで,特殊トークン\texttt{[SEP]}を挟むように各発話を連結する.入力情報の連結方法は全システム共通であり,他システムの入力において外部情報を連結する場合も\texttt{[SEP]}を挟む.}を入力として与え,続く発話を生成させる.%た.具体的な入力の例は,付録~\ref{appendix:input-example}の表~\ref{tab:input-output-example}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\upperNT}\label{subsubsection:upperNT}本システムは,参照応答が用いたニュース記事の一部や\tweetを外部情報として参照しながら発話を生成する対話システムである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{推論時の入出力}評価データの対話文脈のうち直近$3$発話と外部情報を連結したものを入力として与え,続く発話を生成させる(図\ref{fig:how_to_make_dataset2}の\upperNT).入力する外部情報は,外部情報候補のうち,コーパス構築時に参照応答が参考にした外部情報を推測することで決定する.具体的には,参照応答が\tweet{}を参考にした場合,該当する\tweet{}を選択する\footnote{\ref{subsec:task-input-output}節で述べたように,本コーパス中のシステム役発話が\tweet{}を参考にしていた場合,与えられていた\tweet{}群のうちどの\tweet{}を用いたかが記録されている.}.参照応答が\tweet{}を参考にしておらず,ニュース記事中の文を参考にしていると推測される場合\footnote{対話の話題となっているニュース記事本文をja-sentence-segmenter(\url{https://pypi.org/project/ja-sentence-segmenter/})で分割し,各文の分散表現をSentence-BERTを用いて求める.参照応答の分散表現もSentence-BERTによって求めたうえで,参照応答の分散表現とのコサイン類似度が最も高い分散表現を有するニュース記事の文を取り出す.取り出した文のコサイン類似度が閾値を上回っていた場合,この文を外部情報とする.},ニュース記事中の該当する文を選択する.上記のいずれにも該当しない場合,外部情報は無しとする.なお,ニュースや\tweetを入力に連結する場合は,その文頭にそれぞれを示す特殊トークンを付与する.本論文では,ニュースを示す特殊トークンとして\texttt{[NEWS]}を,\tweetを示すトークンとして\texttt{[TWEET]}を用いる.特殊トークンについては以下の\upperN,\proposeNTにおいても同様である.具体的な入力の例は,付録~\ref{appendix:input-example}の表~\ref{tab:input-output-example}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{学習時の入出力}入力の決定方法や形式は推論時と同様である.出力は参照応答とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\upperN}本システムは,\tweetを外部情報として使用せず,ニュース記事の文のみを参照し発話を生成する対話システムである.\upperNTの発話と比較することで,\tweetを入力することの有効性を確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{推論時の入出力}\tweet{}を外部情報として利用しない点を除き,\upperNT{}と同様である.%\upperNT{}と同様にシステムを構築する.参照応答がニュース記事を参考にしていると推測される場合,そのニュース記事の$1$文と文脈直近$3$発話を連結させたものを入力とする(図\ref{fig:how_to_make_dataset2}の\upperN).%の生成を学習する.一方,参照応答がニュース記事を参考にしていないと推測される場合,文脈直近$3$発話のみを入力とする.具体的な入力の例は,付録~\ref{appendix:input-example}の表~\ref{tab:input-output-example}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{学習時の入出力}入力の決定方法や形式は推論時と同様である.出力は参照応答とする.ただし,\tweetを使用しない入力による発話生成の学習のため,\tweetと関連付いた参照応答は学習データセットから除去した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\proposeNT}上で述べた\upperNT,\upperNでは,参照応答や,その応答に関連付けられた\tweetを利用して入力する外部情報を決定し,発話を生成した.しかし実際の対話の場面では参照応答は存在せず,参照応答から外部情報を決定することはできないため,与えられる外部情報候補からどの外部情報を入力するべきかを対話文脈から決定する必要がある.そこで,(1)システム自身が外部情報候補から文脈に適切なものを選択して,(2)その外部情報と対話文脈から発話を生成するという$2$段階の処理により推論を行う\proposeNT{}を構築し評価する.生成された発話を\upperNTと比較することで,参照応答にアクセスできる場合の発話生成と実用時を想定した際の発話生成の差を検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{システムの構造}BlenderBot\3\cite{shuster2022blenderbot}に倣い,(1)外部情報の選択と(2)発話の生成をどちらも生成問題として同一のシステムに行わせる(図\ref{fig:propose_nt_generate}参照).具体的には,\texttt{[select]}という特殊トークンが付与されている入力を受け取った場合,システムは(1)の選択問題における選択結果を示すトークンを生成し,\texttt{[generate]}という特殊トークンが付与されている入力を受け取った場合,対話文脈に続く発話を生成する.発話生成のパイプライン処理における各サブタスクを$1$つの生成システムで行うことの有効性がShusterらにより確認されている\cite{shuster2022blenderbot}ことから,この手法を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{31-3ia7f5.pdf}\end{center}\caption{\proposeNTによる発話生成の枠組み.}\label{fig:propose_nt_generate}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{(1)外部情報選択}最初に,外部情報候補に含まれる各候補について,「その候補が発話生成のための外部情報として適切か」をシステムに2値分類させる(図\ref{fig:how_to_make_dataset2}の\proposeNT上部,図~\ref{fig:propose_nt_generate}上部参照).具体的には,特殊トークン\texttt{[select]},外部情報候補のうち$1$つ,対話文脈直近$3$発話を連結したものをシステムに与え,「外部情報として適切」を意味するトークン`1'もしくは「外部情報として不適切」を意味するトークン`0'を生成させる.これを外部情報候補に含まれる全ての候補について実施したうえで,システムが`1'を生成した候補のなかから,発話生成のための外部情報として用いるものを$1$つ選択する%\footnote{外部情報候補に含まれる$1$つ以上の\tweet{}に`1'が生成される場合,`1'の生成尤度が最も高いものを外部情報として選択する.全ての\tweet{}の候補に対し`0'が生成され,かつ外部情報候補に含まれる$1$つ以上のニュース記事中の文に対し`1'が生成される場合,同様にそのなかから`1'の生成尤度が最も高いものを外部情報として選択する.全ての\tweet{}およびニュース記事中の文の候補に対し`0'が生成された場合,外部情報は無しとする.}.外部情報選択における具体的な入出力の例は,表~\ref{tab:proposeNT-select-example}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{(2)発話生成}特殊トークン\texttt{[generate]},(1)で選択された外部情報,文脈直近$3$発話を連結させたものを入力とし,文脈に続く応答を生成させる.(図\ref{fig:how_to_make_dataset2}の\proposeNT下部,図~\ref{fig:propose_nt_generate}下部参照)発話生成における具体的な入力の例は,付録~\ref{appendix:input-example}の表~\ref{tab:input-output-example}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{学習時の入出力}\citeA{shuster2022blenderbot}の設定に倣い,外部情報選択と発話生成のための学習サンプルを混ぜた学習データセットを構築し,マルチタスクで$1$つのシステムを学習する.外部情報選択のための学習では,特殊トークン\texttt{[select]},外部情報候補に含まれる候補の$1$つ,対話文脈直近$3$発話を連結したものを入力として,トークン`1'もしくは`0'を出力とする.このとき,\ref{subsubsection:upperNT}節で述べた手法で選択される外部情報の候補と対話文脈を入力した場合は`\texttt{1}',選択されない外部情報の候補と対話文脈を入力した場合は`\texttt{0}'が出力となるように学習サンプルを作成する.発話生成のための学習では,特殊トークン\texttt{[generate]}を連結させる点を除き\ref{subsubsection:upperNT}の学習と同様の入出力とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{システムごとの学習データのサンプル数}これらのシステムの特性から,\upperNT,\upperN,\proposeNTの学習データの発話データ数は表\ref{tab:train-dataset-num}のようになった.\upperNではツイートが用いられている参照応答を出力とした入出力ペアを学習データに含めなかったため,\upperNT,\nttTOKENよりも1,934件データが少なく6,591件である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{07table04.tex}%\caption{学習データの発話数.}\label{tab:train-dataset-num}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{発話生成時の外部情報の入力数}後述する\ref{subsec:objective-evaluation}節の評価実験における対話システムの推論時,外部情報を入力に使用する\upperNT,\upperN,\proposeNTの$3$システムにニュース記事と\tweetが入力された頻度は表~\ref{tab:news-tweet-input-num}のようになった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{07table05.tex}%\hangcaption{\ref{subsec:objective-evaluation}節の推論時,外部情報を入力に用いるシステムにおいてニュース記事と\tweetが発話生成のための入力に用いられた数と割合.}\label{tab:news-tweet-input-num}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{客観評価}\label{subsec:objective-evaluation}実験に使用した$4$つの対話システムについて,評価データセットに含まれる全システム役発話を参照応答として,以下の$2$つの観点で評価を行った.\begin{enumerate}\item\perplexity.\\構築した対話システムの言語モデルとしての性能を測るため,\perplexityを測定した.%\itemTypeTokenRatio.\\構築した対話システムが多様性のある応答を生成可能かを評価するため,TypeTokenRatio(単語の異なり数\/\単語延べ数)を算出した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手による発話の評価}\label{subsec:human-evalution}評価データセットに含まれる対話におけるシステム役の発話$100$個を無作為抽出し,それらを参照応答とする.各参照応答に先行する発話の系列を対話文脈として,対話文脈に続く$4$つのシステムからの生成発話それぞれをアノテータ$3$人に評価させた.アノテータは研究室の学生$3$人であり,$4$つの対話システムの特徴は公表せず,無作為な順序で生成発話を提示した.アノテータによる評価の観点は以下の$4$点である.\begin{enumerate}\item感想発話の生成に対する積極性\\本研究では感想を含めて発話をさせるため,\tweetを入力に加えて発話を生成したが,実際に生成された発話に感想が含まれているかを調べる必要がある.そこで,生成された発話が感想を含んだ発話であるかどうかを評価させた.本評価において,「感想を含んだ発話」には他者の感想を引用した発話も含めさせた\footnote{具体的には「感想を発話しているものに印を付与してください.注意点として他者の感想を引用した発話を含めてください.」という教示をした.また「感想を含んだ発話」の具体例として「そうですね。そんなケーキが気になります!とのコメントをしている人もいます。」,「感想を含まない発話」の具体例として「他には、同じ軌道を回り続けるUFO、なんていうのも目撃されているそうですよ。」を評価者に示した.}.\item自然性\\感想の発話のために外部情報候補に\tweetを用いることで自然性が損なわれないか確認するため,文脈に続く発話としての自然性を$1$,$2$,$3$の$3$段階で絶対評価をさせた.$1$は不自然,$2$は捉え方によっては問題ない,または部分的に自然,$3$は自然であることを意味する\footnote{「はい」「いいえ」などの単純な応答,鈍い応答であっても,文法的に自然であり対話が破綻していなければ$3$の評価となる.}.\item倫理性\\本研究では感想の発話を積極的に生成するシステムの構築を目指すが,感想を含む発話を生成することで倫理的な問題が発生しやすくなる可能性がある.そこで,倫理的に問題があるかどうかを評価させた.\item盛り上がり\\人間同士の雑談では感想の発話が対話の盛り上がりに寄与すると知られており,対話システムと人間の対話においても同様の傾向があるとみられている\cite{narita:nlp2022:emotion}.本コーパスをもとに構築したシステムにおいても同様の傾向が見られるかを確認するため,$4$つのシステムの生成発話をランク付けにより評価させた\footnote{アノテータには評価対象となる発話と対話文脈を提示した上で「この後の対話が盛り上がりそうな順に$4$つの対話システムが出力した発話をランク付けしてください」と教示した.}.このとき,$2$つ以上のシステムの順位を同率にすることを許容した.\end{enumerate}感想発話の生成に対する積極性について,アノテータ$3$人のうち$2$人が感想を発話していると評価したものを感想を含んだ発話として,それが$100$発話中何発話あるかで評価を行った.自然性について,$100$発話に対するアノテータ$3$人の評価のシステムごとの平均値を算出した.倫理性について,アノテータ$3$人中少なくとも$1$人が倫理的に問題があると評価した発話が$100$発話中いくつあるかで評価を行った.盛り上がりの評価について,$4$つのシステムのランク付けを%一対比較に変換し,それぞれのシステムの勝率を計算した.具体的には,あるシステムAとシステムBを比較するとき,まず各ワーカーが各対話文脈に対して作成した$4$つのシステムの生成発話のランキングから,システムAとシステムBの発話の優劣関係を取り出し,上位のシステムを$+1$点,下位のシステムを$-1$点とした.この点数を$3$人のアノテータで合計し,$0$点の場合は引き分け,$0$点を上回る場合は勝ち,下回る場合は負けとした.以上のようにして,全システムの組合せについて,全$100$個の文脈に対する発話の評価を行うことで,それぞれのシステムの勝率を算出した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{07table06.tex}%\caption{4システムの\perplexity.}\label{tab:PPL}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果及び考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{客観評価}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\perplexity}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{結果}実験に使用した$4$システムの\perplexityを表\ref{tab:PPL}に示す.参照応答を外部情報の選択に用いる\upperNTでは,\nttTOKENに比べて\perplexityが低く,特に\tweetを外部情報として入力した場合に低くなったが,外部情報を入力しない場合の\perplexityは,他の外部情報を入力に用いるシステムと同様に高くなった.さらに,\proposeNTでは,外部情報が入力された場合の\perplexityは\upperNT,\upperNと比べて大幅に高くなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{考察}\upperNT,\upperNにおいてニュース記事を入力に使用した場合,\tweetを入力した場合に比べて\perplexityが高くなった理由としては,ニュース記事の文それぞれと参照応答の類似度を計算し閾値によって入力文を定める手法では,適切な外部情報が選択されない事例があることが考えられる.%<1>また,外部情報を入力に用いるような学習を経たシステムにおいて外部情報を入力しなかった場合の\perplexityが高くなった理由として,外部情報を伴わない入力に対するシステムの過学習が挙げられる.学習データセットのうち,外部情報を伴わない入力を持つ事例数は限られている.これらの参照応答を学習時にシステムが覚えてしまい,学習データセットに登場する話題とは異なる話題について話す推論時においても,覚えた発話を生成する確率が高くなってしまうと考えられる%\footnote{例えば,\ref{subsubsec:models-generation}節の発話生成実験において,「おはようございます」,「おはようございます」という対話文脈に対し,\upperNTが外部情報を入力に用いず「物価高が影響してますね」という発話を生成する例が確認された.これは「物価高が影響してますね」という発話が,外部情報を伴わない入力に対する参照応答として学習データセットに収録されているためであると考えられる.}.\proposeNTの\perplexityが高くなった原因は,参照応答の生成のもととなっている外部情報と,\proposeNTが選択し発話生成のために入力する外部情報が異なり,参照応答に類似した発話ではなく,入力する外部情報に基づく内容の発話の生成確率が高くなったためと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{07table07.tex}%\caption{4システムの単語の異なり数,単語延べ数,TypeTokenRatio(単語の異なり数/単語延べ数).}\label{tab:type-token-ratio}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{TypeTokenRatio}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{結果}$4$システムのTypeTokenRatioを表~\ref{tab:type-token-ratio}に示す.Baseline-modelは$0.15$,\upperNTは$0.10$,\upperNは$0.13$,\proposeNTは$0.063$となり,\proposeNTのTypeTokenRatioの値が低くなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{考察}\proposeNTのTypeTokenRatioが低い原因は$2$つ考えられる.第一に,システムが同一の話題での発話生成において,同じ外部情報候補を偏って選択した結果,生成される単語の異なり数が少なくなったことが挙げられる.\ref{subsubsec:models-generation}節の実験における評価データ$487$発話の生成において入力された外部情報の異なり数は,\upperNTはニュース記事が$39$,\tweetが$50$,\upperNはニュース記事が$43$であったのに対し,\proposeNTではニュース記事が$8$,\tweetが$28$であった.$487$発話の生成に用いられた外部情報の総数を示した表~\ref{tab:news-tweet-input-num}と比較すると,特に\proposeNTが\tweetを選択した数が$378$であるのに対し,その異なり数が$28$であることから,\tweetの選択が極端に偏ったと解釈できる.このことから,参照応答では,同一話題における対話でも文脈に応じて多様な外部情報が入力に用いられていたのに対し,\proposeNTの外部情報選択は,同一話題での対話では文脈にかかわらず同じ外部情報を選択する傾向にあったといえる.第二に,他のシステムに比べ生成する発話が長い傾向にあることが挙げられる.表\ref{tab:news-tweet-input-num}に示す通り\proposeNTでは\tweetが外部情報として選択される回数が多かったが,\tweetを入力した場合の生成発話は発話が長くなる傾向がある%\footnote{ニュース記事を入力に用いる\upperNT,\upperN,\proposeNTではニュース記事を入力して生成された発話の単語数の平均はそれぞれ$35$単語,$30$単語,$31$単語であるのに対し,\tweetを入力に用いる\upperNT,\proposeNTでは,\tweetを入力して生成された発話の単語数の平均はそれぞれ$43$単語,$37$単語であった.}.そのため,発話された単語数が多くなり,TypeTokenRatioが低くなったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手による発話の評価}本研究では,対話を盛り上げるために積極的に感想を発話する雑談対話システムの構築を目標としているが,その感想は自然かつ倫理的な問題がないことが望まれる.各システムの生成発話のうち感想が含まれていた数に加え,生成発話の自然性に対する$3$段階評価の平均値,$3$人中$1$人以上のアノテータによって倫理的に問題があるとされた発話の数を表~\ref{tab:evaluator-scores}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\vspace{-0.5\Cvs}\input{07table08.tex}%\hangcaption{感想発話数と倫理的に問題がある発話の数および各システムの自然性の評価値の平均.各発話に「感想が含まれる」かは評価者$3$人のうち$2$人以上が感想が含まれるとしたものを数えた.「倫理的な問題あり」かどうかは,評価者$3$人のうち少なくとも$1$人が倫理的に問題があるとしたかどうかで評価しており,該当する発話の数を数えた.}\label{tab:evaluator-scores}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{感想発話の生成に対する積極性}\label{subsubsec:impression-agressiveness}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{結果}発話生成時,外部情報として\tweetを使用した\proposeNTと\upperNTは,\tweetを使用していない\upperNや\nttTOKENと比較して感想を含む発話が生成された頻度が高かった%\footnote{$100$発話×$4$システム,合計$400$発話に対する「感想を発話している・していない」の2値分類におけるアノテータ間の一致率を評価した結果,Fleissのカッパ係数は$0.75$で,「Substantialagreement(実質的な一致)」であった.}.特に,参照応答をもとに\tweetを選択した\upperNTにおける感想発話の生成頻度と,\upperN,\nttTOKENにおける頻度を比較したところ,統計的に有意な差が得られた%\footnote{カイ二乗検定を行った結果,\upperNとの比較において,$\chi^2(1)=4.3,p=0.037$,\nttTOKENとの比較において,$\chi^2(1)=6.3,p=0.012$となった.\proposeNTと\upperN,\nttTOKENとの比較では,それぞれ$\chi^2(1)=0.33,p=0.56$,$\chi^2(1)=1.0,p=0.31$となった.}.評価の具体例を表~\ref{tab:imp-evaluation-example}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{07table09.tex}%\caption{感想が含まれているかについての評価の具体例.この例ではアノテータ全員の評価が一致した.}\label{tab:imp-evaluation-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{考察}以上から,人々の感想を適切に選択した上で発話生成に利用することで,より積極的に感想を含む発話が生成できたといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自然性}\label{subsubsec:naturalness}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{結果}対話システムごとの発話の自然性に関する$3$段階評価の平均値は,\nttTOKENは$2.00$,\upperNTは$2.31$,\upperNは$2.27$,\proposeNTは$2.11$であった%\footnote{$100$発話×$4$システム,合計$400$発話に対する3値分類におけるアノテータ間の一致率を評価した結果,Fleissのカッパ係数は$0.41$で,「Moderateagreement(中程度の一致)」となった.}.参照応答をもとに外部情報とするニュース記事や\tweetを定めた\upperNT,\upperNの生成発話は,外部情報を用いずに発話を生成するベースラインの生成発話と比べ自然であった%\footnote{有意水準を0.05として片側t検定を行った結果,自然性の評価における\upperNTの平均値が\nttTOKENに比べ有意に大きいこと($p=1.3\times10^{-3}$),\upperNの平均値が\nttTOKENに比べ有意に大きいこと($p=3.1\times10^{-3}$)が認められた.}.また,\proposeNTの生成発話の自然性に関する評価値もベースラインと同程度であり%\footnote{有意水準を0.05として両側t検定を行った結果,自然性の評価における\proposeNTと\nttTOKENの平均値の比較において有意差は認められなかった($p=0.30$).},ニュース記事や\tweetをシステム自身が選択したシステムにおいてもベースラインの自然性を保つことができた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{考察}以上から,人々の感想を外部情報として発話生成に用いても,システム発話の自然性は損なわれなかったといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{倫理性}\label{subsubsec:ethical-problem}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{結果}$3$人中$1$人のアノテータによって倫理的に問題があるとされた発話の数は,$100$発話中,\nttTOKENは$3$発話,\upperNTは$3$発話,\upperNは$0$発話,\proposeNTは$2$発話であった%\footnote{2人以上に倫理的に問題があるとされた発話はなく,100発話×4システム,合計400発話に対する2値分類におけるアノテータ間の一致率を評価した結果,Fleissのカッパ係数は$-6.7\times10^{-3}$で,「Pooragreement(乏しい一致)」となった.}.感想を積極的に発話することで,倫理的な問題を含む発話の生成頻度が高くなると考えられるが,感想を生成する際の外部情報にツイートを用いる\proposeNTや\upperNTについては,倫理的に問題がある発話の数はベースラインと同程度に低かった%\footnote{いずれのシステムの比較においても,フィッシャーの正確確率検定における$p$値は$0.48$以上となり,有意差は見られなかった.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{07table10.tex}%\caption{倫理的に問題があるとされた発話の例.}\label{tab:ethical-issue-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{考察}倫理的に問題があるとされた発話の例は表~\ref{tab:ethical-issue-example}の通りである.同表において\upperNTは,\tweetを利用した感想発話を生成しているが,\tweetが元になった部分に対して倫理的に問題があると判断されたと推測される.また,同表の\proposeNTの発話の大部分は\tweetに基づくものだったが,最後の部分に外部知識の記述と異なる内容が生成され,その部分に対して問題を感じられたと推測される.外部情報を用いて発話を生成する場合には,外部情報に基づかない情報の出力は抑制することが倫理的な問題の回避には重要であると考えられる.\ref{subsubsec:impression-agressiveness}節,\ref{subsubsec:naturalness}節の結果も踏まえると,人々の感想をはじめとした外部情報を,参照応答をもとに決定し,入力に使用して発話生成を行う\upperNTは,ベースラインと比較して自然性と倫理性を損なわずに,より高い頻度で感想を含む発話を生成できた.外部情報の決定も自身で行う\proposeNTは自然性や感想発話の生成頻度において\upperNTを下回ったことから,適切な外部情報の選択の自動化には改善の余地があると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{盛り上がり}\label{subsubsec:result-mori}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{結果}システムの各組み合わせにおける盛り上がりの観点での勝率を表~\ref{tab:win-rate}に示す%\footnote{本実験では,各ワーカが対話文脈ごとに,盛り上がりを基準とした$4$システムの発話のランキングを作成した.そのため,ある対話文脈における,ある$2$人のワーカの$4$システムのランキングのSpearmanの順位相関係数が算出可能である.そこで,$3$人のワーカのうち$2$人を選び,この$2$人のワーカの対話文脈ごとの順位相関係数を$100$個の対話文脈全てについて算出したうえで,これら順位相関係数の平均を$2$人の評価の一致率とした.$2$人のワーカの組み合わせを変更しながらSpearmanの順位相関係数の平均を$3$回算出したところ,$0.57$:「Moderateagreement(中程度の一致)」,$0.29$:「Fairagreement(ある程度の一致)」,$0.19$:「Slightagreement(わずかな一致)」となった.評価例を交えた評価の一致率の分析については付録~\ref{appendix:mori-spearman-consider}を参照されたい.}.ニュース記事と\tweetを入力して発話を生成した\proposeNT,\upperNTは,\tweetを利用しない\upperN,\nttTOKEN両方との比較で勝率が$0.5$を超えた.特に,参照応答をもとに外部情報を選択して入力し,生成した\upperNTは,勝率の平均値が最も高くなった.表~\ref{tab:generated-utterance-example}に,各システムの発話生成例を示す.\proposeNT,\upperNTでは,入力された\tweetを利用した具体性の高い感想の生成が見られた.この対話において,$3$人のアノテータによる盛り上がりに関する評価結果は,高い順に\proposeNT,\upperNT,\upperN,\nttTOKENとなった.この他の発話生成例は付録~\ref{appendix:generate-utterance-example}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{07table11.tex}%\caption{発話生成システムの盛り上がり評価の勝率.}\label{tab:win-rate}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{考察(1):感想の有無と盛り上がりの相関}各システムの盛り上がり評価の勝率や発話生成例から,人々の感想を外部情報として適切に選択し,積極的に感想を生成可能な対話システムを実現することで,雑談を盛り上げる発話が生成できると考えられる.感想を含む発話の盛り上がりへの寄与を詳細に確認するため,自然性や感想の発話数で統計的に有意な差が見られ,盛り上がりの比較で大きな差が見られた\nttTOKENと\upperNTを,感想の有無に着目して比較した.具体的には,\upperNTの発話を感想が含まれる発話,含まれない発話にわけ,それらの発話が\nttTOKENによる発話と比べてランキングが上位,同率,下位のものの数を調べた.表~\ref{tab:compare-with-without-impression}に検証結果を示す.表~\ref{tab:compare-with-without-impression}より,生成された発話に感想が含まれる場合に盛り上がりの比較において\nttTOKENを上回る割合が$50/74=0.68$であるのに対し,感想が含まれない場合には,\nttTOKENの生成発話を上回る割合が$12/27=0.44$であることから,感想を含むことで盛り上がりに寄与する発話となりやすいことがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{考察(2):発話長と盛り上がりの相関}表~\ref{tab:generated-utterance-example}では,\pagebreak発話長の大きい発話が盛り上がりの観点で高く評価されていることを踏まえ,発話長と盛り上がりの相関を調査した.発話に含まれる単語数\footnote{単語分割には形態素解析器MeCabを使用した.}に基づくシステムのランキングと,盛り上がり評価に基づくシステムのランキングの間のSpearmanの順位相関係数を求めたところ,$3$人の評価者の平均が$0.099$と,ほとんど相関は見られなかった.また,発話に含まれる文字数に基づくシステムのランキングと盛り上がりの評価のランキングの相関(Spearmanの順位相関係数)の平均は$0.085$となり,同様に相関は見られなかった.以上から,発話長は対話の盛り上がりに寄与しないと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{07table12.tex}%\caption{感想発話生成の例.}\label{tab:generated-utterance-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{07table13.tex}%\hangcaption{感想が含まれる場合,含まれない場合それぞれにおいて,\upperNT{}の発話が\nttTOKEN{}の発話と比較して盛り上がりの観点で上位,同一順位,下位に順位付けされた回数.括弧内は感想あり・なしそれぞれにおける割合を示す.}\label{tab:compare-with-without-impression}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{リミテーション} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{倫理面と安全面の保証と自動化}本論文では,倫理面や安全性の問題に配慮しながら自然な感想を発話するシステムの実現方法のひとつとして,雑談において扱う話題に対して実際に人によって書かれた適切な意見や感想を外部情報として利用することを試みた.しかし,人の発話の中にも倫理面や安全面に問題がある発話が含まれる可能性はある.そこで,本論文では,政治の話題,訃報に関する話題,特定の個人や組織を非難するようなツイートを人手で除外し,対話システムが発話として生成に利用した場合に倫理的に問題ないツイートのみを残して対話コーパスを構築した.しかし,今後,日々のニュースに関してユーザと雑談する対話システムを構築する上では,使用する話題や人の感想が倫理的に問題がないかどうかを自動で判別し,システムが発話に利用するかどうかを決定する必要がある.例えばニュースの自動選択については,ニュースに対する人のコメントの数やコメントの極性(ポジティブ/ネガティブ)を利用する方法が考えられる.ポジティブなコメントが多いニュースは倫理的に問題がなく,かつ話題性が高いニュースである可能性が高い.また,人の感想の自動選択の方法としては,Xのツイートの「いいね(Like)」の数を利用する方法が考えられる.いいねが多い場合には倫理的に問題がない可能性が高い.このように,インターネット上のニュースやSNSには人によるコメントや評価が自然と集まる仕組みがある.これらを活用することにより,質の高い感想を自動選択できる可能性があると考えられる.これらの実装と評価については今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ニュース以外のドメインへの適用}本論文では,話題としてニュースを利用し,SNSから人の感想を抽出した.しかし,ニュース以外にも,テレビ番組や音楽などに関する感想や,日常の個人の経験に対する感想など,さまざまな感想を活用した対話システムの構築が考えられる.今後,より広いドメインに対応した対話システムを構築するためには,さまざまな感想を利用した場合にも適切な発話生成が可能か検証する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} ニューラル対話システムの生成発話が受動的であることが問題視されていることから,人々の感想を使って積極的に感想を発話する対話システムの構築を目指し,WizardofOz法により人々の感想が用いられた「感想付きニュース雑談コーパス」を構築した.本コーパスは,「話題(ニュース)」「感想(ニュースに対するツイート)」「対話」の三つ組みからなるコーパスである.対話中にシステム役の話者が積極的に第三者の感想(ニュースに対するツイート)を使う形で発話しているため,対話文脈に基づき,引用すべき第三者の感想の選択や,選択した感想の発話生成への組み込み方を学習できるコーパスである.本コーパスを用いて学習済の対話システムを\finetuningした結果,従来法に比べて文脈に対して自然な発話が生成でき,かつ感想を含む発話を多く生成できることが分かった.加えて,これらシステムにより生成される発話は,雑談を盛り上げるような発話となっていることが明らかとなった.今後の展望として,本コーパス構築時は人手で行った,対話に使用する人々の感想の候補の絞り込みの自動化や,ニュース以外の話題や\tweet以外の人々の感想を使用することで,より広いドメインに対応した対話システムの構築を目指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文では,児玉貴志氏らの構築した対話収集基盤システムを活用して,感想付きニュース雑談コーパスを構築した.有益なシステムを提供してくださったことに深く感謝する.本論文の執筆にあたり,多くのコメントをいただいた査読者様,担当編集委員の皆様に心より感謝申し上げる.本論文の人手評価にご協力いただいた,東北NLPグループの佐藤魁氏,中野雄斗氏,野末慎之介氏に感謝申し上げる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\begingroup\addtolength{\baselineskip}{-0.5pt}\bibliography{07refs}\endgroup%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[p]\input{07table14.tex}%\hangcaption{\proposeNTの外部情報選択時の入出力例.「S:」はシステム役の発話を,「U:」はユーザ役の発話を示す.コーパスでは\textbf{対話文脈}に続く発話としてシステム役が\textbf{参照応答}を発話している.`1'が出力された外部情報の中から,生成尤度の最も高かった網掛けの行の外部情報を生成のための入力として用いる(表~\ref{tab:input-output-example}).}\label{tab:proposeNT-select-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[p]\input{07table15.tex}%\hangcaption{発話生成の例.「S:」はシステム役の発話を,「U:」はユーザ役の発話を示す.コーパスでは\textbf{対話文脈}に続く発話としてシステム役が\textbf{参照応答}を発話している.}\label{tab:input-output-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{-1\Cvs} \section{対話システムごとの参照応答と入力の具体例} \label{appendix:input-example}表\ref{tab:input-output-example}にコーパスにおける対話と発話生成の際の入力を示す.\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[b]\input{07table16.tex}%\caption{ばらつきが小さかった事例.}\label{tab:small-spearmanr-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[t]\input{07table17.tex}%\caption{ばらつきが大きかった事例.}\label{tab:big_spearmanr_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{盛り上がり評価における一致率の考察} \label{appendix:mori-spearman-consider}対話の盛り上がり評価において,$3$人のワーカのうち$2$人のワーカの組み合わせを変更しながらSpearmanの順位相関係数の平均を$3$回算出したところ,$0.57$:「Moderateagreement(中程度の一致)」,$0.29$:「Fairagreement(ある程度の一致)」,$0.19$:「Slightagreement(わずかな一致)」となった.本評価の具体例として,盛り上がりの順位のばらつきが小さかった事例と,ばらつきが大きかった事例を表\ref{tab:small-spearmanr-example}および表\ref{tab:big_spearmanr_example}に示す.前文脈と同じことを繰り返す発話は評価が低く,新たなことを発話する場合には評価が高い傾向があると考えられる.一方で,新しい内容を含む発話同士の評価では,評価者によって評価が分かれる例が見られた.盛り上がりの要件の洗い出しについては今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{入力される\tweetと生成発話の具体例} \label{appendix:generate-utterance-example}\ref{subsubsec:result-mori}節で示した発話生成例以外の例を表~\ref{tab:generated-utterance-example-appendix}に示す.\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table18\begin{table}[t]\input{07table18.tex}%\hangcaption{感想発話生成の他の例.\proposeNTの生成発話では,入力の一部を利用して自然に発話をつなげている.この対話において,盛り上がりに関する評価結果は高い順に\proposeNT,\nttTOKEN,\upperNT,\upperNとなった.}\label{tab:generated-utterance-example-appendix}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{成田風香}{2022年東北大学工学部卒業.2024年東北大学大学院情報科学研究科博士前期課程修了.同年,日鉄ソリューションズ東日本株式会社に入社.}\bioauthor{佐藤志貴}{%2019年東北大学工学部卒業.2021年東北大学大学院情報科学研究科博士前期課程修了,2024年博士後期課程修了.同年,リサーチサイエンティストとして株式会社サイバーエージェントに入社.}\bioauthor{徳久良子}{%愛知工業大学情報工学部教授.2001年九工大大学院修士課程修了.同年(株)豊田中研入社.2009年奈良先端科学技術大学院大学博士課程修了.2021年東北大学准教授(クロスアポイントメント)を経て,2024年より現職.感情や対話に関する研究に従事.言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{乾健太郎}{MohamedbinZayedUniversityofArtificialIntelligence(UAE)客員教授,東北大学言語AI研究センター教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学教授.2016年より理化学研究所AIPセンター自然言語理解チームリーダー,2023年よりMBZUAI客員教授兼任.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V21N02-03
\section{はじめに} \label{sc:introduction}近年,Webを情報源として,人間の情報分析や情報信憑性判断などの支援を目的としたシステム開発に関する研究が行われている\cite{Akamine2009,Akamine2010,Ennals2010,Finn2001,Kaneko2009,Miyazaki2009,Murakami2010,Shibuki2010,Shibuki2013,Kato2010,Kawai2011,Matsumoto2009,Nakano2011,Fujii2008,Yamamoto2010}.このようなシステムの開発においては,そもそも,どのような情報を提示することが効果的な支援につながるか,また,そのためにどのような処理を行う必要があるか,といった点から検討しなくてはならないことが多く,そういった検討に必要な情報が付与されたコーパスが必要となる.加えて,開発されたシステムの性能を評価するための正解情報が付与されたコーパスも必要となる.そういった情報が付与されたコーパスは,一般に利用可能でないことが多いため,開発の基礎となるコーパスを構築する研究が行われている\cite{Nakano2010,Ptaszynski2012,Radev2000,Wiebe2005,Shibuki2009,Shibuki2011b,Matsuyoshi2010,Nakano2008,Iida2010,Hashimoto2011}.我々は,これまで,「ディーゼル車は環境に良い」といった,利用者が信憑性を判断したい言明\footnote{本論文では,主観的な意見や評価だけでなく,疑問の表明や客観的事実の記述を含めたテキスト情報を広く言明と呼ぶこととする.}({\bf着目言明})に対して,その信憑性判断を支援するために有用なテキスト群をWeb文書から探し,要約・整理して提示する研究を行ってきており,その基礎となるコーパスを3年間で延べ4回\footnote{初年度で2回,次年度以降は年1回のペースで構築した.}構築している.研究当初,我々は,情報信憑性判断支援のための要約として,言明間の論理的関係の全体像を把握するのに有用な,論理的関係の要所に位置する言明を重要言明とみなし,それらを優先的に提示することによって情報量を抑える,サーベイレポート的な要約を考えて{いた.}この考え方の下で,着目言明に関連する重要言明をWeb文書集合から網羅するようなアノテーションを第1回と第2回のコーパス構築において行った.こうして構築されたコーパスを分析した結果,一見すると互いに対立しているようにみえる二つの言明の組が,実際には対立しておらず,ある条件や状況の下で両立可能となっている場合({\bf疑似対立})があることが分かった.また,疑似対立の場合に両立可能となる状況を第三者視点から簡潔に説明している記述が少数ではあるがWeb文書中に存在していることも分かり,そのような記述を利用者に提示することができれば,利用者の信憑性判断支援に役立つと考えた.以上の経緯から,我々は,二つの言明の組が疑似対立である場合に,第三者視点から両立可能となる状況を簡潔に説明している記述をWeb文書から見つける要約を{\bf調停要約}として提案した.以後,調停要約を信憑性判断支援のための要約の中心に位置付けて,第3回と第4回のコーパス構築を行い,調停要約を自動生成する手法を開発した.{我々は},サーベイレポート要約と調停要約を,それぞれ情報信憑性判断支援のための要約の一つとして位置づけている.情報信憑性判断支援のための要約といった比較的ユニークな研究課題に新しく取り組むに当たって,構築されるコーパスには,手法のアルゴリズム等を検討するための分析用コーパスとしての役割と,手法の性能を測るための評価用コーパスとしての役割の両方が要求される.したがって,本論文では,この要求に応えるタグセットとタグ付与の方法について述べる.また,要約対象は,Web検索等により得られた任意のWeb文書集合であるため,アノテーションの対象となる文書集合をどのように決定するかという問題が生じる.この問題に対して,我々が採った方法についても述べる.また,情報信憑性判断のための要約といった同一の研究課題で,作業内容の改良を重ねながら4回のコーパス構築を行った事例は少なく,そういった希少な事例としても報告したい.本論文では,4回にわたって構築したコーパスを,着目言明に関連する重要言明を網羅することを目的として構築された,第1回と第2回の{\bfサーベイレポートコーパス}と,調停要約に焦点を当てて構築された,第3回と第4回の{\bf調停要約コーパス}に大きく分けて説明する.また,それぞれのコーパスを構築する際に直面した課題について,我々がどのように対応したかを述べ,コーパス構築を通して得られた知見を報告する.本論文の構成は以下の通りである.\ref{sc:summary4ic}節では,コーパス構築の目的である,情報信憑性判断支援のための要約における我々の基本的な考えを述べる.\ref{sc:survey_report}節では,サーベイレポートコーパスの構築における背景を述べた後,どのような課題が存在し,我々がどのように対応しようとしたかを述べる.また,実際のコーパス構築手順とアノテーションに用いたタグセットを述べ,構築されたサーベイレポートコーパスを分析した結果について報告し,考察を行う.\ref{sc:mediatory_summary}節では,調停要約コーパスについて\ref{sc:survey_report}節と同様の記述をする.\ref{sc:related_work}節では,コーパス構築の関連研究について述べ,情報信憑性判断支援のための要約に関するコーパス構築の位置付けを明確にする.\ref{sc:conclusion}節はまとめである. \section{情報信憑性判断支援のための要約} \label{sc:summary4ic}Web上に存在する情報の中には,出所が不確かな情報や利用者に不利益をもたらす情報などが含まれており,信頼できる情報を利用者が容易に得るための技術に対する要望が高まっている.{情報}信憑性の判断を対象とした研究には,システムが信憑性を自動的に検証することと,利用者の信憑性判断が容易になるようシステムが支援することの2通りのアプローチが考えられる.しかしながら,情報の内容の真偽や正確性を自動的に検証することは困難である上に,その情報が意見などの主観を述べるものである場合には,利用者により考え方や受け止め方が異なることから,その真偽や正確性を検証することはさらに困難なものとなる.そのため,情報の信憑性は,最終的に個々の情報利用者が判断しなければなら{ない}と考えている.したがって,情報の信憑性を自動的に検証する技術に優先して,利用者による信憑性の判断を支援する技術の実現を目指している.情報信憑性判断を支援する技術には,着目言明に関する意見など判断の参考となる情報を抽出する技術\shortcite{Akamine2009,Akamine2010,Miyazaki2010},対立や根拠など抽出された情報間の関係を解析する技術\shortcite{Murakami2010},抽出・解析された情報を重要性の高い順に提示するといった要約・整理に関する技術\shortcite{Kaneko2009,Shibuki2010,Shibuki2013}などが存在する.我々は,この中の要約・整理に関する研究に取り組んでいる.我々が目的とする,情報信憑性判断支援のための要約は,Web文書を対象とした複数文書要約の一種である.しかしながら,従来の新聞記事等を対象とした複数文書要約\shortcite{Yoshioka2004}と比較して以下のような特徴がある.従来の複数文書要約では,どの情報も同等に信じられるとしており,言明の間にも矛盾はないとしていた.一方で,情報信憑性判断においては,原文書の情報が全て信じられるとは限らず,どの言明が本当に正しいのか分からない場合がある.その結果,言明間に矛盾が存在しうることが考えられ,サーベイレポートにおいては,利用者が根拠関係や対立関係が理解できるように,調停要約においては,疑似対立である二言明が両立可能であることを理解できるように要約する必要がある.また,複数文書要約において情報の発信者は複数存在するのが普通であるが,言明間の矛盾や対立関係を明らかにするためには情報発信者による情報の区分が重要となる.このように,情報信憑性判断支援のための要約は今まで広く行われてきた複数文書要約と異なる部分があり,アノテーションにおいても上記の点を考慮して行う必要がある. \section{サーベイレポートコーパスの構築} \label{sc:survey_report}\subsection{サーベイレポートコーパス構築の背景}\label{ssc:survey_report_background}研究当初の段階では,情報信憑性判断支援に資する要約とは何かということが漠然としか定まっておらず,研究の大部分が手探り状態であった.それゆえ,人間が情報信憑性判断支援のための要約を作成する際に,どのような情報を重視して要約を作成するのか,また,どのような知識が要約の作成に必要だったのかといった点から検討する必要があり,作成結果となる要約だけではなく,人間の要約作成過程を可能な限り詳細にトレースできるようなアノテーションを行う必要があった.また,システムが自動生成した情報信憑性判断支援のための要約を自動的に評価するために,正解となる参照要約を準備することもコーパス構築の目的のひとつであった.自動要約システムの理想的な正解は人間が自由記述形式で作成した要約そのものであるが,人間と違って機械が最初から文章を書き起こすことは困難である.それゆえ,要約対象文書中の記述を抜粋して要約するTextRank\shortcite{Mihalcea2004}のようなアルゴリズムを用いることを想定していた.そこで,人間が作成した要約を要約対象文書中の記述と関連付けておくことで,機械が要約を作成する際の正解の一部として利用できるようなアノテーションを行う必要があった.図\ref{fg:survey_report}に,{サーベイ}レポートの例を示す.この例では,着目言明として「朝,バナナを食べるだけでダイエットできる」が入力された場合を想定している.{我々は},着目言明の信憑性が問われる主な原因として,着目言明の内容を否定するような言明の存在があると考え,Web上で矛盾や対立などが存在する言明を論点と定義する.サーベイレポートは,{\bf利用者が{論点}を把握するため{の}要約}と{\bf利用者が{論点}を判断するのに役立つ要約}の2つに大きく分かれて{いる.}前者はさらに,{着目言明の関連情報である}{\bf関連キーワード}と{\bf背景}となる記述,{\bf各論点の主張}を理解するための記述に分かれている.関連キーワードは,着目言明と関連するWeb文書集合に現れる主たる語句,背景は着目言明の内容がWeb上で大きく話題となった日時と事件を列挙したものである.各論点の主張では,着目言明の内容を肯定するWeb上の言明と,着目言明の内容を否定するような言明({\bf対立言明})を根拠や反論の有無とともに示している.{ここで},着目言明や対立言明の根拠や反論は一般に複数あることに注意されたい.図\ref{fg:survey_report}の例では,着目言明の根拠として「酵素」と「食物繊維」の効果が挙げられている.これに対し,「バナナの酵素が代謝を高めることはない」という反論は,酵素の効果を否定しているだけであり,食物繊維の効果に対する反論としては適切ではない.反論等の信憑性判断は,適切な対応関係にある根拠等を明確にした上で行われるべきである.したがって,着目言明側と対立言明側の主張の対応関係が利用者に分かるように整理することが,利用者が論点を判断する上で役立つと考えられる.利用者が{論点}を判断するのに役立つ要約では,反論などの対立関係にある言明の組をWeb文書からパッセージ\footnote{本論文では,連続した文のまとまりをパッセージと呼ぶ.}単位で抜粋し,{\bf情報発信者}とともに提示している.本論文では,情報発信者を言明を発信している個人や組織と定義する.また,提示されたパッセージや情報発信者を元に,利用者にどのような点を判断してもらいたいかが,{言明}の組の上下に注釈として記されている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f1.eps}\end{center}\caption{サーベイレポートの例}\label{fg:survey_report}\end{figure}図\ref{fg:survey_report}に示すようなサーベイレポートをシステムが生成するにあたって,根拠や対立等の言明間の関係の把握に関しては言論マップ\shortcite{Murakami2010}の出力を,話題となった日時と事件に関しては時系列分析\shortcite{Kawai2011}の出力をそれぞれ利用することを想定していた.それゆえ,サーベイレポートコーパスの構築は,着目言明に関連する言明の抽出,情報発信者の抽出,利用者が{論点}を判断するのに役立つ要約の作成を作業の中心とすることとした.\subsection{サーベイレポートコーパス構築における課題}\label{ssc:survey_report_problems}\subsubsection{着目言明の決定}まず,コーパスに収録されるサーベイレポートのトピックとなる着目言明をどのように決定するかを考える.本研究ではWeb文書を要約対象とするため,着目言明に関連するWeb文書が存在しない場合,サーベイレポートを生成することができない.そのような場合,自動要約システムの挙動としては,関連するWeb文書が存在しなかったことを示せば良いが,開発の基礎となるコーパスを構築するという点においては,十分な分析を行える量のサーベイレポートを確保する必要がある.一方で,サーベイレポートを作成しやすい着目言明のみでコーパスを構築すると,紋切り型のサーベイレポートになり,人間の要約作成過程を観察する際の多様性が乏しくなる恐れがある.したがって,予め着目言明の候補を比較的多く作成し,着目言明に関連するWeb文書がどの程度存在しているのか,また,論点になりそうな言明はどの程度存在しているのか,といった調査をWeb検索エンジンを用いて行い,その結果を元に,多様性をもったサーベイレポートが作成できそうな着目言明を選別することとした.\subsubsection{要約作成過程の観察}{ある}着目言明が与えられた際に,その信憑性の判断を支援するための要約を人間が作成する場合を考えると,まず,着目言明に関連する文書集合をWeb検索等により収集した後,収集した文書に目を通して,要約の作成に必要な記述({\bf重要記述})がありそうな文書を選別し,最後に,文書中の重要記述を中心に要約を作成すると考えられる.言い換えると,収集した文書から要約に必要な記述を得るためには,文書の収集や選別,重要記述の抽出など何度かの絞り込みを行っていると考えられる.しかしながら,その絞り込みの方法の詳細は不明であるため,人間が実際に要約を作成する際に行う絞り込みの過程を観察できるようにする必要がある.本来であれば,如何なる制約もない自然な流れでの絞り込み過程を観察することが望ましいが,複数の人間による絞り込みの途中経過を比較することが困難になる.それゆえ,絞り込みの過程を幾つかの段階に分割し,各段階でアノテーションを行うこととした.こうすることで,各段階のアノテーション結果を参照することが可能になり,複数の人間が行う絞り込みの一致率を途中経過を含めて調査できるようになる.もしも,絞り込みの過程が作業者によって大きく異なるならば,重要だと考える基準が作業者によって大きく異なるということであり,安定した自動要約を実現するのが困難になると考えられる.作業者が絞り込みを適切に行うためには,着目言明に関する{\bf背景知識}や,さまざまな{\bf文書内の情報}が必要になると考えられる.本論文では,「背景知識」を要約対象文書以外からでも獲得できる知識,「文書内の情報」を要約対象文書中に実際に含まれる記述から獲得できる情報と定義する.着目言明に関する背景知識は,一般的には要約を作成する際に必須のものではないが,着目言明に関する問題点や,問題点に対する意見などの背景知識をもつことで,問題を判断するためにどのような情報を重要視すべきかを作業者が適切に判断できるようになる.また,サーベイレポートを読んだ人間が多角的に判断できるようにするためには,着目言明に関する文書内の情報を網羅的に提示する必要がある.どのような論点が存在するのかに関する背景知識を作業者が予めもっていれば,各論点における文書内の情報を見落とす可能性が小さくなると考えられる.したがって,背景知識が豊富な作業者であるほど,作成される要約の質が向上すると考えられる.しかしながら,事前に各作業者がもっている背景知識には差がある.それゆえ,要約の質を均一にするために,作業者が背景知識が獲得できるような作業段階を最初に設けることとした.{作業者}の労力軽減という観点からは,作業管理者等が事前に背景知識を調査しておき,それを作業者全員で共有するといった方法が考えられる.しかしながら,背景知識を共有することで,作成されるサーベイレポートや作成過程から多様性が失われる恐れがある.また,自ら調査して得た知識と他人から与えられた知識では理解の程度に差が生じ,その差が作業内容に影響を及ぼすことも考えられる.したがって,作業者間で背景知識の共有はせず,各作業者が自ら獲得するようにした.また,作業者が背景知識や文書内の情報をどのように獲得し,どの知識や情報を重視したかを観察できるような情報をアノテーションすることとした.\subsubsection{対象文書の決定}膨大なWeb文書の中から着目言明に関連する重要記述を抽出して整理する,情報信憑性判断支援のための要約は,情報検索などの情報アクセス技術の一種と捉えることができる.情報検索の分野において,利用者の情報要求と適合する文書を検索できたかどうかは,精度と再現率による検索有効性を用いて評価されるが,再現率を計算するためには,対象文書中の全適合文書数が必要となる.しかしながら,Web文書のように全数調査が不可能に近いサイズの対象文書である場合,網羅的に適合文書を調査することが困難である.この問題に対して,TREC\footnote{http://trec.nist.gov},NTCIR\footnote{http://research.nii.ac.jp/ntcir/index-ja.html},CLEF\footnote{http://www.clef-campaign.org}などの評価型ワークショップでは,プーリングによりテストコレクションを構築している\cite{Buckley2007}.プーリングとは,異なる複数の検索システムが同一の検索要求について検索を行い,その検索結果を集めて,正解文書の候補とする方法であるが,本研究のように初めて取り組む研究においては,該当するシステムが存在しないため,そのままプーリングの方法を用いることはできない.そこで,人間がシステムの代わりを務めることでプーリングに相当する結果を得られるようにした.すなわち,複数の作業者がそれぞれ着目言明に関連する文書集合を収集し,収集された文書集合をマージすることで対象文書の範囲を決定した.\subsubsection{参照要約の作成}情報信憑性判断支援のための要約を評価する上でのもう一つの問題は,参照要約をどのように作成するかという点である.要約を読んだ人間に分かりやすく伝えるには,どのような表現が適切かということを調査する必要があり,そのためには,自由記述形式で要約を作成することが望ましい.しかしながら,一般的な要約の自動評価手法であるROUGE\shortcite{Lin2003}は,N-gramの一致度により評価するため,表層的な表現の違いによる影響を受けやすい.\ref{ssc:survey_report_background}節で述べたように,我々は抜粋型の要約アルゴリズムを用いることを想定していたため,参照要約を自由記述形式とすると,表層的な表現の違いにより,不当に低く評価される恐れがあった.それゆえ,理想的な要約の表現を分析するための,自由記述形式で作成した要約({\bf自由記述要約})と,システムを評価するための,要約対象文書からの抽出物を主たる部品として作成した要約({\bf抜粋要約})の二種類の要約を作成することとした.\subsubsection{情報発信者の情報}最後に,サーベイレポートに提示すべき情報発信者の情報に関して考える.まず,匿名よりも実名の情報発信者の方が一般に信頼できると考えられるため,情報発信者の名称を提示すべきである.また,例えば,「ディーゼル車は環境に良い」という着目言明の場合,「自動車メーカー勤務の技術者」のような専門知識をもっているであろう情報発信者の方が信頼できると考えられるため,情報発信者の専門性を示す属性情報も提示すべきである.しかしながら,文書内に記述されていない情報をシステムが自動的に推測することは困難であるため,文書内の記述を抽出する形式で名称や属性情報を提示することとした.情報発信者の名称や属性情報に加えて,情報発信者の同一性の情報も言明の信憑性を判断する上で重要な情報である.例えば,ある言明が多くのWeb文書に存在していたとしても,その言明が同じ情報発信者({\bf同一発信者})によるものであった場合,多くの人々が支持する言明とみなすことはできない.したがって,仮に情報発信者の名称が異なっていても,Web文書のURLや記述のスタイルなどから同一発信者であることが推測できるのであれば,その情報を提示すべきである.それゆえ,個々の言明の情報発信者の名称と属性情報に加えて,同一発信者を識別できるようなアノテーションを行うこととした.ここで問題となるのは,アノテーションする情報発信者の単位である.情報発信者には,ウィキペディア\footnote{http://ja.wikipedia.org}や,2ちゃんねる\footnote{http://www.2ch.net}といった情報を発信した場所を示すWebページ単位の情報発信者と,掲示板における投稿やコメントごとの書き手を示す記事単位の情報発信者が存在する.出版に例えるならば,前者は{\bf発行者としての発信者},後者は{\bf著者としての発信者}とみなすことができる.どちらの情報発信者も,信憑性を判断する上で重要な情報であるが,サーベイレポートには,より詳細な単位である著者としての発信者を優先して提示すべきであると考えた.また,政府の発表や会社の広報など,発信される情報の中には,発信者個人の情報よりも企業や団体などの所属する組織の情報の方が重視されるものがあり,その観点から{\bf個人発信者}と{\bf組織発信者}に区分する必要がある.一例を挙げると,「A大学の学生である山田太郎が2ちゃんねるに書いた記述」の情報発信者は,表\ref{tb:exam_information_sender}に示す情報になる.したがって,これらの情報に関するアノテーションを行うこととした.なお,引用が存在する記述,例えば,「チョムスキーは『文法の構造』の中で『無色の緑の概念が激しく眠る』と書いた」という「2ちゃんねるでの山田太郎の記述」の場合でも,以下の理由から「2ちゃんねる」を発行者としての発信者,「山田太郎」を著者としての発信者とすることとした.『無色の緑の概念が激しく眠る』といった引用記述の情報発信者を「チョムスキー」や『文法の構造』とするためには,「チョムスキー」や『文法の構造』という情報発信者の存在や,実際に当該の記述が書かれているかといった点を確認する必要がある.こういった確認を行うためにはWeb以外の情報源にあたる必要がある上に,そもそも「隣のBさんが言った」などの現実的に確認が不可能な引用記述も存在する.一方で,引用という形式をとっていても,当該の記述を「2ちゃんねる」に「山田太郎」が書いたことは確認できる事実である.それゆえ,引用された記述の情報発信者に関しても,引用している記述の情報発信者とすることとした.\begin{table}[t]\caption{情報発信者の情報の例}\label{tb:exam_information_sender}\input{ca03table01.txt}\end{table}\subsubsection{アノテーションの質の管理}これまで述べてきたように,サーベイレポートコーパスを構築する上でアノテーションすべき項目は多岐に及ぶ.それゆえ,作業者の負担が多大なものとなり,作業の質の低下やヒューマンエラーなどを誘発することが予想された.そこで,{図}\ref{fg:SR_tool}に示す専用のアノテーションツールを開発し利用することで,作業者の負担を軽減し,質の低下やヒューマンエラーなどの問題を可能な限り回避することとした.アノテーションツールは,殆どの作業をマウス操作で行えるように設計されており,作業者が直接XMLタグ等を記述しなくとも良いようになっている.例えば,図\ref{fg:SR_tool}に示すツールの下部には,注釈対象となるWeb文書のテキストが表示されており,重要記述や情報発信者の名称の抽出作業は,作業者が抽出したい範囲のテキストをクリックすることで行うことができる.また,抜粋要約の作成作業は,抽出したテキスト群から作業者が部品となるテキストを選択し,加工して組み合わせることで行えるようになっている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f2.eps}\end{center}\caption{サーベイレポート用アノテーションツール}\label{fg:SR_tool}\end{figure}{作業者}への指示は,作業を始める前に,文書として一人ひとりに配布し,口頭での説明を行った.また,事前に予想できなかった問題等が作業中に生じた場合には,問題の内容を可能な限り具体的にメモに記録すると同時に,逐次,作業管理者に報告して指示を仰ぐよう指示した.作業管理者は,報告された問題の解決方法を示すとともに,Wikiやメーリングリスト等を用いて,全ての作業者で問題と解決方法を共有できるようにした.ただし,作業管理者の出張等,指示を仰ぐことが困難な状況で,作業が長時間中断されてしまう場合には,生じた問題に対してどのように対処や解決したかを可能な限り具体的に記録することで作業を進めることを許可した.\subsection{サーベイレポートコーパス構築の手順}\label{ssc:survey_report_step}サーベイレポートコーパスの構築は,第1回と第2回のコーパス構築で行っているが,手順等が洗練された第2回のコーパス構築を中心に説明する.表\ref{tb:survey_report_task}に第2回のコーパス構築の手順を示す.3.2.2節で述べたように,絞り込みの各段階での結果を比較できるように,作業の流れはT1.からT6.へ一方向に進むものとし,作業管理者\footnote{作業管理者は第一著者が務めた.}が特別に認めた場合\footnote{アノテーションツールの不具合によるデータの消失が該当する.}を除き,前の段階の作業に戻ってはならないよう指示をした.\begin{table}[t]\caption{サーベイレポートコーパス構築作業の流れ}\label{tb:survey_report_task}\input{ca03table02.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f3.eps}\end{center}\caption{サーベイレポートコーパスにおけるWeb文書の例(一部)}\label{fg:SR_webdoc}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f4.eps}\end{center}\caption{サーベイレポートコーパスにおける抜粋要約の例(一部)}\label{fg:SR_report}\end{figure}サーベイレポートコーパスには,着目言明,Web文書集合,自由記述要約,抜粋要約,背景知識,検索クエリ,作業の疑問点等のメモが含まれている.各Web文書と抜粋要約には,作業結果を示すXML形式のタグが埋め込まれている.{Web文書}と抜粋要約のXMLタグの一覧と文書型定義を付録Aに示す.3.2.6節で述べたように,これらのタグは,専用のアノテーションツールを通して付与される.{XMLタグ}が付与されたWeb文書と抜粋要約の例を,図\ref{fg:SR_webdoc}と図\ref{fg:SR_report}にそれぞれ示す.実際の文書には,もっと多数のタグが付与されているが,紙面の都合により,各タグの代表的な例のみを示している.以下,作業の流れに従って説明する.\subsubsection{背景知識の獲得}作業者は最初に,T1.において,与えられた着目言明に関して,3.2.2節で述べた背景知識の獲得を行う.すなわち,各作業者は着目言明に関連してどのような論点が存在し,各論点においてどのような意見や根拠が存在しているかを調査する.この調査の結果は,{作業者}ごとに把握した論点を自由記述形式で記録する.これにより,後の分析において,最終的に作成されたサーベイレポートの内容と比較することで,T2.以降の作業において当初の論点からどのように変化したのか調査できるようになる.また,他の作業者が獲得した背景知識と比較することで,どの程度網羅的に論点を把握していたのか調査できるようになる.サーベイレポートコーパスに収録された背景知識{の例}として,「アスベストは危険性がない」という着目言明において,ある作業者が獲得した背景知識を表\ref{tb:exam_background}に示す.背景知識を獲得する情報源には,Web文書に限らず,新聞記事や雑誌などあらゆる媒体を許可した.サーベイレポートコーパスには背景知識自体も収録されている.\begin{table}[t]\caption{獲得された背景知識の例}\label{tb:exam_background}\input{ca03table03.txt}\end{table}\subsubsection{文書の収集}T2.では,作業者が実際にどのような文書を収集したかの情報を記録する.作業者の労力を軽減するために収集する文書数に制限を設ける一方で,ある程度の論点の多様性も保証したい.{一つの}クエリを用いて収集した場合,そのクエリが問う論点のみに偏った文書集合になる.そこで,異なる論点を問う複数のクエリを用いて文書集合を収集し,それらを1つの文書集合にマージすることで,多様な論点を含む文書集合を決定することとした.一般に,異なる論点を問うクエリで収集した文書集合同士であっても,共通の文書が存在する.そのため,マージした後の異なり文書数は,マージする前の文書集合の要素数の総和とはならない.そこで,文書の収集をT2-1.とT2-2.の二段階で行う.T2-1.で重要記述が含まれている文書集合が検索上位に来るようなクエリを調査し,T2-2.で多様な論点の重要記述が含まれている文書集合から順にマージしていくことにより,一定量の文書集合において論点の多様性を保証しようとした.T2-1.のクエリの調査には,検索エンジンTSUBAKI\cite{Shinzato2008}を利用し,少なくとも20種類以上のクエリを調査するよう指示した.重要記述を含む文書集合を絞り込むのに効果的なクエリが存在するか調査するために,着目言明の表現に囚われない自由な形式のクエリ\footnote{TSUBAKIは自然文検索とキーワード検索の両方が可能である.}を許可した.T2-2.では,クエリごとに上位100件のWeb文書を収集し,\pagebreak多様な重要記述が含まれている文書集合から順に500件以上になるまでマージするよう指示した.また,マージした文書集合を検索するのに用いたクエリには,検索に用いなかったクエリと区別できるよう記録し,サーベイレポートに含まれた論点と含まれなかった論点の分析ができるようにした.Web文書を識別するためにTSUBAKIの文書IDを利用し,{\sf$<$FileId$>$}の値としている.サーベイレポートコーパスには,T2.で調査に用いた検索クエリと収集されたWeb文書集合が収録されている.\subsubsection{重要記述の絞り込み}T3.とT4.では,T2.においてマージされた文書集合を対象に,3.2.2節で述べた重要記述の絞り込みの過程を記録する.T3.では文書単位での絞り込みの結果,T4.では文単位での絞り込みの結果をそれぞれ記録する.より詳細な過程を観察するためには,段落などの単位でも絞り込み,作業の段階数を増やすことも考えられるが,作業者の労力の観点から,二段階で記録することとした.また,文より小さい単位での絞り込みは,実際に要約を作成する段階にならないと分からないことも多いため,T4.の段階では文単位での絞り込みに留めた.絞り込みの際には,{たとえ}同一の表現を持つ文書や文であっても,異なる出典のものを網羅的に選別・抽出した.これにより,システムによる重要文書の選別や重要文の抽出などを評価する際の再現率の計算を可能にしている.T3.で選別された文書は{\sf$<$FileId$>$}の属性{\sfSelected}の値を1としており,選別されなかった文書は0としている.T4.で抽出された重要記述は{\sf$<$Passage$>$}で囲っており,属性{\sfPassageId}には文書ごとに1から通し番号を割り当てている.なお,T4.で抽出された重要記述は,アノテーションツールの内部で抽出元の文書と文書中の位置の情報を保持しており,T6.において抜粋要約を作成する際の部品となる.\subsubsection{情報発信者の抽出}T5.では,T4.で抽出された重要記述を含む文書集合を対象に,3.2.5節で述べた情報発信者に関する作業を行う.情報発信者の情報の内,同一発信者に関しては複数の文書における情報発信者を参照しなくてはならないのに対し,同一発信者以外の情報は文書内の記述を参照するだけで作業できる.それゆえ,各文書を参照して同一発信者以外の情報を抽出した後,抽出された情報発信者を参照して同一発信者と思われる情報発信者をグループ化するという流れで行った.作業者の負担を軽減するために,発行者としての発信者は文書のURLのみで識別することとした.著者としての発信者は,個人発信者と組織発信者それぞれの名称と属性情報を文書中の記述から抽出することとし,もしも文書中の記述に存在しないならば不明のままとした.{作業者には,}抽出すべき属性情報として,個人発信者であれば,役職,年齢,性別など,組織発信者であれば,業種,所在地などを例として示した.また,個人発信者と組織発信者のどちらを重視すべきかの情報を付与した.情報発信者の情報は{\sf$<$Holder$>$}に記録されており,属性{\sfLocalId}は文書ごとの番号,属性{\sfGlobalId}は全文書を通しての番号を示している.属性{\sfP1Element}と属性{\sfP2Element}は抽出された個人発信者の名称と属性情報,属性{\sfO1Element}と属性{\sfO2Element}は抽出された組織発信者の名称と属性情報をそれぞれ示しており,これらの名称または属性情報を構成する文字を,0を開始位置とした文書中の位置情報とともに示している.例えば,図\ref{fg:SR_webdoc}の4行目の{\sf$<$Holder$>$}の場合,「川口解体工業株式会社」という組織発信者の名称を構成する「川」の文字が0文目の15文字目にあることを「川\_0\_15」と示している.属性{\sfOrgHolder}の値は,組織発信者{側}を重視する場合は1,個人発信者{側}を重視する場合は0としている.属性{\sfLocalName}は,作業者がサーベイレポートで提示するのに最適と思われる情報発信者の名称を示している.同一発信者に関しては,複数の文書に及ぶ情報であるため,T6.で作成される抜粋要約中の属性{\sfSameHolder}に示している.なお,T4.の重要記述と同様に,アノテーションツールは,抽出された情報発信者に関する抽出元の文書と文書中の位置の情報を保持している.\subsubsection{要約の作成}T6.は,情報信憑性判断支援のための要約を作成する作業である.3.2.4節で述べた,自由記述要約と抜粋要約の2種類の要約を作成するため,自由記述要約を作成するT6-1.と,抜粋要約を作成するT6-2.の2段階で行う.T6-1.では,T4.で抽出した重要記述の集合を参照しながら,T6-2.で作成する抜粋要約と内容的に齟齬が生じないよう,理想とする情報信憑性判断支援のための要約を自由記述形式で作成する.一般的な要約であれば,文字数などの要約の長さに関する制約が与えられるが,情報信憑性判断支援のための要約では,読み手が信憑性を判断するための情報を得られることが何よりも優先されなくてはならない.それゆえ,作業者には,信憑性の判断に十分な情報を含むことを優先して作成することを指示し,自由記述要約,抜粋要約ともに,要約の長さに関しては指示しなかった.{図}\ref{fg:SR_freestyle}に自由記述要約の例を示す.T6-2.では,T4.で抽出した重要記述を文字単位でさらに絞り込みながら組み合わせることで抜粋要約を作成する.抜粋要約として不要な文字列を削除した記述を組み合わせて作成するため,抜粋要約は自由記述要約と表層的な表現が異なっても構わないとした.しかしながら,重要記述を組み合わせる際,逆接や対比といった重要記述間の関係を明確にするため,重要記述内には存在しない助詞や接続詞などの語句が必要となることが考えられる.そのような場合,任意の文字列を重要記述間に挿入できるようにした.作成された抜粋要約において,挿入された文字列は{\sf$<$Extra$>$}で囲み,{\sf$<$Citation$>$}で囲まれる重要記述の文字列と区別できるようにされている.また,重要記述の抽出元であるWeb文書において,実際に抜粋要約に用いられた重要記述の部分を{\sf$<$Cited$>$},不要な文字列として削除された部分を{\sf$<$Deserted$>$}で囲っている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f5.eps}\end{center}\caption{サーベイレポートコーパスにおける自由記述要約の例}\label{fg:SR_freestyle}\end{figure}\subsection{サーベイレポートコーパスの統計と分析}\subsubsection{サーベイレポートコーパス}第1回と第2回のコーパス構築で用いた着目言明を表\ref{tb:survey_report_topic}に示す.第1回の時点では,利用者が信憑性を判断したいトピックを示す単語を用いていた.しかしながら,単語を用いた場合,例えば,「マイナスイオン」のトピックにおいて,マイナスイオンが健康に良いかどうかを判断したいのか,それとも,マイナスイオンが発生するかどうかを判断したいのか,といった利用者の関心がある論点を絞り込むことができない.一般に,論点は数多く考えられるため,あらゆる論点に言及する要約を作成することとなる.そのような要約は,利用者にとって,関心がない論点の記述が多くを占めるものとなり,結果として,利用者の情報信憑性判断支援に役立たない要約となってしまう恐れがある.それゆえ,第2回では,論点が比較的絞り込まれている着目言明を用いることとした.また,「レーシック手術は安全である」と「レーシック手術は痛みがある」のように,「レーシック手術」という大きなトピックに包含される着目言明を用意することで,論点の違いによる影響を調査できるようにした.以下では,第2回のコーパスを中心に説明する.\begin{table}[t]\caption{サーベイレポートコーパス構築に用いた着目言明(トピック)}\label{tb:survey_report_topic}\input{ca03table04.txt}\end{table}1つの着目言明には,3.2.3節で述べたプーリングに相当する結果を得るために,4名の作業者を割り当てた.作業者は,情報工学を専攻する大学生及び大学院生である.1名の作業者が1つの抜粋要約を作成するために,T2.で収集したWeb文書集合の1着目言明あたりの平均文書数は532.0文書であり,収集された全Web文書の文字数を合計した値は1着目言明あたり平均して約280万文字であった.作成された抜粋要約の1着目言明あたりの平均文字数は2,564文字であるため,最終的に約0.1\%の要約率となるが,段階的に絞り込みを行っているため,実際はもっと緩やかな要約過程となる.T3.の段階で選別された文書数は平均して177文書となり,T4.の段階で抽出された文の合計文字数は1着目言明あたり平均して57,121文字にまで絞り込まれている.したがって,T4.からT6.への過程での要約率は約4.5\%となった.\subsubsection{収集された文書集合における論点の多様性に関する考察}ここで,収集されたWeb文書集合における論点の多様性について考察する.図\ref{fg:viewpoint}に,第2回のコーパス構築で用いた6つの着目言明をクエリとして,それぞれ検索した上位文書の件数と,文書中に存在する着目言明に関する論点の異なり数の関係を示す.論点の有無は,第二著者および情報工学を専攻とする大学院生2名が実際に文書を読むことで判断した.着目言明の違いによる差はあるが,全体として最初の30文書までに殆どの論点が現れており,それ以降,新しい論点は殆ど出現せず飽和状態となっている.\ref{ssc:survey_report_step}節で述べたように,T2.では,作業者が多様な論点を含むと考える複数のクエリを用いて100文書ずつ収集することにより要約対象となる文書集合を決定している.したがって,収集されたWeb文書集合は,論点の多様性をある程度保証していると考えられる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f6.eps}\end{center}\caption{検索文書数と論点の異なり数の推移}\label{fg:viewpoint}\end{figure}\subsubsection{作業者間の一致率に関する考察}次に,各作業者が収集したWeb文書集合を絞り込む過程における作業者間の一致率について考察する.3.2.2節で述べたように,絞り込みの過程が作業者によって大きく異なるならば,安定した自動要約を実現するのが困難になる.そのため,文書単位での選別を行ったT3.の段階における一致率を{Fleiss'}kappaを用いて計算した.結果として,{0.23},すなわち,低い一致率を示すこととなった.また,要約の最終過程であるT6.の段階における一致率を以下の2種類の方法で評価した.第一の方法は,ROUGE-1による評価である.ROUGE-1は,二つの要約の間で一致する1-gramの割合を示した自動評価手法であり,自動要約の評価型ワークショップであるDUC\footnote{http://duc.nist.gov/}等においても用いられている.6つの着目言明を対象として,着目言明ごとに,二つの抜粋要約の組に対してそれぞれ計算し,全ての組の値を平均した結果,0.40の値を示した.{0.40}という値は,2005年から2007年のDUCにおいて最も成績が良かった手法のROUGE-1の値と同程度の値である.本論文が人手による要約の間の一致であるのに対し,DUCが自動生成された要約と正解となる要約との一致である点を考慮する必要があるが,全体として比較的一致した要約が作成されていると考えられる.\begin{table}[t]\caption{「レーシック手術は安全である」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint}\input{ca03table05.txt}\end{table}ROUGEは表記の一致による評価であるため,論点が一致しているかどうかまでは保証しない.そこで,第二の方法として,抜粋要約間で共通している論点の数による評価を行った.評価の対象は,労力の観点から,第2回のコーパス構築で作成された抜粋要約のみを対象とした.論点が共通しているかどうかを判断する際には,論点の粒度が問題となる.例えば,「レーシック手術」などのトピックレベルの粗さで論点を捉えた場合,殆どの記述が共通の論点となってしまう.共通性を判断するのに適した粒度をトップダウン的に決定することは困難であるため,我々は,以下に述べるボトムアップ的な方法で論点を決定した.まず,実際に各々の抜粋要約を読み,「レーシック手術の種類」や「レーシック手術の方法」といったサブトピックレベルの粒度で,抜粋要約の内容を論点の候補として網羅した.次に,二つの抜粋要約を比較して,サブトピックレベルでは同じ論点の候補であっても,書き手が伝えたいであろうポイントが異なる記述が一方にしか存在しない場合は,さらに論点の細分化を行った.例えば,「レーシック手術により起こりうる合併症」というサブトピックであっても,\pagebreakその「原因」に言及する記述が,一方の抜粋要約には存在するがもう一方には存在しない場合,「レーシック手術により起こりうる合併症の原因」という論点を別に設定した.以上の論点に関する作業は,第二著者および情報工学を専攻する大学院生1名により行った.{表}\ref{tb:SR_viewpoint}に,AからDの4名の作業者が作成した「レーシック手術は安全である」に関する抜粋要約に含まれる論点の一覧と,各作業者の抜粋要約に各論点が含まれるか否かを示す.また,付録Bとして,他の5つの着目言明に関する抜粋要約に含まれる論点の一覧を収録した.表中の「○」で示される論点が抜粋要約に含まれている論点である.「レーシック手術は安全である」の場合,全部で20の論点があり,4つの抜粋要約全てに共通して含まれている論点の数は3であり,2つ以上の抜粋要約に共通している論点の数は11であった.6つの着目言明全体では,全部で65の論点があり,4つ全てに共通している論点は9,2つ以上に共通している論点は34であった.したがって,比較的共通した論点に関する要約が作成されていると考えられる.\begin{table}[t]\caption{サーベイレポートコーパスにおける情報発信者の延べ注釈数}\label{tb:SR_holder_result}\input{ca03table06.txt}\vspace{-1\Cvs}\end{table}\subsubsection{情報発信者に関する考察}{情報}発信者に関する延べ注釈数を表\ref{tb:SR_holder_result}に示す.抽出された4,061の重要記述の内,何らかの情報発信者の注釈があるものは3,067(約75.5\%)であった.また,発行者としての発信者は871,著者としての発信者は3,049であった.1つの重要記述に,発行者としての発信者と著者としての発信者の両方が注釈される可能性があることに注意されたい.したがって,特定できた情報発信者の殆どは著者としての発信者であるといえる.著者としての発信者の内,個人発信者が注釈されたものは776,組織発信者が注釈されたものは2,503であった.ここでも,個人発信者と組織発信者の両方が注釈された発信者がいることに注意されたい.したがって,著者としての発信者の多くが組織発信者であり,個人発信者は比較的少なかった.また,著者としての発信者3,049の内,作業者が組織発信者側を重視すると判断した場合も2,217存在することから,組織発信者の重要性が伺える.また,名称がある個人発信者は731,属性情報がある個人発信者は182,名称がある組織発信者は2,490,属性情報がある組織発信者は73であった.ここでも,名称と属性情報の両方が注釈された発信者がいることに注意されたい.個人発信者と組織発信者の両方で,属性情報より名称が記述されている割合が高いが,組織発信者の場合,属性情報の記述は極めて少ない(約2.9\%)といえる.また,同一発信者が存在すると注釈された個人発信者と組織発信者の数は,それぞれ139と556であった.したがって,無視できない割合で同一発信者の存在があるといえる.情報信憑性判断において,同一発信者が互いに矛盾するような主張を行っているかどうかは興味のあるところである.そこで,抜粋要約に用いられた重要記述の情報発信者を対象に,矛盾するような記述がないか調査した.6つの着目言明における全ての抜粋要約に対して調査した結果,矛盾するような記述を見つけることはできなかった.今後,全ての情報発信者を対象に調査したいと考えている. \section{調停要約コーパスの構築} \label{sc:mediatory_summary}\subsection{調停要約コーパス構築の背景}第1回と第2回のコーパス構築では,着目言明に関連する論点を網羅することに主眼を置いた要約を作成した.そのようにして作成された要約を分析した結果,自分の意見の正当性を主張するために,対立意見に反論するのとは異なる,第三者視点から公平に両方の意見に言及している記述が存在することが分かった.例えば,着目言明「アスベストは危険性がない」に関する要約には,「アスベストの成分は石や土と同じ成分であり舐めたり触ったりしても毒ではありません」という記述と,「人体への有毒性が指摘されているアスベスト」という記述が含まれており,一見すると互いに矛盾しているように見える.しかしながら,それらの記述とは別に,「アスベストの毒性は,その成分ではなく,その形状と通常の状態では半永久的に分解や変質しない性質によるものです」という記述を提示することで,両方の記述が,化学的性質を述べたものか,それとも,物理的性質を述べたものかという視点の違いによる疑似対立であることを読み手に伝えることができる.この疑似対立である場合に,両立できる視点や状況を示すという考え方は,従来研究にない新しい考え方であることから,両立できる視点や状況に関する記述の提示を調停要約と定義し,情報信憑性判断支援のための要約の主軸とすることとした.{なお},疑似対立であるか否かの最終的な判断は,利用者が行うことを想定している.ある調停要約を利用者が読んで,両立できる視点や状況が存在することを納得できるならば,調停要約に書かれている対立は,少なくともその視点からの調停が可能な疑似対立である.したがって,システムは,着目言明と対立言明の関係が疑似対立であると仮定して調停要約を生成し,利用者は,生成された調停要約を読んで疑似対立であるか否かを判断することを想定している.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f7.eps}\end{center}\caption{調停要約{を}中心とした情報信憑性判断支援のための要約の例}\label{fg:mediatory_summary}\end{figure}図\ref{fg:mediatory_summary}に,「朝バナナダイエットでダイエットできる」を着目言明とした場合の調停要約{を}中心とした情報信憑性判断支援のための要約の例を示す.{図\ref{fg:mediatory_summary}中の},(P),(N),(M)のボックス内の記述は,実際のWeb文書から抽出された記述であり,それ以外の記述は作例である.着目言明を肯定する根拠として「バナナは低カロリーで満腹感があります」,また,否定する根拠として「バナナは果物の中では水分が少ないためカロリーは高めです」という記述がそれぞれWeb上に存在していたので,対立関係にあるようにみえるとして,該当する記述を(P)と(N)のボックス内に表示している.また,(M)のボックス内が調停要約としてWeb上に存在する文書から抜粋された記述である.Web上には,こういった対立関係について,それらが両立可能であることを示した記述が存在していることがあり,そのような記述をパッセージ単位で抜粋して提示するというのが調停要約の基本的な考え方である.図\ref{fg:survey_report}のコメント部分の生成も将来における課題であるが,まずは調停要約の中核となる(P),(N),(M)の部分の記述を生成することを目的として,調停要約コーパスの構築を行うこととした.\subsection{調停要約コーパス構築の課題}\label{ssc:mediatory_summary_problems}\subsubsection{調停要約とサーベイレポートとの関係}調停要約は,図\ref{fg:survey_report}における,利用者が{論点}を判断する際に役立つ要約の一種である.したがって,調停要約コーパスの構築においても,\ref{ssc:survey_report_problems}節に述べたサーベイレポートコーパスの構築と同様の問題が存在し,その対応も\ref{ssc:survey_report_problems}節や\ref{ssc:survey_report_step}節で述べたのと同様に行うことができる.\subsubsection{対立関係の詳細化}調停要約を作成する上での固有の問題としては,以下の問題が挙げられる.まず,調停という性質上,網羅すべき論点として,対立関係にある言明の組が主となる.このとき,着目言明との対立関係を示す軸({\bf対立軸})は1つとは限らないことに注意されたい.例えば,「ダイエット」に関する文書集合においては,「痩せるvs.太る」という対立軸の他にも,美容観点の「美しいvs.醜い」,医療観点の「健康vs.病気」といった対立軸が考えられる.したがって,「ダイエットする」を支持する内容として,「痩せる」,「美しい」,「健康」といった記述,「ダイエットする」と対立する内容として,「太る」,「醜い」,「病気になる」といった記述を全て抽出することとした.\subsubsection{対象文書に関する変更}{調停}要約の作成における別の問題としては,{対立}関係にある言明の組を網羅するために収集した文書集合中に,調停要約として適切な記述({\bf調停記述})を含む文書が存在するかが保証されていないことが挙げられる.それゆえ,論点を網羅するための文書収集とは別に,調停記述を含む文書({\bf調停記述文書})を収集する過程が必要となる.また,調停記述文書を適切に収集するためには,作業者が事前に対立関係をどのように調停できるかに関する知識({\bf調停知識})をもっていることが望ましい.しかしながら,調停知識を得るためには,その前提として,どのような対立関係が存在するかを把握していなくてはならない.以上の考えから,着目言明と対立関係にある言明({\bf対立言明})を網羅的に抽出した後に,調停知識の獲得,および,調停記述文書の収集を行うこととした.本来であれば,サーベイレポートコーパスの構築と同様に,作業者には着目言明のみを与えて,背景知識の獲得を行った後,対立言明を網羅的に抽出するための文書の収集から作業を開始することが望ましい.しかしながら,その後に続く,調停知識の獲得,調停記述文書の収集を考慮すると作業者の負担が著しく増大する.また,対立言明の抽出対象となる文書集合が作業者間で異なる場合,作業者が把握する対立関係に差が生じるため,収集された調停記述文書の作業者間の比較が困難になると考えられる.それゆえ,着目言明に加えて,対立言明を網羅的に抽出するための初期文書集合を,{\bf4.3.1}節に述べるように与えることとした.\subsubsection{抜粋要約に関する変更}Kanekoetal.\citeyear{Kaneko2009}において,調停要約には,一つのパッセージで両立可能となる状況を明示的に説明する{\bf直接調停要約}と,状況の一部を説明するパッセージを複数組み合わせて状況の全体を暗に示す{\bf間接調停要約}の2種類があると定義している.間接調停要約の方が,どのようにパッセージを組み合わせるかといった点を考慮しなくてはならないため,要約生成過程において分析する項目が多くなる一方で,直接調停要約の方が,一つのパッセージで全てを説明しなくてはならないため,正解となりうるパッセージの数は少なくなる.それゆえ,第3回のコーパス構築では,要約生成過程の分析を優先して,複数のパッセージを組み合わせて抜粋要約を作成することとし,第4回のコーパス構築では,直接調停要約の正解情報作成に焦点を絞って,一つのパッセージで正解となるパッセージの抽出をもって抜粋要約を作成することとした.\subsubsection{絞り込み過程のシームレス化}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f8.eps}\end{center}\caption{調停要約用アノテーションツール}\label{fg:MS_tool}\end{figure}サーベイレポートコーパスの構築作業において,絞り込みの過程を観察するために,T3.での文書単位での選別とT4.での文単位の抽出とを別の段階での作業としていた.しかしながら,作業者からは,本文を読んで文書を選別する際に,重要記述を含む文についてもある程度判断できるため,二度手間のような作業になり,両者を区別せずに行いたいという要望が出されていた.そこで,第4回のコーパス構築に用いたアノテーションツールには,各段階の作業ログを自動的に記録する機能を実装することとした.作業ログには,対象文書や作業内容の情報に加え,マウスとキーボードの操作レベルの情報が記録されている.{図}\ref{fg:MS_tool}と図\ref{fg:log}に,第4回のアノテーションツールと作業ログの例をそれぞれ示す.図\ref{fg:log}のログから,作業者は,「飲酒は健康に良い」という着目言明のT2.(対立関係にある言明の抽出)において,ID:01217676-1の文書を開き,4文目の1文字目から48文字目までをドラッグして言明を抽出したことが分かる.図\ref{fg:MS_tool}に示すように,表示の都合上,ツール上の行番号と文番号が必ずしも一致するわけではないため,ログには文番号と文字位置に加えて,括弧内にツール上のカーソル座標を記録している.続く作業では,7文目の11文字目から34文字目,8文目の4文字目から60文字目を抽出した後,9行目までスクロールさせて,9文目の1文字目から22文字目を抽出していることが分かる.また,図\ref{fg:log}の作業者が,最初に文書全体を読んでから抽出せずに,読み進めながら逐次的に抽出している様子が読み取れる.したがって,作業ログを分析することで,どの文書のどの部分にどのような作業を行ったかといった内容を復元できる.これにより,第4回のコーパス構築では,作業者は,文書単位や文単位といった作業段階を意識することなく,自然に重要記述の絞り込みを行うことが可能となった.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f9.eps}\end{center}\caption{作業ログの例}\label{fg:log}\end{figure}\subsubsection{情報発信者に関する変更}第4回のコーパス構築では,情報発信者に関して,調停要約を主軸としたことによる若干の修正を加える.第3回までのコーパス構築では,3.2.5節で述べたように,幅広く情報発信者の情報の抽出を行った.しかしながら,第4回のコーパス構築では,調停要約の情報発信者として必要と思われる情報として,著者としての発信者における,名称,組織発信者か否か,専門的知識を備えている({\bf専門的発信者})か否か,調停者として第三者の立場から公平に述べている({\bf調停的発信者})か否か,の4種類に整理した.また,情報発信者として提示すべき情報に加えて,これらの情報を何を手掛かりとして抽出したかに関する情報も,システムが自動的に提示する上で必要である.それゆえ,情報発信者の情報を抽出する際に,抽出の手掛かりとなった記述も合わせて抽出することとした.\subsection{調停要約コーパス構築の手順}\label{ssc:mediatory_summary_step}調停要約コーパスの構築は,第3回と第4回のコーパス構築で行っているが,手順等が洗練された第4回のコーパス構築を中心に説明する.作成作業は表\ref{tb:task}に示す10段階で行うこととし,サーベイレポートコーパスの構築と同様に,T1.からT10.へ一方向に進む流れで作業を行った.調停要約コーパスには,着目言明,Web文書集合,調停要約文書,背景知識,調停知識,検索クエリ,作業の疑問点等のメモ,作業ログが含まれている.{Web文書}と抜粋要約のXMLタグの一覧と文書型定義を付録Cに示す.また,{実際に},XMLタグが付与されたWeb文書と調停要約文書の例を,図\ref{fg:MS_webdoc}と図\ref{fg:MS_report}にそれぞれ示す.以下,作業の流れに従って説明する.\begin{table}[t]\caption{調停要約作成作業の流れ}\label{tb:task}\input{ca03table07.txt}\end{table}\subsubsection{背景知識の獲得}{最初}に,各作業者には,着目言明と初期文書集合を与えた.初期文書集合を決定するにあたり,初期文書集合の決定する人物の意思が作業者に影響を及ぼさないよう機械的に求めることとし,着目言明をクエリとして検索した上位250件のWeb文書を初期文書集合とした.初期文書集合に含まれるWeb文書には,{\sf$<$FileId$>$}の属性{\sfCommon}の値を1として,T4.で各作業者が独自に収集するWeb文書と区別できるようにしている.T1.では,対立言明を公平な視点から網羅的に抽出できるよう,各作業者は着目言明に関連してどのような論点が存在し,各論点においてどのような意見や根拠が存在しているかの背景知識を獲得する.獲得された背景知識は,作業者ごとに自由記述形式で書かれ,調停要約コーパスに収録されている.\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3f10.eps}\end{center}\caption{調停要約コーパスにおけるWeb文書の例(一部)}\label{fg:MS_webdoc}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3f11.eps}\end{center}\caption{調停要約コーパスにおける調停要約文書の例(一部)}\label{fg:MS_report}\end{figure}\subsubsection{対立関係にある言明の抽出}T2.では,与えられた{初期}文書集合から着目言明を支持する内容の言明と対立する内容の言明を文字単位で網羅的に抽出する.抽出された言明は,{\sf$<$Text$>$}で囲まれた本文とは別の{\sf$<$Conflict$>$}内に記述され,属性{\sfSentenceId}に抽出元の文番号,属性{\sfStart}に言明の開始位置,属性{\sfLength}に言明の長さが記されている.\subsubsection{調停知識の獲得}T3.では,T2.で抽出された言明がどの対立軸に関する内容であるかに基づいて人手でクラスタリングを行った後,各クラスタの対立軸に関する調停知識の獲得を行う.クラスタリングは,1つの言明が複数の対立軸に属することを許可しており,クラスタ内の言明に対しては,着目言明を支持する内容であるか,それとも,着目言明と対立する内容であるかの極性を付与している.また,各クラスタの対立軸を表現する「ディーゼル車は環境に良いvs.ディーゼル車は環境に悪い」といった形式のラベルを付与する.以下に,クラスタリングの方法を例を用いて説明する.例えば,「ディーゼル車は環境に良い」という着目言明の初期文書集合から,「ディーゼル車排出ガスは東京の空を汚す最大の要因になっています」という言明が抽出されたとする.この言明から,作業者は「ディーゼル車は大気汚染の原因でないvs.ディーゼル車は大気汚染の原因である」といった初期文書集合中に対立する内容の記述が存在していそうな対立軸の候補を幾つか設定し,それぞれにラベルを付与する.また,当該の言明は着目言明と対立する内容であるという極性を付与して,任意の数の対立軸の候補に属させる.抽出された全ての言明を対立軸の候補に属させた後,同じ対立軸に属する言明群を一つのクラスタとした.各作業者には,対立関係の曖昧性がなくなるように任意の数の対立軸を独自に設定できるよう許可した.ただし,3つの対立軸に関しては,T4.以降の作業者間の比較を容易にするため,事前に我々が初期文書集合を調査した結果に基づいて{予め}3つの対立軸を設定し,初期文書集合と共に作業者に与えている.クラスタの情報は,調停要約文書の{\sf$<$Conflict$>$}で示され,対立軸のラベルは{\sf$<$Label$>$},クラスタ内の言明は{\sf$<$Statement$>$}に記述されている.{\sf$<$Statement$>$}の属性は,Web文書の同名タグと同一であるが,抽出元の文書番号を示す属性{\sfFileId}と,着目言明の支持/対立の極性を示す属性{\sfPolarity}が追加されている.各作業者は,独自に設定した対立軸ごとに,両立可能となりうるか,なるとすればどのような状況かといった調停知識を調査した後,疑似対立である対立軸を独自に見つけて,その中から2つを選び,与えられた3つの対立軸に追加して,計5つの{\bf{主要}対立軸}に対して調停要約を作成することとした.なお,事前に与えた3つの対立軸に対して,独自に追加する対立軸を2つに限定したのは,作業者の労力を考慮したものである.獲得された調停知識は,作業者ごとに自由記述形式で書かれ{ている}.調停要約コーパスに収録された調停知識の例として,「飲酒は健康に良い」という着目言明において,ある作業者が獲得した調停知識の一部を表\ref{tb:mediation_knowledge}に示す.表\ref{tb:mediation_knowledge}の「○」で示された対立軸は主要対立軸を示す.\begin{table}[t]\caption{獲得された調停知識の例}\label{tb:mediation_knowledge}\input{ca03table08.txt}\end{table}\subsubsection{調停記述文書の収集}4.2.3節で述べたように,{対立関係}にある言明を網羅するための初期文書集合は調停要約として適切な記述を必ずしも含んでいるとは限らない.そのため,T4.において,調停要約の記述を含むような文書集合を任意のクエリを用いて検索し,初期文書集合に加えることとした.すなわち,この段階で要約対象となる文書集合が確定し,作業者ごとに差異が現れることとなる.具体的には,T3.で選択した{主要}対立軸ごとに,TSUBAKIでの検索結果から,調停要約の対象となる文書集合を求めるのに最適と思われるクエリを1つ決定し,そのクエリによる上位50件の文書を初期文書集合に加える.したがって,5つの対立軸で250件の文書が加えられることになるが,重複する文書の存在があるため,要約対象となる文書数は最終的に500弱となる.追加されたWeb文書は,{\sf$<$FileId$>$}の属性{\sfCommon}の値を0としている.\subsubsection{調停記述の抽出}T5.では,調停要約として適切な記述を1つのパッセージ({\bf調停パッセージ})として抽出する.4.2.4節で述べたように,第4回のコーパス構築作業では,直接調停要約の正解情報となる,1つのパッセージで両立可能となる状況を明確に説明するタイプの調停要約の作成を対象としている.したがって,調停要約の一部として必要な記述ではあるが,その記述だけでは両立可能であることを明確に伝えられない記述は調停パッセージとして抽出しなかった.なお,調停要約の一部として必要な記述の抽出,および,それらを用いた調停要約の作成は,第3回のコーパス構築で行っている.また,調停パッセージの抽出の際,その記述がなぜ調停パッセージとして適切と判断したのかの手掛かりとなった文字列も抽出している.抽出された調停パッセージは,{\sf$<$Mediation$>$}内に,調停パッセージの判断の手掛かりとなった文字列は,{\sf$<$MediationKeyExpression$>$}内にそれぞれ記述され,どちらの記述も{\sf$<$Statement$>$}と同じ属性{\sfSentenceId},属性{\sfStart},属性{\sfLength}により抽出元の情報を保持している.また,{\sf$<$Mediation$>$}の属性{\sfType}の値を{\sfDirect}として直接調停要約であることを示している.\subsubsection{情報発信者の注釈}T6.では,T5.で抽出された調停パッセージを含む文書集合を対象に,情報発信者に関する情報,および,その手掛かりとなる記述の抽出を行う.情報発信者の名称となる記述を抽出し,その情報発信者が,組織発信者であるか,専門的発信者であるか,調停的発信者であるかを,それぞれ文書中の記述から判断する.また,その抽出や判断の手掛かりとなった記述もそれぞれ抽出した.情報発信者の名称は,{\sf$<$Sender$>$}内に記述され,{\sf$<$Statement$>$}と同じ属性{\sfSentenceId},属性{\sfStart},属性{\sfLength}により抽出元の情報を保持している.情報発信者が組織発信者である場合は,属性{\sfIsOrganization}の値を,専門的発信者の場合は属性{\sfIsExpert}の値を,調停的発信者の場合は属性{\sfIsMediator}の値をぞれぞれ1としている.また,名称,専門的発信者,調停的専門者の判断の手掛かりとなった記述を,{\sf$<$SenderKeyExpression$>$},{\sf$<$SenderExpe{rt}KeyExpression$>$},{\sf$<$SenderMediationKeyExpression$>$}に,抽出元の情報とともに記述している.T7.は,同一発信者と思われる情報発信者のグループ化を行うが,\ref{ssc:survey_report_step}節のサーベイレポートコーパス構築と同じ作業であるため説明を省略する.\subsubsection{調停要約の作成}T8.では,T3.で選択した{主要}対立軸ごとに,理想とする調停要約の自由記述要約を作成する.自由記述要約は,調停要約文書の{\sf$<$Mediation$>$}の一つに,属性{\sfType}の値を{\sfModel}として調停パッセージと区別できるように記述されている.T9.では,T5.で抽出した調停パッセージが,T3.で選択した{主要}対立軸の調停要約となっているかを分類する.分類は,1つの調停パッセージが複数の対立軸の調停要約となることを許可している.分類された調停パッセージは,調停要約文書の{\sf$<$Conflict$>$}内の{\sf$<$Mediation$>$}に記述されている.T10.では,T9.の対立軸ごとに分類された調停パッセージに対して,調停要約としての適切性の観点から{全て}の調停パッセージの対に対して順序を付けた.また,各パッセージに対し,T8.で作成した理想の調停要約との内容や表現などの近さを総合的に判断して,調停要約としての適切性について4段階の絶対評価を行う.ランキングされた結果は,調停要約文書の{\sf$<$Conflict$>$}内の{\sf$<$Mediation$>$}の順序として反映され{ている.}また,絶対評価は,属性{\sfEvaluation}の値として,{\sfExcellent},{\sfGood},{\sfFair},{\sfPoor}の4段階で示されている.\subsection{調停要約コーパスの統計と分析}\label{ssc:mediatory_summary_analysis}\subsubsection{調停要約コーパス}\begin{table}[t]\caption{調停要約コーパス構築に用いた着目言明}\label{tb:mediatory_summary_topic}\input{ca03table09.txt}\end{table}第3回と第4回のコーパス構築で用いた着目言明を表\ref{tb:mediatory_summary_topic}に示す.調停要約は,疑似対立である場合に両立可能となる状況を説明する要約であるため,前提として,疑似対立となる対立言明が存在している必要がある.それゆえ,調停要約に関する着目言明は,60以上の着目言明の候補を対象に疑似対立の有無の調査を行い,疑似対立が存在する候補の中で多様性に富むと思われる着目言明を選択した.{なお,}疑似対立の有無は,客観的であるか否か,科学的に証明できるか否かなどとは別の概念であることに注意されたい.例えば,「CO2は地球温暖化の原因である」という着目言明の場合,「CO2の温室効果や排出量」を示して地球温暖化の原因であるとする主張と,「氷期と間氷期のサイクル」を示して地球温暖化の原因ではないとする主張との間で疑似対立が生じている.この場合,調停要約の例としては,「20世紀後半の温暖化は人類の活動により排出されたCO2が原因であるが,20世紀前半の温暖化は自然の活動が原因である可能性が高い」といったものが考えられる.表\ref{tb:mediatory_summary_topic}に示した着目言明は,全て疑似対立が存在することを確認している.調停要約コーパスの構築作業では,1つの着目言明に対して4名の作業者を割り当てた.なお,作業者は情報工学を専攻する大学生および大学院生である.調停要約コーパスは,\ref{ssc:mediatory_summary_problems}節や\ref{ssc:mediatory_summary_step}節で述べたように,抽出の手掛かりとなった記述や,操作レベルの作業ログ等の豊富な情報を含んでいるが,まだ十分な分析が行われていない.{4.4.2}節から4.4.4節にかけて,「飲酒は健康に良い」を着目言明とした場合の注釈結果に基づき,以下の{3}点について分析を行う.1点目はT3.において各作業者が選択した対立軸に関して,2点目は調停要約の対象となる文書集合を決定するためにT4.で用いられた検索クエリに関して,3点目はT5.で抽出された調停パッセージとT8.で作成された自由記述による調停要約との差に関してである.4.4.5節と4.4.6節では,調停要約コーパス全体を対象として,情報発信者と作業ログに関する分析をそれぞれ行う.\subsubsection{対立軸に関する考察}\begin{table}[t]\caption{T3.で選択された主要対立軸}\label{tb:conflict}\input{ca03table10.txt}\end{table}各作業者が,「飲酒は健康に良い」に関して,T3.で選択した{主要}対立軸を表\ref{tb:conflict}に示す.(a)から(c)は,初期文書集合と共に与えられた作業者共通の{主要}対立軸であり,(d)と(e)が,調停要約を作成できそうな対立軸として,各作業者が任意に作成した対立軸から選択した{主要対立}軸である.主要対立軸に選択されなかった対立軸に関しては,その数だけを「他n組」のように示している.すなわち,表\ref{tb:conflict}の作業者1は,22組の対立軸を作成し,その中から(d)と(e)に示す対立軸を主要対立軸として選択している.各作業者の主要対立軸を比較すると,作業者1の(d)と作業者2の(e)を除いて,複数の作業者が共通で主要対立軸として選択している対立軸は存在しなかった.しかしながら,例えば,作業者1の(e)は,主要対立軸として選択してはいないが,作業者2,作業者3,作業者4の全員が対立軸として作成しており,ある作業者が主要対立軸として選択した対立軸は全て,表現の違いはあれど他の3名の作業者が任意に作成した対立軸の集合において存在していた.{したがって},どのような対立軸が存在しているかに関しては作業者間で共通の認識をしているが,どの対立軸が調停要約を作成する上で重要と考えるかは作業者によって異なる可能性が示唆された.\subsubsection{検索クエリに関する考察}{各}作業者が要約対象とした文書集合の重複度合いを{表}\ref{tb:overlap}に示す.表\ref{tb:overlap}は,「○」で示された作業者間に共通する文書数を表しており,1行目であれば作業者1が要約対象とした文書数が495件,5行目であれば作業者1と作業者2が共通した要約対象文書数が275件であることを示している.全作業者に共通の254文書の内,250文書は初期文書集合であるため,T4.において追加された文書集合において全作業者に共通する文書数は4であり,検索された文書集合はほとんど重複しなかった.T5.において抽出された調停パッセージを含む文書は,異なり数で203文書存在した.この203文書の内訳は,初期文書集合からが66文書,T4.で追加された文書集合からが173文書であった.要約対象とする文書集合の決定は調停要約の精度に影響する重要な処理であり,文書集合を決定するための検索クエリも重要な要素である.\begin{table}[t]\caption{要約対象文書集合の重複度}\label{tb:overlap}\input{ca03table11.txt}\end{table}各作業者がT4.で用いた検索クエリを対立軸ごとに整理したものを表\ref{tb:query}に示す.表\ref{tb:query}の対立軸の記号は表\ref{tb:conflict}の記号に対応している.TSUBAKIが自然文で検索可能であることは各作業者も理解しており,T4.において3名の作業者が調査した計57クエリの内,22クエリは自然文でのクエリであった.しかしながら,TSUBAKIを用いた場合には初期文書集合に加えた文書集合の検索に用いたクエリは表\ref{tb:query}に示すように単語列であるものが多かった.この結果について各作業者に質問したところ,「最初に自然文で入力したが,思うような文書が検索されなかったため単語列で検索した」という回答であった.この原因として「飲酒健康良い悪い」のように,良い面と悪い面の両方を記述している文書を検索するという調停要約特有の要求を満たすクエリを文の形式で表現しにくかったことが考えられる.以上から,調停要約として適切な記述を含む文書を検索するという観点からは,検索エンジンによる影響を考慮する必要があるが,単語列を用いた方が適している可能性が示唆された.ただし,「飲酒糖尿病のリスクを低下」のように単語と句を組み合わせたクエリも存在したことから,必ずしも単語列が最適というわけではない.この点に関する分析を今後さらに進めていきたい.\subsubsection{調停要約と調停パッセージに関する考察}\begin{table}[t]\caption{T4.で用いられた検索クエリ}\label{tb:query}\input{ca03table12.txt}\end{table}\begin{table}[t]\caption{各評価における調停パッセージの延べ数}\label{tb:evaluation}\input{ca03table13.txt}\end{table}表\ref{tb:evaluation}に,T10.のランキングにおける各評価の調停パッセージの延べ数を示す.\pagebreakまた,内訳として,初期文書から抽出された数と,T4.で追加された調停記述文書から抽出された数を示す.同じ調停パッセージであっても,対立軸が異なれば評価も異なり,調停要約とみなされなかった場合もあることに注意されたい.作業者によるバラツキが存在するが,全体として,{\sfFair},{\sfPoor},{\sfGood},{\sfExcellent}の順に評価された数が多く,理想の調停要約に極めて近いことを示す{\sfExcellent}と評価された調停パッセージは殆ど存在しなかった.初期文書と調停記述文書の内訳から,調停記述文書の方が比較的評価が高い調停パッセージを多く含んでいたことが分かる.しかしながら,適切な調停記述文書を自動的に検索する方法は現段階で不明であり,今後も分析を続けていきたい.\begin{table}[t]\caption{T8.で作成された自由記述による調停要約}\label{tb:freetext}\input{ca03table14.txt}\end{table}\begin{table}[t]\caption{T10.で1位にランキングされた調停パッセージ}\label{tb:extractive}\input{ca03table15.txt}\end{table}表\ref{tb:freetext}は「飲酒は健康に良いvs.飲酒は健康に悪い」の対立軸に対してT8.で作成された理想の調停要約であり,表\ref{tb:extractive}は同じ対立軸においてT10.のランキングで1位となった調停パッセージである.理想とする調停要約に関しては,作業者1と作業者3が「病気の種類」という観点からも記述しているが,基本的には4名とも「飲酒量」という観点からまとめており,多くの人に共通する調停要約の観点が存在するように思われる.一方,表\ref{tb:freetext}の調停要約と表\ref{tb:extractive}の調停パッセージを比較した場合,「飲酒量」などの大意は共通しているが細かな違いが生じている.また,作業者1の調停要約で存在した「コレステロール」や「ワイン」などの話題は,調停パッセージには存在していない.したがって,1つのパッセージを抽出して提示する直接調停要約の考え方に大きな問題はないが,より理想的な調停要約を生成するためには複数の調停パッセージを組み合わせる必要があると考えられる.\subsubsection{情報発信者に関する考察}{情報}発信者に関する延べ注釈数を表\ref{tb:MS_holder_result}に示す.注釈された3,221の情報発信者は全て著者としての発信者であり,その内,組織発信者であるのは1,990,専門的発信者であるのは840,調停的発信者であるのは759であった.ある発信者に,組織発信者,専門的発信者,調停的発信者の2つ以上が注釈される可能性があることに注意されたい.組織発信者{側}を重視する場合に限り,組織発信者を抽出しているため,表\ref{tb:MS_holder_result}における組織発信者の数は,表\ref{tb:SR_holder_result}における組織発信者{側}を重視する場合の数に相当する.したがって,著者としての発信者における組織発信者の割合は,サーベイレポート要約で約72.7\%(2,217/3,049),調停要約コーパスで約61.8\%(1,990/3,221)となり,一般に6割から7割程度であると考えられる.また,同一発信者が存在すると注釈された個人発信者と組織発信者は,それぞれ,691と1,183であった.サーベイレポートコーパスと同じく,調停要約コーパスにおいても,同一発信者は無視できない割合で存在している.\begin{table}[t]\caption{調停要約コーパスにおける情報発信者の延べ注釈数}\label{tb:MS_holder_result}\input{ca03table16.txt}\end{table}\subsubsection{作業ログに関する考察}表\ref{tb:log_num}に,作業ログを元にした,各段階における作業者の行動の回数を示す.作業ログは,図\ref{fg:log}に示すように,マウスやキーボードの操作レベルで記録されているが,表\ref{tb:log_num}では,その操作がもたらす効果のレベルで示している.また,文書から文字列を絞り込む過程に関連する作業段階と行動に限定している.\begin{table}[t]\caption{各段階における作業者の行動の回数}\label{tb:log_num}\input{ca03table17.txt}\end{table}一般に,下方向のスクロールに対する上方向へのスクロールの割合が大きいほど,文書を何度も読み返していると考えられる.対立関係にある言明を抽出するT2.では約21.0\%(39,795/189,079),調停記述を抽出するT5.では約14.9\%(39,412/265,347)であったのに対し,情報発信者を抽出するT6.では54.1\%(58,894/108,855)という高い値であった.一般に,後の作業では,前の作業で既に読んだ文書に対して作業を行うため,読み返す必要性は低下すると考えられる.T6.で上方向へのスクロールの割合が高かった理由は,以下のように考えられる.4.3.6節で述べたように,T6.では,情報発信者の名称,専門的発信者,調停的発信者を判断する手掛かりとなった表現を抽出するよう指示している.手掛かり表現は文書中に散在しているため,3種類の手掛かり表現を求めて文書内を探した結果,上方向へのスクロールの割合が高くなったと考えられる.また,どの作業段階においても,抽出した文字列を取り消す行動が無視できない割合で存在している.対立関係にある言明の抽出では約18.1\%(1,651/9,139),調停パッセージの抽出では約23.8\%(527/2,218),情報発信者の抽出では約16.7\%(664/3,978)であった.抽出した文字列を取り消すという行動は,必ずしも作業者が熟慮した上で行われているわけではないであろうが,取り消す行動の割合が高いほど,作業者の判断を揺らがせるような作業であった可能性がある.仮にそうであったとするならば,情報発信者の抽出に比べて,調停パッセージの抽出は判断が難しい作業であったといえる. \section{関連研究} \label{sc:related_work}コーパス構築に関する研究には以下のものがある.飯田ら\citeyear{Iida2010}は,新聞記事を対象に,述語項構造・共参照タグを付与する基準について報告し,事態性名詞のタグ付与において,具体物のタグ付与と項のタグ付与を独立して行うことで作業品質を向上させている.宮崎ら\citeyear{Miyazaki2010}は,Web文書を対象に,製品の様態と評価を分離した評判情報のモデルを提案し,評判情報コーパスを構築する際の注釈者間の注釈揺れを削減する方法について論じている.しかしながら,これらのコーパス構築の目的は,本研究の目的である情報信憑性判断支援のための要約と異なる.文書の書き手の意見を理解できるよう支援することを目的としてアノテーションを行う研究として,Weibeetal.~\citeyear{Wiebe2005},西原ら\cite{Nishihara2011},松吉ら\cite{Matsuyoshi2010}などの研究がある.Wiebeetal.~\citeyear{Wiebe2005}は,意見や感情などのprivatestateを人手でアノテーションする方法を提案し,新聞記事を対象としたMPQAコーパスにアノテーションを行った.西原ら\citeyear{Nishihara2011}は,文書の書き手の意見を理解することを支援するために,文書においてアノテーションを付与すべき文を推薦するシステムを提案した.松吉ら\citeyear{Matsuyoshi2010}は,書き手が表明する真偽判断,価値判断等の,事象に対する総合的な情報を表すタグ体系を提案し,このタグ体系に基づくコーパスを基礎とした解析システムを開発した.Wiebeetal.,西原ら,松吉らの研究の目的は,本研究の目的である信憑性判断支援と関連があるが,本研究が支援のための手段として要約を対象としている点で異なる.要約を目的としてコーパスを構築した研究としては,Radevetal.~\citeyear{Radev2000},綾ら\cite{Aya2005},伊藤ら\shortcite{Ito2004}などの研究がある.Radevetal.~\citeyear{Radev2000}は,RST(RhetoricalStructureTheory)を文書間関係に拡張したCST(Cross-documentStructureTheory)を提唱し,CSTの関係をアノテーションしたCSTBankの構築を行った.綾ら\citeyear{Aya2005}は,セマンティックオーサリングで得られたグラフを想定し,修辞関係等を明示的に与えた複数文書に対し要約を作成する手法を提案した.しかしながら,Radevetal.や綾らはWeb文書ではなく新聞記事を対象としている.伊藤ら\citeyear{Ito2004}は,汎用アノテーション記述言語MAMLを提案し,複数メール要約や動画像の検索・要約を行う研究を行っている.メーラやブラウザ等を利用する際に入力されたデータをアノテーションデータとすることで,利用者が特に意識せずともアノテーションデータを生成できるようにした.本研究では,情報信憑性判断支援のための要約という新しい要約概念を対象とするため,要約の生成過程を調査する必要があり,そのためのアノテーションを行っている点で異なる.テキストの表層的な情報を使うだけでは十分に解決できない,より深い言語処理課題においては,アノテーションの際に,アノテーションの結果だけではなく,作業者がどのような情報を利用してアノテーションを行ったかといったアノテーション中の過程にも関心を払うことの重要性が,徳永ら\shortcite{Tokunaga2013}や光田ら\shortcite{Mitsuda2013}により指摘されている.本研究では,重要記述の絞り込みの過程や,抽出の手掛かりとなった記述,作業中の疑問点のメモ,操作レベルの作業ログといった,要約作成の過程に関するアノテーションを行っており,これらの情報を分析して得られた知見に基づいて調停要約生成システムの開発を行っている.Web文書を情報源としてコーパスを構築する研究として,Ptaszynskietal.~\citeyear{Ptaszynski2012},鍜治ら\shortcite{Kaji2008},関口ら\shortcite{Sekiguchi2003}などの研究がある.Ptaszynskietal.~\citeyear{Ptaszynski2012}は,日本語のブログを自動収集して構築した,3.5億文からなるコーパスYACISに対して自動的に感情情報を付与した.鍜治ら\citeyear{Kaji2008}は,大規模なHTML文書集合から評価文を自動収集する手法を提案し,約10億件のHTML文書から約65万文からなる評価文コーパスを自動的に構築した.関口ら\citeyear{Sekiguchi2003}は,Web文書中のリンク情報を手掛かりとして連鎖的にWeb文書を収集し,単語や格フレームの異なり数の点で良質なコーパスを自動的に構築した.Ptaszynskietal.,鍜治ら,関口らの研究で構築されたコーパスは,不特定トピックのWeb文書集合を自動的に収集して構築したものであり,着目言明に関連したWeb文書集合を人手で収集して構築した本研究のコーパスと性質が異なる.アノテーションの対象となる文書集合を決定する方法として,文書そのものを新しく作成する橋本ら\citeyear{Hashimoto2011}の方法や,適合文書に必須となる情報を用いる吉岡ら\shortcite{Yoshioka2012}の方法がある.橋本ら\citeyear{Hashimoto2011}は,ブログを対象とした自然言語処理の高精度化に寄与することを目的として,81名の大学生に4つのテーマで執筆させた249記事のブログに,文境界,形態素,係り受け,格・省略・照応,固有表現,評価表現に関するアノテーションを行った.本研究でも,自由記述要約として作業者が理想の要約文書を作成しているが,同時に,表層の一致による評価を行うために,Web文書の重要記述を組み合わせた抜粋要約を作成する必要があり,要約対象となるWeb文書集合を決定する必要があった.吉岡ら\citeyear{Yoshioka2012}は,質問応答を目的としたテストコレクションの構築において,適合文書に必須の情報である回答を用いて検索することで,一定以上の網羅性を担保したテストコレクションが作成できる可能性を示した.しかしながら,本研究では,情報信憑性判断支援のための要約において必須の情報が不明であったため,適切な検索クエリを調査する必要があり,作業で用いられた検索クエリをコーパスに収録している.情報信憑性判断支援のための要約に関するコーパス構築と分析は,Nakanoetal.~\citeyear{Nakano2010},渋木ら\citeyear{Shibuki2011b}でも行っている.Nakanoetal.,渋木らの分析結果は本研究の一部と共通しているが,本研究では,さらに情報発信者や作業ログ等に関する分析を進めている. \section{おわりに} \label{sc:conclusion}本論文では,情報信憑性判断支援のための要約に関する研究を行う上で基礎となる分析・評価用のコーパスを3年間で延べ4回構築した結果について,{現時点}での試行の1つであるが報告した.情報信憑性判断支援のための要約では,利用者が着目する言明の信憑性を判断する上で必要となる情報をWeb文書から探し出し,要約・整理して提示する.情報信憑性判断支援のための要約{の基礎}となるコーパス構築においては,人間の要約過程を観察するための情報と,性能を評価するための正解情報が求められており,両方の情報を満たすタグセットとタグ付与の方法について説明した.また,全数調査が困難なWeb文書を要約対象とする研究において,タグ付与の対象となる文書集合をどのように決定するかといった問題に対して,評価型ワークショップのテストコレクション構築で用いられるプーリングを参考とした方法を述べた.{本論文}で構築したコーパスを一般公開することは,収集したWeb文書の再配布が著作権の観点から法律上の問題がある可能性があるため,現時点では難しい.今後,NTCIRのWEBテストコレクションや言論マップコーパス\footnote{http://www.cl.ecei.tohoku.ac.jp/index.php?Open\%20Resources\%2FStatement\%20Map\%20Corpus}の配布方法などを参考に公開の方法を検討していきたいと考えている.また,本コーパスは,人間の要約の作成過程を分析する上で豊富な情報を含んでいるが,その分析は充分に行われていない.今後は,さらに詳細な分析を行い,その結果を要約生成システムに反映させたいと考えている.\acknowledgment本研究の一部は,JSPS科研費25330254,ならびに,横浜国立大学大学院環境情報研究院共同研究推進プログラムの助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2009}]{Akamine2009}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2009\BBCP.\newblock\BBOQWISDOM:AWebInformationCredibilityAnalysisSystem.\BBCQ\\newblockIn{\BemtheACL-IJCNLP2009SoftwareDemonstrations},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Leon-Suematsu,Kawada,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2010}]{Akamine2010}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Leon-Suematsu,Y.~I.,Kawada,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2010\BBCP.\newblock\BBOQOrganizingInformationontheWebtoSupportUserJudgmentsonInformationCredibility.\BBCQ\\newblockIn{\Bemthe4thInternationalUniversalCommunicationSymposium(IUCS2010)},\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{綾\JBA松尾\JBA岡崎\JBA橋田\JBA石塚}{綾\Jetal}{2005}]{Aya2005}綾聡平\JBA松尾豊\JBA岡崎直観\JBA橋田浩一\JBA石塚満\BBOP2005\BBCP.\newblock修辞構造のアノテーションに基づく要約生成.\\newblock\Jem{人工知能学会論文誌},{\Bbf20}(3),\mbox{\BPGS\149--158}.\bibitem[\protect\BCAY{Buckley,Dimmick,Soboroff,\BBA\Voorhees}{Buckleyet~al.}{2007}]{Buckley2007}Buckley,C.,Dimmick,D.,Soboroff,I.,\BBA\Voorhees,E.\BBOP2007\BBCP.\newblock\BBOQBiasandtheLimitsofPoolingforLargeCollections.\BBCQ\\newblock{\BemInformationRetrieval},{\Bbf10}(6),\mbox{\BPGS\491--508}.\bibitem[\protect\BCAY{Ennals,Trushkowsky,\BBA\Agosta}{Ennalset~al.}{2010}]{Ennals2010}Ennals,R.,Trushkowsky,B.,\BBA\Agosta,J.~M.\BBOP2010\BBCP.\newblock\BBOQHighlightingDisputedClaimsontheWeb.\BBCQ\\newblockIn{\Bemthe19thInternationalWorldWideWebConference(WWW2010)},\mbox{\BPGS\341--350}.\bibitem[\protect\BCAY{Finn,Kushmerick,\BBA\Smyth}{Finnet~al.}{2001}]{Finn2001}Finn,A.,Kushmerick,N.,\BBA\Smyth,B.\BBOP2001\BBCP.\newblock\BBOQFactorfiction:ContentClassificationforDigitalLibraries.\BBCQ\\newblockIn{\BemtheSecondDELOSNetworkofExcellenceWorkshoponPersonalisationandRecommenderSystemsinDigitalLibraries},\mbox{\BPGS\18--20}.\bibitem[\protect\BCAY{藤井}{藤井}{2008}]{Fujii2008}藤井敦\BBOP2008\BBCP.\newblockOpinionReader:意思決定支援を目的とした主観情報の集約・可視化システム.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ91-D}(2),\mbox{\BPGS\459--470}.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2011}]{Hashimoto2011}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2011\BBCP.\newblock構文・照応・評価情報つきブログコーパスの構築.\\newblock\Jem{自然言語処理},{\Bbf18}(2),\mbox{\BPGS\175--201}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2010}]{Iida2010}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{伊藤\JBA斎藤}{伊藤\JBA斎藤}{2004}]{Ito2004}伊藤一成\JBA斎藤博昭\BBOP2004\BBCP.\newblockアノテーションの副次生成とテキスト処理への応用.\\newblock\Jem{日本データベース学会論文誌DBSJLetters},{\Bbf3}(1),\mbox{\BPGS\117--120}.\bibitem[\protect\BCAY{鍜治\JBA喜連川}{鍜治\JBA喜連川}{2008}]{Kaji2008}鍜治伸裕\JBA喜連川優\BBOP2008\BBCP.\newblockHTML文書集合からの評価文の自動収集.\\newblock\Jem{自然言語処理},{\Bbf15}(3),\mbox{\BPGS\77--90}.\bibitem[\protect\BCAY{Kaneko,Shibuki,Nakano,Miyazaki,Ishioroshi,\BBA\Morii}{Kanekoet~al.}{2009}]{Kaneko2009}Kaneko,K.,Shibuki,H.,Nakano,M.,Miyazaki,R.,Ishioroshi,M.,\BBA\Morii,T.\BBOP2009\BBCP.\newblock\BBOQMediatorySummaryGenaration:Summary-PassageExtractionforInformationCredibilityontheWeb.\BBCQ\\newblockIn{\Bemthe23rdPacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\240--249}.\bibitem[\protect\BCAY{加藤\JBA河原\JBA乾\JBA黒橋\JBA柴田}{加藤\Jetal}{2010}]{Kato2010}加藤義清\JBA河原大輔\JBA乾健太郎\JBA黒橋禎夫\JBA柴田知秀\BBOP2010\BBCP.\newblockWebページの情報発信者の同定.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(1),\mbox{\BPGS\90--103}.\bibitem[\protect\BCAY{河合\JBA岡嶋\JBA中澤}{河合\Jetal}{2007}]{Kawai2011}河合剛巨\JBA岡嶋穣\JBA中澤聡\BBOP2007\BBCP.\newblockWeb文書の時系列分析に基づく意見変化イベントの抽出.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\264--267}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{Lin2003}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesUsingN-gramCo-OccurrenceStatistics.\BBCQ\\newblockIn{\Bemthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1(NAACL'03)},\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{松本\JBA小西\JBA高木\JBA小山\JBA三宅\JBA伊東}{松本\Jetal}{2009}]{Matsumoto2009}松本章代\JBA小西達裕\JBA高木朗\JBA小山照夫\JBA三宅芳雄\JBA伊東幸宏\BBOP2009\BBCP.\newblock文末表現を利用したウェブページの主観・客観度の判定.\\newblock\Jem{第1回データ工学と情報マネジメントに関するフォーラム(DEIM),A5-4}.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{Matsuyoshi2010}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ93-D}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{Mihalcea\BBA\Tarau}{Mihalcea\BBA\Tarau}{2004}]{Mihalcea2004}Mihalcea,R.\BBACOMMA\\BBA\Tarau,P.\BBOP2004\BBCP.\newblock\BBOQTextRank:BringingOrderintoTexts.\BBCQ\\newblockIn{\BemtheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2004)},\mbox{\BPGS\404--411}.\bibitem[\protect\BCAY{光田\JBA飯田\JBA徳永}{光田\Jetal}{2013}]{Mitsuda2013}光田航\JBA飯田龍\JBA徳永健伸\BBOP2013\BBCP.\newblockテキストアノテーションにおける視線と操作履歴の収集と分析.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\449--452}.\bibitem[\protect\BCAY{宮崎\JBA森}{宮崎\JBA森}{2010}]{Miyazaki2010}宮崎林太郎\JBA森辰則\BBOP2010\BBCP.\newblock注釈事例参照を用いた複数注釈者による評判情報コーパスの作成.\\newblock\Jem{自然言語処理},{\Bbf17}(5),\mbox{\BPGS\3--50}.\bibitem[\protect\BCAY{Miyazaki,Momose,Shibuki,\BBA\Mori}{Miyazakiet~al.}{2009}]{Miyazaki2009}Miyazaki,R.,Momose,R.,Shibuki,H.,\BBA\Mori,T.\BBOP2009\BBCP.\newblock\BBOQUsingWebPageLayoutforExtractionofSenderNames.\BBCQ\\newblockIn{\Bemthe3rdInternationalUniversalCommunicationSymposium(IUCS2009)},\mbox{\BPGS\181--186}.\bibitem[\protect\BCAY{Murakami,Nichols,Mizuno,Watanabe,Masuda,Goto,Ohki,Sao,Matsuyoshi,Inui,\BBA\Matsumoto}{Murakamiet~al.}{2010}]{Murakami2010}Murakami,K.,Nichols,E.,Mizuno,J.,Watanabe,Y.,Masuda,S.,Goto,H.,Ohki,M.,Sao,C.,Matsuyoshi,S.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQStatementMap:ReducingWebInformationCredibilityNoisethroughOpinionClassification.\BBCQ\\newblockIn{\BemtheFourthWorkshoponAnalyticsforNoisyUnstructuredTextData(AND2010)},\mbox{\BPGS\59--66}.\bibitem[\protect\BCAY{中野\JBA渋木\JBA宮崎\JBA石下\JBA森}{中野\Jetal}{2008}]{Nakano2008}中野正寛\JBA渋木英潔\JBA宮崎林太郎\JBA石下円香\JBA森辰則\BBOP2008\BBCP.\newblock情報信憑性判断のための自動要約に向けた人手による要約作成実験とその分析.\\newblock\Jem{自然言語処理研究会報告2008-NL-187},\mbox{\BPGS\107--114}.\bibitem[\protect\BCAY{中野\JBA渋木\JBA宮崎\JBA石下\JBA金子\JBA永井\JBA森}{中野\Jetal}{2011}]{Nakano2011}中野正寛\JBA渋木英潔\JBA宮崎林太郎\JBA石下円香\JBA金子浩一\JBA永井隆広\JBA森辰則\BBOP2011\BBCP.\newblock情報信憑性判断支援のための直接調停要約生成手法.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ94-D}(11),\mbox{\BPGS\1019--1030}.\bibitem[\protect\BCAY{Nakano,Shibuki,Miyazaki,Ishioroshi,Kaneko,\BBA\Mori}{Nakanoet~al.}{2010}]{Nakano2010}Nakano,M.,Shibuki,H.,Miyazaki,R.,Ishioroshi,M.,Kaneko,K.,\BBA\Mori,T.\BBOP2010\BBCP.\newblock\BBOQConstructionofTextSummarizationCorpusfortheCredibilityofInformationontheWeb.\BBCQ\\newblockIn{\Bemthe7thLanguageResourcesandEvaluationConference(LREC2010)},\mbox{\BPGS\3125--3131}.\bibitem[\protect\BCAY{西原\JBA伊藤\JBA大澤}{西原\Jetal}{2011}]{Nishihara2011}西原陽子\JBA伊藤彩\JBA大澤幸生\BBOP2011\BBCP.\newblock意見の理解を支援するアノテーションシステム.\\newblock\Jem{マイニングツールの統合と活用&情報編纂研究会(TETDM-01-SIG-IC-06-01)},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Ptaszynski,Rzepka,Araki,\BBA\Momouchi}{Ptaszynskiet~al.}{2012}]{Ptaszynski2012}Ptaszynski,M.,Rzepka,R.,Araki,K.,\BBA\Momouchi,Y.\BBOP2012\BBCP.\newblock\BBOQAutomaticallyAnnotatingAFive-Billion-WordCorpusofJapaneseBlogsforSentimentandAffectAnalysis.\BBCQ\\newblockIn{\Bemthe3rdWorkshoponComputationalApproachestoSubjectivityandSentimentAnalysis},\mbox{\BPGS\89--98}.\bibitem[\protect\BCAY{Radev,Otterbacher,\BBA\Zhang}{Radevet~al.}{2004}]{Radev2000}Radev,D.,Otterbacher,J.,\BBA\Zhang,Z.\BBOP2004\BBCP.\newblock\BBOQCSTBank:ACorpusfortheStudyofCross-documentStructuralRelationships.\BBCQ\\newblockIn{\Bemthe4thInternationalLanguageResouraceandEvaluation(LREC'04)},\mbox{\BPGS\1783--1786}.\bibitem[\protect\BCAY{関口\JBA山本}{関口\JBA山本}{2003}]{Sekiguchi2003}関口洋一\JBA山本和英\BBOP2003\BBCP.\newblockWebコーパスの提案.\\newblock\Jem{情報処理学会研究報告,NL157-17/FI72-17}.\bibitem[\protect\BCAY{渋木\JBA中野\JBA宮崎\JBA石下\JBA鈴木\JBA森}{渋木\Jetal}{2009}]{Shibuki2009}渋木英潔\JBA中野正寛\JBA宮崎林太郎\JBA石下円香\JBA鈴木貴子\JBA森辰則\BBOP2009\BBCP.\newblock情報信憑性判断のための要約に関する基礎的検討.\\newblock\Jem{言語処理学会第15回年次大会発表論文集},\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{渋木\JBA中野\JBA宮崎\JBA石下\JBA永井\JBA森}{渋木\Jetal}{2011}]{Shibuki2011b}渋木英潔\JBA中野正寛\JBA宮崎林太郎\JBA石下円香\JBA永井隆広\JBA森辰則\BBOP2011\BBCP.\newblock調停要約のための正解コーパスの作成とその分析.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\364--367}.\bibitem[\protect\BCAY{渋木\JBA永井\JBA中野\JBA石下\JBA松本\JBA森}{渋木\Jetal}{2013}]{Shibuki2013}渋木英潔\JBA永井隆広\JBA中野正寛\JBA石下円香\JBA松本拓也\JBA森辰則\BBOP2013\BBCP.\newblock情報信憑性判断支援のための対話型調停要約生成手法.\\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\75--103}.\bibitem[\protect\BCAY{Shibuki,Nagai,Nakano,Miyazaki,Ishioroshi,\BBA\Mori}{Shibukiet~al.}{2010}]{Shibuki2010}Shibuki,H.,Nagai,T.,Nakano,M.,Miyazaki,R.,Ishioroshi,M.,\BBA\Mori,T.\BBOP2010\BBCP.\newblock\BBOQAMethodforAutomaticallyGeneratingaMediatorySummarytoVerifyCredibilityofInformationontheWeb.\BBCQ\\newblockIn{\Bemthe23rdInternationalConferenceonComputationalLinguistics(COLING2010)},\mbox{\BPGS\1140--1148}.\bibitem[\protect\BCAY{Shinzato,Shibata,Kawahara,Hashimoto,\BBA\Kurohashi}{Shinzatoet~al.}{2008}]{Shinzato2008}Shinzato,K.,Shibata,T.,Kawahara,D.,Hashimoto,C.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQTSUBAKI:AnOpenSearchEngineInfrastructureforDevelopingNewInformationAccessMethodology.\BBCQ\\newblockIn{\BemtheThirdInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{徳永\JBA飯田}{徳永\JBA飯田}{2013}]{Tokunaga2013}徳永健伸\JBA飯田龍\BBOP2013\BBCP.\newblockアノテーションのためのアノテーション.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\70--73}.\bibitem[\protect\BCAY{Wiebe,Wilson,\BBA\Cardie}{Wiebeet~al.}{2005}]{Wiebe2005}Wiebe,J.,Wilson,T.,\BBA\Cardie,C.\BBOP2005\BBCP.\newblock\BBOQAnnotatingExpressionsofOpinionsandEmotionsinLanguage.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf39}(2--3),\mbox{\BPGS\165--210}.\bibitem[\protect\BCAY{山本\JBA田中}{山本\JBA田中}{2010}]{Yamamoto2010}山本祐輔\JBA田中克己\BBOP2010\BBCP.\newblockデータ対間のサポート関係分析に基づくWeb情報の信憑性評価.\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf3}(2),\mbox{\BPGS\61--79}.\bibitem[\protect\BCAY{吉岡\JBA原口}{吉岡\JBA原口}{2004}]{Yoshioka2004}吉岡真治\JBA原口誠\BBOP2004\BBCP.\newblockイベントの参照関係に注目した新聞記事の複数文書要約.\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\257--260}.\bibitem[\protect\BCAY{吉岡\JBA神門}{吉岡\JBA神門}{2012}]{Yoshioka2012}吉岡真治\JBA神門典子\BBOP2012\BBCP.\newblockタスクを考慮した情報検索テストコレクション構築に関する考察.\\newblock\Jem{情報アクセスシンポジウム2012},\mbox{\BPGS\1--7}.\end{thebibliography}\clearpage\appendix \section{サーベイレポートコーパスのタグ一覧と文書型定義} サーベイレポートコーパスに収録されたWeb文書と抜粋要約のタグの一覧を,表\ref{tb:survey_report_web_tagset}と表\ref{tb:survey_report_sum_tagset}にそれぞれ示す.また,文書型定義を,図\ref{fg:survey_report_web_dtd}と図\ref{fg:survey_report_sum_dtd}にそれぞれ示す.\begin{table}[h]\caption{サーベイレポートコーパスに収録されたWeb文書のタグの一覧}\label{tb:survey_report_web_tagset}\input{ca03tableA1.txt}\end{table}\clearpage\begin{table}[p]\caption{サーベイレポートコーパスに収録された抜粋要約のタグの一覧}\label{tb:survey_report_sum_tagset}\input{ca03tableA2.txt}\end{table}\clearpage\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3fa.eps}\end{center}\caption{サーベイレポートコーパスに収録されたWeb文書の文書型定義}\label{fg:survey_report_web_dtd}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3fb.eps}\end{center}\caption{サーベイレポートコーパスに収録された抜粋要約の文書型定義}\label{fg:survey_report_sum_dtd}\end{figure}\clearpage \section{抜粋要約中の論点の一覧} 3.4.3節で述べた作業者間の一致率に関する考察として行った,第2回のサーベイレポートコーパスに収録された抜粋要約中の論点数を調査した結果を,表\ref{tb:SR_viewpoint_LAS_PAIN}から表\ref{tb:SR_viewpoint_XYL_TOOTH}にそれぞれ示す.\begin{table}[h]\caption{「レーシック手術は痛みがある」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_LAS_PAIN}\input{ca03tableB1.txt}\end{table}\begin{table}[h]\caption{「無洗米は水を汚さない」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_RIC_CLEAN}\input{ca03tableB2.txt}\end{table}\clearpage\begin{table}[p]\caption{「無洗米はおいしい」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_RIC_TASTE}\input{ca03tableB3.txt}\end{table}\begin{table}[p]\caption{「アスベストは危険性がない」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_ASB_RISK}\input{ca03tableB4.txt}\end{table}\begin{table}[p]\caption{「キシリトールは虫歯にならない」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_XYL_TOOTH}\input{ca03tableB5.txt}\end{table}\clearpage \section{調停要約コーパスのタグ一覧と文書型定義} 調停要約コーパスに収録されたWeb文書のタグの一覧を表\ref{tb:mediatory_summary_web_tagset1}と表\ref{tb:mediatory_summary_web_tagset2}に,抜粋要約のタグの一覧を表\ref{tb:mediatory_summary_sum_tagset}にそれぞれ示す.また,文書型定義を,図\ref{fg:mediatory_summary_web_dtd}と図\ref{fg:mediatory_summary_sum_dtd}にそれぞれ示す.\begin{table}[h]\caption{調停要約コーパスにおけるWeb文書のタグの一覧(前半)}\label{tb:mediatory_summary_web_tagset1}\input{ca03tableC1.txt}\end{table}\clearpage\begin{table}[p]\caption{調停要約コーパスにおけるWeb文書のタグの一覧(後半)}\label{tb:mediatory_summary_web_tagset2}\input{ca03tableC2.txt}\end{table}\clearpage\begin{table}[p]\caption{調停要約コーパスにおける調停要約文書のタグの一覧}\label{tb:mediatory_summary_sum_tagset}\input{ca03tableC3.txt}\end{table}\clearpage\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3fc.eps}\end{center}\caption{調停要約コーパスに収録されたWeb文書の文書型定義}\label{fg:mediatory_summary_web_dtd}\end{figure}\clearpage\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3fd.eps}\end{center}\caption{調停要約コーパスに収録された抜粋要約の文書型定義}\label{fg:mediatory_summary_sum_dtd}\end{figure}\clearpage\begin{biography}\bioauthor{渋木英潔}{1997年小樽商科大学商学部商業教員養成課程卒業.1999年同大学大学院商学研究科修士課程修了.2002年北海道大学大学院工学研究科博士後期課程修了.博士(工学).2006年北海学園大学大学院経営学研究科博士後期課程終了.博士(経営学).現在,横浜国立大学環境情報研究院科学研究費研究員.自然言語処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本認知科学会各会員.}\bioauthor{中野正寛}{2005年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.2011年同専攻博士課程後期単位取得退学.修士(情報学).2011年から2012年まで同学府研究生.この間,自然言語処理に関する研究に従事.}\bioauthor{宮崎林太郎}{2004年神奈川大学大学院理学研究科情報科学専攻博士課程前期修了.2011年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了.博士(情報学).在学中は,自然言語処理に関する研究に従事.}\bioauthor{石下円香}{2009年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了.現在,国立情報学研究所特任研究員.博士(情報学).自然言語処理に関する研究に従事.言語処理学会,人工知能学会各会員.}\bioauthor{金子浩一}{2008年横浜国立大学工学部電子情報工学科卒業.2010年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{永井隆広}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
V16N04-02
\section{はじめに} 近年,コロケーションの研究は自然言語処理及びコーパス言語学において盛んになっている.このコロケーションの一種である遠隔共起\footnote{本稿では,あるテクストにおいて,語と他の言語的要素が同時に出現する現象を「共起」と呼ぶ.情報処理およびコーパス言語学において,同じような意味で「コロケーション」という用語も利用される.文末モダリティ形式との共起は語と文法範疇の共起とも考えられ,そのような語と文法範疇の共起は「コリゲーション」という用語を使用することがある.それに対して,語と語の共起は「コロケーション」と呼ばれる\cite{IshikawaBook}.本章では,両方の現象を「共起」という用語で扱う.「遠隔共起」というのは離れた位置に出現する共起である.}は,頻繁に現れる言語現象であるにも関わらず,研究としては取り上げられていない.日本語における遠隔共起の一つとして推量副詞と文末モダリティ形式\footnote{たとえば,「\textgt{\underline{たぶん}}最初は発表のスタイルもばらばらで声もあまり出ない\textgt{\underline{だろう}}」の例には,「たぶん」は推量副詞,「だろう」は文末モダリティ形式である.推量副詞および文末モダリティは,両方とも,話し手の確信の度合いを表している.}との共起関係があげられ,日本語教育においても重要な問題の一つである.このような共起はモダリティを二重に表現していることにより,テクストにおける重要な語用論的な指標となっている\cite{Bekes}.\shortciteA{Srdanovic2008a}では,工藤\citeyear{Kudou}が示した確率論的性格を有する推量副詞と文末モダリティの「共起」の振る舞いが,複数のコーパスの分析の結果においても確認された.さらに,推量副詞と文末モダリティ形式の共起はテクストの種類によって著しく異なっていることが示され,日本語コーパス資料の分類の可能性が明らかにされた.日本語においてモダリティ形式とそのバリエーションが非常に多いにもかかわらず,そのリストが存在しないため,現在の形態素解析ツールにおいては複数の形態素の連なりからなる様々なモダリティ形式の認識が不可能である.このことから,本研究ではコーパス検索ツールSketchEngine(SkE)\shortcite{Srdanovic2008b,Srdanovic2008d}において日本語の推量副詞とモダリティ形式の遠隔共起が検索可能になるように機能の拡張を試みる.実現方法としては,複数のコーパス分析の結果に基づいて,モダリティ形式とそのバリエーションのリストを作成し,ChaSenで認識できるようにした上で,語の文法・共起情報を提示するために推量副詞と文末モダリティ形式との遠隔共起が容易に抽出できるようにする.この抽出結果によって,日本語の学習者,研究者,教師が推量副詞と文末モダリティ形式の共起表現を簡単に調べられ,学習辞書や教科書などの作成に効率的に応用できるようになると考えられる. \section{先行研究} \subsection{言語学と日本語教育の分野における研究}南\citeyear{Minami1,Minami2}は日本語の文の階層構造を体系的に究明した.文において,接続形式と述部の要素,および接続形式と述部以外の要素の共起制約から,四階層の入れ子構造を確認している.以下の例(1)では,A層は述語「いる」1語,B層は「この町にも五人ぐらいはいる」という核の文があり,C層では副詞「どうやら」と文末モダリティ表現「〜らしい」が呼応している.\vspace{0.5\baselineskip}\begin{description}\item{(1)}$\{$どうやら$[$この町にも五人ぐらいは(い)$_A$$]_B$らしい$\}_C$\hspace{4zw}\cite{Bekes}\end{description}\vspace{0.5\baselineskip}南\citeyear{Minami1}は,内省ではなく,コーパスにおける共起の頻度を統計的に検証した結果に基づいて,副詞と特定のモダリティ形式の共起の可能性を明確に示している.工藤\citeyear{Kudou}も,南と同様にコーパスを利用している.副詞と文末モダリティの呼応の関係を検討しながら,それぞれの副詞と特定のモダリティ形式との共起の結びつきの強弱の程度を明らかにし,結びつきの強いものを呼応・共起関係とみなした.推量副詞は対象面から言えば事態実現の確実さ,作用面から言えば話し手の確信の度合いを表している\cite[p.~204,5]{Kudou}.この副詞群は「確信」「推測」「推定」「不確定」という四つに区分され,「確信,推測,推定,不確実」の順で,事態実現の確実さおよび話者の確信の度合いが低くなることを連続的な関係で示すものである.推量副詞と共起するモダリティ形式は四つのモダリティタイプ,即ち「に違いない」「はずだ」のような確信(NEC,necessity),「だろう」「と思う」のような推測(EXP,expectation),「らしい」「みたい」のような推定(CON,conjecture),「かもしれない」「かな」のような不確定(POSS,possibility)に分けられている\cite[p.~203]{Kudou}.例えば,「多分」は「だろう」「のだろうか」「と思う」「のではないか」などの推測(EXP)タイプに属するモダリティ形式と強く呼応する.推量副詞と文末モダリティの呼応の関係は,コーパスにおける共起の統計的な傾向として捉えることができる.工藤のデータについては,3.6で詳述する.Beke\v{s}\citeyear{Bekes}は,会話コーパスにおける推量副詞と文末モダリティの呼応を分析し,会話における副詞とモダリティの呼応関係の振る舞いを明らかにした.Srdanovi\'{c}etal.\citeyear{Srdanovic2008a}およびSrdanovi\'{c}etal.\citeyear{Srdanovic2008c}は,推量副詞とモダリティ形式の共起の傾向を複数のコーパスを対象に分析している.コーパスの種類によって推量副詞の分布は異なっており,この副詞と共起する文末モダリティ形式およびモダリティタイプの頻度の傾向にも違いが見られることを明らかにした.また,コロケーション・コリゲーションの研究において語句と語句との共起および語句と文型との共起関係はしばしば研究されるが,遠隔共起関係についての認識はあまりないことから,日本語における推量副詞と文末モダリティ形式の共起を一つの例として取り上げ,遠隔共起関係の重要性を指摘した.日本語教育の面から,個別の副詞に関して,研究や教育への示唆がいくつかあるが\cite{Sunakawa},コーパスに基づいた様々なモダリティ形式の整理及び複数のコーパスによる推量副詞とそのモダリティ形式との共起関係の振る舞いについての研究は見られない.また日本語教科書においての扱いも不十分であることから,本研究では,日本語学習辞典の編纂への提案も考慮に入れる.\subsection{自然言語処理における研究}自然言語処理においては,モダリティ形式が機能表現および長単位の研究において部分的に扱われているのが現状であり,日本語のモダリティ形式を中心に扱っている研究はほとんど見られない.先行研究を概観するに際して,推量副詞とモダリティ形式の呼応の研究とモダリティ形式を記載する電子化辞書などの自然言語処理のための言語資源に分け,その研究と自然言語処理の汎用ツールを使用する上での未解決の問題点を述べる.自然言語処理の汎用ツールを使用する際,意味的にはひとつのまとまりとなっている「かも知れない」「に違いない」などのモダリティ形式が複数の形態素または文節に分割されてしまう問題がある.また,「かもしれない」「かも知れません」「かも」のように,モダリティ形式の表記が文体,丁寧さ,形態素の数などの様々な要素によって異なってくることがある.この場合,モダリティ形式を記載している言語資源を使用すれば,モダリティ形式の自動抽出あるいは認識が可能になる.松吉他\citeyear{Matsuyoshi}によって編纂された階層構造を用いた機能表現辞書「つつじ」\footnote{http://kotoba.nuee.nagoya-u.ac.jp/tsutsuji/から配布されている.}はその言語資源の一つで,機能表現の一種とも考えられるモダリティ形式がその中にある程度収録されている.また,富士池他\citeyear{Fujiike}は文節を基にした複合辞と連語を含む「長単位」という言語単位を提唱し,「かもしれません」「わけではない」などを1長単位として規定している.しかし,前者は機能表現辞書の作成,後者は「長単位」という形態論の研究であり,いずれもモダリティ形式に特化したものではないため,本稿で扱っているモダリティ形式をすべて含んでいるわけではない.例えば,機能表現辞書「つつじ」には,「といえない」「といえる」「と思う」「と考える」「のか」「ように思う」「気がする」「気がしない」のモダリティ形式が含まれていない.また,「長単位」で認められるのは,助動詞相当として扱われている「かもしれない」「てはいけない」「てはならない」「なければならない」「のだ」「のではない」「わけだ」「わけではない」「わけにはいかない」のみである\footnote{本稿で扱っているモダリティ形式は3.3節を参照されたい.}.木田他\citeyear{Kida}は副詞とそれと共起する表現をまとめて呼応表現と呼び,文中に副詞が現れると,その後に呼応する表現が来ることが予測できることに焦点をあてた.そのため,人手作業による副詞とモダリティの呼応関係を含むタグ付きコーパスを作成し,モダリティ階層関係に基づく呼応関係辞書を編纂した.しかし,人手作業のため,モダリティ形式を自動認識できる言語資源およびシステムは提供していない.SkEで推量副詞とモダリティ形式の共起関係を抽出するためには,網羅的なモダリティ形式のリストおよび表記のゆれなどを認識できるような言語資源やツールが必要である.そこで,先行研究を参考にしつつ,3.3節に述べる方法でモダリティ形式およびそのバリエーションのリストを作成し,見出し語と品詞の認定およびその再付与を行うことで,多様なモダリティ形式と推量副詞の関係をSkE上で検索可能にすることを目指すことにする. \section{SkEでの推量副詞とモダリティ遠隔共起の抽出} \subsection{SkEとその主な機能}SkEはコーパス検索システムであり,コンコーダンス機能以外に,語に付随する文法とコロケーション情報を表示する機能WordSketchや,シソーラス情報や意味的に類似する語の共通点と差異を示す機能(ThesaurusとSketchDifference)も備えている.SkEは現在,複数の言語に対応しており\shortcite{Kilgarriff2},その一つに日本語版がある\cite{Srdanovic2008b}.日本語版は,JpWaCという4億語の大規模Webコーパスを形態素解析ツールChaSenで解析したデータと,日本語の「文法関係ファイル」から成る.このファイルは,様々な文法関係・共起関係を22項目にまとめ,ChaSenの品詞体系を用いた正規表現で定義している.SkEの検索の結果において,WordSketch機能は名詞,形容詞,形容動詞,動詞などと共起する要素を表示する.図1はその1例として,「単語」という語との共起の一部の結果を示している.ここに見られる共起関係は形容詞(modifier\underline{}Ai),形容動詞(modifier\underline{}Ana),動詞(をverb,がverb)などとの共起である.それぞれの欄に表示されている2列の数字は,1列目がコーパスの中の共起頻度を示し,2列目がその共起の統計的な顕著性(salience)\footnote{共起関係はダイス係数の統計値に基づいて抽出されている.}を示している.表中の1列目の数字をクリックすると,例文がコンコーダンスの中で表示される.\begin{figure}[t]\begin{center}\includegraphics{16-5ia2f1.eps}\end{center}\caption{WordSketchでの「単語」の検索例}\end{figure}SkEに搭載されている大規模ウェブコーパスJpWaCは4億語からなり,均衡コーパスを目指して慎重な抽出方法により構築されたものである\shortcite{Erjavec,Srdanovic2008b}.最近の研究によると,ウェブコーパスはバランスの取れたデータの傾向を有していることが明らかになっている\cite{Ueyama,Sharoff}.Srdanovi\'{c}etal.\citeyear{Srdanovic2008c}およびSrdanovi\'{c}etal.\citeyear{Srdanovic2009}では,13種の日本語のコーパスにおいても推量副詞を分析した結果,JpWaCは,均衡コーパスとして設計されたBCCWJ(BalancedCorpusofContemporaryWrittenJapanese)の中の書籍コーパス\cite{Yamazaki}ともっとも類似した結果を示している.石川\citeyear{Ishikawa}はBCCWJと各種のウェブコーパスにおける基本語頻度のデータを比較し,ウェブコーパスは信頼性と有用性を持つことを実証的に示した.SkEの応用の可能性は,日本語学習辞書,日本語学研究,日本語教育などにおいて考えられる\cite{Srdanovic2008d}.モダリティ形式の多くは形態素の単位が連なった形となっており,ChaSenにおいては直接認識されていない.そのため,本稿ではSkE日本語版において形態素が連なったモダリティ形式をひとつの単位として抽出可能にし,その結果から日本語教育への応用を検討する.\subsection{推量副詞との遠隔共起の抽出}SkEの日本語版においてWordSketch機能で副詞と他の語との隣接共起関係が見られる.しかしながら,副詞と離れた場所において共起する語をみるためには,遠隔共起検索機能を追加しなければならない.その方法として,ChaSenの品詞で識別できる要素ならば,SkEの「文法関係ファイル」に単純に追加するだけでWordSketchで表示できる.ここで副詞と遠隔共起するものとして,1)副詞と(遠隔)共起する動詞(modifies\underline{}V),2)副詞と(遠隔)共起する形容詞・形容動詞(modifies\underline{}Adj),3)副詞と終助詞(particle\underline{}fin)の三つの共起関係が挙げられる.図2は,一例として推量副詞の「たぶん」と共起する最も高頻度の動詞,形容詞,終助詞を示しており,この頻度は遠隔共起も含んでいる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia2f2.eps}\caption{WordSketchで「たぶん」との共起の抽出}(終助詞,形容詞・形容動詞,動詞の場合)\end{center}\end{figure}しかしながら,副詞と文末モダリティ形式との共起については,SkEの設計を変更するだけでは,抽出できない.その理由は,文末モダリティ形式は形態素解析ツールChaSenで認識されていないこと,および日本語のモダリティ形式とそのバリエーションのリストが存在しないためである.次節では,SkEに推量副詞と文末モダリティとの遠隔共起の表示を可能にする方法を検討する.\subsection{モダリティ形式の抽出方法}本論文では,\cite{Srdanovic2008a}の同様の調査に,さらにデータを追加したものを分析する.まずJpWaCコーパスから形態素数2千万のサンプルコーパスを作成し,そのコーパスから推量副詞を含む文を抽出し,モダリティ形式がどのように現れているかを調査した.さらにこの調査を基に,モダリティ形式のリストの作成,複数の形態素に分割されたモダリティ形式および推量副詞のタグの再付与,SkEへの適用をする.SkE用のコーパスのフォーマットとして,各単語に対し,出現形,見出し語,品詞の三つのタグを用い,ChaSenの出力結果からそれらのみを使用する.また,2.2節で述べたようにモダリティ形式の多くが複数の形態素から構成されるが,SkEでは1語がChaSenの1形態素に相当するので,モダリティ形式を一つの語にまとめ,コーパスにそれを再付与する必要がある.サンプルコーパスの調査結果から,モダリティ形式の出現には活用・スタイル・表記などの多数のバリエーションがあることが明らかになった.このため,「だろう」「でしょう」「であろう」「だろ」などの同意のモダリティ形式は一つの代表的なモダリティ形式にまとめ,見出し語を31語に統一した.その31項目のモダリティ形式を表1に示す.さらに,モダリティ形式をより網羅的に認識するために,モダリティ形式が他のモダリティ形式やモダリティ形式以外の語と連なって現れる場合も検討した.下記の文例は,実際にコーパス中に見られたものである.\begin{description}\item[]目の前の仕事が新鮮にうつることに\textgt{きっと}驚く\textgt{でしょう.}(例3.3.1)\item[]\textgt{きっと}素晴らしいセミナーをなさる\textgt{ことでしょう!}(例3.3.2)\item[]\textgt{きっと}皆さんもそう\textgt{であろうと思います.}(例3.3.3)\end{description}\begin{table}[b]\caption{JpWaCサンプルコーパスに出現するモダリティ形式の見出し語}\input{02table01.txt}\end{table}モダリティ形式ではない一定の語および形態素がモダリティ形式に接続する傾向が見られた.例えば,例3.3.1のモダリティ形式の「でしょう」に形式名詞「こと」が前接する例として3.3.2の「ことでしょう」がある.このように,あるモダリティ形式が,単独で現れる場合と,他の語・形態素と結合して,定型的な組み合わせの語句として現れる場合とで,意味が異なることがある.このことから,モダリティ形式と語・形態素による組み合わせからなる定型的な表現を新しいモダリティ形式として扱うことにした.表1に示したモダリティ形式に接続できる12個の語群を表2に示す.\begin{table}[b]\caption{モダリティ形式と接続可能な語・形態素の見出し}\begin{center}\input{02table02.txt}\end{table}また,例3.3.3のように,モダリティ形式が連続して現れる傾向が明らかになった.あるモダリティ形式が,単独で現れる場合と,他のモダリティ形式と接続して現れる場合があり,その語句の出現の様相で意味が異なることがある.本稿では,例3.3.3の「であろうと思います」のようなモダリティ形式を複合的なモダリティ形式,「であろう」のようなモダリティ形式を単独モダリティ形式と呼ぶことにする.SkEでは,複合的なモダリティ形式を別々に扱うのではなく,一つの新しいモダリティ形式としてまとめて扱うことにした.例3.3.3のモダリティ形式は「だろうと思う」になり,連続している形態素をまとめてSkEの1単語とする.表3と表4からわかるように,同じ意味・機能の表現であるにもかかわらず,ChaSenによる見出し語が漢字とひらがなで区別されてしまう場合や,品詞タグが異なっている場合がある.これはモダリティ形式に限らない.「必ずしも」や「ひょっとしたら」などの複数の形態素から構成される副詞も同じ問題を含んでいる.そこで,すべてのモダリティ形式と推量副詞が見出し語と品詞のレベルで統一されるようにコーパス中のモダリティ形式および推量副詞の見出し語と品詞を再付与した\footnote{そのために,SkEで検索する際に,統一した表現で検索する必要がある.例えば,すべての副詞は漢字ではなく,ひらがなで記入して検索することである(多分→たぶん).}.ここで,モダリティ形式の品詞タグはすべて「Mod」という新しいカテゴリに書き換えた.これにより,モダリティ形式と推量副詞の表記が文章のスタイルおよびChaSenの誤解析によって異なる場合でも,網羅的にそれらをSkEで検索したり,違いを見たりすることが可能になる.\begin{table}[t]\caption{JpWaCコーパスにおいてChaSenによる見出し語が異なる場合の処理}\input{02table03.txt}\end{table}\begin{table}[t]\caption{JpWaCコーパスにおいてChaSenによる品詞タグが異なる場合の処理}\input{02table04.txt}\end{table}以上の方法によって得られたモダリティ形式の数は,代表的なモダリティ形式は31個,組み合わせで現れるモダリティ形式は596個,その出現形のバリエーションは2,641個である.以上の点を考慮し,抽出する様々な共起関係を定めるSkEの「文法関係ファイル」に表5の副詞とモダリティ形式の関係を定める規則を追加する.\begin{table}[t]\caption{副詞とモダリティ形式の関係を定める規則}\input{02table05.txt}\end{table}この規則は,SkEにおいて実装されている正規表現と品詞及び単語に基づいた,「corpusquerysyntax(コーパス検索シンタクス)」を適用している.「DUAL」は副詞とモダリティ形式の関係を両方向から検索できる規則である.「Adv」と「modality」はそれぞれ「副詞」と「モダリティ形式」を意味する.この規則では,副詞に続いて最初に現れるモダリティ形式のみとの関係を抽出することではなく,文末まで現れる他のモダリティ形式との共起が多くあることから,すべてのモダリティ形式との可能性をみることとした.また,この規則で得られる推量副詞とモダリティ形式の共起は構文を考慮していない.そこで係り受け解析器CaboChaを使用した共起の抽出方法も考えられるが,本手法と比べていくつかの利用上の欠点がある.一つは,モダリティ形式が係り受けの単位となる文節の境界を越えることがある.他の一つは,CaboChaが学習したドメインとは異なるJpWaCのようなウェブ文章における遠隔共起の正確な係り受け解析が難しいと考えられることである.\subsection{抽出結果}JpWaCの2千万語サンプルコーパス中に見られる複数のモダリティ形式とそのバリエーションにモダリティタグを付け,新しい共起関係をSkEの「文法関係ファイル」に組み込んだことで,推量副詞と文末モダリティの共起がSkEのWordSketchの機能の中で表示できるようになった\footnote{現時点で通常の使用では出来ないが,ユーザからの要請により,SkEのウェブページでJpWaCのサンプルコーパスにおいて副詞とモダリティの共起を検索することができる.}.\begin{figure}[b]\begin{center}\includegraphics{16-5ia2f3.eps}\caption{WordSketchにおける推量副詞とモダリティ形式の共起表現検索結果}(「たぶん」,「どうやら」,「もしかしたら」,「かならずしも」とモダリティ形式との例)\end{center}\end{figure}例として,「たぶん」「どうやら」「もしかしたら」「かならずしも」とそのモダリティ形式との共起の表示結果を図3に示す.それぞれの推量副詞が多様なモダリティ形式と共起していること,結びつくモダリティ形式のうち代表的なものがそれぞれの副詞で異なっていることが分かる.「たぶん」は「のだろう」「だろう」「と思う」「のだと思う」などの推測(EXP)のモダリティタイプとよく共起する傾向がある.「どうやら」は推定(CON)の「らしい」「ようだ」「のようだ」「みたいだ」など,「もしかしたら」は不確定(POSS)の「かもしれない」「のかもしれない」「のかな」など,「必ずしも」は確信(NEC)の「とはかぎらない」「わけではない」「ものではない」などとよく共起する傾向がある.表6では,コーパスにおける推量副詞の分布とそれぞれの副詞と顕著性計指数が高い項目の順に5つのモダリティ形式が並んでいる.まず,推量副詞の分布から見ると,高頻度の副詞は「たぶん」「かならず」「おそらく」「きっと」「ぜったい」などである.推量副詞とモダリティ形式の共起関係を見ると,「のだろう」「だろう」「と思う」などの「推測」を表すモダリティ形式および「はず」「のだ」「に違いない」などの「確信」を表すモダリティ形式がもっとも高頻度の共起関係として出現することがわかる.ある副詞が「推測」のモダリティ形式と共起する傾向があれば,その副詞の共起の中では,「確信」のモダリティ形式もよく見られる.たとえば,「きっと」と「おそらく」と共起する「に違いない」などである.逆に,副詞が「確信」のモダリティ形式と共起する場合,その副詞は「推測」のモダリティ形式とも共起する.たとえば,「かならず」「ぜったい」と,「だろう」「と思う」という「推測」の文末形式が共起する場合である.\begin{table}[t]\caption{JpWaCのサンプルにおける高頻度の推量副詞と文末モダリティ形式の共起関係}\input{02table06.txt}\end{table}JpWaCのサンプルデータと均衡コーパスであるBCCWJの中の書籍のコーパスにおける推量副詞の分布と推量副詞と文末モダリティの共起を比較した結果,類似した分布及び共起関係の傾向を示していることが明らかになった\cite{Srdanovic2009}.SkEの中にあるWordSketch機能だけでなく,コンコーダンス,SketchDifference,シソーラスなどの機能においても推量副詞とモダリティ形式について検索できる.たとえば,類似している二つの語の間の共起の傾向における共通点と差異が閲覧できるSketchDifferenceという機能では,「たぶん」と「きっと」を比較する際,「きっと」は「のだろう」「に違いない」「ことだろう」「はず」との共起が多く,確信のモダリティタイプに近い性質が見られる.一方,「たぶん」のほうは推測を表す「と思う」「のだと思う」「のではないかと」「と思うのだ」とよく共起することから,「きっと」より推量の度合いが低いと考えられる.\subsection{SkEで抽出された推量副詞と文末モダリティ形式の共起の評価}本節では,WordSketchによる推量副詞と文末モダリティ形式との共起の判定の精度を評価する.推量副詞と共起する代表的なモダリティタイプが四つあり\cite{Kudou,Srdanovic2008a},それぞれのタイプから一つの高頻度の副詞を評価のために選択する.また,それぞれの副詞と共起するモダリティの検索結果から,四つのモダリティ形式を選び(WordSketchに表示するモダリティ形式のリストの最初から四番目までの四項目),コンコーダンス機能から選んだこの副詞と共起するモダリティ形式の10例文をランダムに取り出す.従って,合計160の例文を評価することとする.選択した例文について日本語教育専門家二名(A,B),自然言語処理専門家一名(C)から評価を受ける.選択肢は「(正)副詞とモダリティ形式の共起は正しい」,「(?)副詞とモダリティ形式の共起は部分的に正しい」,「(誤)副詞とモダリティ形式の共起は正しくない」であり,コメントを記入できる欄もある.\begin{table}[t]\caption{評価の結果}\input{02table07.txt}\end{table}表7に見られるように「(正)副詞とモダリティ形式の共起は正しい」の回答から,精度は高く評価されていることがわかる.正しく評価されていない例文と評価者のコメントを見ると以下のようなことがわかる.\begin{itemize}\item[1)]モダリティ部分とみなす部分に誤解析となる例文がある.\item[2)]日本語として正しくない例文がある.\item[3)]コーパスには重複する例文がある.\item[4)]副詞とモダリティ形式が共起していない例文がある.\item[5)]表示されているものとは異なる他のモダリティ形式と共起している例文がある.\end{itemize}1),2),3)は比較的修正が容易である.1)については,部分的に抽出したモダリティ形式をバリエーションリストに追加すること,タグの付け方の改善で解決できる.また,2),3)については,正しくない文および重複している文の排除を行うことで処理できる.4)と5)の原因は,形態素解析の誤りに起因する複数の文がコーパスに入っている場合と,構文が複雑なため副詞が自動的に指定されたモダリティ形式と共起しない場合が考えられる.今後の課題として,構文中の呼応関係を示すための構文解析プログラムを改善する必要がある.\subsection{工藤データとの比較}前節では共起項目検索結果の精度が高いと評価されたことを述べたが,さらにこの結果を日本語研究における推量副詞と文末モダリティ形式の呼応関係についてよく精査された研究\cite{Kudou}と比較する.工藤によると副詞とモダリティ形式との呼応は程度の問題だと考えられ,それぞれの副詞は特定のモダリティタイプに属するモダリティ形式とよく共起する傾向があるとしている(図4).たとえば,「きっと」は確信のモダリティタイプに属する「する・のだ」「に違いない」などの形式と最も共起する.「おそらく」は推測の「だろう・まい」「と思われる」「のではないだろうか」と多く共起する.「どうやら」は確定の「らしい」など,「もしかしたら」は不確定の「かもしれない」などと多く共起する傾向が見られる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia2f4.eps}\end{center}\caption{工藤による推量副詞と文末モダリティのコーパス分析結果}\end{figure}本研究で抽出されたデータにも,工藤のデータと同様に推量副詞と共起する四つのモダリティタイプが見られる.このデータにも,推測と確信のモダリティタイプとの共起は最も多く見られる.工藤のデータに見られる様々なモダリティ形式はJpWaCにも表れる.しかし副詞の頻度の順序,およびそれぞれの副詞の共起傾向には差異も見られる.「きっと」との共起は確信のモダリティタイプより,推測のモダリティタイプの方が多く現れる.工藤のデータにはやや古い用語も現れ,例えば,「さぞ」の頻度は,JpWaCより頻度がかなり高い.この差異の理由は,Srdanovi\'{c}etal.\citeyear{Srdanovic2008c}に複数のコーパスの分類結果で指摘されているように,コーパスの種類が異なるためである. \section{日本語教育への応用} SkEは既に多数の言語において語学教育,辞書作成などに利用されており\shortcite{Smrz,Smith,Kilgarriff1},日本語版も日本語教育などのために役立つシステムになると考えられる\cite{Srdanovic2008d}.本研究で抽出できるようになった推量副詞とモダリティ形式の共起に関する結果は,日本語学習のシラバス,教科書,学習辞典などの学習資源を作成するために利用できる.また,抽出された共起関係は学習者や教師が授業中に参照したり,授業の準備をしたりするためにも利用できる.さらに,整理したモダリティ形式とモダリティ形式のバリエーションのリストが日本語教育のための言語処理の資源など様々の目的のために利用できる.検索方法の面からみるとSkEで推量副詞とモダリティ形式の共起に関して,いくつかのメリットが見られる.(1)ウェブ上で推量副詞と文末モダリティの共起が瞬時に効率的に抽出できる.(2)共起に関しての高頻度の情報と統計的に重要な共起情報が得られ,学習項目に優先順位を付けることができる.(3)SketchDifferenceの機能において,類似している副詞の共起関係の傾向における差異を簡単に把握できる.(4)コンコーダンス機能で,例文を細かく考察でき,複雑な遠隔共起も検索でき,様々なコンコーダンスオプションも利用できる.一つの応用の例として,日本語の学習辞典の編集・改善案を具体的に検討する.抽出できるようになった推量副詞と文末モダリティ形式の共起関係の結果を3種の日本語学習辞典と比較する.学習者によく利用されている和英辞典2種(『ジーニアス和英辞典』,『ニューセンチュリー和英辞典』)と,中級レベル以上の日本語学習者にとって問題となる文型を網羅的に集めた辞典(『日本語文型辞典』)を対象とする.表8は,これらの辞典においてどの推量副詞の項目がカバーされているか,また記載されている各副詞の項目の中で,その例文中にどのモダリティ形式が現れているかを示している.\begin{table}[t]\caption{日本語辞書における推量副詞と文末モダリティ形式との共起}\input{02table08.txt}\par\vspace{4pt}\small△副詞は辞書にあるが,共起するモダリティ形式は記載されていない\\▲モダリティ形式が例文にある\\●モダリティ形式が他の表現として言及されている\end{table}推量副詞の分布から見ると,和英辞典2種には対象となるすべての推量副詞が現われている.「文型辞典」には,現われない副詞もある.「あんがい」「おおかた」「ことによる」のような最も低頻度の副詞以外に,コーパス中にかなり出現している「ぜったい」「ぜったいに」が現われていない.本研究で抽出した結果によると,この二つの副詞はかなり出現することから,中級以上の日本語学習辞典にも含めることを考慮する必要がある\footnote{\shortciteA{Srdanovic2009}の研究によると,この副詞はインフォーマルの会話コーパスでは非常に高頻度で,均衡コーパスの書籍とJpWaC,新聞コーパス,知恵袋のウェブコーパス,フォーマルな会話コーパスでもかなり頻度が高い.}.反対に,「さぞ」「たいがい」はJpWaCのコーパスにはあまり現れない.特に「さぞ」はやや古い表現だと考えられる\footnote{この副詞は教科書系のコーパスでは頻度が非常に高いが,均衡コーパスの書籍では,頻度が非常に低い.}.推量副詞と共起するモダリティ形式については,和英辞典2種の例文中にモダリティ形式が多く現れている.しかし,それぞれの辞典で例文に現れるモダリティ形式は異なっており,特定の副詞と共起する代表的なモダリティ形式が足りない場合もかなりある.たとえば,「たぶん」には,「かもしれない」「ものだ」の代わりに,「のだろう」「と思う」を入れた方がよい.また,「おそらく」には,「と思う」「に違いない」も追加したほうが良いと考えられる.「文型辞典」では,推量副詞のすべての項目に網羅的にモダリティ形式が現れていることが評価できる.しかし,この辞典においても,コーパス中に高い頻度および高い顕著性で現れるモダリティ形式のデータを導入することについて検討の余地がある.たとえば,「おそらく」という副詞に関し,「ものと思われる」のかわりに,「のだろう」「ことだろう」「と思う」のモダリティ形式を載せたほうがよい.「かならず」の項目では推量のモダリティ形式が現われていないので,「はずだ」「のだ」「だろう」「に違いない」を追加した方がよい\footnote{JpWaCにおける最も高頻度の副詞とモダリティ形式の共起関係は均衡コーパスの書籍と類似した結果が見られる.}.以上の指摘は,均衡コーパスに基づく調査結果によるものであり,一般的な日本語習得を目的とした辞典の作成のためのものである.しかし,コーパスの種類によって代表的なモダリティ形式が異なるので\cite{Srdanovic2008a,Srdanovic2008c},学習辞典にもこの調査結果を学習目的に合わせて反映させることが望ましい.一つの例として,理系教科書,自然言語処理の論文集のような理系の特定コーパスの調査において,均衡コーパスとは異なり,「必ずしも」が他の推量副詞より頻度が非常に高いことがわかった.このような結果を反映させることで,辞典に特定目的の学習をカバーすることが可能となる. \section{まとめと今後の課題} 本稿では,推量副詞と文末モダリティに関連する先行研究を調査した結果から,代表的なモダリティ形式に関する実証的な情報と網羅的に作成されたモダリティ形式のリストが欠如していることを明らかにした.次に,コーパス検索システムSkEの主な機能を紹介し,SkEに推量副詞と文末モダリティ形式などの遠隔共起関係の機能の追加を,次の1)〜4)までの手順で行った.\begin{itemize}\item[1)]モダリティ形式とそのバリエーションのリストの作成,\item[2)]ChaSenによるモダリティ形式の形態素解析の検定とモダリティ形式のタグの作成,\item[3)]ChaSenで形態素解析されたコーパスへのタグの再付与(モダリティ形式のタグの追加),\item[4)]「文法関係ファイル」に副詞とモダリティ形式の共起関係を定める規則の追加.\end{itemize}次に,SkE中のWordSketchで抽出が可能になった推量副詞と文末モダリティ形式の共起の評価を行い,抽出された共起項目が高く評価されたことを示した.さらに,得られた結果を推量副詞についての工藤の日本語研究と比較し,共通点と差異を明らかにした.最後に,SkEのWordSketch機能で推量副詞とモダリティ形式の遠隔共起をどのように日本語教育に応用できるかを検討した.具体的な例として,日本語学習辞典における推量副詞と文末モダリティ形式の共起の扱いを検討した.今後の課題として,モダリティ形式とそのバリエーションのリストをxml形式で作成,ウェブコーパス以外のデータに基づいてさらに改善することを目指す.また,様々なコーパスを利用することで,推量副詞と文末モダリティ形式の共起のデータをジャンル別に比較することで,日本語教育における目的別の学習への活用を考える.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Beke\v{s}}{Beke\v{s}}{2008}]{Bekes}Beke\v{s},A.\BBOP2008\BBCP.\newblock\BBOQJapanesesuppositionaladverbs:probabilityandstructureinspeaker-hearerinteraction.\BBCQ\\newblock{\BemLinguistica},{\Bbf48},\mbox{\BPGS\277--292}.\bibitem[\protect\BCAY{Erjavec,Srdanovi\'{c},\BBA\Kilgarriff}{Erjavecet~al.}{2007}]{Erjavec}Erjavec,T.,Srdanovi\'{c},I.,\BBA\Kilgarriff,A.\BBOP2007\BBCP.\newblock\BBOQAlargepublic-accessJapanesecorpusanditsquerytool.\BBCQ\\newblockIn{\BemCoJaS2007}.\bibitem[\protect\BCAY{富士池\Jetal}{富士池\Jetal}{2008}]{Fujiike}富士池優美\Jetal\BBOP2008\BBCP.\newblock『現代日本語書き言葉均衡コーパス』における長単位の概要.\\newblock\Jem{科学研究費補助金特定領域研究「日本語コーパス」平成19年度公開ワークショップ(研究成果報告会)予稿集},\mbox{\BPGS\51--58}.\bibitem[\protect\BCAY{石川}{石川}{2008}]{IshikawaBook}石川慎一郎\BBOP2008\BBCP.\newblock\Jem{英語コーパスと言語教育}.\newblock大修館書店.\bibitem[\protect\BCAY{石川}{石川}{2009}]{Ishikawa}石川慎一郎\BBOP2009\BBCP.\newblock日本語基礎研究における非統制型・統制型・媒介型WebasCorpusの可能性—言語コーパスにおける基本語頻度の安定性について.\\newblock\Jem{特定領域研究「日本語コーパス」平成20年度公開ワークショップサテライトセッション予稿集},\mbox{\BPGS\29--38}.\bibitem[\protect\BCAY{木田\JBA高梨\JBA乾\JBA井佐原}{木田\Jetal}{2002}]{Kida}木田敦子\JBA高梨克也\JBA乾裕子\JBA井佐原均\BBOP2002\BBCP.\newblock文構造の漸進的予測を可能にする日本語の諸特徴の分析.\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{Kilgarriff\BBA\Rundell}{Kilgarriff\BBA\Rundell}{2002}]{Kilgarriff1}Kilgarriff,A.\BBACOMMA\\BBA\Rundell,M.\BBOP2002\BBCP.\newblock\BBOQLexicalProfilingSoftwareanditsLexicographicApplications---aCaseStudy.\BBCQ\\newblockIn{\BemEURALEX2002Proceedings},\mbox{\BPGS\807--818}.\bibitem[\protect\BCAY{Kilgarriff,Rychly,Smr\v{z},\BBA\Tugwell}{Kilgarriffet~al.}{2004}]{Kilgarriff2}Kilgarriff,A.,Rychly,P.,Smr\v{z},P.,\BBA\Tugwell,D.\BBOP2004\BBCP.\newblock\BBOQTheSketchEngine.\BBCQ\\newblockIn{\BemProc.Euralex},\mbox{\BPGS\105--116}.\bibitem[\protect\BCAY{工藤}{工藤}{2000}]{Kudou}工藤浩\BBOP2000\BBCP.\newblock副詞と文の陳述のタイプ.\\newblock森山卓郎\JBA仁田義雄\JBA工藤浩\JEDS,\Jem{日本語の文法3モダリティ},\mbox{\BPGS\161--234}.岩波書店.\bibitem[\protect\BCAY{松吉\JBA佐藤}{松吉\JBA佐藤}{2007}]{Matsuyoshi}松吉俊\JBA佐藤理史\BBOP2007\BBCP.\newblock体系的機能表現辞書に基づく日本語機能表現の言い換え.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\899--902}.\bibitem[\protect\BCAY{南}{南}{1974}]{Minami2}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{南}{南}{1993}]{Minami1}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\bibitem[\protect\BCAY{Sharoff}{Sharoff}{2006}]{Sharoff}Sharoff,S.\BBOP2006\BBCP.\newblock\BBOQOpen-sourcecorpora:usingthenettofishforlinguisticdata.\BBCQ\\newblock{\BemInternationalJournalofCorpusLinguistics},{\Bbf11}(4),\mbox{\BPGS\435--462}.\bibitem[\protect\BCAY{Smith,Chen,\BBA\Kilgarriff}{Smithet~al.}{2007}]{Smith}Smith,S.,Chen,A.,\BBA\Kilgarriff,A.\BBOP2007\BBCP.\newblock\BBOQAcorpusquerytoolforSLA:learningMandarinwiththehelpofSketchEngine.\BBCQ\\newblockIn{\BemPracticalApplicationsinLanguageandComputers---PALC2007}.\bibitem[\protect\BCAY{Smr\v{z}}{Smr\v{z}}{2004}]{Smrz}Smr\v{z},P.\BBOP2004\BBCP.\newblock\BBOQIntegratingNaturalLanguageProcessingintoE-learning---ACaseofCzech.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponeLearningforComputationalLinguisticsandComputationalLinguisticsforeLearning,COLING2004},\mbox{\BPGS\106--111}.\bibitem[\protect\BCAY{Srdanovi\'{c},Beke\v{s},\BBA\Nishina}{Srdanovi\'{c}et~al.}{2008a}]{Srdanovic2008a}Srdanovi\'{c},I.,Beke\v{s},A.,\BBA\Nishina,K.\BBOP2008a\BBCP.\newblock\BBOQDistantCollocationsbetweenSuppositionalAdverbsandClause-FinalModalityFormsinJapaneseLanguageCorpora.\BBCQ\\newblockInTokunaga,T.\BBACOMMA\\BBA\Ortega,A.\BEDS,{\BemLKR2008,LNAI4938},\mbox{\BPGS\252--266}.Springer-VerlagBerlinHeidelberg.\bibitem[\protect\BCAY{Srdanovi\'{c},Erjavec,\BBA\Kilgarriff}{Srdanovi\'{c}et~al.}{2008b}]{Srdanovic2008b}Srdanovi\'{c},I.,Erjavec,T.,\BBA\Kilgarriff,A.\BBOP2008b\BBCP.\newblock\BBOQAwebcorpusandword-sketchesforJapanese.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf15}(2),\mbox{\BPGS\137--159}.\bibitem[\protect\BCAY{Srdanovi\'{c}\BBA\Nishina}{Srdanovi\'{c}\BBA\Nishina}{2008}]{Srdanovic2008d}Srdanovi\'{c},I.\BBACOMMA\\BBA\Nishina,K.\BBOP2008\BBCP.\newblockコーパス検索システムSketchEngineの日本語版とその利用方法.\\newblock\Jem{日本語科学},{\Bbf23},\mbox{\BPGS\59--80}.\bibitem[\protect\BCAY{Srdanovi\'{c},Beke\v{s},\BBA\Nishina}{Srdanovi\'{c}et~al.}{2008}]{Srdanovic2008c}Srdanovi\'{c},I.,Beke\v{s},A.,\BBA\Nishina,K.\BBOP2008\BBCP.\newblock複数のコーパスに見られる副詞と文末モダリティの遠隔共起関係.\\newblock\Jem{科学研究費補助金特定領域研究,「日本語コーパス」平成19年度公開ワークショップ(研究成果発表会)予稿集},\mbox{\BPGS\223--230}.\bibitem[\protect\BCAY{Srdanovi\'{c},Beke\v{s},\BBA\Nishina}{Srdanovi\'{c}et~al.}{2009}]{Srdanovic2009}Srdanovi\'{c},I.,Beke\v{s},A.,\BBA\Nishina,K.\BBOP2009\BBCP.\newblockBCCWJにおける推量副詞とモダリティ形式の共起.\\newblock\Jem{科学研究費補助金特定領域研究「日本語コーパス」平成20年度公開ワークショップ(研究成果報告会)予稿集},\mbox{\BPGS\237--244}.\bibitem[\protect\BCAY{砂川}{砂川}{2007}]{Sunakawa}砂川有里子\BBOP2007\BBCP.\newblock機能語のコロケーション(1)副詞との共起について.\\newblock\JTR,科学研究費補助金特定領域研究日本語教育班第2回公開会議.\bibitem[\protect\BCAY{Ueyama\BBA\Baroni}{Ueyama\BBA\Baroni}{2005}]{Ueyama}Ueyama,M.\BBACOMMA\\BBA\Baroni,M.\BBOP2005\BBCP.\newblock\BBOQAutomatedconstructionandevaluationofaJapaneseweb-basedreferencecorpus.\BBCQ\\newblockIn{\BemProceedingsofCorpusLinguistics}.\bibitem[\protect\BCAY{山崎}{山崎}{2006}]{Yamazaki}山崎誠\BBOP2006\BBCP.\newblock代表性を有する現代日本語書き言葉コーパスの設計.\\newblock\Jem{国立国語研究所(2006)所載},\mbox{\BPGS\63--70}.\end{thebibliography}\begin{biography}\bioauthor[:]{Srdanovi\'{c}Irena}{1997年ベオグラード大学文学部日本語学科卒業.2006年リュブリャーナ大学文学部一般言語学・比較言語学研究科修士課程修了.2009年9月東京工業大学大学院社会理工学研究科人間行動システム専攻博士課程終了.博士(学術).言語処理学会,日本語教育学会会員.}\bioauthor[:]{Hodo\v{s}\v{c}ekBor}{2007年米国メリーランド大学カレッジパーク校人文学部日本語学学科卒業.同年リュブリャーナ大学文学部一般言語学・比較言語学研究科修士課程入学.2008年東京工業大学大学院社会理工学研究科人間行動システム専攻修士課程入学,現在に至る.言語処理学会会員}\bioauthor[:]{Beke\v{s}Andrej}{1971年リュブリャーナ大学理学部数学学科卒業.1975年大阪大学大学院理学研究科数学専攻修士課程修了.1981年筑波大学大学院人文社会科学研究科文芸・言語専攻入学.1986年同課程修了.1988年リュブリャーナ大学社会学部専任講師.2002年同大学文学部正教授(日本学),現在に至る.文学博士.日本語教育学会会員.}\bioauthor{仁科喜久子}{1969年東京女子大学・文理学部卒業.1977年同大学大学院文学研究科修士課程修了.1986年埼玉大学専任講師,1988年東京工業大学助教授を経て,1996年同大学留学生センター教授(社会理工学研究科兼任),現在に至る.博士(学術).言語処理学会,日本語教育学会,教育工学会会員.}\end{biography}\biodate\end{document}\jauthor{\affiref{tit}\affiref{lju}\and\affiref{tit}\affiref{lju}\and\\\affiref{lju}\and仁科喜久子\affiref{tit}}
V31N02-16
\section{はじめに} label{sec:introduction}近年,BERT\cite{devlin-2019-bert}をはじめとする,Transformer\cite{vaswani-2017-transformer}に基づく事前学習済み言語モデルが,様々なダウンストリームタスクにおいて優れた性能を発揮している.これらのモデルのタスクにおける性能をより高める主な手法として,事前学習における大規模なコーパスの使用や学習ステップ数の増加,およびドメイン適応の研究が行われている.一般的に,事前学習における大規模なコーパスの使用や学習ステップ数の増加によって,モデルの性能は向上する.Liuら\cite{liu-2019-roberta}は,RoBERTaを提案する際,事前学習に用いるコーパスのサイズを,16GBから160GBへと大きくすることによって,モデルの性能が向上することを示した.また,学習ステップ数を,100Kステップから500Kステップへと増やすことによっても,モデルの性能が向上することを示した.この研究は,以降に提案されるモデルに大きな影響を与えた.特に,大規模なコーパスの使用に関しては,Kaplanら\cite{kaplan-2020-scaling}により観測されたスケーリング則やGPT-3\cite{brown-2020-gpt3}の登場により,さらに裏付けられた.その結果として,昨今のモデルは,Wikipediaのような小規模なテキストデータのみをコーパスとして用いるものから,CC-100\cite{wenzek-2020-ccnet,conneau-2020-unsupervised},mC4\cite{raffel-2020-t5},OSCAR\cite{ortiz-2019-asynchronous,ortiz-2020-monolingual}など,Webに基づく大規模なテキストデータもコーパスとして用いるものへと移り変わりつつある.なお,本稿では,BERT\cite{devlin-2019-bert}の構築に用いられたWikipediaやBooksCorpusと同程度のデータサイズ(十数GB)のコーパスを小規模,Baevskiらのモデル\cite{baevski2019-cloze}やRoBERTa\cite{liu-2019-roberta}の構築に用いられたような,BERTのコーパスよりも大きなデータサイズ(数十GB以上)のコーパスを大規模と呼称する.また,タスクのドメインが専門的なものである場合,モデルのドメイン適応が有効である.代表的な研究として,生物医学ドメインの論文から構築したコーパスを用いて,汎用的なモデルのさらなる事前学習を行うことにより構築したBioBERT\cite{lee-2019-biobert}や,科学ドメインの論文から構築したコーパスを用いて,一からモデルの事前学習を行うことにより構築したSciBERT\cite{beltagy-2019-scibert}が知られており,どちらのモデルも適応ドメインのタスクにおいて,汎用的なモデルを上回る性能を示した.日本語を対象とした研究においても,医療・科学・金融・法律などのドメインに適応したモデルが提案されており,それぞれのドメインのタスクにおいて優れた性能を示している\cite{kawazoe-2021-uthbert,yamauchi-2022-academicroberta,suzuki-2023-finbert,miyazaki-2022-jlbert}.また,BioBERTのように,汎用的なモデルのさらなる事前学習を行う手法と,SciBERTのように,一からモデルの事前学習を行う手法のどちらが適しているかについても,議論がなされている.日本語を対象とした研究において,金融ドメインに焦点を当てたSuzukiら\cite{suzuki-2023-finbert}や法律ドメインに焦点を当てたMiyazakiら\cite{miyazaki-2022-jlbert}は,汎用的なモデルのさらなる事前学習を行う手法の方が優れた性能を発揮することを示した.しかし,従来の日本語を対象としたモデルのドメイン適応に関する研究には,下記の4つの課題があった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item一般的なドメインにおける大規模なコーパスの重要性と,ドメイン適応の重要性はそれぞれ独立には示されているものの,それらを組み合わせることによる有効性を評価する研究は行われておらず,大規模な適応ドメインのコーパスの構築も行われていない.既存のドメイン適応の研究では,ドメインの制限により,データの収集が困難であることから,いずれの研究も適応ドメインのコーパスが10GBを下回る小規模なものである.50GBを超えるような大規模な適応ドメインのコーパスの構築や,それを用いたモデルの構築は提案されていない.\item日本語のドメイン適応に関する研究は,医療,科学,金融,法律などの分野では行われているものの,政治ドメインを対象とした研究が行われていない.英語を対象とした研究では,政治に関するテキストを処理することを目的に提案されたPoliBERTweet\cite{kawintiranon-2022-polibertweet}や,ConfliBERT\cite{hu-2022-conflibert}がある.一方,日本語を対象とした研究は,筆者らの先行研究\cite{nagafuchi-2023-nlc}で構築したものを除いて,公開されているモデルは存在しない.日本語の政治ドメインのテキストを対象とした研究\cite{poliinfo-2019-overview,poliinfo-2020-overview,poliinfo-2022-overview}が進められていることから,政治ドメインに特化したモデルの提案が望まれる.\item一からモデルの事前学習を行う手法よりも,汎用的なモデルのさらなる事前学習を行う手法の方が優れていることは示されているが\cite{suzuki-2023-finbert,miyazaki-2022-jlbert},大規模なコーパスを用いた事前学習を行った場合に,どちらの手法が優れた結果を示すかは明らかにされていない.また,2つの手法の間に学習ステップ数の差が生じているため,コーパスによる影響なのか,学習ステップ数の増加による影響なのか,明確ではない.したがって,学習ステップの差を公平にしたモデルも構築し,比較検証する必要がある.\item非適応ドメインのタスクによる検証が不十分である.ドメインの定義は明確にできるものではない.例えば,議会だよりのような一般に向けた文書を正しく処理したい場合に,政治ドメインについて会議録などで事前学習したモデルを用いるべきか,一般的なWikipediaなどで事前学習したモデルを用いるべきか,明確ではない.したがって,ドメイン適応による非適応ドメインへの悪影響がないことの保証や,悪影響を軽減する手法の提案が必要である.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで,本研究では,上記の4つの課題それぞれの解決のため,日本語の政治ドメインに着目し,国会および地方議会の会議録に基づく大規模なコーパスの構築と,それを用いた事前学習済み言語モデルの構築を行い,政治ドメインと汎用ドメイン\footnote{本稿では,WebやWikipedia等に存在するテキストを広く収集したコーパスを,特に政治・医療・法律・金融等のドメインでフィルタリングすることなく用いるものを汎用ドメインと呼称する.}のタスクにおける実験を行った.本研究の貢献は,以下のとおりである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item日本の国会および地方議会の会議録を収集し,データサイズが約70GBに及ぶ大規模なドメインコーパスを構築した.\item日本語の政治ドメインに適応したモデルを構築した.構築したモデルが,政治ドメインのタスクにおいて,汎用的なモデルを上回る性能を示すことを明らかにした.さらに,構築したコーパスとモデルを一般に公開した\footnote{\url{http://local-politics.jp/local-politics-bert/}}.\item大規模なコーパスを用いて事前学習を行った場合でも,一からモデルの事前学習を行う手法よりも,汎用的なモデルのさらなる事前学習を行う手法の方が優れていることを示した.また,従来の研究で指摘されていた汎用的なモデルのさらなる事前学習による性能向上は,学習ステップ数の増加による影響が大きく,コーパスのドメインだけに起因してはいないことを明らかにした.\itemドメイン依存のコーパスから構築したモデルが,汎用ドメインのタスクにおいて,汎用的なモデルに匹敵する性能を示したことから,従来使われていたWikipediaなどのコーパスによる学習は必ずしも重要ではないことを明らかにした.また,汎用的なモデルのさらなる事前学習を行う場合,最初の事前学習で用いたコーパスも併用してさらなる事前学習を行うことで,非適応ドメインにおける性能を維持しつつ,適応ドメインにおける性能を向上させることが可能であることを明らかにした.このことから,ダウンストリームタスクのドメインが明確に判断できないようなケースにおいても,ドメイン依存のコーパスによる学習をすべきであることを示した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿の残りの部分は,以下のように構成される.\ref{sec:related_work}章では,事前学習済み言語モデルのドメイン適応や,政治ドメインのテキストを対象とした関連研究について述べる.\ref{sec:building_corpus}章では,国会および地方議会の会議録の特徴やコーパスとしての利用について,従来のコーパスとの比較を交えて考察し,データの収集およびコーパスの構築を行ったことについて述べる.\ref{sec:building_model}章では,\ref{sec:building_corpus}章にて構築したコーパスを用いて,コーパスの組み合わせや事前学習の手法の違いがある合計7つのモデルを構築したことについて述べる.\ref{sec:experiment_political_domain}章では,政治ドメインのタスクによる構築したモデルと従来のモデルの比較検証について述べる.その結果,日本の国会および地方議会の会議録に基づくコーパスによる事前学習が,政治ドメインのタスクにおけるモデルの性能向上に寄与することを明らかにした.このとき,大規模なコーパスを使用した場合においても,従来研究と同様に,一から事前学習を行ったモデルよりも汎用的なモデルにさらなる事前学習を行ったモデルの方が高い性能を示すことがわかった.また,汎用的なモデルのさらなる事前学習による性能向上は,コーパスが効果的なだけではなく,学習ステップ数の増加による影響が大きいことを明らかにした.\ref{sec:experiment_general_domain}章では,汎用ドメインのタスクによる,構築したモデルと従来のモデルの比較検証について述べる.その結果,汎用ドメインのタスクにおいて,日本の国会および地方議会の会議録に基づくコーパスによる事前学習が,汎用的なコーパスによる事前学習に匹敵する性能をもたらすことを明らかにした.また,汎用的なモデルのさらなる事前学習を行う場合,最初の事前学習で用いたコーパスも併用してさらなる事前学習行うことで,非適応ドメインにおける性能を維持しつつ,適応ドメインにおける性能を向上させることが可能であることを明らかにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%sec2 \section{関連研究} label{sec:related_work}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%sec2.1\subsection{事前学習済み言語モデルのドメイン適応}事前学習済み言語モデルを構築する際,WikipediaやCommonCrawlに基づくテキストデータをコーパスとして用いて事前学習を行うことが一般的である.しかし,モデルのドメイン適応の研究では,これらのコーパスの他,適応させるドメインのテキストデータをコーパスとして用いてモデルを構築する手法が多く提案されている.英語においては,モデルのドメイン適応の研究が盛んに行われている.Leeら\cite{lee-2019-biobert}は,一般的なドメインのテキストと専門的なドメインのテキストでは,単語分布が大きく異なるため,専門的なドメインのタスクにおいてBERTのような事前学習済み言語モデルが性能を発揮するには,専門的なドメインのコーパスで事前学習を行う必要があることを主張し,生物医学ドメインのコーパスを用いてBERTの追加の事前学習を行ったモデルであるBioBERTを提案した.その結果,生物医学ドメインのタスクにおいて,従来のモデルを上回る性能を示している.また,Beltagyら\cite{beltagy-2019-scibert}は,専門的なドメインにおいて大規模なラベル付きデータを準備することが困難であることから,科学論文から構築したコーパスを用いてBERTの事前学習を一から行ったモデルであるSciBERTを提案した.こちらもBioBERTと同様に,科学論文を対象としたタスクにおいて優れた性能を示している.政治ドメインに適応したモデルもいくつか提案されており,Kawintiranonら\cite{kawintiranon-2022-polibertweet}は,フェイクニュース検出や選挙世論分析を行うことを目的として,Twitterから2020年のアメリカ大統領選挙に関連するTweetを収集し,それを用いて事前学習を行ったモデルであるPoliBERTweetを提案した.その結果,TwitterのTweetから大統領候補者に対する立場を分類するタスクにおいて,優れた性能を示している.また,Huら\cite{hu-2022-conflibert}は,政治的な暴力や紛争の分析を行うことを目的として,外交活動記録や国際的なニュースを扱う通信社の記事を収集し,それを用いて事前学習を行ったモデルであるConfliBERTを提案した.こちらも同様に,政治的な暴力や紛争に関する複数のタスクにおいて,一貫して従来のモデルを上回る性能を示している.そのほか,金融や法律ドメインにおいても,適応したモデルが提案されている\cite{araci-2019-finbert,chalkidis-2020-legalbert}.日本語においても,モデルのドメイン適応の研究が注目を集めている.英語と同様に,医療・科学・金融・法律ドメインに適応した事前学習済み言語モデルが提案されており,各ドメインのタスクにおいて優れた性能を示している\cite{kawazoe-2021-uthbert,yamauchi-2022-academicroberta,suzuki-2023-finbert,miyazaki-2022-jlbert}.しかし,モデルの政治ドメインへの適応を試みた研究は限られており,筆者らの先行研究\cite{nagafuchi-2023-nlc}で構築したものを除いて,公開されているモデルは存在しない.日本語におけるモデルのドメイン適応の研究の共通点として,専門的なドメインのコーパスが大規模ではないことが挙げられる.一般的にモデルの事前学習に用いられるコーパスであるCC-100の日本語部分の行数は約4億6,000万行,データサイズは約74GBとなっている.これらのモデルの事前学習に用いられたコーパスは,いずれもCC-100の日本語部分より小規模である.モデルをドメイン適応する際の事前学習の手法についても議論がなされている.Chalkidisら\cite{chalkidis-2020-legalbert}とMiyazakiら\cite{miyazaki-2022-jlbert}は,法律ドメインのコーパスを用いたBERTのドメイン適応を行う際に,SciBERT\cite{beltagy-2019-scibert}のように,一からモデルの事前学習を行うSC(pre-trainingfromscratch)と,BioBERTのように,汎用的なモデルのさらなる事前学習を行うFP(furtherpre-training)の2つ手法で比較を行っている.また,Gururanganら\cite{gururangan-2020-dont}は,FPと同義であるDAPT(domainadaptivepre-training)の他に,与えられるタスクのラベルなしデータセットを用いて追加の事前学習を行うTAPT(taskadaptivepre-training)を提案している.しかし,これらの事前学習手法のどれが良いかは,構築することができるコーパスの規模や与えられるタスクによって変動し,常に有効な手法が確立されてはいない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.2\subsection{日本の政治ドメインのテキストデータを対象とした研究}現在,日本では国および地方公共団体の保有する公共データを(1)二次利用が可能,(2)機械判読が容易,(3)無償利用が可能な形式で公開する,オープンデータへの取り組みが推進されている\footnote{\url{https://www.digital.go.jp/resources/open_data/}}.この取り組みによる諸課題の解決,経済の活性化,行政の高度化・効率化などが期待されており,政治ドメインにおいてデータを自動処理が重要であることがわかる.このような背景から,日本の政治ドメインのデータを対象として自然言語処理技術を適用する研究が進展している.2018年からNTCIRにおいて行われているQALab-PoliInfoでは,信憑性のある適切な政治情報を提示することを目的に,一次情報となる国会および地方議会の会議録を対象として,質問応答,自動要約,情報抽出といった自然言語処理のSharedTaskを設計し実施している\cite{poliinfo-2019-overview}.2021年から2022年にかけて実施されたNTCIR-16QALab-PoliInfo-3では,SharedTaskの参加者により従来の事前学習済み言語モデルをシステムの一部として利用した手法が多く提案された\cite{poliinfo-2022-overview}.このように,日本の政治ドメインのデータを対象とした研究においても,事前学習済み言語モデルの利用がデファクトスタンダードとなりつつある.このことから,日本語を対象とした政治ドメインに特化したモデルの登場が望まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3 \section{国会および地方議会の会議録コーパスの構築} label{sec:building_corpus}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.1\subsection{国会会議録と地方議会会議録について}国会および地方議会の会議録は,それぞれの議会において開かれる会議の記録を保存し,公表するものである.国会会議録は日本国憲法第57条,地方議会会議録は地方自治法第123条により,公開が基本的に義務付けられている.会議録には,議事の日程,出席議員名,発言内容,議案の提出と討議,投票結果などが記載されている.会議録は,行政機関の透明性を確保し,説明責任を果たすために,非常に重要な役割を有している.国会会議録は,国会会議録検索システム\footnote{\url{https://kokkai.ndl.go.jp/}}において一般に公開され,テキストまたはPDFの形式で閲覧ができる.国会会議録検索システムには,第1回国会からのデータが収録されている.また,国会会議録検索システムは,API\footnote{\url{https://kokkai.ndl.go.jp/api.html}}を提供しており,これを利用することにより,XMLまたはJSONの形式で取得ができる.以上のことから,国会会議録をテキストの形式で収集することは,大規模かつ容易に可能となっている.地方議会会議録は,地方公共団体によって,Webサイトにおける公開状況および公開形式が異なる.例えば,すべての都道府県議会,市議会,区議会は,それぞれのWebサイトにおいて会議録を一般に公開しているが,一部の町議会,村議会は,Webサイトにおいて会議録を一般に公開していない\cite{takamaru-2017-local}.また,札幌市議会\footnote{\url{http://sapporo.gijiroku.com/voices/}}のように会議録検索システムを利用して公開する団体が多いが,小樽市議会\footnote{\url{https://www.city.otaru.lg.jp/docs/2020113000634/}}のようにPDFの形式で公開している団体もある.以上のことから,すべての地方議会会議録をテキスト形式で収集することは,国会会議録と比較して困難な状況にある.国会および地方議会の会議録をコーパスとして使用する利点は,大きく2つある.1つ目は,人の手によって整文されている点である.整文とは,文法や表現の修正,不明瞭な部分の明確化,情報の整理や体系化などの作業のことであり,会議の内容を読みやすくするために行われる.例えば,第203回国会における菅内閣総理大臣の所信表明演説にて発言された「医療資源を重症者にゲンテン化します。」という言い間違いは,会議録では「医療資源を重症者に重点化します。」という意味が通じる表現に修正される\footnote{\url{https://kokkai.ndl.go.jp/txt/120305254X00120201026/24}}.2つ目は,含まれる情報の信頼性が高い点である.国会や地方議会で行われる本会議や委員会では,予算案や法律・条例案などについて討議がなされている.それらは,人々の生活に密接に関連した広範な内容を含むとともに,公的な場で行われる討議であることから,含まれる情報の信頼性も高いと考えられる.しかし,欠点もある.質問応答における議員の発言では,同じ表現の繰り返しを防ぐための代名詞がよく用いられ,1文が長くなる傾向がある\cite{yamamoto-2005-national}.この傾向により,複雑な表現が多くなり,モデルが理解しづらい表現を学習してしまうことが考えられる.また,国会や地方議会の会議録には,特定の政治的立場や価値観を反映されている可能性がある.これが事前学習に用いられると,モデルもこれらのバイアスを学習してしまうことが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2\subsection{コーパスの構築}\label{subsec:constructing_corpus}本研究では,事前学習に用いるコーパスとして,3つのコーパスを構築する.それぞれのコーパスの詳細を表\ref{tab:corpus_detail}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[b]\input{15table01.tex}\caption{コーパスの詳細}\label{tab:corpus_detail}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%1つ目は,国会会議録のコーパスである.本研究では,国会会議録検索システム検索用APIを用いて,国会会議録をJSONの形式で収集した.収集する対象は,1947年1月1日から2022年12月31日までの期間に開かれた本会議および委員会の会議録とし,合計で104,969件を収集した.その後,議員の発言部分を抽出し,非発言部分や記号などのノイズを除去するクリーニング処理を施し,1行1文のテキストの形式へと加工した.その結果,処理前は約17GB,処理後は約12GBのデータサイズとなった.2つ目は,地方議会会議録のコーパスである.本研究では,各地方公共団体のWebサイトをクローリングすることで,地方議会会議録をHTMLの形式で収集した.収集する対象は,地方議会が設置されている47都道府県,1,718市町村,23特別区のうちの,710団体の2022年12月31日までの期間に開かれた地方議会の本会議および委員会の会議録とし,合計で553,823件を収集した.また,PDFなどの形式で公開されているものについては,コーパスとしての利用が困難となるため,収集の対象外とした.その後,国会会議録と同じく,議員の発言部分を抽出し,非発言部分や記号などのノイズを除去するクリーニング処理を施し,1行1文のテキストの形式へと加工した.表\ref{tab:example_corpus_cleaning}にクリーニング処理の例を示す.その結果,処理前は約72GB,処理後は約58GBのデータサイズとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[b]\input{15table02.tex}\caption{クリーニング処理の例}\label{tab:example_corpus_cleaning}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3つ目は,Wikipediaのコーパスである.本研究では,Wikipedia日本語版の2021年8月23日時点のダンプデータから,コーパスを構築した.約4.3GBのデータサイズとなった.本研究では,モデルの構築に国会会議録および地方議会会議録のコーパスを主に使用し,比較に用いる派生系のモデルの構築にWikipediaのコーパスを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.3\subsection{構築したコーパスの分析}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}\begin{center}\includegraphics{31-2ia15f1.pdf}\end{center}%%%%%\includegraphics[width=0.75\linewidth]{figs/heatmap-crop.pdf}\caption{テキスト間の類似度}\label{fig:corpus_similarity}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%事前学習済み言語モデルを構築する際は,一般的にWikipediaやCC-100\cite{wenzek-2020-ccnet,conneau-2020-unsupervised}などのコーパスが用いられる.政治ドメインが専門的なドメインである場合,国会および地方議会の会議録のテキストと,WikipediaやCC-100のテキストは,類似していないことが考えられる.そこで,\ref{subsec:constructing_corpus}章において構築した3つのコーパスとCC-100から,各50,000行ずつランダムサンプリングし,Dunnら\cite{dunn-2022-corpussimilarity}が提案し公開しているPythonライブラリ\footnote{\url{https://github.com/jonathandunn/corpus_similarity}}を用いて,各テキスト間の類似度を計算する.図\ref{fig:corpus_similarity}に,Wikipedia,CC-100,国会会議録,地方議会会議録の各テキスト間の類似度を表したヒートマップを示す.Wikipediaと国会会議録および地方議会会議録の類似度は,それぞれ49.60\%と54.61\%であり,非常に低い値となっている.このことから,政治ドメインが専門性の高いドメインであることがわかる.CC-100とその他のコーパスの類似度は,いずれも70\%を超えている.このことから,CC-100は広範なドメインの内容を含んでいることがわかる.国会会議録と地方議会会議録の類似度は,93.75\%であり,非常に高い値となっている.このことから,会議録の性質は国会と地方議会に共通していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4 \section{モデルの構築} label{sec:building_model}本研究では,構築した国会会議録および地方議会会議録のコーパスを用いて,BERTの事前学習を行いモデルを構築する.また,Wikipediaのコーパスも用いたモデルや,日本語における事前学習済み言語モデルのドメイン適応に関する研究に倣ったモデルなどの派生系も含めて構築する.ここでは,Chalkidisら\cite{chalkidis-2020-legalbert}に倣い,一から事前学習を行う手法をSC(pre-trainingfromscratch),追加の事前学習を行う手法をFP(furtherpre-training)と呼ぶ.また,SCとFPのモデル間では,追加の事前学習による学習ステップ数の差が生じる.より公平な比較を行うため,SCのモデルに同じコーパスによる追加の事前学習を行ったモデルも構築する.これをSC-2M\footnote{学習ステップ数が2,000,000(2Million)であるため.}と呼ぶ.派生系を含んだ7つの構築するモデルを以下に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item\textbf{SC-min}:会議録\item\textbf{SC-minwiki}:会議録+Wikipedia\item\textbf{SC-2M-wiki}:Wikipedia→Wikipedia\item\textbf{SC-2M-min}:会議録→会議録\item\textbf{SC-2M-minwiki}:会議録+Wikipedia→会議録+Wikipedia\item\textbf{FP-min}:Wikipedia→会議録\item\textbf{FP-minwiki}:Wikipedia→会議録+Wikipedia\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.1\subsection{トークナイザの学習}また,それぞれのモデルの最初の事前学習に用いるコーパスから,トークナイザを学習する.すなわち,SC-minについては会議録のコーパス,SC-minwikiについては会議録とWikipediaのコーパスから学習を行う.一方,FPの2つのモデルはWikipediaのコーパスのみから学習された東北大学のBERT\footnote{\url{https://huggingface.co/cl-tohoku/bert-base-japanese-v2}}のトークナイザをそのまま用いる.本研究では,形態素解析器のMeCab\footnote{\url{https://taku910.github.io/mecab/}}と辞書のUnidic\footnote{\url{https://clrd.ninjal.ac.jp/unidic/}}を用いて分かち書きを行った後に,WordPiece\cite{schuster-2012-wordpiece}によってサブワードに分割することで,トークナイザを学習した.語彙数は,[CLS]などの特殊なトークンも含めて,32,768語となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.2\subsection{モデルの事前学習}モデルの事前学習の際のハイパーパラメータは,東北大学が公開するBERTのGitHubリポジトリ\footnote{\url{https://github.com/cl-tohoku/bert-japanese/tree/v2.0}}と同一のものを使用した.具体的には,batchsizeは256,warmupstepsは10,000,maxseqlengthは512,shortseqprobは0.1,maskedLMprobは0.15とし,wholewordmaskingを適用した.ステップ数は,SCは1,000,000を設定し,SC-2MとFPは追加の事前学習を行うため,さらに1,000,000を加えた2,000,000を設定した.また,learningrateは,1e-4に設定し,SC-2MとFPの追加の事前学習の際には,Googleが公開する情報\footnote{BERTのGitHubリポジトリ(\url{https://github.com/google-research/bert})の``Pre-trainingtipsandcaveats''セクション.}を参考に2e-5に設定した.事前学習は8枚のNVIDIAA100GPUを用いて行い,それぞれ約44時間で完了した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \section{政治ドメインのタスクによる実験} label{sec:experiment_political_domain}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.1\subsection{実験概要}本実験では,政治ドメインのタスクにおいて,会議録コーパスを用いて構築したモデルが有効となるのかを明らかにする.また,FPのモデルの方がSCのモデルよりも優れた性能を示すことの理由についても明らかにする.そのため,従来のコーパスであるWikipediaのみを用いて構築したモデルや学習ステップ数の差を公平にしたモデルとの比較を行う.さらに,実際のタスクにおける正例や負例を分析することで,会議録コーパスが政治ドメインにおいて有効である理由を考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.2\subsection{実験設定}本実験には,NTCIR-14QALab-PoliInfo\cite{poliinfo-2019-overview}のClassificationtaskを用いる.本タスクは,議題(Topic)と議員の発言(Utterance)を比較し,関連があるか(Relevance),事実検証が可能かb(Fact-checkability),議員はどの立場をとっているか(Stance)について分類することで,根拠のある意見を見つけることを目的としたタスクである.表\ref{tab:data_example_classification}にデータの例を示す.Relevance,Fact-checkabilityのlabelは2値,Stanceのlabelは3値となっている.本タスクのデータセットは,1つのUtteranceに対して3人または5人の注釈者による複数の正解ラベルが付与されている.本研究では,評価の単純化のため,多数決により正解ラベルが1つとなるようにデータセットに加工を施した.なお,この加工によってデータが欠損することはなかった.表\ref{tab:num_data_classification}にデータセットに含まれるデータの数を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[b]\input{15table03.tex}\caption{NTCIR-14QALab-PoliInfoのClassificationtaskのデータ例}\label{tab:data_example_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[t]\input{15table04.tex}\caption{NTCIR-14QALab-PoliInfoのClassificationtaskのデータ数}\label{tab:num_data_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本タスクは,Relevanceの分類,Fact-checkabilityの分類,Stanceの分類を3つのサブタスクと捉え,分割して解くことができる.そのため,RelevanceとStanceの分類タスクはTopicとUtteranceの2文をモデルに入力する文ペア分類タスクとし,Fact-checkabilityの分類タスクはUtteranceのみの1文をモデルに入力する文章分類タスクとする.また,trainデータセットの10%を層化分割し,validationデータセットとして用いる.fine-tuningのハイパーパラメータは,Mosbachら\cite{mosbach-2021-stability}を参考に設定する.具体的には,batchsizeは32,learningrateは2e-5,epochは20,warmupratioは0.1に設定する.また,maxseqlengthは,サブタスクに応じて変更し,RelevanceとStanceの分類では256,Fact-checkabilityの分類では128に設定する.評価指標には,AccuracyとF1-scoreのマクロ平均を用いる.このとき,5つの異なるシード値を用いて実験を行い,そのスコアの平均で評価を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.3\subsection{実験結果と考察}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}\input{15table05.tex}\caption{NTCIR-14QALab-PoliInfoClassificationtaskによる実験結果.\textbf{太字}は比較対象8モデル間のベストスコアを表す.}\label{tab:result_poliinfo}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:result_poliinfo}に,実験結果を示す.表中でSC-wikiと示しているものは東北大学が公開するBERTであり,これは本実験で構築したSC-min,SC-minwikiと同じハイパーパラメータで学習されコーパスのみが異なるため,比較対象とする.Relevanceでは,FP-minwikiが0.933/0.956と最も高いAccuracy/F1-scoreを示した.また,SC-2M-minとSC-2M-minwikiもFP-minwikiに並ぶF1-scoreを示した.Fact-checkabilityでは,FP-minが0.860と最も高いAccuracyを示した.また,SC-2M-wikiが0.735と最も高いF1-scoreを示した.Stanceでは,FP-minモデルが0.657/0.685と最も高いAccuracy/F1-scoreを示した.なお,すべてのサブタスクに共通して,SC-wikiが最も低いスコアを示した.以下の節では,実験結果をもとにモデル間の比較を行い考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.3.1\subsubsection{会議録コーパスによる影響}SCのモデル間を比較すると,すべてのタスクで,SC-minとSC-minwikiの方がSC-wikiよりも高いスコアを示している.SC-2Mのモデル間を比較すると,Fact-checkabilityを除いた2つのサブタスクでは,SC-2M-minとSC-2M-minwikiの方がSC-2M-wikiよりも高いスコアを示している.SC-2M-wikiとFPのモデル間では,Fact-checkabilityを除いた2つのサブタスクでは,FP-minとFP-minwikiの方がSC-2M-wikiよりも高いスコアを示しており,Fact-checkabilityでも,FP-minとFP-minwikiの方がSC-2M-wikiよりも高いAccuracyを示している.これらの結果から,国会および地方議会の会議録に基づくコーパスによる事前学習が,政治ドメインのタスクにおけるモデルの性能向上に寄与することが確認された.特に,RelevanceやStanceのような2文の関係性を推論するタスクにおいては,より優れた性能を発揮する傾向が見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.3.2\subsubsection{事前学習手法とデータサイズ・学習ステップ数による影響}SCのモデルとFPのモデルを比較すると,FPのモデルの方がSCのモデルよりも高いスコアを示している.この結果は,従来の日本語を対象としたモデルのドメイン適応に関する研究\cite{suzuki-2023-finbert,miyazaki-2022-jlbert}で示された結果と一致している.したがって,大規模なデータサイズのコーパスを用いて事前学習を行った場合においても,SCよりもFPの方が優れた性能を発揮することが明らかとなった.しかし,学習ステップ数が同じであるSC-2MのモデルとFPのモデルを比較すると,Relevanceでは同等のスコアを示しており,Fact-checkabilityとStanceでも,FPのモデルの方がSC-2Mのモデルよりもわずかに高いスコアを示す程度の差しか見られなかった.これらの結果から,FPによる性能向上は,コーパスが効果的なだけではなく,学習ステップ数の増加による影響が大きいことが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.4\subsection{分析}一般的に用いられるコーパスであるWikipediaのみを用いて事前学習を行ったモデルと,政治ドメインに特化したコーパスである会議録のみを用いて事前学習を行ったモデルを比較することで,コーパスによって得られる知識や傾向を分析する.ここでは,Wikipediaのみをコーパスとして事前学習を行っているSC-2M-wiki,会議録のみをコーパスとして事前学習を行っているSC-2M-minの2つのモデルで比較を行う.Relevanceサブタスクにおいて,すべての異なるシード値で,SC-2M-wikiが誤り,SC-2M-minが正解した13件の事例を分析したところ,会議録コーパスで事前学習学習を行ったモデルには,大きく3つの傾向が見られた.以下に,実際のデータの例を交えてその傾向を述べる.1つ目は,政治的なコンテキストの理解である.\begin{screen}\begin{description}[labelwidth=2cm,leftmargin=2.5cm,align=left]\item[Topic]特定秘密保護法案を進めるべきである\item[Utterance]12月6日深夜に自民党・公明党が特定秘密保護法の採決を強行したことに、満身の怒りをもって抗議いたしたいと思います。\item[Relevance]関連あり\end{description}\end{screen}特定秘密保護法案は日本の政治において非常に複雑で議論の多い議題であり,その背景や議論の内容を正確に理解するためにはドメイン特有の知識や文脈が必要となる.このような政治的なコンテキストを,会議録コーパスのみで学習したモデルが捉えられた事例である.この傾向は13件中3件の事例において見られた.2つ目は,ニュアンスや暗黙的な意味の理解である.\begin{screen}\begin{description}[labelwidth=2cm,leftmargin=2.5cm,align=left]\item[Topic]生活保護の基準額を引き下げるべきである\item[Utterance]先日、テレビの報道番組で、東京都内の体が普通どおり健康な55歳の男性が、たばこを吸い、携帯電話も使用して、一般の方々と何ら変わらない生活をしていて、13万5,310円と満額の生活保護費をもらっている様子が流れていました。\item[Relevance]関連あり\end{description}\end{screen}この議員の発言は,直接的に「生活保護の基準額を引き下げるべきである」という主張を行っているわけではないが,生活保護の基準額は高すぎるという批判の意味を含んでおり,関連ありとみなすことができる.このようなニュアンスや暗黙的な意味を,会議録コーパスのみで学習したモデルが捉えられた事例である.この傾向は13件中2件の事例において見られた.3つ目は,複雑な関係性の理解である.\begin{screen}\begin{description}[labelwidth=2cm,leftmargin=2.5cm,align=left]\item[Topic]高齢者への医療助成を増やすべきである\item[Utterance]そうした中で、雇用環境が特に厳しいしまへの定着を目指す若者らを対象とした創業等への場づくりとか、医療介護支援が比較的優位な本県の特性に着目した大都市圏の元気な高齢者の誘致につきましても検討を進めてまいりたいというように考えております。\item[Relevance]関連なし\end{description}\end{screen}この議員の発言は,「医療介護支援」や「元気な高齢者」といった議題に関連しそうな表現が含まれているが,全体的には「若者を対象とした場づくりや高齢者の誘致による地域振興を進めるべき」という主張であり,「高齢者への医療助成を増やすべきである」という議題とは別の主張となるため,関連なしとみなすことができる.このような,複雑な関係性を,会議録コーパスのみで学習したモデルが捉えられた事例である.この傾向は13件中8件の事例において見られた.これらの傾向から,会議録による事前学習を行ったモデルは,議題と議員の発言の関連を判断する際に,豊富な政治ドメインの背景知識を用いて,正確な文脈理解をしていると考えられる.一方で,Wikipediaのみを用いて事前学習を行ったモデルは,政治ドメインの背景知識を十分に理解できていないため,誤った分類をしていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6 \section{汎用ドメインのタスクによる実験} label{sec:experiment_general_domain}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.1\subsection{実験概要}本実験では,汎用ドメインのタスクにおいて,政治ドメインへの適応のため会議録コーパスを用いて構築したモデルが,どの程度有効となるのかを明らかにする.そのため,\ref{sec:experiment_political_domain}章の政治ドメインのタスクによる実験と同様に,従来のコーパスであるWikipediaのみを用いて構築したモデルとの比較を行う.また,実際のタスクにおける正例や負例を分析することで,会議録コーパスの特性を明らかにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.2\subsection{実験設定}本実験には,日本語言語理解ベンチマークであるJGLUE\cite{kurihara-2022-jglue}のデータセットを使用する.JGLUEのデータセットには,MARC-ja(感情分類),JSTS(意味的類似度計算),JNLI(自然言語推論),JSQuAD(機械読解),JCommonsenseQA(常識推論)が含まれている.また,各タスクのtrainデータセットとdevデータセットは公開されているが,testは公開されていない.本実験では,栗原ら\cite{kurihara-2022-jglue}の実験設定に従い,trainすべてを学習に用いて,devを評価に用いた.fine-tuningの際のハイパーパラメータや評価指標は,JGLUEのGitHubリポジトリ\footnote{\url{https://github.com/yahoojapan/JGLUE}}に記載されているものに従った.具体的には,batchsizeは32,warmupratioは0.1に設定した.maxseqlengthは,タスクに応じて変更し,MARC-jaでは512,JSTS・JNLIでは128,JSQuADでは384,JCommonsenseQAでは64に設定した.また,learningrateは\{5e-5,3e-5,2e-5\},epochは\{3,4\}の中から選択し,探索の結果のうち,devデータセットにおいて最も良かったスコアを示した.評価指標としては,MARC-ja,JNLI,JCommonsenseQAではAccuracy,JSTSではPearsonおよびSpearman相関係数,JSQuADではExactMatchとF1-scoreを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.3\subsection{実験結果と考察}表\ref{tab:result_jglue}に本実験の結果を示す.\ref{sec:experiment_political_domain}章の政治ドメインのタスクによる実験と同様に,表中でSC-wikiと示しているものは東北大学が公開するBERTであり,比較対象としている.その実験結果はJGLUEのGitHubリポジトリに記載された値を用いた.このほか,参考値としてJGLUEのGitHubリポジトリで示されているNICT(BPEあり),Waseda(roberta-base-japanese)の結果も示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[b]\input{15table06.tex}\hangcaption{JGLUEによる実験結果.\textbf{太字}はSC-wikiと構築したモデルの8モデル間のベストスコアを表し,\underline{下線}は参考であるNICT,Wasedaも含めた10モデル間のベストスコアを表す.}\label{tab:result_jglue}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%SC-wikiと構築したモデルの8モデル間において,MARC-jaでは,SC-2M-minが0.963と最も高いAccuracyを示した.また,MARC-jaを除いた4つのタスクでは,SC-2M-wikiが最も高いスコアを示した.具体的には,JSTSでは,0.914/0.874のPearson/Spearman相関係数,JNLIでは,0.908のAccuracy,JSQuADでは,0.876/0.942のExactMatch/F1-score,JCommonsenseQAでは,0.812のAccuracyを示した.8モデルにNICTとWasedaを加えた10モデル間においては,JSQuADでは,NICTが0.897/0.947と最も高いExactMatch/F1-scoreを示し,JCommonsenseQAでは,Wasedaが0.840と最も高いAccuracyを示した.なお,8モデル間と10モデル間に共通して,MARC-jaでは,SC-2M-wiki,JSTS・JSQuAD・JCommonsenseQAでは,SC-min,JNLIでは,SC-minwikiがそれぞれ最も低いスコアを示した.以下の節では,実験結果をもとにモデル間の比較を行い考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.3.1\subsubsection{会議録コーパスによる影響}WikipeidiaのみをコーパスとしているSC-wikiやSC-2M-wikiと会議録のみをコーパスとしているSC-minやSC-2M-minを比較すると,MARC-jaを除いた4つのタスクでは,SC-wikiやSC-2M-wikiの方がSC-minやSC-2M-minよりも高いスコアを示している.JSTS・JNLI・JSQuADではスコアの差はわずかとなっており,政治ドメインのタスクにおいて見られた2文の関係性を推論するタスクに対して優れた性能を発揮する傾向が,非適応ドメインにおいても確認できる.しかし,JCommonsenseQAでのスコアの差が大きい.JGLUEを提案したKuriharaら\cite{kurihara-2022-jglue}は,JCommonsenseQAでは,Wikipediaには記載されにくい常識的な知識を要求するため,CommonCrawlに基づくデータをコーパスとしたモデルが高い性能を示す傾向があると述べている.これは,10モデル間の比較において,CC-100を用いて事前学習を行ったWasedaが最も高いスコアを示していることからも確認できる.このことから,会議録にはWikipediaよりも常識的な知識が含まれていないことがわかる.一方,MARC-jaでは,SC-minやSC-2M-minの方がSC-wikiやSC-2M-wikiよりも高いAccuracyを示している.また,そのほかの会議録をコーパスとして用いたモデルも,同様の結果を示している.このことから,会議録コーパスがMARC-jaに対して有効であることがわかる.これらの結果から,日本の国会および地方議会の会議録に基づくコーパスによる事前学習が,汎用的なコーパスによる事前学習に匹敵する性能をもたらすことを確認した.特に,MARC-jaのような感情分類のタスクに対して,性能を発揮する傾向が見られた.しかし,JCommonsenseQAのような常識的な知識を要するタスクに対しては,別のコーパスの利用を検討すべきである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.3.2\subsubsection{会議録コーパスとWikipediaコーパスの併用による影響}会議録のみをコーパスとしているSC-minやSC-2M-minと会議録とWikipediaの両方をコーパスとしているSC-minwikiやSC-2M-minwikiを比較すると,MARC-jaを除いた3つのタスクでは,SC-minwikiやSC-2M-minwikiの方がSC-minやSC-2M-minよりも高いスコアを示している.また,SC-wikiと構築したモデルの8モデル間を比較すると,すべてのタスクに共通して,FP-minwikiがベストなモデルに次いで高いスコアを示している.\ref{sec:experiment_political_domain}章にて行った政治ドメインのタスクによる実験でも,FP-minwikiは一番もしくはそれに準ずる性能を示している.これらの結果から,モデルのドメイン適応の際に,一般的なコーパスを併用した事前学習を行うと,非適応ドメインにおける性能の改善に繋がることを明らかにした.特に,FPによるモデルのドメイン適応を行う場合,最初の事前学習で用いたコーパスも併用してさらなる事前学習行うことで,非適応ドメインにおける性能を維持しつつ,適応ドメインにおける性能を向上させることが可能であることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.4\subsection{分析}政治ドメインのタスクによる検証と同様に,一般的に用いられるコーパスであるWikipediaのみを用いて事前学習を行ったモデルと,政治ドメインに特化したコーパスである会議録のみを用いて事前学習を行ったモデルを比較することで,コーパスによって得られる知識や傾向を分析する.ここでは,Wikipediaのみをコーパスとして事前学習を行っているSC-2M-wiki,会議録のみをコーパスとして事前学習を行っているSC-2M-minの2つのモデルで比較を行う.また,特徴的な実験結果が見られたMARC-ja,JCommonsenseQAを分析の対象とする.まず,MARC-jaにおいて,すべての探索したハイパーパラメータで,SC-2M-wikiが誤り,SC-2M-minが正解した8件の事例を分析したところ,会議録のみをコーパスとして事前学習を行ったモデルには,大きく2つの傾向が見られた.以下に,MARC-jaの実際のデータの例を示す.\begin{screen}\begin{description}[labelwidth=2cm,leftmargin=2.5cm,align=left]\item[sentence]名作中の名作でありながらなぜこの作品はDVD化はおろかテレビ放送(確か地上波で2回くらいしか放送されていない)されないのか?ここからはあくまで憶測だが、当時、あるテレビの映画枠(メジャーな番組)で、この映画は放送されたことがある。その数日後、ある団体からクレームがついた。これは一部新聞報道をされたので当時の新聞記事をあされば容易にわかると思う。クレームの内容はキャラクターの描写に問題がありそれにより間違った認識と差別を助長させるというものだった。おそらくこの点がネックになっているものと思われる。しかし、果たしてその団体のクレームは正当性があるものなのかは謎だ。この分野では先進的な位置にいるアメリカでは問題になっていないしヨーロッパでも同様だ。原作小説はピューリッツァー賞まで受賞しているのに。本国ではDVDも小説も発売されている。どうも解せない。そろそろ関係者はきちっとこの問題に対して向き合う必要があるのではないだろうか?逆差別を増長させ、見えない検閲をのさばらせ、不当な封印を解かないと芸術的価値を理解できないままになると思うが。関係者の勇気ある決断を求む。\item[label]negative\end{description}\end{screen}1つ目は,政治ドメインのタスクによる検証における分析でも見られた,複雑な関係性への理解である.基本的に商品のレビューは,商品に対する意見の表明であり,他人に読んでもらう前提で書かれている.従って,疑問の提起や執筆者の意見が複雑に絡んだ長い文章となる傾向がある.例のsentenceでは,「なぜこの作品はDVD化はおろかテレビ放送(確か地上波で2回くらいしか放送されていない)されないのか?」という疑問の提起から,「ここからはあくまで憶測だが」という推察や事実の記述が続く.これは,会議録の質問応答でよく見られる特徴と類似している.このような複雑な関係性を持つ文章を多く含む会議録を用いて事前学習をしているため,会議録のみをコーパスとして事前学習を行ったモデルは,正確な分類ができていると考えられる.この傾向は8件中5件の事例において見られた.2つ目は,硬い言い回しへの理解である.例のsentenceでは,「果たして」や「解せない」など日常会話では耳にする機会が少ない,硬い表現の単語が散見される.会議録は,公的な場で行われる討議を記録したものであり,さらに整文が加えられるため,硬い言い回しが多く含まれている.そのため,会議録のみをコーパスとして事前学習を行ったモデルは,硬い言い回しに対して頑健になっていると考えられる.この傾向は8件中4件の事例において見られた.続いて,JCommonsenseQAにおいて,すべての探索したハイパーパラメータで,SC-2M-wikiが正解し,SC-2M-minが誤った108件を分析した.以下に,JCommonsenseQAの実際のデータの例を示す.なお,\underline{下線}は各問いにおける正解を示す.\begin{screen}Q.伸び縮するものは?(1)ムーブメント(2)ナット(3)ボルト(4)動作(5)\underline{バネ}Q.狩りに使うものは?(1)機関銃(2)\underline{ライフル銃}(3)手袋(4)ピストル(5)縄Q.アマチュアスポーツの祭典といえば何の大会?(1)マラソン(2)\underline{オリンピック}(3)県大会(4)ヨーロッパ(5)国体\end{screen}SC-2M-wikiが正解し,SC-2M-minが誤ったものの大部分は,例のように物質や文化に関する知識を問うものであり,会議録に含まれていないような内容のものであった.会議録は,人々の生活に密接に関連した広範な内容を含んでいるが,このような一般常識的な知識に関しての説明は含まれていない.対して,Wikipediaは,物事を説明するための記事であるため,このような一般常識的な知識に関しての説明を多分に含んでいる.なおかつ,JCommonsenseQAはこのような質問の割合が非常に多いタスクとなっている.そのため,会議録のみをコーパスとして事前学習を行ったモデルは,Wikipediaのみをコーパスとして事前学習を行ったモデルと比較して,劣っている性能を示したと考えられる.この傾向は108件中90件の事例において見られた.しかし,すべての探索したハイパーパラメータで,SC-2M-wikiが誤り,SC-2M-minが正解した33件の事例を分析したところ,以下のようなケースが見られた.\begin{screen}Q.社会での役割などについて、性別による固定観念をなくしていこうという考え方を表す言葉は?(1)ジェンダーギャップ(2)ジェンダーベリフィケーション(3)ジェンダーバイアス(4)\underline{ジェンダーフリー}(5)ジェンダーコントラクションQ.ゆりかごからが墓場までの長い道のりをなんという?(1)目印(2)高速道路(3)学問(4)\underline{人生}(5)ビクトリーロードQ.日本と親しくすることは?(1)訪日(2)来日(3)十日(4)\underline{親日}(5)暦\end{screen}社会問題となっているジェンダーフリーの思想や社会保障の標語である「ゆりかごから墓場まで」に関する問いに対して,会議録のみをコーパスとして事前学習を行ったモデルは,しっかりと解答ができている.このように,政治ドメインと深い関わりを持つ社会問題や用語に関する問いに対しては,頑健であることがわかる.このことから,会議録による事前学習を行ったモデルは,JCommonsenseQAのような質問応答タスクにおいても,政治ドメインへの適応がしっかりとなされていることがわかる.この傾向は33件中10件の事例において見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%7 \section{おわりに} label{sec:conclusion}本研究では,人手により作成され一般に公開されている,国会会議録と地方議会会議録を大規模に収集し,会議録コーパスを構築した.また,構築した会議録コーパスを用いて,一から事前学習を行うモデルや,Wikipediaのみを用いて事前学習をした後にさらなる事前学習を行うモデルといった,複数の派生系を含む事前学習済み言語モデルを構築した.政治ドメインのタスクによる検証の結果,構築したモデルは,すべてのサブタスクにおいて,従来のモデルを上回る性能を示した.このことから,会議録コーパスを用いた事前学習は,政治ドメインのタスクにおけるモデルの性能向上に寄与することを明らかにした.また,大規模なコーパスを用いた場合においても,従来研究と同様に,一から事前学習を行うモデルよりもWikipediaのみを用いて事前学習をした後にさらなる事前学習を行うモデルの方が優れた性能を発揮することが明らかとなった.しかし,これら2つの事前学習手法における学習ステップ数を公平にした場合,大きな性能の差は見られなかった.このことから,ドメイン適応における汎用的なモデルのさらなる事前学習による性能向上は,コーパスが効果的なだけではなく,学習ステップ数の増加による影響が大きいことを明らかにした.汎用ドメインのタスクによる検証の結果,構築したモデルは,ほとんどのタスクにおいて,汎用的なコーパスによる事前学習を行ったモデルに匹敵する性能を示した.特に,感情分類タスクに対して性能を発揮する傾向が見られた.一方,常識的な知識が乏しくなるため,別のコーパスの利用の検討も必要である.また,会議録コーパスを用いた事前学習は,会議録でよく見られる複雑な関係性を持つ文章や硬い言い回しに対してはドメインに関わらず有効であることや,政治ドメインに関連する問いに対しては頑健であることを明らかにした.また,両方の検証の結果から,汎用的なモデルのさらなる事前学習によるドメイン適応を行う際に,最初の事前学習で用いたコーパスも併用して学習を行うことで,非適応ドメインにおける性能を維持しつつ,適応ドメインにおける性能を向上させることが可能であることを明らかにした.今後は,会議録コーパスに不足している一般常識に関する知識を,信頼性を損なわずに補うことができるデータを調査する.また,会議録はその性質上,今回検証を行った政治ドメインの他に,金融や法律ドメインとも密接に関連しているため,それらのドメインでの検証も行う.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP21H03769の助成を受けたものです.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}%%%%\bibliography{j_yourrefs}\bibliography{15refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{永渕景祐}{%2022年小樽商科大学商学部社会情報学科卒業.2024年北海道大学大学院情報科学院修士課程修了.自然言語処理,特に,国会および地方議会会議録を対象としたモデルの構築の研究に従事.}\bioauthor{木村泰知}{%2004年9月北海道大学大学院工学研究科電子情報工学専攻修了.2005年4月~2007年3月小樽商科大学助教授.2007年4月~2018年9月小樽商科大学准教授.2018年10月~現在小樽商科大学教授.2010年10月~2011年9月NewYorkUniversity訪問研究員.2017年10月~現在理化学研究所AIPセンター客員研究員.自然言語処理の研究,特に,地方議会会議録を対象としたコーパス構築の整備に従事.}\bioauthor{門脇一真}{%2011年株式会社日本総合研究所入社.2017年より2020年国立研究開発法人情報通信研究機構研修員・協力研究員.同年より株式会社日本総合研究所先端技術ラボにて自然言語処理に関する研究開発に従事.現在に至る.}\bioauthor{荒木健治}{%1982年北海道大学工学部電子工学科卒業.1988年同大学大学院博士課程修了.工学博士.同年,北海学園大学工学部電子情報工学科助手.1989年同講師.1991年同助教授.1998年同教授.1998年北海道大学大学院工学研究科電子情報工学專攻助教授.2003年同教授,現在北海道大学大学院情報科学研究院メディアネットワーク部門特任教授.自然言語処理,特に,音声対話処理,機械翻訳,ユーモア処理などの研究に従事.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V09N01-06
\section{まえがき} 自然言語処理の最大の問題点は,言語表現の構造と意味の多様性にある.機械翻訳の品質に関する分析結果(麻野間ほか1999)によれば,従来の機械翻訳において,期待されるほどの翻訳品質が得られない最大の原因は,第1に,動詞や名詞に対する訳語選択が適切でないこと,第2に,文の構造が正しく解析できないことであると言われている.ところで,日本語表現で,訳語選択と文の構造解析を共に難しくしている問題の一つとして,「もの」,「こと」,「の」などの抽象名詞の意味と用法の問題がある.抽象名詞は,高度に抽象化された実体概念を表す言葉で,話者が,対象を具体的な名詞で表現できないような場合や明確にしたくないような場合にも使用される傾向を持ち,その意味と用法は多彩である.そのため,従来の機械翻訳において,これらの抽象名詞が適切に訳される例は,むしろ少ない.学校文法では,これらの語の一部を形式名詞と呼んでいるが,これは,それらの語が,実体概念を表すという名詞本来の機能を越えて,対象に対して話者の抱いた微妙なニュアンスを伝えるような機能を持ち,文法上,他の名詞とは異なる用法を有することを意味している.訳語選択の観点から見ると,従来,動詞の訳し分けでは,結合価文法が有効であることが知られており,大規模な結合価パターン辞書(池原ほか1997)が開発されたことによって,その翻訳精度は大幅に向上した.これに対して,名詞の訳し分けの研究としては,結合価文法で定義された名詞の意味属性を用いることの有効性を検証した研究(桐澤ほか1997)や形容詞に修飾された名詞についての訳し分けなどがあるが,動詞の場合に比べて得られる効果は小さい.名詞は動詞に比べてその種類も多く意味が多彩である(笠原ほか1997).なかでも,抽象名詞は本来の名詞としての機能のほか,文法的にも多彩な機能を持つため,個別に検討する必要があると考えられる.従来の抽象名詞の研究としては,形式名詞「もの」の語彙的意味と文法的意味の連続性を明らかにする目的で,これを他の抽象名詞「こと」と「ところ」を対比した研究(佐々ほか1997)がある.また,抽象名詞「こと」が,「名詞+の+こと」の形式で使用された場合を対象に,「こと」が意味的に省略可能であるか否かを述語の種類によって判定する研究(笹栗,金城1998)等もある.しかし,これらの研究では,文中での意味的役割については検討されておらず,従って,また,英語表現との対応関係も明らかでない.そこで,本検討では,抽象度の高い6種類の名詞「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文法的,意味的用法を分類し,英語表現との対応関係を調べる.このうち,名詞「の」は,多くの場合,その意味を変えることなくより抽象度の低い名詞「こと」,「もの」,「ところ」,「とき」,「わけ」,「ひと」に置き換えられることが知られている.これに着目して,本稿では,以下の2段階に分けて検討を行う.まず,単語「の」を対象に,それが,抽象名詞であるか否かを判定するための条件を示し,抽象名詞である場合について,他のどの抽象名詞に交替可能であるかを判定する方法を検討する.次に,5種類の抽象名詞「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文中での役割に着目して,用法を「語彙的意味の用法」と「文法的意味の用法」に分け,「文法的意味の用法」をさらに,「補助動詞的用法」と「非補助動詞的用法」に分類する.その後,表現形式と意味の違いに着目して,文法的,意味的用法と英語表現形式との対応表を作成する.また,得られた対応表を新聞記事の標本データに適用し,その適用範囲と適用精度を評価する. \section{抽象名詞とその用法について} \subsection{抽象名詞の概念について}従来の文法では,物理的な対象概念を表す言葉を「具象名詞」と称するのに対して,観念的な実体概念を表す言葉を「抽象名詞」と呼んでいる。これに対して,本検討では,具体から抽象へ向かう実体概念の把握において,高度に抽象化された実体概念を表現する言葉を「抽象名詞」と呼び\footnote{学校文法では、文法的機能を説明する立場から、名詞「の」、「もの」、「こと」を「形式名詞」と読んでいるが、「ところ」、「とき」、「わけ」などは「形式名詞」と呼ばれていない。これに対して、本研究では、名詞の表す対象概念の抽象度に着目して、これらの名詞も合わせて「抽象名詞」と呼ぶ},対象が物理的であるか観念的であるかの区別はしない.認識論的な品詞分類の観点(時枝1950)から見れば,名詞は,個別的な実体をある種類に属するものとして普遍的に把握し,その種類の持つ特殊性に応じて表現するための言葉だとされる.一般に,言語表現では,万人に共通する対象のあり方がそのまま表現されているわけではなく,対象のあり方が話者の認識を通して表現されている.そのため,同一の対象を表現する場合でも,人と場合によって認識の仕方は異なり,それに応じた言葉が使用される.例えば,名詞「魚」は,「虫」や「鳥」と区別して対象を表すときに使用されるが,これらを区別する必要のない時は,より抽象度の高い言葉として「動物」が使用される.「生物」と「無生物」の区別を必要としないときは,さらに抽象度の高い「もの」が使用される.また,行動を固定してとらえ,客体化した概念を表現する名詞として「働き」,「眠り」などが使用されるが,これらを区別しないときは,より抽象的な「こと」が使用される.このように,言語表現では,話者の対象に対する個別性と普遍性の認識に適合する抽象度の言葉が使用される.ここで,名詞「もの」と名詞「こと」は,それぞれ物理的実体と観念的実体を代表する最も抽象度の高い名詞であるが,さらに抽象度の高い言葉として名詞「の」がある.「の」は,両者の区別を必要としない場合に使われることから,日本語において最も抽象度の高い言葉と言える.また,逆に,「もの」,「こと」より,若干,抽象度の低い名詞としては,「ところ」,「とき」,「わけ」,「あいだ」,「ばかり」,「ほど」等がある\footnote{「日本語語彙体系」(池原ほか1997)では、このような名詞の表す概念の抽象度の関係が、名詞意味属性の包含関係(is-a関係)として、12段階の木構造に整理されている}.ところで,名詞「の」は,機械翻訳において最も翻訳が困難な名詞の一つであるが,文脈によって,他の抽象名詞「もの」,「こと」,「ところ」,「とき」,「わけ」,「ひと」に置き換えられる(交替現象)から,名詞「の」を翻訳するには,置き換えられた抽象名詞の翻訳方法に従えばよいと考えられる.そこで,本検討では,「の」の交替現象の解析方法と交替後の抽象名詞の翻訳方法について検討する.但し,置き換え先となる抽象名詞のうち,「ひと」の翻訳方法は比較的単純であるため検討対象外とする.\subsection{抽象名詞の用法}{\bf(1)抽象名詞「の」の対象範囲について}抽象名詞の中でも,「の」の用法は多彩であり,従来,その意味と機能の面から国語学者によってさまざまな解釈がされている(大野,柴田1976).本検討では,言語過程説の立場(時枝1941;三浦1967,1975)から提案された抽象名詞「の」の定義(宮崎ほか1995)に従う.従来の学校文法との違いは,表1の通りである.\begin{table}[htbp]\caption{抽象名詞「の」範囲}\begin{center}\begin{tabular}{|c|c|}\hline学校文法での解釈&本検討での扱い\\\hline形式名詞「の」&\\準体助詞「の」&抽象名詞\\終助詞「の」&\\\hline接続助詞「ので」&抽象名詞「の」+格助詞「で」\\&抽象名詞「の」+肯定判断の助動詞「だ」の連体形「で」\\\hline接続助詞「のに」&抽象名詞「の」+格助詞「に」\\\hline終助詞「のだ」&抽象名詞「の」+肯定判断の助動詞「だ」\\\hline\end{tabular}\end{center}\end{table}{\bf(2)抽象名詞の用法分類}英語でも日本語と同様,抽象度に応じて対象概念を表現する名詞があり,本検討で対象とする日本語抽象名詞には,おおよそ以下の英語が対応する.「の」:one,thing,「もの」:thing,「こと」:thing,matter,affair,「ところ」:place,「わけ」:reason,「とき」:timeしかし,これらの単語の場合,その表す概念は必ずしも一致しないだけでなく,本来の意味から転じてさまざまな用法が発達しているため,その訳し方は単純でない.例えば,下記の例文1では,「もの」に対する名詞訳語は存在せず,過去の習慣の意味で,連語"usedto"によって訳されている.また,例文2は,「とき」に係っている節をまとめあげて後置する節へ接続する機能を持ち,英語表現では接続詞"when"に訳されている.\vspace{6pt}例文1:子供の時はいつも学校へ歩いて行った\underline{もの}です.Asachild,I\underline{used}alwaystowalktoschool.例文2:桜のきれいな\underline{とき}に日本に来たい.IwouldliketocometoJapan\underline{when}thecherryblossomsarepretty.\vspace{6pt}そこで,本検討では,抽象名詞が実体概念を表すという名詞本来の意味で使用されている場合(「語彙的意味の用法」と呼ぶ)と,本来の意味を失って,文法的な機能を持つ言葉として使用されている場合(「文法的意味の用法」と呼ぶ)を区別する.ここで,「語彙的意味の用法」とは,例文3のような場合である.この文では,抽象名詞「ところ」は本来の意味で"place"に訳されている.また,「文法的意味の用法」とは,例文4のような場合である.抽象名詞は語彙的な意味が薄れ,接続助詞や助動詞のように,文法的な意味を有する機能語として使用される.\vspace{6pt}例文3:分からない\underline{ところ}は兄が教えてくれました.Myelderbrotherexplainedtome\underline{theplaces}Ididn'tunderstand.例文4:私はその話はいくらか聞いた\underline{こと}がある.I\underline{have}heardsomethingaboutthatsubject.\vspace{6pt}この2つの用法の違いは「文法化(grammaticalization)」として説明される(HopperandTraugott1993).ここで,文法化とは,一般に語彙的意味を持つ語が機能語へ変化していくプロセスのことである.次に,「文法的意味の用法」を「補助動詞的用法」と「非補助動詞的用法」に分類する.「補助動詞的用法」は,例文4のような場合で,機能動詞を伴った文末表現として訳されることが多いのに対して,「非補助動詞的用法」は,例文5のような場合で,主に接続表現として訳される.\vspace{6pt}例文5:電話をする\underline{とき}は電話番号をよく確かめてから,かけなさい.\underline{When}youaretelephoning,makesureofthenumberbeforephoning.\vspace{6pt}以上から,本検討では,抽象名詞の用法を図1の通り分類する.\begin{figure}\begin{center}\atari(120,40)\caption{抽象名詞の分類}\end{center}\end{figure} \section{抽象名詞「の」の交替現象の解析} \subsection{抽象名詞「の」の交替現象について}本検討で対象とする6つの抽象名詞の中で,最も抽象度の高い名詞は,「の」である.この名詞は,多くの場合,意味を変えることなく,他の抽象名詞に置き換えることができる\footnote{もちろん、抽象名詞である以上、「こと」、「もの」、「ところ」、「とき」、「わけ」も、他のより具体性のある名詞に置き換え可能な場合は多いが、ここでは、それ以上の置き換えは考えない}.置き換え可能(「交替可能」)な場合と置き換え不能(「交替不能」)な場合の例を以下に示す.\vspace{6pt}{\bf[交替可能な例]}例文6:年内に景気が回復する\underline{の(こと)}は,極めてむずかしい.例文7:日本料理はなんでも食べられるが,一番好きな\underline{の(もの)}はスキヤキです.例文8:昨日,彼女がカバンを持ってバスに乗り込む\underline{の(ところ)}を見た.例文9:この前お会いした\underline{の(とき)}は,いつでしたか.例文10:彼の成績が悪い\underline{の(わけ)}は,しょっちゅう学校を休んでばかりいるからだ.\vspace{6pt}{\bf[交替不能な例]}例文11:見つかるといけない\underline{の}で,彼は隠れた.例文12:彼は勉強した\underline{の}に,試験に落ちた.例文13:きみは切符を買う必要はなかった\underline{の}だ.そこで,抽象名詞「の」の機械翻訳では,図2に示すように,他の抽象名詞に交替可能か否かを判定し,交替可能な場合は,交替後の抽象名詞として翻訳するものとする.\vspace{6pt}\begin{figure}\begin{center}\atari(120,70)\caption{抽象名詞「の」の翻訳手順}\end{center}\end{figure}\subsection{交替現象の解析規則}抽象名詞には,指示代名詞と類似した用法があり,一度文中に出現した対象を改めて取り上げるために使用される場合がある.また,逆に,初めに抽象名詞で表現した対象が,後でより具体的な名詞で表現されることもある.このような場合は,抽象名詞に対して,置き換えることのできる名詞が存在する.そこで,新聞記事\footnote{大手新聞社数社の記事から、解説記事、政治、経済、社会面等の記事を1,000文づつ(合計10,000文)取り出して、対訳を付与したもの}や小説(新潮社1995),日英機械翻訳機能試験文集\footnote{英訳しにくい日本語表現(6,200文)に対訳を付け、機械翻訳の機能試験用にまとめたもの(池原1994)},日本語問題集(名柄監修1987)から得られた抽象名詞「の」の用例を対象に,後置する単語の種類,文型,係り受け関係などに着目して,置き換えを可能とする条件と置き換え先の抽象名詞を決定する方法について検討した.その結果を表2に示す.\begin{table}[htbp]\caption{「の」の交替現象の解析規則}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\hline{\verb+#+}&区分&\multicolumn{3}{|c|}{「の」の交替現象の判定条件}&判定結果\\\hline&&\multicolumn{2}{|c|}{後置単語による判定}&助動詞「だ」の場合&格助詞「の」+助動詞「だ」\\\cline{5-6}&&\multicolumn{2}{|c|}{}&接続助詞「に」の場合&接続助詞「のに」\\\cline{5-6}1&交替不能&\multicolumn{2}{|c|}{「の」に後置する単語が}&接続助詞「で」の場合&接続助詞「ので」\\\cline{5-6}&の判定&\multicolumn{2}{|c|}{助動詞,接続助詞,}&終助詞「か」の場合&終助詞「のか」\\\cline{5-6}&&\multicolumn{2}{|c|}{終助詞の場合}&終助詞「よ」の場合&終助詞「のよ」\\\cline{5-6}&&\multicolumn{2}{|c|}{}&終助詞「ね」の場合&終助詞「のね」\\\hline2&&前置単語による判定&\multicolumn{2}{|c|}{形容詞が単独で係っている場合}&「もの」に置換\\\cline{1-1}\cline{3-6}3&&文型による判定&\multicolumn{2}{|c|}{「〜するのは,〜からだ」の文型の場合}&「わけ」に置換\\\cline{1-1}\cline{3-6}4&交替可能&&係り先が&「見る」「発見する」の場合&「ところ」に置換\\\cline{1-1}\cline{5-6}5&の判定&&動詞の場合&その他の用言の場合&「もの」に置換\\\cline{1-1}\cline{4-6}&&係り先による判定&&<時詞>の場合&「とき」に置換\\\cline{5-6}6&&&係り先が&<{\verb+#+}4人>の場合&「ひと」に置換\\\cline{5-6}&&&名詞の場合&<{\verb+#+}1000抽象>の場合&「こと」に置換\\\cline{5-6}&&&&その他の名詞の場合&「もの」に置換\\\hline\end{tabular}\end{center}\end{table}表で,<時詞>の形式の表記は,名詞の文法的属性を表し,<{\verb+#+}4人>,<{\verb+#+}1000抽象>の表記は,「日本語語彙大系」で定義された「意味属性体系」上の一般名詞意味属性を表す\footnote{本検討では名詞の文法的属性として、「言語過程説に基づく日本語品詞の体系化とその効用」(宮崎ほか1995)の品詞体系を使用し、意味属性体系として「日本語語彙体系」(池原ほか1997)に掲載されている一般名詞意味属性体系を用いる。一般名詞意味属性体系は、約40万語の一般名詞の意味的用法を2,710のカテゴリに分類し、意味属性としてラベル付けされている}.各規則は番号順に適用される\footnote{文法的属性と意味的属性は形態素解析の結果を使用する。また、係り受け関係などの構文情報は構文解析結果を使用する}.以下,本節では,各規則の概要を説明する.{\bf(1)交替不能の判定}交替現象の解析では,まず,抽象名詞「の」が,他の抽象名詞に交替可能か否かを判定する.表1の{\verb+#+}1は,そのための規則である.学校文法で,接続助詞とされる「ので」,「のに」,および,終助詞とされる「のだ」に相当する表現は,高度に文法化した用法であり,他の抽象名詞に置き換えることができない(例文11-13参照).これらの用法に該当するか否かについては,「の」に後置する単語の品詞を調べることによって判定することとし,判定後は,表に示されたような解釈とする.なお,接続助詞的用法である「ので」,「のに」については,順接複文を構成する「ので」と逆接複文を構成する「のに」の研究(西沢ほか1995)など,多くの先行研究があるため,以下では,対象外とする.規則{\verb+#+}1で交替不能と判定されなかった場合は,以下に述べるように,{\verb+#+}2以降の規則を順に適用し,置き換え先の抽象名詞を決定する.\vspace{6pt}{\bf(2)後置単語による判定}前置単語を調べる.前置単語が形容詞(形容動詞を含む)で,節を構成せずに名詞「の」に単独で係っている場合は,「もの」に交替させる(例文7参照).そのための規則が,表2の{\verb+#+}2である.\vspace{6pt}{\bf(3)文型による判定}抽象名詞「の」の使用された文型を調べる.文型が,「〜する(な)のは,〜からだ」の形式を持つときは,{\verb+#+}3の規則によって,「わけ」に交替させる(例文10参照).\vspace{6pt}{\bf(4)係り先による判定(動詞に係る場合)}係り先を調べる.係り先が,知覚動詞の場合は,「ところ」に交替させる.「ところ」には空間的な位置や場所を表す場合,抽象的な事柄についての位置や場面を表す場合,時間的な断面を表す場合などがある.例文8は,場面を表している.係り先となる知覚動詞としては,「見る」,「発見する」が代表的であるので,規則{\verb+#+}4では,これを規則に使用した.これに対して,抽象名詞「の」の係り先が,その他の動詞である場合は,規則{\verb+#+}5によって「もの」に交替させる.\vspace{6pt}{\bf(5)係り先による判定(名詞に係る場合)}最後に,係り先が名詞であるかどうかを調べる.すでに述べたように概念化の過程で,抽象化が進むと,殆どの名詞は,「こと」,「もの」,「ところ」,「とき」,「わけ」,「ひと」の何れかに縮退されるが,どの名詞に縮退されるかは,名詞の文法的・意味的範疇から判断できる.ここでは,名詞の文法的属性と意味的属性の体系を使用して判断することとし,交替先の抽象名詞を規則{\verb+#+}6のように定める.従って,例えば,例文14では,抽象名詞「の」は,「灯台の明かり」に係っており,「灯台の明かり」は,物理的実体概念として意味属性<{\verb+#+}1具体>の配下にあるため,「もの」に交替させる.\vspace{6pt}例文14:遠くの方でぴかぴか光っている\underline{の(もの)}は,夜の海を照らす灯台の明かりです. \section{抽象名詞の用法と英語表現の対応関係} すでに述べたように,抽象名詞「の」では,あらかじめ交替現象の解析によって交替先の抽象名詞を決定するものとした.そこで,本章では,交替先となる「こと」,「もの」,「ところ」,「とき」,「わけ」の5種類の抽象名詞の用法と英語表現との関係を検討する.具体的には,3章で使用した文献と同一の文献\footnote{新聞記事10,000文、新潮文庫、翻訳機能試験文集、日本語問題集の4種}からこれらの抽象名詞の用例を収集し,その用法を第2章で述べたように,「語彙的意味の用法」,「補助動詞的用法」,「非補助動詞的用法」に分類した後,用法と意味を,その前後に現れる語に着目して細分類し,対応する英語表現を表3(「日英対応表」)にまとめた。以下,各抽象名詞の用法と英語表現との対応表を示す.\subsection{「こと」の用法と英語表現}「こと」は係っている語によって,「語彙的意味の用法」と「文法的意味の用法」に分類する.具体的には,係っている語が節を成していないか,一語だけであるとき,「語彙的意味の用法」とし,それ以外を「文法的意味の用法」とする.\begin{table}[htbp]\caption{日英対応表(「こと」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\hline区分&\multicolumn{3}{|c|}{表現形式}&意味&英語表現\\\hline&\multicolumn{3}{|c|}{名詞+の+こと}&内容&about+名詞\\\cline{5-6}語彙的意味の用法&\multicolumn{3}{|c|}{}&−&名詞のみの訳語\\\cline{2-6}&\multicolumn{2}{|c|}{連体詞+コト}&あの,あんな&指示&that\\\cline{4-4}\cline{6-6}&\multicolumn{2}{|c|}{}&この,こんな&&this\\\cline{4-4}\cline{6-6}&\multicolumn{2}{|c|}{}&どんな&&what\\\cline{2-6}&\multicolumn{3}{|c|}{形容詞+こと}&−&形容詞の訳語\\\cline{2-6}&\multicolumn{3}{|c|}{形容動詞+こと}&−&形容動詞+matter\\\cline{2-6}&\multicolumn{3}{|c|}{動詞+こと}&動作&to+動詞,動詞ing\\\hline&\multicolumn{3}{|c|}{ことになる}&予定&will\\\cline{5-6}補助動詞的用法&\multicolumn{3}{|c|}{}&事象の成立&decide\\\cline{2-6}&\multicolumn{3}{|c|}{ことができる}&可能&can(beableto)\\\cline{2-6}&ことにする&\multicolumn{2}{|c|}{したことにする}&偽りの事象&assume\\\cline{3-6}&&\multicolumn{2}{|c|}{することにする}&決定&decideto\\\cline{2-6}&\multicolumn{3}{|c|}{ことが多い}&短期間の反復&frenquently\\\cline{5-6}&\multicolumn{3}{|c|}{}&傾向&tendto\\\cline{5-6}&\multicolumn{3}{|c|}{}&通例&usually\\\cline{5-6}&\multicolumn{3}{|c|}{}&頻度&often\\\cline{2-6}&ことがある&\multicolumn{2}{|c|}{したことがある}&過去の経験&havebeen\\\cline{5-6}&&\multicolumn{2}{|c|}{}&過去の習慣&usedto\\\cline{3-6}&&\multicolumn{2}{|c|}{することがある}&可能性&therearetimes\\\cline{5-6}&&\multicolumn{2}{|c|}{}&頻度&sometimes\\\cline{5-6}&&\multicolumn{2}{|c|}{}&頻度&frequently\\\cline{3-6}&&\multicolumn{2}{|c|}{したいことがある}&要求の存在&thereisonething\\\cline{5-6}&&\multicolumn{2}{|c|}{}&要求の存在&haveafavor\\&&\multicolumn{2}{|c|}{}&(依頼の動詞を伴う)&\\\cline{5-6}&&\multicolumn{2}{|c|}{}&要求の存在&havesomething\\&&\multicolumn{2}{|c|}{}&(内容が不明瞭)&\\\hline&\multicolumn{2}{|c|}{{\itX}+こと}&主格無し&&{\itV}to{\itX}\\\cline{4-4}\cline{6-6}非補助動詞的用法&\multicolumn{2}{|c|}{+格助詞+動詞}&主格有り&&{\itV}that{\itX}\\\cline{2-4}\cline{6-6}&\multicolumn{2}{|c|}{{\itX1}は{\itX2}だ}&主格有り&&Itis〜that\\\cline{4-4}\cline{6-6}&\multicolumn{2}{|c|}{}&主格無し&&Itis〜to\\\cline{2-4}\cline{6-6}&\multicolumn{3}{|c|}{{\itX}+こと+から}&&because〜\\\cline{2-4}\cline{6-6}&\multicolumn{3}{|c|}{{\itX}+こと+で}&&with〜\\\hline\end{tabular}\end{center}\end{table}次に,「こと」が機能動詞を伴って現れる場合を「補助動詞的用法」とし,それ以外を「非補助動詞的用法」とする.それぞれの詳細と英語表現との対応関係を表3に示す.ここで,表中の最上欄の「名詞+の+こと」に該当する例文を示す.\vspace{6pt}例文15:私は彼の\underline{こと}を知らない.Idon'tknow\underline{about}him.例文16:彼女は彼の\underline{こと}が嫌いだ.Shedoesnotlikehim.\vspace{6pt}これらの例文には,いずれも「彼のこと」という表現が含まれている.このうち,例文15は,「彼」についての属性(年齢や職業などの「彼」にまつわる事柄)を表し,英語では,''abouthim''が用いられている.これに対して,例文16では,「彼」そのものの意味で,英語では,単に,''him''が使用されている.また,例文17は,第3章の交替現象解析の規則が適用される例で,「の」が用言に係っていることから「こと」に交替した後,表3が適用され,"that"が使用される.\vspace{6pt}例文17:その場合,環境問題は多様であり,国,企業,専門家,非政府組織(NGO)など多様な層で構成する\underline{の}が望ましい.<訳語:「こと」に交替後that>\subsection{「もの」,「ところ」,「とき」,「わけ」の用法と英語表現}「もの」では,文中の「もの」が用言の格要素の名詞として用いられ,かつ表4で示された「補助動詞的用法」と「非補助動詞的用法」の表現形式以外の場合を「語彙的意味の用法」とする.この分類方法は,「ところ」,「とき」,「わけ」も同様である.以上4種類の抽象名詞の用法と英語表現の対応を表4〜表7に示す.ここで,「もの」(表4),「ところ」(表5)の規則では,語彙的意味の用法の場合,表層的な表現形式から英語表現を決定することは困難であり,「もの」もしくは「ところ」に相当する名詞を文脈によって特定し,その意味を調べる必要がある点に注意が必要である。ところで,語彙的意味の用法では,抽象名詞が,埋め込み修飾節に対して「内の関係」で使用されているから,結合価パターン(池原ほか1997)を使用した埋め込み文解析が適用できて,先行詞である名詞の文中での意味属性(意味的用法)が決定できる。そこで,得られた名詞の意味属性から対応する表の意味を決定する。以上の日英対応表の適用例を以下に示す.\vspace{6pt}例文18:名詞はこんなに信用させる\underline{もの}なのに簡単に作ることができる.<訳語:thing>例文19:あと数十センチでぶつかる\underline{ところ}だったが,赴任して二週間,危ない目にあったのは,これが初めてではない.<訳語:beaboutto>\vspace{6pt}例文18は「もの」が語彙的意味で用いられ,訳語は"thing"が使用される.例文19は「ところ」が補助動詞的用法で用いられ,動作の直前を表す''beaboutto''が訳語候補となる.\begin{table}[htbp]\caption{日英対応表(「もの」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|}\hline区分&表現形式&意味&英語表現\\\hline&&有形の物&thing\\\cline{3-4}語彙的意味の用法&&品物&article\\\cline{3-4}&&物質&goods\\\cline{3-4}&&材料&material\\\cline{3-4}&&資源&resource\\\cline{3-4}&&所有物&possession\\\cline{3-4}&&物理&thing,matter\\\cline{3-4}&&道理&reason\\\cline{3-4}&&者&person\\\hline&ものだ&当然の帰結&\\\cline{2-3}補助動詞的用法&ものとする&決断&なし\\\cline{2-3}&ものである&断定&\\\cline{2-4}&〜もの.&−&itbe-ed\\\cline{2-4}&ようなものだ(主語が人)&比喩&should\\\cline{2-2}\cline{4-4}&ようなものだ(主語が人以外)&&like\\\hline&もので〜&利用&by-ing\\\cline{3-4}非補助動詞的用法&&前述&−\\\cline{2-4}&〜ものと〜&−&that\\\cline{2-4}&ものの&逆接&thought,but\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{日英対応表(「ところ」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|}\hline区分&表現形式&意味&英語表現\\\hline&&場所&place\\\cline{3-4}語彙的意味の用法&&住所&place\\\cline{3-4}&&個所&passage\\\cline{3-4}&&点&point\\\cline{3-4}&&特徴&feature\\\cline{3-4}&&時&time\\\cline{3-4}&&事&thing\\\hline&するところだ&動作の直前&beaboutto\\\cline{2-4}補助動詞的用法&したところだ&動作の直後&havejust-ed\\\cline{2-4}&しているところだ&動作の進行&just\\\cline{2-4}&したいところだ&動作の希望&なし\\\cline{2-4}&しようとするところだ&動作の寸前&justbeaboutto\\\hline&〜ところ,〜&&なし\\\cline{2-2}\cline{4-4}非補助動詞的用法&するところに〜&&justas\\\cline{2-2}\cline{4-4}&しているところを〜&&inactof-ing\\\cline{2-2}\cline{4-4}&しているところに〜&&when\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{日英対応表(「とき」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline区分&\multicolumn{2}{|c|}{表現形式}&意味&英語表現\\\hline&&あのとき&&then\\\cline{3-3}\cline{5-5}語彙的意味の用法&連体詞&このとき&&(at)thispointintime\\\cline{3-3}\cline{5-5}&&そのとき&&(at)thatmoment\\\hline補助動詞的用法&\multicolumn{2}{|c|}{ときがある}&時々&sometimes\\\hline&\multicolumn{2}{|c|}{動作動詞+するとき}&&when\\\cline{2-3}\cline{5-5}非補助動詞的用法&\multicolumn{2}{|c|}{形容詞+とき}&&when\\\cline{2-3}\cline{5-5}&\multicolumn{2}{|c|}{状態動詞+ているとき}&&while\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{日英対応表(「わけ」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|}\hline区分&表現形式&意味&英語表現\\\hline語彙的意味の用法&&理由&reason\\\hline&わけだ&当然&so,(itis)nowonder\\\cline{2-4}補助動詞的用法の用法&わけがない&主観的不可能&cannotpossibly\\\cline{2-4}&わけではない&否定の強調&not\\\cline{2-4}&するわけにはいかない&感情の否定&cannot,notpossibleto\\\cline{2-4}&しないわけにはいかない&義務&cannotstandbywithout-ing\\&&&cannotavoid-ing\\&&&(否定の動詞が存在する場合はcannot)\\\cline{2-4}&というわけだ&帰結&なし\\\cline{2-4}&わけはない&当然の否定&certainly\\\hline&わけで&背景&and\\\cline{3-4}非補助動詞的用法&&論拠&because\\\cline{2-4}&わけなので&論拠&because\\\hline\end{tabular}\end{center}\end{table} \section{評価と考察} 第3章で示した抽象名詞「の」の交替現象の解析規則と第4章で示した抽象名詞の個別の日英対応表を新聞記事の用例に適用したときの精度を手作業で評価した.各対応表を適用するに際しては,評価対象とする文を,あらかじめ,形態素解析プログラムmaja(高橋ほか1993)によって解析して,判定に必要な単語の文法属性と意味属性を求めると共に,構文解析プログラムALT-JAWSによって得られた構文情報を使用した.なお,テストに使用する標本は,検討で使用したものとは異なり,オープンテストである.\subsection{交替現象の解析規則の評価と考察}\subsubsection{評価結果}1995年度の毎日新聞記事から抽象名詞「の」を含む194文を取り出し,第3章の規則を適用して,交替現象の解析精度を評価した.評価結果を表8に示す.表8は,交替先である抽象名詞を正しく判断できた割合を示している.\begin{table}[htbp]\caption{「の」交替現象解析規則の評価結果}\begin{center}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|}\hline抽象名詞種別&交替&\multicolumn{7}{|c|}{交替可能}&合計\\\cline{3-9}&不能&こと&もの&ところ&とき&わけ&ひと&小計&\\\hline正解数&120&45&6&3&3&6&5&68&188\\\hline標本数&121&46&8&3&4&7&5&73&194\\\hline正解率&99%&98%&75%&100%&75%&86%&100%&93%&96.9%\\\hline\end{tabular}\end{center}\end{table}表から,以下のことが分かる.\vspace{6pt}(1)交替不能の欄のデータから,交替可否の判定では,全標本194件中,192件が正しく判定され,高い判定精度(99%)が得られたことが分かる.(2)交替不能を含む全体の解析精度は,96.9%,また,交替可能と判定されたもののうち,交替先の名詞が正しく決定されたのは,93%で,いずれも良い精度と言える.\subsubsection{考察}不正解の表現には,意味辞書を変更すれば正解となる表現や動詞の情報が役立ちそうな表現などがあったが,本手法では解析が困難な表現も存在する.そこで,交替現象の解析規則の改良の可能性について考察する.(1)短絡的表現への適用性名詞は,短絡的用法や比喩的な用法などにより,本来の意味の枠を越えて使用されることがある.「の」の係り先がこのような名詞の場合,作成した規則は適用できない.\vspace{6pt}例文20:その時でさえ飲める\underline{の}は,僅に喉をうるおすに足る少量である.\vspace{6pt}例えば,例文20は,「の」の係り先が「少量」という名詞であり,意味属性体系上では({\verb+#+}1000抽象)の配下に属するために,本論文の規則では「こと」に交替されるが,正解は「もの」である.これは,「少量の液体」,もしくは,「少量の酒」などというべきところを短絡的に「少量」と表現していることが原因である.このような現象に対応するためには,短絡的表現と比喩に関する解析規則を併用することが必要と考えられる.\vspace{6pt}(2)動詞情報の必要性抽象名詞「の」の交替先の解析で,係り先が動詞となる場合は,その動詞の意味をより細かく分類する必要があると考えられる.\vspace{6pt}例文21:ショーウィンドウのガラスに映った\underline{の}をチラリと眺めると\vspace{6pt}例えば,例文21は「の」の係り先が用言であるために,本規則では,交替先は「こと」と判断されるが,正解は「もの」である.ここで,「眺める」に着目すると「ことを眺める」とは言いがたく,「ものを眺める」であることが分かる.\vspace{6pt}(3)文脈情報の必要性与えられた1文だけでは,交替先を決定できない場合として,下記のような例がある.\vspace{6pt}例文22:テーブル(が/は)新しい\underline{の}に置き換えられた.\vspace{6pt}この例文22は,2通りの解釈が存在する.一つは,「テーブルは,まだ新しいのに,置き換えられた」のであり,何に置き換えられたのかは不明である.この場合,「のに」は,接続助詞的な用法となる.もう一つの解釈は,「テーブルは,別の新しいテーブルに置き換えられた」と言う場合であり,この場合,「の」は,名詞「テーブル」の代わりに使用された抽象名詞であるから,「に」は,格助詞の解釈となる.この文では,主題提示の文節で助詞「が」が使用されている場合は,おおよそ,後者の意味だろうと思われるが,助詞「は」が使用された場合は,前者の解釈の可能性も増してくる.いずれにしてもこのように,決め手のないような文では,文脈情報が必要である.\vspace{1em}\subsection{日英対応表の評価と考察}\subsubsection{評価結果}1995年度の毎日新聞記事より,「こと」,「もの」,「ところ」,「わけ」,「とき」を含む合計741文を対象に日英対応表を適用し,翻訳結果を求めた.評価では,原文と該当場所に対して得られた翻訳結果を翻訳家に提示し,以下の3段階の基準で評価してもらった.○:適切である.△:意味は通じるが,より良い翻訳方法がある.×:不正解評価結果を表9に示す.\begin{table}[htbp]\caption{抽象名詞に対する日英対応表の評価結果}\begin{center}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|}\hline\multicolumn{3}{|c|}{区分}&項目&こと&もの&ところ&とき&わけ&小計\\\hline\multicolumn{3}{|c|}{}&標本数&187&186&182&90&96&741\\\cline{4-10}\multicolumn{3}{|c|}{カバー率}&対応表適用数&161&147&158&78&85&629\\\cline{4-10}\multicolumn{3}{|c|}{}&カバー率&86.1%&79.0%&86.8%&86.7%&90.6%&85%\\\hline&\multicolumn{2}{|c|}{}&標本数&31&53&108&3&0&213\\\cline{4-10}&\multicolumn{2}{|c|}{語彙的意味を}&○+△&20&31&57&0&0&115\\\cline{4-10}&\multicolumn{2}{|c|}{持つもの}&△&4&16&26&0&0&46\\\cline{4-10}&\multicolumn{2}{|c|}{}&正解率&65%&58%&53%&0%&---&54%\\\cline{2-10}&&&標本数&34&59&5&1&82&181\\\cline{4-10}正&&補助動詞&○+△&25&56&5&1&53&140\\\cline{4-10}&文法的&的用法&△&1&0&2&0&3&6\\\cline{4-10}解&意味を&&正解率&74%&95%&100%&100%&65%&77%\\\cline{3-10}&持つ&&標本数&96&35&45&74&3&329\\\cline{4-10}率&もの&非補助動&○+△&68&35&35&72&2&262\\\cline{4-10}&&詞的用法&△&9&0&0&21&0&72\\\cline{4-10}&&&正解率&71%&100%&78%&97%&67%&80%\\\cline{2-10}&\multicolumn{2}{|c|}{}&○+△&113&122&97&73&55&460\\\cline{4-10}&\multicolumn{2}{|c|}{合計}&△&14&16&28&21&3&82\\\cline{4-10}&\multicolumn{2}{|c|}{}&正解率&70%&83%&61%&55%&63%&73.1%\\\hline\end{tabular}\end{center}\end{table}この表から以下のことが分かる.\vspace{6pt}(1)対応表全体のカバー率は,85%で,比較的広い範囲の表現に適用できる.(2)5種類の抽象名詞の中で,最大の正解率は「もの」(83%),最低の正解率は,「とき」(55%)である.また.平均の正解率は,73%である.(3)用法の違いから見ると,「文法的用法」の場合に比べて,「意味的用法」の場合の精度が悪い.\vspace{6pt}交替現象の解析精度に比較すると,各抽象名詞の翻訳精度は,あまり良いとは言えないが,従来,この種の名詞の翻訳は,困難な問題の一つであったのに対して,解決のための糸口が得られた\footnote{抽象名詞の意味解析は、指示代名詞の照応解析と似た側面があることについては、既に述べたが、この精度は、従来の指示代名詞の照応解析(村田、長尾1996,1997a,1997b,吉見1997)の解析精度(カバー率77%、適合率79%)と、ほぼ同じ値である}.\subsubsection{失敗例と日英対応表改良の可能性}失敗した例を見ると,現状で使用している情報の範囲で,改良が可能と思われるものもあるが,多くは,本検討で使用しなかった情報を必要としている.以下では,その例を挙げて,今後の問題点について考察する.(1)追加登録の可能性対応表が使用できなかった例の中には,未登録であった表現を登録するか,既に登録されている表現に対する英語表現を変更することで改善する表現がある.\vspace{6pt}例文23:こうした工作が功を奏したのか,今の\underline{ところ},ムーディーズは三行の長期債を格下げしていない.例文24:「ビジネスの現場が望んでいるのは,これらの地道な措置」という\underline{わけ}だ.\vspace{6pt}例文23は,「今のところ」が"now"と訳され,語彙的意味である「ところ」の直接の訳語は現れない.このような決まり文句は,登録することで改善できる.また,例文24は「というわけだ」という表現を含む文である.本対応表では「というわけだ」は訳語として現れないとしているが,この場合の正解は''thepointis''となっており,誤りと判定されたが,微妙である.意味の強調と考えて,''thepointis''と訳出する方がよいとすれば,「というわけだ」に対する英語表現を変更することで改善できる.\vspace{6pt}(2)類推の必要性表記レベルの解析では訳語を特定するのが困難な場合で,単語間の意味的関係をネットワークとして体系化した新たな概念体系や世界の一般知識を必要とする場合として,以下のような例がある.\vspace{6pt}例25:特に,第三のグループがかなりの\underline{もの}になって鼎立関係になるのか,キャスチングボートを握るようになるのか.\vspace{6pt}この文の場合,本稿の対応表では,「もの」が''thing''と訳されるが,正解は,''force''である.この一文から「もの」の訳語として''force''を導くのは,大変困難と思われる.「鼎立関係」や「キャスチングボート(を握る)」などの語から連想する仕掛けが可能かどうかについて,今後の検討する必要がある.\vspace{6pt}(3)文脈,常識の必要性評価データの中には一文だけでは訳語が特定できない表現がある.\vspace{6pt}例文26:青年海外協力隊などを想定した\underline{ところ}が多く,国内の災害を想定したのは少なかったためだ.\vspace{6pt}例文26では,「ところ」が語彙的意味で用いられ,場所の意味で使用されているという判断から"place"が訳語候補として選択された.しかし,実際にはこの一文だけで「ところ」の訳語を決定することは難しい.この場合,「想定した」に対する主格の補完機能があれば,格関係の解析から決定できると考えられる.すなわち,その場合は,底の名詞である抽象名詞が埋め込み文において内の関係であるとき,抽象名詞の指し示す概念を前後の文から補完し,補完された名詞の種類によって訳語を決定すればよい.\vspace{1em} \section{おわりに} 抽象名詞「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,英語表現を決定するための日英対応表について検討した.具体的には,まず,「の」について,他の抽象名詞への交替現象に着目して,意味的に置き換え可能であるか否かを判定する規則と置き替え可能な場合について置き換え先の名詞を決定するための規則を作成した.次に,「の」を除く各抽象名詞の用法を「語彙的意味の用法」と「文法的意味の用法」に分類し,このうち,「文法的意味の用法」を,さらに,「補助動詞的用法」と「非補助動詞的用法」に分類して,日英対応表を作成した.また,作成した日英対応表を新聞記事の例文に適用し,その精度を評価した.その結果によれば,交替現象の解析では,正解率97%の精度が得られたのに対して,個別の抽象名詞に対する対応表の精度は,平均カバー率89%,平均正解率73%であった.この精度は,あまり高い精度とは言えないが,従来,難問の一つとされてきた抽象名詞の翻訳において,翻訳方式を決定する上で,有力な手がかりが得られたと考えられる.今後は,誤り分析の結果に基づき,動詞の意味情報の詳細化を行うと共に,文脈,一般常識を使用した推論,補完技術などを組み合わた翻訳方式について検討していきたい.\bibliographystyle{jnlpbbl}\bibliography{ikebib}\begin{biography}\biotitle{略歴}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学院修士課程終了.同年日本電信電話公社に入社.数式処理、トラフィック理論,自然言語処理の研究に従事.1996年スタンフォード大学客員教授.現在、鳥取大学工学部教授.工学博士.1982年情報処理学会論文賞,1993年同研究賞,1995年日本科学技術情報センタ賞(学術賞),同年人工知能学会論文賞受賞.電子情報通信学会,人工知能学会,言語処理学会,各会員}\bioauthor{村上仁一}{1984年筑波大学第3学群基礎工学類卒.1986年筑波大学修士課程理工学研究科理工学専攻修了.1996年NTTに入社.NTT情報通信処理研究所に勤務.1991年国際通信基礎研究所(ATR)自動翻訳電話研究所に出向.1994年NTT情報通信研究所1997年鳥取大学工学部知能情報工学科現在に至る.主に音声認識のための言語処理の研究に従事電子通信情報処理学会,日本音響学会,言語処理学会,各会員.}\bioauthor{車井登}{1999年3月鳥取大学工学部知能情報学科卒1999年4月鳥取大学大学院工学研究科知能情報工学専攻入学2000年3月鳥取大学工学部工学研究科知能情報工学専攻修了2000年4月富士通株式会社に入社ソフトウェア事業本部に所属現在にいたる.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V14N04-01
\section{はじめに} \label{intro}近年,自然言語処理の分野では,大規模な言語資源を利用した統計的手法が研究の中心となっている.特に,構文木付きコーパスは,統計的手法に基づく言語処理の高性能化のためだけでなく,言語学や言語処理研究の基本データとしても貴重な資源である.そのため,大規模な構文木付きコーパスの作成が必要となっている.しかし,大規模な構文木付きコーパスを全て人手により作成することは,多大なコストを必要とするため困難である.一方,現在の構文解析の精度では,構文木の付与を完全に自動化することが難しい.現実的には,構文解析器の出力から人手によって正しい構文木を選択し,それを文に付与することが望ましい.コーパス作成中には,文法や品詞体系の変更など,コーパス作成方針の変更により,コーパスへの修正が必要になることもあり,継続的な修正作業や不整合の除去などの機能を持った構文木付きコーパスの作成を支援するシステムが必要になる\cite{cunningham:2003:a}\cite{plaehn:2000:a}.このようなシステムの多くは,GUIツールを用いて,構文木付けをするコーパスのファイル形式や品詞ラベルの不整合を防ぐことにより,コーパス作成者を支援するのが主な機能である.しかし,それだけでは,正しい構文木付きコーパスの作成には,不十分であり,構文木の一貫性を保つための支援が必要となる.構文木の一貫性を保つための支援として,過去の事例を参照することは有効である.複数の構文木候補のうち,正しい木の選択を迷った場合に,すでに構文木を付与されたコーパス中から,作業中の構文木と類似した部分を持つ構文木を参照できれば,正しい構文木付けが容易になり,一貫性を保つための支援ができる.このためには,構文木付きコーパスを検索対象とし,木構造の検索が可能な構文木付きコーパス検索システムが必要となる.構文木付きコーパス検索システムは,木構造検索を行うことになるため,UNIXの文字列検索コマンド$grep$などの文字列検索よりも検索に時間を要することが多い.既存の構文木付きコーパス検索システム\cite{randall:2000:a,rohde:2001:a,konig:2003:a,bird:2004:a}においても,主な課題として,検索時間の高速化が挙げられているが,検索時間を高速化する優れた手法はまだ提案されていない.今後,コーパスの規模が更に大きくなると,検索時間の高速化は不可欠な技術となる.本論文では,高速な構文木付きコーパス検索手法を提案する.本論文で提案する検索手法は,構文木付きコーパスを関係データベースに格納し,検索にはSQLを用いる.部分木を検索のクエリとして与え,クエリと同じ構造を含む構文木を検索結果として出力する.クエリの節点数が多い場合,クエリを分割し,それぞれのクエリを別のSQL文で漸進的に検索する.クエリを分割すべきかどうか,分割するクエリの大きさや検索順序は,構文木付きコーパス中の規則の出現頻度を用いて自動的に決定する.6言語,7種類のコーパスを用いて評価実験を行い,4種類のコーパスにおいて,漸進的に検索を行う本手法により検索時間が短縮され,本手法の有効性を確認した.また,残りの3種類のコーパスにおいては,漸進的に検索を行わなくても多大な検索時間を要しないことを本手法で判定することができた.そして,クエリの分割が検索時間の短縮に効果があった4種類のコーパスと分割の効果がなかった3種類のコーパスの違いについて,コーパスに含まれる文数,ラベルの頻度,節点の平均分岐数の観点から考察を行い,節点の平均分岐数がその一因であることを確認した. \section{構文木付きコーパスのデータベース化} \label{database}構文木をデータベース化する手法として,XML文書を関係データベースを用いてデータベース化する吉川らの手法を適用した\cite{yoshikawa:1999:a}.吉川らの手法は,クエリとしてXPathを用い,XML文書を関係データベースに格納する.XPathとは,W3Cにより勧告されたXML文書中の特定の構文を表現する記述方法である.XML文書を検索する場合,クエリであるXPathをSQL文に変換し,クエリを含むXML文書を検索する.吉川らの手法の大きな特徴は,検索が高速である点である.その理由は,XML文書の木構造の各節点を出現位置という2つの数字で表現し,その大小関係により,節点の親子関係や兄弟関係を表現する点にある.本手法では,構文木の構造をXML文書の構文構造に対応させ,データベース化を行った.\subsection{出現位置}構文木をデータベースに格納するにあたり,構文木中の各節点対して,出現位置と呼ばれる節点間の関係を計算するための2つの数字を与える.出現位置は,({\itleft\_position},{\itright\_position})の対で表現され,次のアルゴリズムにより決定する.\begin{itemize}\item葉\\左端からN番目の葉に対する出現位置は,(N,N)という整数値の対を与える.\item葉以外の節点\\変数{\itposition}を1以下の微小値$\alpha$で初期化する.根から深さ優先探索で辿り,節点を辿るときに$\alpha$を{\itposition}に加算し,葉を辿るきに葉の{\itleft\_position}または{\itright\_position}の値を代入する.節点を最初に通過するとき変数{\itposition}の値を{\itleft\_position}として,最後に通過するときに{\itright\_position}として決定する.ただし,$\alpha$は,木の最大の深さの逆数よりも小さい値でなければならない.\end{itemize}このアルゴリズムで決定した出現位置の例を\figurename\ref{fig:tree-yoshikawa}に示す.また,このように各節点に出現位置を与えることで,\figurename\ref{fig:yoshikawa-hougan}のように節点間の関係を出現位置の大小関係で表現することができる.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f1.eps}\caption{出現位置の例}\label{fig:tree-yoshikawa}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f2.eps}\caption{包含関係と先行関係}\label{fig:yoshikawa-hougan}\end{center}\end{figure}\subsection{関係データベースへの格納}前節で計算した出現位置とともに各節点の情報を関係データベースに格納する.データベースは,{\itNodeTable},{\itDocumentTable},{\itLabelTable}の3つのテーブルにより構成される.テーブルの例をそれぞれ表\ref{tbl:node},\ref{tbl:doc},\ref{tbl:label}に示す.{\itNodeTable}は,構文木を構成する各節点に関する情報を格納する.各項目は,{\itID}が節点固有の値,{\itparentID}が節点の親の{\itID},{\itdocID}が節点を含む構文木の{\itID},{\itlabelID}が節点のラベルの{\itID},{\itnextSibID}が節点の右隣の兄弟の{\itID},{\itl\_pos,r\_pos}が節点の出現位置を表す.{\itDocumentTable}は,構文木が記述されているファイルに関する情報を格納する.各項目は,{\itdocID}が構文木固有の値,{\itfile}が構文木が記述されているファイル名を表す.{\itLabelTable}は,コーパスに含まれる記号,単語に関する情報を格納する.各項目は,{\itlabelID}がラベル固有の値,{\itlabel}がラベル名,{\itfrequency}がコーパスにおけるラベルの頻度を表す.\begin{table}[t]\caption{NodeTable}\input{table1.txt}\end{table}\begin{table}[t]\input{table2-3.txt}\end{table} \section{構文木付きコーパスの検索手法} \label{retieve}\subsection{クエリの定義}\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f3.eps}\caption{完全一致,部分一致の例}\label{fig:query}\end{center}\end{figure}前節では,構文木付きコーパスを関係データベースに格納する方法について述べた.本手法では,木構造をクエリとし,クエリを部分木として含む文を検索する.まず,クエリの例を\figurename\ref{fig:query}に示す.図中の``$\ast$''は,任意のラベルを意味する.さらに,クエリを部分木として含むかどうかの判定方法として,完全一致と部分一致の二種類を用意した.完全一致は,クエリの各節点の分岐数とコーパス内の対応する節点の分岐数が一致しなければならない.一方,部分一致は,この分岐数が必ずしも一致する必要がない.例えば,\figurename\ref{fig:query}において,完全一致で検索した場合,(a)の木は,各節点の分岐数,ラベルが一致するためにクエリと一致すると見なす.一方,(b)の木は,分岐数が異なるため,クエリと一致すると見なさない.しかし,部分一致で検索した場合,節点の分岐数は一致する必要がないため,両方の木がクエリと一致すると見なす.\subsection{構文木をクエリとした検索手法}本手法は,吉川らの手法と同様に検索を行うためにクエリである部分木を関係データベースのデータの操作,定義,検索などを行う言語SQLの文へ変換する.そして,変換したSQL文により該当した構文木をデータベース内から検索し,クエリを部分木として含む構文木を得る.クエリとそのクエリに対応するSQL文を\figurename\ref{fig:sql}に示す.\figurename\ref{fig:sql}中のSQL文のwhere構文以降が各節点の条件式となっている.システムは,条件を満たす節点をデータベース内を検索し,すべての条件を満たす節点をもつ構文木を出力する.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f4.eps}\caption{クエリとそのSQL文の例}\label{fig:sql}\end{center}\vspace{-1.3\baselineskip}\end{figure}\subsection{予備実験}吉川らは,シュークスピアの戯曲をJonBosakがタグ付けしたXML文書\cite{bosak:1999:a}を用いた評価実験により,検索手法が高速であることを示した\cite{yoshikawa:1999:a}.そこで,吉川の手法を構文木付きコーパスに適用し,予備実験を行った.検索対象のコーパスとして,PennTreebankCorpus(48,884文)\cite{marcus:1994:a}を用いた.クエリは,PennTreebankCorpusからランダムに4文を抽出した.そして,4文から節点数が2から20の抽出可能なすべての部分木をクエリとして,部分一致により検索を行った.その結果を\tablename\ref{tbl:yobi},\figurename\ref{fig:yobi}に示す.\begin{table}[t]\input{table4.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f5.eps}\caption{予備実験結果}\label{fig:yobi}\end{center}\end{figure}実験結果より,クエリの節点数が7から12の間は,高速に検索を行っているが,節点数が7以下,12以上の場合,検索時間が非常に増加している.クエリの節点数が7以下の場合,クエリに一致する文が非常に多いために検索に時間を要とすると考えられる.一方,クエリの節点数が12以上の場合は,クエリと一致する文かどうかの判定,つまりSQL文の条件判定に検索時間を要していると考えられる.検索条件が多ければ,条件判定を行う処理が多くなり検索に時間を要する.吉川らが評価実験を行ったXML文書は,DTD(DocumentTypeDefinition)により,節点のラベルや構造があらかじめ定義されている.構文木付きコーパスにおいては,文脈自由文法がDTDに相当する.XML文書は,少ないDTDの規則で簡潔な構造を定義している場合が多く,文書間での大きな構造の違いは少ない.そのため,SQL文の条件は多くなりにくい.一方,構文木付きコーパスは,数千の規則を用いて文法を定義し,文によって様々な木構造が付与されている.そのため,XML文書よりもSQL文の条件が多くなる可能性が高く,検索時間が増加するケースが多くなることが予想できる.関係データベースの検索速度は,関係データベースシステムの種類,格納するデータ,検索に要するSQL文に依存する.関係データベースを構築する際,技術者が格納するデータをみて関係データベースシステムを選んだり,生成するSQL文の条件部分の優先度などの調整を経験的に行い,検索の効率化をはかることが多い.クエリの節点数が多くなると変換したSQL文の条件部分が多くなり,条件を満たすデータの検出時間がかかる.そのため,検索時間が大幅にかかるようになる.このような場合,人手により条件の記述順序の変更などにより,チューニングを行う.しかし,構文付きコーパスは,言語や対象文書の違いなど様々なコーパスが存在する.コーパスそれぞれを人手でチューニングすることは困難である.そのため,自動的に検索速度をチューニングする手法が必要である.\subsection{漸進的検索}\label{retrieve:separate}予備実験の結果から,クエリの節点数が7から12の間は,高速に検索が可能であることがわかった.例えば,節点数16のクエリの平均検索時間は,0.56秒である.それに対して,節点数8のクエリの平均時間は,0.09秒である.もし,節点数16のクエリを節点数8のクエリ2つに分割し検索できれば,検索を高速化することが可能である.本手法では,クエリをSQL一文で検索するのではなく,複数のSQL文に分割し,SQL一文に要する検索時間を短くすることで高速化を行う.また,単一のSQL文により効率よく絞り込みが行うことができるように,コーパス内のラベルの頻度をもとにクエリの分割方法を決定する.\subsubsection{検索単位}クエリの節点数が多い場合には,クエリを複数のクエリに分割し,漸進的に検索を行う手法を提案する.本論文では,分割されたクエリを検索単位,効率的に検索可能なクエリの節点数の最大値を最大検索単位節点数と定義する.コーパスが与えられたとき,コーパスから最大検索単位節点数を計算し,ノード数が多いクエリは最大検索単位節点数をもとに分割して,漸進的に検索を行う.まず,コーパスから,節点数2から31\footnote{節点数が31までなのは,実験で用いた関係データベースシステムのSQL文は,クエリとして最大31ノードまでしか制約をかけることができないためである}のクエリ(部分木)各50個をランダムに抽出する.そして,各節点数ごとに平均検索時間を算出する.そのデータから,以下の2つの条件を満たす最大値$i$を最大検索単位ノード数とする.\begin{itemize}\item節点数$i-n+1$から$i$の間のクエリの平均検索時間が$t$以下\item節点数$i+1$から$i+n$の間のクエリの平均検索時間が$t$以上\end{itemize}$n$と$t$は,最大検索単位節点数を決定する際のパラメータである.$n$は,正の整数,$t$は,秒数である.例えば,$n$を3,$t$を0.5(秒)をした場合,\figurename\ref{fig:decograph}の予備実験結果では,節点数13,14,15において平均検索時間が$t$を下回り,節点数16,17,18において平均検索時間が$t$を上回っている.このとき,最大検索単位節点数は,15となる.\begin{figure}[b]\begin{center}\includegraphics{14-4ia1f6.eps}\caption{最大検索単位節点数決定例}\label{fig:decograph}\end{center}\end{figure}\subsubsection{クエリの分割}前節で,コーパスに最適化された検索単位の節点数を決定する手法について述べた.しかし,クエリの分割方法,分割されたクエリの検索順序によって,検索時間は大きく変わる.もし,最初に検索する検索単位の出力数が少なければ,次に絞り込む検索範囲が狭まり,検索を効率よく行うことができる.つまり,絞り込みが早く行われるように分割や順序を決定することが望ましい.コーパス中の節点や文脈自由規則の頻度をもとにクエリの検索単位への分割,検索単位の検索順序を決定する.クエリの分割アルゴリズムを以下に示す.検索単位の検索順序は,分割された順である.\newlength{\StepW}\settowidth{\StepW}{Step9\quad}\hangafter=1\hangindent=\StepW\noindentStep1\quadクエリに含まれる節点のラベルのコーパス内での出現頻度を計算する.\hangafter=1\hangindent=\StepW\noindentStep2\quadクエリ内の最小頻度の節点を検索単位$U_0$とする.\hangafter=1\hangindent=\StepW\noindentStep3\quad$i=1$\hangafter=1\hangindent=\StepW\noindentStep3\quad検索単位$U_{i-1}$に含まれる節点に近接する最小頻度のラベルの節点で初期化する.\hangafter=1\hangindent=\StepW\noindentStep4\quad検索単位$U_{i}$に含まれる節点を持ち,検索単位$U_i$に加えても最大検索単位節点数を越えない部分木があれば,根の頻度が最小である部分木の節点を検索単位$U_i$へ追加する.\hangafter=1\hangindent=\StepW\noindentStep5\quadもし,Step4において,部分木を加えられたのであれば,Step4へ.そうでなければ,Step6へ.\hangafter=1\hangindent=\StepW\noindentStep6\quad$i=i+1$.クエリをすべて分割したならば,Step7へ.そうでなければ,Step3へ.\hangafter=1\hangindent=\StepW\noindentStep7\quad各検索単位をSQL文へ変換.クエリ分割方法を例を用いて説明する.クエリとして,\figurename\ref{fig:divide}の(1)が与えられ,最大検索単位節点数が5であると仮定する.まず,クエリに含まれる節点のラベルの出現頻度を計算する.その中で,最も出現頻度が低い``join''(出現頻度50)を検索単位$U_0$に加える.次に,節点(``join'')を含む部分木の中で,最も出現頻度が低い``VP''を根とする部分木(出現頻度179,161)の節点を加えることを考える.しかし,この部分木の節点を加えると最大検索単位節点数を越えるため$U_0$には加えない.(\figurename\ref{fig:divide}の(2))次に,新たな検索単位$U_1$を$U_0$に含まれる節点と隣接する節点のうち最小頻度である節点(``VP'')初期化する.そして,``VP''を含む部分木を$U_1$に加えることを考える.``VP''を根とする部分木の節点を加えた場合,$U_1$の節点は,``VP'',``NP'',``PP-CLR'',``NP-TMP''の4つとなり,最大検索単位節点数を越えない.そのため,これらの節点を$U_1$に追加する.さらに,$U_1$に``VP''を根とする部分木の節点を加えることを試みるが最大検索単位節点数を越えるために加えられない.(\figurename\ref{fig:divide}の(3))そして,新たな検索単位$U_2$を構築を始める.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f7.eps}\caption{クエリ分割の例}\label{fig:divide}\end{center}\end{figure}最終的に,\figurename\ref{fig:divide}の(4)のように,クエリは3つの検索単位$U_0$,$U_1$,$U_2$に分割される.そして,それぞれの検索単位をSQL文へ変換し,検索を行う.そして,最初に決定した検索単位$U_0$により検索を行い,その結果に対して検索単位$U_1$により絞り込みを行う.絞り込みは,検索単位の初期化に利用した隣接する節点を次の検索単位のSQL文内の条件式として追加する.つまり,直前に利用したSQL文で次の検索単位に隣接する節点のIDを獲得し,その条件を次の検索単位のSQL文の条件として加える.例では,$U_1$に対応するSQL文の節点``n4''に関する条件式,$U_2$に対応するSQL文の節点``n3''に関する条件式が追加される条件式である.(\figurename\ref{fig:divide}の(5)) \section{評価実験} クエリ分割による検索の有効性を確認するために,7つの構文木付きコーパスを用いて,評価実験を行った.評価実験に使用したコーパスは,PennTreebankCorpus\cite{marcus:1994:a},TIGERCorpus\cite{konig:2003:b},PennKoreanTreebank\cite{han:2002:a},FLORESTAsint\'{a}(c)tica\cite{afonso:2002:a},PennChineseTreebank\cite{xue:2002:a},東工大コーパス(RWC)\cite{noro:2004:a},東工大コーパス(EDR)\cite{noro:2002:a}である.各コーパスの諸元を\tablename\ref{tbl:corpora}に示す.\begin{table}[t]\input{table5.txt}\end{table}\begin{figure}[b]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f8.eps}\caption{PennTreebankCorpus:完全一致}\label{fig:penn-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f9.eps}\caption{PennTreebankCorpus:部分一致}\label{fig:penn-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f10.eps}\caption{TIGERCorpus:完全一致}\label{fig:tiger-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f11.eps}\caption{TIGERCorpus:部分一致}\label{fig:tiger-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f12.eps}\caption{PennKoreanTreebank:完全一致}\label{fig:korean-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f13.eps}\caption{PennKoreanTreebank:部分一致}\label{fig:korean-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f14.eps}\caption{FLORESTAsint$\acute{a}$(c)tica:完全一致}\label{fig:floresta-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f15.eps}\caption{FLORESTAsint$\acute{a}$(c)tica:部分一致}\label{fig:floresta-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f16.eps}\caption{PennChineseTreebank:完全一致}\label{fig:chinese-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f17.eps}\caption{PennChineseTreebank:部分一致}\label{fig:chinese-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f18.eps}\caption{東工大コーパス(RWC):完全一致}\label{fig:tit-rwc-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f19.eps}\caption{東工大コーパス(RWC):部分一致}\label{fig:tit-rwc-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f20.eps}\caption{東工大コーパス(EDR):完全一致}\label{fig:tit-edr-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f21.eps}\caption{東工大コーパス(EDR):部分一致}\label{fig:tit-edr-p}\end{center}\end{minipage}\end{figure}評価実験では,最大検索単位節点数を決定するパラメータ$t$を0.5(秒),$n$を3とし,最大検索単位節点数を計算した.クエリは,コーパスからランダムに抽出した部分木を用い,節点数1から31までの各50個を用いた.検索方法としては,完全一致と部分一致の2種類を行った.各コーパスにおける評価実験結果を\figurename\ref{fig:penn-e}から\figurename\ref{fig:tit-edr-p}に示す.PennTreebankCorpus,TIGERCorpus,PennKoreanTreebankCorpus,FLORESTsint\'{a}(c)ticaの4つコーパスにおいては,完全一致による検索では節点数16以上,部分一致による検索では節点数11から13以上のクエリに対して,クエリの分割を行わずに検索を行った場合,急激に検索時間が増大することがわかる.一方,クエリを検索単位に分割することで高速に検索が行うことができた.また,対照的にPennChineseTreebankCorpus,東工大コーパス(RWC),東工大コーパス(EDR)では,完全一致と部分一致ともに許容検索時間を越えることがなく,最大検索単位節点数は最大の31と計算された.これら3つのコーパスにおいては,クエリの分割を行う必要がなかった. \section{考察} \label{discussion}評価実験で用いたコーパスは,大きく分けて2つに分類できる.1つは,分割せずに検索した場合,クエリを構成する節点数が増えると検索時間が非常に遅くなるものである.このタイプのコーパスは,PennTreebankCorpus,TIGERCorpus,PennKoreanTreebankCorpus,FLORESTsint\'{a}(c)ticaが当てはまる.もう1つは,クエリの節点数が増えても検索時間に影響を与えないものである.このタイプのコーパスとして,PennChineseTreebankCorpus,東工大コーパス(RWC),東工大コーパス(EDR)が当てはまる.このような違いが,コーパスのどの特徴と関連しているのか,コーパスの以下の特徴に着目し考察した.\begin{itemize}\itemコーパスの文数\itemラベルの頻度\item節点の平均分岐数\end{itemize}\subsection{コーパスの文数}コーパスの文数が検索時間に影響を与えることが考えられる.つまり,文数が多ければ検索に時間がかかり,少なければ時間がかからないはずである.しかし,\tablename\ref{tbl:corpora}からわかるようにPennKoreanTreebankCorpus(5,083文),FLORESTsint\'{a}(c)tica(8,307文)は,比較的コーパスに含まれる文数が少ないが,クエリの節点数が増加するとともに検索時間が大幅に増加している.また,PennChineseTreebank(15,168文)は文数が多いにも関わらず,節点数が増加しても検索時間は増加していない.さらにPennTreebankCorpusの文数を1,000文,5,000文,11,976文,48,884文と変化させ,検索時間の変化を調べた.クエリなどの実験環境は,評価実験で用いたものと同じである.その結果を\figurename\ref{fig:size}に示す.この結果からコーパスに含まれる文数が減少しても,節点数が増加するとともに検索時間が増大していることがわかった.つまり,コーパスの文数と検索時間増大の間には,関連性は低いものと考えられる.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f22.eps}\caption{コーパスの文数と検索時間}\label{fig:size}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f23.eps}\caption{ラベルなしクエリによる実験結果}\label{fig:label}\end{center}\end{figure}\subsection{ラベルの頻度}クエリ内のラベルが検索時間に影響を与えることが考えられる.例えば,クエリに含まれるラベルが非常に稀にしか出現しないラベルであれば,非常に早く検索することができるはずである.しかし,\tablename\ref{tbl:corpora}からわかるように,PennTreebankCorpusはラベル(非終端記号)の異なり数が多いが検索時間が急激に増加している.一方,東工大コーパス(RWC)はラベルの異なりが少ないが,検索時間が増大していない.PennTreebankCorpus,東工大コーパス(RWC)を用いて,ラベルを``$\ast$''で置き換えたクエリを用いて,実験を行った.クエリは,評価実験を行ったときと同一である.その結果を\figurename\ref{fig:label}に示す.ラベルの情報がなくなったため,双方ともに評価実験よりも検索時間を要しているが,節点数と検索時間との関係に変化はなかった.ラベルの頻度と検索時間の増大は関連性が低いと考えられる.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f24.eps}\caption{節点の平均分岐数}\label{fig:branch}\end{center}\end{figure}\subsection{節点の平均分岐数}次に,コーパスの特徴として節点の平均分岐数に注目した.分岐数が多くなれば,構文木は複雑になり,検索に時間を要することが考えられる.そこで,全てのコーパスについて,それぞれの節点の平均分岐数を調べた.その結果を\figurename\ref{fig:branch}に示す.この結果から確かに検索時間が増大する傾向にあるコーパスは,平均子供数が比較的大きいことがわかる.しかし,PennKoreanTreebankとPennChineseTreebankの差はあまりなく,平均分岐数が決定的な原因であるとは考えがたい.だが,コーパス内の文の構造の複雑さが一因である可能性は確認できる. \section{まとめ} 本論文では,構文木付きコーパスを高速に構造検索する手法を提案した.構文木付きコーパスのデータベース化は,木構造を持つXML文書を格納・検索する手法を用い,部分木で表現されたクエリをSQL文に変換して検索を行う.節点数の多いクエリに対する検索時間が増大するという問題を解決するために,クエリを分割し,漸進的に検索する手法を提案した.クエリの分割は,まずコーパスから最大検索単位節点数を計算し,最大検索単位節点数をもとに,効率的に検索できるようクエリを分割し,検索を行う.評価実験では,7つのコーパス中の4つに対して,クエリを分割せずに検索する手法よりも効率的に検索を行うことができることを示した.また,評価実験で用いたコーパスには,クエリの節点数が増加すると検索時間が非常に遅くなるものと,そうでないものの2種類が存在した.その違いの要因が,コーパスに含まれる構文構造の複雑さに起因するものであることについて考察した.今後の課題として,次のようなものがあげられる.\begin{itemize}\item節点が少ないクエリに対する検索の高速化\item検索時間とコーパスに含まれる構文構造の複雑さとの関連性の解明\itemコーパス作成支援システムへの応用\end{itemize}\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Afonso,Bick,Haber,\BBA\Santos}{Afonsoet~al.}{2002}]{afonso:2002:a}Afonso,S.,Bick,E.,Haber,R.,\BBA\Santos,D.\BBOP2002\BBCP.\newblock\BBOQ``Florestasint\'{a}(c)tica'':atreebankforPortuguese\BBCQ\\newblockIn{\BemProceedingsof{LREC}2002},\mbox{\BPGS\1698--1703}.\bibitem[\protect\BCAY{Bird,Chen,Davidson,Lee,\BBA\Zheng}{Birdet~al.}{2004}]{bird:2004:a}Bird,S.,Chen,Y.,Davidson,S.,Lee,H.,\BBA\Zheng,Y.\BBOP2004\BBCP.\newblock\BBOQExtending{XPath}toSupportLinguisticQueries\BBCQ\\newblockIn{\Bem{UWA}LanguageScienceGroup2004Program---SymposiumonSpeechandLanguageTechnology}.\bibitem[\protect\BCAY{Bosak}{Bosak}{1999}]{bosak:1999:a}Bosak,J.\BBOP1999\BBCP.\newblock{\BemThePlaysofShakespearein{XML}}.\bibitem[\protect\BCAY{Cunningham,Tablan,Bontcheva,\BBA\Dimitrov}{Cunninghamet~al.}{2003}]{cunningham:2003:a}Cunningham,H.,Tablan,V.,Bontcheva,K.,\BBA\Dimitrov,M.\BBOP2003\BBCP.\newblock\BBOQLanguageEngineeringToolsforCollaborativeCorpusAnnotation\BBCQ\\newblockIn{\BemProceedingsofCorpusLinguistics2003}.\bibitem[\protect\BCAY{hyeHan,Han,Ko,Yi,\BBA\Palmer}{hyeHanet~al.}{2002}]{han:2002:a}hyeHan,C.,Han,N.-R.,Ko,E.-S.,Yi,H.,\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQPennKoreanTreebank:DevelopmentandEvaluation\BBCQ\\newblockIn{\BemProceedingsofthe{16th}PacificAsiaConferenceonLanguage,InformAtionandComputation}.\bibitem[\protect\BCAY{K{\"o}nig,Esther,Lezius,\BBA\Wolfgang}{K{\"o}niget~al.}{2003a}]{konig:2003:b}K{\"o}nig,Esther,Lezius,\BBA\Wolfgang\BBOP2003a\BBCP.\newblock\BBOQThe{TIGER}Language---ADescriptionLanguageforSyntaxGraphs,FormalDefinition\BBCQ\\newblock\BTR,Institutf{\"u}rMaschinelleSprachverarbeitung,UniversityofStuttgart.\bibitem[\protect\BCAY{K{\"o}nig,Esther,Lezius,Wolfgang,Voormann,\BBA\Holger}{K{\"o}niget~al.}{2003b}]{konig:2003:a}K{\"o}nig,Esther,Lezius,Wolfgang,Voormann,\BBA\Holger\BBOP2003b\BBCP.\newblock{\Bem{TIGERSearch}User'$s$Manual}.\bibitem[\protect\BCAY{Marcus,Kim,Marcinkiewicz,MacIntyre,Bies,Ferguson,Katz,\BBA\Schasberger}{Marcuset~al.}{1994}]{marcus:1994:a}Marcus,M.,Kim,G.,Marcinkiewicz,M.~A.,MacIntyre,R.,Bies,A.,Ferguson,M.,Katz,K.,\BBA\Schasberger,B.\BBOP1994\BBCP.\newblock\BBOQThePennTreebank:AnnotatingPredicateArgumentStructure\BBCQ\\newblockIn{\Bem{ARPA}'94}.\bibitem[\protect\BCAY{Noro,Hashimoto,Tokunaga,\BBA\Tanaka}{Noroet~al.}{2004}]{noro:2004:a}Noro,T.,Hashimoto,T.,Tokunaga,T.,\BBA\Tanaka,H.\BBOP2004\BBCP.\newblock\BBOQALarge-ScaleJapanese{CFG}DerivedfromaSyntacticalyAnnotatedCorpusandItsEvaluation\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponTreebanksandLinguisticTheories},\mbox{\BPGS\115--126}.\bibitem[\protect\BCAY{Plaehn\BBA\Brants}{Plaehn\BBA\Brants}{2000}]{plaehn:2000:a}Plaehn,O.\BBACOMMA\\BBA\Brants,T.\BBOP2000\BBCP.\newblock\BBOQAnnotate---AnEfficientInteractiveAnnotationTool\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonAppliedNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Randall}{Randall}{2000}]{randall:2000:a}Randall,B.\BBOP2000\BBCP.\newblock{\Bem{CorpusSearch}User'sManual}.\bibitem[\protect\BCAY{Rohde}{Rohde}{2001}]{rohde:2001:a}Rohde,D.\BBOP2001\BBCP.\newblock{\Bem{Tgrep2}UserManual}.\bibitem[\protect\BCAY{Xue,Chiou,\BBA\Palmer}{Xueet~al.}{2002}]{xue:2002:a}Xue,N.,Chiou,F.-D.,\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQBuildingaLarge-ScaleAnnotatedChineseCorpus\BBCQ\\newblockIn{\BemProceedingsof{COLING}2002}.\bibitem[\protect\BCAY{吉川正俊\JBA志村壮是\JBA植村俊亮}{吉川正俊\Jetal}{1999}]{yoshikawa:1999:a}吉川正俊\JBA志村壮是\JBA植村俊亮\BBOP1999\BBCP.\newblock\JBOQオブジェクト関係データベースを用いた{XML}文書の格納と検索\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(SIG6(TOD3)),\mbox{\BPGS\115--131}.\bibitem[\protect\BCAY{野呂智哉\JBA白井清昭\JBA徳永健伸\JBA田中穂積}{野呂智哉\Jetal}{2002}]{noro:2002:a}野呂智哉\JBA白井清昭\JBA徳永健伸\JBA田中穂積\BBOP2002\BBCP.\newblock\JBOQ大規模日本語文法の開発—事例研究\JBCQ\\newblock\Jem{情報処理学会研究報告{NL}-150},\mbox{\BPGS\149--156}.\end{thebibliography}\begin{biography}\bioauthor{橋本泰一(正会員){\unskip}}{1997年東京工業大学工学部情報工学科卒業.2002年同大学大学院情報理工学研究科博士課程修了.同年同大学大学院情報理工学研究科助手.現在,同大学統合研究院特任准教授.博士(工学).自然言語処理,知識情報処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{吉田恭介}{2003年東京工業大学工学部情報工学科卒業.2005年同大学大学院情報理工学研究科修士課程修了.}\bioauthor{野口正樹}{2004年東京工業大学工学部情報工学科卒業.2006年同大学大学院情報理工学研究科計算工学専攻修士課程修了.現在,同専攻博士課程に在学中.言語資源の検索・利用に関する研究を行っている.また,言語資源の構築や知的創造作業支援などにも興味を持っている.情報処理学会学生会員.}\bioauthor{徳永健伸(正会員){\unskip}}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科准教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR各会員.}\bioauthor{田中穂積(正会員){\unskip}}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現産業技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,中京大学理工学部教授.工学博士.人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,言語処理学会,計量国語学会,AAAI,各会員.}\end{biography}\biodate\end{document}
V16N02-02
\section{はじめに} 英語教育の現場でもICT(InformationandCommunicationTechnology)の活用により様々な取り組みがなされている.近年ではE-learningのように学習者が教科書ではなく,まずはコンピュータ端末に向かうような形態での学習環境も一部で行われている.しかし大学を含め,CALL教室などが未整備となっている教育機関は少なくない.またE-learningのための教材作成が英語教育に直接関係する教師自身によって行われることは現実的にはほとんどなく,先進的な取り組みを行っている教育機関などにおいても既存のコースウェアが利用される場合が多い.教室で接する学習者のために教員自らがオーサリングソフトなどを利用して積極的に教材を作成するという事例は,英語教員全体の人数からすると極めて少数であると思われる.近年,パソコンは爆発的に普及してきており,現在ではほぼ全ての英語教員が日常の業務や教材作成でパソコンを利用することが当たり前のこととなった.しかし大多数の英語教員のパソコン利用スキルは基礎的なワープロ操作に限られると言っても過言ではない.結果,ワープロソフトによる教材作成と,E-learningやCALL環境のための教材作成の間にある溝はなかなか埋まりそうにないというのが現状である.一方,計算機科学の発展に伴い,言語処理技術に関する研究も急速に増加しつつある.そしてこれらの知見を教育や学習に生かすことを目標とする研究も盛んに行われている.しかしここで一つの疑問が浮かぶ.言語処理技術と教育・学習の連携は,いわゆる文系の一般の教員が,極端に言えば翌日の授業からでも応用可能な形で提供されていると言えるのだろうか.言語処理技術の教育・学習への応用を試みる際,まずはその方法論が優先される.そしてその実装は簡易なプロトタイプにとどまり,実際の使用に耐えうるシステムの構築は別途行わなければならない場合も多い.しかし,たとえどんなに軽微なものであったとしてもCUIベースの処理やプログラミング言語の知識を必要とする手法を一般の英語教員に求めることはほぼ絶望的である.例えばPerl言語を用いたテキスト処理などでさえも,その実行環境をインストールするといった時点で一般の英語教員のコンピュータ利用スキルからすれば十分にハードルが高いことは間違いない.また「UNIX環境」といった文言でさえ,一般の英語教員を遠ざけるには十分な材料となる.これらのアプリケーションがCGIなどを介してWeb上で提供される場合も同様である.通常これらは教育工学などの分野に関心がある一部の英語教員が,データ分析などの研究目的で利用することが多く,授業に生かすという用途からは残念ながらほど遠いという印象がある.それでは,仮に言語処理技術を教材作成に簡便に応用できるような仕組みが提供されていればどうなるであろうか.例えば教科書に準拠した補助プリントなどを作る場合など,少しでも教員の負担を減らすことができればきっと喜ばれるに違いない.そして草の根的であったとしても,言語処理技術と教育・学習の連携がこれまで以上に有機的に行われていくことが予想される.本研究では一般の英語教員でも簡単に使えることを念頭に,様々な状況での実際の英語授業や自習環境で利用できるプリント教材およびE-learning教材の作成支援を行う2種類のツールを開発した.これらのツールは無料で公開しており,GUI環境での簡単な操作で,任意の英文から様々な教材を短時間で作成することができる.利用者である一般の英語教員はこれらをダウンロード,解凍し,フォルダ内に含まれている実行ファイルを起動するだけでよい.つまり別途ソフトウェアを購入する必要もなく,プログラミング言語の実行環境をインストールするというような負担もない.また,これらのツールでは言語処理技術によるデータ処理結果をデータベース・ソフトウェアによって教材に加工するが,内部設計はツール利用者である一般の英語教員には見せない形になっている\footnote{ソースファイル相当以上の内容を知ることができるデータベースデザインレポートも公開している.FileMakerでの開発に通じている者であれば内部設計の把握や改変も可能.}.言語処理のアルゴリズムやデータベース・ソフトウェアについての知識は一切必要としない.以下,2節では,データベース・ソフトウェアの基本的な特徴を確認し,本研究で使用したFileMakerについて概観する.3節では連携事例Iとして,言語処理技術を活用したPhraseReading教材作成支援システムを紹介し,これを応用したプリント教材の自動作成について述べる.4節では連携事例IIとして,任意の英文テキストに対して語彙レベルタグや品詞タグを付与するプログラムを紹介し,この処理結果を用いたE-learning教材作成について述べる. \section{データベース・ソフトウェアについて} 一般にデータベース・ソフトウェアはビジネス用途\footnote{例えば顧客台帳,受注伝票,売上伝票,商品台帳などを互いに関連づけておき,自動処理によって見積書,納品書,請求書,郵送用宛名ラベルなどを作成するといった目的で利用されることが多い.}で用いられることが多く,数十万単位での大量のデータであっても,整合性を保ちながら高速で検索やソートを行うことができる仕組みが用意されている.また保持しているデータと,それを表示するレイアウトを別々に管理するという特徴があるため,同一のデータを異なるレイアウトに当てはめて出力することや,多数のフィールドから必要なもののみを組み合わせて出力することができるという点で優れている.同様の出力をワープロや表計算ソフトを用いて行うことはかなり困難である.本研究では市販のデータベース・ソフトウェアの1つであるFileMaker\footnote{本稿執筆時(2008年8月)の最新バージョンはFileMakerPro9であり,WindowsXP/VistaとMacOSXに対応している}を利用し,教材作成に生かす方法を模索した.FileMakerには高度な自動処理ができるスクリプト言語が搭載されており,この上位パッケージであるFileMakerProAdvanced\footnote{http://www.filemaker.co.jp/products/fmpa/}を利用して開発を行うとFileMakerを所有しないユーザでも利用できるランタイム・アプリケーションを構築し,自由に頒布することができる.このランタイム・アプリケーションはWindowsXP/Vista上でもMacOSX上でも動作するため\footnote{開発者はまずWindows上またはMacOS上のいずれかにインストールしたFileMakerProAdvancedでデータベース・ファイルを作成する.これをWindows上で処理するとWindows版のランタイム・アプリケーションを,MacOS上で処理するとMacOS版のランタイム・アプリケーションをそれぞれ作成することができる.ちなみにFileMakerProAdvancedのライセンス形態は「1ユーザが同時使用しない限り,2台のマシンへのインストールが可能」であるため,開発者がWindowsとMacOSの両方のパソコンを所有する場合,1ライセンスで両方の作成を行うことができる.},大多数の英語教員が日常で触れる機会のあるプラットフォームで利用することができる.またFileMakerにはWebビューア機能\footnote{詳細はhttp://www.filemaker.co.jp/products/fmp/wvg/を参照のこと.現行の1世代前のFileMakerPro8.5(2006年9月発売)から搭載された機能.}が搭載されており,インターネット上にある各種情報やオンラインデータベースと連携したデータベース・ソリューションを開発することができる.この機能を使うと,画面レイアウト上にWebブラウザと同等の機能を持つ画面枠を配置することができ,そこで表示されたHTMLソースはFileMakerに搭載されている関数を用いて取得することができる.本研究で開発した教材作成ツールでは,以下のような手法を用いることで,言語処理技術と教材作成の連携を試みている.\begin{enumerate}\item言語処理技術を用いたWebアプリケーションを,Webビューア機能によって教材作成ツールの画面内に表示する.\itemWebアプリケーションの実行結果をHTMLソースとして取得し,FileMaker側で様々なテキスト関数によって文字列処理を行うことで,教材中に組み込むデータを準備する.\itemこのデータを様々なレイアウトに流し込み,教材の形に整形する.\end{enumerate} \section{連携事例I:PhraseReading教材の自動作成} \subsection{PhraseReadingとは}PhraseReadingとは次の英文のように適当な長さの意味の塊ごとに区切られたものを英語学習者ができるだけ塊の単位で素早く読み進める訓練方法であり,一般的にはスラッシュで区切って表示されることからスラッシュ・リーディングとも呼ばれる.\begin{quote}Scientistssay/theyhavemademoreprogress/indeveloping/malaria-resistantmosquitoes./Theidea/istorelease/geneticallyengineeredinsects/likethese/intomosquitopopulations/asaway/tocontrolthedisease./\end{quote}このような学習方法を繰り返すことによって,学習者は英語本来の語順で英文をより直接的に理解できるようになることが期待される.しかしこの学習方法を実践する場合,ある程度一貫性を持った方法で区切られた,一定の量の教材をこなす必要がある.また,スラッシュを挿入するタイミングは必ずしも一つではなく,学習者のレベルや作成者の意図によって様々な基準が考え得る.近年では市販の教材でもよく利用されているが,学習者が関心を持つことができる様々なジャンル,難易度の英文でこのような形式の教材がこれまで十分に提供されてきているとは言い難い.\subsection{既存のシステムと問題点}田中・木村・北尾(2006)および行野・田中・冨浦・柴田(2007)ではこのような教材不足を解消するために,言語処理技術を用い英文中に自動的にスラッシュを挿入する手法を提案している.ここでは局所的統語構造およびチャンクの大きさが英文のスラッシュ挿入に強く関係していると仮定した上で,一定量のスラッシュ付きの英文から確率モデルを用いてスラッシュを入れる基準を自動学習させた分割モデルを用意している.そしてこれに基づいて任意の英文を自動的に分割する教材作成支援システムがWeb上から実行できるようになっており,さらに異なる分割モデルに基づいてスラッシュを挿入した,様々な難易度の計128英文書,42,529語を教材集として提供している\footnote{http://www.cl.ritsumei.ac.jp/CALL/SR/}.この教材作成支援システムは数理的に厳密な処理に基づいたものであり,様々な分割モデルに対応する柔軟なスラッシュ付与が可能であったが,自動付与のための手法の開発に主眼が置かれていたため,この手法を実装したプロトタイプでは最終的に英文にスラッシュをつけて出力することしかできていなかった.つまりスラッシュで区切られた英文を次々と読破する形で自習する場合や,多読を中心に据えた授業形態の場合を除けば,教室で即座に使えるような教材の体裁としては不十分という短所があった.一方,ほぼ同時期に発表された神谷(2006)や岡本・神谷(2006)では,PhraseReading学習が容易に行える書き込み式のプリント教材を即座にプリンタから出力できるソフトウェア\footnote{当時は「PhraseReadingWorksheet作成ツール」「階段式英文読解プリント教材作成ツール」として別々に公開していたが,現在は両方の機能を1つのツールに統合したものも公開している.}を提案していた.しかし教材化する英文をPhraseごとに分割する作業は,手作業で行うか,あるいは観察によって得られた50語の単語\footnote{岡本・神谷(2006)または神谷・田中(2007)を参照のこと.}の直前で機械的に分割するという単純な手法を導入しているにすぎなかったため,柔軟性がないという短所があった.\subsection{FileMakerを活用した教材作成システム}そこで神谷・田中(2007)はPhraseReadingWorksheet作成ツール上に配置したWebビューアからスラッシュを自動付与する教材作成支援システムを呼び出し,その処理結果をPhraseReadingWorksheet作成ツールへ取り込むという方法を提案した.これにより様々な教材パラメタに対応した柔軟なフレーズ分割が行えるようになり,かつ教室でも使いやすいきれいな体裁のプリント教材を作成できるようになった.このPhraseReadingWorksheet作成ツールは図1のようなGUI環境のものであり,データベース・ソフトウェアで作られていることを利用者には全く意識させない.また言語処理技術によるフレーズ分割と実行結果の取り込みは図2のような画面で行う.そして最終的に学習者にどのような教材として与えるかの諸要因を考慮し,用紙サイズの設定・行間・メモ欄の有無などの様々な条件を組み合わせながらレイアウト上に表示させることで1つの英文素材から1,000通り以上\footnote{図3・図4の形式では用紙サイズ(B5/A4),プリント上に配置する項目とその位置48種,メモ欄の有無,行間4種,フォントサイズを選択できる.またツールに搭載されている別の出力形式(図5の階段式など)でも同様に様々な出力形式の選択が可能.}のレイアウトのプリント教材を作成することができる.このようなレイアウトの柔軟さ\footnote{用紙サイズ,行間,メモ欄の有無の組み合わせによって用意された16種類のレイアウト上にはそれぞれ25種類のフィールドがそれぞれ配置されている.教材作成時に利用しないフィールドは空白のままで出力されるため,様々な見た目で表示されることになる.}はデータベース・ソフトウェアでしか為し得ないものである.\begin{figure}[t]\begin{minipage}[b]{201pt}\begin{center}\includegraphics{16-2ia2f1.eps}\end{center}\caption{起動画面}\end{minipage}\hfill\begin{minipage}[b]{201pt}\begin{center}\includegraphics{16-2ia2f2.eps}\end{center}\caption{確率モデルによるフレーズ分割}\end{minipage}\end{figure}図3の形式のプリントは,フレーズごとに分割したものが縦方向に配置されており,右側に予習として各フレーズの意味を記入させる\footnote{ツール内部で行っていることを単純化すると次のようになる:「B5行間標準メモ欄あり」というレイアウト上に配置した「左側中央揃え」のフィールドに「英句」フィールドの内容を表示}.授業時に図4のような右側に予め日本語訳を入れたプリントを配布すると予習チェックなども簡単に行える\footnote{「B5行間極小メモ欄なし」というレイアウト上に配置した「左側中央揃え」のフィールドに「英句」を,「右側左揃え」のフィールドに「和句」フィールドの内容を表示.}.これらの形式はツール上では「縦方向」と呼んでいる.図5の形式は「階段式」と呼んでおり,各フレーズ間の修飾関係や並列関係がわかりやすい階層の形で示すことができるプリントである\footnote{「B5行間狭メモ欄なし」というレイアウト上に配置した「階段1」〜「階段8」のフィールドに,「英句」フィールドの内容を別レイアウト上で指定した「階段設定」に従って表示.右端の「階段式和訳」のフィールド上に「和句」フィールドの内容を表示.}.図6は「クローズテスト型」と呼んでおり,ここでは7語おきに単語を空欄に置き換えている.和訳を見ながら空所を埋める練習や,聞き取らせたい単語に焦点をあてたリスニングの補助教材などの用途で利用できるであろう.これらのプリントには全て各フレーズの位置を表す「文番号」「句番号」が自動で挿入されるため,授業時に指導中の箇所などを指示しやすい.\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f3.eps}\end{center}\caption{予習用プリント}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f4.eps}\end{center}\caption{チェック用プリント}\end{minipage}\end{figure}図3・4の形式の場合,縦方向に2つ折りにして利用することもできるため,右側に和訳があらかじめ書き込まれた状態であっても,再度英語のみを見ながら日本語で意味を考えさせる,日本語を見ながら英語の原文を思い出させる,日本語を見ながら英文を書かせる,日英語の語順の違いを観察させるなど,同一授業内で学習者の習熟度に応じた異なるタスクを同時進行で学習させるということもできる\footnote{具体的な指導実践例および省察は大学英語教育学会授業学研究委員会編著『高等教育における英語授業の研究—授業実践事例を中心に—』松柏社pp.~64--65に掲載されている.}.このようなPhraseReadingWorksheetはどちらかと言えば精読が中心となる授業において,これまで消極的に取り入れられがちであった文法訳読式や輪番制に代わる効率的な授業展開を可能にする.PhraseReadingWorksheet作成ツールの原型は2004年に初公開しており,新たな機能を加えながら随時アップデートを行っている.最新版や関連情報などはhttp://www.oit.ac.jp/ip/\textasciitildekamiya/\\prw/prw.htmlに掲載している.このツールは著者勤務校の多くの英語教員に利用されており,インターネットから入手した英字新聞記事などであってもすぐにプリント教材に加工できる点など,好意的な意見が寄せられることが多い.またこのツールから出力したプリント教材は学生の評判も良い.例えば教科書本文を用いて図3の形式で出力したプリント教材の場合,予習→授業→復習のサイクルで効果的に活用できるのみならず,試験前にこのプリントを見直すだけで十分な復習ができる点などは特に好評のようである.\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f5.eps}\end{center}\caption{階段式教材}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f6.eps}\end{center}\caption{クローズテスト型教材}\end{minipage}\end{figure} \section{連携事例II:Clozeテストの自動作成} \subsection{Clozeテストとは}Clozeテストとは文書のn番目(通常は6〜8番目)の単語を空欄にして,被験者が元の単語を埋めるものであり,英語母語話者に対する読解教材の信頼度や難易度を測定する目的でTaylor(1953)により開発された.以下は原文の8番目の単語を空欄にした場合の例である.原文:Scientistssaytheyhavemademoreprogressindevelopingmalaria-resistantmosquitoes.Theideaistoreleasegeneticallyengineeredinsectsliketheseintomosquitopopulationsasawaytocontrolthedisease.作成例:Scientistssaytheyhavemademoreprogress()developingmalaria-resistantmosquitoes.Theideaisto()geneticallyengineeredinsectsliketheseintomosquito()asawaytocontrolthedisease.その後,選択式問題など他の方式によるテストとの相関が高いことが分かり,読解力を測定するテスト形式として広く使われるようになった.また1970年代以降にも盛んに研究が行われ,第二言語学習者への応用可能性についての実証が行われてきた.国内の研究では佐藤(1988)はClozeテストが従来の言語テストに見られない様々な優れた特性を備えていることを指摘し,日本の英語教育へ応用する際の意義を述べている.\subsection{既存のシステムと問題点}Clozeテストを作成する場合,任意のn語ごとに単語を抜き取り,空欄に置き換えるという作業が必要となる.一見単純な作業であるが,手作業で行うには相当の労力が必要となる.北尾(2007)はPerlを利用した自動抜き取りのプログラム\footnote{http://www.cis.doshisha.ac.jp/kkitao/Japanese/library/resource/corpus/perl/ELT/}により,この労力を大幅に軽減する方法を提案した.このプログラムの優れた点は,原文中から抜き取った単語を自動でランダム順に並べ替えたものが出力されるため,これを解答時の選択肢として表示することで,受験者の心理的負担を軽減することもできた.さらに抜き取った順番通りに並べたものも併せて表示されているため,この部分だけを切り取って後で答え合わせに利用することができるという長所があった.加えて北尾(2007)ではJACET8000\footnote{大学英語教育学会(JACET)基本語改定委員会が2003年3月に改定・刊行した,コーパスでの頻度をもとに選定された1,000語刻みの8つのレベルから成る計8,000語の語彙表.この語彙表を利用して任意のテキストにJACET8000のレベルを表示するCGIプログラム(http://www01.tcp-ip.or.jp/\textasciitildeshin/J8LevelMarker/j8lm.cgi)が清水伸一氏によって公開されている.}の語彙レベルに基づいてタグを付与したテキストを用いて,ある特定のレベル範囲の語のみを抜き取り対象とする,またTreeTagger\footnote{ドイツのStuttgart大学で開発された形態素解析のためのプログラム.(http://www.ims.uni-stuttgart.de/projekte/corplex/TreeTagger/DecisionTreeTagger.html)任意のテキストを解析してそれぞれの単語に品詞タグを付与することができる.後藤一章氏(http://uluru.lang.osaka-u.ac.jp/\textasciitildek-goto/treetagger/tt.html)や杉浦正利氏(http://genbun.gsid.nagoya-u.ac.jp/tagger/)がCGIを介してWeb上でこの処理を実行できるWebアプリケーションを提供している.}によって品詞タグを付与したテキストを用いて,ある特定の品詞のみを抜き取り対象とするというプログラムも公開していた.これにより学習者の習熟度や各教員の指導目標に合致するClozeテスト形式の練習問題を作成する新たな展望が開けたと言える.しかしこれらのプログラムを利用するには別途Perl実行環境をインストールする必要がある上,抜き取りの間隔や語彙レベル範囲,抜き取る対象とする品詞を指定するための条件を変数として入力する際にはプログラムを一旦書き換える必要があった.またTreeTaggerのタグセットは学校英文法などで扱う品詞よりもはるかに厳密な分類を行うことから,例えば動詞を抜き取り対象とする場合には,動詞に相当するタグであるVBVBDVBGVBNVBPVBZVHVHDVHGVHNVHPVHZVVVVDVVGVVNVVPVVZVBDVBGVBNVBPVBZという非常に数多くの項目を変数に入力しなければならなかったため,現実的には大変な困難を伴う利用形態であったと言える.さらにJACET8000レベルマーカーやTreeTaggerを併用したClozeテストを作成するには,それぞれのタグ付けを行うWebアプリケーションでの処理結果を一旦テキストファイルに保存してからPerlで処理を行うという手間が必要であり,結果的に一般の英語教員にはハードルが高く,利用者が限られてしまうという短所があった.\subsection{FileMakerを活用した教材作成システム}そこで神谷・永野・北尾(2007)ではFileMakerを用いてGUI環境でClozeテストを作成できるツールを開発し,無料公開した.またKitao\&Kamiya(2008)ではこのツールの改良が行われ,画面表示を日英両方に切り替えることも可能になった.このツールでは画面上に英文を貼り付けた後,抜き取り間隔であるnの指定をプルダウンメニューで選択するという簡便な操作のみで即座に作成することができる.またツール自体がランタイム環境であるため,実行環境のインストールも不要である.\begin{figure}[b]\begin{minipage}{201pt}\begin{center}\includegraphics{16-2ia2f7.eps}\end{center}\caption{単語簡易抜き取り}\end{minipage}\hfill\begin{minipage}{201pt}\begin{center}\includegraphics{16-2ia2f8.eps}\end{center}\caption{作成結果}\end{minipage}\end{figure}JACET8000レベルマーカーやオンライン版TreeTaggerへはFileMakerのWebビューア機能を利用して同一画面の中で処理できるようにしているため,特定の語彙レベルや品詞を考慮に入れたClozeテストの作成もさらに省力化が図れることとなった.このツールの目的は簡便な方法でClozeテスト形式の教材作成を行うことにあるため,TreeTaggerを併用する際においても膨大な数のタグセットを考慮しながら品詞を選択するのではなく,8種類の品詞から選ぶという操作方法を導入した.チェックボックスから選んだ品詞はTreeTaggerのタグセットに自動的に置き換える仕組みになっており,仮に不必要なタグが含まれる場合でも手作業で取り除くことができる.このツールは北尾(2007)が提案したClozeテストの自動採点が可能なJavaScriptプログラムに対応したHTMLファイルを出力することもできる\footnote{問題サンプルはhttp://kkitao.e-learning-server.com/javaS/blank/cloze/index.htmlで公開されている.}ため,簡易E-learning教材作成ツールとしても利用することができる.このHTMLファイルは以下のような形式で書かれており,単語を抜き取って空欄にすべき処理の代わりに,HTMLタグの間に解答となる語を挟み込んで出力するという別の文字列処理を行っている.\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f9.eps}\end{center}\caption{JACET8000処理結果}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f10.eps}\end{center}\caption{作成条件設定}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f11.eps}\end{center}\caption{TreeTagger処理}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f12.eps}\end{center}\caption{作成条件設定}\end{minipage}\end{figure}Scientistssaytheyhavemademoreprogress1.($\langle$inputokWord=''in''$\rangle$)developingmalaria-resistantmosquitoes.Theideaisto2.($\langle$inputokWord=''release''$\rangle$)geneticallyengineeredinsectsliketheseintomosquito3.($\langle$inputokWord=''populations''$\rangle$)asawaytocontrolthedisease.Clozeテストは4.1節で述べたように,元々は英語母語話者に対する読解評材の信頼度や難易度を測定する目的で開発されたものであり,語彙レベルや品詞を考慮したものは本来のClozeテストとは言えない.そのため試用者から寄せられた評価の中には,これらは特に必要な機能ではないとの声もある.しかし学習者に与える教材において難易度を考慮することは重要であり,言語処理技術との連携によって学習内容や学習者の能力に焦点を当てたテストを短時間で作成することに関しては,研究を深めていく余地が大いにあると考えている.今後,このツールも新たな機能を加えながら随時アップデートを行っていく計画である.最新版や関連情報などはhttp://www.oit.ac.jp/ip/\textasciitildekamiya/mwb/mwb.htmlに掲載している. \section{おわりに} データベースという概念には様々な意味があり,本来は区別して扱うべき機能や仕組みなどが混同されて用いられることがある.例えば,様々な教材そのものを蓄積し,必要なものを必要な時に自由に取り出せるような仕組みを「教材データベース」と呼ぶことがある.また表計算ソフト上で様々な学習項目などを整理したものを「データベース」と呼ぶこともある.本稿で扱ったものはこのような仕組みとは無関係であり,意地悪な見方をすれば,単にデータベース・ソフトウェアを用いて教材をワープロソフトよりもきれいに清書できる可能性がある,ということを述べているにすぎない.しかしこれまで主にビジネス用途でしか用いられてこなかったデータベース・ソフトウェアを教材作成に利用することは,レイアウトの柔軟さなどの点で非常に有効であると思われる.本稿では言語処理技術と教材作成の連携について,GUI環境による使いやすいツールを構築していくことにより,今後一層両者のつながりが深まっていく可能性があることを述べた.またオンライン上で提供される言語処理関連のリソースの実行結果をデータベース・ソフトウェアで加工することで,プリント教材やE-learning教材をシームレスかつ効率的に作成・出力できることを提案した.今後も一般の英語教員のニーズに合致し,すぐに使える教材の形式について検討を深めながら,言語処理技術と教材作成の連携の可能性を追求し,教材の自動出力を行うことができる汎用性の高い教材作成ツールの開発を進めていきたい.本研究で開発したツールによって作成したプリント教材等を普段から授業で利用している筆者らの印象では,予習→授業→復習のサイクルを意識した学習活動の促進や,様々な状況での実際の英語授業や自習環境において,有効に機能していると考えている.また短時間で様々な教材を作成できることは,教員の負担軽減にもつながることであろう.\acknowledgment\noindent本文中で利用したサンプル英文は以下の記事を抜粋したものである.\noindenthttp://www.voanews.com/specialenglish/archive/2007-07/2007-07-01-voa2.cfm\vspace{1\baselineskip}\noindent教材作成ツール開発においてはツールをご利用頂く方々も含め,多くの先生方からご指導をいただきました.またオンライン上のリソースをWebビューアを介して利用することを許諾頂いた諸先生方に感謝いたします.\vspace{1\baselineskip}\noindent本研究の一部は文部科学省科学研究費補助金・若手研究(B)(課題番号18720153)により実施したものである.\begin{thebibliography}{}\itemCoffey,G.\&ProsserS.小山香織ほか訳(2008).FileMakerPro大全Ver.7〜9edition.ラトルズ.\item大学英語教育学会基本語改訂委員会(2003).大学英語教育学会基本語リストJACETListof8000BasicWords.大学英語教育学会.\item大学英語教育学会基本語改訂委員会(2004).大学英語教育学会基本語リスト活用事例集:教育と研究への応用.大学英語教育学会.\item神谷健一(2006).データベースソフトを用いた読解プリント教材とその作成ツールについて.社団法人私立大学情報教育協会平成18年度全国大学IT活用教育方法研究発表会予稿集,pp.~20--21.\item神谷健一,田中省作(2007).言語処理技術を活用したPhraseReading学習プリント教材作成ツール.外国語教育メディア学会第47回全国研究大会発表論文集,pp.~34--37.\item神谷健一,永野友雅,北尾謙治(2007).データベース・ソフトウェアを利用したクローズ・テスト学習教材の自動作成.社団法人私立大学情報教育協会平成19年度大学教育・情報戦略大会,pp.~122--123.\itemKenjiKitao\&KenichiKamiya(2008)``CreatingClozeExercisesEasilyandEffectively''\textit{ProceedingsofWorldCALL2008},http://www.j-let.org/\textasciitildewcf/proceedings/g-016.pdf\item北尾謙治(2007).語彙レベルや品詞も考慮したクローズ・テスト方式のeラーニング教材作成の試み.外国語教育メディア学会第47回全国研究大会発表論文集,pp.~114--117.\item岡本清美,神谷健一(2006).アカデミックリーディング教材—データベースを利用したプリント教材作成ツールを用いて.外国語教育メディア学会第46回全国研究大会発表論文集,pp.~243--251.\item佐藤史郎(1988).クローズ・テストと英語教育.南雲堂.\itemTaylor,WilsonL.(1953)``Clozeprocedure:Anewtoolformeasuringreadability''\textit{JournalismQuarterly},30,pp.~415--433,\item田中省作,木村恵,北尾謙治(2006).言語処理技術を活用した柔軟性の高いスラッシュ・リーディング用教材作成支援システム,外国語教育メディア学会第46回全国研究大会発表要項集,pp.~483--492.\item行野顕正,田中省作,冨浦洋一,柴田雅博(2007).統計的アプローチによる英語スラッシュ・リーディング教材の自動生成.情報処理学会論文誌,48(1),pp.~365--374\end{thebibliography}\clearpage\begin{biography}\bioauthor{神谷健一}{2000年大阪大学大学院言語文化研究科言語文化学専攻博士前期課程修了.高等学校教員を経て2004年〜大阪工業大学知的財産学部専任講師,英語科目を担当.外国語教育に生かすコンピュータの活用方法に関する研究に従事.外国語教育メディア学会,大学英語教育学会,e-Learning教育学会,社会言語科学会,英語コーパス学会,全国英語教育学会各会員.}\bioauthor{田中省作}{2000年九州大学大学院システム情報科学研究科博士後期課程修了.同年九州大学情報基盤センター助手,2005年立命館大学文学部助教授(2007年准教授に職名変更).博士(工学)自然言語処理,言語教育への応用に関する研究に従事.情報処理学会,英語コーパス学会各会員.}\bioauthor{北尾謙治}{同志社大学英文学科卒業後,米国カンザス大学大学院でTESOLを研究,M.A.とPh.D.を取得.現在同志社大学文化情報学部教授.専門は応用言語学と異文化間コミュニケーション.著書はInternetResources:ELT,Linguistics,andCommunication(英潮社),InterculturalCommunication:BetweenJapanandtheUnitedStates(英潮社),EnglishTeaching:Theory,ResearchandPractice(英潮社)ほか多数.}\end{biography}\biodate\end{document}
V31N02-09
\section{はじめに} ソーシャルメディアでの感情分析\cite{poria2019emotion}や感情的かつ共感的な対話システムの構築\cite{majumder2020mime}を目的として対話における発話の感情認識(ERC:EmotionRecognitioninConversations)が注目を集めている.先行研究として,再帰型ニューラルネットワークを用いて発話の内容を利用する手法\cite{abdul-mageed-ungar-2017-emonet}や,事前学習済みBERT(BidirectionalEncoderRepresentationsfromTransformers)モデル\cite{devlin2018bert}を用いて発話の内容を利用する手法\cite{luo2019emotionx}が提案されている.ERCでは,発話の内容だけでなく発話間の関係が話者の感情に大きな影響を与えることが知られているため\cite{poria2019emotion},近年では,発話間の関係も考慮する手法が提案されている\cite{ghosal2019dialoguegcn,shen2021directed}.特に,Shenらの手法\cite{shen2021directed}は,各発話の内容だけでなく,自身の発話からの影響と他者の発話からの影響を考慮する手法を提案し,高い認識性能を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{08table01.tex}%\caption{負の感情を示す発話``Yes''の例}\label{tab:dataset_neg}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%しかしながら,これらの従来手法は,先行文脈を考慮していないという課題がある.たとえば,表~\ref{tab:dataset_neg}の$7$番目の発話``Yes''は,それまでの発話の内容(文脈)から負の感情を示すが,表~\ref{tab:dataset_pos}の$5$番目の発話``Yes''は正の感情を示す.このように,同じ発話であっても,先行文脈に応じて異なる感情を示すことがある.従来手法の中で,発話の内容を利用する手法\cite{abdul-mageed-ungar-2017-emonet,luo2019emotionx}は,1つの発話を入力しその発話の感情ラベルを識別するため,文脈を把握することは困難である.また,発話間の関係を考慮する従来手法\cite{ghosal2019dialoguegcn,shen2021directed}は,特定の過去の発話と現在の発話の間の相互作用を考慮することは可能だが,文脈を把握することは難しい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{08table02.tex}%\caption{正の感情を示す発話``Yes''の例}\label{tab:dataset_pos}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%対話における文脈を把握する代表的な方法として,連続した複数の発話を連結し,事前学習済みBERTモデルに入力する方法\cite{yang2019emotionx}がある.また,Huらの手法\cite{hu-etal-2021-dialoguecrn}は,LSTM(LongShort-TermMemory)\cite{hochreiter1997long}を用いて文脈を表現する特徴量ベクトルを作成するため,文脈を考慮した識別が可能である.これらの従来手法は,\rev{識別対象の発話とその先行文脈(対話)を入力し,識別モデル単体で対象の発話の感情ラベルを予測する特徴を持つ.}本研究は,\rev{モデル外部のデータベースを活用して,従来の識別モデルを補強}する方法を提案する.具体的には,まず識別対象の発話とその先行文脈をクエリーとして,意味的に近い発話を訓練データセットからk近傍法を用いて検索する.検索した発話(近傍事例)に付与された感情ラベルと,識別対象の発話との距離を基に感情ラベルの確率分布を作成し,従来の識別モデルの確率分布と重み付き線形和によって組み合わせる.提案手法を用いることで,識別対象の発話とその先行文脈だけでなく,意味的に近い過去の発話\rev{の文脈と,その発話}に付与された感情ラベルも利用することができる.さらに本論文は,定数による重み付き線形和で2つの確率分布を組み合わせるだけでなく,識別対象の発話ごとに動的に重み係数を変更する方法を提案する.定数による重み係数は,常に一定の割合で近傍事例による確率分布を利用するため,近傍事例に適切な事例が存在するか否かに応じて重み係数を調整することができない.そこで本論文は,識別対象の発話に応じて,動的に重み係数を変更する方法を提案する.具体的には,従来の識別モデルから得られる識別対象発話の特徴量と近傍事例の特徴量を入力し,重み係数を導出するニューラルネットワークを構築する.重み係数のネットワークを学習するために,従来の識別モデルによる確率分布と近傍事例による確率分布のそれぞれが示す感情ラベルが,教師ラベルと一致する場合に重み係数を高め,そうでない場合に重み係数を低くする損失関数(係数損失)を導入する.評価実験において,ERCにおける3つのベンチマークデータセットで,動的に重み係数を変更する提案手法が,従来手法を上回る最高水準の認識性能を示した.加えて,重み係数の頻度分布を検証する実験を通して,適切な重み係数を学習するためには,係数損失が必要であることを確認した.本論文の貢献を以下に示す.(1)対話の感情認識タスクに,近傍事例を活用する手法を初めて適用した.(2)識別対象の発話に応じて動的に変わる重み係数を用いて,従来の識別モデルによる確率分布と近傍事例による確率分布を組み合わせる手法を提案した.(3)従来手法との比較実験を通して,重み係数を動的に変更する提案手法の有効性を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話における発話の感情認識(ERC)}ERCの手法は,発話の内容に注目する手法と発話間の関係に注目する手法に大きく分けられる.発話の内容を利用する手法として,Luoらの手法\cite{luo2019emotionx}がある.Luoらの手法は事前学習済みBERTモデルを用いて,トークンごとの特徴量を取得し,$[\mathrm{CLS}]$トークンの特徴量をフィードフォワードネットワーク(FFN:FeedForwardNetworks)に入力して感情ラベルの確率値を算出する.Yangらの手法\cite{yang2019emotionx}は,複数の発話の間に$[\mathrm{SEP}]$トークンを挿入し連結したものを事前学習済みBERTモデルに入力する.複数の発話を同時に入力することで,発話の系列すなわち文脈を考慮する.また,Huらの手法\cite{hu-etal-2021-dialoguecrn}は,LSTMを用いて対話の状況と話者の特徴に応じた文脈を利用する.発話間の関係を利用する方法として,グラフニューラルネットワーク(GNN:GraphNeuralNetworks)が注目を集めている.対話における各発話をノード,発話どうしの関係をエッジとしてグラフを構築し,関係グラフ畳み込みネットワーク(RGCN:RelationalGraphConvolutionalNetworks)\cite{schlichtkrull2018modeling}やグラフアテンションネットワーク(GAT:GraphAttentionNetworks)\cite{velivckovic2017graph}を利用する.RGCNはノード間の関係の種類ごとにグラフを構築するため,発話間の関係の種類を利用できる.またGATは,ノード間の類似度を計算し,関連性のあるノードに注意を向ける.Ghosalらの手法\cite{ghosal2019dialoguegcn}は,話者自身の感情の推移(自己依存)と他者からの影響(相互依存)などの発話間の関係を利用するためにRGCNとGATを活用した.Shenらの手法\cite{shen2021directed}は,話者自身の離れた発話からの影響と,他者の近い発話からの影響を考慮するために,GATを拡張した有向非巡回グラフニューラルネットワークを提案し,高い認識性能を示した.本研究は,対話の状況に応じた文脈を考慮するHuらの手法\cite{hu-etal-2021-dialoguecrn}と,発話間の影響を考慮するShenらの手法\cite{shen2021directed}を,近傍事例を組み合わせる対象の識別モデルとして利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{近傍事例を活用する手法}提案手法に最も関連のある手法として,機械翻訳タスクで近傍事例を活用する手法\cite{khandelwal2021nearest}がある.この手法はまず,訓練データ(対訳文)の原言語文を事前学習済みニューラル機械翻訳(NMT:NeuralMachineTranslation)モデルに入力し,翻訳の各時刻すなわち各単語の位置における中間表現を取得する.NMTモデルのデコーダの最終層から得られる特徴量ベクトルを中間表現として用いる.続いて推論時に,評価データの原言語文を事前学習済みNMTモデルに入力し,翻訳中の時刻$\tau$の単語の位置における中間表現を取得する.訓練データと同様に,NMTモデルのデコーダから得られる特徴量を中間表現として用いる.取得した時刻$\tau$の単語の位置における中間表現と,訓練データから事前に計算した各中間表現との距離を計算し,距離の近い事例(近傍事例)を検索する.検索した近傍事例の距離と,事例が示す単語の出現頻度に基づいた単語予測分布を作成し,時刻$\tau$におけるNMTモデルの単語予測分布と重み付き線形和によって組み合わせる.追加の学習をせずに,近傍事例を従来のNMTモデルに組み合わせることで,翻訳性能が大幅に改善することが報告されている\cite{khandelwal2021nearest}.また,近傍事例を活用する手法は,機械翻訳\cite{khandelwal2021nearest,zheng2021adaptive,jiang2021learning,wang2022efficient}だけでなく,固有表現抽出\cite{wang2022k},文法誤り訂正\cite{kaneko-etal-2022-interpretability}などの幅広い問題設定に応用され,有効性が示されている.しかしながら,対話における感情認識に,近傍事例を応用する手法は存在しない.そこで本研究は,対話の感情認識タスクに近傍事例を初めて応用する.近傍事例の距離や教師ラベルを利用するだけでなく,近傍事例の特徴量を作成し活用する手法も注目を集めている.Heらの手法\cite{he2021fast}は,機械翻訳タスクにおいて,近傍事例に付与された参照文から単語埋め込みと位置埋め込みを用いて特徴量を作成し,NMTモデルのデコーダに追加で入力する.またBorgeaudらの手法\cite{borgeaud2022improving}は,入力テキストをある程度の長さ(チャンク)で分割し,分割したチャンクごとに近傍事例を検索する.検索した近傍事例の文章からトランスフォーマー(Transformer)\cite{NIPS2017_3f5ee243}を用いてトークンごとの特徴量を作成し,交差注意(CA:CrossAttention)を用いて言語モデルに反映する.これらの従来手法は,近傍事例の特徴量を利用する点で提案手法と関連するが,注意機構を用いて言語モデルに反映させる点で提案手法と異なる.提案手法は,近傍事例の特徴量を入力し,従来の識別モデルの確率分布と近傍事例の確率分布を組み合わせるための重み係数を導出する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-2ia8f1.pdf}\end{center}\hangcaption{提案手法の\rev{推論の流れ}.提案手法は,\rev{ベースエンコーダ}による確率分布作成(\rev{\ref{sec:base_prob}節}),近傍事例の検索(\rev{\ref{sec:ret}節}),近傍事例による確率分布作成(\rev{\ref{sec:knn}節}),確率分布の組み合わせ(\rev{\ref{sec:weight}節})で構成される.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-2ia8f2.pdf}\end{center}\caption{\rev{ベースエンコーダとクエリーエンコーダの構成}}\label{fig:base_query}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} はじめにERCの問題設定を示す.ERCでは,対話における各発話$(x_1,x_2,\cdots,x_N)$の感情ラベル$(y_1,y_2,\cdots,y_N),\y_n\in\mathbb{S}$を認識する.$N$は1つの対話に現れる発話の数を示す.$\mathbb{S}$は感情ラベルの集合を示し,感情ラベルのラベル数を$C$とする.\rev{提案手法の推論の流れ}を図~\ref{fig:overview}に示す.はじめに識別対象の発話$x_{n}$とその先行文脈$x_{1:n-1}$を従来の識別モデル(\rev{ベースエンコーダ})に入力し,感情ラベルの確率分布$p^0$を作成する(\rev{\ref{sec:base_prob}節}).次に,識別対象の発話と先行文脈による対話を入力し,クエリーエンコーダを用いて得られる特徴量ベクトルをクエリーとして,\rev{あらかじめ訓練セットを用いて作成したデータベース(\ref{sec:db}節)}から意味的に近い事例を検索する(\rev{\ref{sec:ret}節}).\rev{ベースエンコーダとクエリーエンコーダの構成を図~\ref{fig:base_query}に示す.}検索した近傍事例に付与された感情ラベルと,識別対象の発話との距離に基づいて確率分布$p^K$を作成する(\rev{\ref{sec:knn}節}).さらに,\rev{ベースエンコーダ}から得られる識別対象発話の特徴量ベクトルと近傍事例の特徴量ベクトルを自己注意層(SA:SelfAttention)とFFNに入力し,重み係数$\lambda_n^0,\lambda_n^K$を取得する.重み係数$\lambda_n^0,\lambda_n^K$を用いて,\rev{ベースエンコーダ}の確率分布$p^0$と近傍事例の確率分布$p^K$の重み付き線形和から確率分布$p$を得る(\rev{\ref{sec:weight}節}).最後に,最も確率の高い感情ラベル$y_n$を出力する.\rev{提案手法は,4つのステップを通して,パラメータを段階的に学習し,感情ラベルの推論を行う.まずステップ1で,図~\ref{fig:base_query}に示すベースエンコーダとクエリーエンコーダのパラメータを学習する.ベースエンコーダとクエリーエンコーダのそれぞれが出力する確率分布から得られる感情ラベルと教師ラベルを用いて,交差エントロピー(CE:CrossEntropy)損失を計算する(\ref{sec:base}節,\ref{sec:query}節).次にステップ2では,ステップ1で学習したクエリーエンコーダを利用し,近傍事例検索用のデータベースを作成する(\ref{sec:db}節).ステップ3では,ステップ1で学習したベースエンコーダとクエリーエンコーダのパラメータを固定し,図~\ref{fig:overview}の重み係数$\lambda_n^0,\lambda_n^K$を導出するネットワークのパラメータを学習する(\ref{sec:learnedcoef}項).最後に,学習した全てのパラメータを固定し,図~\ref{fig:overview}の感情ラベルの推論を行う.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースエンコーダの学習}\label{sec:base}識別対象の発話$x_{n}$とその先行文脈$x_{1:n-1}$を入力し,$n$番目の発話における感情ラベル$y_n$を導く確率分布を\rev{用いて},従来の識別モデル(\rev{ベースエンコーダ})を\rev{学習}する.\rev{図~\ref{fig:base_query}に示すように,識別対象の発話と先行文脈による対話$x_{1:n}$を入力し,対象の$n$番目の発話の特徴量ベクトル$\mathbf{g}_n^0$を取得する.得られた特徴量ベクトル$\mathbf{g}_n^0$から$2$層のFFNとソフトマックス(Softmax)関数を用いて,確率分布$p^0(y_n|x_{1:n})$を作成する.}\rev{ベースエンコーダ}には,対話の状況や話者の特徴に応じた文脈を考慮するDialogueCRN\cite{hu-etal-2021-dialoguecrn},話者自身と他者の発話の影響を考慮するDAG-ERC\cite{shen2021directed}のいずれかを用いる.DialogueCRNは,対話における各発話の内容を示す特徴量ベクトルを作成し,LSTMを用いて対話の状況と話者の特徴に応じた文脈を利用する.状況に応じた文脈を表すベクトルと,話者の特徴に応じた文脈を表す特徴量ベクトルを結合し,FFNとSoftmax関数を用いて感情ラベルの確率分布を作成する.DAG-ERCは,RoBERTa-largeモデル\cite{liu2019roberta}を用いて対話における発話の内容を表す特徴量ベクトルを作成する.さらに,GATを拡張した有向非巡回グラフニューラルネットワークを用いて自身の発話からの影響と他者の発話からの影響を考慮する特徴量ベクトルを取得する.発話の内容を表す特徴量ベクトルと発話間の影響を表す特徴量ベクトルを結合し,FFNとSoftmax関数を用いて感情ラベルの確率分布を作成する.ただし,DAG-ERCモデルは,利用する先行発話の数がDialogueCRNと異なり,$n$番目の発話の話者が直前に発した$s(s\leqn)$番目の発話$x_{s}$から$n$番目までの対話$x_{s:n}$を利用する.\rev{ベースエンコーダのパラメータは,確率分布$p^0$が出力する感情ラベルと教師ラベルとの交差エントロピー損失を用いて学習する(ステップ1).ステップ2以降では,ステップ1で学習したベースエンコーダのパラメータを固定する.ベースエンコーダから得られる特徴量ベクトル$\mathbf{g}_n^0$を図~\ref{fig:overview}の重み係数の導出に利用し(\ref{sec:learnedcoef}項),確率分布$p^0(y_n|x_{1:n})$を図~\ref{fig:overview}の従来の識別モデルによる確率分布として利用する(\ref{sec:base_prob}節).}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クエリーエンコーダの学習}\label{sec:query}\rev{次に識別対象の発話$x_{n}$とその先行文脈$x_{1:n-1}$を入力し,\ref{sec:base}節と同様に$n$番目の発話における感情ラベル$y_n$を導く確率分布を用いて,クエリーエンコーダを学習する.}まず識別対象の発話とその発話から総トークン数が$128$を越えない範囲で先行文脈を遡ったトークン列を事前学習済RoBERTa\footnote{\url{https://huggingface.co/roberta-large}}に入力し,\rev{図~\ref{fig:base_query}に示す}$[\mathrm{CLS}]$トークンの位置の特徴量ベクトル\rev{$\mathbf{r}_n$}を出力する.ただし,Yangらの手法\cite{yang2019emotionx}を参考に,発話間には$[\mathrm{SEP}]$トークンを挿入する.\rev{得られた特徴量ベクトル$\mathbf{r}_n$から$2$層のFFNとSoftmax関数を用いて,確率分布$q(y_n|x_{1:n})$を作成する.}\rev{クエリーエンコーダのパラメータは,確率分布$q$が出力する感情ラベルと教師ラベルとの交差エントロピー損失を用いて学習する(ステップ1).ベースエンコーダと同様に,ステップ2以降では,ステップ1で学習したクエリーエンコーダのパラメータを固定する.クエリーエンコーダから得られる特徴量ベクトル$\mathbf{r}_n$を,データベースの作成(\ref{sec:db}節)と近傍事例の検索(\ref{sec:ret}節)に利用する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データベース作成}\label{sec:db}\rev{訓練データセットの対話の内,識別対象の発話$x_{n}$とその先行文脈$x_{1:n-1}$を入力し,\ref{sec:query}節で学習済みのクエリーエンコーダを用いて特徴量ベクトル$\mathbf{r}_n$を作成する.対象の発話と先行文脈を入力し得られる}特徴量ベクトルをキー,対象の発話に付与された感情ラベルを値として,訓練データセットの全ての対話の全発話から得られるキーと値の組みをデータベースに登録する\rev{(ステップ2).}なお,本論文ではクエリーエンコーダとして,RoBERTaモデルを用いるが,対象の発話とその先行文脈を入力し対象の発話の特徴量ベクトルを出力する他のモデルも利用可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースエンコーダによる確率分布}\label{sec:base_prob}\rev{図~\ref{fig:overview}に示す}識別対象の発話$x_{n}$とその先行文脈$x_{1:n-1}$を入力し,$n$番目の発話における感情ラベル$y_n$を導く確率分布$p^0(y_n|x_{1:n})$を,従来の識別モデル(\rev{ベースエンコーダ})を用いて作成する.\rev{ベースエンコーダ}は,\rev{\ref{sec:base}節で学習済みのDialogueCRN\cite{hu-etal-2021-dialoguecrn}とDAG-ERC\cite{shen2021directed}のいずれかを用いる.}なお,本論文では\rev{ベースエンコーダ}として,文脈を考慮し高い認識性能を獲得するDialogueCRNと,発話間の関係を考慮し高い認識性能を獲得するDAG-ERCを用いるが,ERCタスクで学習した他のモデルも利用可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{近傍事例の検索}\label{sec:ret}\ref{sec:db}\rev{節}で作成したデータベースを用いて,近傍事例を検索する方法について述べる.識別対象の発話$x_{n}$とその先行文脈$x_{1:n-1}$を,\rev{\ref{sec:query}節で学習済みの}クエリーエンコーダに入力し,特徴量ベクトル\rev{$\mathbf{r}_n$}を取得する.次に,取得した特徴量ベクトル\rev{$\mathbf{r}_n$}を\rev{検索}クエリーとして,\ref{sec:db}\rev{節}に示すデータベースに登録された特徴量ベクトルとの距離を計算し,距離の近い上位$K$個の近傍事例を取得する.取得した各近傍事例は,特徴量ベクトル,感情ラベル,クエリーとの距離によって構成され,その集合を$\mathbb{K}_n=\{(\mathbf{h}_n^i,v_n^i,d(\mathbf{h}_n^i,\rev{\mathbf{r}_n})),i\in\{1,2,\cdots,K\}\}$とする.\rev{$\mathbf{h}_n^i$は検索クエリー$\mathbf{r}_n$を用いて\ref{sec:db}節のデータベースから取り出した近傍事例の特徴量ベクトルを示し,$v_n^i$は特徴量ベクトル$\mathbf{h}_n^i$とデータベースの組みを形成する感情ラベルを示す.}Khandelwalらの手法\cite{khandelwal2021nearest}を参考に,距離尺度$d(\cdot,\cdot)$としてL2ノルムを用いる.\rev{本論文では,訓練データセットの全ての対話を用いて検索用のデータベースを構築するが,一般的にデータベースのサイズが訓練セットよりも小さい場合,対象の発話に近い事例が少なくなり,ノイズとなる事例が検索される可能性がある.一方でサイズが訓練セットよりも大きい場合,事例の探索に時間がかかる.}さらに本稿は,Jiangらの手法\cite{jiang2021learning}を参考に,訓練時と評価時で検索する事例の数$K$を変更する.\ref{sec:db}\rev{節}で示すように,データベースは訓練データから構築するため,訓練時すなわち訓練データの発話をクエリーとする場合,完全に一致する発話をデータベースから検索する.一方で評価時すなわち評価データの発話をクエリーとする場合,類似した発話がデータベースに存在しない可能性がある.このような訓練時と評価時の違いは過学習を引き起こすことが知られているため\cite{jiang2021learning},本稿はJiangらの手法\cite{jiang2021learning}と同様に,訓練時は上位$K+1$個の事例を検索し,最も類似する事例を削除した残りの$K$個の事例を利用する.評価時は事例の削除を行わず,上位$K$個の事例を利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{近傍事例による確率分布}\label{sec:knn}\ref{sec:ret}\rev{節}で検索した近傍事例を用いて確率分布を作成する.検索した$K$個の近傍事例の,感情ラベル$v_n^i$とクエリーとの距離$d(\mathbf{h}_n^i,\rev{\mathbf{r}_n})$を用いる.Khandelwalらの手法\cite{khandelwal2021nearest}を参考に,感情ラベル$v_n^i$と距離$d(\mathbf{h}_n^i,\rev{\mathbf{r}_n})$を用いて,$n$番目の発話の確率分布を算出する式を式~(\ref{eq:example})に示す.\begin{equation}\label{eq:example}p^K(y_n|x_{1:n})\propto\sum_{(\mathbf{h}_n^i,v_n^i)\in\mathbb{K}_n}\mathbbm{1}_{y_n=v_n^i}\mathrm{exp}\bigg(\frac{-d(\mathbf{h}_n^i,\mathbf{r}_n)}{T}\bigg)\end{equation}$\mathbbm{1}_{y_n=v_n^i}$は,近傍事例の感情ラベル$v_n^i$が感情ラベル$y_n$と同一である場合に1を返す指示関数である.$T$は距離の近い事例のラベルを重要視するか,頻度が多いラベルを重要視するかのバランスをとるハイパーパラメータである.$T$が小さい場合,距離の近い事例に付与された感情ラベルに重きが置かれ,そのラベルの確率が高い分布が作成される.一方Tが大きい場合,近傍事例に占める感情ラベルの出現頻度に重きが置かれ,出現頻度の高いラベルの確率が高い分布が作成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{確率分布の組み合わせ}\label{sec:weight}\ref{sec:base_prob}\rev{節}で作成した\rev{ベースエンコーダ}による確率分布$p^0$と,\ref{sec:knn}\rev{節}で作成した近傍事例による確率分布$p^K$を組み合わせる.本論文は,定数の重み係数を導入し線形結合を行う方法と,動的に変化する重み係数を導入し線形結合を行う方法の2通りを示す.定数による重み係数は,常に一定の割合で近傍事例による確率分布を利用するため,近傍事例に適切な事例が存在するか否かに応じて重み係数を調整することができない.そこで,識別対象の発話に応じて動的に重み係数を変更する方法を示す.最後に,重み付き線形和によって得られる確率分布の中で,最も確率の高い感情ラベルを識別結果として出力する.\rev{なお,提案手法はベースエンコーダ(DAG-ERCまたはDialogueCRN)から得られる確率分布$p^0$と,クエリーエンコーダ(Finetuned-RoBERTa)を用いて検索した近傍事例による確率分布$p^K$を組み合わせるため,異なるモデルの出力を組み合わせるアンサンブルの一種である.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{静的な重み係数}\label{sec:fixedcoef}重み係数$\lambda$を用いて線形結合を行い,\rev{ベースエンコーダ}による確率分布$p^0$と近傍事例による確率分布$p^K$を式~(\ref{eq:addition_s})のように組み合わせる.\begin{equation}\label{eq:addition_s}p(y_n|x_{1:n})=(1-\lambda)\p^0(y_n|x_{1:n})+\lambda\p^K(y_n|x_{1:n})\end{equation}重み係数$\lambda$は定数で与えるハイパーパラメータである.常に一定の割合で2つの確率分布を組み合わせるため,本手法を提案手法(静的な重み係数)とする.式~(\ref{eq:addition_s})によって得られた確率分布の中で,最も確率の高い感情ラベルを,式~(\ref{eq:predict_s})に示すように識別結果として出力する.\begin{equation}\label{eq:predict_s}\hat{y}_n=\argmax_{c\in\mathbb{S}}\left(p\left[c\right]\right)\end{equation}ただし,$\mathbb{S}$は感情ラベルの集合,$p$は式~(\ref{eq:addition_s})で組み合わせた確率分布$p(y_n|x_{1:n})$を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{動的な重み係数}\label{sec:learnedcoef}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{重み係数を導出するネットワークの構造}\label{sec:coefnetwork}\rev{ベースエンコーダ}による確率分布$p^0$が適切な場合は\rev{ベースエンコーダ}側の重み係数を高く,近傍事例による確率分布$p^K$が適切な場合は近傍事例側の重み係数を高くすることが望まれる.どちらの確率分布が適切かは,\rev{ベースエンコーダ}から得られる識別対象発話の特徴量ベクトルと近傍事例の特徴量ベクトルの性質によって決まると考え,\rev{ベースエンコーダ}から得られる特徴量ベクトル$\rev{\mathbf{g}_n^0}$と,近傍事例の特徴量ベクトル$\mathbf{h}_n^i,i\in\{1,2,\cdots,K\}$を用いて重み係数を導出する.次に,ラベル埋め込み表現を入力に加算する.\ref{sec:ret}\rev{節}に示すように,近傍事例は訓練データセットから検索するため,感情ラベルが付与されている.近傍事例に付与された感情ラベルは,重み係数を決める重要な情報と考え,感情ラベルの埋め込み表現を近傍事例の特徴量ベクトル$\mathbf{h}_n^i,i\in\{1,2,\cdots,K\}$に加算する.ラベル埋め込みの種類は,感情ラベルのラベル数$C$である.一方で,\rev{ベースエンコーダ}から得られる特徴量ベクトル$\rev{\mathbf{g}_n^0}$は,識別対象の発話を入力し作成するため,感情ラベルが与えられない.そこで,$C$種類の感情ラベルとは異なるダミーラベルの埋め込み表現を用意し加算する.ラベル埋め込みを加算した\rev{ベースエンコーダ}から得られる特徴量ベクトル$\rev{\mathbf{g}_n^0}$と,近傍事例の特徴量ベクトル$\mathbf{h}_n^i,i\in\{1,2,\cdots,K\}$を連結し,行列$H_n=[\rev{\mathbf{g}_n^0},\mathbf{h}_n^1,\cdots,\mathbf{h}_n^K]^T\in\mathbb{R}^{(K+1)\timesd}$とする.$d$は$\mathbf{h}_n^i$の特徴量次元を示す.\rev{なお,本手法はベースエンコーダから得られる特徴量ベクトル$\mathbf{g}_n^0$と,近傍事例の特徴量ベクトル$\mathbf{h}_n^i$を連結するため,両者の次元数は同一である必要がある.}次に,自己注意層とFFN層を用いて,スカラー値$\lambda_n^i,i\in\{0,1,\cdots,K\}$を取得する.行列$H_n$を入力し,自己注意層を用いて,式~(\ref{eq:sa})のとおり特徴量ベクトル間の関連性$H_n'$を計算する.\begin{equation}\label{eq:sa}H_n^{\prime}=\mathrm{softmax}\left(\frac{H_nW^q\left(H_nW^k\right)^T}{\sqrt{d}}\right)H_nW^v\end{equation}$W^q,W^k,W^v$は自己注意層のパラメータ,$\frac{1}{\sqrt{d}}$はスケーリングのパラメータである.また,近傍事例は距離の近い事例から順に取得する.そのため,距離の遠い事例から近い事例へ,影響が及ぶことを防ぐためのマスクを自己注意層に適用する.このマスクは,$i\(0\leqi\leqK)$番目の特徴量は,$i$以下の$j\(j\in\{0,1,\cdots,i\})$番目の特徴量にのみ依存することを示す.得られた行列$H_n^{\prime}\rev{=[{\mathbf{g}_n^0}^{\prime},{\mathbf{h}_n^1}^{\prime},\cdots,{\mathbf{h}_n^K}^{\prime}]^T}$の内,$i$番目の特徴量ベクトルを,ReLU(RectifiedLinearUnit)活性化関数を間に挿入した2層のFFNに入力し,式~(\ref{eq:ffn})によってスカラー値$\lambda_n^i$を取得する.\begin{equation}\label{eq:ffn}\rev{\lambda_n^i=\begin{cases}\mathrm{ReLU}({\mathbf{g}_n^i}^{\prime}W_1+\mathbf{b}_1)W_2+b_2&\text{$i=0$のとき}\\\mathrm{ReLU}({\mathbf{h}_n^i}^{\prime}W_1+\mathbf{b}_1)W_2+b_2&\text{$0<i\leqK$のとき}\end{cases}}\end{equation}$W_1,W_2,\mathbf{b}_1,b_2$はFFNのパラメータである.スカラー値$\lambda_n^i,i\in\{0,1,\cdots,K\}$の内,\rev{ベースエンコーダ}の確率分布$p^0$と近傍事例の確率分布$p^K$に対応する$\lambda_n^0,\lambda_n^K$を取り出し,Softmax関数により正規化して重み係数を得る.最後に,正規化した重み係数$\lambda_n^0,\lambda_n^K$を用いて線形結合を行い,\rev{ベースエンコーダ}による確率分布$p^0$と近傍事例による確率分布$p^K$を式~(\ref{eq:addition_d})によって組み合わせる.\begin{equation}\label{eq:addition_d}p(y_n|x_{1:n})=\lambda_n^0\p^0(y_n|x_{1:n})+\lambda_n^K\p^K(y_n|x_{1:n})\end{equation}動的に重み係数を変更するため,本手法を提案手法(動的な重み係数)とする.本手法も式~(\ref{eq:predict_s})に示す提案手法(静的な重み係数)と同様に,式~(\ref{eq:addition_d})で得られた確率分布の中で最も確率の高い感情ラベルを,識別結果として出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{重み係数の学習}\rev{重み係数を導出するネットワークを学習する方法について述べる.\ref{sec:base}節と\ref{sec:query}節(ステップ1)で学習済みのベースエンコーダとクエリーエンコーダのパラメータを固定し,重み係数を導出するネットワークを学習する(ステップ3).}損失関数として,\rev{式~(\ref{eq:addition_d})の}確率分布$p$が出力する感情ラベルと教師ラベルとの交差エントロピー(CE:CrossEntropy)損失を式~(\ref{eq:ce})で計算する.\begin{equation}\label{eq:ce}\mathcal{L}_{CE}(\theta)=-\frac{1}{\sum_{m=1}^MN_m}\sum_{m=1}^M\sum_{n=1}^{N_m}\mathrm{log}\p\left[y_n\right]\end{equation}ただし,$M$は訓練データにおける対話の総数を示し,$N_m$は$m$番目の対話の発話数を示す.$p$は式~(\ref{eq:addition_d})で組み合わせた確率分布$p(y_n|x_{1:n})$を示し,$y_n$は$n$番目の発話の教師ラベルを示す.$\theta$は重み係数を導出するネットワークのパラメータを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{31-2ia8f3.pdf}\end{center}\hangcaption{重み係数の学習方法.最終的な確率分布$p$が出力する感情ラベルと,教師ラベルとの交差エントロピー(CE)損失を計算する.\rev{ベースエンコーダ}による確率分布$p^0$と近傍事例による確率分布$p^K$のそれぞれが,教師ラベルと同じラベルを示す場合に,重み係数を大きく,そうでない場合に重み係数を小さくするように,バイナリー交差エントロピー(BCE)損失を用いて損失関数を計算する.重み係数を取得するパラメータは交差エントロピー(CE)損失とバイナリー交差エントロピー(BCE)損失のマルチタスクで学習する.}\label{fig:coefloss}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本手法はさらに,動的な重み係数を導出するニューラルネットワークを学習するために,従来の識別モデルによる確率分布$p^0$と近傍事例による確率分布$p^K$のそれぞれが出力する感情ラベルが,教師ラベルと一致する場合に重み係数を高め,そうでない場合に重み係数を低くする損失関数(係数損失)を導入する.概要を図~\ref{fig:coefloss}に示す.\rev{ベースエンコーダ}の確率分布$p^0$と近傍事例の確率分布$p^K$のそれぞれが出力する感情ラベルが,教師ラベルと一致する場合に$1$,そうでない場合に$0$の信号を与え,バイナリー交差エントロピー(BCE:BinaryCrossEntropy)損失を計算する.式~(\ref{eq:ffn})に示すSoftmax関数による正規化を行う前のスカラー値$\lambda_n^i$と教師信号を用いて,%%%%式~(\ref{eq:bce})に示すシグモイド(Sigmoid)層とバイナリー交差エントロピー損失を組み合わせた損失関数を計算する.式~(\ref{bce_1})に示すシグモイド(Sigmoid)層とバイナリー交差エントロピー損失を組み合わせた損失関数を計算する.\begin{align}%%%%\label{eq:bce}\mathcal{L}_{BCE}(\theta)&=-\frac{1}{\sum_{m=1}^MN_m}\sum_{m=1}^M\sum_{n=1}^{N_m}\mathcal{L}_{n}\label{bce_1}\\\mathcal{L}_{n}&=\sum_{i\in\{0,K\}}\mathbbm{1}_{y_n=\hat{y}_n^i}\mathrm{log}\\sigma\bigl(\lambda_n^i\bigr)+\Bigl(1-\mathbbm{1}_{y_n=\hat{y}_n^i}\Bigr)\mathrm{log}\Bigl(1-\sigma\bigl(\lambda_n^i\bigr)\Bigr)\label{bce_2}\\\hat{y}_n^i&=\argmax_{c\in\mathbb{S}}\left(p^i\left[c\right]\right)\label{bce_3}\end{align}ただし,式~(\ref{bce_3})における$p^i$は,式~(\ref{eq:addition_d})に示す従来の識別モデルによる確率分布$p^0$または近傍事例による確率分布$p^K$を示す.式~(\ref{bce_3})は確率分布$p^i$が出力する感情ラベルを示し,式~(\ref{bce_2})の$\mathbbm{1}_{y_n=\hat{y}_n^i}$は,教師ラベル$y_n$とそれぞれの確率分布が出力するラベル$\hat{y}_n^i$が,一致する場合に$1$を返す指示関数を示す.$\sigma$はSigmoid関数を示す.以上より,教師ラベルとの交差エントロピー(CE)損失と,動的な重み係数を学習するバイナリー交差エントロピー(BCE)損失とを足し合わせたマルチタスクで,提案手法のパラメータを学習する.最終的な損失関数を式~(\ref{eq:loss})に示す.\begin{equation}\label{eq:loss}\mathcal{L}(\theta)=\mathcal{L}_{CE}(\theta)+\mathcal{L}_{BCE}(\theta)\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{重み係数の閾値}本手法は,重み係数が$0$または$1$の極端な値になることを防ぐために,閾値を設ける.先行研究\cite{kaneko-etal-2022-interpretability}では,重み係数が$0$や$1$に近い値を示す場合,\rev{ベースエンコーダ}と近傍事例による確率分布の中で,一方の確率分布にのみ依存するため推論が不安定になると報告されている.一方で,重み係数が$0.5$付近を示す場合,両方の確率分布を用いるため,推論が安定することが知られている\cite{kaneko-etal-2022-interpretability}.そこで,閾値$\xi\(0.5\le\xi\le1)$を設け,閾値を超える重み係数$\lambda_n^i\(\lambda_n^i<(1-\xi)\or\\xi<\lambda_n^i)$を,$0.5$に置換する.先行研究\cite{kaneko-etal-2022-interpretability}を参考に,重み係数が$0.5$付近に分布するすなわち両方の分布を用いる場合に推論が安定するため,置換する値を$0.5$に設定する.閾値$\xi$はハイパーパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}ERCにおける3つのベンチマークセット\footnote{2021年11月時点で\url{https://github.com/shenwzh3/DAG-ERC}に公開されたデータセットを使用.}を用いて,提案手法の有効性を検証する.訓練,検証,評価セットの対話数と発話数とラベル数を表~\ref{tab:description}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{08table03.tex}%\caption{IEMOCAP,MELD,EmoryNLPベンチマークデータセットの割合.}\label{tab:description}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[IEMOCAP]{IEMOCAP\cite{busso2008iemocap}}は2人の話者が,\pagebreak1対1の会話を行う様子を収録した映像と音声の書き起こしからなるデータセットである.各発話には,\textit{happy},\textit{sad},\textit{neutral},\textit{angry},\textit{excited},\textit{frustrated}の感情ラベルのうち1つが付与されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[MELD]{MELD\cite{poria2018meld}}は,複数の俳優が登場する\textit{Friends}というTVドラマの,一部シーンを切り取った映像と音声の書き起こしからなるデータセットである.また,1つの対話に複数の話者が登場する.各発話には,\textit{neutral},\textit{joy},\textit{surprise},\textit{sadness},\textit{anger},\textit{disgust},\textit{fear}の感情ラベルのうち1つが付与されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[EmoryNLP]{EmoryNLP\cite{zahiri2018emotion}}はTVドラマ\textit{Friends}から,一部のシーンを切り取り収集したデータセットである.MELDデータセットとデータサイズとラベルの種類が異なり,\textit{neural},\textit{sad},\textit{mad},\textit{scared},\textit{powerful},\textit{peaceful},\textit{joyful}のうち1つが付与される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}Shenらの手法\cite{shen2021directed}で用いられた評価指標と同じ,重み付きF1値を全てのデータセットの評価に用いる.また,ノンパラメトリック検定の一つである並べ替え検定を用いて,有意差を検定する.検定対象の統計量には,$5$回実験を行って得た重み付きF1値の平均値の差を用い,有意水準$5\%$の片側検定を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{既存手法との比較}提案手法の有効性を検証するために,以下に示す従来手法と重み付きF1値を比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[KET]{KET\cite{zhong2019knowledge}}階層的自己注意層を用いて文脈を利用する手法である.また,GATを用いて,常識的知識に関する外部データベースを利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[DialogueRNN]{DialogueRNN\cite{majumder2019dialoguernn}}\label{dialoguernn}畳み込みニューラルネットワーク(CNN:ConvolutionalNeuralNetworks)\cite{kim-2014-convolutional}を用いて発話の特徴量を取得し,話者の特徴と先行文脈,先行発話の感情の関連性について,それぞれGatedRecurrentUnit(GRU)\cite{69e088c8129341ac89810907fe6b1bfe}でモデリングする手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[DialogueGCN]{DialogueGCN\cite{ghosal2019dialoguegcn}}\label{dialoguegcn}CNNを用いて発話の特徴量を取得し,隣接する発話間の相互作用をGRUを用いて取得する手法である.加えて,発話間の関係の中でも自己依存と相互依存の取得にRGCNとGATを利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[HiTrans]{HiTrans\cite{li2020hitrans}}発話の内容を示す特徴量の取得にBERTモデルを用い,大域的な文脈の利用にTransformerを用い,階層的に組み合わせた手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[DialogXL]{DialogXL\cite{shen2020dialogxl}}過去の発話を保存し共有するネットワークを,XLNet\cite{yang2019xlnet}に加えた手法である.また隣接する発話間の関係(局所的)と,会話全体の発話間の関係(大域的)と,話し手,聞き手の特徴を,それぞれ自己注意層を用いて取得する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[RGAT+P]{RGAT+P\cite{石渡太智2021発話順序に基づく}}RoBERTaモデルを用いて発話の特徴量を取得し,自己依存と相互依存の取得にRGCNとGATを利用する手法である.加えて,発話の順序情報をGATに組み込む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[COSMIC]{COSMIC\cite{ghosal-etal-2020-cosmic}}話者の心理状態や,イベント,因果関係などに基づいた話者間の相互作用を考慮した手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[Finetuned-RoBERTa]{Finetuned-RoBERTa}\rev{提案手法は,クエリーエンコーダとしてFinetuned-RoBERTaを用いる(\ref{sec:query}節).図~\ref{fig:base_query}に示す確率分布$q$から得られる感情ラベルを,Finetuned-RoBERTa単体の出力として用いる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[DAG-ERC]{DAG-ERC\cite{shen2021directed}}話者自身の離れた発話からの影響と,他者の近い発話からの影響を利用するために,GATを拡張した有向非巡回グラフニューラルネットワークを用いる手法である.本実験では,提案手法との比較のため再現実験を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[DialogueCRN]{DialogueCRN\cite{hu-etal-2021-dialoguecrn}}対話の状況や話者の特徴に応じた文脈を利用する手法である.状況や話者の特徴を理解するために,LSTMを利用する.本実験では,提案手法との比較のため再現実験を行う.ただし,事前学習済みモデルが公開されているIEMOCAP,MELDデータセットのみ検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[アンサンブル(静的)]{アンサンブル(静的)}本手法は\rev{ベースエンコーダ}としてDAG-ERCとDialogueCRNをクエリーエンコーダとしてFinetunedRoBERTaを利用する.異なるモデルの出力を組み合わせるため,アンサンブルの一種である.そこで,伝統的なアンサンブル手法と比較する.\rev{図~\ref{fig:base_query}に示すベースエンコーダによって得られる確率分布$p^0$と,クエリーエンコーダによって得られる確率分布$q$を,重み付き線形和によって組み合わせる.}近傍事例による確率分布ではなく,クエリーエンコーダによる確率分布を利用する点で提案手法と異なる.重み係数はハイパーパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[アンサンブル(動的)]{アンサンブル(動的)}\rev{ベースエンコーダ}による確率分布\rev{$p^0$}とクエリーエンコーダによる確率分布\rev{$q$}を入力し,FFNを用いて確率分布を作成する.教師ラベルと推論ラベルとの交差エントロピー損失を用いてFFNのパラメータを学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{その他の実験設定}\label{seq:exp_set}その他の実験設定を示す.\rev{はじめにステップ1におけるベースエンコーダとクエリーエンコーダの学習の設定を示す.}\rev{ベースエンコーダ}として利用するDAG-ERCは\cite{shen2021directed}で報告されたパラメータ\footnote{2021年11月時点で\url{https://github.com/shenwzh3/DAG-ERC}に記載されたパラメータを使用.}を用いて,対話の感情認識タスクで学習した.ただし,ハイパーパラメータの中で学習率のみ,\cite{shen2021directed}で報告された値と異なる値を用いる.その学習率は$(5e-5,1e-5,5e-6)$の中から,検証データで最も性能が高くなるものを選択した.DialogueCRNも同様に,\cite{hu-etal-2021-dialoguecrn}で報告されたパラメータ\footnote{2021年11月時点で\url{https://github.com/zerohd4869/DialogueCRN}に記載されたパラメータを使用.}を用いて学習した.クエリーエンコーダとして利用するFinetunedRoBERTaは,ドロップアウト(Dropout)を$0.3$に設定し,損失関数に交差エントロピー損失を用いて学習した.学習率は$(5e-5,1e-5,5e-6)$の中から,検証データで最も性能が高くなるものを選択した.\rev{続いてステップ3に関連する実験設定を示す.}アンサンブル(静的)と提案手法(静的な重み係数)の重み係数$\lambda$は,$(0,0.25,0.5,0.75,1)$の中から検証データで最も重み付きF1値が高くなるものを選択した.提案手法(動的な重み係数)の学習率は$(5e-5,1e-5)$の中から,閾値$\xi$は$(0.85,0.90,0.95)$の中から検証データで最も性能が高くなるものを選択した.FinetunedRoBERTaと提案手法(動的な重み係数)はRAdamoptimizer\cite{liu2019variance}を用いて学習した.\rev{提案手法(静的と動的な重み係数)の特徴量ベクトルの次元数はDAG-ERC\cite{shen2021directed}で報告された$1024$とし,近傍事例の数$K$は\cite{zheng2021adaptive}を参考に$32$に設定した.}$T$は$(1,10,100,1000)$の中から検証データで最も性能が高くなるものに選択した.近傍事例の検索は,faiss\cite{johnson2019billion}を用いた.全ての実験は5回行い,実験結果にはその平均値を用いた.ノンパラメトリック検定の一つである並べ替え検定を用いて,\rev{ベースエンコーダ}単体に対する各手法の有意差を検定した.$512$GBメモリのAMDEPYC7F52CPUとNVIDIAA100のGPUを用いて実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結果と考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{従来手法との比較}従来手法との比較結果を表~\ref{tab:comp}に示す.従来手法のKET,DialogueRNN,DialogueGCN,HiTrans,DialogXL,RGAT+P,COSMICの重み付きF1値は各文献から引用する.\rev{また,Finetuned-RoBERTaをベースエンコーダとクエリーエンコーダに用いたアンサンブル(静的と動的)と提案手法(静的と動的)の結果も示す.提案手法は,図~\ref{fig:base_query}に示すDAG-ERCとDialogueCRNが出力する$n$番目の発話の確率分布をベースエンコーダの確率分布として利用した.クエリーエンコーダのRoBERTaも対象の$n$番目の発話の確率分布を出力するため,その分布をベースエンコーダの確率分布として利用することが可能である.本実験は,Finetuned-RoBERTaをベースエンコーダとクエリーエンコーダに用いる場合の結果と比較し,ベースエンコーダ(DAG-ERC,DialogueCRN)とクエリーエンコーダ(Finetuned-RoBERTa)に異なるモデルを利用する提案手法の有効性も確認する.}表~\ref{tab:comp}のボールド体は各データセットで最も性能が高い値を示し,下線は各\rev{ベースエンコーダ}と各データセットにおいて最も性能が高い値を示す.黒丸はDAG-ERCやDialogueCRNの\rev{ベースエンコーダ}に対する統計的有意差を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{08table04.tex}%\hangcaption{従来手法と提案手法の比較.ボールド体は各データセットで最も性能が高い値を示す.下線は各\rev{ベースエンコーダ}と各データセットにおいて最も性能が高い値を示す.黒丸は\rev{ベースエンコーダ}に対して統計的な有意差が示された値を示す.各値は$5$回の実験による重み付きF1値の平均値を示す.}\label{tab:comp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:comp}より,IEMOCAPデータセットでは重み付きF1値$68.16$($\#$21)を示し,各文献から引用した従来手法だけでなく,\rev{Finetuned-RoBERTa,}DAG-ERCやDialogueCRNの\rev{ベースエンコーダ},アンサンブル手法を大きく上回る最高水準の認識精度を示した.また,EmoryNLPにおいても,重み付きF1値$38.67$($\#$16)となり,最高水準の認識精度を示した.MELDデータセットでは,DAG-ERCやDialogueCRNの\rev{ベースエンコーダ}を上回り,提案手法の有効性を確認した.以上の結果より,複数のベンチマークデータセットで高い認識性能を有することから,データ\rev{のサイズ}や対話に登場する話者の数が異なる場合でも精度良く認識することを確認した.さらに,IEMOCAPとMELDデータセットにおいて,提案手法(動的な重み係数)がDAG-ERCやDialogueCRNの\rev{ベースエンコーダ}に対して,統計的に有意な差を示すことを確認した(\#16,$\#$21).\rev{また,Finetuned-RoBERTaをベースエンコーダに用いたアンサンブル手法($\#$8,$\#$9)と提案手法($\#$10,$\#$11)に比べて,DAG-ERCとDialogueCRNをベースエンコーダに用いたアンサンブル手法($\#$13,$\#$14,$\#$18,$\#$19)と提案手法($\#$15,$\#$16,$\#$20,$\#$21)の認識精度が高いことから,ベースエンコーダと異なるモデル構造を組み合わせる手法の有効性を確認した.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アブレーション分析}\label{sec:ablation}\ref{sec:learnedcoef}\rev{項}で導入した係数損失と閾値の有効性を分析する.提案手法(動的な重み係数)において,係数損失と閾値の両方を使わない場合($\Circled{1}$),係数損失のみを使う場合($\Circled{2}$),両方使う場合($\Circled{3}$)を比較した結果を表~\ref{tab:ablation}に示す.表~\ref{tab:ablation}より,全てのデータセットにおいて,係数損失と閾値の両方を使わない場合($\Circled{1}$)よりも,係数損失のみを使う場合($\Circled{2}$)は約0.6~0.8程度重み付きF1値が向上した.結果から,係数損失の有効性を確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{08table05.tex}%\hangcaption{アブレーション分析の結果.提案手法(動的な重み係数)において,閾値と係数損失の両方を使わない場合($\Circled{1}$),係数損失のみを使う場合($\Circled{2}$),両方使う場合($\Circled{3}$)の結果を比較する.ボールド体は最も性能が高い値を示す.各値は$5$回の実験による重み付きF1値の平均値を示す.}\label{tab:ablation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%係数損失のみを使う場合($\Circled{2}$)と係数損失と閾値の両方を使う場合($\Circled{3}$)を比較すると,IEMOCAPとMELDデータセットにおいて,係数損失と閾値の両方を使う場合($\Circled{3}$)は,係数損失のみを使う場合($\Circled{2}$)よりも認識精度が向上した.特に,MELDデータセットにおいて,DAG-ERCモデルを\rev{ベースエンコーダ}として用いる場合に,重み付きF1値が約$0.3$向上した.これは閾値による重み係数の変更が寄与したことが要因である.MELDデータセットにおける係数損失のみを使う手法($\Circled{2}$)は,$1$付近に重み係数が分布していたため性能が低下した.しかし,両方を使う場合($\Circled{3}$)の結果が示すように,閾値を用いて係数を変更することで,識別に悪影響を与える$1$付近の重み係数を取り除くことができ,認識性能が改善した.詳細は\ref{sec:coefanalysis}\rev{節}で議論する.EmoryNLPでは,係数損失のみを使う場合($\Circled{2}$)の手法が,$38.92$の重み付きF1値を示し,表~\ref{tab:comp}に示す結果との比較で,更なる認識性能の向上を示した.一方で,係数損失と閾値の両方を使う場合($\Circled{3}$)は,係数損失のみを使う場合($\Circled{2}$)に比べ,認識精度が約$0.25$低下した.これは,係数が閾値を超えた際,常に係数を$0.5$とするよう設定したことが原因である.その理由を\ref{sec:coefanalysis}\rev{節}で議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{重み係数の分析}\label{sec:coefanalysis}係数損失と閾値の有効性をさらに詳細に分析するために,動的に変更した重み係数の頻度分布を分析する.図~\ref{fig:coefhist}は,IEMOCAP,MELD,EmoryNLPの3つの検証データセットにおける,\rev{ベースエンコーダ}の重み係数$\lambda_n^0$の頻度分布を示す.DAG-ERCを\rev{ベースエンコーダ}として用い,\ref{sec:ablation}\rev{節}の実験で用いた係数損失と閾値の両方を使わない場合($\Circled{1}$),係数損失のみを使う場合($\Circled{2}$),両方使う場合($\Circled{3}$)の結果を比較する.さらに,全ての重み係数の頻度分布(緑色)だけでなく,検証セットに付与された教師ラベルとの一致を確認し,正答した場合(青色)と誤答した場合(赤色)に分けて頻度分布を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\begin{center}\includegraphics{31-2ia8f4.pdf}\end{center}\hangcaption{重み係数の分布.IEMOCAP,MELD,EmoryNLPの3つの検証データセットにおける,\rev{ベースエンコーダ}側の重み係数$\lambda_n^0$の頻度分布を示す.係数損失と閾値の両方を使わない場合($\Circled{1}$),係数損失のみを使う場合($\Circled{2}$),両方使う場合($\Circled{3}$)の結果を比較する.全ての重み係数(緑色)だけでなく,教師ラベルと推論ラベルを比較し,正答した場合(青色)と誤答した場合(赤色)の係数も比較する.}\label{fig:coefhist}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:coefhist}を用いて,係数損失と閾値の両方を使わない場合($\Circled{1}$)と,係数損失のみを使う場合($\Circled{2}$)を比較する.表~\ref{tab:ablation}のアブレーションの結果より,係数損失を用いることで,全てのデータセットの認識性能が向上した.また図~\ref{fig:coefhist}の結果から,全てのデータセットで,$1$付近に分布していた重み係数が$0.5$付近に変化したことがわかる.先行研究\cite{kaneko-etal-2022-interpretability}が示すように,$0$や$1$付近に分布する重み係数すなわち片方の分布への依存は性能の劣化を示す傾向にあるため,$0.5$付近に分布する重み係数すなわち両方の確率分布を採用する方向に変化したことで,認識性能が向上したことがわかる.次に,係数損失のみを使う場合($\Circled{2}$),係数損失と閾値の両方を使う場合($\Circled{3}$)の結果を比較する.MELDデータセットは,表~\ref{tab:ablation}のアブレーションの結果より,閾値によって重み係数を変更したことで性能が向上した.また図~\ref{fig:coefhist}の結果から,係数損失のみを使う場合($\Circled{2}$)の分布が示すように,係数損失を用いることで$0.5$付近に重み係数が分布した.しかし,$1$周辺に赤色で示される誤答の係数が多く分布している.両方使う場合($\Circled{3}$)の分布が示すように,閾値によって重み係数を変更したことで,$1$周辺の重み係数を置換することができ,結果的に認識性能の向上につながった.次にEmoryNLPデータセットにおける,係数損失のみを使う場合($\Circled{2}$)と,係数損失と閾値の両方を使う場合($\Circled{3}$)の結果を比較する.表~\ref{tab:ablation}のアブレーションの結果より,EmoryNLPでは,閾値を用いて係数を変更したことで性能が低下した.これは係数の変更先として,$0.5$に設定したことが原因と考えられる.図~\ref{fig:coefhist}の結果より,IEMOCAPとMELDデータセットでは,閾値を超えた値を$0.5$に変更することで,$0.5$周辺の係数において青色で示される正答の数が増加した.しかし,EmoryNLPでは,$0.5$に変更しても正答の数が増加しない.さらに,EmoryNLPにおいて0.6~0.9付近に分布する重み係数の頻度が減少した.EmoryNLPでは,閾値による係数変更の置換先として,正答の数が増加しない$0.5$ではなく,0.6~0.9などの幅広い値に置換することが求められる.従って,今後は閾値を超えた重み係数を固定値の$0.5$に置換するのではなく,データセットに適した値に変更することを検討する.以上の結果をまとめると,重み係数を学習する際は,$0.5$付近に重み係数を分布させる係数損失が有効である.また,閾値を用いた係数の変更は,各データセットの重み係数の頻度分布からその有効性を判断することができる.置換後の重み係数の値も重要であることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クエリーエンコーダーの比較}本手法はクエリーエンコーダとして,FinetunedRoBERTaを利用した.FinetunedRoBERTaの有効性を確認するために,\rev{ベースエンコーダ(DAG-ERC,DialogueCRN)と同じモデルをクエリーエンコーダに用いる場合,}再学習をしないRoBERTaモデル(Vanilla)を用いる場合の結果を比較する.\rev{提案手法は図~\ref{fig:base_query}に示すRoBERTaモデルが出力する特徴量ベクトルを検索クエリーに利用した.ベースエンコーダも対象の$n$番目の発話の特徴量ベクトルを出力するため,その特徴量を検索クエリーに利用することが可能である.本実験は,ベースエンコーダと同じモデルをクエリーエンコーダに用いる手法と比較し,FinetunedRoBERTaをクエリーエンコーダに用いる提案手法の有効性を確認する.また,FinetunedRoBERTaをベースエンコーダとクエリーエンコーダの両方に利用する手法も比較する.本実験は提案手法(静的)と提案手法(動的)}の両手法で検証する.実験結果を表~\ref{tab:query}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{08table06.tex}%\hangcaption{クエリーエンコーダの比較.\rev{ベースエンコーダ}と同じ手法,再学習をしないRoBERTaモデル(Vanilla),FinetunedRoBERTa(Finetuned)の比較.ボールド体は各列で最も性能が高い値を示す.}\label{tab:query}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:query}より,提案手法(静的な重み係数)と提案手法(動的な重み係数)の両方で,クエリーエンコーダとしてFinetunedRoBERTaを用いる手法は,最も高い認識性能を示した.\rev{ベースエンコーダと同じモデルをクエリーエンコーダに用いた手法($\#$4,$\#$7,$\#$11,$\#$14)とFinetuned-RoBERTaモデルをベースエンコーダとクエリーエンコーダに用いた手法($\#$1,$\#$2)と比較して,FinetunedRoBERTaをクエリーエンコーダに用いた手法($\#$6,$\#$9,$\#$13,$\#$16)の性能が高いことから,ベースエンコーダと異なるモデルを組み合わせる手法の有効性を確認できる.一方で,ベースエンコーダと同じモデルをクエリーエンコーダに用いる手法($\#$4,$\#$7,$\#$11,$\#$14)は,ベースエンコーダ単体($\#$3,$\#$10)に対して,FinetunedRoBERTaをクエリーエンコーダに用いた手法($\#$6,$\#$9,$\#$13,$\#$16)に相当する性能の改善は認められない.これは,ベースエンコーダと同じモデルをクエリーエンコーダに利用したことで,ベースエンコーダによる確率分布$p^0$と近傍事例による確率分布$p^K$の相関が高くなり,アンサンブルの効果が限定的になってしまったためである.}また,クエリーエンコーダとして再学習を行わないRoBERTa(Vanilla)を用いた手法\rev{($\#$5,$\#$8,$\#$12,$\#$15)}と比較し,FinetunedRoBERTaを用いた手法\rev{($\#$6,$\#$9,$\#$13,$\#$16)}の性能が高いことから,対話の感情認識の観点で近い事例を検索することが認識性能の向上に寄与することがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{確率分布の組み合わせによる効果}\label{sec:component}次に,\rev{ベースエンコーダ}(ベース)による確率分布と,クエリーエンコーダ(クエリ)による確率分布と,近傍事例(kNN)による確率分布の,それぞれが出力する感情ラベルの正確さを分析する.それぞれの確率分布で最も高い感情ラベルを出力と見なし,教師ラベルとの重み付きF1値を計算した結果を表~\ref{tab:component}に示す.複数の確率分布を組合せた場合と比較するために,\rev{ベースエンコーダ}とクエリーエンコーダを組み合わせるアンサンブルと,\rev{ベースエンコーダ}と近傍事例を組み合わせる提案手法の結果も合せて再掲する.表~\ref{tab:component}の結果より,\rev{ベースエンコーダ},クエリーエンコーダ,近傍事例による確率分布を単体で利用するよりも,アンサンブルと提案手法の認識性能が高いことから,異なる確率分布を組み合わせることが精度の向上に寄与することがわかった.また,IEMOCAPとEmoryNLPデータセットにおいて,\rev{ベースエンコーダ}と近傍事例を組み合わせ重み係数を動的に変更する提案手法が,最も高い認識性能を獲得することを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{08table07.tex}%\hangcaption{\rev{ベースエンコーダ}(ベース),クエリーエンコーダ(クエリ),近傍事例(kNN)による確率分布の,それぞれが出力する感情ラベルの正確さを比較.ボールド体は最も性能が高い値を示す.}\label{tab:component}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{08table08.tex}%\hangcaption{\rev{近傍事例の数の比較.3つのベンチマークの検証セットにおいて,近傍事例の数$K$を(1,2,4,8,16,32,64)に変更したときのWeighted-F1値を比較する.ボールド体は各列で最も性能が高い値を示す.}}\label{tab:knn}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{近傍事例の数の効果}\label{sec:knn_num}\rev{次に,近傍事例の数$K$を変更した時の効果を分析する.本手法は先行研究\cite{zheng2021adaptive}を参考に,近傍事例の数$K$を$32$に設定した.本実験は,IEMOCAP,MELD,EmoryNLPの3つのベンチマークデータの検証セットにおいて,近傍事例の数$K$を$(1,2,4,8,16,32,64)$に変更したときのWeighted-F1値を比較する.ベースエンコーダとしてDialogueCRNまたはDAG-ERCを,クエリーエンコーダとしてFinetuned-RoBERTaを用いる.提案手法のハイパーパラメータ(温度$T$と学習率,閾値$\xi$)は,近傍事例の数$K$ごとに検証セットで最も性能が高くなるものを選択した.結果を表~\ref{tab:knn}に示す.}\rev{表~\ref{tab:knn}より,IEMOCAPとEmoryNLPデータセットにおいて,$K$が$4$よりも小さい場合に認識性能が低下することを確認した.また,MELDデータセットにおいて,DialogueCRNをベースエンコーダに用いる手法は,近傍事例の数が$K=32$のときに最も高い性能を示すことを確認した.一方で,最も高いWeighted-F1値を示す近傍事例の数$K$は,データセットによって異なることを確認した.しかし,Weighted-F1値の差は標準偏差内にとどまるため,近傍事例の数$K$とサイズや話者の数が異なるデータセットとの関連性は認められない.}\rev{本実験は,近傍事例の数$K$を変更しその効果を検証したが,近傍事例の数$K$を定数とする場合,$K$個の全ての事例を用いて確率分布を作成するため(\ref{sec:knn}節),ノイズとなり得る事例を利用してしまう可能性がある.従って今後は,識別対象の発話に応じて動的に近傍事例の数$K$を変更する手法,または近傍事例から適切な事例を選択(あるいはノイズとなる事例を削除)する手法を検討する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事例分析}最後に,\rev{ベースエンコーダ}とクエリーエンコーダの確率分布を組み合わせるアンサンブルと,\rev{ベースエンコーダ}と近傍事例を組み合わせる提案手法(静的な重み係数),さらに重み係数を動的に変更する提案手法(動的な重み係数),それぞれの特徴を分析するために,事例分析を行う.分析に使用したデータは,MELDデータセットの検証セットの一部で,\rev{ベースエンコーダ}による確率分布と近傍事例による確率分布が示す感情ラベルが異なり,提案手法(動的な重み係数)が正しく識別した例を示す.図~\ref{fig:jirei1}は,``\textit{sad}''が付与された発話に対する各手法の確率分布を示す.1列目は各手法の\rev{ベースエンコーダ}(DialogueCRN)による確率分布を示す.2列目は,提案手法(静的と動的)における近傍検索した各事例と検索クエリーとの距離を示す.色は感情ラベルの種類を示す.3列目はクエリーエンコーダまたは近傍事例による確率分布を,4列目に各手法の最終的な確率分布を示す.また,各図のタイトルに,各確率分布の重み係数を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{31-2ia8f5.pdf}\end{center}\hangcaption{アンサンブルと提案手法(静的な重み係数),提案手法(動的な重み係数)の推定結果の分析.1列目は各手法の\rev{ベースエンコーダ}(DialogueCRN)による確率分布を示す.横軸は感情ラベルを,縦軸は確率値を示す.``neu''は\textit{neutral},``hap''は\textit{happy},``sur''は\textit{surprised},``sad''は\textit{sad},``ang''は\textit{angry},``dis''は\textit{disgust},``fea''は\textit{fear}を示す.2列目は$K$個の近傍事例を示す.横軸は近傍事例のIndexを,縦軸はクエリーとの距離を示す.3列目は各手法のクエリーエンコーダまたは近傍事例による確率分布を,4列目は各手法の最終的な確率分布を示す.各図のタイトルに,各確率分布の重み係数を示す.図はMELDデータの検証セットの一部で,\textit{sad}が付与されたデータである.}\label{fig:jirei1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:jirei1}の結果が示すように,DialogueCRNを用いた\rev{ベースエンコーダ}による確率分布は``\textit{neutral}''を示すが,FintunedRoBERTaを用いたクエリーエンコーダによる分布と近傍事例による分布は,\rev{ベースエンコーダ}と異なるモデルを利用したため異なる感情ラベルを示す場合がある.また,2列目に示す近傍事例において,最近傍の事例に付与された感情ラベルは``\textit{disgust}''を示すが,検証セットによって$T=1000$が選択されたため,\ref{sec:knn}\rev{節}に示すように出現頻度の高い``\textit{sad}''に重きを置いた分布が作成されたことがわかる.また図~\ref{fig:jirei1}より,アンサンブルと提案手法(静的な重み係数)は常に一定の重み係数$0.5$で確率分布を組み合わせるため,\rev{ベースエンコーダ}とクエリーエンコーダ(近傍事例)の確率分布を比較し,高い確率の感情ラベルを最終的に採用する傾向にある.そのため,アンサンブルと提案手法(静的な重み係数)は最も確率値の高い``\textit{neutral}''を出力し,誤認識してしまった.一方で,提案手法(動的な重み係数)は,\rev{ベースエンコーダ}から得られる特徴量ベクトルや近傍事例の特徴量ベクトルを基に,適切な重み係数を算出したため,正しく識別することができた.次に,EmoryNLPデータセットの検証セットの一部で,提案手法(動的な重み係数)が誤って識別した例を示す.図~\ref{fig:jirei2}は,``\textit{sad}''が付与された発話に対する各手法の確率分布を示す.また,\rev{ベースエンコーダ}は,\ref{sec:ablation}\rev{節},\ref{sec:coefanalysis}\rev{節}の実験で提案手法(動的な重み係数)の性能が劣化したDAG-ERCを利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{31-2ia8f6.pdf}\end{center}\hangcaption{アンサンブルと提案手法(静的な重み係数),提案手法(動的な重み係数)の推定結果の分析.``neu''は\textit{neutral},``sad''は\textit{sad},``mad''は\textit{mad},``sca''は\textit{scared},``pow''は\textit{powerful},``pea''は\textit{peaceful},``joy''は\textit{joyful}を示す.図はEmoryNLPデータの検証セットの一部で,\textit{sad}が付与されたデータである.}\label{fig:jirei2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:jirei2}の結果が示すように,提案手法(動的な重み係数)は,\rev{ベースエンコーダ}から得られる特徴量ベクトルと近傍事例の特徴量ベクトルを基に,重み係数$0.5$を導出した.\rev{ベースエンコーダ}による確率分布と近傍事例による確率分布を重み係数$0.5$で組み合わせたため,最も確率値の高い``\textit{mad}''を出力し,誤認識してしまった.一方で,アンサンブルは重み係数$1.0$を,提案手法(静的な重み係数)は重み係数$0.75$を選択した.両手法は,片方の確率分布の比重を増やすことで,この事例を正しく識別した.以上の結果より,EmoryNLPでDAG-ERCを\rev{ベースエンコーダ}として利用する際は,\ref{sec:ablation}\rev{節},\ref{sec:coefanalysis}\rev{節}の分析と同様に,$0.5$ではない別の適した重み係数を得ることで,より一層の認識精度の向上が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文は,対話における発話の感情認識に,近傍事例を活用する手法を初めて適用した.k近傍法を用いて意味的に近い発話を訓練セットから検索し,検索した発話(近傍事例)に付与された感情ラベルを基に確率分布を作成して,従来の識別モデルの確率分布と重み付き線形和によって組み合わせた.さらに,定数による重み係数で2つの確率分布を足し合わせるだけでなく,識別対象の発話ごとに動的に重み係数を変更する手法を提案した.3つのベンチマークデータセットを用いて,動的に重み係数を変更する提案手法の有効性を確認したところ,全てのデータセットで従来手法を上回る最高水準の認識性能を示した.今後は,重み係数が$0$や$1$といった極端な値を示すことを防ぐための制約を導入した,重み係数導出ネットワークの学習方法を検討する.本手法は,閾値および係数の変更先の値を,ハイパーパラメータとして設定した.閾値や変更先の値を設定せずに,全て学習によって適切な重み係数を推定することができれば,より一層の認識性能の向上が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{08refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石渡太智}{2017年早稲田大学大学院修士課程修了.同年,NHKに入局.2019年より放送技術研究所にて自然言語処理の研究に従事.2021年より東京工業大学博士後期課程在学.言語処理学会会員.}\bioauthor{後藤淳}{1993年徳島大学大学院修士課程修了.2014年総合研究大学院大学博士課程修了.博士(情報学).1993年NHK入局.ニューヨーク大学訪問研究員,(独)NICT専門研究員を経て,現在,NHK放送技術研究所で自然言語処理の研究に従事.映像情報メディア学会,電子情報通信学会各会員.}\bioauthor{山田寛章}{2021年東京工業大学博士課程修了.博士(工学).2022年4月より東京工業大学情報理工学院助教.ACL,IAAIL,言語処理学会各会員.}\bioauthor{徳永健伸}{1985年東京工業大学大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.現在,東京工業大学情報理工学院教授.博士(工学).専門は自然言語処理,計算言語学.情報処理学会,人工知能学会,言語処理学会,計量国語学会,ACL,ACM各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V30N02-07
\section{はじめに} 日本語では数量表現が多様な形で現れる.例えば,以下の3つの文は,形式は異なるが,いずれも同じ真理条件を持つ.\begin{exe}\ex\label{ex:1}学生が3人いる.\ex\label{ex:2}3人の学生がいる.\ex\label{ex:3}3名の学生がいる.\end{exe}(\ref{ex:1})と(\ref{ex:2})では,文中において数量表現が現れる位置が異なっており,(\ref{ex:2})と(\ref{ex:3})では助数辞が異なっている.こうした数量表現の出現形式や助数辞の多様性は,日本語の重要な特徴の一つであり,後述するように言語学での記述的・理論的研究が近年進んでいる.しかし,これまでのところ,これらの特徴に着目したコーパスの構築や,言語学的な知見をふまえて日本語の数量表現の理解を問うようなデータセットの構築は,管見の限り行われていない.自然言語理解の基礎をなすタスクの一つとして,自然言語推論(NaturalLanguageInference,NLI)がある\cite{cooper1994fracas,bowman-etal-2015-large}.自然言語推論は,含意関係認識(RecognizingTextualEntailment,RTE)とも呼ばれ,前提文が真であるとき,\todo{仮説文が必ず真なら含意(\entailment{}),必ず偽なら矛盾(\contradiction{}),どちらでもないなら中立(\neutral{})であることを判定する}タスクである.\todo{自然言語推論では一般に意味論的推論の判定が想定されているが,}自然言語処理分野では近年,意味論的推論だけでなく,語用論的推論も研究の対象となっている\cite{jeretic-etal-2020-natural}.この2種類の推論は,言語学の文献で議論されてきた含意(entailment)と推意(implicature)に対応する\cite{levinson1983,Horn1989,levinson2000presumptive}.例として,以下のような数量表現を含む前提文\textit{P}と仮説文\textit{H}のペアについて考えよう.\begin{exe}\ex\begin{xlist}\exi{\textit{P}:}\label{ex:4}男性が道端に4人座っていた.\exi{\textit{H}:}\label{ex:5}男性が道端に5人座っていた.\end{xlist}\end{exe}\todo{この\textit{P}に現れる数量表現「4人」の解釈には,「少なくとも4人座っていた」という解釈と,「ちょうど4人座っていた」という2種類の解釈が存在する.\textit{H}に現れる数量表現「5人」についても同様である.2種類の解釈のうち,前者は文の真理条件,後者は協調の原理に基づく解釈であり,ここではそれぞれ意味論的解釈,語用論的解釈\footnote{語用論的解釈は,標準的な説明では,いわゆるGriceの会話の格率\cite{Grice89,levinson1983},特に「必要十分な量の情報を与えよ」という格率(量の格率)に基づいて,文脈や発話者の意図を考慮して,発話の真理条件には含まれない情報も考慮して導出される.}と呼ぶ.\textit{P}から\textit{H}への推論は,意味論的解釈のもとでは中立(\neutral{})であるのに対し,語用論的解釈のもとでは矛盾(\contradiction{})となる.このように数量表現を含む前提文と仮説文のペアが与えられたとき,数量表現の解釈の仕方によって判定が異なることがあるため,意味論的解釈と語用論的解釈を区別して考える必要がある.意味論的解釈に基づく推論を意味論的推論といい,語用論的解釈に基づく推論を語用論的推論という.「\elabel{}」は意味論的推論の判定,「\ilabel{}」は語用論的推論の判定を表し,それぞれ含意(\entailment{}),矛盾(\contradiction{}),中立(\neutral{})の3値をとる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{06table01.tex}%\caption{否定文における含意ラベルの反転の例}\label{table:201}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,数量表現が否定文や条件節に現れる場合,通常の文脈に数量表現が現れる場合とは異なり,含意ラベルが変化することがある.表\ref{table:201}の例では,$P$から\hminusへの推論の含意ラベルは\entailment{},$P$から\hplusへの推論の含意ラベルは\neutral{}である.つまり,「学生が4人以上いる(=少なくとも4人いる)」は,「学生が3人以上いる」を含意するが,「学生が5人以上いる」を含意しない.一方,数量表現が否定文脈に現れる場合,$P$から\hminusへの推論の含意ラベルは\neutral{}であるのに対し,$P$から\hplusへの推論の含意ラベルは\entailment{}である.つまり,「学生が4人以上はいない」は「学生が5人以上はいない」を含意するが,「学生が3人以上はいない」を含意しない.このように,数量表現が否定文や条件節といった文脈に現れる場合(このような文脈は下方含意と呼ばれており,\ref{section:monotonicity}節で詳細を述べる),推論の判定に影響を与えることがある.本研究では,\todo{助数辞の種類,数量表現の出現形式,用法}をアノテーションした日本語の数量表現アノテーションコーパスを構築する.数量表現を含む文は,NPCMJ\cite{NPCMJ}から抽出する.NPCMJは,現代日本語の書き言葉と話し言葉に対して文の統語・意味解析情報が付与されているデータセットである.さらに,\todo{作成した日本語数量表現アノテーションコーパスをもとに,}\elabelと\ilabelを付与した数量表現の推論データセットを構築する.本稿では,数量表現コーパスおよび推論データセットの構築と,\todo{それを用いて現在の標準的な事前学習済み言語モデルの一つである日本語BERTモデル\cite{devlin-etal-2019-bert}が数量表現の理解を必要とする推論をどの程度扱えるかを調査する実験を行う.}構築した数量表現コーパスおよび推論データセットは研究利用可能な形式で公開している\footnote{\url{https://github.com/KanaKoyano/numeral-expressions-corpus}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 英語の自然言語推論の研究として,数量表現を含むNLIテストセット\cite{naik-etal-2018-stress}がある.\todo{このNLIテストセットには,含意関係を表すための3種類のラベル(含意,矛盾,中立)}を付与した文ペアが2,532件ずつ,計7,596件の文ペアが含まれている.最近の研究\cite{liu-etal-2019-inoculation}において,この数量表現を含むNLIテストセットは,文ペアが簡単なテンプレートに基づいて構築されているため,大半の問題(全体の約82\%)はいくつかのヒューリスティクスで解くことができると指摘されている.\citeintext{jeretic-etal-2020-natural}は,含意,前提,推意という推論現象の違いに着目した英語のNLIデータセットを構築した.\todo{このNLIデータセットには,\textit{Joatesomeofthecake}から\textit{Jodidn'teatallofthecake}が推意されるといった,数量表現を含むいわゆるスカラー推意(scalarimplicature)による推論を含んでいる.}しかし,このNLIデータセットは前提文と仮説文のテンプレートから自動で構築されているため,単純な文が多いという問題がある.\citeintext{cui2022generalized}は,多言語で事前学習された言語モデルが,\todo{英語における様々な数量表現を含む一般化量化子のふるまいをどの程度捉えることができるかについて,一般化量化子の理解に特化したベンチマークGQNLIを構築し,調査を行った.GQNLIで言語モデルを評価した結果,言語モデルの最高精度は48\%であり,一般化量化子を捉えられていないことがNLIモデルや質問応答モデルの性能改善の課題の一つとなっていることを示した.}日本語の推論データセットとして,形式意味論テストセットのJSeM\cite{10.1007/978-3-319-50953-2_5},\todo{画像キャプションに基づく英語の推論データセットである}SNLI\cite{bowman-etal-2015-large}の日本語版であるJSNLI\cite{yoshimi_weko_206114_1},\todo{画像キャプションに基づく推論データセットであり,仮説文に否定表現や受身などの多様な言語現象を含めた英語の推論データセットである}SICK\cite{marelli-etal-2014-sick}の日本語版であるJSICK\cite{Yanaka_tacl2022},旅行情報サイトの評判という実テキストからクラウドソーシングで構築されたJRTEC\cite{hayashibe-2020-japanese}などがある.これらの日本語の推論データセットでは,日本語の数量表現の統語的,意味的な多様性に焦点を当てていない.\citeintext{narisawa-etal-2013-204}は,日本語の含意関係認識において数量表現が問題になる事例に焦点を当て分析を行い,数量表現の規格化のための実装と評価を行った.\todo{Narisawa}らは,数量表現が出現する文ペアを7つのカテゴリに分類し,正しく含意関係を判定するために必要な処理について述べている.\todo{上記のように,これまでの日本語の推論データセット,日本語数量表現のための実装では,数量表現の分類や数詞の違い,\elabel{}と\ilabel{}の違いについて十分に考慮されているとはいえない.しかし次節でみるように,数量表現と数詞の分類は,それらが参与する推論の結果を左右する要因である.}\todo{そこで}本研究では,日本語の数量表現の出現形式と用法,助数辞の分類を整理し,整理した分類体系に基づいて実テキストに対して意味アノテーションを付与した数量表現コーパスを構築する.また,構築したコーパスを用いて\elabelと\ilabelを付与した数量表現を含む推論データセットを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{日本語数量表現の分類} \label{section:label}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーションの手順}\label{section:annotation}本研究では,\todo{NPCMJ内の126文に含まれる}287件の数量表現について,言語学の素養のある大学院生1名がアノテーションを行った.NPCMJには,青空文庫,辞書,ニュースなどの様々なジャンルのデータが含まれている.複雑な文を扱った挑戦的な推論データセットを構築することを最終目的として,数量表現を2つ以上含む文をアノテーションの対象として抽出した.また,否定表現と条件節を含む文については数量表現を1つ以上含む文を抽出した.アノテーションしたデータの一部は,専門家と議論を行いアノテーション結果が妥当であることを確認している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{06table02.tex}%\caption{(a)助数辞,(b)出現形式,(c)用法の分類の例とアノテーション件数}\label{table:100}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{タグ付け}文中に現れる数量表現に\num{}タグを付与し,助数辞の分類,出現形式,用法についてアノテーションを行った.\todo{文中に複数の数量表現が現れる場合は,1つ目の数量表現に\num{}タグを付与したもの,2つ目の数量表現に\num{}タグを付与したもののように,1つの数量表現に\num{}タグを付与した文を複数作成し,各文の\num{}タグが付与されている数量表現に対してアノテーションを行った.}コーパスに含まれる助数辞,出現形式,用法の分類の例とアノテーション件数は,表\ref{table:100}に示す.次の文は,本研究で構築した数量表現コーパスに含まれる一文である.\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{0pt}%\ex\label{ex:60}ちなみに金板の百人一首は\num{}1セット\bnum{}で80万円である.\end{exe}(\ref{ex:60})で\num{}タグが付与されている\todo{数量表現「1セット」の助数辞タイプは「単位形成辞」,出現形式タイプは「QCQ型」,用法タイプは「Qを修飾するQ」となる.次節以降で助数辞,出現形式,用法の分類の詳細を述べる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{助数辞の分類}\citeintext{iida2019nihongo1},\citeintext{iida}は,助数辞を分類辞,単位形成辞,計量辞の3つの\todo{タイプ}に分類した.これに加えて,時間や系列の中での順序を表す順序数辞\cite{okutsu1996}というクラスの数量表現も存在する.そこで本研究では,飯田の3つのタイプの助数辞に順序数辞を加えた計4\todo{タイプ}による分類を提案し,\todo{助数辞タイプ}のアノテーションを行う.助数辞の分類の例を表\ref{table:100}の(a)に示す.\todo{分類辞には,助数辞単体では使用されないもの,複数の人やものに対して使用されるもの,汎用的な助数辞が含まれる.}次の2文は分類辞の例である.\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{0pt}%\ex\label{ex:111}ライオンが2頭いる.\ex\label{ex:112}靴を1足買った.\end{exe}(\ref{ex:111})の助数辞「頭」は「アタマ」という読み方で名詞として使用されるが,「トウ」という読み方で単体で使用されることはないため,これは分類辞に該当する.(\ref{ex:112})の「足」は左右合わせた1つの靴の組に対して使われる助数辞であり,これも分類辞である.また,汎用的な助数辞は「つ」や「個」があり,これも分類辞に含まれる.単位形成辞は,何らかの容器を表す普通名詞であり,助数辞としてではなく単独で用いることが可能である.これらの名詞は,分類辞を持つ数量表現によって量化されることもある.次の文では,数量表現である「2個」が普通名詞「箱」を量化している.\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{0pt}%\ex\label{ex:10}箱が2個ある.\end{exe}単位形成辞は,新しい形の容器が社会に普及すると,それが新たに単位形成辞に追加されるという特徴を持つ.外来語である「パック」はまさにその例である.計量辞は,「キロ」は重さや距離を表す単位,「メートル」は長さを表す単位など,測定のための単位を表す助数辞である.計量辞は単位形成辞と同様に,いわゆる開いたクラスであり,新しい計量の単位が社会に普及するたびに,それが新たに計量辞に追加されるという特徴を持つ.順序数辞は,時間や順序を表す助数辞である.順序数辞を含む数量表現は,修飾する名詞が文中に現れないことが多く,むしろ数量表現自体が名詞としての役割を果たすといった特徴がある.\todo{日時を表す「年」「月」や,順序を表す「番」「位」が順序数辞の例である.}飯田は,分類辞,単位形成辞,計量辞を分類するテストとして,助数辞の後ろに「分」を付与するテストを挙げている.次の文は分類辞「人」と,その後ろに「分」を付与した例である.\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{0pt}%\ex\label{ex:11}3人の子供がいる.\ex\label{ex:12}3人分の子供がいる.\end{exe}分類辞に「分」を付与すると,そのままでは何を意味しているのかがわからないという特徴がある.(\ref{ex:12})は子供が何に対して3人分いるのか,十分な文脈が与えられない限り解釈が難しい.単位形成辞は,元の文が\todo{真であれば「分」をつけたテスト文も真である}といえるが,その逆はいえないという特徴がある.次の文は単位形成辞「箱」の例である.\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{0pt}%\ex\label{ex:13}本が3箱ある.\ex\label{ex:14}本が3箱分ある.\end{exe}(\ref{ex:13})が真であれば,(\ref{ex:14})も真であるといえる.しかし,(\ref{ex:14})が真であったとしても,本が箱に入っているかどうかは分からないため,(\ref{ex:13})が真であるということはできない.\todo{計量辞は,元の文が真であれば「分」のついたテスト文も真であり,「分」がついたテスト文が真であれば元の文も真である,という特徴がある.}次の文は計量辞「リットル」の例である.\begin{exe}\ex\label{ex:15}水が2リットルある.\ex\label{ex:16}水が2リットル分ある.\end{exe}助数辞の分類は,飯田の定義と言語的テストを踏まえれば,ほとんどのケースに対しては揺れがなく,一意的にアノテーションが可能であるが,表層形から一意に定まらず,文脈や用法によって分類が変わるものも存在する.例えば,「会議室は建物の3階にある」に現れる「階」は順序数辞であるのに対し,「ここから3階のぼったところに会議室がある」に現れる「階」は計量辞である.前者は特定の位置を指しているのに対し,後者は3フロア分上の階に上がるという意味であり,会議室が3階に位置しているという意味ではない.\todo{また,助数辞のアノテーションの判断が揺れる例として,「升」がある.「升」は「マス」と「ショウ」の2つの読みでそれぞれ助数辞となる.次の例は,数量表現コーパスに含まれる例である.\begin{exe}\ex\label{ex:1000}勿論,私ひとりで【四升】呑みほしたわけでは無い.\end{exe}(\ref{ex:1000})の「升」が呑んだ量を表しており,「ショウ」という読みであるとすると計量辞である.しかし,(\ref{ex:1000})は,「マス」という読みも可能であり,「升」が容器として用いられていると解釈すれば,単位形成辞と考えることもできる.本コーパスでは上記の例については前者の解釈でアノテーションし,計量辞としている.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{数量表現の出現形式}日本語百科事典\cite{encyclopedia_of_japanese1}では,文中に現れる数量表現の形式をQノNC型,NノQC型,NCQ型,NQC型の4つの\todo{タイプ}に分類している.\citeintext{iwata2013}は,この4タイプに加えて述部型,デ格型の2タイプを追加した.本研究では,実テキスト上に現れる日本語の多様な数量表現を考慮して,これらの6タイプに加えて,\todo{QV型,NvCQ型,Nの脱落,QCQ型,(Q),イディオム的}という6タイプを追加した計12タイプによる分類を提案し,出現形式タイプのアノテーションを行う.N,C,Q,V,Nvは,それぞれ普通名詞,格助詞,数量表現,動詞,\todo{サ変語幹を含むイベント名詞句}を表す.数量表現の出現形式の例を表\ref{table:100}(b)に示す.次の文は,日本語百科事典の4分類と\citeintext{iwata2013}が追加した2分類の例である.\begin{exe}\ex\label{ex:31}【\CLtype{第1位}{Q}の\CLtype{雷神山古墳}{N}\CLtype{は}{C}】名取川の南,現在の名取市内にあり,【\CLtype{二つ}{Q}の\CLtype{巨大古墳}{N}\CLtype{の}{C}】間に多数の中小古墳が散らばっている.\end{exe}(\ref{ex:31})は本研究で構築した数量表現コーパスに含まれるQノNC型の例であり,「3人の学生が」のように,数量表現Q,「の」,名詞N,格助詞Cの順で並ぶタイプである.「第1位の雷神山古墳は」と「二つの巨大古墳の」の2つがQノNC型に該当する.\begin{exe}\ex\label{ex:32}現在の仙台市の推計人口は,東北地方の中で最も多い約107万人で,【\CLtype{宮城県民}{N}の\CLtype{45.9\%}{Q}\CLtype{が}{C}】居住する.\end{exe}NノQC型は,「学生の3人が」のように,名詞N,の,数量表現Q,格助詞Cの順で並ぶタイプであり,例として(\ref{ex:32})が挙げられる.\begin{exe}\ex\label{ex:33}\todo{そこには,ユダヤ人のきよめのならわしに従って,それぞれ四,五斗もはいる石の【\CLtype{水がめ}{N}\CLtype{が}{C},\CLtype{六つ}{Q}】置いてあった.}\end{exe}(\ref{ex:33})は,NCQ型の例であり,「学生が3人」のように,名詞N,格助詞C,数量表現Qの順で並ぶタイプである.\begin{exe}\ex\label{ex:34}科学者側の動きに合わせ,文部科学省は14年度予算案にILCの【\CLtype{調査検討費}{N}\CLtype{5000万円}{Q}\CLtype{を}{C}】初めて計上した.\end{exe}(\ref{ex:34})はNQC型の例であり,「学生3人が」のように,名詞N,数量表現Q,格助詞Cの順で並ぶタイプである.\begin{exe}\ex\label{ex:35}第一に,重すぎて,【\CLtype{二人}{Q}で】父親の帰ってくるまでに片づけることはできないだろう.\end{exe}(\ref{ex:35})はデ格型の例であり,「学生が3人で」のように,数量表現Q,での順で並ぶタイプである.\citeintext{iwata2013}は,デ格型は,数量の全体性・集合性を表すとしている.他の出現形式のタイプ,\todo{例えば,QノNC型も「3人の学生が来た」のように,「来る」という行為を行った学生全体の数を表し(全体性),3人の学生を要素とする集団として捉えられる(集合性)という特徴を持つ.デ格型は,QノNC型と異なり,「3人で来た」のように名詞Nを伴わずに全体性・集合性を表すことができるという特徴がある.}\begin{exe}\ex\label{ex:36}ちなみに金板の百人一首は1セットで【\CLtype{80万円}{Q}である】.\end{exe}(\ref{ex:36})は述部型の例であり,「学生は3人だ」のように,数量表現が述部に現れるタイプである.述部型もデ格型と同様に名詞を伴わずに使用できる.この2つの出現形式は,話し言葉で頻出するタイプである.\citeintext{iwata2013}は,頻度,時間,期間といった(動詞を修飾する)数量表現は研究対象としていない.\citeintext{iwata2013}は,頻度を表す数量表現を含む文の例として,(\ref{ex:50})や(\ref{ex:51})を挙げ,このような数量表現の出現形式はNCQ型しか存在しないと指摘している.\begin{exe}\ex\label{ex:50}今年は東京へ3回行った\ex\label{ex:51}彼には3度会ったことがある\end{exe}しかし,これらの数量表現は名詞を修飾しているのではなく,動詞(行った,会った)を修飾している.そのため,本研究では,動詞を修飾する数量表現の出現形式として,QV型を新たに追加した.\todo{さらに,名詞Nとイベント名詞句Nvを区別するために,NvCQ型を追加した.}\begin{exe}\ex\label{ex:37}研究すべき材料は三種類で,それを五つのちがった温度で,【\CLtype{各十回}{Q}\CLtype{測る}{V}】,という風になっておれば,決して四種類はやってみない\end{exe}(\ref{ex:37})はQV型の例であり,数量表現Q(十回)が動詞V(測る)を修飾している.この例では数量表現と動詞の間に修飾表現が含まれているが,間に修飾表現が入る場合も数量表現の後に動詞がくるという順番は変わらないため,QV型に分類した.\footnote{\todo{今回アノテーションした数量表現Qの中には,「40分で印刷が終了し」の「40分で」といった,時間副詞を表すQも含まれる.時間副詞QとQデの違いは,イベントの完了と未完了に関する推論の判定に影響を与え,文法研究でも議論されている\cite{nakatani2015}.例えば,「3時間書いた」は「2時間書いた」を含意し,「4時間は書いていない」を推意するが,「3時間で書いた」は「2時間では書き終わっていない」ことを含意する.\\本研究ではQとQデは,出現形式の違いという観点で分類しており,前述のようなイベントの完了と未完了の推論の判定に影響を与える時間副詞の違いを分類体系に反映させることは今後の課題とする.}}\begin{exe}\ex\label{ex:38}\todo{そんな【\CLtype{仕事}{Nv}\CLtype{は}{C}\CLtype{三日}{Q}】とかかりません.}\end{exe}(\ref{ex:38})はNvCQ型の例である.Nvは\todo{サ変語幹を含むイベント名詞句}であり,NvCQ型は,Nvを修飾する数量表現Qの出現形式である.\todo{(\ref{ex:38})の「仕事」はサ変語幹であり,QがNvを行うのに要する期間を表している.}\todo{実テキストに現れる日本語の数量表現には,数量表現が修飾する名詞が明記されていないものや,数量表現を修飾する数量表現がある.これらに対応する出現形式タイプとして,新たにNの脱落,QCQ型を追加した.}\begin{exe}\ex\label{ex:39}見たところ,【\CLtype{100人}{Q}】はいないようだ.\end{exe}Nの脱落という出現形式タイプは,数量表現が修飾する名詞が文中に現れない場合を表す.(\ref{ex:39})は何が100人なのかが文中に記載されていないため,このような場合はNの脱落という出現形式タイプを付与する.\begin{exe}\ex\label{ex:40}【\CLtype{3枚}{Q}\CLtype{で}{C}\CLtype{500円}{Q}】なら買います.\end{exe}(\ref{ex:40})はQCQ型の例である.QCQ型は数量表現を修飾する数量表現であり,この文では,「500円」を修飾している「3枚」がQCQ型に該当する.\todo{QCQ型には「1時間1000円」のように格助詞Cが省略されているものも含まれる.}\begin{exe}\ex\label{ex:41}始期は織田信長が足利義昭を奉じて京都に上洛した永禄11年【\CLtype{(1568年)}{Q}】が有力であるが,義昭が京都から放逐された元亀4年【\CLtype{(1573年)}{Q}】,安土城の築城が始まった天正4年【\CLtype{(1576年)}{Q}】とする考えもある.\end{exe}(\ref{ex:41})は(Q)の例である.(Q)\todo{という出現形式タイプ}は文中で()の中に記載されている\todo{補足や注記}の数量表現に対して付与する.\begin{exe}\ex\label{ex:42}その【\CLtype{一つ}{Q}】が,2012年7月,欧州合同原子核研究所(スイス)で発見され,世界的ニュースとなった「ヒッグス粒子」.\end{exe}イディオム的という\todo{出現形式タイプ}は,数量表現の数詞を変える,もしくは数量詞接頭辞・接尾辞を付与すると容認不能になる数量表現に対して付与する.(\ref{ex:42})の「一つ」は,数詞を変更した場合も数量詞接頭辞・接尾辞を付与した場合も容認不能となるため,イディオム的という出現形式タイプが付与されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{数量表現の用法}数量表現の用法タイプは,\citeintext{iwata2013}が扱っていた数量表現Qの用法に加えて,名詞Nを修飾する数量表現Qに関する用法を3タイプ,動詞Vを修飾する数量表現Qに関する用法を4タイプ追加する.また,イベント名詞句Nvを修飾する数量表現Q,数量表現Qを修飾するQ,イディオム的用法も追加し,計11タイプの分類を提案する.用法の例を表\ref{table:100}(c)に示す.次の文は数量表現Qが名詞Nを修飾する例である.\begin{exe}\ex\label{ex:17}3人の学生が来た.\end{exe}(\ref{ex:17})はQがNのカテゴリー情報を表すものの例であり,数量表現Q(3人)の助数辞「人」が名詞N(学生)のカテゴリー情報を表している例である.\begin{exe}\ex\label{ex:18}家族3人で旅行に行った.\end{exe}(\ref{ex:18})はQがNを構成する要素の全体数を表すものの例である.この文に含まれる助数辞「人」は(\ref{ex:17})に含まれるものと同じであるが,「人」は「家族」自体を数える助数辞ではなく,家族という集合の構成する要素を数えているため,(\ref{ex:17})には「QがNのカテゴリー情報を表すもの」を,(\ref{ex:18})には「QがNを構成する要素の全体数を表すもの」を付与している.\begin{exe}\ex\label{ex:19}その集団の1人が話している.\end{exe}集合の要素に関する用法タイプとして,QがNを構成する要素の一部を表すものもある.この用法の例は(\ref{ex:19})であり,(\ref{ex:18})とは異なり,集合全体の要素数ではなく一部について表しているため,(\ref{ex:18})には「QがNを構成する要素の全体数を表すもの」を,(\ref{ex:19})には「QがNを構成する要素の一部を表すもの」を付与している.\begin{exe}\ex\label{ex:20}50歳の男性がいる.\end{exe}(\ref{ex:20})はQがNの属性や特徴を表すものの例である.(\ref{ex:20})は他の3つの用法と異なり,名詞Nの数についてではなく,Nの特徴について述べる数量表現である.数量表現Qと動詞Vに関して,出現形式の種類としてはQV型の1種類であるが,文中に現れる動詞とそれを修飾する数量表現の出現形式が同じであっても,用法が異なる場合がある.数量表現Qが動詞Vを修飾する用法としては,4タイプある.次の文は数量表現Qが動詞Vを修飾する例である.\begin{exe}\ex\label{ex:21}東京に2回行く.\end{exe}(\ref{ex:21})はVが行われた回数を表すQの例であり,「2回」が「行く」が行われた回数を表している.\begin{exe}\ex\label{ex:22}東京に3日滞在する.\end{exe}(\ref{ex:22})はVが行われた期間を表すQの例である.(\ref{ex:21})と出現形式は同じであるが,(\ref{ex:22})では,滞在した期間についての情報をQ(3日)が担う.\begin{exe}\ex\label{ex:23}東京に9時に到着する.\end{exe}(\ref{ex:23})はVが行われた時間を表すQの例である.(\ref{ex:23})では,到着する時点についての情報をQ(9時)が担う.\begin{exe}\ex\label{ex:24}物価が2\%増加する.\end{exe}(\ref{ex:24})はVの特徴を表すQの例であり,Q(2\%)は「増加する」という動詞Vがどの程度であったかという情報を担う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{数量表現の推論データセット} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{推論データセットの作り方}数量表現コーパスを用いて,\todo{数量に関する}推論データセットを構築した.前提文$P$は,数量表現コーパスに含まれる文とした.\todo{仮説文$H$は,以下の手順(a)~(c)に従い,すべて人手で作成した.}\todo{\begin{enumerate}\renewcommand{\labelenumi}{(\alph{enumi})}\item(\ref{ex:6})のように\num{}タグが付与されている前提文の数量表現について,(\ref{ex:7})のように意味を変えない最小の節を取り出す\item\num{}タグが付与されている数詞の変更を行った文を作成する\begin{itemize}\item前提文の数詞よりも大きい数を表す数詞に変更した文\hplus{}と小さい数を表す数詞に変更した文\hminus{}の2文を作成する\item単純な文にならないように,容認不能にならない範囲で構成素の変更(構成素の削除・置換・追加)を行う\item(\ref{ex:6})のように「約」などの数量詞接頭辞・接尾辞がついている場合は,その数量詞接頭辞・接尾辞を削除する\end{itemize}\item(b)で作成した2つの文\hplus{},\hminus{}の数量表現に対して,原則として「以上」「以下」「ちょうど」をそれぞれ付与し,6つの仮説文を作成する\begin{itemize}\item数量表現に合わせて,必要に応じて付与する数量詞接頭辞・接尾辞を変更する\begin{itemize}\item順序数辞を持つ数量表現には,「以上」「以下」ではなく,「以降」「以前」を付与する\item多様な数量詞接頭辞・接尾辞を含むデータセットを構築するため,「以上」を「より大きい」に,「以下」を「より小さい」や「未満」に置き換えた仮説文も作成する\end{itemize}\end{itemize}\end{enumerate}}\begin{exe}\ex\label{ex:6}仙台都市圏(広域行政圏)の推計人口は約\num{}151万人\bnum{}で\dots\ex\label{ex:7}仙台都市圏の推計人口は160万人以上である.\end{exe}\todo{数詞の変更は,数量表現に応じて増やす数,減らす数を変更している.数詞の変更の範囲は,前提文に現れる数詞が20未満の場合は5以下とし,前提文に現れる数詞が20以上の場合は5以上としている.数詞の変更は,データセット内で同じ数詞ばかりが現れないように注意して行った.また,助数辞タイプが計量辞の数量表現は,小数部が許容されるため,数詞が小数部をもつ仮説文も作成した.}\todo{数詞の変更や数量詞接頭辞・接尾辞の付与を行うと仮説文が容認不能となるもの,出現形式がイディオム的であるものは,推論データセットに含めていない.}推論データセットの各ペアに対して,\todo{言語学に素養のある1名の大学院生}が\elabel{}と\ilabel{}を付与した.推論データセットに含まれる\elabel{},\ilabel{}の一部は,専門家と議論を行いラベルが妥当であることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{下方含意文脈}\label{section:monotonicity}本研究の推論データセットでは,数量表現の単調性(monotonicity)に関する推論を扱っている.$M$が$N$の下位概念である場合,通常は下位概念を含む文$\varphi(M)$は上位概念を含む文$\varphi(N)$を含意する.このような推論は上方含意(upward\todo{entailing})な推論と呼ぶ.数量表現の場合,例えば「200人」は「100人」の下位概念であるため,「会場に200人いる」という文が真であれば,「会場に100人いる」という文も真である.しかし,否定文や条件文の前件といった下方含意文脈に数量表現が含まれると,\todo{推論の向き}が通常の文脈とは反転する場合があることが知られている.例えば,「会場には100人いなかった」という文は,「会場には200人いなかった」という文を含意する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{06table03.tex}%\caption{推論データセットに含まれる文ペアの例}\label{table:4}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:4}の最初の例は,upward\todo{entailing}な前提文と仮説文のペアである.2番目と3番目の例は,それぞれ否定と条件文を含む下方含意(downward\todo{entailing})な前提文と仮説文のペアである.\todo{本研究の推論データセットには,upwardentailingな推論が1,270件,downwardentailingな推論が246件含まれる.}文中に否定表現や条件節が含まれていても,それらの下方含意文脈のスコープの外に数量表現が現れている場合は,upwardentailingな推論が成立する.そのため,downwardentailingな推論の件数は,否定表現,条件節を含む前提文と仮説文のペアのうち,下方含意文脈のスコープの内側に数量表現が含まれ,\todo{推論の向き}が通常の文脈とは反転しているものの件数である.現時点で,downwardentailingな推論は246件と件数は少なく,このような推論を引き起こす表現がNPCMJコーパス内では稀であることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{推論データセットの概要}本研究で作成した推論データセットは,1,516件の前提文と仮説文のペアを含む.前提文と仮説文の例を表\ref{table:4}に,推論データセットの統計情報を表\ref{table:8}に示す.\elabel{}が\neutral{}になるものについて,\ilabel{}は\contradiction{}になる場合があるため,各ラベルの\contradiction{}と\neutral{}の件数は異なっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{06table04.tex}%\caption{推論データセットの統計情報}\label{table:8}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語BERTの評価実験}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\todo{実験設定}}現在の標準的な事前学習済み言語モデルが数量表現の理解を必要とする推論をどの程度扱えるかを評価するため,日本語BERT\cite{devlin-etal-2019-bert}(cl-tohoku/bert-base-japanese-whole-word-masking)\footnote{\todo{\url{https://huggingface.co/cl-tohoku/bert-base-japanese}}}の評価実験を実施した.実験に用いた事前学習済み言語モデルの詳細を表\ref{table:16}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{06table05.tex}%\caption{事前学習済み言語モデルの詳細}\label{table:16}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験では,JSICK\cite{Yanaka_tacl2022},JSNLI\cite{yoshimi_weko_206114_1}という2つの標準的な日本語NLIデータセットを用いて,NLIタスクに関するBERTモデルのファインチューニングを行った.2節で紹介したように,JSICKは構成的推論に特化した英語のNLIデータセットであるSICK\cite{marelli-etal-2014-sick}を人手で日本語に翻訳したデータセットであり,JSNLIはクラウドソーシングで構築された大規模な英語のNLIデータセットであるSNLI\cite{bowman-etal-2015-large}を機械翻訳で日本語に翻訳したデータセットである.JSICKとJSNLIの統計情報を表\ref{table:18}に示す.\todo{また,ファインチューニングに用いたハイパーパラメータは,learningrateが0.01,batchsizeが10,epochsが50,maxlengthが250である.}ハイパーパラメータは,ハイパーパラメータサーチをして最適なものを選んだ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{06table06.tex}%\caption{学習データの統計情報}\label{table:18}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\todo{実験結果と考察}}\todo{日本語BERTモデルを用いた評価実験の結果を表\ref{table:6}に示す.}全体的に,JSICKでファインチューニングした日本語BERTモデルよりもJSNLIでファインチューニングした日本語BERTモデルの方が正答率が高い傾向にあるが,いずれも50\%未満だった.特に,\entailment{}の正答率は60\%以上であるのに対し,\contradiction{},\neutral{}の正答率はいずれも40\%未満であり,既存の推論データセットでファインチューニングした場合,日本語BERTモデルは\entailment{}と予測する傾向がある.本研究で構築した推論データセットに含まれる\entailment{}の例は全体の34\%であるのに対し,日本語BERTモデルはJSICKでファインチューニングした場合は66\%,JSNLIでファインチューニングした場合は60\%の例で\entailment{}と予測している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{06table07.tex}%\caption{日本語BERTモデルを用いた評価実験の結果(正答率)}\label{table:6}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%学習データによる違いについては,JSICKを使用した場合,\contradiction{}よりも\neutral{}の方が正答率が高くなり,反対にJSNLIを使用した場合は,\contradiction{}の方が\neutral{}よりも正答率が高くなっている.\todo{助数辞タイプ,出現形式タイプ,用法タイプ}による正答率の違いは,\todo{表\ref{table:101}に示す.}\todo{助数辞による正答率の違いとして,単位形成辞について,JSICKを学習データとしたときの日本語BERTモデルの正答率が低い.単位形成辞は,表\ref{table:100}(a)にあるように他の助数辞よりも件数が少なく,JSICKにおいても,単位形成辞に該当するデータが少ないため,正答率が低くなった可能性がある.}数量表現の出現形式による正答率の違いとして,デ格型について,JSICKを学習データとしたときの日本語BERTモデルの正答率が低い.デ格型は,表\ref{table:100}(b)にあるように件数が少ない.JSICKとJSNLIにおいても\todo{デ格型}に該当するデータの件数が少なく,加えて,JSICKは学習データ全体のサイズが小さいため,正答率が低くなったと考えられる.数量表現の用法ごとの正答率の違いとして,JSNLIを学習データとしたときの日本語BERTモデルの正答率は,QがNの属性や特徴を表すものや,Vが行われた時間を表すQといった,表\ref{table:100}(c)で件数が多いものが高い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{06table08.tex}%\caption{(a)助数辞,(b)出現形式,(c)用法ごとの正答率}\label{table:101}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,学習データに本研究で構築した数量表現の推論データセットの一部を加えてファインチューニングを行い実験した.数量表現の推論データセットは1:1に分割し,半分を学習データに加え,半分をテストデータとして実験を行った.データセットを半分にしたときの統計情報を表\ref{table:15}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[p]\input{06table09.tex}%\caption{数量表現の推論データセットを学習データとテストデータに分けたときの統計情報}\label{table:15}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:7}はJSICKに数量表現の推論データセット(\elabel{},\ilabel{})をそれぞれ加えてファインチューニングを行った場合の実験結果である.\elabel{}を学習データに加えた場合は,テストデータは\elabel{},\ilabel{}を学習データに加えた場合はテストデータは\ilabel{}を付与したデータを使用した実験結果である.学習データに数量表現の推論データセットの一部を加えた場合,\elabel,\ilabel{}ともに\entailment{}の正答率は下がったが,\contradiction{}の正答率は大きく上昇している.JSICKには表\ref{table:18}に示すように\contradiction{}の件数が少ないが,本研究で構築した推論データセットは,表\ref{table:8}に示すように\contradiction{}の件数が多いため,日本語BERTモデルが\contradiction{}と予測することが多くなった可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[p]\input{06table10.tex}%\hangcaption{JSICKに数量表現の推論データセットの一部を追加しファインチューニングした場合の実験結果(正答率)}\label{table:7}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%文ペアに含まれる数量表現の助数辞タイプ,出現形式タイプ,用法タイプによる正答率の違いは,表\ref{table:102}に示す.全体として,\elabel{}を加えてファインチューニングを行った場合の精度よりも\ilabel{}を加えてファインチューニングを行った場合の精度のほうが高く,表\ref{table:101}の精度と比較して,どのタイプの精度も向上している.特に,NCQ型の精度が他のタイプよりも大きく向上しているが,これは表\ref{table:15}にあるようにNQC型の件数が多いためと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{06table11.tex}%\hangcaption{JSICKに数量表現の推論データセットを追加しファインチューニングした場合の(a)助数辞,(b)出現形式,(c)用法の正答率}\label{table:102}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%JSICKに\elabel{}のデータを追加してファインチューニングを行った場合に,日本語BERTが解けなかった文ペアを表\ref{table:20}に示す.1つ目の文ペアの前提文に含まれる数量表現には数量詞接頭辞(約)が付与されている.前提文の数量表現「約5倍」が真であるとき仮説文の数量表現「ちょうど5.5倍」であるとは必ずしも限らない(5.2倍などの可能性も考えられる)ため,正解ラベルは\neutral{}となるが,日本語BERTは\contradiction{}と予測している.このように,前提文の数量表現の数字よりも仮説文の数量表現の数字が大きく,前提文に数量詞接頭辞「約」,仮説文に数量詞接頭辞「ちょうど」が含まれる場合,モデルは\contradiction{}と予測する傾向が見られた.日本語BERTモデルが間違ったラベルを予測した原因としては,前提文に数量詞接頭辞を含む文ペアの件数が少ないことも考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{06table12.tex}%\hangcaption{JSICKに\elabel{}のデータを追加してファインチューニングした日本語BERTモデルが解けなかった文ペアの例}\label{table:20}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2つ目の文ペアについて,前提文の「90,231人」は「ちょうど90,231人」であることを表すため,この文ペアの正解ラベルは\entailment{}であるが,日本語BERTモデルは\contradiction{}と予測した.この文ペアに出現する数量表現は「100,000人」と桁数が大きいため,学習データの中に同じような桁数が大きい数量表現を含む文ペアが少ないことから,モデルは間違ったラベルを予測したと考えられる.JSICKに\ilabel{}のデータを追加してファインチューニングを行った場合に,日本語BERTモデルが解けなかった文ペアを表\ref{table:19}に示す.表\ref{table:19}の1つ目の文ペアは仮説文を作成する際に構成素の変更を行った例である.本研究では,文ペアのパターンが単純にならないように,構成素の変更を行うことでより難しい文ペアを作成している.この文ペアは,前提文で括弧内に記述されている数量表現に関する推論であるが,前提文には同じ助数辞(本)を含む数量表現が複数出現するため,日本語BERTモデルが間違った予測をしたと考えられる.表\ref{table:19}の2つ目の文ペアは否定表現を含む文ペアである.\ref{section:monotonicity}節にあるように,否定表現や条件節を含むdownwardentailingな推論は件数が少ないため,学習データの不足から日本語BERTモデルは推論結果を正しく予測できなかったと可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\input{06table13.tex}%\hangcaption{JSICKに\ilabel{}のデータを追加してファインチューニングした日本語BERTモデルが解けなかった文ペアの例}\label{table:19}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\pagebreak%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,日本語の数量表現コーパスを構築し,助数辞の分類と数量表現の出現形式,その用法についてアノテーションを行った.また,構築した数量表現コーパスを用いて意味論的推論と語用論的推論のデータセットを作成した.数量表現コーパスと推論データセットは,数量表現の出現形式の柔軟性や助数辞の多様性といった日本語の特徴に着目して構築した.数量表現の推論データセットの評価実験として,まず,日本語SNLIや日本語SICKといった標準的な日本語の推論データセットでファインチューニングした日本語BERTモデルを用いた評価実験を行った.実験の結果,構築した数量表現の推論データセットは,現在の標準的なNLIモデルにとって十分に挑戦的な課題を提示していることを確認した.さらに,学習データに本研究で構築した推論データセットの一部を追加してファインチューニングした日本語BERTモデルを評価した.その結果,精度向上が一定程度見られたものの,依然として50\%前後の正答率であり,日本語BERTモデルは,数量表現を含む推論の扱いについて課題があることが示唆された.今後の展望として,これまで英語における数量表現の分析で研究されてきた,より意味的に複雑な現象(確定性,分配読み・集合読みの区別など)\cite{bunt-2020-annotation}と日本語の数量表現との関連を整理し,日本語の数量表現の分類体系を拡張することが考えられる.また,数量表現コーパスと推論データセットの効率的なアノテーション手法を検討するとともに,拡張を続けていく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,JSTさきがけJPMJPR21C8,JSPS科研費JP20K19868,JSTCRESTJPMJCR20D2の支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{小谷野華那}{%2021年お茶の水女子大学理学部情報科学科卒業.2023年お茶の水女子大学人間文化創成科学研究科理学専攻情報科学コース博士前期課程修了.現在,日本アイ・ビー・エム株式会社に所属.}\bioauthor{谷中瞳}{%2018年東京大学大学院工学系研究科博士課程修了.工学博士.同年,理化学研究所特別研究員を経て,2021年より東京大学卓越研究員に採択され,東京大学大学院情報理工学系研究科講師,理化学研究所客員研究員.主に自然言語推論に関する研究に従事.}\bioauthor{峯島宏次}{%2013年慶應義塾大学文学研究科博士課程修了.博士(哲学).2014年お茶の水女子大学シミュレーション科学教育研究センター特任講師,2017年同特任准教授を経て,2020年より慶應義塾大学文学部准教授.}\bioauthor{戸次大介}{%2000年東京大学大学院理学系研究科情報科学専攻博士課程修了.理学博士.2008年お茶の水女子大学大学院人間文化創成科学研究科准教授,2023年より同大学基幹研究院自然科学系教授.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V02N01-01
\section{はじめに} \label{sec:hajime}機械翻訳システムを使用する時,利用者はシステム辞書に登録されていない単語や,登録されているが,訳語が不適切な単語に対して,利用者辞書を作成して使用することが多い\cite{Carbonell:1992}.しかし,辞書に新しく単語を登録する際は,登録する語の見出し語,訳語の他に,文法的,意味的な種々の情報を付与する必要がある.高い翻訳品質を狙ったシステムほど,利用者辞書にも詳細で正確な情報を必要としており\cite{Ikehara:1993,Utsuro:1992},素人の利用者がそれらの情報を正しく付与するのは簡単でない\footnote{単語意味属性を付与するには,通常のシステムの意味属性を理解していることが必要であるが,一般の利用者には簡単でない.}.例えば,日英機械翻訳システムALT-J/Eでは,意味解析のため約3,000種の精密な意味属性体系\footnote{単語の意味的用法を分類したもので,各要素となる名詞に着目した動詞の訳し分けにおいて,ほぼ必要十分といえる意味属性分解能が約2,000種類であることを示し,実際に名詞の意味属性を3,000種に分類している.詳細は\cite{Ikehara:1993}を参照のこと.}を持っており,利用者辞書の単語を登録する際は,各単語にこの意味属性体系に従って意味的用法(一般に複数)を指定する必要がある\cite{Ikehara:1989b,Ikehara:1989a}.この作業は熟練を要し,一般の利用者には困難であるため,従来から自動化への期待が大きかった.そこで本論文では,利用者登録語の特性に着目し,利用者が登録したい見出し語(単一名詞または複合名詞)に対して英語訳語を与えるだけで,システムがシステム辞書の知識を応用して,名詞種別を自動的に判定し,名詞種別に応じた単語の意味属性を推定して付与する方法を提案する.また,自動推定した利用者辞書を使用した翻訳実験によって,方式の効果を確認する.具体的には,名詞を対象に,与えられた見出し語と訳語から主名詞と名詞種別(一般名詞,固有名詞)を判定し,それぞれの場合に必要な単語意味属性を自動推定する方法を示す.また,適用実験では,まず,本方式を,新聞記事102文とソフトウエア設計書105文の翻訳に必要な利用者辞書の作成に適用して,自動推定した単語意味属性と辞書専門家の付与した単語意味属性を比較し,精度の比較を行う.次に,これらの意味属性が翻訳結果に与える影響を調べるため,(1)意味属性のない利用者辞書を使用する場合,(2)自動推定した意味属性を使用する場合,(3)専門家が利用者登録語の見出し語と訳語を見て付与した意味属性を使用する場合,(4)正しい意味属性(専門家が翻訳実験により適切性を最終的に確認した意味属性)を使用した場合,の4つの場合について翻訳実験を行う.\vspace{-0.2mm} \section{システム辞書と利用者辞書} \label{sec:dic}\subsection{ALT-J/Eの意味辞書の構成}\label{sec:2.1}ここでは,機械翻訳システム側であらかじめ用意された辞書をシステム辞書,利用者が作成して使用する辞書を利用者辞書と呼ぶ.日英機械翻訳システムALT-J/Eのシステム辞書と利用者辞書および単語意味属性の関係を図1に示す.{\unitlength=1mm\begin{figure}[htbp]\begin{center}\epsfile{file=fig1.eps,width=134mm}\vspace{-0.2mm}\end{center}\caption{ALT-J/Eの意味属性体系と意味辞書}\label{fig:1}\end{figure}}\begin{description}\vspace{-0.2mm}\item[(1)意味辞書の種類]ALT-J/Eでは意味解析を実現するため,これらの辞書に単語意味属性を使用した意味情報が登録されるようになっている.意味情報を記載した辞書を意味辞書と呼ぶ.現在,実装されている意味辞書は単語意味辞書と,構文意味辞書の2種類からなる.単語意味辞書は日本語単語の意味的用法を記述した辞書(日本語解析用の40万語辞書と訳語決定用の38万語辞書)であり,構文意味辞書は,用言毎の日本語文型とそれに対応する英語文型を収録した辞書(13,000文型)である.システムがあらかじめ用意したこれらの単語または文型が不足したとき,もしくは不適切なときは,同種の辞書を利用者が利用者辞書として作成して使用する.\item[(2)単語意味属性の種類]ALT-J/Eの単語意味属性には一般名詞意味属性(2,800種),固有名詞意味属性(200種),用言意味属性(100種)の3種類がある.固有名詞意味属性は,一般名詞意味属性の一部を取り出して,複合語解析の観点から詳細化したものであり,属性名の数は一般名詞意味属性の数より少ないが,分類精度は詳細である.単語意味辞書の一般名詞には一般名詞意味属性(一般に複数個)が,固有名詞には一般名詞意味属性と固有名詞意味属性の両者(いずれも複数個)が付与される.用言意味属性は構文意味辞書に登録された文型パターンの主用言に付与される\cite{Nakaiwa:1992}.\end{description}\subsection{利用者登録語の特性}\label{sec:2.2}本論文では,名詞(一単語名詞または複合名詞)の利用者辞書への登録を考える.通常の機械翻訳システムでは,一般語(一般名詞)についてはほぼ漏れなくシステム辞書に収録されるが,専門用語や固有名詞などは余り収録されていない場合が多い.ALT-J/Eの場合は,新聞記事で使用される語を中心に多数(延べ50万語)の固有名詞,専門用語なども収録されているが,全てを網羅することは不可能であり,必ずしも十分とは言えない.従って,通常,利用者辞書に登録される語は,(1)原文に現れた専門用語や固有名詞,利用者固有の技術用語で,システム辞書に登録されていないため未知語となった語,もしくは(2)システム辞書に登録されているが,訳語が適切でない語の2種類に大別される.後者の単語意味属性は既にシステム辞書に登録されているため,通常改めて登録する必要はないのに対して,前者は登録語が複合名詞で,その構成要素の一部がシステム辞書に登録されていなかったため未知語となったものが多い.このようにシステム辞書は,多くの場合,利用者辞書登録語と関係する情報を持つ場合が多いので,その情報を利用すれば,多くの利用者登録語の意味属性は自動付与できると期待できる. \section{意味属性推定の方法} \label{sec:3}{\unitlength=1mm\begin{figure}[htbp]\begin{center}\epsfile{file=fig2.eps,width=55mm}\end{center}\caption{意味属性自動推定の手順}\label{fig:2}\end{figure}}利用者登録語の日本語表記と英語訳語が与えられたとき,機械翻訳システムに装備されたシステム辞書の情報を使って,登録語の意味属性を推定する方法を図\ref{fig:2}に示す\footnote{意味属性は,あらかじめシステムで決められた体系を使用する.その意味属性体系に不足や不適切な部分があっても,本方式で修正改良することは考えない.これは,利用者辞書作成は通常システム運用時に行なわれるものであり,この段階では,意味属性体系の変更に伴って生じるシステム辞書や翻訳プログラムの修正は通常困難と考えられることからである.}.利用者登録語の単語意味属性を推定する手順は,主名詞の判定,名詞種別(固有名詞,一般名詞)の判定,固有名詞意味属性の推定(固有名詞の場合),一般名詞意味属性の推定(一般名詞,固有名詞双方の場合)の手順からなる.\subsection{主名詞の判定方法}\label{sec:3.1}利用者辞書に登録される見出し語は,単一の名詞もしくは複数単語から構成される複合名詞のいずれかとし,訳語は単一の単語,名詞連続の複合語,名詞句のいずれかとする.見出し語,訳語を構成する単語のうち,中心的な意味を担う名詞を主名詞と呼ぶ.通常,登録語の単語意味属性は主名詞の単語意味属性と一致することが多いと考えられる.また,システム辞書の中に利用者辞書登録語の見出し語または訳語の一致する語が存在する可能性に比べて,利用者辞書登録語の主名詞が存在する可能性は高い.従って,主名詞に着目すれば,登録語の意味属性を推定できる可能性が大きい.日本語名詞は語形変化しないため,システム辞書の見出し語と利用者登録語の主名詞を含む部分とを直接比較し,システム辞書内から必要な情報を引き出すことができる.これに対して,英語名詞は複合語内などで屈折による語形変化を伴うことがあるため,主名詞を含む部分とシステム辞書の英語訳語を直接比較することはできない.そこで,ここでは,システム辞書の訳語との比較が可能となるよう,利用者登録語の英語訳語に対して主名詞を抽出する.[英語主名詞の判定手順]\begin{description}\item[(1)]まず,訳語が単語一語で構成されるときは,その語を主名詞とする.\item[(2)]次に,訳語が2語以上の語から構成されている場合は,まず,訳語の全体が,システム辞書に登録されているか否かを調べ,登録されている場合は,訳語全体を主名詞とする.\item[(3)]登録されていない場合は,名詞句(訳語)を構成する単語の中から主名詞を推定する.この場合,英語訳語は名詞連続複合語または修飾語や句を伴った名詞句で構成されていると考えられる.前者の場合は,最後の名詞が主名詞になるのに対して,後者の場合では,修飾語句は主名詞の前方だけでなく後方に来る場合のあることを考慮する必要がある.通常,後方修飾は前置詞,関係詞で導かれることを考慮して,以下の方法で主名詞を選定する.\begin{itemize}\item訳語中にin,on,withなどの前置詞,またはthat,whichなどの関係詞(ストップワード)があるか否かを調べ,ある場合は,それの語以下の語を削除する.\item次に,残った英語全体に対して英語辞書引きを行い,辞書内に一致する語があれば,それを主名詞とする.\item一致する語のないときは,前方から一語ずつ落としながら(修飾語を外しながら),残った語に対して英語辞書引きを行い,辞書と一致した語(または語の組)を主名詞とする.外せる修飾語がなくなったときは,残った語を主名詞とする.\end{itemize}\end{description}\subsection{名詞種別の判定方法}\label{sec:3.2}前に述べたように,一般名詞には,一般名詞意味属性を付与すればよいのに対して,固有名詞には一般名詞意味属性と固有名詞意味属性の両方を付与することが必要である.そのため,利用者登録語が固有名詞か一般名詞かの判定を行う必要がある.この判定は,利用者にとって比較的容易な作業であるが,利用者の負担を少しでも削減することを狙って,自動化の方法を考える.日本語表現では,一般名詞と固有名詞は通常,表記上区別されないのに対して,英語表現では,固有名詞の先頭文字は大文字で書かれる点に特徴がある.そこで,登録された単語の英語側の表記に着目し,訳語が1単語のときは,先頭文字1文字が大文字の場合は固有名詞とし,それ以外は一般名詞とする.複数の単語から構成される訳語のときは,各単語の先頭1文字が大文字の場合は,固有名詞とする.訳語にすべて大文字からなる単語が含まれる場合は,それ以外の単語がすべて固有名詞と判定されるときは全体を固有名詞とし,それ以外は一般名詞とする.\subsection{意味属性推定の方法}\label{sec:3.3}利用者登録語の見出し語,訳語,訳語の主名詞と,システムに既に準備されている日英対照辞書の内容を比較して,利用者登録語の単語意味属性を推定する.利用者登録語が一般名詞の場合は,日英対照辞書に登録された一般名詞を検索の対象として,一般名詞意味属性を推定するのに対して,利用者登録語が固有名詞の場合は,日英対照辞書に登録された固有名詞を検索の対象として,一般名詞意味属性と固有名詞意味属性を推定する.\vspace{-0.1mm}以下,利用者登録語の見出し語から意味属性を推定する方法と訳語から推定する方法を示すが,これらの手順は一般名詞意味属性の場合と固有名詞意味属性の場合に共通である.\vspace{-0.1mm}また,意味属性をなるべく漏れなく抽出するため,見出し語と訳語のそれぞれに対して下記の手順を適用する.なお,事項の順序は任意である.\vspace{-0.2mm}\subsubsection{見出し語(日本語表記)から推定する方法}\vspace{-0.2mm}日英対照辞書を検索し,利用者登録語の見出し語と一致する見出し語が日英対照辞書の登録語にある場合は,既に登録された訳語が適切でないため,訳語を変えるのが利用者辞書登録の目的である場合が多いと考えられるから,単語意味属性の変更はしないものとし,日英対照辞書に記載された単語意味属性を利用者登録語の単語意味属性とする.\vspace{-0.1mm}利用者登録語の見出し語と一致する見出し語が日英対照辞書の登録語にない場合は,利用者登録語の後方からの最長一致法で,再度,日英対照辞書を検索する.カタカナ語を除き,2文字以上が,日英対照辞書の見出し語と部分一致(カタカナ語の場合は単語単位で一致)すれば,日英対照辞書の意味属性を利用者登録語の意味属性とする.\vspace{-0.1mm}例えば表\ref{tab:1}で,利用者登録語の「治療」,「放射線治療」は,システム辞書(表\ref{tab:2})に「治療」があるので,意味属性は《治療》となる.\vspace{-0.1mm}\begin{table}\hspace{-0.5cm}\begin{minipage}{8.8cm}\caption{利用者辞書の例}\label{tab:1}\begin{center}\leavevmode\begin{tabular}{|p{2.3cm}|p{2.3cm}|l|}\hline\multicolumn{1}{|c|}{日本語見出し}&\multicolumn{1}{|c|}{英語訳}&単語意味属性\\\multicolumn{1}{|c|}{(利用者付与)}&\multicolumn{1}{|c|}{(利用者付与)}&(推定結果)\\\hline治療&cure&《治療》\\\hline放射治療&radiotherapy&《治療》\\\hline手当て&{\ittreatment\/}&《治療》\\\hline医療&medical{\ittreatment\mbox{}\/}&《治療》\\\hline数値\bf制御ロボット&numerically{\itcontrolledrobot\/}&《産業機器》\\\hline照明付き\bf机&{\itdesk\/}withlightunit&《家具》\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{5.3cm}\caption{システム辞書の例\\(日英対照辞書)}\label{tab:2}\begin{center}\leavevmode\begin{tabular}{|l|p{1.2cm}|l|}\hline日本語&\multicolumn{1}{|c|}{英語訳}&単語意味属性\\見出し&&\\\hline治療&treatment&《治療》\\\hline制御&controlled&《産業機器》\\ロボット&robot&\\\hline机&desk&《家具》\\\hline\end{tabular}\end{center}\end{minipage}\end{table}\subsubsection{訳語(英語表記)から推定する方法}日英対照辞書の訳語の中に,利用者登録語の訳語と一致する語がある場合は,その訳語に対応する見出し語は,利用者登録語の見出し語と同義語の場合が多いと考えられるので,日英対照辞書に登録された意味属性を,そのまま利用者登録語の意味属性とする.利用者登録語の訳語と一致する訳語が日英対照辞書の登録語にない場合は,(1)の場合と同様,再度,日英対照辞書を検索する.その中に,利用者登録語の主名詞もしくは主名詞を含む訳語部分が,日英対照辞書の訳語にあれば,日英対照辞書の意味属性を利用者登録語の意味属性とする.但し,利用者登録語と日英対照辞書の訳語が同一の主名詞を持つ場合でも,語形が異なる場合があるので,主名詞は可能な語形変化(単数複数など)をさせながら,照合を行う\footnote{具体的には,まず,抽出された主名詞のシステム辞書内での有無を調べ,それが発見されないときに,主名詞を語形変化させ再度,システム辞書を検索する.これにより,語形変化によって意味の変わる単語の場合などで,システム辞書内から,なるべくもとの語形と一致する単語が抽出される.}.例えば,表\ref{tab:1}で,利用者登録語の「手当」,「医療」は,その訳語(または主名詞訳語)「treatment」がシステム辞書(表\ref{tab:2})にあるので,意味属性は《治療》となる.以上の方法では,システム辞書には一般に複数の意味属性が付与されていること,日本語表記だけでなく英語表記からも意味属性が抽出されるため,一般に一語に対して複数の意味属性が抽出されることになる.利用者辞書は特定の翻訳対象に対して指定して使用されるため,用語の用法が限られる特徴がある.従って,実際の用法が意味属性として与えられていれば,それ以外の用法が多少付与されていても,副作用は少ないと期待される.そこで,意味属性としては,得られた意味属性すべてを登録する.但し,同一の単語意味属性が重複して抽出された場合は,重複を取って登録する. \section{意味属性推定精度の評価} \label{sec:4}\subsection{実験の条件}\label{sec:4.1}表\ref{tab:3}に示すような新聞記事文とソフトウエア設計書の日本文に対して前章の方法を適用し,自動推定の精度を評価する.具体的には,以下の3つの場合に分けて,得られた単語意味属性を比較評価する.\begin{description}\item[(1)自動推定方式による場合]与えられた見出し語,訳語のペアに対して,前章の方法で単語意味属性を付与する.\item[(2)人手付与方式の場合]意味属性体系に精通した辞書担当のアナリストが,与えられた見出し語,訳語のペアを見て,単語意味属性を付与する.\item[(3)最適意味属性の場合](2)で作成した利用者辞書を使用して対象文の翻訳実験を行い,その結果を見て意味属性の修正追加を行う.最終的に翻訳結果が最適となるまでこの作業を繰り返して,意味属性を定める.この方法で得られた意味属性を,最適値と仮定する.\end{description}\begin{table}[htbp]\caption{実験対象文の特性}\label{tab:3}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|}\hline\multicolumn{2}{|c|}{項目}&新聞記事&ソフト設計書\\\hline\multicolumn{2}{|c|}{対象文数(文)}&102文&105文\\\hline\multicolumn{2}{|c|}{平均文字数(文字/文)}&42文字&40文字\\\hline\multicolumn{2}{|c|}{平均単語数(単語/文)}&21.2単語&16.0単語\\\hline\raisebox{-6pt}{利用者辞書}&一般名詞&28語&98語\\\cline{2-4}\raisebox{-6pt}{登録語数}&固有名詞&49語&7語\\\cline{2-4}&合計&77語&106語\\\hline\multicolumn{2}{|c|}{利用者登録語を含む文数}&53文&93文\\\hline\end{tabular}\end{center}\end{table}\subsection{名詞種別自動判定精度}\label{sec:4.2}前章の3種類の意味属性付与方式で得られた名詞種別の判定精度を表\ref{tab:4}に示す.\begin{table}[htbp]\caption{名詞種別の判定結果}\label{tab:4}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|c|c|c|}\hline標本&\multicolumn{3}{|c|}{新聞記事}&\multicolumn{3}{|c|}{ソフトウエア設計書}\\\hline属性種別&自動判定&人手判定&最適解&自動判定&人手判定&最適解\\\hline一般名詞&31語&30語&28語&93語&99語&98語\\\cline{2-7}意味属性&(27語)&(27語)&&(90語)&(97語)&\\\hline固有名詞&46語&47語&49語&12語&6語&7語\\\cline{2-7}意味属性&(45語)&(46語)&&(4語)&(5語)&\\\hline\raisebox{-6pt}{合計}&77語&77語&77語&105語&105語&105語\\\cline{2-7}&(72語)&(73語)&&(94語)&(102語)&\\\hline判定正解率&93.5\%&94.8\%&100\%&89.5\%&97.1\%&100\%\\\hline\end{tabular}\vspace{1.5mm}()内の数は,正しい判定の数を示す.\end{center}\end{table}新聞記事の場合,自動判定方式では,利用者登録語全体77語のうち,判定の正しかった名詞は一般名詞27語,固有名詞45語の合計72語で,正解率は93.5\%であった.人手付与方式では,一般名詞27語,固有名詞語46語を正しく判定し,正解率は94.8\%であった.これに対して,設計書の場合は,自動判定法の正解率89.5\%,人手付与方式の正解率は97.1\%であった.自動判定で,一般名詞を誤って固有名詞と判定した語は,「郵政大臣」,「中部圏」,「GE」,「IGS」,「汎用GS」などであった.逆に,固有名詞を誤って一般名詞と判定したのは,「PC9800」,「VOS3.2」,「X.25プロトコル」などであった.以上から,文書の種類によって多少の差はあるが,自動判定方式で人手判定方式と大差のない結果が得られることがわかった.判定に失敗した約10\%の名詞について考えると,固有名詞には固有名詞意味属性のほかに一般名詞意味属性も付与することになっているため,一般名詞を固有名詞と判定した語(新聞記事1語,設計書語8語)の場合は,一般名詞意味属性も付与されることになり,訳文品質への影響は殆どないと期待される.しかし,逆に,固有名詞を一般名詞と判定した語(新聞記事4語,設計書3語)には,固有名詞意味属性が付与されないので,その語が複合語構成要素として使用された場合,影響がでると考えられる.\subsection{意味属性自動推定精度}\label{sec:4.3}\begin{table}[htbp]\caption{単語別にみた単語意味属性の自動付与品質}\label{tab:5}\begin{center}\leavevmode\begin{tabular}{|l|l|c|c|c|c|c|c|}\hline\multicolumn{4}{|r|}{属性種別}&\multicolumn{2}{|c|}{新聞記事}&\multicolumn{2}{|c|}{ソフトウエア設計書}\\\hline\multicolumn{4}{|r|}{}&一般名詞&固有名詞&一般名詞&固有名詞\\\multicolumn{4}{|c|}{比較項目}&意味属性&意味属性&意味属性&意味属性\\\hline\multicolumn{4}{|c|}{属性付与の必要な語数}&77語(100\%)&49語(100\%)&105語(100\%)&7語(100\%)\\\cline{2-8}\hspace{4mm}&\multicolumn{2}{|c|}{属性が付与された}&自動&73語(94.8\%)&47語(95.9\%)&88語(83.8\%)&3語(42.9\%)\\&\multicolumn{2}{|c|}{語数の合計}&人手&77語(100\%)&47語(95.9\%)&100語(95.2\%)&5語(71.4\%)\\\cline{2-8}&\hspace{4mm}&そのうち&自動&38語(49.4\%)&42語(85.7\%)&3語(2.9\%)&2語(28.6\%)\\&&全属性が正解&人手&44語(57.1\%)&42語(85.7\%)&50語(47.6\%)&1語(14.3\%)\\\cline{3-8}&&そのうち&自動&21語(27.3\%)&0語(0.0\%)&41語(39.2\%)&0語(0.0\%)\\&&余分に付与&人手&9語(11.7\%)&0語(0.0\%)&11語(10.5\%)&1語(14.3\%)\\\cline{3-8}&&そのうち&自動&4語(5.2\%)&0語(0.0\%)&18語(17.1\%)&0語(0.0\%)\\&&一部付与不足&人手&8語(10.4\%)&0語(0.0\%)&27語(25.7\%)&2語(28.6\%)\\\cline{3-8}&&そのうち&自動&10語(13.0\%)&5語(10.2\%)&26語(24.8\%)&1語(14.3\%)\\&&全てが誤り&人手&16語(20.8\%)&4語(8.2\%)&12語(11.4\%)&1語(14.3\%)\\\cline{2-8}&\multicolumn{2}{|c|}{自動付与され}&自動&4語(5.2\%)&2語(4.3\%)&17語(16.2\%)&4語(57.1\%)\\&\multicolumn{2}{|c|}{なかった語数}&人手&0語(0.0\%)&2語(4.3\%)&5語(4.8\%)&2語(28.6\%)\\\hline\multicolumn{4}{|c|}{属性付与の必要ない語数}&0語&28語&0語&98語\\\cline{2-8}&\multicolumn{2}{|c|}{\raisebox{-6pt}[0pt][0pt]{属性付与された語数}}&自動&0語&1語&0語&8語(8.2\%)\\&\multicolumn{2}{|c|}{}&人手&0語&1語&0語&1語(0.1\%)\\\hline\end{tabular}\vspace{-3mm}\end{center}\end{table}\begin{table}[htbp]\caption{属性数から見た自動推定と人手付与の比較}\label{tab:6}\vspace{-2mm}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|c|c|c|}\hline標本&\multicolumn{3}{|c|}{新聞記事}&\multicolumn{3}{|c|}{ソフトウエア設計書}\\\hline属性付与&自動推定&人手付与&最適解の&自動推定&人手付与&最適解の\\の方法&で付与し&の属性数&属性数&で付与し&の属性数&属性数\\\cline{1-1}属性の種類&た属性数&&&た属性数&&\\\hline一般名詞意味属性&194件&110件&127件&341件&130件&191件\\&74+21件&93+17件&--&67+20件&74+17件&--\\\hline固有名詞意味属性&46件&43件&48件&12件&7件&7件\\&42+0件&42+1件&--&2+0件&1+2件&--\\\hline合計&240件&153件&175件&353件&137件&198件\\&116+21件&135+18件&--&63+22件&75+19件&--\\\hline\end{tabular}\vspace{1.3mm}下段の数字の説明:nnn+mmm\\nnn=付与された属性の内,最適解と一致する属性の数\\mmm=自動付与された属性が最適値の近傍(上位または下位)にあるものの数を示す.\vspace{-2mm}\end{center}\end{table}\begin{table}[htbp]\caption{自動付与した意味属性の適合率と再現率}\label{tab:7}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{標本}&\multicolumn{2}{|c|}{新聞記事}&\multicolumn{2}{|c|}{ソフトウエア設計書}\\\hline\multicolumn{2}{|c|}{意味属性種別}&適合率&再現率&適合率&再現率\\\hline一般名詞&自動付与方式&38.1\%&58.3\%&19.6\%&35.1\%\\意味属性&&(49.0\%)&(74.8\%)&(25.5\%)&(45.5\%)\\\cline{2-6}&人手付与方式&84.5\%&73.2\%&56.9\%&38.7\%\\&&(100\%)&(86.6\%)&(70.0\%)&(47.6\%)\\\hline固有名詞&自動付与方式&91.3\%&87.5\%&16.7\%&28.6\%\\意味属性&&(同上)&(同上)&(同上)&(同上)\\\cline{2-6}&人手付与方式&97.6\%&87.5\%&14.3\%&14.3\%\\&&(100\%)&(89.6\%)&(42.9\%)&(42.9\%)\\\hline全体&自動付与方式&48.3\%&66.3\%&17.8\%&31.8\%\\&&(57.5\%)&(78.3\%)&(24.0\%)&(42.9\%)\\\cline{2-6}&人手付与方式&88.2\%&77.1\%&54.7\%&37.9\%\\&&(100\%)&(87.4\%)&(68.6\%)&(47.5\%)\\\hline\end{tabular}\vspace{1.5mm}()内の数字は,最適意味属性の近傍(上位下位)も正解とした場合を示す.\end{center}\end{table}単語別にみたときの自動推定とアナリスト付与の結果を表\ref{tab:5},付与された意味属性全体の数とその内訳を表\ref{tab:6}に示す.アナリストの付与した意味属性が正解であると考えたときの適合率と再現率は,表\ref{tab:6}から表\ref{tab:7}の通り求められる.これらより以下のことが分かる.\vspace{-0.2mm}\begin{description}\item[(1)]意味属性自動推定のアルゴリズムは,システム辞書の情報を手がかりに働くため,利用者登録語の全てに意味属性が付与されるとは限らない.これに対して,実験結果では,意味属性付与の必要な単語延べ238語に対して,意味属性が自動推定された語数は211語であり,その割合(88.7\%)は大きい.これは利用者登録語に関連する語の情報が,既にシステム辞書に豊富に存在することを示している.\vspace*{-0.2mm}\item[(2)]単語毎に見たとき,正解以外の余分の意味属性が付与された語も多いため,適合率はあまり高くないが,再現率を見ると,新聞記事の場合は8割近く,設計書の場合は約4割を得ている.従って,3.3節に述べた理由から自動推定の効果は十分あると予測される.\item[(3)]ソフトウエア設計書の場合,固有名詞の意味属性の精度かなり低い.しかし,この場合,固有名詞の数は少数であること,固有名詞でも一般名詞意味属性は付与されることから,訳文品質への影響は少ないと思われる.\end{description} \section{訳文品質の向上効果} \label{sec:5}\subsection{実験の条件}\label{sec:5.1}利用者登録語に対する意味属性自動推定の効果を調べるため,前章と同一の試験文(新聞記事102文,ソフトウエア設計書105文)を対象に,前章で得られた利用者辞書を用いて,翻訳実験を行った.実験は以下の4つの場合に分けて実施した.\begin{description}\item[場合1]単語意味属性の付与されない利用者辞書を使用した場合\item[場合2]自動推定方式により付与した意味属性を使用した場合\item[場合3]人手付与方式により付与した意味属性を使用した場合\item[場合4]最適意味属性を使用した場合\end{description}\subsection{実験結果}\label{sec:5.2}\begin{table}[htbp]\caption{訳文品質の比較評価}\label{tab:8}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{訳文品質の比較}&\multicolumn{2}{|c|}{新聞記事}&\multicolumn{2}{|c|}{ソフトウエア設計書}\\\hline\multicolumn{2}{|c|}{意味属性付与の方法}&訳文合格率&品質変化*&訳文合格率&品質変化*\\\hline場合1&意味属性付与無し&56.7\%&0.0\%&65.7\%&0.0\%\\\hline場合2&自動推定方式&69.6\%&+16.7\%&71.4\%&+10.5\%\\\hline場合3&人手付与方式&71.5\%&+21.6\%&71.4\%&+15.2\%\\\hline場合4&最適意味属性&72.5\%&+25.5\%&73.3\%&+23.8\%\\\hline\end{tabular}\vspace{1.5mm}*10点満点評価で1点以上,訳文品質に変化のあった文の割合を示す.\vspace{-1mm}\end{center}\end{table}上記の4つの場合の翻訳結果を表\ref{tab:8}に示す.この表より以下のことが分かる.\begin{description}\item[(1)]自動推定された単語意味属性を使用した場合,意味属性を付与しなかった場合に比べて,訳文合格率は,新聞記事の場合約10\%,ソフトウエア設計書の場合約6\%向上した.\item[(2)]これらの値は,いずれも,人手付与方式によって得られる効果と大差ない値である.\item[(3)]最適意味属性を使用した場合は,人手付与方式よりさらに1〜3\%高い訳文品質向上率が得られている.\end{description}\subsection{考察}\label{sec:5.3}\subsubsection{訳文品質向上効果について}最適意味属性を決定する繰り返し実験のコストを考えると,上記で得られた結果は,十分満足できる値である.経験的に言って,機械システムの改良により10\%の翻訳率向上を得ることは容易ではない.機械翻訳の実用レベルの品質は70〜80\%以上と考えられるから,訳文品質が50〜60\%の現状のシステムでは,10\%前後の翻訳率の向上は大きな効果といえる.\subsubsection{対象文による効果の違い}新聞記事文の場合に比べて,ソフトウエア設計書の場合は,訳文品質向上効果が少ない.この理由は以下の通りと考えられる.すなわち,新聞記事文では,一般語を組み合わせた複合語が利用者辞書登録語となる場合が多く,主名詞が,既にシステム辞書に登録されていることが多いため,必要な意味属性が付与されやすい.これに対して,ソフトウエア設計書では,意味不明な英字略語やカタカナ語の登録が多く,システム辞書から適切な意味属性を抽出するのが困難な場合が多い.しかし,後者の場合は,人手付与の場合も,適切な意味属性付与は簡単とは言えず,意味属性付与の効果は,前者に比べて少ないことを考えると,両者の実験から,本方式では,人手付与に近い効果が得られたと言える.\subsubsection{方式の有効範囲について}本実験では,3,000種の意味属性を使用したが,本方式は意味属性の数によらず適用可能である.方式の適用性は,システム辞書の充実性に依存する点が大きいと考えられる.特に,一般語に関する見出し語の網羅性が保証され,登録語に対してそのシステムで定められた意味属性が漏れなく付与されていることが大切と思われる.但し,意味属性付与の効果は,意味属性体系自体の構成概念(何を狙ってどんな方針で体系化するか)や分類精度\footnote{\citeA{Ikehara:1993}において,日英機械翻訳では,格フレームを使用して動詞を訳し分ける(一部の動詞を除く)には,格要素の意味マーカをおおよそ2,000種類程度に分類すれば良いことが報告されている.従って,3,000通りの分類を用いた本実験は,動詞の意味による訳し分けの点から見て,意味属性分類能の必要十分と見られる領域での実験と考えらる.}(どれだけ細かく分類するか),品質などにも強く依存しており,使用する意味属性体系が異なれば,意味属性付与の効果そのものが本実験の場合と異なることになる.しかし,本実験の結果から,自動付与方式では,システム辞書が充実していれば,人手付与の場合に近い効果が得られることが期待される.\subsubsection{その他}新聞記事の場合,自動推定方式で訳文品質を向上できなかった3文を見ると,その原因は,名詞種別の判定誤りが1件,正解の意味属性の上位または下位の属性を選択したものが,それぞれ1件であった.本方式では,名詞の種別も自動判定しているが,誤りの例から見て,名詞種別と意味属性の単純な分類(上位2〜3段程度)を利用者に依頼することができれば,これらの誤りは,ほぼ防ぐことができると推定される.以上の結果,従来,利用者が利用者辞書を作成する際,最も熟練の必要な単語意味属性の付与作業を自動化できる展望が得られた. \section{あとがき} \label{sec:6}利用者辞書に登録する利用者登録語の見出し語(日本語)と訳語(英語)が与えられたとき,機械翻訳システムに既に存在する情報を利用して,その単語意味属性を自動的に推定する方法を提案した.また,本方式を新聞記事102文,ソフトウエア設計書105文の翻訳に必要な利用者辞書の作成に適用し,推定された単語意味属性の精度,最終的な翻訳結果に与える影響などを評価した.その結果,自動推定された単語意味属性は,専門家が実験の繰り返しによって決定した意味属性(最適意味属性)の40〜80\%を再現していることが分かった.この値は,専門家が自動推定と同一の条件で人手付与方式により付与した意味属性の再現率(50〜90\%)よりは若干(〜10\%)低いが,十分効果の期待できる値である.また,自動推定された単語意味属性を使用した翻訳実験では,意味属性を付与しなかった場合に比べて,訳文合格率は6〜13\%向上し,人手付与方式の場合と同等の品質が得られることが分かった.この品質は,最適意味属性を使用した場合に比べても,2〜3\%しか低下しない値であり,最適意味属性を決定する繰り返し実験のコストを考えると,十分満足できる値である.これらの結果,従来,利用者が利用者辞書を作成する際,最も熟練の必要な単語意味属性の付与作業を自動化できる展望が得られた.今後は,対訳コーパスから,利用者辞書登録の必要な単語の見出し語と訳語を自動抽出し,利用者辞書全体を自動生成する方法について研究を進める予定である.\bibliographystyle{jtheapa}\bibliography{/home/ecl/bond/Bib/ling}\begin{biography}\biotitle{略歴}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学大学院修士課程終了.同年日本電信電話公社に入社.以来,電気通信研究所において数式処理,トラヒック理論,自然言語処理の研究に従事.現在,NTTコミュニケーション科学研究所池原研究グループ・リーダ(主幹研究員).工学博士.1982年情報処理学会論文賞,1993年情報処理学会研究賞受賞.電子情報通信学会,情報処理学会,人工知能学会,各会員.}\bioauthor{白井諭}{1978年大阪大学工学部通信工学科卒業.1980年同大学院博士前期課程修了.同年日本電信電話公社入社.現在,NTTコミュニケーション科学研究所主任研究員.日英機械翻訳を中心とする自然言語処理の研究に従事.電子情報通信学会,情報処理学会,各会員.}\bioauthor{横尾昭男}{1980年電気通信大学電気通信学部電子計算機学科卒業.1982年同大学院電子計算機学専攻修士課程終了.同年日本電信電話公社に入社.現在,NTTコミュニケーション科学研究所勤務.この間,自然言語処理の研究に従事.現在,日英機械翻訳システムにおける日英構造変換処理や翻訳辞書の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,ACL,各会員.}\bioauthor{FrancisBond}{FrancisBondreceivedaB.A.inJapaneseandmathematicsfromtheUniversityofQueenslandin1988followedbyaB.Enginelectricalsystemsengineeringin1990.HejoinedNTTin1991andiscurrentlyresearchingmachinetranslationintheNTTCommunicationScienceLaboratories.HeisamemberofALS,IEEE,IPSJandNLP.}\bioauthor{小見佳恵}{1977年鶴見大学文学部日本文学科卒業.1988年NTT技術移転株式会社(現・NTTアドバンステクノロジ株式会社)入社.現在,情報技術部担当課長.日英機械翻訳システムを中心に自然言語処理における言語データベースの構築,言語現象の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V10N03-06
\section{はじめに} \label{sec:introduction}単語の多義性解消は自然言語処理の重要な基本技術のひとつとして認識されている.単語の多義性というのは,例えば,「買う」という単語について「本を買う」と「反感を買う」とでは意味が違うというように,同じ単語でも文脈によって意味の違いがあるという性質のことを言う.そして,その意味の違いのことを単語の多義と言う.単語の多義は細かく定義すればきりがない.したがって,多義をどこまで区別するべきかはタスクの目的に依存して決めることになる.機械翻訳の問題では,適切な翻訳(訳語/訳句)が選択できればよく,単語の多義はその翻訳の異なりとして定義できる.機械翻訳における単語の多義性解消の方法,つまり,訳語選択の方法は,これまでにも数多く提案されてきた.それらの方法を,利用している言語資源という観点から分類すると,対訳コーパスを用いるもの\cite{Nagao81,Sato90,Brown:90,Brown:93,berger:cl96,Sumita:2000,Baldwin:2001},対訳単語辞書と目的言語の単言語コーパスを用いるもの\cite{Dagan:cl94,Kikui:98},対訳単語辞書と,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いるもの\cite{Kikui:99,Koehn:2000},原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いるもの\cite{Tanaka:96}に大別できる.我々は,多様な情報を用いれば用いるほど良い結果が得られると考え,対訳単語辞書,対訳コーパス,および,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いる.対訳コーパスには大きくパラレルコーパスとコンパラブルコーパスの二種類があり,我々はそのうちパラレルコーパスを用いる.さらに,文対応をとる際の誤りを軽減するために,パラレルコーパスとして,対訳用例(句/文)集合(翻訳メモリ,トランスレーション・メモリー,以下TM)を用いる.我々のシステムは,入力文と対象単語が与えられると,その対象単語に関して入力文と対訳用例集合との類似度を求め,類似度が最大となる用例集合を用いて対象単語の訳語選択を行なう.類似度は,用例に基づく手法と機械学習モデルを用いて計算される.類似度の計算には,文字列の類似性,入力文における対象単語の前後の数単語,入力文中の内容語とその訳語候補のコーパスにおける出現頻度などを考慮する.このシステムで用いた訳語選択のためのモデルは次のような特徴を持つ.\begin{itemize}\item各対訳用例内の単語対応をとり,同じ対訳単語ペアを持つ対訳用例をまとめてひとつの用例集合とする.そして,そのペアの原言語(対象単語と同じ言語)の単語が同じである用例集合をまとめ,そのまとまりごとにモデルを作成する.以降で,各用例集合内で共通する対訳単語ペアを見出し語と呼ぶ.そして,そのペアの各単語をそれぞれ原言語見出し語,目的言語見出し語と呼ぶ(原言語が日本語,目的言語が英語の場合,それぞれ日本語見出し語,英語見出し語と呼ぶ).\item対象単語に関して入力文と表層的にほぼ同じ用例が用例に基づく手法により見つかった場合にはその用例を優先的に翻訳に使う.見つからなかった場合には,機械学習モデルに基づく手法により対象単語に関して入力文と最も類似した用例集合を選択して翻訳に使う.\item言語資源としては,対訳単語辞書,対訳コーパス,および,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いる.\end{itemize}2001年の春,単語の多義性解消のコンテスト第2回{\scSenseval}が開催された\cite{senseval2:homepage}.このコンテストは1998年に,英語と二つのヨーロッパ言語(イタリア語とフランス語)を対象として始まったものである.2001年には新たに他のいくつかの言語に関するタスクが追加された.我々はそのうち日本語に関して追加された翻訳タスクに参加した.本論文では,そのコンテストでの結果をもとに,我々が本論文で提案する手法の有効性および精度向上にどのような情報が有効であったかについて述べる. \section{{\scSenseval}日本語翻訳タスク} このタスクでは,単語の多義は翻訳(訳語/訳句)として定義された.コンテストでは,予め日英のTMが訓練データとして配布された.具体的には,TMでは,日本語見出し語に対して,それを含む日本語表現とその英語翻訳のペア(以下これを用例と呼ぶ)の集合が与えられた.図~\ref{fig:tm_example}がそのTMのサンプルである.\begin{figure*}[htbp]\begin{center}\begin{tabular}[c]{l}$<$entryid=``1''headword=``遠慮''$>$\\\q$<$senseid=``1-1''$>$\\\q\q$<$jexpression$>$母に遠慮する$<$/jexpression$>$\\\q\q$<$eexpression$>$tofeelconstrainedforone'smother$<$/eexpression$>$\\\q$<$/sense$>$\\\q$<$senseid=``1-2''$>$\\\q\q$<$jexpression$>$母への遠慮$<$/jexpression$>$\\\q\q$<$eexpression$>$constrainttowardone'smother$<$/eexpression$>$\\\q\q$<$transmemo$>$UC$<$/transmemo$>$\\\q$<$/sense$>$\\\q$<$senseid=``1-3''$>$\\\q\q$<$jexpression$>$献金を遠慮してもらう$<$/jexpression$>$\\\q\q$<$eexpression$>$torequesttorefrainfromdonation$<$/eexpression$>$\\\q$<$/sense$>$\\\q......\\$<$/entry$>$\\\end{tabular}\caption{TMの例}\label{fig:tm_example}\end{center}\end{figure*}コンテストのテストでは,対象単語にマークのついたテスト文章が配布された.参加者には,対象単語に対して,その翻訳に利用できるTMの用例番号,または,翻訳そのものを提出することが求められた.翻訳の場合は,その語単独の翻訳でも,前後の適当な範囲の翻訳でも,文全体の翻訳でもよいものとされた.テストの各対象単語には正解が用意された.正解は必ずしもひとつではなく,複数の場合もある.評価は,システムの出力のうち正しく推定できたものの割合(精度)により行なわれた.システムの出力がTMの用例番号の場合は,その出力が正解のいずれかと一致するとき,正しく推定できたものと見なされた.システムの出力が翻訳の場合は,すべての可能な翻訳を用意することは難しいため,その出力が正しいかどうかは人間の判断に委ねられた. \section{訳語選択モデル} \label{sec:model}入力文と対象単語が与えられたとき,対象単語の適切な訳語を選択するタスクを考える.そして,このタスクで,対象単語に関して入力文との類似度が最大となる用例あるいは用例集合を用いて対象単語の訳語を選択するモデルを考える.本論文ではこのモデルを訳語選択モデルと呼ぶことにする.以降では,原言語として日本語を,翻訳の目的言語として英語を仮定して説明する.入力文と用例との類似度は次の二つの方法により求める.\begin{enumerate}\item文字列の類似性に基づく方法(手法1)類似度は,入力文と日本語用例との間で一致した文字列に基づいて計算する.\item機械学習モデルに基づく方法(手法2)類似度は,対象単語の各訳語候補に対して機械学習モデルにより求められる確率値あるいは確信度と定義する.\end{enumerate}入力文と対象単語が与えられたとき,まず手法1で対象単語に関して入力文との類似度が閾値以上となる用例があるかどうかを調べ,ある場合はその類似度が最大となる用例の番号あるいはその用例の英語見出し語を出力し,ない場合は,手法2で対象単語に関して入力文と最も類似した用例集合を選択し,その英語見出し語を出力する.以降で,各方法について詳細に述べる.\subsection{文字列の類似性に基づく方法(手法1)}\label{sec:metho1}対象単語に関して入力文との類似度が高い日本語用例があれば,TMを信頼しその用例の番号あるいはその英語見出し語を出力する.入力文と一致する割合を調べる際,日本語用例には文末処理(句末の場合も含む)を施しておく.文末処理としては,機能語,動詞や形容詞の活用部分,サ変動詞をすべて削除するということを行なった.例えば,図~\ref{fig:tm_example}の用例にこの文末処理を施すとそれぞれ,「母に遠慮」「母への遠慮」「献金を遠慮」となる.入力文との一致する割合は,動的計画法により入力文と日本語用例を文字単位で比較して差異を求め,一致した文字列の割合として求める.実験では,この差異をUNIXのdiffコマンドを用いて求めた\footnote{文献\cite{murata2002_mdiff}には,差異の抽出にdiffコマンドが利用できるような自然言語処理の例がいくつかあげられている.}.類似度は以下の式により求める.\begin{eqnarray}\label{eq:sim1}類似度&=&\frac{入力文との{\rmdiff}をとったときに一致した文字数}{文末処理を施した日本語用例の文字数}\end{eqnarray}このとき,用例が複数の部分に分割されて一致する場合があり,類似度が大きくても多くの部分に分割されてしまう場合は類似用例としてふさわしくない場合が多い.そこで,分割数に閾値を設け,閾値より分割数が多い用例は選択対象外とする.類似度が最大となる用例が複数ある場合には,最長の日本語用例を持つ用例の番号を返す.ただし,一致した部分が日本語見出し語の長さより長い場合に限る.しかしながら,TMに全ての可能な用例を登録することは難しく,常に入力文と表層的にほぼ同じものがあることは期待できないため,類似度が最大となる用例が常に訳語選択に最適な用例であるとは限らない.そこで,類似度に閾値を設け,閾値以上の類似度を持つ用例がない場合は次節に述べる方法を用いる.\subsection{機械学習モデルに基づく方法(手法2)}\label{sec:method2}入力文と表層的にほぼ同じ用例がない場合,より多様な情報を用いて類似度を求める必要があると考えられるが,そのために複雑な規則を作成するのは避けたいため,類似度の計算には機械学習モデルを用いることにした.機械学習モデルによって分類するクラスは対象単語の訳語/訳句候補とした.訳語選択モデルは,\ref{sec:introduction}節でも述べたように,同じ日英対訳単語ペアを持つ対訳用例をまとめてひとつの用例集合とし,そのペアの日本語単語が同じである用例集合をまとめ,そのまとまりごとに作成する.したがって,各モデルでは,同じ見出し語を持つ用例は同じクラスとなり,入力文に対しすべて同じ類似度となる.そして,日英の見出し語つまり各用例集合内で共通する対訳単語ペアのうち,日本語見出し語は共通で,英語見出し語が訳語/訳句候補となるため,各用例集合の英語見出し語がモデルにより分類するクラスとなる.TMでは見出し語は予め人手で与える.例えば,図~\ref{fig:tm_example}の場合,日本語見出し語は「遠慮」であり,英語見出し語はそれぞれ,「feelconstrained」,「constraint」,「refrain」となる.これらを$<$ehead$>$$<$/ehead$>$のタグで明示すると図~\ref{fig:tm_example2}のようになる.英語見出し語が動詞の場合はすべての語尾変化形を基本形で代表させる.さらに,TMの各日本語見出し語を対訳辞書で索き,TMになかった訳語/訳句候補が見つかれば,それらも新たなクラスとして追加する.\begin{figure*}[htbp]\begin{center}\begin{tabular}[c]{l}$<$entryid=``1''headword=``遠慮''$>$\\\q$<$senseid=``1-1''$>$\\\q\q$<$jexpression$>$母に遠慮する$<$/jexpression$>$\\\q\q$<$eexpression$>$to$<$eheadbasic=``feelconstrained''$>$\\\q\qfeelconstrained$<$/ehead$>$forone'smother$<$/eexpression$>$\\\q$<$/sense$>$\\\q$<$senseid=``1-2''$>$\\\q\q$<$jexpression$>$母への遠慮$<$/jexpression$>$\\\q\q$<$eexpression$>$$<$eheadbasic=``constraint''$>$constraint$<$/ehead$>$\\\q\qtowardone'smother$<$/eexpression$>$\\\q\q$<$transmemo$>$UC$<$/transmemo$>$\\\q$<$/sense$>$\\\q$<$senseid=``1-3''$>$\\\q\q$<$jexpression$>$献金を遠慮してもらう$<$/jexpression$>$\\\q\q$<$eexpression$>$torequestto$<$eheadbasic=``refrain''$>$refrain$<$/ehead$>$\\\q\qfromdonation$<$/eexpression$>$\\\q$<$/sense$>$\\\q......\\$<$/entry$>$\\\end{tabular}\caption{TMの例}\label{fig:tm_example2}\end{center}\end{figure*}学習には,TMの用例だけでなく,他の対訳辞書あるいは対訳コーパスから抽出した用例も用いる.抽出する用例は,TMの各用例集合と同じ日英見出し語を含む対訳用例とし,抽出した用例はTMの各用例集合に追加する.以降で,用例数および学習文数は,ともに各日本語見出し語に対しその語を含む用例の数を意味するものとし,TMに最初に含まれていた用例の総数を用例数,他の言語資源から抽出して追加した後の用例の総数を学習文数と呼んで区別する.また,クラス数とは各日本語見出し語に対するクラスの数つまり,訳語/訳句候補の種類の数を意味するものとする.機械学習モデルとしてはSVM(SupportVectorMachine),ME(MaximumEntropy),DL(DecisionList),SB(SimpleBayes)を用いる.日本語見出し語ごとに,各モデルを用いて学習データでクロスバリデーションを行ない,平均精度が最も高いモデルをテストに用いる.各クラスの確率値あるいは確信度は基本的に,文脈の集合を$B$,クラスの集合を$A$とするとき,文脈$b(\in$$B)$でクラス$a(\in$$A)$となる事象$(a,b)$の確率分布$p(a,b)$として求められる.SVMではこのような確率分布は得られないが,便宜的に最適のクラスに対して確信度を1,その他のクラスに対して0とする.次に,各機械学習モデルの説明,各種パラメータ等の設定について述べる\footnote{基本的に文献\cite{Murata2001a}の方法に準ずる.}.\subsubsection{シンプルベイズ}このモデルでは,ベイズの定理に基づき,文脈$b$のときにクラス$a$が生起する確率を推定する.そして,確率値が最も大きいクラスを最適なクラスとする.文脈$b$のときにクラス$a$が生起する確率は次の式で与えられる.{\begin{eqnarray}p(a|b)&=&\frac{p(a)}{p(b)}p(b|a)\\\label{eq:simple_bayes}&\simeq&\frac{\tilde{p}(a)}{p(b)}\prod_i\tilde{p}(f_i|a)\end{eqnarray}}ここで文脈$b$は,予め設定しておいた素性$f_j(\inF,1\leqj\leqk)$の集合である.$p(b)$は,文脈$b$の生起確率で,今回の場合,クラス$a$には依存せず定数のため計算しない.$\tilde{p}(a)$と$\tilde{p}(f_i|a)$は,ともに学習データから推定される確率で,それぞれ,クラス$a$の出現の確率,クラス$a$のときに素性$f_i$を持つ確率を意味する.最尤推定により求めた$\tilde{p}(f_i|a)$の値は0になることが多く,式(\ref{eq:simple_bayes})の値が0になり本来求めるべきクラスが正しく求まらない場合が多い.このため,本論文では次の式によりスムージングを行なう.{\begin{eqnarray}\label{eq:simple_bayes2}\tilde{p}(f_i|a)=\frac{freq(f_i,a)+\epsilon*freq(a)}{freq(a)+\epsilon*freq(a)}\end{eqnarray}}ここで,$freq(f_i,a)$と$freq(a)$は,それぞれ,素性$f_i$を持ちかつクラスが$a$である事例の個数,クラスが$a$である事例の個数を意味する.$\epsilon$は実験で定める定数であり,実験では0.0001に固定した.\subsubsection{決定リスト}このモデルでは,素性$f_i$とクラス$a$の組を規則として,予め定めた優先順序でリストに蓄えておき,リストで優先順位の高いところから,入力と素性が一致する規則を適用してクラスを求める\cite{Yarowsky:ACL94}.本論文では優先順序として次の式で表わされるものを用いる.{\begin{eqnarray}\label{eq:decision_list_order}\tilde{p}(a|f_i)\end{eqnarray}}これは,ある文脈$b$でクラス$a$を出力する確率$p(a|b)$がもっとも高いクラス$a$を解とすることと等価であり,本論文では次の式を用いて最適なクラスを特定する.{\begin{eqnarray}\label{eq:decision_list}p(a|b)=\tilde{p}(a|f_{max})\end{eqnarray}}ここで,$f_{max}$は次の式によって与えられる.{\begin{eqnarray}\label{eq:decision_list2}f_{max}=argmax_{f_j\inF}\max_{a_i\inA}\\tilde{p}(a_i|f_j)\end{eqnarray}}また,$\tilde{p}(a_i|f_j)$は学習データで素性$f_j$を文脈とするクラス$a_i$の出現の割合である.\subsubsection{最大エントロピーモデル}このモデルでは,素性$f_j(1\leqj\leqk)$の集合を$F$とするとき,式(\ref{eq:constraint})を制約とし,式(\ref{eq:entropy})で表わされる目的関数つまりエントロピーを最大にするような確率分布$p(a,b)$を求め,その確率分布にしたがって求まる各クラスの確率のうち,最も大きい確率値を持つクラスを最適なクラスとする\cite{berger:cl96,ristad97,ristad98}.{\begin{eqnarray}\label{eq:constraint}\sum_{a\inA,b\inB}p(a,b)g_{j}(a,b)\=\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\\\for\\forallf_{j}\(1\leqj\leqk)\nonumber\end{eqnarray}}{\begin{eqnarray}\label{eq:entropy}H(p)&=&-\sum_{a\inA,b\inB}p(a,b)\log\left(p(a,b)\right)\end{eqnarray}}ただし,$A,B$はそれぞれクラスと文脈の集合を意味し,$g_{j}(a,b)$は文脈$b$に素性$f_j$があってかつクラスが$a$の場合1となりそれ以外で0となる二値関数である.また,$\tilde{p}(a,b)$は,既知データでの$(a,b)$の出現の割合を意味する.\subsubsection{サポートベクトルマシン}サポートベクトルマシンとは,空間を超平面で分割することにより2つのクラスからなるデータを分類する二値分類器のことである.2つのクラスを正例,負例とすると,学習データにおける正例と負例の間隔(マージン)を最大にする超平面を求めそれを用いて分類を行なう.通常は,学習データにおいてマージンの内部領域に少数の事例が含まれてもよいとする拡張(ソフトマージン)や,超平面の線形の部分を非線型とする拡張(カーネル関数の導入)などがなされたものが用いられる.これらの拡張によりクラスを判別することは,以下の識別関数の出力値が正か負かによってクラスを判別することと等価である\cite{SVM,kudoh_svm}.{\begin{eqnarray}\label{eq:svm1}f({\bfx})&=&sgn\left(\sum^{l}_{i=1}\alpha_iy_iK({\bfx}_i,{\bfx})+b\right)\\b&=&-\frac{max_{i,y_i=-1}b_i+min_{i,y_i=1}b_i}{2}\nonumber\\b_i&=&\sum^l_{j=1}\alpha_jy_jK({\bfx}_j,{\bfx}_i)\nonumber\end{eqnarray}}ここで${\bfx}$は識別したい事例の文脈(素性の集合)を,${\bfx}_{i}$と$y_i(i=1,...,l,y_i\in\{1,-1\})$は学習データの文脈とクラスを意味する.また,関数$sgn(x)$は,$x\geq0$のときに1,$x<0$のときに$-1$となる二値関数であり,各$\alpha_i$は式(\ref{eq:svm5})と式(\ref{eq:svm6})の制約のもと式(\ref{eq:svm4})の$L(\alpha)$を最大にするものである.{\begin{eqnarray}\label{eq:svm4}L({\alpha})&=&\sum^l_{i=1}\alpha_i-\frac{1}{2}\sum^l_{i,j=1}\alpha_i\alpha_jy_iy_jK({\bfx_i},{\bfx_j})\end{eqnarray}}{\begin{eqnarray}\label{eq:svm5}0\leq\alpha_i\leqC\,\,(i=1,...,l)\end{eqnarray}}{\begin{eqnarray}\label{eq:svm6}\sum^l_{i=1}\alpha_iy_i=0\end{eqnarray}}また,関数$K$はカーネル関数と呼ばれ様々なものが提案されているが,本論文では次の式で表わされる多項式カーネルを用いる.{\begin{eqnarray}\label{eq:svm3}K({\bfx},{\bfy})&=({\bfx}\cdot{\bfy}+1)^d\end{eqnarray}}ここで,$C,d$は実験的に設定される定数である.本論文では$C$,$d$はそれぞれ1と2に固定した.サポートベクトルマシンは二値分類器であるため,クラスの数が2であるデータしか扱えないが,これにペアワイズ手法を組み合わせることにより,クラスの数が3以上のデータを扱えるようになる\cite{kudoh_chunk_nl2000}.ペアワイズ手法とは,N個のクラスを持つデータの場合,異なる二つのクラスのあらゆるペア(N(N-1)/2個)を作り,各ペアごとにどちらがよいかをサポートベクトルマシンなどの二値分類器で求め,最終的にN(N-1)/2個の二値分類器のクラスの多数決により,最適なクラスを求める方法である.実験では,サポートベクトルマシン(TinySVM\cite{kudoh_svm}を利用)とペアワイズ手法を組み合わせて用いた.\subsubsection{素性}上述のように文脈$b$は素性の集合で表わされる.実験に用いた素性は以下のものである.\begin{enumerate}\item形態素情報(素性集合1)入力文における対象単語の前後三形態素ずつについての文字列,基本形,品詞(大分類,細分類),活用型,活用形.\item最大一致となる用例に関する情報(素性集合2)入力文の文字列と連続して一致する部分が最大となる用例を調べ,その用例の英語見出し語および一致した長さをそれぞれ素性として用いる.\item内容語とその訳語候補の出現頻度(素性集合3)まず,各英語見出し語(各クラス)ごとに次の六種類の文集合を定義する.\begin{enumerate}\item文集合1:該当する英語見出し語を含む用例において日本語用例を取り出した集合\item文集合2:該当する英語見出し語を含む用例において英語用例を取り出した集合\item文集合3:文集合1の類似文の集合.類似文は日本語の単言語コーパスから抽出する.\item文集合4:文集合2の類似文の集合.類似文は英語の単言語コーパスから抽出する.\item文集合5:文集合1と文集合3の和集合\item文集合6:文集合2と文集合4の和集合\end{enumerate}ある用例の類似文とは,その用例の見出し語とその単語のまわりの文脈の一部を含む文とする.入力文における各内容語とその訳語候補について,上記の各文集合における出現頻度を調べ,それぞれ素性として用いる.内容語は入力文を形態素解析したときに得られる単語のうち,その品詞が名詞,動詞,形容詞,副詞,連体詞であるものとする.ただし,対象単語は除く.内容語の訳語候補は内容語を対訳辞書で索いたときに候補としてあがる単語とする.この素性は文集合,英語見出し語,内容語の出現頻度の和,の組み合せによって表わされ,頻度の和がn回の場合,頻度1からnまでの素性値をもつ素性がすべて観測されたと仮定する.頻度は1以上のもののみ考慮する.例えば,入力文に見出し語以外の内容語がひとつあり,その内容語がクラス「buy」の文集合1に3回出現した場合には,「文集合1:buy:1」,「文集合1:buy:2」,「文集合1:buy:3」の素性が観測されたとする.この素性により,日英の各コーパスにおいて見出し語と共起する単語の頻度を訳語選択の手がかりとして考慮する.\end{enumerate} \section{実験と考察} \label{sec:experiment}\subsection{実験の条件}\label{sec:test}入力,評価は{\scSenseval-2}日本語翻訳タスクのものに従った.TMは320語のもの(1見出し語に対する用例数は約20)が2001年3月中旬に配布された.この中から40語(名詞20語,動詞20語)がコンテストの対象単語として選択され,それぞれについて30語(30出現)ずつテストデータが用意された.対象単語ののべ数は1,200語であった.対訳単語辞書および対訳コーパスとしてはニフティで利用可能な英辞郎を用いた.ここから対訳用例を抽出する際,日英見出し語が対応関係にないものを抽出してしまった場合でも,抽出の際に検索語として用いた日英見出し語が正しい対応関係にあると仮定して学習に用いた.単言語コーパスとしては毎日新聞(1991年から2000年),日経新聞(1995年から1999年),産経新聞(1994年から1999年),LDCデータ(1994年,1995年のデータでWallStreetJournalやAP通信,ニューヨークタイムズなど数年分の新聞記事が含まれる)を用いた.コンテストでは,手法1で類似度最大として選択された用例についてはその用例番号を,手法2で類似度最大として選択された用例集合についてはその英語見出し語を出力して提出した.以下にその際の条件について述べる.手法1における類似度の閾値は1.0,分割数の閾値は0とした.手法2の形態素解析にはJUMAN\cite{JUMAN3.61}を用いた.手法2における類似文としては,日本語用例に対しては,文末処理を施して得られる文字列を含む文を,英語用例に対しては,英語見出し語を含む文を抽出した.機械学習モデルについては,時間の制約があったため,単語によっては学習が終了しない場合があり,クロスバリデーションにより最適なモデルを選択することはできなかった.コンテストで最終的に選択したモデルの内訳は以下の通りであった.\begin{itemize}\itemSVM:23単語(名詞12,動詞11)\itemDL:12単語(名詞8,動詞4)\itemSB:5単語(動詞5)\end{itemize}\subsection{実験結果}\label{sec:results}コンテストの結果を表~\ref{tab:result}にあげる.我々のシステムの精度は63.4\,\%であった.単語ごとの精度と用例数,学習文数,クラス数との関係は表~\ref{tab:result2}の通りである.\begin{table}[htbp]\begin{center}\caption{コンテストの結果}\label{tab:result}\begin{tabular}[c]{|l|l|}\hline参加システム&精度\\\hlineAnonymX&79.1\,\%(949/1,200)\\AnonymY1&73.4\,\%(881/1,200)\\{\bfCRL-NYU}&{\bf63.4\,\%(761/1,200)}\\Ibaraki&62.6\,\%(751/1,200)\\Stanford-Titech1&49.1\,\%(589/1,200)\\AnonymY2&47.6\,\%(571/1,200)\\ATR&45.8\,\%(549/1,200)\\Kyoto&42.4\,\%(509/1,200)\\Stanford-Titech2&41.2\,\%(494/1,200)\\Baseline(Random)&36.8\,\%\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[htbp]\footnotesize\begin{center}\caption{単語ごとの精度(コンテストの結果)}\label{tab:result2}\begin{tabular}[c]{|l@{}l@{}|@{}r@{}|@{}r@{}|@{}r@{}|@{}r@{}|@{}r@{}|r@{}r@{}|r@{}r@{}|r@{}r@{}|}\hline単語&(読み)&\用例&\学習文&\クラス&\学習文数&学習&精度&(手法&精度&(手法1)&精度&(手法2)\\&&数&数&数&/クラス&\モデル&&1+2)&&&&\\\hline一般&(ippan)&33&760&16&47.5&SVM&56.7\,\%&(17/30)&66.7\,\%&(2/3)&55.6\,\%&(15/27)\\一方&(ippou)&14&172&19&9.1&DL&23.3\,\%&(7/30)&---&&23.3\,\%&(7/30)\\今&(ima)&15&433&15&28.9&DL&63.3\,\%&(19/30)&---&&63.3\,\%&(19/30)\\意味&(imi)&22&419&18&23.3&SVM&66.7\,\%&(20/30)&100\,\%&(1/1)&65.5\,\%&(19/29)\\核&(kaku\_n)&8&1,007&8&125.9&SVM&80.0\,\%&(24/30)&100\,\%&(3/3)&77.8\,\%&(21/27)\\記録&(kiroku)&18&608&11&55.3&SVM&80.0\,\%&(24/30)&100\,\%&(1/1)&79.3\,\%&(23/29)\\国内&(kokunai)&14&346&6&57.7&SVM&83.3\,\%&(25/30)&75.0\,\%&(3/4)&84.6\,\%&(22/26)\\言葉&(kotoba)&35&925&28&33.0&DL&80.0\,\%&(24/30)&0\,\%&(0/1)&82.8\,\%&(24/29)\\市民&(shimin)&23&187&8&23.4&DL&50.0\,\%&(15/30)&100\,\%&(5/5)&40.0\,\%&(10/25)\\事業&(jigyou)&17&854&14&61.0&SVM&63.3\,\%&(19/30)&100\,\%&(7/7)&52.2\,\%&(12/23)\\時代&(jidai)&39&621&10&62.1&DL&83.3\,\%&(25/30)&100\,\%&(4/4)&80.8\,\%&(21/26)\\姿&(sugata)&28&139&19&7.3&SVM&46.7\,\%&(14/30)&80.0\,\%&(4/5)&40.0\,\%&(10/25)\\近く&(chikaku)&15&123&11&11.2&SVM&73.3\,\%&(22/30)&---&&73.3\,\%&(22/30)\\中心&(chushin)&15&392&16&24.5&SVM&56.7\,\%&(17/30)&---&&56.7\,\%&(17/30)\\花&(hana)&27&677&20&33.9&SVM&83.3\,\%&(25/30)&100\,\%&(2/2)&82.1\,\%&(23/28)\\反対&(hantai)&26&480&17&28.2&SVM&93.3\,\%&(28/30)&71.4\,\%&(5/7)&100\,\%&(23/23)\\場合&(baai)&23&1,167&16&72.9&DL&86.7\,\%&(26/30)&---&&86.7\,\%&(26/30)\\前&(mae)&25&1,968&26&75.7&DL&63.3\,\%&(19/30)&---&&63.3\,\%&(19/30)\\胸&(mune)&30&368&26&14.2&DL&53.3\,\%&(16/30)&100\,\%&(3/3)&48.1\,\%&(13/27)\\問題&(mondai)&32&1,795&10&179.5&SVM&100\,\%&(30/30)&100\,\%&(2/2)&100\,\%&(28/28)\\\hline全名詞&&459&13,441&304&44.2&&69.3\,\%&($\frac{416}{600}$)&87.5\,\%&($\frac{42}{48}$)&67.8\,\%&($\frac{374}{552}$)\\\hline与える&(ataeru)&36&808&34&23.8&SVM&70.0\,\%&(21/30)&100\,\%&(3/3)&66.7\,\%&(18/27)\\言う&(iu)&32&2,248&21&107.0&DL&73.3\,\%&(22/30)&50.0\,\%&(1/2)&75.0\,\%&(21/28)\\受ける&(ukeru)&22&5,143&25&205.7&SB&20.0\,\%&(6/30)&50.0\,\%&(1/2)&17.9\,\%&(5/28)\\描く&(egaku)&12&271&14&19.4&SVM&76.7\,\%&(23/30)&100\,\%&(1/1)&75.9\,\%&(22/29)\\買う&(kau)&31&1,117&19&58.8&SVM&86.7\,\%&(26/30)&100\,\%&(3/3)&85.2\,\%&(23/27)\\書く&(kaku\_v)&15&795&4&198.8&SVM&76.7\,\%&(23/30)&80.0\,\%&(4/5)&76.0\,\%&(19/25)\\聞く&(kiku)&25&536&14&38.3&SVM&66.7\,\%&(20/30)&100\,\%&(3/3)&63.0\,\%&(17/27)\\超える&(koeru)&14&109&10&10.9&SVM&63.3\,\%&(19/30)&---&&63.3\,\%&(19/30)\\使う&(tsukau)&19&1,139&14&81.4&SVM&56.7\,\%&(17/30)&100\,\%&(1/1)&55.2\,\%&(16/29)\\作る&(tsukuru)&19&834&17&49.1&SB&10.0\,\%&(3/30)&100\,\%&(2/2)&3.6\,\%&(1/28)\\伝える&(tsutaeru)&19&155&15&10.3&DL&80.0\,\%&(24/30)&100\,\%&(3/3)&77.8\,\%&(21/27)\\出る&(deru)&30&4,705&26&181.0&SB&3.3\,\%&(1/30)&100\,\%&(1/1)&0\,\%&(0/29)\\乗る&(noru)&23&712&17&41.9&DL&53.3\,\%&(16/30)&100\,\%&(8/8)&36.4\,\%&(8/22)\\図る&(hakaru)&17&3,184&17&187.3&SB&2.7\,\%&(8/30)&100\,\%&(8/8)&0\,\%&(0/22)\\待つ&(matsu)&23&618&15&41.2&SVM&93.3\,\%&(28/30)&100\,\%&(1/1)&93.1\,\%&(27/29)\\守る&(mamoru)&16&522&19&27.5&SVM&46.7\,\%&(14/30)&100\,\%&(3/3)&40.7\,\%&(11/27)\\見せる&(miseru)&20&285&12&23.8&SVM&90.0\,\%&(27/30)&100\,\%&(1/1)&89.7\,\%&(26/29)\\認める&(mitomeru)&10&929&13&71.5&DL&66.7\,\%&(20/30)&100\,\%&(1/1)&65.5\,\%&(19/29)\\持つ&(motsu)&59&1,835&23&79.8&SB&46.7\,\%&(14/30)&100\,\%&(3/3)&40.7\,\%&(11/27)\\求める&(motomeru)&10&481&22&21.9&SVM&43.3\,\%&(13/30)&100\,\%&(1/1)&41.4\,\%&(12/29)\\\hline全動詞&&452&26,426&351&75.3&&57.5\,\%&($\frac{345}{600}$)&94.2\,\%&($\frac{49}{52}$)&54.0\,\%&($\frac{296}{548}$)\\\hline合計&&911&39,867&655&60.9&&63.4\,\%&($\frac{761}{1,200}$)&91.0\,\%&($\frac{91}{100}$)&60.9\,\%&($\frac{670}{1,100}$)\\\hline\end{tabular}\end{center}\end{table*}正解は各対象単語ごとにひとつあるいは複数与えられ,各正解には,対象単語の翻訳に適切であるかどうかを考慮した複数段階による評価が付与されている.正解は以下の基準で◎,○,△の各段階に分けられた.\begin{enumerate}\item正解がTMの用例の場合\begin{itemize}\item◎:翻訳に利用できる用例の場合.日本語用例の品詞,時制,単複,微妙なニュアンス等は必ずしも一致しない.\item○:評価単語のみに着目すれば妥当な訳語であるが,翻訳用例として使うことは望ましくない用例.\item△:評価単語のみに着目すれば妥当な訳語であるが,翻訳用例として直接は使えない用例.\end{itemize}\item正解が翻訳の場合\begin{itemize}\item◎:翻訳に利用できる場合.品詞,時制,単複,微妙なニュアンス等は必ずしも一致しない.\item○:評価単語のみに着目すれば妥当な訳語であるが,翻訳に使うことは望ましくない場合.\end{itemize}\end{enumerate}コンテストの結果は一番緩い評価基準で評価したものである.一番緩い評価基準とは,正解をゆるくとる(上記の基準で,TMの◎,○,△,翻訳の◎,○をすべて正解とする)場合,一番厳しい評価基準とは,正解を厳しくとる(◎のみ)場合を意味する.一番厳しい評価基準で我々のシステムの出力を評価した場合,全体の精度が50.6\,\%(607/1,200),その内訳は,手法1の精度が82.0\,\%(82/100),手法2が47.7\,\%(525/1,100)であった.表~\ref{tab:result}から,一番緩い評価基準で全体の精度を比べると,上位の二システムとは10\,\%程度以上の差があるが,一番厳しい評価基準では,我々のシステムの精度は50.6\,\%(607/1,200)で,AnonymY1システムの精度50.2\,\%(602/1,200)とほぼ同等であった.また,一番緩い基準でも,名詞全体に対する精度は,我々のシステムの精度は69.3\,\%(416/600)で,AnonymY1システムの精度66.8\,\%(401/600)と同等以上の結果が得られている.最も良かったAnonymXシステムの精度59.0\,\%(708/1,200)には遠く及ばなかったが,後の\ref{sec:models_and_accuracy}節に示すように,追加実験により我々の手法で62.4\,\%(749/1,200)の精度が得られ,潜在的には66.0\,\%(792/1,200)の精度が得られる可能性があることが分かったため,結果のみから判断すると,我々のシステムはAnonymXシステムと同程度以上の性能であるとも考えられる.手法そのものについては,AnonymX,AnonymY1については具体的な方法が明かされていないため,現時点での比較はできない.表~\ref{tab:result2}から,クラス当たりの学習文数の少ない名詞と,クラス当たりの学習文数の非常に多い動詞の訳語選択精度が悪いといった傾向が見られる.前者は学習データの不足が原因であると考えられる.後者については,クラスの数が多く,日本語用例は似ているが異なるクラスに分類されているという場合もあり,また学習データが特定のクラスに偏っているということもなかったため,ベースラインの精度そのものが低い難しい問題であったと考えられる.実際,すべての入力に対し対象単語ごとに常に学習データで最も学習文数の多いクラスを出力するシステムを作成して実験したところ,これらの単語に対する精度は低いことが分かった.\subsection{手法1と精度}\label{sec:method1_and_acc}手法1はTMを最も単純に利用した方法であり,この手法による精度は高いことが望ましい.実験(コンテスト)では手法1による精度は91.0\,\%(91/100)であった.この手法により誤った例(正解と一致しなかった例)を表~\ref{tab:error1}にあげる.誤ったのは,入力文と日本語用例との類似性だけから推定することが困難だったためである.類似度はすべて1であり\footnote{例えば,入力文「お天気情報の大切さを一般の人に理解していただくことが,僕の使命と思っています.」とTMの日本語用例「一般の人」のdiffをとると用例の全ての文字列が入力文と一致し,一致した文字数は4となる.日本語用例の文字数も4であるため,式(\ref{eq:sim1})より,類似度は1となる.},日本語用例そのものは類似していると思われるが,英語用例はそれぞれひとつずつしか与えられておらず,文脈からそれらの用例を翻訳として用いるのは不適切であると判断されたものと思われる.手法1はTMの日本語用例の文字列情報のみを用いる方法であるため,このような場合,他の用例を適切に選択することはできない.\begin{table*}[htbp]\footnotesize\begin{center}\caption{手法1で誤った例}\label{tab:error1}\begin{tabular}[c]{|p{4.5cm}|l|l|}\hline入力文(<>内は対象単語)&システムにより選択された用例&正解用例の\\&&英語見出し語\\\hlineお天気情報の大切さを<一般>の人に理解していただくことが,僕の使命と思っています.&一般の人:ordinarypepople&general\\\hlineこれは,「特」,「上」,「中」などに分けられる<国内>産米の分類が,「特」の場合,「一類米(最上級米)のブレンド率が八〇%以上」などと定められているのに準じた.&国内産:domestic&inthiscountry\\\hline昨年暮れ,欧州から一時帰国したわが社の特派員が新聞コラムに「言葉がなく生気もない」と久しぶりに見た日本の印象をつづり,「言葉を<失った>のは街角にひしめく自動販売機のせい」と進行する失語社会を嘆いていた.&言葉を失う:toloseone'sabilitytospeak&language\\\hline休日で,子供に無残な<姿>を見せなくてすんだことがせめてもの救い.&姿を見せる:toappear&look\\\hline当面,パリ大会,ハンガリー大会などの招待試合が予定されており,日本は国際試合への不参加という形で<反対>の立場を強くアピールすることになる.&反対の立場:contraryposition&opposition\\\hlineこれに対してフランスは核抑止力維持の立場から,現時点での核実験の無条件禁止には以前から<反対>の立場を表明し,特に中国が昨年十月に実験を行ったこともあって,NPT延長と交渉期限をリンクさせることには強く反発.&反対の立場:contraryposition&opposition\\\hline「米国にも言うべきことはっきり<言う>日本に」&はっきり言って:franklyspeaking&say\\\hline教職員や学生ら約六百人から盛大な歓迎を<受けた>首相は,「本当に母校というものはありがたいものです」と大いに気を良くしていた.&歓迎を受ける:tobewelcomed&receive\\\hline私は自分の周りで起きたほのぼのとした出来事を見つけては,原稿用紙に<書いて>いろいろなところに送るのが大好きだ.&紙に書く:towriteonpaper&write\\\hline\end{tabular}\end{center}\end{table*}次に,手法1が適用された100対象単語に対し手法2を適用したときの精度を調べた.結果は49.3\,\%(34/69)であった.ただし,100語のうち31語は,TMの用例に含まれる英語見出し語ではなく対訳辞書を索いて得られた英語見出し語を選択したため評価していない.仮にこれらがすべて正解だったとしても精度は65\,\%(65/100)となる.したがって,手法1では,適用された語に対してはかなり良い精度が得られることが分かる.手法1で正しく手法2で訳語選択を誤ったものは30語であり,それらの語を含む入力文には慣用的な表現が多く見られた.そのうち,手法1によって適用された用例には次のようなものがあった.以下で,<>内は見出し語を表わす.\begin{itemize}\item<胸>を張る:to<lookproud>\item話に<花>が咲く:toengagein<animated>conversation\item一役<買う>:to<offer>tohelp\item調子に<乗る>:tobe<carriedaway>\end{itemize}上記のような慣用的な対訳用例を含む用例集合は,その集合に含まれる用例数が少ないため学習データが不足し,手法2で適切に選択することは難しい.このように予め学習データが少ないと分かったクラスつまり訳語/訳句候補は,慣用表現である可能性が高いと考え,個別にTMに用例を追加するなどしてTMを充実させるのが効果的である可能性が高い.この場合,TMに用例を追加するだけでなく,表~\ref{tab:error1}にあげたような手法1による誤りもなくす必要があるため,現状のTMを次の手順で変更する必要があると考えている.\begin{enumerate}\item各日本語用例の翻訳として可能なものはすべて登録する.\item日本語用例が同一の用例が複数ありかつその用例を含む用例集合内の用例数が少ない場合は,日本語用例間に違いが出るまでそれぞれの用例の前後の文脈を伸ばす.\end{enumerate}このようにTMの用例を変更することにより,表~\ref{tab:error1}の誤りもほぼなくなると考えている.\subsection{手法2と精度}\label{sec:method2_and_acc}手法2ではTMの用例だけでなく他の言語資源から抽出した用例も用いる.もしTMの用例しか用いなければ,1クラスあたりの学習文数は平均1.4となる.これでは機械学習をするにはデータが少な過ぎ,強力な学習モデルを用いても高い精度は期待できない.ちなみに,コンテストに参加したシステムのうち,上位の4システム以外は,配布されたTM用例のみを用いていた.最高のもので50\,\%程度の精度であり,他の言語資源を用いたことによる効果は10\,\%以上と考えられる.我々の手法でもTM用例のみを用いた場合と他の言語資源を用いた場合の結果を比較したところ,他の言語資源を用いた場合の方が6\,\%から7\,\%程度良くなることが分かった.他の言語資源を用いることの有効性については,詳しくは\ref{sec:data_and_accuracy}節で述べる.補強した学習データでは,1クラスあたりの学習文数の平均は全体で60.9文(名詞44.2文,動詞75.3文)であった.基本的に学習データが少ない語に対しては,さらに他の言語資源を利用してデータを追加すればよいと考えられる.しかし,学習文数が平均より多いにもかかわらず精度が平均より悪かったものは,それぞれ名詞が3語(そのうちSVMが2語,DLが1語),動詞が5語(そのうちSVMが1語,SBが4語)であり,この結果は,単純に学習データを増やしても精度が良くならない場合があることを示している.1クラスあたりの学習データが多いにもかかわらず精度が良くなかった原因としては,以下のことが考えられる.\begin{enumerate}\itemSBモデルと素性集合の相性(4例)SBモデルによる精度はすべて悪かった.これは実験に用いた素性集合と,すべての素性を独立と仮定して扱うSBモデルの性質が合わなかったためであると考えられる.\item追加した学習データの質(4例)学習データの多くは他の言語資源から抽出したものである.コンテストでは,他の言語資源から対訳用例を抽出する際に,日英の見出し語が出現しているかどうかだけを手がかりにしていた.そのため,日英見出し語が対応関係にないものも抽出していた.例えば,haveやtake,lookなど一般に出現頻度が高く,日本語に訳したときその訳語に曖昧性のある単語が英語見出し語である場合には,見出し語間に対応関係がない対訳用例も多く抽出してしまう.この単語対応を考慮していなかったことによる影響は,学習の際に顕著に現われる.学習モデルにおけるクラスは英語見出し語で表わされる.そのため,日英の見出し語間に対応がとられていないと,ひとつの用例に見出し語となり得る語が複数種類現われるとき,その用例の見出し語が特定できず曖昧になる.その結果,同じ用例が複数のクラスの正例として用いられることになり,この用例を用いて学習したモデルでは,正しくクラスを分類できなくなる.今回の実験で,SVMなどで学習が終了しなかったのは,このような例が多くあったことがひとつの原因であると考えている.\end{enumerate}以上のような問題を解消し,精度を改善するには,次のような対策を講じる必要がある.\begin{itemize}\itemモデル,素性の選択方法を工夫する.\item学習データを補強する際,他の言語資源から抽出した対訳用例における単語対応をとり,日英見出し語が対応関係にあるものだけを選択するようにする.\end{itemize}モデルの選択方法については,当初クロスバリデーションによるモデル選択を採用する予定であったが,コンテストの際には時間的な制約のため実現できなかった.そこで,学習データでクロスバリデーションを行ない,平均精度が最大となるモデルを最適なモデルとして選択するようにし再実験を行なった.クラスである英語見出し語は,評価,比較が容易になるようにTMの用例のみから選択した.評価は次の二種類の評価方法で行なった.\begin{description}\item[評価方法1:]見出し語による評価正解の用例から日英見出し語を取り出し,これを用例番号の代わりに正解として用いて評価する.コンテストの評価で,正解が翻訳のみからなると仮定した場合の評価方法に相当する.例えば,図~\ref{fig:tm_example2}において「senseid」で表される用例番号の代わりに「headword」で表される日本語見出し語と$<$ehead$>$$<$/ehead$>$で囲まれた英語見出し語のペアを正解として用いる.\item[評価方法2:]用例番号による評価システムの出力を見出し語とする用例集合からランダムに用例を選び,その用例番号の正否で評価する.コンテストの評価で,正解がTMの用例のみからなると仮定した場合の評価方法に相当する.例えば,システムの入力が図~\ref{fig:tm_example2}の「headword」で表される日本語見出しであり,出力が$<$ehead$>$$<$/ehead$>$で囲まれた英語見出し語の場合に,この見出し語の代わりに「senseid」で表される用例番号をシステムの出力とする.同じ見出し語を持つ用例が複数ある場合はランダムに選ぶ.\end{description}学習データの数は21,650,クラスの数は平均で11.0(441/40)であった.学習データを先頭から順番に10個置きに同じ集合に含まれるよう分割し,各単語ごとに10分割のクロスバリデーションをして平均精度が最大となるモデルを選択した結果,選択されたモデルの内訳は次の通りであった.\begin{itemize}\itemME:21単語(名詞14,動詞7)\itemSVM:12単語(名詞4,動詞8)\itemDL:7単語(名詞2,動詞5)\end{itemize}結果は表~\ref{tab:exp:cross_valid}の通りであった.手法1での類似度および分割数の閾値としては,学習データに対する精度が最大になったときの値つまり1.0と0,および,テストデータに対して最大の精度が得られたときの値つまり0.8と1の二種類をあげた.閾値が1.0と0のときの,単語ごとの精度と学習文数,クラス数との関係は表~\ref{tab:result3}の通りである\footnote{コンテストの時に比べて,主辞単語の定義を変更したり,追加用例を抽出した対訳辞書のバージョンがあがったりしたため,表~\ref{tab:result2}に比べて,クラス数や学習文数が増えている場合がある.}.\begin{table}[htbp]\begin{center}\caption{クロスバリデーションによりモデル選択を行なったときの精度}\label{tab:exp:cross_valid}\begin{tabular}[c]{|c|c|c|r|r|}\hline手法&\multicolumn{2}{c|}{閾値}&\multicolumn{2}{c|}{精度}\\\cline{2-5}&類似度&分割数&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}\\\hline2&-&-&65.2\,\%(782/1,200)&61.1\,\%(733/1,200)\\1+2&1.0&0&65.8\,\%(789/1,200)&61.8\,\%(741/1,200)\\1+2&0.8&1&65.9\,\%(791/1,200)&62.0\,\%(744/1,200)\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[htbp]\footnotesize\begin{center}\caption{単語ごとの精度(クロスバリデーションによるモデル選択時)}\label{tab:result3}\begin{tabular}[c]{|l@{}l|r|r|r|r|@{}r@{}r|@{}r@{}r|}\hline単語&(読み)&学習文&クラス&学習文数&学習&\multicolumn{2}{c|}{手法1+2}&\multicolumn{2}{c|}{手法2}\\\cline{7-10}&&数&数&/クラス&モデル&評価1&評価2&評価1&評価2\\\hline一般&(ippan)&778&16&48.6&ME&15/30&12/30&16/30&13/30\\一方&(ippou)&135&10&13.5&SVM&4/30&4/30&4/30&4/30\\今&(ima)&413&11&37.5&ME&29/30&29/30&29/30&29/30\\意味&(imi)&298&9&33.1&ME&22/30&21/30&21/30&20/30\\核&(kaku\_n)&742&4&185.5&SVM&16/30&16/30&14/30&14/30\\記録&(kiroku)&489&6&81.5&DL&29/30&24/30&29/30&24/30\\国内&(kokunai)&255&5&51.0&ME&19/30&19/30&19/30&19/30\\言葉&(kotoba)&675&19&35.5&ME&30/30&30/30&30/30&30/30\\市民&(shimin)&166&6&27.7&ME&25/30&21/30&25/30&21/30\\事業&(jigyou)&581&5&116.2&ME&21/30&21/30&18/30&18/30\\時代&(jidai)&613&12&51.1&ME&20/30&20/30&20/30&20/30\\姿&(sugata)&137&20&6.9&ME&9/30&9/30&10/30&10/30\\近く&(chikaku)&105&8&13.1&ME&15/30&14/30&15/30&14/30\\中心&(chushin)&326&9&36.2&ME&17/30&17/30&17/30&17/30\\花&(hana)&543&15&36.2&ME&23/30&23/30&23/30&23/30\\反対&(hantai)&457&11&41.5&ME&25/30&23/30&26/30&24/30\\場合&(baai)&383&7&54.7&DL&22/30&16/30&22/30&16/30\\前&(mae)&824&15&54.9&SVM&10/30&10/30&10/30&10/30\\胸&(mune)&269&12&22.4&ME&17/30&17/30&17/30&17/30\\問題&(mondai)&1,848&9&205.3&SVM&22/30&21/30&21/30&20/30\\\hline全名詞&&10,037&209&48.0&-&390/600&367/600&386/600&363/600\\\hline与える&(ataeru)&565&18&31.4&DL&23/30&23/30&23/30&23/30\\言う&(iu)&1,276&19&67.2&DL&23/30&15/30&24/30&16/30\\受ける&(ukeru)&1,331&18&73.9&DL&11/30&11/30&12/30&12/30\\描く&(egaku)&189&6&31.5&SVM&17/30&17/30&17/30&17/30\\買う&(kau)&798&12&66.5&ME&25/30&25/30&24/30&24/30\\書く&(kaku\_v)&796&2&398&ME&29/30&21/30&29/30&20/30\\聞く&(kiku)&453&9&50.3&ME&19/30&18/30&19/30&18/30\\超える&(koeru)&57&8&71.25&ME&24/30&24/30&24/30&24/30\\使う&(tsukau)&1,320&11&120.0&DL&28/30&26/30&27/30&25/30\\作る&(tsukuru)&702&14&50.1&SVM&20/30&20/30&20/30&20/30\\伝える&(tsutaeru)&143&13&14.2&SVM&8/30&8/30&7/30&7/30\\出る&(deru)&608&22&27.6&SVM&5/30&5/30&5/30&5/30\\乗る&(noru)&611&12&41.9&ME&15/30&15/30&15/30&15/30\\図る&(hakaru)&127&8&50.9&ME&28/30&28/30&28/30&28/30\\待つ&(matsu)&523&6&87.2&ME&29/30&23/30&29/30&23/30\\守る&(mamoru)&313&7&44.7&SVM&15/30&15/30&13/30&13/30\\見せる&(miseru)&189&7&27.0&SVM&28/30&28/30&28/30&28/30\\認める&(mitomeru)&114&4&28.5&SVM&11/30&11/30&11/30&11/30\\持つ&(motsu)&1,320&30&44.0&DL&19/30&19/30&19/30&19/30\\求める&(motomeru)&178&6&29.7&SVM&22/30&22/30&22/30&22/30\\\hline全動詞&&11,613&232&50.1&-&399/600&374/600&396/600&370/600\\\hline合計&&21,650&441&49.1&-&789/1,200&741/1,200&782/1,200&733/1,200\\\hline\end{tabular}\end{center}\end{table*}クラスである英語見出し語は,上述のようにTMの用例のみから選択しているため,表~\ref{tab:result2}と表~\ref{tab:result3}を単純に比較することはできない.しかし,今回の追加実験で用いたクラスはコンテストのときに用いたクラスに包含されるため,コンテストの出力のうち追加実験で用いたクラスを出力したもののみを対象として評価した.ここで対象となった単語は861語であり,コンテストのときの精度は評価方法1で61.8\,\%(532/861),評価方法2で58.0\,\%(500/861)であり,追加実験での精度は評価方法1で68.4\,\%(589/861),評価方法2で63.5\,\%(547/861)であった.コンテストでモデル選択を行えていたら,5\,\%程度精度が良かった可能性がある.二つの評価基準により精度が4\,\%程度異なるのは,コンテストで正解とされた用例における見出し語と同じものを含む用例が必ずしもすべて正解に含まれているとは限らないためである.つまり,評価方法1より評価方法2の方が厳しい基準となっているためである.例えば,「わがままを言わず,全力で頑張りたい」という入力文で対象単語が「言う」のとき,\begin{itemize}\item<言う>までもない:tobeneedlessto<say>\end{itemize}という用例は正解に含まれていたが,\begin{itemize}\item<言い>たいことを言う:tohaveone's<say>\end{itemize}という用例は同じ見出し語「言う」と「say」を持つにも関わらず正解には含まれていなかった.このような場合,評価方法1では「say」と回答しても正しいと評価されるが,評価方法2では,さらに用例を正しく選択して回答できないと正しいとは評価されない.このような見出し語と正解用例とのずれが確認されたのは14単語についてであり,残りの26単語については見出し語を含む用例はすべて正解に含まれていた.ずれがあった単語の内訳は,表~\ref{tab:discrepancy}の通りである.\begin{table}[htbp]\begin{center}\caption{見出し語と正解用例とのずれ}\label{tab:discrepancy}\begin{tabular}[c]{|ll|r|}\hline日本語見出し語&(読み)&ずれがあったもの\\\hline乗る&(noru)&1\\書く&(kaku\_v)&17\\一般&(ippan)&13\\記録&(kiroku)&15\\問題&(mondai)&4\\守る&(mamoru)&6\\近く&(chikaku)&1\\反対&(hantai)&3\\今&(ima)&2\\市民&(shimin)&7\\使う&(tsukau)&2\\意味&(imi)&1\\言う&(iu)&19\\待つ&(matsu)&20\\\hline合計&&111\\\hline\end{tabular}\end{center}\end{table}この表で,「ずれがあったもの」とは,テストの対象単語30出現のうち,正解用例の見出し語と同じものを含む用例がひとつでも正解に含まれなかった場合の数のことである.このずれは,見出し語が同じでも文脈によって意味が違う場合があることを示している.対象単語の翻訳に使える用例を選択するというタスクでは,訳語選択以上の意味的な曖昧性解消を要求していると言えるだろう.\subsection{素性と精度}\label{sec:feature_sets_and_accuracy}この節では,各素性集合と精度との関係について述べる.表~\ref{table:exp:feature}に,実験に用いた素性集合の種類とそのときに得られた精度をあげる.「機械翻訳モデル」の欄にはクロスバリデーションによって選択された機械学習モデルの数を表わす.手法1での類似度および分割数の閾値はそれぞれ,学習データに対する精度が最大になったときの値つまり1.0,0とした.括弧内の数字は,素性集合をすべて用いたときに得られた精度からの増減を表わす.表~\ref{table:exp:feature}から素性集合1は精度向上に貢献していることが分かるが,素性集合2と素性集合3は精度を下げる結果となっていたことが分かる.これは,学習データの文数が平均49.1文(21,650/441)と少なく,過学習に陥ったためと考えられる.\begin{table}[htbp]\begin{center}\caption{各素性集合を削除したときの実験結果}\label{table:exp:feature}\begin{tabular}[c]{|l|c|l|l|c|c|c|c|}\hline\multicolumn{1}{|c|}{素性集合}&手法&\multicolumn{2}{c|}{精度}&\multicolumn{4}{c|}{機械学習モデル}\\\cline{3-8}&&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}&SVM&ME&DL&SB\\\hlineすべて&2&65.2\,\%&61.1\,\%&12&21&7&0\\すべて&1+2&65.8\,\%&61.8\,\%&12&21&7&0\\1+2&2&66.8\,\%($+$1.6)&62.1\,\%($+$1.0)&20&15&5&0\\1+2&1+2&67.4\,\%($+$1.6)&63.1\,\%($+$1.3)&20&15&5&0\\1+3&2&63.1\,\%($-$2.1)&58.5\,\%($-$2.6)&3&22&15&0\\1+3&1+2&64.0\,\%($-$1.8)&59.7\,\%($-$2.1)&3&22&15&0\\2+3&2&62.8\,\%($-$2.4)&56.9\,\%($-$4.2)&0&26&14&0\\2+3&1+2&64.1\,\%($-$1.7)&58.6\,\%($-$3.2)&0&26&14&0\\1&2&68.2\,\%($+$3.0)&62.9\,\%($+$1.8)&15&10&14&1\\1&1+2&69.2\,\%($+$3.4)&64.3\,\%($+$2.5)&15&10&14&1\\2&2&65.4\,\%($+$0.2)&60.4\,\%($-$0.7)&0&35&3&2\\2&1+2&65.9\,\%($+$0.1)&61.3\,\%($-$0.5)&0&35&3&2\\3&2&57.5\,\%($-$7.7)&52.5\,\%($-$8.6)&1&24&12&3\\3&1+2&59.4\,\%($-$6.4)&54.9\,\%($-$6.9)&1&24&12&3\\\hline\end{tabular}\\\vspace*{1em}(手法1での閾値:類似度=1.0,分割数=0)\end{center}\end{table}\subsection{モデルと精度}\label{sec:models_and_accuracy}この節では,複数の機械学習モデルから最適なモデルを選択した場合と,単独の機械学習モデルを用いた場合との違いについて述べる.これまでの実験では,個々の単語に対し,複数の機械学習モデルからクロスバリデーションによりモデルを選択していたが,すべて単一の機械学習モデルを用いた場合との精度の違いが明らかではなかった.そこで,手法2で各々の機械学習モデルをそれぞれ単独で用いた場合の実験を行なった.素性としては,前節で最も良い精度が得られた素性集合1を用いた.手法1における類似度と分割数の閾値は学習データで最適値となった1.0と0に設定した.一番緩い基準と厳しい基準で評価した結果を表~\ref{tab:exp:each_model1}と表~\ref{tab:exp:each_model2}にあげる.この表で,混合とは複数の機械学習モデルから最適なモデルを選択した場合を意味する.混合(上限値)の行にあげた精度は,個々の単語ごとに,複数の機械学習モデルからテストデータで最も良い精度が得られるモデルを選択した場合の精度であり,複数のモデルを用いる場合の潜在的な上限値を意味している.また,最頻とは常に学習データで最も学習文数の多いクラスを出力するモデルを意味する.\begin{table}[htbp]\begin{center}\caption{機械学習モデル単独での精度とモデル選択による上限値(一番緩い基準)}\label{tab:exp:each_model1}\begin{tabular}[c]{|c|c|r|r|}\hlineモデル&手法&\multicolumn{2}{c|}{精度}\\\cline{2-4}&&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}\\\hlineSVM&2&70.3\,\%(843/1,200)&64.8\,\%(778/1,200)\\SVM&1+2&71.1\,\%(853/1,200)&66.0\,\%(792/1,200)\\ME&2&68.4\,\%(821/1,200)&63.4\,\%(761/1,200)\\ME&1+2&69.0\,\%(828/1,200)&64.2\,\%(771/1,200)\\SB&2&67.8\,\%(813/1,200)&63.7\,\%(764/1,200)\\SB&1+2&68.6\,\%(823/1,200)&64.8\,\%(778/1,200)\\DL&2&68.6\,\%(823/1,200)&63.4\,\%(761/1,200)\\DL&1+2&69.7\,\%(836/1,200)&64.8\,\%(778/1,200)\\混合&2&68.2\,\%(818/1,200)&62.9\,\%(755/1,200)\\混合&1+2&69.2\,\%(830/1,200)&64.3\,\%(771/1,200)\\最頻&-&64.0\,\%(768/1,200)&59.0\,\%(708/1,200)\\\hline混合(上限値)&1+2&74.8\,\%(898/1,200)&70.2\,\%(842/1,200)\\\hline\end{tabular}\end{center}\begin{center}\caption{機械学習モデル単独での精度とモデル選択による上限値(一番厳しい基準)}\label{tab:exp:each_model2}\begin{tabular}[c]{|c|c|r|r|}\hlineモデル&手法&\multicolumn{2}{c|}{精度}\\\cline{2-4}&&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}\\\hlineSVM&2&61.6\,\%(739/1,200)&56.0\,\%(672/1,200)\\SVM&1+2&{\bf62.4\,\%(749/1,200)}&{\bf57.3\,\%(687/1,200)}\\ME&2&59.8\,\%(718/1,200)&54.8\,\%(657/1,200)\\ME&1+2&60.6\,\%(727/1,200)&55.7\,\%(668/1,200)\\SB&2&60.0\,\%(720/1,200)&55.8\,\%(670/1,200)\\SB&1+2&60.8\,\%(730/1,200)&56.9\,\%(683/1,200)\\DL&2&59.4\,\%(713/1,200)&54.1\,\%(649/1,200)\\DL&1+2&60.5\,\%(726/1,200)&55.5\,\%(666/1,200)\\混合&2&59.6\,\%(715/1,200)&54.2\,\%(650/1,200)\\混合&1+2&60.7\,\%(728/1,200)&55.7\,\%(668/1,200)\\最頻&-&53.3\,\%(640/1,200)&48.1\,\%(577/1,200)\\\hline混合(上限値)&1+2&66.0\,\%(792/1,200)&61.2\,\%(735/1,200)\\\hline\end{tabular}\end{center}\end{table}これらの結果から,これまでの実験で用いてきたクロスバリデーションによるモデル選択の方法は単独の学習モデル(SVM)を用いる方法に比べて劣ること,しかし,潜在的には複数のモデルを組み合わせることにより,より良い精度(5\,\%程度良い精度)が得られることが分かる.\subsection{学習データと精度}\label{sec:data_and_accuracy}この節では,他の言語資源から対訳用例を自動抽出して用いた場合の効果について述べる.学習に,それぞれ,TM用例のみを用いた場合,他の言語資源から自動抽出した対訳用例のみを用いた場合,すべて用いた場合の三種類の比較実験を行なった.訳語選択モデルとしては,これまでの実験で最も精度の良かった組み合わせのモデル,つまり,手法1(類似度と分割数の閾値はそれぞれ1.0と0に設定)とSVMの組み合わせに素性集合1を用いた場合のものを用いた.結果を表~\ref{table:exp:data}にあげる.評価は一番緩い基準で行なった.\begin{table}[htbp]\begin{center}\caption{学習データを変更したときの実験結果}\label{table:exp:data}\begin{tabular}[c]{|l|l|l|}\hline学習データ&\multicolumn{2}{c|}{精度}\\\cline{2-3}&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}\\\hlineTMのみ&64.0\,\%(768/1,200)&57.4\,\%(689/1,200)\\追加用例のみ&64.4\,\%(773/1,200)&57.8\,\%(693/1,200)\\TMと追加用例&71.1\,\%(853/1,200)&66.0\,\%(792/1,200)\\\hline\end{tabular}\\\vspace*{1em}(手法1での閾値:類似度=1.0,分割数=0)\end{center}\end{table}表~\ref{table:exp:data}より,TM用例だけでなく,他の言語資源から自動抽出した対訳用例も用いた場合に,より精度が良くなることが分かる.他の言語資源から対訳用例を抽出する際には,日英の見出し語が出現しているかどうかだけを手がかりにしていたため,日英見出し語が対応関係にないものも抽出してしまっていたが,現段階ではこの単語対応を考慮していなかったことによる悪影響よりも自動抽出した用例が精度向上へ貢献する度合いの方が顕著に勝っていると言えそうである.今回用いたTMは新聞記事から抽出した語句を元に人手で作成されたものであり,コンテストの対象である新聞記事と同じ,特化したドメインの知識と考えられる.一方,自動抽出した用例は一般的な対訳辞書の用例であり,一般的なドメインの知識であると考えれる.表~\ref{table:exp:data}の結果は,一般的なドメインの知識と特化したドメインの知識が相補的に影響した結果であるとも言えるだろう. \section{関連研究} \label{sec:related_works}これまでに,対訳コーパスを用いた統計的なあるいは機械学習モデルに基づく訳語選択の手法が数多く提案されてきた(例えば,\cite{Brown:93,Hussein:94,HTanaka:94,berger:cl96}など)\footnote{テンスやアスペクト,モダリティの翻訳に機械学習モデルに基づく手法を用いた研究には文献\cite{Murata2001d}のものがある.}.我々も同様に機械学習モデルに基づく手法を用いている.これまでに提案されてきた手法との主な違いは,SVMなど複数の機械学習モデルを利用している点と,それらの機械学習モデルと用例に基づく手法とを組み合わせて利用している点,さらに,これまでの方法がすべての単語に対し同じ機械学習モデルを用いているのに対して,我々は単語ごと(原言語見出し語ごと)に異なるモデルを作成し,その中から最適な機械学習モデルを選択している点にある.実験では,クロスバリデーションによる選択は単独の学習モデル(SVM)より劣ることが分かったが,潜在的には複数のモデルを組み合わせることによりより良い精度(5\,\%程度良い精度)が得られることも示した.用例に基づく手法として我々が用いたものはSato\cite{Sato92}が提案した手法に類似している.我々の手法との主な違いは,類似度を計算する際に課す制約である.Satoの手法では特に制約は課していないが,我々の場合は,入力文と用例とがいくつかの部分に分割されて一致する場合にその分割数を制限する,対象単語と同じ見出し語を持つ用例に限定する,などの制約を課している.実験により,前者の制約を課すことによって良い結果が得られることが分かった.Satoの手法では,文字列の並びの順序が異なる場合でも一致したと見なす柔軟さがある.その柔軟性を我々の手法にも採り入れたい.本論文で述べたTMあるいはそれと同様の対訳用例を訳語選択に用いた研究としては,Baldwin\cite{Baldwin:2001}やSumita\cite{Sumita:2000}の研究がある.Baldwinは原言語用例の情報を用いてTMから訳語選択に最も適した用例を選択する方法を提案した.彼はbigramなどの文字列情報のみを用いたときが最も精度良く類似した用例を選択できると報告している.我々の方法でもbigramなどの文字列情報を素性として利用するようにすれば,精度向上が期待できると考えている.SumitaはTMの利用方法という点で我々と類似した方法を提案している.彼の方法では,我々の手法と同様に,TMの用例を目的言語見出し語ごとに用例集合としてまとめて利用している.そして,入力文と用例集合をそれぞれ検索質問文,文書と考え,情報検索でよく用いられるベクトル空間モデルを用いて入力文と最も類似した用例集合を選択する.この手法では学習は行なわれないが,我々の手法では学習により,入力文と対象単語に関して最も類似した用例集合を選択する.また,本論文では,対訳用例の訳語選択への利用方法に関する知見として,今回用いたTMのように一見出し語あたり30個程度の例があれば,それをもとに自動抽出した対訳用例と併せて学習に用いることで精度が向上することを示した.機械翻訳では,Marcu\cite{Marcu:2001}が用例に基づく手法と統計的機械翻訳モデルを組み合わせて一文全体を翻訳する手法を提案した.統計的機械翻訳モデルを用いて入力文の最適な翻訳を探索する際に,必ずしも最適解を探索するのではなく,入力文と一致するTM用例があればそれを優先する,という制約を課すことにより翻訳精度が向上したと報告している.我々の手法では,用例に基づく手法と機械学習モデルを組み合わせて,一文全体の翻訳ではなく,各単語の訳語選択を行なう.また,Marcuは完全一致となる用例のみを用いているが,我々はいくつかの部分に分かれて一致する用例や部分一致となる用例も用いている.実験ではこのような用例も用いた場合に精度が向上したことから,一文全体の翻訳の際にも部分一致となる用例を用いるとより良い結果が得られる可能性が高いと考えている.今後,我々の手法が一文全体の翻訳の精度にどれだけ貢献するかを調べたい. \section{まとめ} \label{sec:conclusion}本論文では,機械翻訳における訳語選択の手法について述べた.我々のシステムは,入力文と対象単語が与えられたとき,対象単語に関して入力文と用例(あるいは用例集合)との類似度を求め,類似度が最大となる用例(あるいは用例集合)を用いて対象単語の訳語選択を行なう.類似度は,入力文,対象単語,用例に関する様々な情報を手がかりとして考慮し,用例に基づく手法と機械学習モデルに基づく手法を組み合わせて求める.学習には,TMの用例だけでなく,他の対訳辞書あるいは対訳コーパスから抽出した用例を用い,学習の際には,原言語と目的言語の間で互いに対応関係がない各単言語コーパスから抽出した頻度情報なども考慮する.コンテストでの結果および,追加実験の結果を分析して分かったことは以下の通りである.\begin{itemize}\item文字列の類似性に基づく方法(手法1)は慣用的な表現を含む文などに対して精度が良かった.\item対訳用例を自動的に収集して学習データに追加することにより,より良い精度が得られることが分かった.\item文字列の類似性に基づく方法(手法1)と機械学習モデルに基づく方法(手法2)を組み合わせたときに最も良い精度が得られた.\end{itemize}今後の課題としては,以下のことを考えている.\begin{itemize}\item学習データの質の改善.他の言語資源から追加した対訳用例の英語見出し語が,日本語に訳したときその訳語に曖昧性のある場合には,データの質が精度に悪影響を及ぼす場合があった.今後,対訳用例における単語対応をとり,見出し語間に対応関係があるもののみ選択するようにし,学習データの質を改善したい.\item最適な機械学習モデルの選択方法の模索.本論文では,個々の単語に対して最適な機械学習モデルを選択するために,学習データにおいてクロスバリデーションを行ない,平均精度が最大となるモデルを最適なモデルとして採用したが,単独のモデル(SVM)に劣ることが分かった.今後,最適なモデルの選択を学習モデルにより決定するstacking法などを適用するなど,最適なモデルの選択方法を模索したい.\item新たな素性の導入と選択.見出し語とそのまわりに出現する単語の実データにおける分布をできるだけ反映させたモデルを作るために,単言語コーパスから抽出した単語の頻度情報を素性として利用した.しかし,過学習に陥り精度を下げる結果となった.今後,単言語コーパスに関する情報で何が訳語選択に貢献する有用な情報であるかを模索したい.\end{itemize}\begin{flushleft}{\bf謝辞}\end{flushleft}本研究を進めるにあたって,データを利用させて頂いた毎日新聞社,日経新聞社,産経新聞社,ニフティ,LDCの各社に感謝する.また,貴重なコメントを下さった査読者,ならびに,本特集号編集委員長である東京大学の黒橋禎夫先生に感謝の意を表したい.\bibliographystyle{jnlpbbl}\bibliography{6}\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所主任研究員.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N01-04
\section{はじめに} \label{sec:introduction}人間と日常会話などの雑談をおこなう雑談対話応答生成システムは,医療や教育をはじめとした様々な分野で注目され\cite{Litman2016:UsingConversations,Addlesee2019:CurrentChallenges},研究開発が活発におこなわれている.特に近年,深層学習技術の発展を背景に急速に研究が進行した深層学習ベースの雑談対話応答生成システムは,対話履歴に対して流暢な応答を生成できることが知られている\cite{Zhang2020:DIALOGPT,Adiwardana2020:Humanlike,Roller2021:Recipes}.しかし,人間と自然な雑談が可能なシステムの実現に向けては,さらなる改良の余地がある.たとえば,近年の雑談対話応答生成システムが生成する応答でさえ自身の直前の発話とは矛盾する主張をするなど,人間同士の会話では生じないような誤りを含むことがある\cite{Adiwardana2020:Humanlike,Roller2021:Recipes}.システムの改良に取り組むうえで,その性能を費用や時間をかけず低コストで評価する指標の存在は大きい.たとえば機械翻訳の研究では,システムが生成した翻訳文と参照訳の間の$n$-gramの一致を評価するBLEU\cite{Papineni2002:BLEU}という指標がシステム性能の自動評価に用いられる\cite{Sutskever2014:SequenceToSequence,Bahdanau2015:Jointly,Luong2015:Effective,Vaswani2017:Attention}.機械翻訳の研究において,BLEUは人間による評価に代わるほどの信頼性を持つ評価指標ではない\cite{Stent2005:EvaluatingEvaluation,Callison2006:Reevaluating,Smith2016:Climbing}ものの,人手評価と一定の相関を持つ評価が可能であることが知られている\cite{Reiter2018:Structured}.そこで機械翻訳の研究では,BLEUを用いて一定の精度でコストをかけず評価しながらシステムの改良を繰り返すという効率的な開発プロセスが分野に定着することで,技術が飛躍的に発展した.一方,雑談対話応答生成の研究では,機械翻訳研究でのBLEUに相当するような分野全体に共有されている評価指標が存在しているとは現状言い難い.たとえば,雑談対話応答生成システムの自動評価においてもBLEUはしばしば用いられる\cite{Sordoni2015:ContextSensitive,Wen2015:SemanticallyConditioned,Li2016:DiversityPromoting,Zhang2020:DIALOGPT}が,人手評価との間には相関がまったく認められないことが報告されている\cite{Liu2016:HowNotEvaluate}.この原因として,対話には一つの対話履歴に対し妥当な応答が複数存在するという性質が存在することが挙げられる.この性質により,用意した有限個の参照応答との$n$-gramの一致を評価するBLEUでは,参照応答には類似しないが適切な応答が低く評価される可能性があり,信頼性の高い評価をおこなうことは難しい.たとえば「好きな果物は?」という対話履歴に対しては「リンゴが好きです。」という応答も「メロンかな」という応答も妥当だが,参照応答が「リンゴが好きなんです。」だった場合,共通した$n$-gramを含まない後者の応答はスコア$0$として扱われる.雑談対話応答生成システムの自動評価方法の設計にあたっては,この性質への対処が重要となる.本論文では,この性質の影響を受けにくい雑談対話応答生成システムの自動評価方法として,対話応答選択と呼ばれる選択問題を用いた評価に着目する.対話応答選択は,与えられた対話履歴に続く適切な応答(以下,正例と呼ぶ)を選択肢(以下,応答候補と呼ぶ)から選択するタスクである.雑談対話応答生成システムは応答を生成するためのシステムだが,応答候補中の各発話の生成確率を計算し,最も生成確率が高い候補をシステムの選択とみなすことで選択問題を解くことができる.対話応答選択を用いた評価は,次の二つの特長から,分野全体が共有する雑談対話応答生成システムの自動評価指標に適していると考えられる.一つめは,適切な応答が複数存在するという対話の性質の影響を回避したシステム評価が可能となる点である.対話応答選択ではシステムの選択する応答が候補内のものに限られるため,適切ではあるが正例と類似しない応答が出力され低く評価されるといった事態を回避できる.二つめは,システムの性能を正解率という統一的な指標で測ることができる点である.BLEUなどのシステム応答自体を評価する指標では,単語分割処理などの違いが評価結果に影響を与える可能性があるため,先行研究での報告値にもとづいたシステム間の比較が難しい場合がある.一方で,対話応答選択による評価ではシステムの性能を正解率で測るため,先行研究の報告値をもとにシステム性能を比較することが容易である.対話応答選択では,応答生成システムが実際に生成する応答の質自体を評価することはできないため,人手評価に代わる評価の枠組みとはなりえない.しかし,少なくとも適切な応答を生成可能なシステムであれば適切な応答を選択することが可能であると仮定すると,システムが適切な応答を生成しうるかを確認することができるため,対話応答選択は日々のシステム改良の成果を確認するための継続的な評価への利用に適した枠組みといえる.ただし,従来の対話応答選択の枠組みは負例の獲得方法において改善の余地がある.一般的に,対話応答選択の応答候補のうち不正解となる候補(以下,負例と呼ぶ)には,対話履歴や正例とは無関係な対話データから無作為に抽出してきた発話を用いる\cite{Lowe2015:Ubuntu,Gunasekara2019:DSTC7Noetic}.このとき,無作為抽出により収集された負例には,(a)正例とかけ離れすぎていて容易に負例と判別できる発話や,(b)応答として誤りとはいえない発話が含まれる可能性がある.まず(a)について,たとえば「好きな果物は?」という対話履歴に対し「体調が悪いです。」という発話が負例として抽出されたとする.この発話は対話履歴中の「果物」という単語と明らかに無関係な「体調」という単語を含む.そのため,単語を比較していくだけで対話履歴との関連性が低い候補であることがわかり,負例であると推測できてしまう.このような負例の混入によって,システムが対話の内容を理解していなくとも正解できる選択問題が構築されうる.次に(b)について,対話ではある発話が無数の対話履歴に対する応答として成立することもあるため,対話履歴や正例と無関係な対話データから負例として無作為抽出した発話が必ずしも応答として不適切であるとは限らない.とりわけ「わかりません」など,さまざまな対話履歴に対して応答として成立し対話データセット中に頻出する発話が,負例として無作為抽出されることが考えられる.このような発話が負例となっている問題については,妥当であるにも関わらず選択すると不正解と見なされる候補が存在することになり,システムの性能が不当に低く見積もられるという事態につながる可能性がある.負例を無作為抽出で取得した場合,(a)や(b)のような発話により対話応答選択によるシステム評価の有効性は低下するおそれがある.本論文では,雑談対話応答生成システムの自動評価の枠組みとして分野全体で共有される指標の実現に向け,前述した不適切な負例を応答候補から除いた対話応答選択による評価を考える.具体的には,各問題の正例に類似する発話のうち応答として成立しないものだけを厳選して負例として用いることで,(a)や(b)のような応答候補の混入を抑制した対話応答選択テストセットの構築方法を提案する.提案する構築方法に従って実際にテストセットを構築し,雑談対話応答生成システムを対話応答選択で評価したところ,既存の広く用いられている自動評価指標と比べて人手評価と強く相関することを実験により確認した.本論文の主要な貢献は以下の三点である.\begin{itemize}\item雑談対話応答生成システムの評価に適した対話応答選択テストセットの構築方法を提案した.\item提案する方法に従い,実際に対話応答選択テストセットを構築し公開した\footnote{\url{https://github.com/cl-tohoku/eval-via-selection}}.\item提案する方法で構築したテストセットを用いた対話応答選択による雑談対話応答生成システムの評価結果が,既存の広く用いられている自動評価指標と比べて,人間による評価結果と強く相関することを実験により確認した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related-works}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{雑談対話応答生成システムの自動評価}雑談対話応答生成システムは,医療や教育をはじめとした様々な分野で注目され\cite{Litman2016:UsingConversations,Addlesee2019:CurrentChallenges},研究開発が活発におこなわれている.これに伴い,雑談対話応答生成システムの自動評価の枠組みも多数提案されてきた.雑談対話応答生成システムの自動評価は,システム応答自体の質を評価する方法と,適切な応答に高い生成確率を付与可能か測定する方法が主流である.システム応答自体の質を評価する方法は,システム応答と参照応答の類似度を評価する指標\cite{Papineni2002:BLEU,Banerjee2005:METEOR,Lin2004:ROUGE,Rus2012:ComparisonGreedy,Forgues2014:Bootstrapping}や,学習したニューラル評価モデルで応答を評価する指標\cite{Lowe2017:AutomaticTuring,Tao2018:RUBER,Mehri2020:USR}が提案されてきた.前者については,対話では一つの対話履歴に対して妥当な応答が複数存在しうるため,適切だが参照応答と類似しない応答が不当に低い評価を受ける場合があり,人間による評価結果との相関が認められないということが報告されている\cite{Liu2016:HowNotEvaluate}.後者については,前者と比較すると人手評価と相関する評価が可能であることが知られているが,評価結果の解釈可能性が低いことや,指標によっては敵対的な入力に対して誤った評価をする\cite{Sai2019:ReevaluatingADEM}ことなどが課題となっている.以上のような背景から,どの指標も分野全体に共有される自動評価指標となるには至らず,現時点では,人手評価との相関が認められないものの計算コストが低く先行研究でも報告されてきた\cite{Sordoni2015:ContextSensitive,Wen2015:SemanticallyConditioned,Li2016:DiversityPromoting}BLEUが自動評価の参考値として広く用いられている\cite{Zhang2020:DIALOGPT,Cai2020:DataManipulation,Zhang2020:DialogueDistillation}.適切な応答に高い生成確率を付与可能か測定する方法は,参照応答に対する雑談対話応答生成システムのperplexityを計算する方法が広く用いられる\cite{Serban2016:BuildingEndtoend,Parthasarathi2018:Extending,Ghandeharioun2019:Approximating}.システム応答を評価するのではなく,応答として適切であることがわかっている参照応答がシステムにより生成されやすいかどうかを評価するため,対話履歴に対し妥当な応答が複数存在するという対話の性質の影響を受けにくい評価が可能となる.一方で,perplexityの計算はシステムの語彙数などに依存するため,異なるシステム同士で値を比較することが難しく,分野で共有する自動評価指標としては適さない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話応答選択}対話応答選択は,与えられた対話履歴に続く適切な応答(正例)を応答候補から選択するタスクである.たとえば「好きな果物は?」という対話履歴に対し「リンゴが好きです。」と「体調が悪いです。」という二つの応答候補が与えられた場合,応答として適切な前者を選択すると正解となる.システムの性能は,同様の選択問題を複数問解かせたときの正解率によって評価する.対話応答選択は従来,検索型対話システムの性能評価のためのタスクとして用いられてきた\cite{Zhou2016:MultiviewResponseSelection,Wu2017:SequentialMatching,Zhou2018:MultiTurnResponseSelection}.検索型対話システムは,応答を生成するのではなく,事前に収集しておいた発話の集合のなかから応答として適切な発話を選択するシステムである.そのため対話応答選択は,検索型対話システムが実際に応答をするときと同様の問題設定であり,検索型対話システムの評価に適したタスクといえる.本論文では,対話応答選択を,検索型対話システムではなく応答生成システムの評価に応用することを考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話応答選択テストセット}対話応答選択テストセットの負例には,対話履歴や正例と無関係な対話データから無作為抽出してきた発話を用いることが一般的である\cite{Lowe2015:Ubuntu,Gunasekara2019:DSTC7Noetic}.しかしながら\ref{sec:introduction}節で述べたように,無作為抽出された負例は,正例とかけ離れすぎていて容易に負例と判別できる発話や,応答として誤りとはいえない発話である可能性があり,評価の有効性を低下させうる.無作為抽出以外の方法で負例を収集した対話応答選択データセットとしては,検索型対話システムの性能評価のために構築されたDoubanConversationCorpus\cite{Wu2017:SequentialMatching}が挙げられる.DoubanConversationCorpusは,検索型対話システムの運用を想定したかたちで負例を収集している.具体的には,テストセットの各問題の対話履歴をクエリとして,対話履歴を取り出したものとは異なる対話データから検索により集めた発話を応答候補とする.たとえば,ある問題の対話履歴が「好きな果物は?」であり,対話履歴をクエリとして「好きな果物はリンゴです。」という発話が検索された場合,これを応答候補に採用する.この方法は,自身の保持する発話集合のなかから対話履歴との類似度によって応答候補を絞り込む実際の検索型対話システムの応答選択過程と類似しており,これらのシステムの評価に適したテストセットとなっている.本論文で提案するテストセットの構築方法でも,対話履歴や正例を取り出したものとは異なる対話データから検索により応答候補を収集するが,DoubanConversationCorpusとは目的や検索方法が異なる.本論文で構築するテストセットは応答生成システムの性能評価への利用を前提とするため,DoubanConversationCorpusのように検索型対話システムの応答選択過程と同様の方法で応答候補を収集する必要がない.そこで,本論文では,対話応答選択の問題を構成する正例を直接クエリとして応答候補を収集することで,より確実に適切な応答からかけ離れた発話が候補に含まれないようにするとともに,\ref{subsubsec:error-interpret}節で述べるようにシステムの分析にも有用なテストセットを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案する対話応答選択テストセットの構築方法} \label{sec:proposal-method}対話履歴$c$と正例$r^\mathrm{true}$に対し,発話集合であるリポジトリ$\mathcal{U}$から負例$r^\mathrm{false}\in\mathcal{R}^\mathrm{false}$を抽出する.図~\ref{fig:method-summary}に,提案するテストセットの構築方法の概要を示す.本論文では,次の二つの段階を踏むことで$\mathcal{R}^\mathrm{false}$を構成し,(a)正例とかけ離れすぎていて容易に負例と判別できる発話と,(b)応答として誤りとはいえない発話が負例として混入することを抑制したテストセットを構築することを提案する.\begin{enumerate}\item正例に類似する$M$個の発話$\{u_{1},...,u_{M}\}$を$\mathcal{U}$から検索することで負例に用いる発話の候補(以下,負例候補と呼ぶ)を収集する.\item$M$個の負例候補$\{u_{1},...,u_{M}\}$から応答として成立する発話を人手評価により除いたものを$\mathcal{R}^\mathrm{false}$とする.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-1ia3f1.pdf}\end{center}\hangcaption{テストセット構築方法の概要.(1)正例に類似する発話をリポジトリから検索することで負例候補を収集し,(2)応答として成立する発話を人手評価により除くことで負例を厳選する.}\label{fig:method-summary}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{(1)類似発話の検索による負例候補の収集.}まず,正例との類似度にもとづき正例と類似する発話をリポジトリ$\mathcal{U}$から$M$個ずつ検索することで,表層的な手がかりを用いるだけではなく,対話の内容を理解しなければ応答として誤りであると判別できない負例候補を集める.たとえば「好きな果物は?」という対話履歴の正例が「リンゴが好きです。」だとすると,これに類似する「果物が好きです。」という負例は正例と共通して「好き」という単語を含んでおり,単語の比較だけでは誤りであると識別しにくい.このような負例で応答候補を構成することで,雑談対話応答生成システムが対話履歴や候補の意味を捉えることができるかを評価可能なテストセットを構築する.実際にテストセットを構築した際に用いた正例との類似度については\ref{subsubsec:testset-construction-retrieval}節で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{(2)応答として成立する発話の人手評価による除去.}(1)で検索した負例候補のうち,応答として成立するものを除去し$\mathcal{R}^\mathrm{false}$を構成する.発話が与えられた対話履歴に対する応答として適切かを高精度で自動評価することは難しいため,除去には人手評価を用いる.各負例候補について$5$人のアノテータに,発話が対話履歴に対する応答として適切かどうかを示すスコアを付与させる.スコアは$1$から$5$までの$5$段階とする.スコア$5$は発話が与えられた対話履歴に対する応答として明らかに適切であることを示し,スコア$1$は応答として明らかに不適切であることを示す.また,明らかな文法誤りを含むような発話に対しては,$1$から$5$までの$5$段階スコアのかわりにスコア$0$を付与させる.$5$人中$3$人以上のアノテータにより$3$以上のスコアが付与された,すなわち過半数の評価者によって「応答として適切」または「判別できない」と判断された負例候補は,正例となりうる可能性が一定程度あるものと見なし除去する.また,本論文ではシステムが文法的に適切な応答を選択可能かどうかを評価することは意図していないため,$3$人以上(過半数)のアノテータによりスコア$0$が付与された負例候補は,文法誤りを含む可能性が高いと見なして除去する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案法を用いたテストセットの構築} \label{sec:testset-construction}\ref{sec:proposal-method}節で提案した構築方法をもとに実際に対話応答選択テストセットを構築した.本節では,テストセット構築時の詳細な設定について述べたうえで,構築したテストセットの概要を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テストセット構築時の詳細設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対話履歴および正例の収集とリポジトリの構成}\label{subsubsec:testset-construction-dataset}対話履歴と正例の収集には,DailyDialog\cite{Li2017:DailyDialog}を用いた.DailyDialogは,英語学習者向けの英会話例を収集した対話データセットであり,幅広いトピックを取り扱っていることに加え,誤字や文法誤りといったノイズが少ないという特徴を持つ.DailyDialogの各対話の冒頭の$4$発話を冒頭対話として取り出したうえで,冒頭対話のうち最初の$3$発話を対話履歴,$4$発話目をそれぞれの対話履歴に対する応答の正例として収集した%\footnote{対話履歴が長すぎる場合,人手で適切な発話を$\mathcal{R}^\mathrm{false}$から除去するコストが高くなるため,対話履歴を$3$発話で固定した.}.DailyDialogには,一部の単語を除き完全一致するなど極端に類似する対話データ同士が含まれているため,Jaccard係数により各冒頭対話同士の類似度を計算し,類似する冒頭対話のうち一方を除去した.Jaccard係数は二つの文書の表層的な類似度を測る指標であり,文書$a$と文書$b$の類似度は次式で計算される.\begin{equation}J(a,b)=\frac{|\mathrm{set}(a)\cap\mathrm{set}(b)|}{|\mathrm{set}(a)\cup\mathrm{set}(b)|}\end{equation}ここで,$\mathrm{set}(a)$は文書$a$に含まれる単語からなる集合である.各冒頭対話に対しJaccard係数が$0.5$以上の冒頭対話が他に存在した場合,両対話は類似しているとして一方を除去した.さらに,単語数が$4$以下もしくは$31$以上であるような発話を含む冒頭対話を除去し%\footnote{各発話をNLTK\cite{Bird2004:NLTK}で単語分割したうえで単語数を数えた.},$7,393$個の対話履歴および正例が得られた.$1,000$問程度の対話応答選択問題からなるテストセットを構築することを目標とし,ここから$1,006$個の対話履歴および正例を無作為抽出した.負例候補の検索に用いるリポジトリ$\mathcal{U}$の構成にはOpenSubtitles2018\cite{Lison2018:OpenSubtitles}を用いた.OpenSubtitles2018は映画の字幕を収集したデータセットであり,多様な発話が大量に収集可能である.データセットに含まれる発話のうち,単語数が$5$以上かつ$30$以下のものを収集した%\footnote{各発話をNLTK\cite{Bird2004:NLTK}で単語分割したうえで単語数を数えた.}.重複を除き,最終的に約$0.85$億個の発話からなる$\mathcal{U}$が得られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{表層と分散表現にもとづく負例候補の検索}\label{subsubsec:testset-construction-retrieval}\ref{subsubsec:testset-construction-dataset}節で抽出した$1,006$個の対話履歴に対し,多様な負例候補を収集するため,表層にもとづく検索と分散表現にもとづく検索の二つの方法を用いて発話を検索した.各検索方法で$5$発話ずつ検索することで,対話履歴一つあたり合計$10$発話の負例候補を収集した.表層にもとづく検索では,クエリである正例に含まれている単語とどれだけ同じ単語を含むかにより,正例に表層的に類似する負例候補を収集した.検索には全文検索エンジンであるLucene%\footnote{\url{https://lucene.apache.org/}}を用いた.$\mathcal{U}$に含まれる発話のインデックスを作成したうえで,正例をクエリとして与えたときにLuceneにより計算されるスコアが高い上位$5$発話を$\mathcal{U}$から取り出した.分散表現にもとづく検索では,正例との文ベクトルの類似度により,正例に意味的に類似する負例候補を収集した.文ベクトルの計算は,少ない計算量で高品質な文ベクトルが算出可能なAroraらの方法\cite{Arora2016:SimpleTough}を参考にした.具体的には,各発話に含まれる単語全てについて単語ベクトルを計算し,これら単語ベクトルの重み付き平均を文ベクトルとした.単語$w$の重み$\alpha(w)$は以下の式により計算した.\begin{equation}\alpha(w)=\frac{a}{a+f(w)/N}\end{equation}ここで,$f(w)/N$は単語$w$の出現確率であり,本論文では$f(w)$を$\mathcal{U}$中に単語$w$が出現する回数,$N$を$\mathcal{U}$に含まれる全単語の数として計算した.$a$は定数であり,本論文では$a=10^{-3}$とした.文ベクトルの計算に必要となる単語ベクトルにはELMo\cite{Peters2018:DeepContextualized}を用いた%\footnote{TheAllenInstituteforArtificialIntelligenceによる実装(\url{https://github.com/allenai/bilm-tf})を用いた.}.正例および$\mathcal{U}$中の各発話の文ベクトルを計算したうえで,正例の文ベクトルとコサイン類似度が高い文ベクトルを持つ上位$5$発話をリポジトリから取り出した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{人手評価による負例候補除去の実施}\label{subsubsec:testset-construction-filter}$1,006$個の対話履歴に対して収集した負例候補から,応答として成立するものを除去するために,クラウドソーシングサービスAmazonMechanicalTurk\footnote{\url{https://www.mturk.com/}}を用いた人手評価を実施した.図~\ref{fig:amt-inst}に,実際にアノテータへ見せたスコア付与方法の説明画面を示す.また,図~\ref{fig:amt-ex}にスコア付与の作業画面を示す.アノテータが解くタスクは$7$問(Q1$\sim$Q7)からなり,各問が一つの対話応答選択の問題に相当する.アノテータには,一問あたり$11$個の発話それぞれに対し,\ref{sec:proposal-method}節で述べた応答の適切性に関するスコアを付与させた%\footnote{また,テストセット構築のための実際の処理には参照しなかったが,アノテータ自身がつけた各スコアに対する$5$段階の確信度も同時に入力するよう指示した.}.スコアを付与する$11$個の発話は,正例と,その正例との類似度にもとづき収集された$10$個の負例候補からなる.そのため,アノテータは一問あたり$1$個,タスクあたり合計$7$個の正例にスコアを付与することになる.正例に対して低いスコアばかりを付与するアノテータは信頼度が低いとして,タスクに含まれる$7$個の正例のうち$4$個以上にスコア$3$以下のスコアを付与した場合はそのタスクを不採用とした.また,信頼性の高い評価を効率的におこなうために,botや不誠実な作業者がタスクに参加することを防ぐ目的で,AmazonMechanicalTurk上で過去に解いてきたタスクの不採用率が$5\%$未満であり,かつ過去に$1,000$回以上タスクを採用されたアノテータのみがタスクに参加できるよう設定した.表\ref{tab:filter-result}に,人手評価による負例候補除去の結果を示す.本論文では表層にもとづく検索と分散表現にもとづく検索の二つの方法を用いて負例候補を検索したが,分散表現にもとづく検索では,表層にもとづく検索と比べ,負例にあたる発話や文法誤りを含む可能性のある発話の割合が低く,正例の可能性がある発話の割合が高かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[p]\begin{center}\includegraphics{29-1ia3f2.pdf}\end{center}\caption{スコア付与方法の説明図.}\label{fig:amt-inst}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{テストセットに用いる問題の選定}\label{subsubsec:testset-construction-finalize}人手評価による負例候補除去の結果を踏まえ,テストセットに用いる問題を選定した.最初に対話応答選択一問あたりの負例数を決定したうえで,決定した負例数以上の負例候補が人手評価を経て残っている問題をテストセットに採用した.\ref{subsubsec:testset-construction-filter}節で述べた人手評価の実施後,$1,006$問のうち$876$問については$3$個以上の負例候補が除去されずに残った.そこでまず負例数を$3$で固定したうえで,$876$問については除去されなかった負例候補から$3$個を無作為抽出することで$\mathcal{R}^\mathrm{false}$を構成し,テストセットに採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{29-1ia3f3.pdf}\end{center}\caption{スコア付与の作業画面.}\label{fig:amt-ex}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{03table01.tex}\caption{人手評価による負例候補除去の結果.}\label{tab:filter-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{テストセットのかさ増し}\label{subsubsec:testset-construction-augment}\ref{subsubsec:testset-construction-finalize}節でテストセットに採用した問題のうち,$6$個以上の負例候補が除去されず残り,かつ別の正例が用意可能なものについては,正例$1$個と負例$3$個からなる応答候補集合を二つ作成できる.そこで,これらから対話履歴を共有するが応答候補が異なる二つの対話応答選択問題を作成することで,テストセットをかさ増しした.具体的には,負例候補のうち人手評価において$5$人全員のアノテータにより$4$以上のスコアを付与されたものは,適切な応答である可能性が高いため,二つ目の正例とした.二つ目の正例を有する問題のうち,除去されず残った負例候補がもともと$6$個以上ある場合,一つ目の問題では負例に利用しなかった残りの負例候補のうち$3$個により$\mathcal{R}^\mathrm{false}$を構成した.以上の方法により,$876$問から二つ目の対話応答選択問題を合計$143$問構築し,最終的に$1,019$個の対話応答選択問題からなるテストセットを構築した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{構築したテストセットの概要}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{テストセットの統計情報}表~\ref{tab:statistics}に構築したテストセットの統計量を示す.また同表に,人手評価による負例候補除去の信頼性を確認するために計算した,アノテータ間でのスコア付与の一致率を示す.アノテータによるスコア付与を$0$から$5$までの$6$クラス分類と考えたとき,Fleiss'kappaは$0.22$となった.また,スコア付与をDoubanConversationCorpus\cite{Wu2017:SequentialMatching}で実施した人手評価と同様に$2$クラス分類と考えると\footnote{DoubanConversationCorpusでは,収集した応答候補に対して応答として適切かどうかの$2$値を人手評価している.これに合わせるため,スコア$4$以上を適切な応答とみなし,スコア$3$以下を適切ではない応答とみなした.},Fleiss'kappaは$0.63$であり,DoucanConversationCorpusの$0.41$を上回る結果となった.これらのことから,発話除去に用いる人手評価の信頼性は十分に高いと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{03table02.tex}\caption{構築したテストセットの基本統計量およびアノテーションの一致率.}\label{tab:statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{03table03.tex}\caption{構築したテストセットの例.各負例が正例同様に対話履歴に関連する単語``focus''を含む.}\label{tab:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{構築したテストセットの例}\label{subsubsec:testset-example}表~\ref{tab:example}に,テストセットに含まれる問題の例を示す.表中の三つの負例は応答として不適切である一方で,対話履歴の``camera''という単語に関連する``focus''という単語を正例同様に含んでいる.この問題のように,対話履歴に関連する単語が負例に含まれている場合,各候補に含まれる単語のみから対話履歴との関連性を推測し正例を識別することは困難であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{予備実験:TF-IDFモデルによる本テストの正解率}\label{subsubsec:pre-experiments}構築したテストセットが,対話履歴や応答候補の意味を考慮せず応答を選択するシステムにとって,実際に正解しにくいものになっているかを確認した.対話履歴や応答候補の意味を考慮せず応答を選択するシステムとして,TF-IDFモデル\cite{Lowe2015:Ubuntu}を用意した.TF-IDFモデルは,対話履歴と各候補それぞれに対してTF-IDFベクトルを計算し,対話履歴のTF-IDFベクトルとのコサイン類似度が最も高くなる候補を選択する.TF-IDFベクトルは次元数が語彙数と等しく,各次元が語彙に含まれる一単語に対応するような文書(発話)のベクトル表現である.文書$d$のベクトルにおいて単語$w$にあたる次元の値は次式で計算される.\begin{equation}\mathrm{tf\mathchar`-idf}(w,d,D)=f(w,d)\log\frac{|D|}{|\{d'\inD:w\ind'\}|}\end{equation}ここで,$D$はTF-IDFモデルのモデリングに用いる文書集合\footnote{本実験では,\ref{subsubsec:system-train}節で述べる,OpenSubtitles2018を用いて構築した対話ペアデータに含まれる発話を用いた.},$f(w,d)$は文書$d$に単語$w$が出現する回数である.TF-IDFモデルは,$D$上で出現頻度の低い単語が対話履歴と候補の両方に多数含まれる場合に高いスコアを算出する.そのため,TF-IDFモデルで正解率が高い対話応答選択のテストセットは,対話履歴や各候補の意味を捉えなくとも単語の重複情報だけで負例が識別できてしまう問題が多いことを意味する.構築したテストセットにおいて,TF-IDFモデルの対話応答選択の正解率は$0.46$となった.比較のために,構築したテストセットの負例をリポジトリ$\mathcal{U}$から無作為抽出した発話に置き換えたところ,正解率は$0.67$となった.従来のテストセットの構築方法と同様に負例を無作為抽出で収集した場合に比べ,本テストセットにおけるTF-IDFモデルの正解率が大きく低下していることから,構築したテストセットの負例は単語の重複情報を考慮するだけでは識別することが難しいといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} \label{sec:experiment}\ref{sec:introduction}節で言及したように,適切な応答が生成可能な雑談対話応答生成システムであれば適切な応答が選択可能であると仮定すると,対話応答選択はシステムが適切な応答を生成しうるかの目安として日々のシステム改良に有用な自動評価の枠組みとなる.\pagebreakしかし,この仮定の妥当性は自明なものではなく,システムが適切な応答を生成可能であるかということと対話応答選択でのシステム評価の結果が相関するとは限らない.本節では,構築したテストセットを用いた対話応答選択による雑談対話応答生成システムの自動評価結果が,人間によるシステム応答の評価結果と相関するかどうかを確認するためにおこなった実験について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{subsec:experimental-procedure}雑談対話応答生成システムの自動評価は,システムが生成した応答一つ一つにスコアを付与するという方法が一般的である\cite{Liu2016:HowNotEvaluate,Lowe2017:AutomaticTuring,Tao2018:RUBER}.そのため,自動評価と人手評価の結果の相関を確かめる際には,システム応答一つ一つに付与される自動評価指標のスコアと人手評価の相関を調べるという方法が取られる\cite{Liu2016:HowNotEvaluate,Lowe2017:AutomaticTuring,Tao2018:RUBER}.一方,本論文では,対話応答選択における正解率によってシステムを評価することを考えるため,システムの応答ではなくシステム自体に対し一つのスコアを付与することになり,同様の方法が適用できない.本実験では,システムに対し一つのスコアを付与する自動評価指標と人手評価の相関を確かめる方法として,複数用意したシステムを性能順に並び替える順位付け問題を考える.順位付け問題では,自動評価指標によってシステムを性能順で並び替えたとき,どれだけ人手評価をもとに作成するシステムの順位表(以下,参照順位表と呼ぶ)に近いものを作成できるかによって,自動評価指標と人手評価の相関を確かめる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{並び替えの対象となる雑談対話応答生成システム}\label{subsubsec:system-train}順位付け問題において並び替えの対象となる雑談対話応答生成システムを$20$個用意した.システムのアーキテクチャは,GRU\cite{Cho2014:LearningPhrase},LSTM\cite{Sutskever2014:SequenceToSequence},ConvS2S\cite{Gehring2017:Convolutional},Transformer\cite{Vaswani2017:Attention},DialoGPT\cite{Zhang2020:DIALOGPT}の$5$種類を用いた.表~\ref{tab:models}に,用意した$20$個のシステムの学習データやハイパーパラメータ等を示す.システムの学習データには,OpenSubtitles2018を用いて構築した対話ペアデータと,Self-dialogueCorpus\cite{Krause2017:Edina,Fainberg2018:TalkingMyself}を用いて構築した対話ペアデータの$2$種類を用意した.OpenSubtitles2018について,\ref{subsubsec:testset-construction-dataset}節でリポジトリの構成に使わなかった字幕データから連続する$4$発話を収集したうえで,冒頭$3$発話を対話履歴,$4$発話目を応答とした対話履歴と応答のペアを構築した.最終的に$500$万ペアの学習データ,$5$万ペアの検証データを得た.Self-dialogueCorpusについても同様にコーパス中の対話の連続する$4$発話を収集したうえで,対話履歴と応答のペアを構築し,$270,582$ペアの学習データ,$29,874$ペアの検証データを得た.モデルアーキテクチャがGRU,LSTM,ConvS2S,Transformerであるシステムについてはfairseq\cite{Ott2019:Fairseq}の実装を用いた.DialoGPTについては\citeA{Zhang2020:DIALOGPT}らの実装\footnote{\url{https://github.com/microsoft/DialoGPT}}を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{03table04.tex}\caption{並び替えの対象となる雑談対話応答生成システムの学習データとハイパーパラメータ.}\label{tab:models}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価実験で比較するシステムの順位表}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{人手評価によるシステムの順位表(参照順位表).}対話履歴$c$に対し$20$個のシステムそれぞれが生成した応答$r^\mathrm{gen}$について,アノテータにスコアを付与させ,このスコアをもとに参照順位表を作成した.具体的には,まず$r^\mathrm{gen}$それぞれに対し$5$人のアノテータに,$1$から$5$までの$5$段階のスコアを付与させた.スコア$5$は$r^\mathrm{gen}$が$c$に対する応答として明らかに適切であることを意味し,スコア$1$は応答として明らかに不適切であることを意味する.各$r^\mathrm{gen}$に対し$5$人のスコア${s_{1},s_{2},...,s_{5}}$が得られるため,この平均値$s^\mathrm{mean}=\mathrm{mean}(s_{1},s_{2},...,s_{5})$を$r^\mathrm{gen}$の最終的なスコアとした.$c$を$N$個用意した場合,各システムについて$s^\mathrm{mean}$が$N$個得られるため,これらの平均値$s^\mathrm{final}$をシステムの最終的な評価スコアとした.$s^\mathrm{final}$をもとに$20$個のシステムを並び替えて順位表を作成した.人手評価は高コストであるため,$N=56$とし,構築した対話応答選択テストセットの$1,019$個の対話履歴から$56$個をサンプリングした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{対話応答選択正解率によるシステムの順位表.}構築したテストセットを用いた対話応答選択の正解率を$20$個のシステムそれぞれについて計算し,正解率をもとに順位表(\texttt{Well-Chosen})を作成した.具体的には,まず学習したシステムが各応答候補$r\in\mathcal{R}$を対話履歴$c$に対する応答として生成するときのcross-entropyloss$\ell_{r}$を計算した.その後,$\ell_{r}$が最も低い候補$\hat{r}=\argmin_{r\in\mathcal{R}}\ell_r$をシステムが選択した候補とみなすことで,システムごとの対話応答選択の正解率を計算した.負例を厳選する効果を検証するために,テストセットの負例を\ref{subsubsec:testset-construction-dataset}節のリポジトリから無作為抽出によって取得した発話に置き換えたうえで同様に順位表(\texttt{Random})を作成した.\texttt{Well-Chosen}と\texttt{Random}の作成には,構築した対話応答選択テストセットに含まれる$1,019$問全てを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{既存の自動評価指標によるシステムの順位表.}比較のために,既存の自動評価指標のうち広く用いられているBLEU,METEOR\cite{Banerjee2005:METEOR},ROUGE-L\cite{Lin2004:ROUGE}によるシステムの順位表を作成した.BLEUについては,brevitypenaltyを適用しない場合についても順位表($\mathrm{BLEU}^\mathrm{w/o\,BP}$)を作成した.これらの評価指標は,参照応答とシステム応答の間の単語や$n$-gramの一致を評価することでシステムごとにスコアを算出する.本実験では,構築した対話応答選択テストセットの各問題の正例を対話履歴に対する参照応答と見なしてスコアを算出し,スコアをもとにシステムの順位表を作成した.各評価指標とも,構築した対話応答選択テストセットの$876$問を用いた%\footnote{\ref{subsubsec:testset-construction-augment}節で述べたように,構築したテストセットに含まれる$1,019$問のうち$143$問は他の問題と対話履歴を共有しているため,これらを除き評価を実施した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{subsec:results}自動評価指標により作成したシステムの順位表がどれだけ参照順位表に近いかを測るために,両順位表のSpearmanの順位相関係数を計算した.結果を表~\ref{tab:result}に示す.最初に,人手評価同士の相関(Human)を調べた.具体的には,参照順位表の作成のために$5$人のアノテータに付与させた各システム応答のスコア${s_{1},s_{2},...,s_{5}}$を無作為に$2$つのグループに分割していくことで,異なるアノテータが付与したスコアにもとづくシステムの順位表を$2$つ作成し,両順位表の順位相関係数を計算した.順位相関係数は$0.94$と高く,少なくとも人間にとっては本実験の設定で合意の取れるシステムの順位表が作成可能であるといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{03table05.tex}\caption{参照順位表と自動評価により作成した順位表の相関.}\label{tab:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%既存の自動評価指標であるBLEU,METEORについては,順位相関係数において弱い相関が認められるとされる\cite{Akoglu2018:UserGuide}$0.20$を下回る結果となった.また,ROUGE-Lとbrevitypenaltyを適用しないBLEUは,順位相関係数においてある程度の相関が認められるとされる$0.40$を超えるものの,強い相関が認められるとされる$0.70$を下回る結果となった.一方で\texttt{Well-Chosen}の参照順位表との順位相関係数はこれらの自動評価指標に比べて高く,強い相関が認められる$0.70$を上回った.この結果から,負例を厳選したテストセットを用いた対話応答選択による雑談対話応答生成システムの評価結果は,既存の広く用いられている評価指標に比べて人手評価と強く相関するということが確かめられた.また,\texttt{Well-Chosen}の参照順位表との順位相関係数が\texttt{Random}に比べて高いことから,負例の厳選によって対話応答選択によるシステムの評価がより強く人手評価と相関するものになったことが確かめられた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{議論}\label{subsec:discussion}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{エラー分析における解釈可能性}\label{subsubsec:error-interpret}\ref{subsec:results}節より,対話応答選択による雑談対話応答生成システムの評価で負例を厳選することで,負例を無作為抽出した場合に比べてより人手評価と強い相関を持つ自動評価が可能となることを確認した.このような評価の有効性の向上に加え,負例を厳選したテストセットを用いて自動評価をおこなうことの利点として,エラー分析の解釈可能性の向上が挙げられる.表~\ref{tab:interpretable-example}に,構築したテストセットの例を示す.無作為抽出によって得られた負例(無作為)は対話履歴や正例と関連性の無い発話であり,正例と比較して具体的にどのような点で応答として不適切か指摘することが難しい.そのため,システムがこの発話を誤って応答として選択したとしても,解消すべきシステムの具体的な問題点について分析することができない.一方で,同表中の厳選した負例(厳選)は正例に類似しているが,正例と比較すると主語が``I''ではなく``You''となっている点で違いがあり,この点が応答として不適切な発話である原因となっている.もし評価対象となるシステムがこの負例を選択した場合,システムが対話履歴を踏まえて応答の主語を適切に考慮することが出来なかったと考えられる.さらに,システムが不適切な主語を含む同様の負例を他の選択問題でも選択する傾向にある場合,システムは発話の主語の考慮という点において脆弱性があると考えることができる.このように,提案法で厳選した負例が正例に類似する発話であることから,正例と比較してどのような点が不適切かを明確に指摘することが比較的容易であり,雑談対話応答生成システムの傾向や脆弱性についての詳細な分析に活用できる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\vspace{-0.5\Cvs}\input{03table06.tex}\caption{無作為抽出した負例(無作為)と厳選した負例(厳選)の例.}\label{tab:interpretable-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{03table07.tex}\caption{テストセットの負例$50$発話のうち各誤りラベルが付与された発話の数.}\label{tab:breakdown}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[p]\input{03table08.tex}\caption{ラベルを付与できた負例の例.}\label{tab:other-interpretable-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文で構築したテストセットに,不適切な箇所を具体的に指摘可能な負例がどの程度含まれているかを調べた.具体的には,構築したテストセットから無作為に取り出した負例$50$発話について,具体的な誤りが指摘可能な発話の数と,どのような誤りが含まれているかを調査した.調査の結果,負例$50$発話のうち$22$発話と,高い割合で発話に対して具体的な誤りを指摘可能であることが確認された.また,誤りの種類として(1)対話履歴の内容と矛盾を含む,(2)対話履歴に対して返すべき情報が不足,(3)主語が不適切,(4)時制が不適切,の$4$種類が確認された.表\ref{tab:breakdown}に,各誤りを含む負例の数を示す%\footnote{複数の誤りを含む発話については,その発話を対話応答選択で選んだシステムがどの誤りについて脆弱であるか特定できないため,ここではラベルが付与できない発話として扱った.}.また,表\ref{tab:other-interpretable-example}に各誤りを含む負例の例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{負例を厳選した対話応答選択を用いた評価手法の制限}\label{subsubsec:limitation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価可能な観点}本評価方法はシステムが生成する応答の適切性に関する評価を想定している.そのため,適切性以外の観点,たとえば応答の多様性などについては,本方法論によって評価することを想定していないことに留意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価可能なシステム}本評価方法は負例を厳選した対話応答選択テストセットを用いた評価である.そのため,用意したテストセットとドメイン等が合致しないシステムについては,本方法論によって評価することを想定していないことに留意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conclusion}本論文では,雑談対話応答生成システムの自動評価の枠組みとして分野全体で共有される指標の実現に向け,不適切な負例の混入を抑制したテストセットを用いた対話応答選択による評価を検討した.具体的には,まず,正例に類似するが応答として成立しない発話のみを負例として厳選する対話応答選択テストセットの構築方法を提案した(\ref{sec:proposal-method}節).応答生成システムを対話応答選択で評価することの利点には,適切な応答が複数存在するという対話の性質の影響を回避可能であること,正解率という統一的な指標でシステム性能を定量化可能であることが挙げられる.対話応答選択ではシステムが生成する応答の質自体は評価しないため,人手評価に代わる評価の枠組みとはなりえないが,適切な応答を生成可能なシステムであれば適切な応答を選択することが可能であると仮定すると,システムが適切な応答を生成しうるかを確認することができるため,日々のシステム改良の成果を確認するための評価に適した枠組みといえる.ただし,従来のように対話応答選択の負例を無作為抽出する場合,正例とかけ離れすぎていて容易に負例と判別できる発話や,応答として誤りとはいえない発話が負例として応答候補に混入し,システム評価の有効性が低下するおそれがある.本論文で提案した方法によって,これらの不適切な負例の混入を抑制した対話応答選択テストセットが構築可能であることを,定性的(\ref{subsubsec:testset-example}節),定量的(\ref{subsubsec:pre-experiments}節)に確認した.また,提案した方法に従って実際に公開可能な対話応答選択テストセットを構築したうえで(\ref{sec:testset-construction}節),構築したテストセットを用いた対話応答選択によるシステム評価が,人間によるシステム応答の評価と相関するかどうかを実験により確認した(\ref{sec:experiment}節).実験結果から,負例を厳選したテストセットを用いた対話応答選択による雑談対話応答生成システムの評価結果は,BLEUなど既存の広く用いられている評価指標に比べて人手評価と強く相関するということが確かめられた(\ref{subsec:results}節).加えて,本論文で提案する方法により厳選した負例は,正例と類似するという性質を持つため正例と比べて具体的にどのような誤りを含むか指摘しやすく,厳選した負例を選択したシステムの傾向や脆弱性について詳細な分析ができる可能性があることについて議論した(\ref{subsubsec:error-interpret}節).本論文で提案したテストセットの構築方法や公開したテストセットが,雑談対話応答生成システムの自動評価の枠組みの一つとして分野全体に共有されることで,対話応答選択でコストをかけず評価しながらシステム改良を繰り返す効率的な開発プロセスが利用可能となり,雑談対話応答生成研究がさらに発展することを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部はJSPS科研費JP19H04162,JP19K20351,JP21J22383およびJSTCREST(課題番号:JPMJCR20D2)の支援を受けて行いました.本論文の執筆にあたり,有益なコメントを頂きました査読者,担当編集委員の皆様に感謝申し上げます.なお,本研究の内容の一部は,The58thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2020)で発表されたものです\cite{Sato2020:EvalVia}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\begingroup\addtolength{\baselineskip}{-0.5pt}\bibliography{03refs.bib}\endgroup\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{構築したテストセットの例} 表\ref{tab:testset-example-appendix}に,本研究で構築したテストセットの例を示す.同表には,\ref{sec:experiment}節の実験で\texttt{Random}作成時に用いた,負例を無作為抽出した応答候補も示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\renewcommand{\baselinestretch}{0.8}\begin{table}[b]\input{03table09-1.tex}\caption{厳選した負例と,\texttt{Random}作成時に用いた無作為抽出した負例の例.}\label{tab:testset-example-appendix}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9continued\addtocounter{table}{-1}\begin{table}[p]\input{03table09-2.tex}\caption{厳選した負例と,\texttt{Random}作成時に用いた無作為抽出した負例の例(続き).}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\renewcommand{\baselinestretch}{1.0}\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験結果の詳細} 表\ref{tab:result-allscores}に,\ref{sec:experiment}節で述べた評価実験における各評価指標でのシステムのスコアおよび順位を示す.また図\ref{fig:scatter}に,各自動評価指標でのシステムのスコアと人手評価スコアの散布図を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[h]\begin{center}\includegraphics{29-1ia3f4.pdf}\end{center}\hangcaption{評価実験における各自動評価指標でのシステムのスコアと人手評価スコアの散布図.図中の各自動評価指標でのスコアは順位が$1$位だったシステムのスコアで除算している.}\label{fig:scatter}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[p]\begin{center}\rotatebox{90}{%\begin{minipage}{571pt}\input{03table10.tex}\caption{評価実験における各評価指標でのシステムスコアおよび順位.}\label{tab:result-allscores}\end{minipage}}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{佐藤志貴}{2019年東北大学工学部卒業.2021年東北大学大学院情報科学研究科博士前期課程修了.現在,東北大学情報科学研究科博士課程取得に向け研究を進めている.2021年度より日本学術振興会特別研究員(DC1).}\bioauthor{赤間怜奈}{2017年東北大学工学部卒業.2018年東北大学大学院情報科学研究科博士前期課程修了,2021年同博士課程修了.2021年より東北大学データ駆動科学・AI教育研究センター助教,理化学研究所AIPセンター客員研究員.}\bioauthor{大内啓樹}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2018年同博士後期課程修了.2018年から2021年まで理化学研究所AIPセンター特別研究員.2021年より奈良先端科学技術大学院大学先端科学技術研究科助教,理化学研究所AIPセンター客員研究員.}\bioauthor{鈴木潤}{2001年から2018年まで日本電信電話株式会社コミュニケーション科学基礎研究所研究員(主任研究員/特別研究員).2005年に奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.現在,東北大学データ駆動科学・AI教育研究センター教授.}\bioauthor{乾健太郎}{東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.}\end{biography}\biodate\clearpage\clearpage\end{document}
V06N06-01
\section{はじめに} 電子化されたテキストが世の中に満ち溢れ,情報洪水という言葉が使われるようになってからかなりの歳月を経ている.しかし,残念ながら,我々の情報処理能力は,たとえ処理しなければならない情報が増えたとしても,それほど向上はしない.そのため,自動要約技術などにより,読み手が読むテキストの量を制御できることが求められている.また,近年情報検索システムを利用する機会も増えているが,システムの精度の現状を考慮すると,ユーザは,システムの提示した候補が適切なものであるかどうかをテキストを見て判断せざるを得ない.このような場合,要約をユーザに提示し,それを見て判断を求めるようにすると,ユーザの負荷を減らす支援が行なえる.自然言語処理の分野では,近年頑健な解析手法の開発が進み,これと,上に述べたような,自動要約技術の必要性の増大が重なり,自動要約に関連した研究は,90年代の中頃になって,再び脚光を集め始めている.市販ソフトウェアも続々と発売されており,アメリカではDARPA支援のTipsterプロジェクトで要約が新しい研究課題とされたり\cite{hand:97:a},また,ACL,AAAIなどで要約に関するワークショップ,シンポジウムが相次いで開催され,盛況で活発な議論が交わされた.日本でも,98年3月の言語処理学会年次大会に併設して,要約に関するワークショップが開催され,それを機会に本特集号の編集が企画された.本稿では,このような現状を鑑み,これまでの(主に領域に依存しない)テキスト自動要約手法を概観する.また,これまでの手法の問題点を上げるとともに,最近自動要約に関する研究で注目を集めつつある,いくつかのトピックについてもふれる.本特集号の各論文が,テキスト自動要約研究として,どのような位置付けにあるかを知る上で,本稿が参考になれば幸いである\footnote{各論文の個別の紹介は,増山氏の編集後記を参照して頂きたい.}.要約研究は時に,情報抽出(InformationExtraction)研究と対で(あるいは,対比して)述べられることがある.どちらも,テキスト中の重要な情報を抜き出すという点では共通するが,情報抽出は,あらかじめ決められた「枠」を埋める形で必要な情報を抜き出す.そのため,領域に依存してあらかじめ枠を用意する必要があったり,また,領域に依存したテキストの特徴を利用した抽出手法を用いたりするため,領域を限定することが不可欠となる\footnote{情報抽出研究に関する解説としては,\cite{cowie:96:a,sekine:99:a}を参照されたい.また,DARPAが支援する情報抽出のプロジェクトであるMUC(MessageUnderstandingConference)に関しては,若尾の解説\cite{wakao:96:a}を参照して頂きたい.}.要約は,原文の大意を保持したまま,テキストの長さ,複雑さを減らす処理とも言えるが,その過程は,大きく次の3つのステップに分けられるとされる:テキストの解釈(文の解析とテキストの解析結果の生成),テキスト解析結果の,要約の内部表現への変形(解析結果中の重要部分の抽出),要約の内部表現の要約文としての生成.しかし,これまでの研究では,これらのステップは,テキスト中の重要箇所(段落,文,節,など)の抽出およびその連結による生成として実現されることが多かった.そのため,本稿では以後重要箇所の抽出を中心に解説する.2節では,まず重要箇所抽出に基づく要約手法について述べる.2.1節で重要箇所抽出に用いられてきた,さまざまな情報を取り上げ,それぞれを用いた要約手法について述べる.2.2節では,それらの情報を統合して用いることで,重要箇所を抽出する研究について概観する.2.3節では,重要箇所抽出に基づく要約手法の問題点について述べる.このようなテキスト要約手法が伝統的に研究されてきた一方で,近年要約を研究するに当たって考慮するべき要因として,以下の3つが提示されている\cite{sparck:98:a}.\begin{enumerate}\item入力の性質--テキストの長さ,ジャンル,分野,単一/複数テキストのどちらであるか,など\item要約の目的--どういう人が(ユーザはどういう人か),どういう風に(要約の利用目的は何か)\footnote{要約は一般に,その利用目的に応じて,次の2つのタイプに分けられることが多い\cite{hand:97:a}.\begin{description}\item[indicative:]原文の適切性を判断するなど,原文を参照する前の段階で用いる\item[informative:]原文の代わりとして用いる\end{description}},など\item出力の仕方\end{enumerate}たとえば,入力テキストのジャンルによっては,重要箇所抽出による要約が難しいものも考えられるし,また,要約というもの自体が考えにくいものもあり得る.ユーザの持つ予備知識の程度に応じて,要約に含める情報量は変えるべきであると考えられるし,また,利用目的が異なれば,その目的に応じた適切な要約が必要と考えられる.これまでの伝統的な要約研究は,このような要因に関して十分な考慮をしたものとは必ずしも言えない.しかし,これらの要因を考慮して,入力の性質,要約の目的に応じた適切な要約手法を開発する動きが活発になってきている.このような,自動要約に関する研究で最近注目を集めつつある,いくつかのトピックについても本稿ではふれる.3,4,5節ではそれぞれ,抽象化,言い換えによる要約,ユーザに適応した要約,複数テキストを対象にした要約に言及する.6,7節ではそれぞれ,文中の重要箇所抽出による要約,要約の表示方法について述べる.8節では,要約の評価方法について説明する. \section{重要文抽出による要約手法} \subsection{重要文抽出に用いられるテキスト中の特徴について}1950年代まで歴史を遡ることができるとされるテキスト自動要約研究のこれまでの多くのものは,テキスト中の文(あるいは,形式段落)を1つの単位とし,それらに何らかの情報を基に重要度を付与し,その重要度で順序付け,重要な文(形式段落)を選択し,それらを寄せ集めることで,要約を作成する.本節では,この重要度評価の際に用いられている,テキスト中の(主に表層的な)情報について述べる.Paice\cite{paice:90:a}はこの情報を7つに分類しているが,ここではそれも参考にした上で,以下の7つの情報を取り上げ,各小節で説明する.\begin{enumerate}\itemテキスト中のキーワードの出現頻度を利用する,\itemテキスト中あるいは段落中での位置情報を利用する,\itemテキストのタイトル等の情報を利用する,\itemテキスト中の文間の関係を解析したテキスト構造を利用する,\itemテキスト中の手がかり表現を利用する,\itemテキスト中の文あるいは単語間のつながりの情報を利用する,\itemテキスト中の文間の類似性の情報を利用する\end{enumerate}\subsubsection{(1)テキスト中の単語の出現頻度の利用}テキスト中によく出現する内容語はテキストの主題を示す傾向があるとの仮定が情報検索分野などではしばしば用いられる.この仮定に基づき,テキスト中で出現頻度の高い名詞をキーワードと考えたり(tf法),また,これに合わせて,出現するテキスト数も考慮することで,そのテキスト固有の出現の度合を計算したり(tf*idf法)など,情報検索分野では,さまざまな単語の重み付け技法が用いられている\cite{salton:89:a}.テキスト中の出現頻度に基づき単語に重要度を与えるという,このような考え方を利用し,単語の重要度を基に,文に重要度を付与するという重要文抽出手法が,自動要約研究の開始当初である1950年代から提案されている\cite{luhn:58:a,edmundson:69:a,zechner:96:a,wakao:97:a}.単語の重要度から文の重要度を計算する手法はさまざま提案されているが,その一例としては,文中に出現する単語の重要度の総和を文の重要度とするものがある.Zechner\cite{zechner:96:a}は,単語をtf*idf法で重み付けし,文中に出現する単語の重みの総和を文の重要度とする重要文抽出手法の評価を行なっている.人間の被験者の要約と比較し,再現率/適合率を計算した結果,人間の被験者同士の比較による精度と大差ない結果を得ている.また,新聞記事を対象としているので,先頭数文を抽出する手法との比較を行なっており,tf*idf法を用いた手法の方が良い結果を得ているとしている.また,単語ではなく,テキスト中で隣接する単語の対の頻度を基に,文に重要度を付与する手法を鈴木らは提案している\cite{suzuki:88:a}.Aoneら\cite{aone:97:a}は,複合語を自動的に抽出し,それらの頻度も考慮する手法を提案している.\subsubsection{(2)テキスト中での位置情報の利用}テキストは,ジャンルに依存して,ある程度構造に規則性が有ると通常考えられている.たとえば,学術論文は,序論,本論,結論のような構造を持つし,新聞は,見出し,小見出しの後に,本文が来ることが多い.このような,ジャンルにより決まったテキストの構造を重要箇所抽出に利用する研究を本節と次節では紹介する.テキストの構造から,テキスト中での重要な箇所の位置はある程度予測可能であると仮定して,テキスト中での文の位置情報をその文の重要度計算に利用する手法がいくつか考えられている.論説文の場合に,テキスト全体のまとめは書き出しや結び近くにあると仮定するものや,重要な文はテキストの先頭,最後,段落の先頭,最後,節の見出しの直後にあると考える\cite{edmundson:69:a}ものなどはその一例と言える.また,新聞記事を対象とした重要文抽出では,本文の先頭数文を抽出するのが良いとされる(この手法はlead手法と呼ばれることが多い)\cite{brandow:95:a}のも,新聞記事の構造(本文中では大意をまず先頭に示す)に基づいた,位置情報を利用した手法と言うことができる.Brandowら\cite{brandow:95:a}は,新聞,雑誌の記事を対象に,60,150,250語の長さの要約文において,lead手法と,「単語の出現頻度」,「見出しの情報」などを利用した,彼らのシステムANESの出力を,受容可能性(acceptability)で比較した結果,92\%対74\%の差でlead手法の方が良かったと報告している.受容可能性は,経験あるニュース分析者が,原文と照らし合わせて,要約の内容と読み易さに関して判断する指標である.Wasson\cite{wasson:98:a}は,Brandowらの実験を追試し,lead手法が有効である(あるいは,有効でない)テキストはどのような種類かということを明確にするため,より詳細な評価を行なっている.Brandowらと同様,ニュース分析者が受容可能/不可能の判定を要約に対して行なう評価法を用い,テキストの種類(ジャンル),分野,長さなどの違いにより,lead手法の評価がどのように変化するかを調査している.Lead手法は,テキストのジャンルに関して,評価にばらつきが見られ,ニュースで高い受容可能性を示したが,その細分類の中では,Reviewで低い受容可能性を示した.新聞記事に限定した場合の受容可能性は95.5\%であった.\subsubsection{(3)テキストのタイトル等の情報の利用}ジャンルにより決まったテキストの構造から得られる,もう一つの情報として,本文以外に,テキスト中に付与されたタイトル,見出しの情報がある.たとえば,学術論文の場合は,テキスト自体がタイトルを持つ場合もあり,また,各章,節にもタイトルが付与されることが多い.また,新聞には,見出し(headings),小見出しが本文とは別に付与されることもある.このタイトル,見出しは,ある意味で,テキスト本文の非常に簡潔な要約とも考えられる.そのため,タイトル,見出しに現れる内容語を含む文が重要であると考え,タイトル,見出し中の単語を重要文抽出に利用する手法がいくつか提案されている.\cite{edmundson:69:a}を始めとして,最近では,見出しに含まれる名詞を多く含む文を重要として抽出する\cite{kameda:96:a,nakao:97:a,ochitani:97:a}などもその一例と考えられる\footnote{\cite{nakao:97:a}は,見出し中の同じ名詞に関連する文を複数抽出しても冗長であるという考えに基づき,単純に文の重要度の順に文を選択せず,独自の選択手法を提案している.}.\subsubsection{(4)文間の関係を解析したテキスト構造の利用}自然言語処理の分野では,テキスト中の接続詞等の手がかり語情報などを基に,文間の構造を解析し,テキスト構造を得る研究がいくつか見られる(たとえば,\cite{fukumoto:91:a,sumita:92:a,kurohashi:94:a}).このようにして得られたテキスト構造を利用して重要文を抽出する研究が近年見られるようになってきている\cite{miike:94:a,marcu:97:a}.Marcu\cite{marcu:97:a}は,修辞構造解析の結果得られる核(nucleus)がテキスト中の重要箇所検出に有効であるかどうかを実証するため,核と重要箇所の間に相関関係があるかどうかを示す実験を行なっている.5テキストを13人の被験者に提示し,3段階評価で重要文の抽出を行なうと同時に,2人の計算言語学者がテキストを修辞構造解析し,構造木を生成した.そして,その構造木を基にそれぞれの文に重要度を付与した.結果として,被験者の作成した要約との比較で,計算言語学者の修辞構造を用いた要約は,再現率67.5\%,適合率78.5\%を得ている.Marcuはまた,450種類のdiscoursemarkerを用いた修辞構造解析器を作成し,それを用いた要約作成実験も試みている.結果として,被験者の作成した要約との比較で,修辞構造解析器を用いた要約が再現率66\%,適合率68\%を得ている.日本語に対しては,Miikeらの研究\cite{miike:94:a}がある.接続詞,照応表現などの手がかりを用いた規則集合により,文間の関係を解析し,テキスト構造を抽出するシステムを作成し,得られたテキスト構造に基づき,文に重要度を付与し,要約を作成している.人間の作成したテキスト構造と解析により得られたテキスト構造の比較,抽出した重要文と被験者の抽出した重要文の比較,抽出した重要文を用いて,検索テキストの適切性判断を被験者に求めた際の,所要時間,判断の精度(再現率/適合率)により,テキスト構造解析器およびそれを用いた要約手法の評価を行なっている.解析により得られたテキスト構造を利用して重要文を抽出する手法の利点としては,\begin{itemize}\item長さに応じた要約を,得られた構造木のそれぞれのレベルで作成できる,\itemテキスト構造に基づいて重要文を抽出しているので,単語の頻度などを用いた手法に比べ,首尾一貫性の高い要約が作成できる可能性がある\end{itemize}点があげられる.\subsubsection{(5)手がかり表現の利用}(1)で述べたような,テキスト,文の主題を表す内容語ではないが,テキスト中の重要箇所を指示すると考えられる手がかり表現がいくつか存在する.たとえば,学術論文などでは,`thisreport',`inconclusion',`ourwork'などの表現は,論文の主題を表す文中に出現すると考えられる.このような手がかり表現を利用して,テキスト中の重要文を抽出する研究も存在する\cite{edmundson:69:a}.これとは逆に,重要文と負の相関関係にあると考えられる手がかり語を考慮することもできる.「たとえば」などの例示を示す接続語で始まる文は重要度が低いと考えられるのはその一例である.\subsubsection{(6)文間,単語間のつながりの利用}本節と次節では,テキスト中の文間のつながりの情報を重要文抽出に利用する手法について説明する.Skorokhod'ko\cite{skorokhodko:72:a}は,文をノード,文間の関係をリンクとするグラフでテキストを表現し,多くの文と関係のある文が重要であるという考えに基づき,重要文を抽出する手法を示している.文中の単語が同一概念を参照しているような文間にリンクがあるとしている.HallidayとHasan\cite{halliday:76:a}は,表層的な文間のつながりを表す指標として,5種類の結束性(cohesion),すなわち,指示(reference),代入(substitution;たとえば,`anewone'における`one',`doso'における`do'などを用いた照応),省略(ellipsis),接続(conjunction),語彙的結束性(lexicalcohesion)をあげている.語彙的結束性は,関連性のある語彙が用いられることで,複数の文間の意味的なつながりが明示される場合であり,Skorokhod'koが文間にリンクを与えたのはこの場合に相当すると考えられる.Hoey\cite{hoey:91:a}は,この語彙的結束性の情報を利用し,文間で単語によるつながりが多いほど,文間のつながりが強いと考え,他の文とのつながりの強さに基づき,要約を作成する手法を示している.また,語彙的結束性の情報を,互いに関連のある単語のつながりである語彙的連鎖(lexicalchain)\cite{morris:91:a}として計算し,それを要約の知識源として用いる研究としては,佐々木ら\cite{sasaki:93:a}\footnote{佐々木らは,語彙的連鎖ではなく,結束チャートと呼んでいる.},BarzilayとElhadad\cite{barzilay:97:a},望月ら\cite{mochizuki:98:a}がある.奥西ら\cite{okunishi:98:a}は,テキストのタイトルを最も重要な文と考えた上で,重要な文とのつながりが強い文を重要と考える重要文抽出手法を提案している.文の重要度は,先行文とのつながりの強さと,先行文の重要度の積で計算されるが,文間のつながりの強さは,同一単語の出現により得られる語彙的なつながりの情報などを基に計算される.Maniら\cite{mani:97:a}は,テキスト中の単語などがノードであり,その間の,隣接性,構文的関係,共参照関係,語彙的類似性などの関係をアークで表現したグラフでテキストを表現し,このグラフ中での活性値の伝播により,高い活性値を得た単語,句,文を重要とみなす重要文抽出手法を示している.検索結果のテキストの適切性判定に要約を用いる評価方法で,活性値が上位5文の要約(提案する手法による)と原文を比較した結果,精度を落すことなく,短い時間で適切性判定ができることを示している.Maniら\cite{mani:98:a}は,上で述べた,単語間のつながり(結束性)に基づく要約手法と,節,文間の関係を解析したテキスト構造に基づいた要約手法を比較している.テキスト構造を利用した手法としては,(4)で紹介したMarcuの研究を利用している.人間の選択した重要文との一致度で評価した結果,テキスト構造を利用した手法の方がわずかではあるが良い結果を得られることを示している.\subsubsection{(7)テキスト中の文間の類似性の利用}情報検索の分野では,テキスト(や,その断片)を,その中に出現する単語の重みのベクトルとして表現することが多い.このような表現を用いると,テキスト間の類似度は,テキストを表現するベクトル間の内積等で計算することができる\footnote{ここで利用される単語の重み付け手法及び,ベクトル間の類似度計算手法の数々については\cite{salton:89:a}を参照して欲しい.}.これと同様に,テキスト中の文(段落)を一単位として,それらの間の類似度を計算し,この類似度を文(段落)間のつながりの度合と考え,この情報を基に,重要と考えられる文(段落)を抽出する手法がいくつか提案されている.これらの手法は,文(段落)間で共通の単語が出現する度合に基づき計算される文(段落)間のつながりにより,重要文(段落)抽出を行なっていると考えられる.Saltonら\cite{salton:96:a}は,段落をノードとし,(ある閾値以上)類似度の高い段落同士をリンクで結んだtextrelationshipmapsをまず生成し,そこから重要段落を抽出する.Mitraら\cite{mitra:97:a}は,この手法を,人間の抽出した重要段落との比較により評価している.百科辞典の見出し語に対する項目を対象に,2人の人間の抽出した段落の一致の度合46\%に対し,人間の段落とシステムの段落の一致の度合は,ほとんど変わらないとしている.先頭20\%の段落を抽出した場合が提案手法を上回る精度を得ているが,これは,百科辞典が新聞同様,先頭に見出し語の定義など,主要な内容を含んでいるからと考えられる.亀田\cite{kameda:96:a}は,2文間にどのくらい共通な単語(キーワード)が現れるか\footnote{厳密には,どの程度単語の部分文字列に重複があるか}に基づいて計算した文間関連度(の平均)と,ある文が他の文とどの程度広く関連があるかというカバレジに基づいて文の重要度を計算する手法を提案している.福本\cite{fukumoto:97:a}も,文を単語の(重みの)ベクトルとして表現し,ベクトルの内積で文間の結合度を計算し,結合度の高い文を順に抽出する手法を提案している.\subsection{複数の表層的手がかりを統合して用いる要約手法}前節で述べたように,重要箇所抽出には,これまでさまざまな情報が用いられてきている.これらの情報のうち一つを用いた手法も提案されているが,一般に複数の情報を同時に用いた方が精度を改善できるとの考え方に基づき,複数の情報を統合して重要箇所抽出に用いる研究が数多く見られる.本節ではそのような研究を概観する.山本らのシステムGREEN\cite{yamamoto:95:a}は,以下にあげる2つの情報を用いた要約システムである.\begin{description}\item[文の種類]人手で作成したパターンにより文の種類を分類し,著者の主張等を述べた文(見解文)のみを抽出する,\item[テキスト中での位置]テキスト,段落の先頭,最後の文を抽出する\end{description}この他に,重要文として抽出される文の先頭に指示語や接続詞が出現する場合,あるいは,抽出される文の主語が省略されている場合,前文との結束性が強く,単独で要約中に存在すると不自然であると考え,前文も要約に追加する処理を行なっている.また,重要文中で比較的重要度が低いと考えられる連体修飾句の削除を行ない,さらに要約を短くすることを試みている.要約の評価は,要約の自然さ,内容の適切さに関する被験者へのアンケートにより行なっている.亀田\cite{kameda:97:a}は,類似した単語(キーワード)が2つの文に共に出現する度合に応じて計算される文間関連度に基づいて,テキスト中の文の重要度を計算する,以前の手法(2.1節(7)参照)\cite{kameda:96:a}に,段落や見出しの情報などを追加して重要文の抽出を行なう手法を提案している.この手法では,文間関連度に基づく文自体の重要度の他に,段落間関連度を用いて段落の重要度のランキングを行ない,段落の重要度を文の重要度に加味する(重要度の高い段落中の文に,より大きい重要度を付与する).さらに,見出し文と関連する文(2.1節(3)参照)や,重要性を示す機能語句を含む文(2.1節(5)参照)を重要視する補正をこれに加え,最終的な文の重要度を計算する.被験者の抽出した重要文との一致の度合により評価を行ない,以前の手法,市販のソフトウェアとの比較の結果,提案した手法が優れていることを示している.このように,テキスト中の箇所(文,段落)に重要度を付与する情報を複数統合する際には,情報の統合の方法が問題となる.これまでの研究では,個々の情報により付与された重要度に,それぞれの情報の重みをかけたものを足し合わせ,全体としての重要度とする手法がよく用いられている\footnote{ある文に対して複数の情報が矛盾する判断をする場合や,また,複数の情報間に依存関係がある場合などを考慮すると,単純に複数の情報をスコアとして統合するのが適切なのかという疑問はある.}.このような重要度計算の手法を用いる場合,それぞれの情報に対する重み付けは,これまで人手でその重みを調整する手法が取られることが多かった.Edmundson\cite{edmundson:69:a}は,2.1節で上げた,いくつかの情報を人手で組み合わせた重要文抽出手法による実験を行ない,複数の情報を組み合わせることで,より良い結果が得られることを示している.個々の情報を用いた手法では,「位置情報」,「手がかり表現」,「タイトル等の情報」,「出現頻度」の順に精度が良い.しかし,最初の3つの情報の組合せがもっとも良い結果を得られたと報告している.間瀬ら\cite{mase:89:a}は,2.1節で上げた情報「タイトル等の情報」,「出現頻度」,「手がかり表現」,「段落中での位置情報」\footnote{間瀬らは,段落を表層的な情報を基に分割した,セグメントという意味的なまとまりも考慮に入れている.}に対応するパラメタおよび,「主題」(助詞「は」が後置する名詞),「文間の接続詞」などの情報を基にしたパラメタを組み合わせて利用する重要文抽出手法を示している.文の重要度は,各パラメタのスコアに,人手で決定したパラメタの重みをかけたものを総和することで計算している.さらに,抽出した重要文に指示語が存在する場合,先行詞を含む文を推定し同時に抽出したり,不要と考えられる接続詞や副詞を削除するなどの後処理を加えている.これに対し,近年要約文集合を訓練コーパスとして,機械学習手法などを用いることにより,複数の情報の統合方法を最適化する研究が盛んになってきている.複数の情報の重みを自動的に決定するのはその一例と言える.このような研究は,その学習法の違いから次の3つに大別できる.\newpage\begin{itemize}\item確率を用いたベイズ推定手法\cite{kupiec:95:a,jang:97:a,teufel:97:a}\item重回帰分析を用いた手法\cite{watanabe:96:a}\item決定木学習を用いた手法\cite{nomoto:97:a,aone:97:a}\end{itemize}Kupiecら\cite{kupiec:95:a}は,重要文抽出を統計的な分類問題とみなし,あらかじめ人手で選択した重要文を訓練集合とし,文が重要文集合に含まれるかどうかの確率を与える分類関数を求めておき,重要文はこの確率により文を順序付けることで抽出する重要文抽出手法を提案している.具体的には,属性(重要文抽出のための情報)集合が与えられた時の,文$s$が要約$S$に属す確率$P(s\inS|F_1,F_2,\ldotsF_k)$を計算する.属性集合としては,2.1節で述べた「出現頻度」,「手がかり表現」,「位置情報」に対応するものの他に,「短い文は重要文になり難い」,「固有名詞は重要であることが多い」という仮定を導入するための属性も利用している.人手で属性の重みの決定を行なったEdmundsonの研究と基本的に結果が一致している.また,テキストの先頭の文を抽出する手法をベースラインとすると,ベースラインの精度24\%に比べ,42\%平均の適合率を得ている.Watanabe\cite{watanabe:96:a}は,属性集合として,2.1節で述べた「出現頻度」,「位置情報」に対応するものの他に,「時制情報」(現在/過去),「文のタイプ」(事実/筆者の主張/推測),「前文との接続関係」(理由/例示/逆説/並列/...)を利用している.これらの属性それぞれの各文に対するスコアに属性の重みをかけたものの総和を文の重要度とするが,属性の重みを訓練データから重回帰分析を行ない求めている.Nomoto\cite{nomoto:97:a},Aoneら\cite{aone:97:a}はそれぞれ,人手による要約文を訓練データとし,決定木学習アルゴリズムC4.5\cite{quinlan:93:a}を用いて学習した決定木により,文を重要文/非重要文に分類し,重要文抽出を行なう手法を提案している.Kupiecらの手法と同様に,テキスト中の文が重要文集合に属すかどうかを分類する分類器を学習するが,ここでは,確率ではなく決定木を学習する.決定木学習は,あらかじめ分類済みの訓練データに属性情報を付加しておき,そのデータを正しく分類できるようなルール集合を決定木の形で学習することになる.Maniら\cite{mani:98:b}は,異なる学習手法を用いた要約の精度の比較を行なっている.「位置情報」,「単語の出現頻度」,「タイトル等の情報」,「文間の結束性の情報」を属性として用いている.対象テキストとしては,Teufelらと同じe-printarchive中の学術論文198編および著者の記述した要約を利用している.要約の長さは平均で原文の5\%であった.決定木学習を用いた結果から,位置情報,単語の出現頻度の情報が有効である一方,結束性の情報が効いていないことが明らかになった.また,学術論文で有効と考えられる「手がかり語の情報」を利用していないにもかかわらず,比較的良い結果を得ている.結果から,重回帰分析を用いた手法,決定木学習を用いた手法は,ほぼ同等な性能を得ているとしている.\subsection{重要文抽出に基づく要約の問題点}これまでの要約研究として,テキスト中の重要箇所の抽出とその連結による生成に基づくものを説明してきた.説明してきた手法のうち,単語の出現頻度を用いた手法や,単語間のつながりの情報を用いた手法では,テキストが複数の話題から構成されている場合,話題ごとに語彙の出現傾向が変わるため,十分な精度が得られない可能性がある.同様に,位置情報を用いた手法も,十分に機能しない可能性がある.このような場合は,テキストを何らかの手法(たとえば,\cite{hearst:94:b,mochizuki:99:a})で話題ごとに分割し,話題ごとに重要文を抽出する必要がある\cite{nakao:98:a}.また,重要箇所抽出に基づく要約手法の問題点としては,1)抽出した文中に代名詞などが含まれている場合,その先行詞が要約文中に存在する保証がないこと,2)テキスト中の色々な箇所から抽出したものを単に集めているため,抽出した複数の文間のつながり(首尾一貫性)が悪いことが指摘されている.Paice\cite{paice:90:a}は,テキスト中のキーとなる重要な文を抽出するために用いられる表層的な情報の概説(2節)の後,重要文抽出による要約作成の問題点として,上のような点を指摘し,その問題点の解決法について述べている.照応詞を含む文の前の数文を要約に追加したり,接続詞は削除したり,動詞の時制や態は調和がとれた流れにしたりすることで,部分的な解決が実現できることを示している(3節).また,テキストの構造の把握が要約文作成に重要であることを4節で述べている.2.2節で紹介した,山本らのシステムGREENでは,上に述べた問題点に対し,重要文として抽出される文の先頭に指示語や接続詞が出現する場合,あるいは,抽出される文の主語が省略されている場合,単独で要約中に存在すると不自然であると考え,前文も要約に追加することで対処している.2.1節(2)で紹介した,BrandowらのシステムANESでは,文の先頭に照応詞が出現する場合,その文を重要文として選択しないことや,また,段落の先頭でない文(2,3番目の文)が選択された場合,段落中のそれらの文の前の文を要約に追加するなどの方法で,要約の結束性を増すことを試みている.最後に,2.1節で説明した,重要箇所抽出のための様々な情報がどれも,すべてのジャンルのテキストで有効に機能するというわけではないことに注意しておきたい.新聞記事,学術論文など,テキストのジャンルが異なれば,有効な情報は異なるのが当然である.これまであまり議論されてこなかったが,テキストのジャンルと,重要文抽出に有効な情報の関係について,今後詳細に検討する必要があると考えられる.また,情報の組み合わせ方に関しても,テキストのジャンルによって,最適化した組み合わせ方での精度がばらつくこと,最適化した際に利用される属性集合が異なることなどが報告されている\cite{nomoto:97:a,aone:98:b}. \section{抽象化,言い換えによる要約手法} これまで述べてきた研究はどれも,「要約文=抽出したテキスト中の重要箇所の連結」という考え方に基づいていた.これは,要約を「原文から(何も変えずに)抽出したextract(抜粋)」と見なしているとも言うことができる.これに対し,「言い換えたり,合成したりすることで,原文の内容を表現し直し要約(abstract)として生成する」試みが近年いくつか見られるようになってきた.このabstractの生成のためには,通常のextract(テキスト中の重要概念の抽出)以外に,抽出した概念の統合,生成の過程が必要である.概念の統合は,抽出された複数の重要概念を,何らかの知識を用いて,より高い階層の概念にまとめることである.これにより,テキスト中の重要概念は,より少ない数の概念で表されることになる.概念の統合には,概念階層やスクリプトといった知識が必要となる.HovyらのSUMMARIST\cite{hovy:97:a}システムは,WordNetを概念階層として利用し,このような概念統合を実現している.Hovyらは,\begin{quote}Johnboughtsomevegetables,fruit,bread,andmilk.\end{quote}のような文を,概念階層を用いて,\begin{quote}Johnboughtsomegroceries.\end{quote}のように言い換える処理を,概念階層を用いた概念統合の例として示している.KondoとOkumura\cite{kondo:97:a}は,Hovyらの用いている概念階層以外に,EDR単語辞書中の単語の定義文をスクリプト知識と見なし,定義文を利用して,概念統合を実現する手法を示している.定義文は見出し語の説明であるため,逆に見出し語は定義文中に出現する動作系列の簡潔な言い換えになっていると考えられる.たとえば,\begin{quote}{\bf説得する}:よく\underline{話して}{\bf納得させる}\\{\bf納得する}:物事を\underline{理解して}{\bf承認する}\\{\bf承認する}:相手の言い分を\underline{聞き入れる}\end{quote}のように,それぞれの単語の定義文が与えられている場合,\begin{quote}私は彼女に事情を\underline{話した}.\\彼女は私の言う事を\underline{理解し},\\\underline{聞き入れてくれた}.\end{quote}のような文は,上の3つの定義文を利用し,定義文中の動作系列を再帰的に見出し語に言い換えることにより,\begin{quote}私は彼女を{\bf説得した}.\end{quote}のような文に要約できると考えられる. \section{ユーザに適応した動的な要約手法} これまでの要約研究は主に,対象となるテキストの情報を基に,要約は静的に決定できるという考え方で進められてきたように思われる.これに対して,近年,要約の利用される状況でユーザの要求に適合した要約を動的に作成する必要があるという考え方に基づいた研究が開始されている\cite{ochitani:97:a}.たとえば,情報検索において,ユーザがクエリを入力し,検索されたテキストが適切かどうかを判断する際に要約を用いる場合を考えると,要約はユーザが入力したクエリに即したものになっている必要があり,これまでのように,テキストの内容のみから作成していたのでは必ずしも十分ではないと言える.また,ユーザの持つ予備知識の程度に応じて,出力する要約の詳細さ,長さは可変であるべきであると考えられる.岩山ら\cite{iwayama:99:a}は,テキスト分類において,長いテキストを対象とする場合,テキスト中に複数の話題が含まれるなどにより,テキスト全体を単位とするよりも,テキスト中の断片を処理対象とした方が精度が改善できるという考えに基づき,パッセージ分類という手法を提案している.このパッセージ分類では,分類されるカテゴリと関連の強いパッセージをテキスト中から抽出しており,カテゴリを観点とした動的な要約作成を行なっていると言える.同様に,近年テキスト検索において注目されているパッセージ検索は,ユーザの入力したクエリに関連する,テキスト中のパッセージを抽出し,それを基に検索するわけなので,動的要約作成を行なっていると言える(たとえば,\cite{mochizuki:99:b}).Tombrosら\cite{tombros:98:b}は,「テキストのタイトル情報」,「テキスト中での位置情報」,「テキスト中の単語の出現頻度」に基づいた,従来通りの文の重要度に,クエリ中の単語が文中に出現する頻度に応じたスコアを加味することで,クエリに依存した重要文抽出手法を実現している.また,この手法で抽出されたquerybiasedsummaryの,情報検索時における有用性を,検索されたテキストのリストから適切なテキストを同定するタスクにおける,被験者の速さ,精度を計ることで評価している.querybiasedsummaryと,テキストの先頭数文を抽出した要約を比較することで,querybiasedsummaryの有用性が示せたとしている.塩見ら\cite{shiomi:98:a}も,「テキスト中の単語の出現頻度」に基づいた従来通りの文の重要度に,クエリ中の単語が文中に出現する頻度に応じたスコアを加味することで,クエリに依存した重要文抽出手法を実現している.Tombrosらと同様,情報検索時における有用性を,BMIR-J1を利用して評価した結果,要約率20\%の要約文において,従来の単語の出現頻度に基づいた手法と比較することで,提案する手法の有効性を示せたとしている.\vspace{2.0cm} \section{複数テキストを対象にした要約手法} これまで,単一テキストの要約作成に関する様々な手法について述べてきた.要約対象が複数テキストの場合,単一テキストの要約とは別に考慮すべき点が出てくる.まず,要約対象となる複数のテキストをどのように収集するのか.また,収集してきたテキスト間で内容が重複する場合,従来の単一テキスト要約の手法を個々のテキストに適用し並べただけでは,個々の要約の記述が重複する可能性があり,冗長で要約として適切ではない.そのため,冗長な箇所(テキスト間の共通箇所)をどのように検出し削除するかが問題となる.一方,冗長な箇所を削除しても複数テキストの要約文書としてはまだ十分であるとは言えない.複数のテキストを要約するとは,それらのテキストを比較し要点をまとめることであり,そのためにはテキスト間の共通点だけでなく相違点も明らかにすることが必要であると考えられる.さらに,要約文書を作成するためには,検出されたテキスト間の共通点や相違点を並べ,使用する単語の統一,接続詞の付与等の読み易さを上げるための処理を行う必要があると考えられる.従って,複数テキスト要約のポイントは次のようにまとめることができる.\[\left\{\begin{array}{lll}(a)&関連するテキストの自動収集&\\(b)&関連する複数テキストからの情報の抽出&\left\{\begin{array}{ll}(b)-1&重要箇所の抽出\\(b)-2&テキスト間の共通点の検出\\(b)-3&テキスト間の相違点の検出\\\end{array}\right.\\(c)&テキスト間の文体の違い等を考慮した&\\&要約文書の生成&\\\end{array}\right.\]複数テキスト要約に関するこれまでの研究には以下のものがある.Yamamotoら\cite{yamamoto:95:b},稲垣ら\cite{inagaki:98:b},柴田ら\cite{sibata:97:a},Radevら\cite{radev:98:a},Maniら\cite{mani:97:a}はいずれも,複数の新聞記事を対象に研究を行っている.また,難波ら\cite{nanba:99:a}は学術論文を対象に研究を行っている.複数新聞記事を要約対象とした,これまでの研究は,次に示す大きく2つに分類される.\begin{itemize}\item[(i)]ある事件について書かれた記事とその続報記事から要約を作成する,\item[(ii)]ある事件に関する複数の情報源(新聞社)の記事を要約対象とし,要約を作成する.\end{itemize}柴田らは,Fitという検索システムに文章融合機能を埋め込み,自動分類された新聞記事の融合を試みている.柴田らは複数の情報源から得られる記事からの要約作成を試みている((ii)).柴田らは,ある事項に関連する記事が複数の情報源から得られた場合,記事間の共通箇所を抽出することが関連記事の重要箇所を抽出することであると考えている.手法としては,出現頻度の低い形態素が異なるテキストで出現する場合それを含む文は重複文(テキスト間の共通点)の可能性が高いと考え,重複文を同定し,その片側を用いて要約作成を行っている.稲垣らも,柴田らと同様,ある事件について,複数の情報源(新聞社)から発行された記事から要約を作成する手法を提案している((ii)).「記事間の共通箇所を抽出することが関連記事の重要箇所を抽出すること」という考え方は,柴田らと同じであると言える.Radevらは,情報抽出手法により生成されたテンプレートを用いて,複数の新聞記事の要約を試みている.Radevらも,柴田ら,稲垣らと同様に複数の情報源から得られる新聞記事を要約対象としているが,同じ情報源から得られる続報記事についても考慮している((i)(ii)).要約対象はテロリストに関する記事にあらかじめ限定されている.まず,情報抽出手法によりテンプレートに犯人,犠牲者,事件のタイプなどの計25の情報を抽出する.次に,テンプレートを用いて要約を作成する.一般に,古い記事では不完全であった情報が続報記事中で明らかになった場合,要約作成には新しい情報を優先させる必要がある.また,同じイベントが異なる情報源でレポートされ,それらが互いに不完全な情報であるならば,組み合わせることで,より完全な情報が得られる場合がある.このような点を考慮し,複数記事から得られた情報の共通点,相違点を考慮し統合するための7種類のオペレータを準備し,要約作成を行っている.Maniらは,関連のある一組のニュース記事の要約を試みている.要約対象となる一組の記事が(i)であるのか(ii)であるのかについては,論文中では明らかにしていない.Maniらは,2.1節(6)で紹介したように,個々のテキスト(新聞記事)を関連する語句(ノード)の間にリンクを張ったグラフで表現している.そして,活性伝搬により,テキストの話題と関係するノード集合(サブグラフ)を検出する.記事間でそれらのサブグラフを照合することで,テキスト間の共通点と相違点の抽出を行っている.難波らは,特定分野の複数の論文からサーベイ論文を自動作成することを目指しており,その第1歩としてサーベイ論文作成支援システムを構築している.難波らは,論文間の参照情報に着目し,参照情報を用いて論文間の共通点や相違点を明らかにする手法を提案している.参照情報とは,論文中で,参照先論文について記述している箇所(参照箇所)から得られる情報のことで,参照先論文の重要点や,参照元と参照先間の相違点を明示する有用な情報が得られる.難波らは,参照箇所をcuewordを用いて解析し,論文の参照・被参照関係にリンク属性(参照タイプ)を付与している.特定のリンク属性が付与された参照関係を辿ることで,ある特定分野の論文を自動的に収集するのに近い処理を実現している.こうして収集された論文集合の参照関係のグラフや,個々の論文のアブストラクト,参照箇所を示すことで,ユーザに関連論文の共通点や相違点を明示できるため,サーベイ論文作成に有用であると考えられる.しかし,これらの情報を用いてサーベイ論文を自動的に作成するには至っていない. \section{文中の重要箇所抽出,不要箇所削除による要約手法} これまでの要約手法の多くは,テキスト中の重要な文あるいは段落を抽出することで実現されていた.しかし,文単位の抽出では,重要でないとして捨てられる情報の単位が文であることから,要約を作成する際に,情報が大きく欠落する可能性がある.そのため,文単位で抽出することでテキストを短くするのではなく,一文ごとに重要でない箇所を削り(あるいは,重要な箇所を抽出し),情報をなるべく減らさずに,テキストを短く表現し直す要約手法が近年提案され始めている.これらの手法は,段落,文,節を単位とした重要箇所抽出ではなく,句,文字列を単位とした重要箇所抽出(不要箇所削除)と言うことができる.これらの手法のもう1つの特徴として,具体的な利用目的を想定した要約研究として手法が提案されていることが上げられる.その一つが,文字放送,字幕を作成することを想定した要約手法としての,文の短縮である.文字放送,字幕を作成することを想定した場合,文字放送,字幕では体言止め,漢字熟語などを多用した,固有の表現が可能であること,また,文字放送,字幕用要約の場合,通常の要約と比べると,要約の長さをそれほど短くする必要がないことなどから,不要と考えられる文字列を削除したり,表現をより簡潔な別の表現に言い換えるなど,表層の文字列に関する処理で,ある程度文を短縮することが可能である.文末のサ変動詞を体言止めにする(「7月中に解散します」$\rightarrow$「7月中に解散へ」),文末の丁寧の助動詞を削除する(「余震が相次ぎました」$\rightarrow$「余震が相次いだ」)などのような変換規則を用意し,文に対し変換規則を繰り返し適用することで,文はより短い文に変換される.若尾ら\cite{wakao:97:b}は,実際のニュース番組中の字幕を用いて,人手で作成されている字幕とニュース原稿を比較することで,字幕用の要約手法の分析を行なっている.要約手法として,表層の文字列の情報のみで可能な手法のみを取り上げ,5つに分類している.また,各手法の使用頻度,削減される文字数なども調査している.山崎ら\cite{yamazaki:98:a}も同様な手法を提案し,要約率91.2\%を得たとしている.若尾ら,山崎らがともに,元原稿と字幕を人手で分析し,要約のための規則を作成しているのに対し,加藤\cite{kato:98:b}は,この要約のための知識を自動的に獲得する手法を提案している.原文となるニュース文原稿と,要約文となる文字放送原稿のペアからなるコーパスを利用して,要約知識を自動獲得している.ペアとなる文間の対応をDPマッチングにより単語単位でとり,その後対応のとれなかった差分の部分を要約のための変換規則として獲得している.また,近年モバイルコミュニケーションが脚光を浴びているが,限られた通信・表示リソースしか持たないモバイル端末へのテキスト表示のための要約技術の研究も開始されている\cite{inagaki:98:a}.この場合も,重要文抽出ではなく,情報をなるべく欠落させず表示する必要があることから,字幕作成の場合と同様な技術が用いられる.一方,テキストを構文解析し,その結果を利用して文中の重要箇所を抽出する手法がいくつか提案されているが,これらはいずれも,人間がテキストを走り読み(skimming)することを支援するために提案されている手法である.亀田\cite{kameda:95:a}の日本語文書読解支援系QJRのskimming支援では,文書の速読を支援する目的で,簡易日本語解析系QJPによる文の係り受け解析の結果を基に,文の骨格となる文節群のみを強調表示する機能を提供している.Grefenstette\cite{grefenstette:98:a}は,視覚障害者が音声合成器を介してテキストをskimmingするための文の単純化手法を提案している.Grefenstetteが以前開発したshallowparserを基に文を構造化し,文の骨格となる,文中の重要箇所を抽出している.これらの研究以前にも,山本ら(2.2節参照),Mahesh(7節参照)などのように,抽出した重要文中の不要箇所を削除し,さらに要約文を短くすることを目的として,構文解析を利用した文中の重要箇所抽出は行なわれている.この場合も,構文解析結果から,連体修飾句,埋め込み文,従属節などを不要として削除している. \section{要約の表示方法について} これまでの要約研究においては,要約は,原文同様テキストとして,出力されることが一般的であったと言える.しかし,2.3節で述べたように,重要箇所抽出に基づく,伝統的な要約手法では,出力される要約が,テキストとしてのまとまりを十分構成しておらず,読み易さの点で問題があることが指摘されている.また,4節で触れたように,要約の長さは,ユーザが自分の関心に応じて自由に変えられるようになっていることが望ましいという指摘もある.このような立場から,近年要約を,単なるテキストとしてではなく,他の形でユーザに表示する試みが行なわれ始めている.Mahesh\cite{mahesh:97:a}は,要約過程を,テキストからのhypertextの構成過程ととらえ,重要な箇所が前面にあり,そこからリンクをたどることで,より詳細な情報が段階的に得られるような枠組を提案している.従来の研究が(ある決まった要約率の)要約と,(要約する前の)テキスト全体という2つの要素しか提示しなかったのに対し,ユーザが自分の関心に応じてリンクをたどることで,さまざまな要約率の要約を段階的に参照可能である枠組である.テキストからの重要文抽出は従来の手法を用いているが,その後処理として,抽出した文を(部分的に)構文解析し,埋め込み文,従属節などを削除することで,さらに要約文を短くすることを試みている.SaggionとLapalme\cite{saggion:98:a}は,ユーザに適応した要約の出力法として,indicativeな要約をまず表示し,そこから,要約が対応するテキスト中の断片がたどれるようにしておき,ユーザは自分の関心に応じ,そのリンクをたどることで,より情報量の多い(informativeな)要約を見ることができるような枠組を示している.これらの研究はどちらも,重要文抽出手法で得られた要約の,テキストとしての首尾一貫性の欠落の問題に対して,要約を表示する際,表示した要約が1つのまとまったテキストでは本来なく,したがって,首尾一貫性がない可能性があること(前後の文は無関係であるかもしれないこと)を明示してやることで,部分的な解決を試みていると言え,興味深い. \section{要約の評価方法について} これまでの単一テキストを対象とする要約研究の多くは,人間の被験者の作成した要約文と,システムの作成した要約文を比較し,システムの要約文の再現率,適合率を評価尺度とした評価を行なっていた.しかし,人間においても要約というタスクは必ずしも容易ではなく,人間の被験者による要約が必ずしも高い割合で一致するとは言えない.また,この評価法の前提とする「ただ一つ正しい要約が存在する」という仮定が不自然であるという批判が以前からあり,要約システムの評価方法は再検討される段階にあると言える.これに対して,Miikeら\cite{miike:94:a}は,要約を利用して人間がタスクを行なう場合の,タスクの達成率が間接的に要約の評価となるという考え方に基づき,評価を行なっている.具体的には,情報検索における検索テキストの適切性の判断をする際に要約を用いることで,要約を評価し,タスクに要する時間と,検索の再現率,適合率で評価を行なっている.DARPATipsterプロジェクト(PhaseIII)の評価\cite{hand:97:a}においても,同様に,上の仮定の不自然さから,タスクに基づく評価方法が採用されている.Tipsterプロジェクトでは,テキストの分類,情報検索における検索テキストの適切性の判断それぞれに要約を利用し,被験者のタスクに要する時間(要約しないテキスト全体を用いた場合とも比較する),タスクの精度により要約を評価する.一方,間瀬ら\cite{mase:89:a}は,原文を読んだ後および,その要約だけを読んだ後,原文の内容を問うテストを被験者に行ない,テストの得点比で要約の評価を行なっている.テストの問題作成の困難さが問題点として残るが,原文を伴わない状況での利用を想定した要約の内容の十分性の評価としては興味深い手法である.このように,要約を用いて人間の被験者が何らかのタスクを実行する際の精度等を問題にするのではなく,要約を利用して何らかのタスクを実行する応用プログラムの精度を示すことで,間接的に要約の評価を行なうという試みも見られる.隅田ら\cite{隅田:97:a}は,抽出した要約文のみを索引およびスコアづけの対象としたテキスト検索システムの評価を行ない,テキスト全体を索引等に用いた場合に比べ,精度の向上が実現できることを示すことで,抽出した要約文がテキストの大意の把握に成功していることを間接的に実証している.良い要約が得られれば,重要な概念や単語のみが索引語として利用されるので,検索の精度が改善されるはずであるという仮定にこの評価は基づいている.このような,要約文の内容に関する評価とは別に,要約文の「文章としての読み易さ」を評価する評価方法も考えられる\cite{minel:97:a}.2.1節(2)で紹介した,Brandowら,Wassonは,人間の受容可能性判断に基づいて要約を評価している.受容可能性は,人間が,原文と照らし合わせて,内容と読み易さに関して,受容可能/不可能の判定を要約に対して行ない求められる指標である.要約は,本来このように,内容に関する評価と,読み易さに関する評価の,両方の次元で評価されるべきであると言え,今後もより良い要約の評価方法の模索は続けられるものと考えられる.1節で述べたように,要約は一般に,その利用目的に応じて,次の2つのタイプに分けられることが多い\cite{hand:97:a}.\begin{description}\item[indicative:]原文の適切性を判断するなど,原文を参照する前の段階で用いる\item[informative:]原文の代わりとして用いる\end{description}Miikeら,Tipsterプロジェクトの評価は,要約をindicativeなものとして評価していると言うことができる.一方,間瀬ら,隅田らの評価は,informativeなものとしての要約の評価を行なっていることになる.ここで,Tipsterプロジェクトにおける評価方法について,もう少し詳しく触れておく\footnote{TipsterのSUMMACに関する,簡単な報告が\cite{fukumoto:98:a}にある.}.Tipsterプロジェクトの評価法は,上にも述べたように,タスクに基づくものであるが,そのタスクは,以下の3つからなる\footnote{Tipsterでは,これらのタスクに基づく評価以外に,受容可能性による評価も合わせて行なっている.}.\\\\\begin{tabular}{ll}Task&Summarytype\\\hlinecategorization&generic,indicative\\adhocretrieval&query-based,indicative\\question-and-answer&query-based,informative\\\end{tabular}\\\\`query-based'要約は,4節で述べた,ユーザの要求に特化した要約,`generic'な要約は,特化しない要約を意味する.最初の2つのタスクでは,10\%の要約率での要約と,開発者が「最も良い」と考える要約(長さは問わない)を基に評価を行なう.3つ目のタスクでは,質問に対する解答の正当率で要約を評価する.質問はテキストごとに変わるものではなく,queryで示されたtopicごとに5つ用意される.あるtopicに関する質問の正解は,質問作成者自身が,(質問に対する正解を与えていると判断した)原文のpassageを選ぶことで決定される.評価は,このpassageを要約がどの程度含むかで人間が判断する.評価の指標であるAnswerRecallは,correct,partiallycorrect,missingの3段階で判断される.要約の評価方法としては,上述した,間瀬らの手法と同様なものと考えられる.一方,5節で述べた,複数テキストを対象とする要約研究や,6節で述べた,文中の重要箇所抽出による要約研究の評価は,研究が始まったばかりでもあり,十分な議論がなされてきていないと言って良い.5節で述べたように,複数テキストを対象とする場合,冗長な重複箇所を検出し,削除することが必要となるため,「冗長箇所をどの程度正しく削除できているか」\cite{funasaka:96:a},「テキスト間の類似箇所と相違箇所をどの程度正しく抽出できているか」\cite{mani:97:a}という観点での評価が行なわれている.また,難波ら\cite{nanba:99:a}は,「要約に必要な記述内容(参照箇所)をどの程度正しく抽出できているか」を評価している.しかし,複数テキストから作成された要約文全体に関する評価はこれまでなされておらず,どのような点を評価すべきかということも明らかではない.今後,作成された要約全体の評価について検討していく必要があると考えられる. \section{おわりに} テキスト自動要約に関する,これまでの研究動向を概観してきた.自然言語処理の分野では,近年頑健な解析手法の開発が進んでいるが,これらの手法を用いた要約研究が今後も数多く提案されるようになると思われる.2.1節(4)で述べた「解析したテキスト構造を利用した」要約手法も,テキスト構造を解析する頑健な手法が開発されて初めて実現可能な手法であり,また,照応解析を利用した要約手法\cite{boguraev:97:a}など,頑健な文脈処理を利用した要約手法が今後盛んに研究されることと思われる.頑健な文脈処理を利用した手法は,2.3節で述べたような,伝統的な重要箇所抽出による要約の問題点の解決にも貢献できる可能性が高いと言える.この他にも,複合語を抽出しそれを利用する,また,固有名詞を抽出し,そのタイプ(人名,場所,会社名など)わけを利用するなどして,要約手法をこれまでの単語に基づく単純なものから,より詳細な情報に基づくものに拡張し精度向上を図る試み\cite{aone:97:a}も増えていくと思われる.また,6節で紹介したような,文中の不要箇所を削除したり,重要箇所を抽出したりすることによる要約手法では,頑健な(部分)構文解析手法の利用が不可欠であると考えられる.最後に,本稿以外の過去の解説および参考文献を紹介しておく.\cite{HLTsurvey}の7.4節にSparkJonesの簡単な解説がある.\cite{paice:90:a}も,対象が論文中心ではあるが,2.1節で述べたように,これまでの手法の解説を含んでいる.InformationProcessing\&ManagementのVol.31,No.5(1995)は自動要約(AutomaticSummarizing)の特集号である.本稿では述べなかった,要約の生成過程に関する研究として,3編の論文が収録されている.\cite{EAI}にもAltermanの解説がある.この解説は,対象が物語中心であり,領域知識を用いた手法に関してのみが説明されている.\cite{niggenmeyer:98:a}の5章は,計算機による要約手法をまとめた章となっている.人間の要約過程に関しては,\cite{sakuma:89:a},\cite{niggenmeyer:98:a}などに詳しい分析がある.また,テキスト自動要約に関するWebpageを最近作成した(\verb+http://galaga.jaist.ac.jp:8000/pub/research/summarization/+).興味のある方は参照して頂きたい.\acknowledgment本稿を執筆する機会を与えて下さった,本特集号編集委員の皆様にまず感謝します.本稿をまとめるに当たっては,自然言語処理学講座に在籍する,望月源君,近藤恵子さん,徳田昌晃君の協力が大きな助けとなりました.ここに記し,感謝します.また,本稿の予稿にコメントを寄せて下さった通信・放送機構(TAO)の福島孝博氏,日立中央研究所の小林義行氏に感謝します.TipsterのSUMMACに関連する貴重な資料は,ニューヨーク大学の関根聡氏,ジャストシステムの野村直之氏に提供して頂きました.ここに感謝します.\bibliographystyle{jnlpbbl}\bibliography{v06n6_fw}\begin{biography}\biotitle{略歴}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,語彙知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.e-mail:oku@jaist.ac.jp.}\bioauthor{難波英嗣}{1972年生.1996年東京理科大学理工学部電気工学科卒業.1998年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.同年同大学院博士後期課程,現在に至る.自然言語処理,特にテキスト自動要約に関する研究に従事.情報処理学会,人工知能学会各学生会員.}\end{biography}\end{document}
V08N03-07
\section{はじめに} 日本語とウイグル語は共に膠着語である.膠着語には,概念などを表し単独で文節を構成することが可能な自立語と,単独で文節になることはなく,自立語に接続して,その自立語の文中での役割を示したり,自立語に新たな意味を付加する付属語の区分がある.膠着語では,付属語がよく発達しており,言語構造上重要な役割を果たす.これらの特徴は,日本語とウイグル語だけでなく,韓国語,トルコ語,モンゴル語などのアルタイ語系に属する言語に共通するものと考えられている\cite{JPORG}.このグループに属する言語間の機械翻訳については,グローバル化の流れの中で多言語間機械翻訳の重要性が高いにもかかわらず,これまでほとんど行われておらず,日本語と韓国語との翻訳について研究されているのが目立つに過ぎない.そのような状況の中で,ムフタル,小川らは,日本語--ウイグル語機械翻訳の研究を開始した.ムフタル,小川らは,これらの言語に共通する特徴を有効に利用した日本語--ウイグル語機械翻訳の研究を進めている\cite{SHURON}\cite{OGAWA2000}.その特徴の一つは語順の自由度である.日本語は語順が比較的自由であると言われ,例えば,(1)「私が本を買った」と(2)「本を私が買った」は,いずれも日本語として正しい表現である.これは,日本語では文節の役割が付属語によって示されるためである.この性質は同じ膠着語であるウイグル語にも見られ,(1)の直訳となる``m!enkitapnisetiwaldim''という表現も,``m!en''(私)と``kitap''(本)を入れ替えて(2)の直訳とする``kitapnim!ensetiwaldim''という表現も,いずれもウイグル語として可能である.そのため,日本語文をウイグル語へ翻訳する場合,日本語の語順そのままに翻訳が可能である.そこで,ムフタルらは,日本語文の形態素解析結果を逐語訳することを基本とした日本語--ウイグル語機械翻訳システムを開発している.特に\cite{OGAWA2000}では,動詞句の翻訳に焦点を当て,派生文法\cite{KIYOSE1991}を利用することで動詞付属語を含めた動詞句に対して自然なウイグル語訳を与えることを可能としている.ところで,日本語からウイグル語へ語順そのままでの翻訳が可能なのは,名詞付属語,特に格助詞によって文節の役割が明示されているからである.これも,日本語とウイグル語に共通する特徴の一つである.しかし,このことは,格助詞を正しく翻訳できなかった場合は翻訳文が意味不明なものになることを意味する.そこで,本論文では,日本語--ウイグル語機械翻訳の中での格助詞の取り扱いを検討する.格助詞は日本語だけでなくウイグル語にも存在し,例えば\cite{TAKEUTI}では,格語尾と呼ばれている.日本語の格助詞とウイグル語の格助詞には対応関係が見られるが,いわゆる多義性の問題が存在し,日本語の格助詞に複数のウイグル語格助詞が対応する場合がある.本論文では,単に格助詞を翻訳するだけでなく,こうした格助詞の多義性も考慮して適切な格助詞の翻訳を行う手法を提案する.日本語と他の膠着語との間の機械翻訳に関する研究では,日韓機械翻訳が盛んである\cite{KMT4,H_LEE1989,J_KIM1996_2,C_PARK1997}.これらの研究の多くは,日本語と韓国語の語順の類似性や,格形式の類似性を利用し,逐語訳を基本とする翻訳が進められており,比較的品質の良い翻訳を実現しているが,その一方で,語彙の多義性の解消が重要な課題であることが指摘されている\cite{KMT4}.多義性に関する研究については,\cite{H_LEE1989,J_KIM1996_2,C_PARK1997}などがあり,動詞の格パターンと意味解析を利用する手法\cite{H_LEE1989},入力文の前後に出現する単語との接続関係を利用する手法\cite{J_KIM1996_2},連語パターンを用いる手法\cite{C_PARK1997}などが提案されている.本論文では,品質の高い日本語--ウイグル語機械翻訳システムの構築を目指して,動詞の格パターンを利用した,格助詞の翻訳手法を提案する.まず,計算機用日本語基本動詞辞書IPAL\cite{IPAL}を用いて両言語の格助詞間の対応関係について詳細な調査を行うとともに,動詞の格パターンを獲得する.さらに,それを利用した格助詞の変換処理を実現し,評価実験を行った.評価実験に使用する日本語--ウイグル語機械翻訳システムは\cite{OGAWA2000}で提案されたシステムに,本論文で提案する格助詞変換処理のモジュールを加えたものである.この方法では,あらかじめ獲得した格パターンと格助詞の対訳の情報を,必要に応じて日本語--ウイグル語の対訳辞書のウイグル語動詞に付加する.実際の翻訳の過程は,まず,翻訳対象である日本語入力文を形態素解析し,それぞれの形態素をウイグル語に逐語訳する.この段階で,すべての単語にデフォルトのウイグル語訳が与えられる.次に,ウイグル語動詞に付加された格パターンと,入力文中に出現した格パターンとを比較し,デフォルト訳では不自然な訳語となる格助詞を適切な他の訳語に置き換える.最後に,訳出のウイグル語形態素を接続してウイグル語文を生成する.本論文では,ウイグル語における同じ格助詞の音便形を,すべて一つに統合して議論する.例えば,格助詞``g!e''は,音便変化により``!ga'',``k!e'',``!ka''などの形もとるが,本論文中では,すべて``g!e''と表記する.なお,実際の翻訳システムでは,最後のウイグル語文生成の段階で音便形に従って変化させる.また,ウイグル語には,日本語には存在しない人称接尾辞がある.例えば,同じ「買う」でも,「私が買う」``m!ensetiwali\underline{m!en}''と「彼が買う」``usetiwali\underline{du}''では,下線部に示すように,それぞれ別々の人称接尾辞が接続する.しかし,本論文中では,いくつかの例文を除いて三人称に統一して議論する.ウイグル語には,アラビア文字に似た32の文字があり,文は右から左へと書かれる.それとは別に,ローマ字表記を用いる場合もあり,本論文では,便宜上,ローマ字表記を用いることにする.不足する文字の代わりに,!c,!e,!g,!h,!k,!o,!s,!u,!zを用いる.ウイグル文字とローマ字表記の対応に関しては,付録Aを参照されたい.本論文の構成は以下の通りである.まず2章では,日本語--ウイグル語機械翻訳における格助詞の重要性とその問題点について指摘する.3章では,計算機用日本語基本動詞辞書IPAL\cite{IPAL}における格助詞の使用状況と,対応するウイグル語訳語の分布に関する調査結果を示す.4章では,本論文で提案する日本語--ウイグル語機械翻訳における格助詞の変換処理について述べ,5章で本手法に基づく実験結果を示す.6章は本論文のまとめである. \section{日本語とウイグル語の格助詞} label{prrel}日本語やウイグル語のような膠着語では,助詞の機能がよく発達している.特に,格助詞は,ある語の文中での役割を決めたり,他の語との関係を決めるなど,文の構造を決める上で重要な役割を果たしている.例えば,「先生」,「教室」,「生徒」,「本」,「大きい声」,「読ませた」の六つの概念語があるとすると,そのままでは,どれが主体か,どれが被動態かなど,それらの文中での役割や相互関係は明確にならない.しかし,以下のように格助詞の「が」「で」「に」「を」を用いることによって,それらが明確になる.\begin{center}先生\parbox[t]{3ex}{\underline{が}\vspace{-1ex}\\{\footnotesize(1)}}教室\parbox[t]{3ex}{\underline{で}\vspace{-1ex}\\{\footnotesize(2)}}生徒\parbox[t]{3ex}{\underline{に}\vspace{-1ex}\\{\footnotesize(3)}}本\parbox[t]{3ex}{\underline{を}\vspace{-1ex}\\{\footnotesize(4)}}大きい声\parbox[t]{3ex}{\underline{で}\vspace{-1ex}\\{\footnotesize(5)}}読ませた\end{center}日本語とウイグル語の格助詞は機能的には同じであり,日本語のある格助詞の一つの機能に相当する格助詞は,ほとんどウイグル語にも存在する.例えば,上の文に対するウイグル語訳は次のようになり,格助詞がそれぞれ対応していることが分かる.\begin{center}o!kut!ku!ci\parbox[t]{3ex}{\underline{\o}\vspace{-1ex}\\{\footnotesize($1'$)}}sinip\parbox[t]{3ex}{\underline{d!e}\vspace{-1ex}\\{\footnotesize($2'$)}}o!ku!gu!cilar\parbox[t]{3ex}{\underline{g!e}\vspace{-1ex}\\{\footnotesize($3'$)}}kitap\parbox[t]{3ex}{\underline{ni}\vspace{-1ex}\\{\footnotesize($4'$)}}yu!kuriawaz\parbox[t]{3ex}{\underline{d!e}\vspace{-1ex}\\{\footnotesize($5'$)}}o!ku!guzdi\end{center}これは,日本語--ウイグル語機械翻訳を行う上で,重要なポイントの一つである.なぜなら,例えば日本語を英語に翻訳しようとするとき,多くの場合,日本語の格助詞の機能を,英語の文中の語順,動詞の語彙的機能,あるいは英語の文全体の文脈などで表現しなければならない.そのため,構文解析などが必要になり日本語格助詞の取り扱いが複雑となる.それに対し,ウイグル語に翻訳する場合には,語順をそのままにし,さらに格助詞にも対応する訳語を与えるだけで翻訳が可能となる.よって,形態素解析が終了した段階で,格助詞を含む各単語を逐語訳することによって翻訳が可能となる.しかし,日本語とウイグル語の格助詞は,必ずしも一対一に対応する訳ではない.例えば,「仕事\underline{を}片付ける」``ixlar\underline{ni}ye!gixturidu'',「ゴミ\underline{を}捨てる」``!ehl!et\underline{ni}t!okidu''のような文では,格助詞「を」は``ni''に翻訳される.しかし,「大学前\underline{を}通る」``univirsititningaldi\underline{din}!otidu'',「橋\underline{を}渡る」``k!owr!uk\underline{din}!otidu\footnote{直接的に関係はないが,ここでは,「通る」と「渡る」の両方のウイグル語訳は``!otidu''になる.}''といった文では,「を」は``din''に翻訳される.一般に,前者の「を」の機能は対象を示すものであり,後者の機能は場所を示すものであると言われる.つまり,日本語の「を」に対応するウイグル語の格助詞は,「を」の機能によって異なるのである.また,場所を示す「を」は,「通る」「渡る」などの移動動詞と一緒に出現する場合が多いことから,「を」を含む名詞句が係る動詞に依存して「を」に対応するウイグル語の格助詞が決まるとも言える.先に述べたように,日本語とウイグル語では格助詞が文章を読解する上で重要な役割を果たすため,日本語--ウイグル語機械翻訳においても,正しく翻訳する必要がある.そのため,日本語の格助詞に対応する複数のウイグル語格助詞の中からどれを選択するかという決定は,日本語--ウイグル語機械翻訳において大きな課題である.そのためには,まず日本語の格助詞の機能を調べ,それに対応するウイグル語の格助詞を決めなければならない.一般的な助詞の機能や対応関係は\cite{NLC93}などで詳しく調べられており,ここでは格助詞だけに的を絞る. \section{動詞辞書調査に基づく日本語--ウイグル語の格助詞の対応付け} 前章で述べたように,日本語とウイグル語には共に格助詞が存在するが,一般的に,それらは一対一に対応するとは限らない.日本語の一つの格助詞が複数の意味(機能)を有しており,それぞれの意味に対して,別々のウイグル語の格助詞が対応するからである.その逆も真である.そのため,日本語からウイグル語へ翻訳する際には,日本語格助詞のそれぞれの機能に対応して,適切なウイグル語の助詞を訳語として選定する必要がある.したがって,日本語格助詞の機能を分類し,それぞれに対応するウイグル語格助詞を決定する必要があるが,本論文では格助詞と動詞との関係に着目した.日本語とウイグル語では,格助詞が動詞と密接な結合関係をもち,各動詞がそれぞれ決まった格パターン\footnote{結合価や格構造,格フレームという場合もある}を持っている.そのため,日本語--ウイグル語機械翻訳における格助詞の機能の決定と訳語の選定は,動詞と切り離して考えることはできない.そこで,我々は計算機用日本語基本動詞辞書IPAL\cite{IPAL}中に出現した格助詞の機能を調査し,それぞれの出現において対応するウイグル語格助詞はどれになるかという観点から分析し,対応付けを行った.\cite{IPAL}を用いたのは,日本語の基本的な動詞とそれらの意味や用法が格パターンの観点から説明されており,両言語の格助詞の機能及びそれらの間の統計的な対応関係を調べるのに適していると考えたからである.\cite{IPAL}には,900に近い日本語動詞があり,各動詞のそれぞれの意味を説明するための例文3473文が含まれている.今回の調査では,それらの例文において動詞の格形式パターンとして示されたすべての格助詞に対してウイグル語の訳を与え,それらの統計を取った.ここでは,日本語からウイグル語への機械翻訳を想定しているため,日本語の格助詞が,ウイグル語のどの格助詞にどのように対応しているかを中心に調査を行った.\begin{table}[btp]\caption{格助詞間の統計的対応関係}\label{tab:ipal}\begin{center}\begin{tabular}{c|rrrrrrrr|r}\hline格助詞&\multicolumn{8}{c|}{対応するウイグル語とその数}&合計\\\hline&\cc{\o}&\cc{ning}&\cc{g!e}&&&&&&\\が&3637&77&5&&&&&&3719\\&97.7\%&2.0\%&0.3\%&&&&&&\\\hline&\cc{ni}&\cc{ni/\o}&\cc{din}&\cc{\o}&\cc{g!e}&\cc{d!e}&\cc{\itfault}&&\\を&1566&320&118&34&19&4&47&&2108\\&74.3\%&15.2\%&5.6\%&1.6\%&0.9\%&0.2\%&2.2\%&&\\\hline&\cc{g!e}&\cc{d!e}&\cc{din}&\cc{\o}&\cc{\itfault}&&&&\\に&1183&294&81&16&35&&&&1609\\&73.5\%&18.3\%&5.0\%&1.0\%&2.2\%&&&&\\\hline&\cc{d!e}&\cc{bil!en}&&&&&&&\\で&638&14&&&&&&&652\\&97.8\%&2.2\%&&&&&&&\\\hline&\cc{d!ep}&\cc{\o/d!ep}&\cc{bil!en}&&&&&&\\と&193&46&146&&&&&&385\\&50.1\%&12.0\%&37.9\%&&&&&&\\\hline&\cc{din}&\cc{\itfault}&&&&&&&\\から&289&5&&&&&&&294\\&98.3\%&1.7\%&&&&&&&\\\hline&\cc{g!e}&&&&&&&&\\へ&236&&&&&&&&236\\&100\%&&&&&&&&\\\hline&\cc{din}&&&&&&&&\\より&14&&&&&&&&14\\&100\%&&&&&&&&\\\hline\end{tabular}\end{center}\end{table}ただし,日本語の「の」および,それに対応するウイグル語の``ning''は,どちらの言語の文法においても格助詞と分類されているが,「の」は「AのB」のような形でその格助詞的機能を果たしており,「AのB」全体が「名詞的」であるため,\cite{IPAL}では動詞の格パターンの構成要素として出現していない.同様に,格助詞「や」も動詞の格パターンの構成要素にならないため,\cite{IPAL}では取り扱われていない.そこで,本論文では,これらを除いた「が」「を」「に」「で」「と」「から」「へ」「より」について,対応するウイグル語格助詞が何になるかを調査した.その結果を表\ref{tab:ipal}に示す.それぞれの格助詞とウイグル語格助詞との対応関係について以下に考察する.\subsection{格助詞「が」}\label{sec:ga}今回の調査では,「が」の出現数が一番多く,全部で3719個あった.その内の3637個(97.7\%)がウイグル語の主格を表わす格助詞``\o''に対応していた.ここで,``\o''は空白を表わすが,ウイグル語では主格が確かに存在し,それを空白で表現しているのであり\cite{MULU},何かの格接尾辞があって,それが省略されている訳ではない.なお,格助詞「が」については,動詞だけでなく,「物価\underline{が}高い」などのように形容詞の主体に接続する場合もある.今回は,動詞だけを調査対象としたが,形容詞の主体になる場合の「が」に対するウイグル語訳も,多くの場合は``\o''である.その他,77個(2.0\%)は``ning''に,5個(0.3\%)は``g!e''に対応していた.``ning''はウイグル語で所有格を表す格助詞であり,日本語の格助詞「の」にほぼ相当する.今回の調査で「が」の訳語として``ning''が出現したのは以下の二つの場合である.一つは,「我\underline{が}国日本」などの例における所有を表す「が」であり,これをウイグル語に翻訳すると``Biz\underline{ning}D!ewlitimizYapon''(私たち\underline{の}国日本)\footnote{括弧内はウイグル語文に対する日本語への直訳的表現である.以下の場合も同様である.}となる.もう一つは,計算機用日本語基本動詞辞書IPAL\cite{IPAL}における「は」の扱いに起因するものである.\cite{IPAL}では,「このスカート\underline{は}サイズが合わない」における「は」を「が」と見なしているが,この文をウイグル語に訳した場合,``Buyopka\underline{ning}razmiriudulk!elm!eydu''(このスカート\underline{の}サイズが合わない)となり,こうした「は」は,「が」よりも「の」と見なしてウイグル語に置き換えた方が自然だと考えられる.``g!e''は,表\ref{tab:ipal}の結果から分かるように,主に日本語の「に」および「へ」に対応するウイグル語の格助詞である.これについても,\cite{IPAL}では「この仕事\underline{は}忍耐が要る」といった文の「は」を「が」と見なしているのため,今回の調査結果において「が」の訳語として出現した.この文に対するウイグル語訳は``Buhizm!et\underline{g!e}!cida!sli!kketidu''(この仕事\underline{に}忍耐が要る)となり,「は」を「に」と見なせば良いと考えられる.これら``-ning'',``g!e''への誤りは,係助詞「は」の取り扱いに起因する.本論文では,格助詞の取り扱いについて議論しており,係助詞「は」に起因する間違いについては扱わないことにする.「は」については,ウイグル語に相当する助詞が存在しないため,「は」を「が」「の」「に」「を」などの格助詞に変換した後で翻訳する必要がある.係助詞「は」をいずれの格助詞に置き換えるかの決定手法については今後の課題である.また,今回の\cite{IPAL}を使用した調査では出現しなかったが,日本語大辞典\cite{GDIC}によれば,格助詞「が」にはもう一つ,「願望・好悪・能力などを表したり,可能であることを言ったりする語の対象を示す」という機能もある.これは,例えば「水\underline{が}飲みたい」,「日本語\underline{が}読める」のような場合の「が」である.これらの「が」は対象を示しているから,ウイグル語訳する場合には,それぞれ``su(\underline{ni})\footnote{ここで``ni''が括弧内に表記されている理由は,次の「を」に関する議論を参照されたい.}i!ck!umbar''(水\underline{を}飲みたい),``Yapontili\underline{ni}o!kuyalaydu''(日本語\underline{を}読める)となり,「が」が対象格を表す``ni''に対応している.その一方で,例えば「飲みたい」については「私\underline{が}飲みたい」といった表現も可能であり,その場合の「が」は主格を表す``\o''に対応する.こうした例から,「が」については,単純に動詞と格助詞の関係からでは訳語を決定できない場合があることが分かる.「が」の機能をまとめると,多くの場合は``\o''と翻訳すれば良いが,``ning'',``ni''と翻訳すべきものが若干あることが分かる.\vspace{2pt}\subsection{格助詞「を」}\label{sec:wo}「が」の次に多く出現したのは「を」であり,全部で2108個出現した.その1566個(74.3\%)がウイグル語で対象格を表す``ni''に,320個(15.2\%)が``ni/\o''に対応していた.ここで,``ni/\o''は,格助詞``ni''に相当するが,省略することも可能であることを示している.ウイグル語では,動詞と目的語の関係が明らかな場合,対象を表す``ni''を省略する場合がある.例えば,「水\underline{を}飲む」を``sui!cidu''のように表現し,「水」``su''の後に格助詞が接続しない場合がある.``ni/\o''は,こうした場合を表している.これはあくまでも``ni''が省略されているのであり,主格を表す格助詞``\o''が出現している訳ではない.実際,先程の例文も「この水\underline{を}飲む」となった場合には,``ni''が記述され,``busu\underline{ni}i!cidu''となる.機械翻訳においては,``ni/\o''についても``ni''を訳出すれば良いと考えられるから,両者を合わせると,「を」については約9割が``ni''に相当すると考えられる.日本語大辞典\cite{GDIC}によれば格助詞「を」には,動作・作用の対象を示す機能以外にも,「橋\underline{を}渡る」のように通過点・経過する場所を示す機能や,「空港\underline{を}出発する」のように起点を示す機能があるとされる.これらの機能を示す「を」は,ウイグル語の格助詞``din''に対応し,上記の日本語文はそれぞれ``k!owr!uk\underline{din}!otidu''(橋\underline{から}渡る),``ayrudurum\underline{din}yolga!ci!kidu''(空港\underline{から}出発する)と翻訳される.今回の調査では,そのような例が118個(5.6\%)出現した.しかし,日本語の「を」のうち,対象を表す機能が常にウイグル語の``ni''に対応するのではない.例えば,「彼の無実\underline{を}信じている」における「を」は信じる対象を示しているが,この文に対する翻訳は``uninga!kli!gi\underline{g!e}ixinidu''となり,「を」は``g!e''に翻訳されている.ウイグル語の動詞``ixinidu''は,信じる対象を常に``g!e''で表す.また,「約束\underline{を}守る」``w!edisi\underline{d!e}turidu''のように,「を」が``d!e''と翻訳される場合もあった.なお,「守る」には,他のウイグル語動詞に翻訳される場合もあり,その場合には「を」も別の格助詞に対応する.例えば,「彼女は子供\underline{を}熊から守った.」は``Ubalilar\underline{ni}eyi!kdinsa!klidi.''となり,「守った」は``sa!klidi''に,「を」は``ni''に翻訳されている.これは,「を」の訳語がその機能だけで決まるのではなく,ウイグル語動詞との組み合わせで決まる場合があることを示している.言い換えれば,ウイグル語の動詞``ixinidu''は``g!e''を含む名詞句を,``turidu''は``d!e''を含む名詞句を必要とするのである.なお,今回の調査では「を」が``g!e''に対応するものが19個(0.9\%),``d!e''に対応するものが4個(0.2\%)あった.また,空白``\o''に対応した34個(1.6\%)は,``ni''を書かないほうが違和感がない場合である.例えば,「猶予\underline{を}与えた」``m!o!hl!etb!eridu'',「指示\underline{を}仰ぐ」``yolyoru!ksoraydu''などでは,``ni''が現れない.これは先程の「信じる」``ixinidu''の場合と異なり,``b!eridu'',``soraydu''の前の「を」が常に``\o''となる訳ではなく,``m!o!hl!etb!eridu'',``yolyoru!ksoraydu''という組み合わせで起きる,一種の慣用表現であると考えられる.また,日本語のある動詞をウイグル語に翻訳した場合,その動詞に直接対応するウイグル語の動詞がなく,言い回しを適当に変更して翻訳する場合がある.例えば,「その政策は世間から非難\underline{を}浴びた」のような文をウイグル語に翻訳する場合,「浴びる」に直接対応する動詞がウイグル語にないため,「その政策は世間から非難された」といった表現にして翻訳する必要がある.このような場合,ウイグル語文には「を」に対応する格助詞は存在しない.今回の調査では,こうした直訳不能の場合を失敗として数え,{\itfault}の欄に記述した.「を」に関しては,このような例が47個(2.2\%)出現した.以上の結果から,格助詞「を」については,多くの場合は``ni''と翻訳すれば良いが,動詞との組み合わせによっては,``din'',``g!e'',``d!e''と翻訳すべきものや,動詞だけでは決定できないものがあることが分かる.\subsection{格助詞「に」}\label{sec:ni}「に」は,全部で1609個出現し,その1183個(73.5\%)がウイグル語の``g!e''に対応した.これは,一般に与格と呼ばれる「に」の機能であり,「政府はY氏\underline{に}国民栄誉賞を与えた.」``!H!ok!um!etY!ep!endi\underline{g!e}h!el!kx!eripimukapatib!erdi.''といった文の「に」に相当する.一方,「に」には時間や場所を示す機能もあり,その場合には「青空\underline{に}気球が浮んでいる.」``K!okasman\underline{d!e}y!elxaril!eyl!ewatidu.''のように,ウイグル語の``d!e''に対応する.今回の調査では,``d!e''に対応するものが294個(18.3\%)あった.また,``g!e''にも``d!e''にも対応しない例として,「太郎が次郎\underline{に}優る」,「人工物が自然物\underline{に}劣る」のような比較の場合が81個(5.0\%)あった.これらの「に」はウイグル語では``din''となり,それぞれの文も``TaroJiro\underline{din}!ust!unturidu'',``S!un'in!ers!eT!ebi'in!ersi\underline{din}t!ow!enturidu''と翻訳される.この``din''は日本語の「から」「より」に相当するものである.また,16個(1.0\%)で「に」を``\o''としたものがあった.それは,「彼は弁護士\underline{に}なった.」``Uadwokat\underline{\o}boldi.''や「錬金術師は鉄を金\underline{に}した.」``Kimiyag!erqit!om!urnialtun\underline{\o}!kildi.''といった場合である.「に」が``\o''となるのは動詞「なる」「する」の二つの場合だけである.これは種類としては限られているが,動詞「なる」「する」は日本語において使用頻度の高い動詞であるため,翻訳に際して考慮する必要がある.また,言い換えないと翻訳できないものとしては,「彼女は木綿糸を帽子\underline{に}編んだ」などの例があった.この場合,ウイグル語では``upahtayipni!kalpa!k\underline{!kilip}!or!udi'',と表現される.ここで,「に」に相当する``!kilip''は,動詞「する」``!kilidu''のいわゆる連用形であり,ウイグル語の表現を日本語に直訳すると,「帽子にして編む」となる.また,「彼\underline{に}は子供が2人いる」という表現も``u\underline{ning}balisidinikkisibar''(彼の子供は2人である)のような言い換えが必要である.このような例は,今回の調査では35個(2.2\%)出現した.また,今回の調査では現れなかったが,「に」には,上記以外にも,「本を買い\underline{に}行く」のように目的を示す機能もある.これは格助詞「に」が動詞の連用形に接続しているパターンである.この場合は「本を買い\underline{に}行く」``kitapsetiwil\underline{!gili}baridu'',のようになる.ここで,``!gili''はウイグル語の動詞接尾辞の一種であり,格助詞ではない.「に」のこれらの機能をまとめると,多くの場合は``g!e''と翻訳すれば良いが時間や場所を表す場合には``d!e''となる.また,動詞によっては``din'',``\o''となるものが若干あることが分かる.\subsection{格助詞「と」}\label{sec:to}日本語とウイグル語の格助詞間の対応関係で,ばらつきが最も大きかったのは「と」である.今回の調査では385個出現したが,そのうちの239個(62.1\%)がいわゆる引用を表す表現であった.例えば,「合格しよう\underline{と}決心した」の場合の「と」であり,ウイグル語では``d!ep''に対応する.なお,ウイグル語の``d!ep''は本来は格助詞ではなく,動詞「言う」``d!eydu''の連用形であり,「言って」に近いものがある.よって,「…と言う」をそのまま``…d!epd!eydu''とすると,冗長さがあるため``d!ep''を省略し``…d!eydu''となることが多い.また,日本語の「…となる」という表現は「…になる」とほぼ同じであり,\ref{sec:ni}節で述べたように,この場合も格助詞は``\o''となる.今回の調査では,こうした例が46個(12.0\%)あった.引用以外の「と」の用法としては,動作や状態を共にする相手を表す場合や(「先生\underline{と}行く」)や,並列を表す場合(「A\underline{と}B」),比較の対象を表す場合(「彼\underline{と}話が合わない)がある.これらの場合は,ウイグル語ではいずれも``bil!en''となり,今回の調査では146個(37.9\%)出現した.「と」については,引用を示す場合は``d!ep'',それ以外の場合は``bil!en''と翻訳すれば良いことが分かる.\subsection{その他の格助詞}その他の格助詞「で」「へ」「から」「より」については,今回の調査で,ほとんどの場合はウイグル語の助詞``d!e'',``g!e'',``din'',``din''にそれぞれ対応することが分かった.よって,機械翻訳の際にも,これらの格助詞は,そのまま対応するウイグル語の格助詞に翻訳すれば良いことが分かる. \section{両言語間の機械翻訳における格助詞の変換処理} \label{trans}前章で述べたように,日本語の一つの格助詞に,複数のウイグル語の格助詞が対応する場合がある.そのため,日本語--ウイグル語機械翻訳においては,概念語の訳語選択の他に,格助詞の訳語選択も適切に行う必要がある.本論文では,動詞と格助詞の関係を利用することによって,この問題を解決する手法を提案する.格助詞の機能は,格助詞とその直前の名詞だけで決まるのではなく,それらによって構成される名詞句が係る動詞に依存する部分も大きい.例えば,「橋を」という名詞句を翻訳する場合,「橋\underline{を}作る」という文であれば,「を」は対象を示していることからウイグル語の``ni''に訳され,全体としては``k!owr!uk\underline{ni}salidu''となる.しかし,「橋\underline{を}渡る」という文であれば,「を」は通過点を示しており,ウイグル語では``din''と訳され,全体としては``k!owr!uk\underline{din}!otidu''となる.そうした点を考慮すると,動詞ごとに,その格パターンとそれぞれの格パターンに対する格助詞の訳語を登録しておき,格助詞を翻訳する際には,その格助詞を含む名詞句が係る動詞の情報を利用して訳語を決定することが考えられる.ところで,前章の調査から分かるように,日本語の格助詞の主な意味はウイグル語の一つの格助詞に対応する.そこで,一番出現頻度の多いウイグル語の格助詞をデフォルトの訳語として登録し,デフォルト訳では誤った翻訳を出力する格助詞についてのみ,訳語を変更することでも,この格助詞の選択を実現することが可能となる.そこで,本論文で提案する手法では,表\ref{tab:ipal}において一番出現頻度の多かったものを各格助詞のデフォルトの訳語として登録し,そのデフォルト訳では間違いとなる場合に,その名詞句が係る動詞の格パターンを利用して,格助詞の訳語を置き換える.ただし,「に」については表\ref{tab:ipal}で出現頻度が一番多かった``g!e''ではなく,``d!e''の方をデフォルトとした.また「と」についても,表\ref{tab:ipal}で出現頻度が一番多かった``d!ep''ではなく,``bil!en''をデフォルトとした.その理由についてはそれぞれ\ref{sec:ex_ni}節,\ref{sec:ex_to}節で後述する.その結果,各格助詞に対するデフォルト訳は表\ref{tab:default}のようになる.これにより,すべての動詞について格パターンを登録しなくとも,デフォルトから外れる格助詞が必要となる動詞について格パターンを登録することで,格助詞に対する翻訳精度を向上させることが可能となる.\begin{table}\caption{格助詞のデフォルト訳}\label{tab:default}\begin{center}\begin{tabular}{l|cccccccc}\hline日本語格助詞&が&を&に&で&と&から&へ&より\\\hlineデフォルト訳&\o&ni&d!e&d!e&bil!en&din&g!e&din\\\hline\end{tabular}\end{center}\end{table}以下では,次のような条件のもとで議論を進める.\begin{enumerate}\item翻訳対象とする日本語文に出現するすべての単語について,ウイグル語訳が一つだけ辞書に登録されている.\item日本語文の形態素解析は正しく行われている.\end{enumerate}今回は,格助詞以外の単語に関する訳語の多義性は考慮しなかった.例えば,\ref{sec:wo}節で述べた「約束\underline{を}守る」「子供\underline{を}守る」の例では,「守る」に対するウイグル語訳が異なり,それに伴ない「を」に対応する格助詞も変化する.そのような場合も,動詞に対して適当な訳語を一つだけ与え,それに対応する格助詞を選択した.このような前提条件の下で,日本語の格助詞からウイグル語の格助詞への変換処理の手続きを次のようにまとめる.\begin{tabular}[t]{ll}Step1&入力された日本語文を形態素解析する.\\Step2&形態素解析された日本語の各単語を逐語訳する.格助詞にもデフォルトの訳が与えられる.\\Step3&単語に付加された格パターンの情報から訳語置換を行う.\\Step4&各形態素を接続してウイグル語文を生成する.\\\end{tabular}\vspace{10pt}ここで,日本語--ウイグル語機械翻訳システムには,\cite{OGAWA2000}で提案されたシステムを使用した.\cite{OGAWA2000}の翻訳システムでは,上記のStep1とStep2を派生文法\cite{KIYOSE1989}に基づく形態素解析システムMAJO\cite{OGAWA1999}で行っている.また,Step4に相当するモジュールも存在し,ウイグル語文の生成を行っている.そこで,本研究では,Step3に相当するモジュールを開発した.\cite{OGAWA2000}の翻訳システムで使用している辞書には,各単語の情報が(日本語単語,品詞名,ウイグル語訳語)の3項組の形式で登録されており,例えば「渡る」については(渡r,子音幹動詞,!ot-)の形式\footnote{派生文法に基づいているため,動詞は音韻論的な語幹が登録されている.}で登録されている.今回の手法では,格パターンの情報が必要な単語に関してはウイグル語訳にその情報を付加して,(渡r,子音幹動詞,!ot-\{wo/-din\})という形式で登録している.ここで,第3項のウイグル語訳語の後には,日本語の格助詞とウイグル語の格助詞をペアで登録する.なお,必要であれば,このペアはいくつでも登録可能である.また,こうした格パターンは動詞だけでなく,「逸脱」「獲得」といったサ変名詞や「やさしい」といった形容詞についても,必要に応じて登録することができる.\begin{figure}[tbp]\begin{center}\setlength{\tabcolsep}{4pt}\begin{tabular}[t]{lc|ll|c|ll|ccc}&\multicolumn{1}{c}{Step1\&2}&\multicolumn{2}{c}{}&\multicolumn{1}{c}{Step3}&&\multicolumn{1}{c}{}&Step4&\vspace{5pt}\\\cline{3-4}\cline{6-7}&&(橋,&k!owr!uk)&$\rightarrow$&(橋,&k!owr!uk)&&\\&&(wo,&-ni)&$\rightarrow$&(wo,&\underline{-din})&&\vspace{-7pt}\\\cline{1-1}\cline{9-9}\multicolumn{1}{|l|}{橋を渡る}&$\Rightarrow$&&&&&&$\Rightarrow$&\multicolumn{1}{|l|}{k!owr!uk\underline{din}!otidu}\\\cline{1-1}\cline{9-9}\vspace{-25pt}\\&&(渡r,&!ot-\{wo/-din\})&$\rightarrow$&(渡r,&!ot-)\\&&(u,&-idu)&$\rightarrow$&(u,&-idu)&\\\cline{3-4}\cline{6-7}\end{tabular}\caption{提案手法による日本語--ウイグル語翻訳例}\label{fig:translate}\end{center}\end{figure}本手法を用いて「橋を渡る」がどのように翻訳されるかを,図\ref{fig:translate}に示す.なお,途中の出力は,本来は(日本語単語,品詞名,ウイグル語訳語)という3項組であるが,スペースの都合で品詞名を省略した.本システムでは,形態素解析システムMAJOにより入力日本語文の形態素解析(Step1)と,各形態素の逐語訳(Step2)が同時に行われる.この段階では格助詞「を」はデフォルトである``ni''に翻訳される.次のStep3において動詞「渡r」のウイグル語訳に``!ot-\{wo/-din\}''の形式で格パターンの情報が付加されていることから,格助詞の訳語の変更処理を行う.ここで,係り受けの判定であるが,本機械翻訳システムは構文解析なしで翻訳することを目標の一つにしており,構文解析を利用した係り受け判定は行っていない.そこで,動詞より前に出現した格助詞の内,格パターンの情報に示された格助詞を置き換える.もしも,同じ格助詞が複数出現していた場合,その動詞に近い方の格助詞だけを置き換える.これは,係り受けにおける非交差性,後方修飾性の原則を考慮したものである.図\ref{fig:translate}の例では,「渡る」``!otidu''の前に出現する「を」は一つだけなので,その訳語をデフォルトの``ni''から``din''に変更する. \section{実験と評価} \label{prexpr}前章で示した手法に基づき,日本語の格助詞からウイグル語の格助詞への翻訳に関して実験を行った.実験対象として,環境問題を扱った新聞社説など3編の日本語文138文を本システムを用いて翻訳し,生成された文に出現した295個の格助詞について,出現頻度の一番多い訳語を与えた場合と図\ref{fig:translate}の本手法を用いた場合とを比較した.ただし,以下のような格助詞は評価の対象外とした.\begin{enumerate}\item「我が国」などの「が」\item「による」「に関して」のような慣用句の中に含まれる「に」\item「視野に置く」のような単語の組み合わせの中に含まれる「に」\item「買いに行く」のような動詞の連用形に接続する「に」\item引用を表す「と」\item直訳不能なもの\end{enumerate}(1)については「我が」で一つの連体詞と考え,その訳語を``buning''として与えた.これは,所有を表す「が」の用法が限られているためである.よって,今回の実験では,この「が」は格助詞としては現れないため評価対象外とした.(2)については「による」のウイグル語訳は``g!easas!en''である.ここで,「に」は格助詞``g!e''に対応している.しかし,残りの日本語動詞「よる」に対応するウイグル語``asas!en''は動詞ではなく接続助詞である.また,「に関して」については,これ全体に``to!grisida''というウイグル語が対応している.そこで,このような例については,「について」「に関して」を一語として辞書に登録し,その訳語を,それぞれ``g!easas!en'',``to!grisida''とした.(3)については「視野に置く」でウイグル語の``k!ozd!etutidu''に対応する.「視野」と「置く」に分解すると,この訳は得られないため,「視野に置く」で一つの単語として辞書に登録した.今回の実験では,このような慣用表現に含まれる「に」は評価しなかった.(4)について,日本語大辞典\cite{GDIC}では動詞の連用形に接続して目的を表す「に」を格助詞としている.しかし,今回の実験に使用した形態素解析システムMAJOでは,この「に」を格助詞ではなく,動詞接尾辞「-iに」と解析する.これは,MAJOが使用している派生文法の分類に従ったものである.また,日本語--ウイグル語翻訳において,この「-iに」にはウイグル語の動詞接尾辞``!gili''が対応する.(5)についても同様に,日本語大辞典\cite{GDIC}では,引用を示す「と」を格助詞としているが,派生文法では接続助詞\footnote{派生文法の用語では,「接続助辞」となる}としている.これは,引用の「と」が体言以外にも多くの表現に接続可能であり,その意味で並列の意味の「と」とは品詞として異なると考えられるからである.よって,MAJOの解析結果においては,引用の「と」と並列の「と」には異なった品詞が付けられる.また,\ref{sec:to}節で示した通り,引用の「と」はウイグル語``d!ep''に対応する.よって,本研究では,こうした「に」および「と」の区分は形態素解析のレベルで解決する問題として考え,MAJOの形態素解析の段階で格助詞にならない「に」および「と」については,今回の評価対象からは除外した.なお,格助詞の「に」と動詞接尾辞「-iに」の区別,および,格助詞「と」と引用の「と」の区別は,MAJOだけでなく,例えば\cite{FUCHI1995}で提案されている文法でも行われている.また,直訳不能な表現については,元の日本語を別の表現に置き換えて翻訳するなどの特別な処理が必要となるが,今回の実験システムでは逐語訳を基本とし,こうした処理を行っていないため直訳不能な表現は翻訳できない.本論文は格助詞の翻訳精度を調べるのが目的であるため,こうした文は評価の対象外とした.表\ref{tab:results}に本実験の結果を示す.\begin{table}[tbp]\caption{格助詞の翻訳結果}\label{tab:results}\begin{center}\begin{tabular}[t]{c||r|rr|rr}\hline\begin{tabular}[c]{c}日本語\\格助詞\end{tabular}&出現数&\multicolumn{2}{c|}{デフォルト(正訳率)}&\multicolumn{2}{c}{本手法(正訳率)}\\\hlineが&66&66&(100\%)&66&(100\%)\\を&91&77&(84.6\%)&91&(100\%)\\へ&1&1&(100\%)&1&(100\%)\\に&63&40&(63.5\%)&61&(96.8\%)\\から&13&13&(100\%)&13&(100\%)\\より&2&2&(100\%)&2&(100\%)\\で&30&30&(100\%)&30&(100\%)\\と&28&28&(100\%)&28&(100\%)\\\hline合計&295&257&(87.1\%)&293&(99.3\%)\\\hline\end{tabular}\end{center}\end{table}\subsection{「が」}「が」は今回の実験では,66個出現したが,それらはすべて,「汚染\underline{が}広がっている」``mo!hitbul!ginix\underline{\o}kengiyiwatidu'',「異常気象など\underline{が}懸念されている」``!g!elitilik!hawakilimat!katarli!klar\underline{\o}!endix!e!kiliniwatidu''のように主格の機能を持っており,すべて正しく翻訳できた.今回の実験では\ref{sec:ga}節で述べた「水\underline{が}飲みたい」「私\underline{が}飲みたい」のような表現は出現しなかったが,これは動詞「飲む」や,その派生語である「飲みたい」の格パターンからでは区別ができないため,格助詞と動詞との関係だけで処理する本手法では,訳し分けができない.こうした訳し分けを実現するためには,名詞「水」,「私」の意味素性と動詞との関係を利用する必要があると考えられる.\subsection{「を」}「を」は今回の実験では,91個出現したが,ウイグル語では対象を示さない用例が含まれており,デフォルトの``ni''に翻訳する手法では,14個については正しく翻訳できなかった.しかし,動詞の格パターンを利用する本手法によって,すべてを正しく翻訳可能となった.この中には,「再生能力\underline{を}超えて進む環境破壊」``!hasili!ktidari\underline{din}!hal!kipilgirl!eydi!ganmo!hitw!eyranqili!gi''のように,「を」を``din''と翻訳したものが5個,「産業革命\underline{を}促し」``sana!etin!kilawi\underline{g!e}!h!eyd!ekqili!k!kilip''のように,``g!e''と翻訳したものが6個であった.ただし,\cite{IPAL}を調査した段階では発見できなかった以下のような問題が見つかった.「四方\underline{を}海に囲まれた」「生存\underline{を}許されている」といった文では,動詞の受身形に「を」格が係っている.通常,受身形には「が」格が係り,上記の文でも「を」を「が」と言い換えることができる.ウイグル語の場合も,上記の「を」は「が」のデフォルトの訳である``\o''と翻訳するのが正しい.こうした動詞は,本手法において「囲む」や「許す」の格パターンを登録しても解決できない.なぜなら「四方\underline{を}囲む」や「生存\underline{を}許す」という文においては「を」をデフォルトである``ni''と翻訳するのが正しいからである.そこで,今回は「囲まれる」「許される」を一つの動詞として辞書に登録し,それに「を」を``\o''という格パターンを登録することで翻訳を可能とした.今回の実験では,こうした取り扱いが3ヶ所あった.\subsection{「に」}\label{sec:ex_ni}「に」については,デフォルトを``g!e''ではなく,``d!e''とした.これは,出現頻度では``g!e''の方が多くても,``d!e''と翻訳するべき場合に,動詞との関連が希薄であると考えられる例が多かったからである.例えば「今世紀中\underline{に}特定フロンの全廃を目指す」という文では,「に」は時間を表わし``d!e''と翻訳されるが,「目指す」の格パターンとして「に」を考えるよりは,「今世紀中\underline{に}」をひとまとまりと考えた方がよい.実際,「今世紀中\underline{に}」という表現においては,多くの場合に「に」は時間を表し,``d!e''と翻訳するのが正しい.一方,「化石燃料\underline{に}替わる新たなエネルギー」や「宇宙全体\underline{に}かかわっている」の「に」は与格であり,``g!e''と翻訳するのが正しい.この場合,この「に」は「替わる」や「かかわる」に依存していると考えるのが自然である.これは「に」が時間や場所を表す場合には動詞の必須格であることが少ないが,「に」が与格である場合には動詞の必須格であることが多いと考えることができる.よって,「に」に対するデフォルトの訳を``d!e''とし,与格を必須格とする動詞について,「に」を``g!e''にするというルールを与えた.なお,「になる」「にする」という表現に対しては,\ref{sec:ni}節で示したように,「に」がウイグル語において``\o''となる場合が多いので,「なる」「する」の2つの動詞については,「に」を``\o''とするルールを与えた.表\ref{tab:results}では,単純に``g!e''をデフォルトとした場合と,``d!e''をデフォルトとし,本手法を適用した場合とを比較している.本手法を用いて置換を行ったのは44ヶ所あり,その内の40個が「化石燃料\underline{に}替わる新たなエネルギー」``miniralye!kil!gu\underline{g!e}orunbasidi!ganyingienergiyi''のように,``g!e''に置換され,4個が「ゴミの捨て場\underline{に}なる海」``!ehl!etningt!ok!uxoruni\underline{\o}bolidi!gandengiz''のように,``\o''に置換されていた.翻訳失敗した2個のうち,一つは係り受けの解析を間違えたものである.本実験のシステムは,精密な係り受けの解析を行わず,動詞の前に出現した格助詞のうちの最初の語を置き換えているため,格助詞を含む名詞句が省略されている場合などには,その動詞に係っていない名詞句の格助詞を置き換えてしまう.もう一つは「人間はここ\underline{に}自然から切り離された存在となった」``insanbu\underline{\o}y!ert!ebi'!ettinayril!ganm!ewjudiy!etbil!enboldi''という文である.本システムは,「なる」に登録された格パターンの規則を使用して「に」を``\o''に置換する.「存在\underline{に}なった」という文においては「に」を``\o''と翻訳するのが正しいが,今回は「存在\underline{と}なった」であったため,それより前の「ここ\underline{に}」の方を置換してしまった.「ここ\underline{に}」の「に」は場所を示しており,``d!e''と翻訳されるのが正しい.こうした誤りを防ぐためには,名詞の意味素性などの導入が必要と考えられる.\subsection{「と」}\label{sec:ex_to}今回の実験では格助詞の「と」は28個出現したが,「自然\underline{と}明確に区別され」``t!ebi'!et\underline{bil!en}eni!kp!er!kl!end!ur!ul!up'',「地球環境の悪化\underline{と}人類の将来への危惧」``y!erxarimo!hitnaqarlixix\underline{bil!en}insanlarningk!elg!usig!ebol!gan!endix!e''のように,すべてウイグル語の``bil!en''に対応していた.これは,引用の「と」を形態素解析の段階で区別したためである.引用の「と」は52個出現したが,これらは「地球が水惑星\underline{と}呼ばれ」``y!erxarisus!eyyarisi\underline{d!ep}atilip''のように``d!ep''となったのが20個,「核戦争\underline{と}いう滅亡の危機」``yadrouruxi\underline{\o}d!eydi!gan!halak!etningkirizisi''のように,「と言う」「となる」の組み合わせで出現し,``d!ep''が省略され``\o''になったものが32個であった.なお,表\ref{tab:results}には,格助詞の「と」の出現数のみ記録してある.ただし,これは形態素解析が正しく行われているという前提に依拠するものであり,実際には「と」のタグ付けは形態素解析においても難しい問題であり,MAJOでも完璧ではない.\subsection{その他の接尾辞}その他の接尾辞については,デフォルトの訳を与えることによって正しい翻訳ができた.そのため,それらの接尾辞の翻訳のための格パターンは特に登録しなかった.上記のように,改良できる余地と困難な問題とがあるが,提案手法によって,日本語--ウイグル語機械翻訳における格助詞の翻訳の品質向上が達成できたことが分かる. \section{おわりに} 本論文では,日本語とウイグル語の格助詞間の対応関係を詳細に調べ,動詞と格助詞の対訳との関連を明確にした.これまでの研究では,日本語--ウイグル語機械翻訳のみならず,日韓機械翻訳を含んだ研究においても,日本語とそれらの言語との類似点を指摘しているが,助詞に関する一致点と差異を具体的及び統計的に示した例はほとんどない.単語の文字列としての近さを基準にした言語の分類に関する研究の一つ\cite{Vlad}では,日本語とアルタイ言語系の一つであるトルコ語は,65個の言語の中で非常に近い関係にあることが示されているが,本論文での調査結果は,両言語の近さ\footnote{トルコ語とウイグル語は,チュルク諸語の言語である.}をもう一つの観点から示すことができたとも言える.さらに,動詞の格パターンを利用して格助詞の訳語を選択する手法を提案し,それを組み込んだ日本語--ウイグル語形態素解析システムを実現した.さらに,実験によりその有効性を示した.本実験は,比較的規模の小さいデータで行ったが,我々が示した変換処理の方法の有効性をよく示せたと考えている.今後は,比較的規模の大きいデータを対象にした実験を行い,品質の高い機械翻訳システムの実現を目指したい.ただ,本研究では,以下の二つの前提をもって翻訳を行っている.一つは,格助詞の翻訳を行う前に動詞が一意に決定できるというものである.今回提案したシステムでは,動詞の訳語が決定したあと,その動詞に付与された格パターンから助詞に対する訳語を決定している.しかし,実際には動詞にも多義性があり,\ref{sec:wo}節で述べた「約束\underline{を}守る」「子供\underline{を}守る」の例のようにその訳語を決定しなければ格助詞の訳が決まらない場合がある.しかし,動詞の多義性が解消できれば,本論文の手法が適用できることはもちろんである.また,それとは逆に,格パターンから動詞の訳語が決定できる場合がある.例えば,「教える」に相当するウイグル語には``o!kutidu'',``!ug!etidu''の二つがある.ここで,「先生が生徒を\underline{教える}」,「先生が生徒に水泳を\underline{教える}」を,ウイグル語に翻訳すると,それぞれ``o!kut!ku!cio!ku!gu!cilar{\itni}\underline{o!kutidu}'',``o!kut!ku!cio!ku!gu!cilar{\itg!e}su!uz!ux{\itni}\underline{!ug!etidu}''となる.つまり,``o!kutidu''と``!ug!etidu''は,意味はほとんど同じであるが,格パターンが異なるのである.我々は現在,こうした名詞との組み合わせや,出現した動詞の格パターンにより動詞の訳語選択を実現する手法について研究を進めている.もう一つは,目標言語であるウイグル語に出現する格助詞は,原言語である日本語の方にも必ず現れている,という前提である.しかし,日本語とウイグル語との間の概念の捉え方の違いにより,この前提が成り立たない場合がある.例えば,「このリンゴ\underline{を}3つ買う」``Bualmi\underline{din}3{\bfni}setiwalidu'',「あの封筒\underline{を}10枚下さい」``Awukonwert\underline{din}10{\bfni}bering''のような文では,日本語文には格助詞「を」だけがあるのに対し,ウイグル語文では,``ni''と``din''が出現している.これらのウイグル語表現を日本語に直訳すると,それぞれ「このリンゴ\underline{から}3つ{\bfを}買う」「あの封筒\underline{から}10枚{\bfを}下さい」となる.しかし,ここでの「3つ」,「10枚」を取り除くと,「このリンゴ\underline{を}買う」``Bualmi\underline{ni}setiwalidu'',「あの封筒\underline{を}下さい」``Awukonwert\underline{ni}bering''のようになり,格助詞``din''は出現せず,「リンゴ」や「封筒」が動作の対象となる.日本語では「リンゴ」や「封筒」がまず動作の対象に設定され,それからその対象の「数」や「量」でその動作が副詞的に修飾されるのに対し,ウイグル語では,「数」や「量」があれば,それが動作の主対象になり,そうでない場合には,日本語と同じ格構造になるのである.また,「原稿\underline{を}3通送った」``Orginal\underline{din}3{\bfni}!ew!ettim'',「原稿\underline{を}3回送った」``Orginal\underline{ni}3!kitim!ew!ettim''の例からも両言語の捉え方の違いが分かる.ウイグル語では,「3回」は動作対象にならないが,「3通」は動作対象になるのである.こうした点も,今後の課題として検討していく必要がある.\bibliographystyle{jnlpbbl}\bibliography{290}\appendix \section{ウイグル語文字体系} 現在使われているウイグル文字は,ほとんどがアラビック文字から取り入れられ,一部が新たに追加された32の文字からなる文字セットであり,アラビア語と同じ右から左へ書かれる.それとは別に,ウイグル語をローマ字表記で表わす場合もあるが特に決った体系がない.我々が用いたローマ字体系とアラビックベースの文字体系の対応関係を表\ref{tab:uirm}に示す.\begin{table}[hbp]\caption{ウイグル文字とローマ字表記の対応}\label{tab:uirm}\begin{center}\atari(143.7,23.1)\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.2000年同大学院工学研究科情報工学専攻博士課程後期課程修了.同年より,名古屋大学助手.自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{ムフタルマフスット}{1983年新彊大学数系卒業.1996年名古屋大学大学院工学研究科情報工学専攻博士課程満了.同年,三重大学助手.現在,名古屋大学計算理工学専攻稲垣研究室特別研究員.自然言語処理に関する研究に従事.人工知能学会,情報処理学会各会員.}\bioauthor{稲垣康善}{1962年名古屋大学工学部電子工学科卒業.1967年同大学院博士課程修了.同大助教授,三重大学教授を経て,1981年より名古屋大学工学部・大学院工学研究科教授.工学博士.この間,スイッチング回路理論,オートマトン・言語理論,計算論,ソフトウエア基礎論,並列処理論,代数的仕様記述法,人工知能基礎論,自然言語処理などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,電気学会,日本ソフトウエア科学会,日本OR学会,IEEE,ACM,EATCS各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V24N04-01
\section{はじめに} 近年,対話の内容を特定のタスクに限定しない自由対話システムの研究が盛んに行われている\cite{Libin:04:a,Higashinaka:14:a}.対話システムの重要な要素技術の1つにユーザの発話の対話行為の自動推定がある.対話行為の推定は自由対話システムにおいて重要な役割を果たす.例えば,対話行為が「質問」の発話に対しては知識ベースから質問の回答を探して答えたり,映画の感想を述べているような「詳述」の発話に対しては意見を述べたり単にあいづちを返すなど,対話システムは相手の発話の対話行為に応じて適切な応答を返す必要がある.対話行為の推定手法として機械学習を用いた手法が既に提案されている\cite{milajevs:14:a,isomura:09:a,sekino:10:a,kim:10:a,Meguro:13:a}.しかし,機械学習に用いる特徴\footnote{本稿では,機械学習による識別のために用いる情報の種類(タイプ)のことを「特徴」,その具体的な情報のことを「特徴量」と呼ぶ.例えば,「単語3-gram」は特徴,「思い+ます+か」はその特徴量である.}を設定する際,個々の対話行為の特質が十分に考慮されていないという問題点がある.既存研究の多くは,対話行為の自動推定を多値分類問題と捉え,対話行為の分類に有効と思われる特徴のセットを1つ設定する.しかし,機械学習の特徴の中には,ある特定の対話行為の分類にしか有効に働かないものもある.例えば,ユーザの発話の対話行為が(質問に対する)「応答」であるかを判定するためには,発話者が交替したかという特徴は重要だが,対話行為が「質問」であるかを判定するためには,相手の発話の後に質問することもあれば自身の発話に続けて質問することもあるので,話者交替は重要な特徴とは考え難い.本論文では,上記の問題に対し,対話行為毎に適切な特徴のセットを設定することで個々の対話行為の推定精度を改善し,それによって全体の対話行為推定の正解率を向上させる手法を提案する. \section{関連研究} 対話を形成する上で,話者の対話行為は対話の展開に強い影響を与えるだけでなく,対人印象や対人関係にも影響を及ぼしている\cite{nishida:92:a}.自由対話においては,対話を継続するか否かの判断はユーザに委ねられており,対話の内容のみならず,対話システムの不自然な応答や不快な発話は対話の破綻に繋がる.自由対話を継続するには,ユーザと対話システムが良好な関係を築く必要があり,そのためには,話者の対話行為を正確に推測し,それに応じて適切な応答を返さなければならない.\subsection{対話行為の利用}対話システムにおける対話行為情報の利用目的として,ユーザ意図の理解,システムの応答文生成における条件,システムの対話制御などが挙げられる\cite{Higashinaka:14:a,inui:01:a,Maeda:11:a,Sugiyama:13:a}.例えば,ユーザの発話を分析し,対話行為にクラス分けすることは,ユーザの意図理解の1つとみなせる.ユーザが挨拶をしているか,何かを質問しているのかなどをシステムが理解することで,その後の対話の展開を決定する.南らは行動予測確率に基づく報酬を設定する部分観測マルコフ決定過程(POMDP)を用いた対話制御手法において,対話行為列のtri-gramによる行動予測確率を導入した手法を提案し,その有効性を確認した\cite{Minami:12:a}.また,発話からの情報抽出のためのフィルタリング条件としても対話行為の情報は用いられる.平野らは,ユーザの発話からユーザ情報を抽出する手法を提案し,その手法では発話がユーザ情報を含むか否かを対話行為に基づき判断している\cite{Hirano:16:a}.\subsection{対話行為推定}教師あり機械学習に基づく対話行為の自動推定では,機械学習に用いる基本的な特徴として単語n-gramが利用されることが多い.これに加えて独自の特徴も提案されている.単語uni-gramは語順を考慮していないため,Milajevsらは単語bi-gramを特徴として用い,単語uni-gramのみよりもbi-gramを併用したときの方が高い精度が得られることを示した\cite{milajevs:14:a}.また,対話の流れを考慮するために前の発話の対話行為を特徴として利用し,その効果を評価した.磯村らは,頻度2以上の単語uni-gramと単語bi-gram,及び1つ前の発話の対話行為を特徴として,ConditinalRandomField(CRF)を用いて対話行為を推定し,75.77\%の推定精度を得たと報告している\cite{isomura:09:a}.機械学習アルゴリズムとしてSupportVectorMachine(SVM)とNaiveBayesを用いた実験も行ったが,これらでは1つ前の発話の対話行為を特徴として利用しておらず,推定精度はそれぞれ66.95\%と60.14\%となり,CRFより劣る.関野らは,特徴として発話文字数,内容語数,発話順番を提案し,磯村の手法\cite{isomura:09:a}の特徴にこれらを1つ以上追加したモデルを評価した\cite{sekino:10:a}.全ての組み合わせにおいてその有効性が確認され,内容語数と発話順番を追加した場合が最も高い精度となった.Kimらは,bag-of-wordsに加え,対話中の話者の役割などの構造的な情報と,直前の発話や同一話者によるこれまでの対話行為などといった対話の依存関係を機械学習の特徴として提案した\cite{kim:10:a}.ドメインが限られた対話を評価の対象としているが,96.86\%という高い推定精度が得られている.目黒らは,多種多様な話題や語彙を含み,また非文法的な文が多いマイクロブログ中の発話に対する対話行為自動付与のため,シソーラスを用いて抽象化した単語n-gramと文字n-gramを特徴とする手法を提案した\cite{Meguro:13:a}.評価実験の結果,Bag-of-Ngramsを特徴として用いたベースライン手法よりも高い精度を得た.これらの先行研究では,機械学習のために用いる特徴のセットは1つであり,それで全ての対話行為を推定している.しかし,どの特徴がどの対話行為の推定に有効に働くかなど,特徴と対話行為の関係については議論されていない.本研究では,発話がある対話行為を持つか否かを推定する機械学習において,対話行為それぞれに対して有効な特徴を自動的に選択する. \section{提案手法} 本節では,自由対話における発話を入力とし,その対話行為を推定する手法について述べる.対話行為の分類クラスをあらかじめ定義し,その中から適切な対話行為のクラスを1つ選択する.従来手法の多くは教師あり機械学習に基づくが,学習のための特徴のセットはあらかじめ一律に定められている.しかし,全ての特徴が全ての対話行為の分類に必要というわけではなく,ある特徴が特定の対話行為の分類に貢献しないことがある.そのような特徴は正解率を低下させる要因となりうる.この問題を解決するために,提案手法では,対話行為の分類クラス毎に異なる特徴のセットを設定する.提案手法の処理の流れを図\ref{fig:proposed_method}に示す.対話行為毎に,入力発話がその対話行為に該当するか否かを判定する二値分類器を学習する.その際,対話行為毎に最適な特徴のセットを実験的に決める.また,分類と同時に判定の信頼度も算出する.次に,二値分類器による判定の結果,ならびに判定の信頼度を基に,入力発話の対話行為をひとつ選択する.本論文では,対話行為を選択するアルゴリズムとして,\ref{sec:対話行為の選択}項で述べる4つの手法を提案する.本論文では,各対話行為の二値分類器をL2正則化ロジスティック回帰によって学習し,学習ツールとしてLIBLINEAR\cite{fan:08:a}を用いた.LIBLINEARの学習パラメタはデフォルト値を用いた.判定の信頼度はLIBLINEARが出力する確率を用いた.\begin{figure}[t]\begin{center}\includegraphics{24-4ia1f1.eps}\caption{提案手法の流れ}\label{fig:proposed_method}\end{center}\end{figure}\subsection{対話行為の定義}対話行為の定義としてはSWBD-DAMSL\cite{jurafsky:97:a}が著名だが,かなり詳細な対話行為が定義されており,また自由対話を対象としたものではない.自由対話を想定した対話行為のセット\cite{Meguro:14:a}も提案されてはいるが,本研究では,今後構築を目指す自由対話システムの仕様を考慮して独自に定義した9つの対話行為のセットを用いる.その一覧を表\ref{tab:dialog_tag}に示す.\begin{table}[t]\caption{対話行為の定義}\label{tab:dialog_tag}\input{01table01.txt}\end{table}\subsection{機械学習に用いる特徴}人間同士の自由対話を人手で分析し,対話行為の言語的特徴を考慮して,対話行為の推定に有効と思われる28個の特徴を設定した.その一覧を表\ref{tab:feature_type_list}に示す.これらは大きく4つのグループに分けられる.\begin{table}[t]\caption{対話行為推定のための特徴}\label{tab:feature_type_list}\input{01table02.txt}\end{table}\noindent\textbf{グループ1}\quad$f_1$〜$f_{10}$は,発話の内容を表わし,全ての対話行為の分類に有効と考えられる特徴である.現在の発話(対話行為を推定するべき入力発話)ならびにその直前の発話に含まれる単語n-gram,自立語,文末に出現する単語n-gramならびに付属語の列を特徴とする.$f_9$,$f_{10}$は,それぞれ現在の発話と前発話の単語n-gram,付属語列の組を表わす.単語n-gramを用いた特徴($f_1$,$f_2$,$f_5$,$f_6$,$f_9$)では$n=1,2,3$とした.\noindent\textbf{グループ2}\quad$f_{11}$〜$f_{17}$は,発話の内容を表わし,特定の対話行為の推定に有効に働くと考えられる特徴である.$f_{11}$〜$f_{15}$はそれぞれの対話行為の発話で頻出すると思われるキーワードである.これらのキーワードは訓練データを参照して人手で選定した.$f_{16}$は要求の発話の文末によく見られる表現であり,文末が命令形の動詞,動詞基本形+「な」の否定の命令形,動詞連用形+「て」,動詞連用形+「や」,これらの表現+「よ」or「ね」,のいずれかに当てはまることを表わす.$f_{17}$は,あいづちを示唆する文末表現「ね」が出現するかを表わす.\noindent\textbf{グループ3}\quad$f_{18}$〜$f_{21}$は,発話の内容以外の情報を表わし,全ての対話行為の分類に有効と考えられる特徴である.$f_{18}$,$f_{19}$は,それぞれ相手もしくは話者自身の直近のいくつかの発話の対話行為の列である.対話行為列の長さは実験的に定める.詳細は\ref{sec:対話行為列の長さの最適化}で述べる.$f_{20}$は発話文中の文字数に基づく発話の長さである.発話長を機械学習の特徴として用いる場合,長さを適当な間隔($1\sim5$,$6\sim10$,11以上,など)に切って発話長を分類するのが一般的であるが,その適切な間隔を決めるのは難しい.本論文では,「発話長が$l\pm2$である」($3\lel\le19$),「発話長が20以上である」といった特徴量で発話長を表現する.例えば,発話長が10の発話に対しては,$l=8,9,10,11,12$の特徴量の重みを1とする.$f_{21}$は現在と直前の発話の話者が同じかどうかを表わす.実験に用いた自由対話コーパスでは,同じ話者が2つ以上の発話を連続して発言することがあるため,この特徴を導入した.\noindent\textbf{グループ4}\quad$f_{22}$〜$f_{28}$は,発話の内容以外の情報を表わし,特定の対話行為の推定に有効に働くと考えられる特徴である.$f_{22}$の「自立語の有無」は自立語を含まなくても生成できる「応答(YesNo)」,「あいづち」,「フィラー」とその他の対話行為の区別に有効であると考えられる.$f_{23}$〜$f_{25}$における「自立語繰り返し」とは,相手の前発話の自立語が現在の発話で繰り返し用いられるかを表わす.単語を繰り返して聞き返す「確認」や,反復による「あいづち」の特徴を捉えられる.$f_{23}$は単純に自立語が繰り返されるか否かを考慮するが,より厳密に「確認」,「あいづち」を示唆する自立語の繰り返しを区別するため,繰り返される自立語が相手の前発話の文末に出現する場合を$f_{24}$,発話で繰り返される自立語が現在の発話における唯一の自立語である場合を$f_{25}$とする.$f_{26}$,$f_{27}$はそれぞれ発話が自立語1語,非自立語1語で構成されているかを表わす.自立語1語で表現されることの多い対話行為としては「応答(平叙)」や「あいづち」がある.$f_{28}$は同じ単語が発話の中で複数回使われているかを表わす.応答表現や「あいづち」によく見られる繰り返しによる強調表現に対応するために導入した.対話行為を推定する二値分類器を学習する際には,発話を特徴量のベクトルで表現する.特徴量ベクトルの重みは,その特徴量が発話に出現していれば1,それ以外は0とする.\subsection{特徴セットの最適化}\label{sec:特徴セットの最適化}ここでは,個々の対話行為毎に,対話行為推定のための特徴を最適化する手法について述べる.\begin{figure}[b]\input{01fig02-algo.txt}\caption{特徴の選択アルゴリズム}\label{al:feature_selection}\end{figure}\subsubsection{最適な特徴セットの決定}\label{sec:最適な特徴セットの決定}個々の対話行為に対し,表\ref{tab:feature_type_list}に示した特徴の中から,その対話行為の分類に有効でないものを削除することで,対話行為毎に最適な特徴のセットを決める.そのアルゴリズムを図~\ref{al:feature_selection}に示す.$E$は全特徴の集合,$E'$は最適化された特徴の集合である.$f(X)$は,$X$を特徴として学習した分類器の開発データにおけるF値\footnote{発話がある対話行為に該当するか否かを判定する二値分類のF値.}である.特徴$f_i$を除いたときのF値$f(E\setminus\{f_i\})$が全特徴を用いたときのF値$f(E)$よりも低ければ,$f_i$を有効な特徴とみなして$E'$に入れ,そうでなければ削除する.これを全ての特徴について行い,1つ以上の特徴が削除されたら,残された特徴を新たに全特徴の集合とみなして同様の操作を行う.ただし,個別に評価したときに有効でない特徴は$E'$に残されていないにも関わらず,7行目の段階で複数の特徴が削除された$E'$を用いたときのF値がもとの$E$と比べて低くなることがある.そのときは,特徴を削除することによって最もF値が向上する(最も悪影響を与える)ものを1つ選択し,それのみを削除した特徴の集合を新たな$E$とする(10行目).これを特徴が削除されなくなるまで繰り返す.\subsubsection{対話行為列の長さの最適化}\label{sec:対話行為列の長さの最適化}特徴$f_{18}$と$f_{19}$は,「質問(YesNo)」の次には「応答(YesNo)」の発話が出現しやすいといったように,対話行為の並びを考慮するために導入した.しかし,直前だけでなく,2つ以前の発話からの対話の流れが対話行為の推定に有効である場合も考えられる.このとき,どれくらい前の発話を辿ればよいか,つまり過去の発話の対話行為列の長さをいくつに設定すればよいかは,分類対象とする対話行為によって異なると考えられる.本研究では,特徴$f_{18}$と$f_{19}$をそれぞれ相手もしくは話者自身の過去の$N_h(=1,2,3,4,5)$個の発話の対話行為の列とし,$N_h$の値を対話行為に応じて最適化する.すなわち,対話行為毎に,開発データでのF値が最大となる$N_h$を選択する.また,$N_h$の値が大きいときには特徴量の数が増えるため,特徴量の選択を行う.具体的には,特徴量と対話行為の相関の強さを$\chi^2$値で測り,それが閾値$T_h$よりも小さい特徴量を削除する.$T_h$は0,1,5,10のいずれかとし,$N_h$と同様に開発データでのF値が最大となる値を選択することで最適化する.$N_h$と$T_h$の最適化は,\ref{sec:最適な特徴セットの決定}で述べた最適な特徴セットを決定する前に行う.このとき,特徴は$f_{1}$(単語n-gram)と$f_{18}$もしくは$f_{19}$のみを使用する\footnote{予備実験では,先に最適な特徴のセットを決定し,その後$N_h$と$T_h$の最適化を行う手法も試したが,対話行為推定のF値はわずかに低下した.}.\subsection{組み合わせ特徴量}\label{sec:組み合わせ特徴量}本研究で使用するLIBLINEARでは特徴量間の相関関係は考慮されていない.しかし,特徴量の組み合わせが対話行為の分類に特に有効に働く可能性がある.そのため,2つの特徴量を組み合わせた特徴量も使用する.以下,これを「組み合わせ特徴量」と呼ぶ.ただし,全ての特徴量を組み合わせると特徴量の数が増大するため,図\ref{al:feature_selection}のアルゴリズムにより得られたそれぞれの対話行為に最適な特徴セットのF値と,その特徴セットから1つの特徴を除いた場合のF値の差が最も大きい特徴を「最も有効な特徴」と定義し,最も有効な特徴の特徴量とそれ以外の特徴量の組のみを組み合わせ特徴量として導入する.\subsection{対話行為の選択}\label{sec:対話行為の選択}本項では,個々の対話行為の二値分類器の出力結果から,最も適切な対話行為を1つ選択する手法について述べる.\subsubsection{判定の信頼度による選択}\label{sec:判定の信頼度による選択}対話行為の二値分類器が出力する信頼度を比較し,それが最も高い対話行為を選択する.具体的には,式(\ref{eq:model_simple})にしたがって最終的に選択する対話行為$\hat{d}$を決定する.$r(d_i)$は対話行為$d_i$の判定の信頼度を表わす.\begin{equation}\label{eq:model_simple}\textstyle\hat{d}=\arg\max_{d_i}r(d_i)\end{equation}\subsubsection{信頼度を特徴量とする機械学習による手法}\label{sec:信頼度を特徴量とする機械学習による選択}9つの対話行為の二値分類器の出力結果を特徴量とし,対話行為を選択するモデルを機械学習する.当然だが,\ref{sec:判定の信頼度による選択}で述べた手法において,信頼度1位の対話行為が常に正解となるわけではない.ここでの狙いは,「対話行為$d_a$と$d_b$について,$d_a$の信頼度が1位であるが,$d_a$と$d_b$の信頼度の差がそれほど大きくないときは,$d_b$が正解である可能性が高い」といった傾向を自動的に学習することにある.この手法では以下の特徴量を用いる.\begin{itemize}\item対話行為$d_i$の判定の信頼度.\item信頼度の順位が$n$位の対話行為の判定の信頼度.($n=1,2,3$)\end{itemize}上記の特徴量の重みは信頼度の値とする.後者の特徴量は,テキスト分類において,他クラスの信頼度を考慮する有効性が高橋らにより報告されている\cite{Takahashi:07:a}ことから設定した.機械学習アルゴリズムとしてロジスティック回帰(LIBLINEAR)を用いた.\subsubsection{信頼度に対する重み付けに基づく手法}\label{sec:信頼度に対する重み付けに基づく手法}予備実験の結果,「自己開示」以外の対話行為を持つ発話に対して「自己開示」が誤って選択される事例が多いことがわかった.「自己開示」の信頼度は他の対話行為に比べて平均的に高く,「自己開示」が最終的に選ばれやすいためであった.これは,\ref{sec:data}項で後述するように,訓練データにおける「自己開示」の出現頻度が高いためと考えられる.このような信頼度の不均衡を是正するため,式(\ref{eq:model_weighting})にしたがって対話行為を選択する.\begin{equation}\label{eq:model_weighting}\hat{d}=\left\{\begin{array}{ll}\arg\max_{d_i}w_i\cdotr(d_i)&\textrm{ifrank(1)=自己開示}\\\arg\max_{d_i}r(d_i)&\textrm{ifそれ以外}\\\end{array}\right.\end{equation}rank(1)は信頼度の順位が1位の対話行為を表わす.$w_i$は対話行為$d_i$の信頼度に与える重みであり,「自己開示」以外の対話行為の信頼度を大きくする働きをする.また,「自己開示」に対する重みは1と設定する.\begin{figure}[b]\input{01fig03-algo.txt}\caption{信頼度に対する重みを決定するアルゴリズム}\label{al:weighting_method}\vspace{-0.5\Cvs}\end{figure}信頼度の重みを反復推定するアルゴリズムを図\ref{al:weighting_method}に示す.変数$j$は反復のステップを表わす変数で,7〜13行目の処理を繰り返す.開発データ$D_{dev}$における発話$u_k$に対し,その正解の対話行為が自己開示ではなく,誤って自動推定された対話行為が自己開示であり,$uncertainty(u_k)$が閾値$TU_i$より大きいとき(9行目),正解の対話行為$d_i$に対する重み$w_i^{(j)}$を10行目の式にしたがって更新する.$uncertainty(u_k)$は発話$u_k$に対する対話行為推定の不確かさを表わす指標であり,9つの対話行為に対する判定の信頼度$r(d_i)$を得たとき,その1位の信頼度と2位の信頼度の比と定義する\footnote{1位と2位の信頼度が近ければ近いほど,1位の対話行為が正しくない可能性が高い.}.$TU_i$は対話行為$d_i$に対する重みを更新するか否かを決める$uncertainty(u_k)$の閾値である.基本的には,不正解となった「自己開示」の信頼度と正解の対話行為$d_i$の信頼度の差が大きいときほど$w_i^{(j)}$により大きい値を加える.$w_i^{(j)}$の値を増やすことにより,正解の対話行為$d_i$の信頼度が高くなり,選ばれる可能性が増す.$\delta$は重みの1回当たりの変動量を調整するパラメタである.本研究では$\delta=0.001$とした.開発データの全ての発話について重みの調整が終わったら,新しい重みを用いて,システムによる自動推定の結果を更新する(13行目).一般に$w_i^{(j)}$は収束するが,本研究では収束後の重みではなく,1回の反復毎に開発データにおける対話行為推定の改善度$eval_j(d_i)$を測り,これが最も高い時点での重みを選択する(15行目).$eval_j(d_i)$の定義は式(\ref{eq:def_eval})であり,対話行為が$d_i$である発話のうち重み付けによって新たに正解となった発話数($|B|$)と,対話行為が「自己開示」である発話のうち重み付けによって新たに不正解となった発話数($|W|$)の差である\footnote{$predict_0(u_k)$は重み付けしない手法で選択された発話$u_k$の対話行為を表わす.}.\begin{equation}\label{eq:def_eval}\begin{array}[t]{l}eval_j(d_i)=|B|-|W|\\\hspace*{3mm}B=\{u_k\;|\;gold(u_k)=d_i\landpredict_0(u_k)\negold(u_k)\landpredict_j(u_k)=gold(u_k)\}\\\hspace*{3mm}W=\{u_k\;|\;gold(u_k)=自己開示\landpredict_0(u_k)=gold(u_k)\landpredict_j(u_k)\negold(u_k)\}\end{array}\end{equation}本手法では,$uncertainty(u_k)$が低いときは重みの更新を行わない.これは個々の対話行為の二値分類器の結果が十分に信頼できるとみなしているためである.閾値$TU_i$は重みの更新を行うか行わないかをコントロールする働きをする.$TU_i$は重み$w_i$の推定に用いたものとは別の開発データを用いて最適化する.$TU_i$を変動させ,学習した重みを用いたシステムのevalの値が最大となる閾値を選択する.\begin{table}[b]\caption{信頼度1位が不正解,2位が正解となる対話行為の組と発話数}\label{tab:classificationerrorofdialogpair}\input{01table03.txt}\vspace{4pt}\small$d_1$:自己開示,$d_2$:質問(YesNo),$d_3$:質問(What),$d_4$:応答(YesNo),$d_5$:応答(平叙),$d_6$:あいづち,$d_7$:フィラー,$d_8$:確認,$d_9$:要求\end{table}\subsubsection{特定の対話行為の組に対して機械学習で識別する手法}\label{sec:特定の対話行為の組に対して機械学習で識別する手法}対話行為の中には互いに識別が難しい組み合わせがある.表\ref{tab:classificationerrorofdialogpair}は,対話行為のそれぞれの組に対し,一方の対話行為の信頼度の順位が1位でかつ不正解,もう一方の対話行為の信頼度の順位が2位でかつ正解となる発話の開発データにおける数を示している.この表において発話数(誤り数)の多い対話行為の組は,特に判定が難しいと考えられる.ここでは,このような対話行為の組に対し,適切な対話行為を選択する分類器を機械学習することを試みる.ただし,「自己開示」($d_1$)については,\ref{sec:信頼度に対する重み付けに基づく手法}で述べた信頼度の重み付けによる手法で対応することとし,ここでは$d_1$を含まない組の中で表\ref{tab:classificationerrorofdialogpair}における誤り発話数が多い組に着目する.具体的には,他と比べて誤り発話数の多い(あいづち,フィラー)と(質問(YesNo),確認)の2つの組について,機械学習により適切な対話行為を選択する.以上をまとめると,本手法は式(\ref{eq:model_dialog_act_pair})にしたがって$\hat{d}$を決定する.\begin{equation}\label{eq:model_dialog_act_pair}\hat{d}=\left\{\begin{array}{ll}\arg\max_{d_i}w_i\cdotr(d_i)&\textrm{ifrank(1)=$d_1$(自己開示)}\\\mathrm{classify(rank(1),rank(2))}&\textrm{if\{rank(1),rank(2)\}=\{$d_6,d_7$\}or\{$d_2,d_8$\}}\\\arg\max_{d_i}r(d_i)&\textrm{ifそれ以外}\\\end{array}\right.\end{equation}rank(1),rank(2)は判定の信頼度が1位,2位の対話行為を表わし,classify($x,y$)は2つの対話行為$x,y$の中から一方を選択する分類器である.classify($x,y$)の学習に使う特徴量は,組み合わせ特徴量も含めて対話行為$x$と$y$の分類に用いる特徴量の和集合とし,学習にはLIBLINEARを用いる. \section{評価実験} \subsection{データ}\label{sec:data}対話コーパスとして,人間同士の自由対話を書き起こした名大会話コーパス\cite{meidai:01:a}を用いた.実験では,対話コーパスの中から参加者が二名の対話のみを選択し,各発話に対し対話行為タグを人手で付与した.対話数は97,発話数は91,906である.3対話について二者によって対話行為タグを付与したところ,一致率は77.3\%,$\kappa$係数は0.636であった.コーパスにおける対話行為の出現頻度ならびに割合を表\ref{tab:distribution_of_dialog_tag}に示す.$d_1$(自己開示)が最も多く,全体の6割弱を占めている.一方,$d_9$(要求)は最も少なく,それが占める割合は1\%未満である.コーパスをおよそ80\%,10\%,10\%に分割し,77対話(74,228発話)を訓練データ,10対話(8,984発話)を開発データ,10対話(8,694発話)をテストデータとした.開発データは最適な特徴の選択やパラメタの最適化のために用いた.それぞれのデータにおける対話行為の頻度分布は全体とほぼ同じであった.\begin{table}[b]\caption{実験データにおける対話行為の出現頻度の分布}\label{tab:distribution_of_dialog_tag}\input{01table04.txt}\end{table}\subsection{パラメータ最適化}特徴$f_{18}$(相手の過去の発話の対話行為列),$f_{19}$(話者の過去の発話の対話行為列)について,\ref{sec:対話行為列の長さの最適化}で述べたように,過去の対話行為列の長さ$N_h$ならびに特徴量選択の閾値$T_h$の最適化を行った.本実験では,テストデータにおける発話の対話行為を推定する際,$f_{18}$と$f_{19}$の特徴量は正解の対話行為を用いる.実際には,過去の発話の対話行為は自動的に推定するべきである.しかし,このような実験設定では,対話行為推定の誤りが次の発話の対話行為の推定に影響し,対話行為の誤推定が前の発話の対話行為の誤りによるものか,それとも提案手法の不備など他の要因によるものなのかを区別できない.今回の実験では,提案手法の有効性を確認することに重点を置き,過去の発話の対話行為の分類に誤りはないという理想的な条件下で実験を行った.開発データにおけるF値が最大となった$N_h$と$T_h$の値を表\ref{tab:selected_history_length1}に示す.この表ではパラメタの最適化を行わないとき($N_h=1$,$T_h=0$)のF値も示した.`---'は$N_h=1$,$T_h=0$のときにF値が最大になった場合,すなわちパラメタの最適化によってF値が向上しなかった場合を表わす.\begin{table}[b]\caption{過去の発話の対話行為の特徴のパラメタ}\label{tab:selected_history_length1}\input{01table05.txt}\end{table}この結果から,対話行為毎に話者自身の過去の発話の対話行為列,相手の過去の発話の対話行為列の最適な長さが異なることが示された.特に,「フィラー」についてはF値が11もしくは14ポイント向上しており,パラメータ最適化の影響が大きい.これは「フィラー」の発話を認識するためにはそれまでの対話の流れが重要な情報であることを示唆する.一方で,「質問(YesNo)」,「応答(YesNo)」については自身の過去の発話,相手の過去の発話ともに$N_h=1$,$T_h=0$のときが最良となっている.「質問(YesNo)」については,前の発話の対話行為の影響が小さいと考えられるので,対話行為列の長さを変化させても影響がなかったと考えられる.「応答(YesNo)」については,前の相手の最後の発話が「質問」であることが多いため,$f_{18}$についてはひとつ前の相手の発話の対話行為だけを特徴量とすれば十分と考えられる.一方,$f_{19}$については,F値が他の対話行為と比べて極端に低い.$N_h$,$T_h$の最適化の際には$f_1$(単語n-gram)のみを特徴としていることが原因と考えられる.\subsection{特徴セットの最適化の結果}個々の対話行為に対して選択された特徴を表\ref{tab:selected_feature2-1}に示す.表\ref{tab:selected_feature2-1}の結果から,対話行為毎に有効な特徴が大きく異なることが確認された.$f_{1}$(単語n-gram)は全ての対話行為に共通して有効な特徴である.一方で,$f_{2}$(前発話の単語n-gram)や$f_{8}$(前発話の文末付属語列)は全ての対話行為で不要であり,前の相手の発話の内容は有効な特徴ではないと考えられる.表\ref{tab:effective_feature}は\ref{sec:組み合わせ特徴量}項で定義した最も有効な特徴の一覧である.これらも対話行為毎に異なるが,$f_1$,$f_{18}$,$f_{19}$のいずれかが選ばれており,これらが特に重要な特徴であることがわかる.\begin{table}[b]\caption{選択された特徴}\label{tab:selected_feature2-1}\input{01table06.txt}\par\vspace{4pt}\small$d_1$:自己開示,$d_2$:質問(YesNo),$d_3$:質問(What),$d_4$:応答(YesNo),$d_5$:応答(平叙),$d_6$:あいづち,$d_7$:フィラー,$d_8$:確認,$d_9$:要求\end{table}\begin{table}[b]\caption{対話行為の分類に最も有効な特徴}\label{tab:effective_feature}\input{01table07.txt}\end{table}\subsection{信頼度の重みの推定}\ref{sec:信頼度に対する重み付けに基づく手法}で述べた手法において,対話行為毎の信頼度の重み$w_i$は開発データを用いて推定した.一方,閾値$TU_i$は,開発データとは別のデータで最適化する必要がある.本実験では,訓練データの8分割交差検定により$TU_i$を最適化した.交差検定の際には,機械学習の特徴や重み$w_i$は開発データで決定したものを用いるが,分類器の学習は分割されたデータ毎にやり直した.$TU_i$を0から0.9まで0.1刻みで変動させ,式(\ref{eq:def_eval})のevalの値が一番大きい閾値を選択した.「自己開示」以外の対話行為に対する$w_i$と$TU_i$の一覧を表\ref{tab:w_k_and_TU_k_optimalization}に示す.$d_4$(応答(YesNo)),$d_7$(あいづち),$d_8$(確認)の3つの対話行為については,信頼度に対する重み付けを行っても対話行為推定結果は向上しなかったため,重みを1に設定している.すなわち,これらの対話行為の信頼度に対しては重み付けを行わない.\begin{table}[t]\caption{対話行為ごとの$w_i$と$TU_i$}\label{tab:w_k_and_TU_k_optimalization}\input{01table08.txt}\end{table}\begin{table}[t]\caption{8分割交差検定における分割データ毎のeval値}\label{tab:result_of_each_dialogue}\input{01table09.txt}\end{table}表\ref{tab:result_of_each_dialogue}は,例として$d_2$,$d_5$,$d_7$の3つの対話行為について,8分割交差検定において分割された個々のデータ($TR_1\simTR_8$)に対するevalの値を示している\footnote{$TU_i$は表\ref{tab:result_of_each_dialogue}における「合計」が最も大きい値を選んで最適化している.}.evalの値は対話データによってばらつきが見られ,負の値になる(重み付けによって悪化する)こともある.この結果から,信頼度に対する重み付けに基づく手法は,対話によって効果的に働く場合とそうでない場合があることがわかった.信頼度に対する重み付けは,「自己開示」の判定の信頼度が他の対話行為に比べて高いことを是正するための手法であるが,自己開示の発話の出現のしやすさは対話の内容に強く依存しており,自己開示の発話が多く出現する対話に対しては,「自己開示」以外の対話行為を選択しやすくする本手法が有効に働かなかったと推察できる.\subsection{対話行為推定の評価}対話行為を推定する提案手法の性能を評価する.評価基準は,各対話行為の推定の精度,再現率,F値,ならびにこれら3つの全対話行為についてのマクロ平均とマイクロ平均である.なお,精度および再現率のマイクロ平均は正解率(システムが選択した対話行為と正解の対話行為が一致する割合)に等しい.提案手法を2つのベースラインと比較する.一つは,全ての特徴を用いて,9つの対話行為のいずれかを選択する分類器をLIBLINEARで学習する手法($BL_a$)である.もう一つは,3.3項で説明した方法で特徴を選択する手法($BL_s$)である.提案手法が個々の対話行為毎に最適な特徴を選択するのに対し,$BL_s$では特徴のセットを1つだけ選択し,それを用いて全ての対話行為を分類する.一方,提案手法として,\ref{sec:判定の信頼度による選択}で述べた信頼度を比較する手法($Pro_p$),\ref{sec:信頼度を特徴量とする機械学習による選択}で述べた信頼度を特徴量とした機械学習を用いる手法($Pro_m$),\ref{sec:信頼度に対する重み付けに基づく手法}で述べた「自己開示」以外の対話行為の信頼度に対して高い重みを与える手法($Pro_w$),\ref{sec:特定の対話行為の組に対して機械学習で識別する手法}で述べた判定の難しい対話行為の組に対して機械学習で適切な対話行為を選択する手法($Pro_b$)の4つを評価する.まず,発話がある対話行為を持つか否かを判定するタスク(以下,「個別対話行為判定タスク」と呼ぶ)についてベースラインと提案手法を比較する.言い換えれば,個別対話行為判定タスクでは,図\ref{fig:proposed_method}の第1段階における対話行為毎に学習した分類器の性能を評価する.表\ref{tab:result_binary_task}は同タスクにおける$BL_s$と$Pro_p$の精度(P),再現率(R),F値(F)を示している.表\ref{tab:result_binary_task}(a)は開発データの結果であり,対話行為毎に特徴を最適化することによって,全ての対話行為について評価値が同等もしくは向上していることが確認できる.一方,表\ref{tab:result_binary_task}(b)はテストデータの結果であり,$Pro_p$は$BL_s$に比べてF値のマクロ平均が2.9ポイント向上した.しかしながら,「あいづち」と「要求」についてはF値が低下している.これは開発データとテストデータとで対話の内容が異なるため,両データにおいて最適な特徴が一致していないためと考えられる.この結果は,自由対話では様々なトピックが話題に挙がるため,対話行為分類のための最適な特徴を実験的に決定することが難しいことを示唆する.\begin{table}[b]\caption{個別対話行為判定タスクの結果}\label{tab:result_binary_task}\input{01table10.txt}\end{table}表\ref{tab:result_multi_task1}は,発話に対して9つの対話行為の中から該当するものを推定するタスク(以下,「対話行為推定タスク」と呼ぶ)における各手法の評価値を示している.2つのベースラインを比較すると,$BL_s$はマクロ平均では$BL_a$を上回るが,マイクロ平均は等しい.対話行為を区別せずに単純に特徴を最適化しても,正解率は向上しないことがわかる.一方,4つの提案手法のF値のマイクロ平均はいずれもベースラインよりも高い.最も結果が良かったのは手法$Pro_b$であった.$BL_s$と$Pro_b$の結果をマクネマー検定で検定したところ,5\%の有意水準で有意差があった.$Pro_b$が選択した対話行為と正解の対話行為の対応表を付録\ref{sec:contingency_table_Pro_b}に示す.\begin{table}[t]\caption{対話行為推定タスクの結果}\label{tab:result_multi_task1}\input{01table11.txt}\par\vspace{4pt}\small$d_1$:自己開示,$d_2$:質問(YesNo),$d_3$:質問(What),$d_4$:応答(YesNo),$d_5$:応答(平叙),$d_6$:あいづち,$d_7$:フィラー,$d_8$:確認,$d_9$:要求,Ma:マクロ平均,Mi:マイクロ平均\end{table}対話行為毎に結果を比較すると,「応答(YesNo)」「あいづち」「確認」「要求」については$Pro_b$は$BL_s$に比べてF値は改善しなかったが,「自己開示」「質問(YesNo)」「質問(What)」「応答(平叙)」「フィラー」についてはF値が0.3〜9.7ポイント改善した.$Pro_p$と$Pro_m$を比較すると,$Pro_m$は「あいづち」「確認」「要求」以外の対話行為でより高いF値が得られており,信頼度を特徴量とした機械学習の手法が有効であることを示している.「自己開示」について$Pro_p$と$Pro_w$を比較すると,再現率は$Pro_p$の方が高いが,精度ならびにF値では$Pro_w$が上回る.信頼度に重み付けを行う$Pro_w$は,判定の信頼度が全般に高い「自己開示」が過度に選ばれることを抑制するための手法であるが,この手法により「自己開示」のfalsepositiveの誤りが減少したことが確認された.また,表\ref{tab:w_k_and_TU_k_optimalization}で重みを1より大きく設定した全ての対話行為でF値が向上した.$Pro_b$は$Pro_w$と比べて,誤りが多かったために改めて機械学習で分類し直した「質問(YesNo)」「フィラー」「確認」の結果が改善されていることが確認できた.ただし,「あいづち」については,精度,再現率に変化はあったが,F値は変化しなかった.本論文では,ベースラインで精度や再現率が低い対話行為に対して推定の性能を向上させることを目指したが,一部の対話行為についてはその目標が達成されていない.具体的には,ベースラインで性能の低い「フィラー」の評価値は向上しているが,「確認」や「要求」については逆にベースラインよりも低くなっている.「確認」については,表\ref{tab:result_binary_task}より,個別対話行為分類タスクでは提案手法はベースラインを上回っているため,図\ref{fig:proposed_method}における二段階の処理のうち,第1段階で「確認」に該当するかを判定する時点では性能の向上が見られるものの,第2段階の対話行為を推定する段階で誤りを多く生じていることがわかる.一方,「要求」については表\ref{tab:result_binary_task}でも表\ref{tab:result_multi_task1}でも提案手法はベースラインより劣る.この原因として,コーパスにおいて「要求」の対話行為を持つ発話の数が他の対話行為と比べて極端に少ないことが考えられる.組み合わせ特徴量の有効性を評価するために,組み合わせ特徴量を使用したモデルと使用しないモデルのF値のマイクロ平均(正解率)を比較した.結果を表\ref{tab:result_evaluate_comb_multi_task}に示す.いずれの手法も組み合わせ特徴量を用いることでF値が向上していることから,組み合わせ特徴量の有効性が確認できた.\begin{table}[t]\caption{組み合わせ特徴量の評価}\label{tab:result_evaluate_comb_multi_task}\input{01table12.txt}\end{table}\subsection{機械学習アルゴリズムの比較}\label{sec:機械学習アルゴリズムの比較}前項までの実験では機械学習アルゴリズムとしてL2正則化ロジスティック回帰を用いたが,本項ではこれと他の機械学習アルゴリズムを比較する.また,対話行為毎に適切な特徴セットを設定するという提案手法の基本的な考え方が他の機械学習アルゴリズムでも有効であるかを検証する.そのため,$BL_a$(全特徴を用いたベースライン),$BL_s$(対話行為を区別しないで特徴を選択したベースライン),ならびに提案手法のうち最も基本的な$Pro_p$を比較する実験を行う.比較する機械学習アルゴリズムはSVMとする.カーネル関数として,線形カーネル,多項式カーネル(カーネルの次数は3),RadialBasisFunction(RBF)カーネル,シグモイドカーネルの4つを用いる.$Pro_p$では,対話行為毎に特徴を選択するために,特徴セットを変えて学習とテストを繰り返す必要があるが,SVMの学習は非常に時間がかかるため,現実的な時間では特徴選択が終了しない.そこで,高速なLIBLINEARを用いて選択された特徴のセット(表\ref{tab:selected_feature2-1})を用い,対話行為毎の二値分類器を学習するときのみSVMを用いる.同様に,$BL_s$もLIBLINEARを用いて選択された特徴のセットを用いる.また,L2正則化ロジスティック回帰とは異なり多項式カーネルのSVMでは特徴量の組み合わせも学習時に考慮されるため,ここでの実験では組み合わせ特徴量は用いない.SVMの学習にはLIBSVM\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm/}を用いる.学習パラメタはデフォルト値を用いる.$Pro_p$で用いる個々の対話行為判定の信頼度は,LIBSVMが出力する確率とする.SVMによる対話行為推定のF値のマイクロ平均(正解率)を表\ref{tab:result_SVM}に示す.比較のため,L2正則化ロジスティック回帰を用いたときの結果(表\ref{tab:result_evaluate_comb_multi_task}の組み合わせ特徴量なしの結果)も再掲する.*と$\dagger$はマクネマー検定で$Pro_p$と他の手法の差を検定した結果を表わす.*はロジスティック回帰の$Pro_p$との間に有意水準5\%で有意差が,$\dagger$は同じ学習アルゴリズムの$BL_s$との間に有意差があることを示している.多項式カーネルのSVMでは全ての発話に対して「自己開示」が選択された.これは過学習のためと考えられる.\begin{table}[t]\caption{機械学習アルゴリズムの比較}\label{tab:result_SVM}\input{01table13.txt}\vspace{4pt}\small*:$p<0.05$(vs.ロジスティック回帰の$Pro_p$),~~$\dagger$:$p<0.05$(vs.$BL_s$)\end{table}異なる機械学習アルゴリズムの$Pro_p$の結果を比較すると,L2正則化ロジスティック回帰は全てのSVMよりも正解率が有意に高い.線形カーネルのSVMについては,$Pro_p$よりも$BL_s$の方が正解率が高いが,ロジスティック回帰の$Pro_p$よりは劣る.ただし,今回の実験では,特徴選択の際に用いた機械学習アルゴリズム(ロジスティック回帰)と対話行為推定の分類器の学習に用いたアルゴリズム(SVM)が異なる.特徴選択もSVMで行えば,SVMでの分類に適した特徴セットが選ばれて,正解率が向上する可能性がある.SVMの中で最も結果が良かった線形カーネルの$BL_s$については,特徴選択も線形カーネルのSVMを用いてモデルを学習する追加実験を行ったところ,F値は0.806と変化しなかった\footnote{選択された特徴は異なる.ロジスティック回帰を用いて選択された特徴は$f_{1}$,$f_{5}$,$f_{8}$,$f_{14}$,$f_{15}$,$f_{18}$,$f_{19}$,$f_{20}$,$f_{22}$,$f_{24}$であったのに対し,線形カーネルのSVMで選択された特徴は$f_{1}$,$f_{5}$,$f_{6}$,$f_{8}$,$f_{10}$,$f_{11}$,$f_{12}$,$f_{13}$,$f_{16}$,$f_{17}$,$f_{18}$,$f_{19}$,$f_{20}$,$f_{21}$,$f_{23}$,$f_{24}$,$f_{25}$,$f_{26}$,$f_{27}$,$f_{28}$であった.}.このモデルと提案手法(ロジスティック回帰の$Pro_p$)とは5\%の有意水準で有意差があった.他のカーネルの$BL_s$や$Pro_p$についても特徴選択の段階からSVMを用いるべきであるが,LIBLINEAR以外では特徴選択に非常に時間がかかるという問題がある.例えば,IntelXeon2.93~GHz,メモリ8~GBのサーバを用いて,対話行為「自己開示」に該当するかを判定する二値分類器の学習に,LIBLINEARでは16秒を要したのに対し,LIBSVMではおよそ168倍の2,697秒を要した.今回の実験結果からは,LIBLINEARを用いる手法が対話行為推定のF値ならびに計算時間の両方の観点から最も優れているといえる.機械学習アルゴリズム毎に$BL_s$と$Pro_p$を比較すると,ロジスティック回帰,RBFカーネルのSVM,シグモイド関数のSVMにおいて,差はそれほど顕著ではないものの,$Pro_p$は$BL_s$よりも正解率が高かった.有意義な分類器が学習できなかった多項式カーネルのSVMを除けば,4つのうち3つの機械学習アルゴリズムについて,対話行為毎に最適な特徴を選択するというアプローチは有効と言える.但し,提案手法のアプローチの妥当性をより正確に検証するためには,異なる対話行為のセットを用いた実験や,異なる対話コーパスを用いた実験などを行う必要があるだろう.次に,多値分類の機械学習アルゴリズムであるCRFならびにランダムフォレスト\cite{breiman:01:a}と提案手法を比較する.CRFで分類されるのは系列(本論文の場合は発話列)であることに注意していただきたい.ここでは,対話全体の発話列を入力として与える手法($CRF_{all}$)と,対話の先頭から解析対象となる発話までの発話列を逐次的に入力として与える手法($CRF_{seq}$)の2つを評価する.実際に対話システムでの利用を想定しているのは$CRF_{seq}$である.$CRF_{all}$は対話が全て終了するまで対話行為を分類できないため,実際の対話システムに組み込むことは不可能だが,文献\cite{isomura:09:a}のようにコーパスへの対話行為のタグ付けを目的とする場合には利用できる.CRFの学習にはCRFsuite\footnote{http://www.chokkan.org/software/crfsuite/}を,ランダムフォレストの学習にはscikit-learn\footnote{http://scikit-learn.org/}を用いる.$CRF_{all}$,$CRF_{seq}$,$RF$(ランダムフォレスト)のそれぞれについて,$BL_a$と同じ特徴セット(28個の全ての特徴)を用いたときと,$BL_s$と同じ特徴セットを用いたときの対話行為推定のF値を表\ref{tab:crf_random-forest}に示す.最良の提案手法である$Pro_b$(F値0.825)は,$CRF_{seq}$と$RF$を上回り,マクネマー検定で5\%の有意水準で有意差があることを確認した.$CRF_{all}$は$CRF_{seq}$よりも解析に利用できる発話数が多いため,F値が高い.$BL_s$と同じ特徴セットを用いたときの$CRF_{all}$は$Pro_b$を上回るが,$CRF_{all}$は対話システムでの利用を想定したモデルではない.\begin{table}[t]\caption{CRF,ランダムフォレストの結果}\label{tab:crf_random-forest}\input{01table14.txt}\end{table} \section{おわりに} 本論文では,自由対話における発話の対話行為を自動推定する新しい手法を提案した.提案手法は,個々の対話行為毎に発話がその対話行為に該当するかを判定する第1段階と,第1段階の結果から最終的に最も適切な対話行為を選択する第2段階から構成される.第1段階において,教師あり機械学習のために有効な特徴は対話行為毎に異なるという仮定の下,対話行為毎に最適な特徴のセットを自動的に決定する点に特長がある.評価実験の結果,対話行為を区別せずに特徴の選択を行う手法と比べて,提案手法の対話行為推定のF値は0.6ポイント高かった.F値の差はそれほど大きくはないものの,統計的に有意な差があることを確認した.本論文の貢献は以下の通りである.表\ref{tab:selected_feature2-1}に示すように,有効な特徴のセットは対話行為によって異なることを実験的に確認し,対話行為毎に特徴の最適化を行う提案手法のアプローチが有望であることを示した.表\ref{tab:result_SVM}に示したロジスティック回帰ならびに4種のカーネル関数のSVMを用いた検証実験では,ロジスティック回帰,SVM(RBF),SVM(シグモイド)について,対話行為毎に特徴の最適化を行うことでF値の向上が見られた.ただし,統計的に有意差が確認されたのはSVM(RBF)のみであった.また,過去の対話行為を特徴とするとき,その最適な長さは対話行為毎に異なることを確認した.さらに,提案手法の第2段階において,分類の信頼度を単純に比較して対話行為を1つ選択すると,分類の信頼度が対話行為によって大きく差があるために特定の対話行為(具体的には「自己開示」)が選ばれやすいという問題に対し,適切な対話行為を選択する3つの手法を提案し,それらがF値の向上に貢献することを確認した.一方,対話行為によっては,特徴の最適化により,開発データではF値が向上するもののテストデータは低下することがわかった.自由対話システムでは様々なトピックが話題になることから,対話によって有効な特徴が異なる可能性があり,特徴の最適化を実験的に行う提案手法のアプローチの問題点も明らかにした.表\ref{tab:result_of_each_dialogue}に示したように,信頼度の重み付けに基づく手法が対話によって有効に働く場合とそうでない場合があることがわかったが,これも自由対話システムにおけるトピックの多様性に起因すると考えられる.今後の課題としては,F値が依然として低い「フィラー」「確認」「要求」に対して対話行為推定の性能を向上させることが挙げられる.これらの対話行為の推定に有効な新たな特徴を発見したり,提案手法の第2段階における対話行為選択手法を洗練する必要がある.また,上記の考察を踏まえ,領域適応の技術を応用し,対話の内容が訓練データ・開発データとテストデータとで異なる場合でもF値を低下させない方法を探究することも重要な課題である.\ref{sec:機械学習アルゴリズムの比較}項で述べたように,対話行為毎に適切な特徴のセットを設定するという提案手法のアプローチの妥当性を検証するためには更なる実験が必要である.また,自然言語処理分野でも近年盛んに利用されるようになった深層学習\cite{Kim:14:a}との比較も重要である.\acknowledgment本論文の査読にあたり,査読者の方から数多くの有益なコメントをいただきました.深く感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Breiman}{Breiman}{2001}]{breiman:01:a}Breiman,L.\BBOP2001\BBCP.\newblock\BBOQRandomForests.\BBCQ\\newblock{\BemMachineLearning},{\Bbf45}(1),\mbox{\BPGS\5--32}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{fan:08:a}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Higashinaka,Imamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,\BBA\Matsuo}{Higashinakaet~al.}{2014}]{Higashinaka:14:a}Higashinaka,R.,Imamura,K.,Meguro,T.,Miyazaki,C.,Kobayashi,N.,Sugiyama,H.,Hirano,T.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014\BBCP.\newblock\BBOQTowardsanOpen-domainConversationalSystemFullyBasedonNaturalLanguageProcessing.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014},\mbox{\BPGS\928--939}.\bibitem[\protect\BCAY{平野\JBA小林\JBA東中\JBA牧野\JBA松尾}{平野\Jetal}{2016}]{Hirano:16:a}平野徹\JBA小林のぞみ\JBA東中竜一郎\JBA牧野俊朗\JBA松尾義博\BBOP2016\BBCP.\newblockパーソナライズ可能な対話システムのためのユーザ情報抽出.\\newblock\Jem{人工知能学会論文誌},{\Bbf31}(1),\mbox{\BPGS\DSF--B\_1--10}.\bibitem[\protect\BCAY{Inui,Ebe,Indurkhya,\BBA\Kotani}{Inuiet~al.}{2001}]{inui:01:a}Inui,N.,Ebe,T.,Indurkhya,B.,\BBA\Kotani,Y.\BBOP2001\BBCP.\newblock\BBOQACase-BasedNaturalLanguageDialogueSystemUsingDialogueAct.\BBCQ\\newblockIn{\BemProceedingsofIEEEInternationalConferenceonSystems,Man,andCybernetics},\mbox{\BPGS\193--198}.\bibitem[\protect\BCAY{磯村\JBA鳥海\JBA石井}{磯村\Jetal}{2009}]{isomura:09:a}磯村直樹\JBA鳥海不二夫\JBA石井健一郎\BBOP2009\BBCP.\newblock対話エージェント評価におけるタグ付与の自動化.\\newblock\Jem{電子情報通信学会論文誌.A,基礎・境界},{\Bbf92}(11),\mbox{\BPGS\795--805}.\bibitem[\protect\BCAY{Jurafsky,Shriberg,\BBA\Biasca}{Jurafskyet~al.}{1997}]{jurafsky:97:a}Jurafsky,D.,Shriberg,E.,\BBA\Biasca,D.\BBOP1997\BBCP.\newblock\BBOQSwitchboardSWBD-DAMSLShallow-Discourse-FunctionAnnotationCodersManual.\BBCQ\\newblock\BTR,InstituteofCognitiveScienceTechnicalReport.\bibitem[\protect\BCAY{Kim,Cavedon,\BBA\Baldwin}{Kimet~al.}{2010}]{kim:10:a}Kim,S.~N.,Cavedon,L.,\BBA\Baldwin,T.\BBOP2010\BBCP.\newblock\BBOQClassifyingDialogueActsinOne-on-oneLiveChats.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\862--871}.\bibitem[\protect\BCAY{Kim}{Kim}{2014}]{Kim:14:a}Kim,Y.\BBOP2014\BBCP.\newblock\BBOQConvolutionalNeuralNetworksforSentenceClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1746--1751}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2001}]{meidai:01:a}国立国語研究所\BBOP2001\BBCP.\newblock名大会話コーパス.\科学研究費基盤研究(B)(2)「日本語学習辞書編纂に向けた電子化コーパス利用によるコロケーション研究」(平成13年度〜15年度),http://pj.ninjal.ac.jp/conversation/nuc.html.\bibitem[\protect\BCAY{Libin\BBA\Libin}{Libin\BBA\Libin}{2004}]{Libin:04:a}Libin,A.~V.\BBACOMMA\\BBA\Libin,E.~V.\BBOP2004\BBCP.\newblock\BBOQPerson-robotinteractionsfromtherobopsychologists'pointofview:theroboticpsychologyandrobotherapyapproach.\BBCQ\\newblockIn{\BemProceedingsoftheIEEE,{\upshape\textbf{92}(11)}},\mbox{\BPGS\1789--1803}.\bibitem[\protect\BCAY{前田\JBA南\JBA堂坂}{前田\Jetal}{2011}]{Maeda:11:a}前田英作\JBA南泰浩\JBA堂坂浩二\BBOP2011\BBCP.\newblock人ロボット共生におけるコミュニケーション戦略の生成.\\newblock\Jem{日本ロボット学会誌},{\Bbf29}(10),\mbox{\BPGS\887--890}.\bibitem[\protect\BCAY{目黒\JBA東中\JBA杉山\JBA南}{目黒\Jetal}{2013}]{Meguro:13:a}目黒豊美\JBA東中竜一郎\JBA杉山弘晃\JBA南泰浩\BBOP2013\BBCP.\newblock意味属性パターンを用いたマイクロブログ中の発言に対する自動対話行為付与.\\newblock\Jem{研究報告音声言語情報処理(SLP)},{\Bbf2013}(1),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Meguro,Minami,Higashinaka,\BBA\Dohsaka}{Meguroet~al.}{2014}]{Meguro:14:a}Meguro,T.,Minami,Y.,Higashinaka,R.,\BBA\Dohsaka,K.\BBOP2014\BBCP.\newblock\BBOQLearningtoControlListening-orientedDialogueUsingPartiallyObservableMarkovDecisionProcesses.\BBCQ\\newblock{\BemACMTransactionsonSpeechandLanguageProcessing},{\Bbf10}(4),\mbox{\BPGS\1--20}.\bibitem[\protect\BCAY{Milajevs\BBA\Purver}{Milajevs\BBA\Purver}{2014}]{milajevs:14:a}Milajevs,D.\BBACOMMA\\BBA\Purver,M.\BBOP2014\BBCP.\newblock\BBOQInvestigatingtheContributionofDistributionalSemanticInformationforDialogueActClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponContinuousVectorSpaceModelsandtheirCompositionality(CVSC)},\mbox{\BPGS\40--47}.\bibitem[\protect\BCAY{南\JBA東中\JBA堂坂\JBA目黒\JBA森\JBA前田}{南\Jetal}{2012}]{Minami:12:a}南泰浩\JBA東中竜一郎\JBA堂坂浩二\JBA目黒豊美\JBA森啓\JBA前田英作\BBOP2012\BBCP.\newblock対話行為タイプ列Trigramによる行動予測確率に基づくPOMDP対話制御.\\newblock\Jem{電子情報通信学会論文誌.A,基礎・境界},{\Bbf95}(1),\mbox{\BPGS\2--15}.\bibitem[\protect\BCAY{西田}{西田}{1992}]{nishida:92:a}西田公昭\BBOP1992\BBCP.\newblock対話者の会話行為が会話方略ならびに対人認知に及ぼす効果.\\newblock{\BemTheJapaneseJournalofPhychology},{\Bbf63}(5),\mbox{\BPGS\319--325}.\bibitem[\protect\BCAY{関野\JBA井上}{関野\JBA井上}{2010}]{sekino:10:a}関野嵩浩\JBA井上雅史\BBOP2010\BBCP.\newblock発話に対する拡張談話タグ付与.\\newblock\Jem{第6回情報処理学会東北支部研究会報告}.\bibitem[\protect\BCAY{Sugiyama,Meguro,Higashinaka,\BBA\Minami}{Sugiyamaet~al.}{2013}]{Sugiyama:13:a}Sugiyama,H.,Meguro,T.,Higashinaka,R.,\BBA\Minami,Y.\BBOP2013\BBCP.\newblock\BBOQOpen-domainUtteranceGenerationforConversationalDialogueSystemsusingWeb-scaleDependencyStructures.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\334--338}.\bibitem[\protect\BCAY{Takahashi,Takamura,\BBA\Okumura}{Takahashiet~al.}{2007}]{Takahashi:07:a}Takahashi,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2007\BBCP.\newblock\BBOQEstimationofClassMembershipProbabilitiesintheDocumentClassification.\BBCQ\\newblockIn{\BemProceedingsofthe11thPacific-AsiaConferenceonAdvancesinKnowledgeDiscoveryandDataMining(PAKDD)},\mbox{\BPGS\284--295}.\end{thebibliography}\appendix\vspace{-1\Cvs} \section{対応表} \label{sec:contingency_table_Pro_b}\begin{table}[b]\caption{正解の対話行為と$Pro_b$の出力との対応表}\label{tab:contingency_table_Pro_b}\input{01table15.txt}\vspace{4pt}\small$d_1$:自己開示,$d_2$:質問(YesNo),$d_3$:質問(What),$d_4$:応答(YesNo),$d_5$:応答(平叙),$d_6$:あいづち,$d_7$:フィラー,$d_8$:確認,$d_9$:要求\end{table}正解の対話行為と提案手法のうち最もF値の高い$Pro_b$が選択した対話行為の対応表を表\ref{tab:contingency_table_Pro_b}に示す.\clearpage\begin{biography}\bioauthor{福岡知隆}{2010年東京工科大学コンピュータサイエンス学科コンピュータサイエンス学部卒業.2012年同大学院バイオ・情報メディア研究科修士課程修了.2017年北陸先端科学技術大学院大学情報科学研究科博士課程修了.同年株式会社NextremerAIエンジニア.現在に至る.博士(情報科学).電子情報通信学会会員.}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1998年同大学院情報理工学研究科博士課程修了.同年同大学院助手.2001年北陸先端科学技術大学院大学情報科学研究科助教授.現在に至る.博士(工学).統計的自然言語解析に関する研究に従事.情報処理学会,人工知能学会,電子情報通信学会各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
V08N03-03
\section{はじめに} 統計情報に基づく自然言語処理では,訓練データとしてのコーパスの影響は非常に大きい.形態素情報や品詞情報等の情報を付加したコーパスを利用することで処理の精度の向上や処理の簡略化等が期待できるが,情報を付加する段階での労力が大きく,その精度に結果が大きく左右されるという問題がある.生コーパスをそのまま利用する場合には,コーパスの取得が容易であるため,目的に合ったドメインのコーパスを大量に入手できるという利点がある.しかし,生コーパスは未登録語や未知の言い回し,非文とされるような文の出現等を多く含むことがほとんどであり,これらが処理の精度の低下を招くという問題がある.コーパスから得た情報を利用するようなシステムの場合,処理の基本は意味のある言語単位であるから,まずこれを正しく認識することが先の処理の精度の向上に必要である.日本語のように意味のある言語単位ごとの区切り目が明らかでない言語では,まずこれを認識することが処理の第一段階であると言っても過言ではない.そこで,本稿では,生コーパス中の意味のある文字列を推測し認識することで結果的にコーパス中の未登録語を推定するシステムを提案する.本システムは,対象となるドメインの訓練用コーパスから取得した文字間共起情報を利用して,入力コーパス中の意味のある文字列を認識しこれを出力する.訓練用コーパス,テストコーパスともに事前のタグ付けは必要としない. \section{日本語における語句抽出} \subsection{自然言語処理における処理単位}自然言語処理の処理単位としては,単語を基本とするものが一般的である.しかし,単語は多義性を持つものも多く,文脈の中では一意に意味を決められる場合でも単語ごとに分割した時点でその語の持つ意味を特定できなくなる場合があり,単語が最適な処理単位と言えるかには疑問が残る\cite{fung98}.処理の単位として意味的な塊としての語句をとった場合,このような多義性の問題等はある程度抑えることができる.従って,意味的な塊としての語句の認識は,自然言語処理の精度の向上の点で,重要な課題である.現在研究されている語句抽出システムは,ほとんどが名詞句を対象としたものである.構文情報を基に名詞句を推定する方法および大規模コーパスからのドメイン固有の語句の抽出とが主に研究されている.Argamonらは,サブパターンの概念を利用して名詞句をパターンとして認識する,記憶ベースの手法を提案している\cite{argamon98}.また,Ananiadouは語句の組成についての形態論的ルールを利用して語句の認識を行なう手法を提案している\cite{ananiadou94}.\subsection{日本語における語句抽出}英語のように単語間に区切りを置く言語では,語句の認識は,区切りによって分けられた語を連結する作業となる.それに対し,日本語は単語間に区切りを置かない言語であるため,日本語においては,単語の抽出プロセスは,文の切り分け作業となる.日本語は日常的に利用される文字が数千文字と非常に多い.また,数種類の字種を同時に利用するという点でも,日本語は特徴的である.文字の共起情報を利用する手法としては,$n$-gramの画期的な抽出法を提案した長尾らによるもの\cite{nagao94}やOdaらの$n$-gramを利用した手法\cite{oda99}が挙げられる.また,Kashiokaらは,文字の相互情報量を利用した文字クラスタリングシステムを提案し,これを利用した切り分け処理およびタグ付け処理を行なっている\cite{kashioka98}.Kashiokaらの手法では処理に必要な情報を得るため,事前に訓練コーパスの単語への切り分けが必要とされる.単語の共起情報を利用する手法として,Borthwickは,最大エントロピ法に基づく固有名詞抽出の手法を提案している\cite{borthwick99}.Borthwickの手法ではあらかじめJumanを用いて切り分けおよびタグ付けを行なっている. \section{システム概要} \subsection{本システムの概要}本システムは入力として日本語文一文を採り,訓練コーパスから事前に抽出した文字共起情報を基に文中に含まれる文字列を調べ,意味のある文字列と認めたものを出力する.以下にシステムの処理の流れを示す(図\ref{fig:flo}).\begin{figure}[hbt]\begin{minipage}{\textwidth}\begin{center}\begin{tabular}{ccc}\hline\hline訓練フェーズ&&抽出フェーズ\\\hline入力(文単位)&&入力(文単位)\\$\Downarrow$&&$\Downarrow$\\d-bigram&$\longrightarrow$&文字ペアそれぞれについて\\&&有繋評価値算出\\&&$\Downarrow$\\&&意味のある文字列抽出\\&&$\Downarrow$\\&&出力(文字列単位)\\\hline\hline\end{tabular}\caption{システムの処理の流れ}\label{fig:flo}\end{center}\end{minipage}\end{figure}本システムは入力されたテストコーパスを一文単位で処理する.入力文中の隣り合う文字ペアそれぞれについて,訓練コーパスから抽出された文字単位共起情報を基に,その二文字の繋がりやすさを示す有繋評価値を算出し,これに基づいてこの二文字が同じ文字列に含まれるものであるかを推測する.この結果一繋がりと判断された文字列について,その有繋評価値が十分に高いものを統計情報に基づいて意味がある文字列と判断し,これを抽出結果として出力する.\subsection{コーパス}\label{sec:corpus_form}本システムの処理単位は文である.従って,訓練コーパスから文字単位共起情報を取得する際も,余分な情報を取得しないよう文単位で処理を行なう.文末は,原則として,文末記号によって決める.文末記号としては「.」「!」「?」の他,「……」や「♪」,「★」等文末を示すと認められるものはすべて認める.また,複数の文末記号が続く場合,その最後の文末記号までを一文とする.文末記号が現れても,それが引用中である等,文の途中であると認められるような場合にはそこで文を切らない.e.g.「こんにちは.」と言った.また,文末記号がない場合でも,明らかに文の区切り目であると考えられる場合は,文末記号を置かないまま文末とした.\subsection{文字間統計情報}\label{sec:scoring}隣接bigramだけでは,{\itAXYB}に現れる事象{\itXY}と{\itCXYD}に現れる{\itXY}とを区別することはできない.日本語のように形態素間の区切り目が明らかでない言語では,単純隣接bigramを利用することで捨てられるこれらの文脈情報が重要な役割を果たすことがある.本稿では,共起情報を取得する際の確率モデルとしてd-bigramを採用した.d-bigramとは,事象間の距離を考慮したbigramモデルである\cite{tsutsumi93}.\subsubsection{d-bigram確率モデル}\label{sec:d-bigram}d-bigramモデルは,2つの事象および事象間の距離の3つのパラメータから成っている.2事象間の距離は,この2事象が隣接して並んでいる時1とする.例えば,{\itABBC}という事象列からは6種類のd-bigramが取得できる.距離を考慮しない通常のbigramモデルでは({\itA},{\itB})が2回カウントされるが,d-bigramモデルの場合,隣り合って出現している({\itA},{\itB};1)と一事象間に置いて出現している({\itA},{\itB};2)は別の事象として扱われる.\subsubsection{有繋評価値}\label{sec:linkyscore}Nobesawaらは文中のある文字の並びが意味のある塊を成すことの起こりやすさを算出するシステムを提案している\cite{nobesawa96coling}.この手法は語彙についての知識を一切必要とせず,文字間共起情報のみで文を意味のある塊に切り分けることが可能であることを示した.実験は日本語について行なわれ,日本語の各文字の共起関係の情報は文中での文字の繋がり方を示すのに十分な情報を持っていることを示した.本稿ではこの点に着目し,文字間の共起関係を利用して意味のある文字列を推測し自動抽出するシステムを提案することで,辞書等の語彙を非常に小さい労力で補う手法を提案する.本システムは,有繋評価値と呼ばれる評価値\cite{nobesawa96coling}を導入する.有繋評価値とは,隣り合った二文字が一塊の文字列に属する事象の起こりやすさを示す値であり,この値が高いほど,対象となっている隣接二文字ペアが同じ文字列に属する可能性が高い.有繋評価値は統計情報のみに基づいて算出する値である.Nobesawaらは有繋評価値の計算にd-bigramを利用することで文脈情報を影響させている.文中の$i$番目の文字と$i+1$番目の文字の間の有繋評価値の算出式を式(\ref{exp:uk})に示す.ただし,$w_i$はある事象(本システムでは,文$w$の$i$番目の文字),$d$は2事象間の距離(d-bigramの定義による距離),$d_{max}$は有繋評価値の算出に利用されるd-bigramの距離$d$の最大値(本稿で紹介する実験では$d_{max}=5$とした),$g(d)$は距離の影響に対する重み付け関数\footnote{距離が遠いほど事象の影響が小さくなるとする主張\cite{church89acl}を実装したものであり,本稿で紹介する実験では$g(d)=d^{-2}$\cite{sano96}としている.}とする.\begin{eqnarray}\label{exp:uk}UK(i)=\sum_{d=1}^{d_{max}}\sum_{j=i-(d-1)}^{i}MI_d(w_j,w_{(j+d)};d)\timesg(d)\end{eqnarray}また,2事象間の相互情報量の計算式をd-bigramに対応するよう拡張したものとして式(\ref{exp:mid})を利用した.ただし,$x$,$y$は各事象,$d$は2事象間の距離,$P(x)$は事象$x$が起こる確率,$P(x,y;d)$はd-bigram($x$,$y$;$d$)が起こる確率とする.\begin{eqnarray}\label{exp:mid}MI_d(x,y;d)=log_2\frac{P(x,y;d)}{P(x)P(y)}\end{eqnarray}図\ref{fig:scoring}に文脈情報の影響のイメージを示す.ある隣接2文字$w_i$と$w_{i+1}$の間の有繋評価値の算出には,この2文字ペアの共起情報だけでなく,その周りに現れる文字ペアの共起情報(例えば($w_{i-1}$,$w_{i+2}$;3)等)が影響する.\begin{figure}[htb]\begin{minipage}{\textwidth}\begin{center}\atari(100,41)\caption{d-bigramを用いた有繋評価値の算出\cite{nobesawa96coling}}\label{fig:scoring}\end{center}\end{minipage}\end{figure}\vspace*{5mm}\subsection{文字列抽出}本稿で用いるシステムは文字間共起情報を利用して算出する有繋評価値を基に抽出すべき文字列の選択を行なう.図\ref{fig:scoregraph}に有繋評価値のグラフの例を挙げる.「ABCDEFGHIJK!」という12文字から成る文字列を入力文としたとし,グラフ中のX軸上のアルファベットはそれぞれ文中の各文字を示す.末尾の「!」は文末記号を表す.\begin{figure}[htb]\begin{minipage}{\textwidth}\begin{center}\atari(70,35)\caption{有繋評価値スコアグラフ\cite{nobesawa96coling}}\label{fig:scoregraph}\end{center}\end{minipage}\end{figure}\vspace{-4mm}有繋評価値は隣り合う文字ペアそれぞれについて算出される.グラフ中では,各文字ペア間の有繋評価値をY軸で表している.有繋評価値は文字間共起情報を基にしており,共起する確率が高い場合ほど値が高くなる.スコアグラフが山状になっている部分は文字間の繋がりの強い文字の並びであり,この部分は一塊の意味を成すとみなすことが可能である.有繋評価値の算出には該当文字ペアだけでなくその周りの文字との共起情報も利用されるため,長い文字列では,その文字列に含まれる文字それぞれの共起関係の相乗効果により,文字列の有繋評価値が高くなる傾向がある.偶然隣り合って並んだ文字ペア\footnote{対象が言語であるため,「偶然」という表現は実際には適切でない.ここでは,必ずしも隣り合う可能性が高いとは言えない2単語の境界にある2文字ペアを指して偶然の並びと言っている.}の場合,有繋評価値は相対的に低くなり,スコアグラフ上では谷を成す.本システムでは,スコアグラフで言うところの山状の部分に相当する文字列を有繋文字列(有繋評価値に基づいて一塊と判断された文字列\cite{nobesawa96coling})として抽出する.図\ref{fig:scoregraph}の例では,{\gtAB},{\gtCDEF}および{\gtHIJK}がそれぞれ一塊の文字列として出力される.この手法では,どこまでを山とするかの基準が必要になる.抽出に際しての基準として,有繋評価値に閾値を設けこの値を越えたものを山とみなす方法と,山の部分の勾配について閾値を設けて前後の文字列との区切り目が明らかなものを山とみなす方法が挙げられる.この閾値を操作することで,抽出する文字列の種類や精度をある程度調節することが可能である.確実に一塊となる文字列のみを抽出したい場合には,抽出対象を選出する際の基準を高く設定すればよい.閾値が高い場合,有繋文字列として出力される文字列の長さが短くなる傾向がある.これは,例えば複合語等が単語に切り分かれる\footnote{複合語は,一般的に,複数の山が連なって一つの大きな山を構成するような形状となる.閾値が高くなると,それぞれの山(大抵の場合,単語)の切れ目の谷の部分で切り分けられる場合が増え,結果的に複合語を構成する単語がそれぞれに抽出される.}等,確実に一塊となる部分のみを残そうとする作用が強くなるためである. \section{実験} 本稿では,与えられた訓練コーパスから得た文字間共起情報のみを利用した文字列抽出実験の結果を報告する.本稿では,口語文を実験対象とし,これに含まれる頻出文字列を抽出することで,口語文に多く含まれその処理を困難にする要因となっている辞書未登録語の自動認識および自動抽出を行なうことを目的とする.本稿で報告する実験では,その結果を評価するため,同じ入力コーパスを日本語形態素解析ツール茶筌ver.1.51\cite{chasen97}で処理した結果と比較し,茶筌が未登録語とした文字列および茶筌が解析に失敗した文字列について,これを本システムで抽出できたかについて調査する.\subsection{コーパス}\label{sec:corpus}本実験では,コーパスとして電子メール文書を利用した.口語の記述文としては対話コーパス等他にも利用可能な文書が存在するが,これらはほとんどの場合話し言葉を他者が記述したものであり,その正確性や発話者の意図の反映等の点では電子メール文書が優ると考える.また,電子メール文書の場合,特に口語で記述されるものは一般の文書に比べて未登録語が多いためかな漢字変換等の失敗が多く,他の文書を対象にしたものに比べてユーザの不満が多いと推測される.従って,一般の辞書では未登録語とされるような頻出文字列が自動的にユーザ辞書等の形で組み込まれるシステムへのニーズは大きい.さらに,電子メール文書はそのままで機械処理可能な状態で存在しかつある程度の量を収集することが少なくとも物理的には簡単である\footnote{電子メールの利用はプライバシーの問題等がある.}ことも,電子メール文書を実験コーパスとして選択したことの大きな理由に挙げられる.統計情報を利用した処理システムの場合,十分な量のコーパスの確保が問題になることを考えると,ほとんど労力を掛けずに大量のコーパスを取得できる電子メールは非常に有用である.なお,電子メールでは他のメールの引用が含まれることが多いが,同じ文を複数回記録することを避けるため,本実験で用いたコーパスでは引用部分はすべて削除した.\subsubsection{訓練コーパス}\label{sec:trcorpus}有繋評価値の算出に利用する共起情報を得るための訓練コーパスとして,本実験では,1998年から1999年にかけて友人宛てに書かれた口語調の電子メールを利用した.送信者は17人(全員10代から30代の女性)で,送られたメールはすべて同一の受信者(女性)に宛てたものである.本コーパスは351の電子メール中の7,865文から成っており,含まれる文字数は176,380(一文当たりの平均文字数22.4)である.\subsubsection{テストコーパス}\label{sec:tscorpus}テストコーパスは,1999年に友人宛てに書かれた口語調のメール文書を利用した.送信者は3人(訓練コーパスの送信者の一部)であり,同一の受信者(訓練コーパスの受信者と同じ)に宛ててメールを書いている.テストコーパスは訓練コーパスの一部ではなく,独立したものである.テストコーパスは1,118文24,160文字から成っており,一文当たりの平均文字数は21.6である.\subsection{実験結果}\subsubsection{有繋評価値の分布}本実験における有繋評価値の分布を図\ref{fig:scoredistribution}に示す.有繋評価値の平均値は$0.34$であった.この値を受けて,文字列抽出実験では,抽出の閾値を$0.50$に設定した.\begin{figure}[htb]\begin{minipage}{\textwidth}\begin{center}\atari(55,83)\caption{有繋評価値の分布}\label{fig:scoredistribution}\end{center}\end{minipage}\end{figure}\subsubsection{文字列抽出結果}本システムが抽出した文字列を分類すると,表\ref{tab:over05seq}のようになった.ここで,「抽出成功」とは単語や熟語のような文字列が過不足なく抽出された数,「過接合」とは複数の単語等が一つの文字列として抽出されたものおよび意味のある文字列にその前後の文字列の要素である文字が付着した形で抽出されたもの,「過分割」とは文字列が途中で分割されたもののうち元の文字列が推測できるもの,「抽出失敗」とは過分割・過接合のため意味をなさなくなったものを指す.文字列の例のうち,過分割,抽出失敗として挙げたものは,抜け落ちた部分を括弧内に示した.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{本システムの抽出文字列}\label{tab:over05seq}\begin{tabular}{crrl}\hline\hline&文字列数&割合&文字列の例\\\hline抽出成功&1920&42.76\%&「やっぱり」「北海道」「html形式」「24時間」「トモダチ」\\過接合&1876&41.78\%&「メールを」「にお手紙書く」「いいねー!」「私は」\\過分割&564&12.56\%&「メーラ(ー)」「(O)utlook」「ゴールデンウイ(ーク)」\\抽出失敗&130&2.90\%&「を遣(わせる)」「が起こ(った)」「(つか)めてないっ(す)」\\\hline\multicolumn{1}{r}{計}&4490&&\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}定義にあるように,過接合とは複数の文字列が接合した形であり,頻出文字列の抽出を行なう本システムの手法では多く抽出されるものである.過接合文字列は,複数の文字列が繋がる場合と,文字列の前後に他の文字列が付着する場合とに大きく二つに分類できる.\begin{itemize}\item複数の文字列の有意味な繋がり\begin{itemize}\item頻出文\item頻出言い回し\end{itemize}\item文字列の前後に他の文字列の全部または一部分が付着したもの\begin{itemize}\item助詞,文末記号の付着\item前後の文字列が過分割され付着\end{itemize}\end{itemize}これらのうち,頻出文,頻出言い回しが一塊として抽出されることは,本システムの手法を考えると自然であり,失敗とは言えない.また,文字列の前後に助詞や文末記号が付着することは,例えば「と思う」の助詞「と」の付着のように,その文字列の主たる利用法によるものであり,頻出言い回しの一種と考えることができる.表\ref{tab:over05u}に,過接合とされた文字列の内訳を示す.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{抽出文字列中の過接合文字列}\label{tab:over05u}\begin{tabular}{crrl}\hline\hline&文字列数&割合&文字列の例\\\hline文&339&18.08\%&「今年もよろしくね♪」「あははははは.」\\&&&「メール遅くなってごめんね.」\\有意味文字列&192&10.24\%&「関西方面」「新バージョン」「いい人」「ちょっと不安」\\&&&「でもやっぱり」「メール送らないで」\\助詞付着\&記号付着&198&10.56\%&「で大変です.」「といいます.」\\助詞のみ付着&337&17.97\%&「それは」「と一緒」「メールを」\\記号のみ付着&523&27.89\%&「だけど,」「だよ.」「です.」\\その他&287&15.30\%&「って感じ」「かったらハッキリ」\\\hline\multicolumn{1}{r}{計}&1876&\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}文の形をしたもの等意味のある文字列が過接合とされたのは531例であり,これらを含めた有意味文字列の抽出文字列全体に対する割合は54.59\%となる.この割合は,本システムの適合率と考えてよい.さらに,文末記号・助詞付着を原因とする過接合をも加えると,その割合は84.70\%に上がる.表\ref{tab:over05seq}にある「過分割」は,そのほとんどが動詞である.これは,動詞についての判定を,助動詞等まで含めた一塊を抽出した場合にのみ抽出成功としたためである.本稿では,複合動詞「書き直す」が二つの動詞に切り分けられた例や「言っちゃった」のように活用し助動詞等が付着した文字列で「っちゃった」等付着部分が切り分けられた例等もすべて過分割に分類している.\subsubsection{頻出文字列}表\ref{tab:strongstring2}に,高い有繋評価値を示した隣接文字ペアの一部を示す.ここに挙げられた隣接文字ペアは有繋評価値の値が$10.00$を越えたものであり,表中の数字はそのペアが評価値$10.00$以上で出現した頻度を示す.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{有繋評価値の高い隣接文字ペア}\label{tab:strongstring2}\begin{tabular}{crl|crl}\hline\hline文字ペア&頻度&&文字ペア&頻度&\\\hlineワタ&19&「ワタシ」の一部&00&7&\\ット&12&「ネット」「ペット」等の一部&友達&6&\\ネッ&11&「ネット」の一部&返事&4&\\タシ&11&「ワタシ」の一部&登録&4&\\ポス&10&「ポスト」の一部&絶対&4&\\遊び&9&&示板&4&「掲示板」の一部\\関西&8&&掲示&4&「掲示板」の一部\\誕生&7&&HP&4&\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}表\ref{tab:strongstring2}に挙げたような特に評価値の高い隣接文字ペアは,評価値の高い文字列の一部であることが多い(表\ref{tab:over5seq}).表\ref{tab:over5seq}に本システムが抽出した文字列の一部を示す.ここでは,文字列に含まれるすべての隣接文字間の評価値が$5.00$以上の文字列のみを示し,この場合の頻度のみを掲載した.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{共起関係の強い文字列}\label{tab:over5seq}\begin{tabular}{lc|lc|lc}\hline\hline文字列&頻度&文字列&頻度&文字列&頻度\\\hline・・・&72&(笑)&36&ネット&20\\そう&52&ワタシ&29&!!&16\\けど&48&それ&26&リンク&15\\から&43&・・・・&25&友達&13\\メール&39&自分&20&&\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}\subsection{茶筌における未登録語}\label{sec:chasenunk}未登録語として扱われる文字列のカテゴリとしては以下のものが挙げられる.\begin{itemize}\item新しい語句\begin{itemize}\item新語\item俗語\item固有名詞\end{itemize}\item既存の語句の異表記\begin{itemize}\itemカタカナ表記(「私」を「ワタシ」と表記する等)\itemアルファベット表記(「グッド」を「GOOD」と表記する等)\item発音変化に伴う表記変化\end{itemize}\item擬音語,擬態語等\item解析エラー\end{itemize}比較に用いた日本語形態素解析ツール茶筌は辞書ベースのシステムであり,未登録語は「未定義語」のタグを付加して出力される.表\ref{tab:unk}は,テストコーパスを茶筌にかけた結果未定義語タグを付加されて出力された文字列を出現頻度毎にまとめたものである.本稿で利用するシステムでは品詞タグを利用しないため,茶筌の品詞タグ付けエラー(文字列の切り出し方は正しいが付加された品詞タグが不適切なもの)については無視し,未定義語タグが付加された文字列および切り分けに失敗した文字列のみを茶筌における抽出失敗とみなす.表\ref{tab:unk}では,茶筌が未定義語タグを付加して出力した文字列の本システムでの抽出状況についても示している.「抽出成功」とは本システムが抽出に成功した文字列の数,「抽出失敗」は本システムが認識できなかった文字列の数,「部分抽出」とした欄は文字列の一部が認識されなかった文字列の数を示す.茶筌は,テストコーパスの形態素解析処理の結果627の未定義語タグ付き文字列を出力した.テストコーパスは1,118文から成っているため,単純に平均すると56.08\%の文に未登録語が含まれていたことになる.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{茶筌が未定義語タグを付加した文字列の扱い}\label{tab:unk}\begin{tabular}{crrrr}\hline\hline\multicolumn{2}{c}{未定義語タグ}&\multicolumn{3}{c}{本システムでの抽出結果}\\出現頻度&総出現数&抽出成功&部分抽出&抽出失敗\\\hline10以上&281&230&7&44\\3〜9&143&100&13&30\\2&56&43&4&9\\1&147&60&44&43\\\hline\multicolumn{1}{r}{計}&627&433&68&126\\&&69.06\%&10.85\%&20.10\%\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}表\ref{tab:unk}に示すように,本稿で提案する手法により,茶筌が未定義語タグを付加した文字列の69.06\%を回復することが可能である.この割合は,本システムの再現率に相当する値である.本システムは,頻度の高い文字列についてさらによい結果を示す(表\ref{tab:unk}).茶筌が未定義語タグを付加した文字列のうち,テストコーパスでの出現頻度が10回を越す文字列では,81.85\%が正しく抽出されている.本実験で用いたテストコーパスは訓練コーパスの一部ではないが,条件が近いものであるため,テストコーパスでの出現頻度は訓練コーパスとある程度似ているものと考えることができる.テストコーパス中に二度以上出現した未登録語に限った場合,本システムでの抽出成功の割合は77.71\%となる.テストコーパスに一度しか現れていない未登録語も,本システムを用いることで40.82\%を抽出することができた.本システムが抽出した意味のある文字列中,茶筌が未定義語タグを付加した文字列の割合は11.22\%であった.抽出の閾値を上げると,出現頻度の低い文字列の抽出に失敗する可能性が高くなるが,この割合の値は大きくなる.茶筌が未定義語タグを付加して出力した文字列のうち,本システムが抽出に成功したものの有繋評価値の平均は6.11であり,実験の閾値0.50を大きく上回る.有繋評価値の分布(図\ref{fig:scoredistribution})から見ても,この数値は十分高いものである.表\ref{tab:unk-category}は,茶筌が未登録語とした文字列を分類しそれぞれについての本システムでの抽出結果を示したものである.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{茶筌が未定義語タグを付加した文字列の分類}\label{tab:unk-category}\begin{tabular}{lrrrr}\hline\hline\multicolumn{2}{c}{未定義語タグ}&\multicolumn{3}{c}{本システムでの抽出結果}\\カテゴリ&計&抽出成功&一部抽出&抽出失敗\\\hline固有名詞&60&39&17&4\\新語(固有名詞を除く)&70&48&12&10\\文字挿入&119&89&4&26\\表記変化&276&194&28&54\\文末記号&58&43&0&15\\スマイリー&15&9&6&0\\その他&29&12&1&16\\\hline\multicolumn{1}{r}{計}&627&433&68&126\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}表\ref{tab:unk-category}が示すように,未登録語の最大の原因は表記の変化である.口語調の文章では,文字列を強調する等の場合にその表記方法を変えることがあり,これによって,辞書に載っている語でも見出し語と異なる表記のために辞書とマッチせず未登録語とされる.文字挿入も,強調等の目的で行なわれることが多く,その意味では表記変化の一部と見ることができる.この2種類を足し合わせると,茶筌が未登録語として出力した627文字列のうち356個,56.78\%が表記の変化によるものということになる.文末記号が一部未登録語とされたのは,(1)記号が文末記号の代わりに用いられた事例と(2)複数の文末記号が並んで使われた事例の2種類の場合であった.文末記号として頻繁に利用された記号には「♪」や「…」等がある.本システムは辞書を利用せず訓練コーパスから得た共起情報のみを用いるため,これらの記号も他の通常の文末記号と同様に文末に来る確率が高い文字列として抽出している.また(2)では「!!」や「??」等,同じ記号を並べて利用することが多い.並ぶ個数には規則はないが,記号同士の並び方(「!?」や「…!」は頻繁に起こるが「!.」は起こらない,等)にはある程度規則があり,d-bigram共起情報を利用することで習得可能である.表\ref{tab:unk-category}のカテゴリ中未登録語とされるべきものは新語および固有名詞だが,これは未登録語全体の20.73\%であった.本実験ではこれらのうち66.92\%を正しく抽出することに成功した.\subsubsection{未登録語に含まれる字種}\label{sec:unk-lettertype}表\ref{tab:unk-lettertype}に,茶筌が「未登録語」とした文字列に含まれる文字の字種を示す.数字は各字種の文字の数であり,文字種とあるのはその字種に該当する文字の異なり数である.茶筌が未登録語として出力した627語(表\ref{tab:unk})は,合計1,493の文字から成っており,平均文字数は2.38であった.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{茶筌が未定義語タグを付加した文字の字種}\label{tab:unk-lettertype}\begin{tabular}{lrrrrr}\hline\hline\multicolumn{3}{c}{未定義語タグ}&\multicolumn{3}{c}{本システムでの抽出結果}\\字種&文字種&計&抽出成功&一部抽出&抽出失敗\\\hline漢字&1&19&19&0&0\\ひらがな&12&200&155&7&38\\カタカナ&73&1051&712&188&151\\アラビア数字&1&1&0&1&0\\アルファベット&23&122&43&72&7\\記号&22&100&39&37&24\\\hline\multicolumn{2}{r}{計}&1493&968&305&220\\&&&64.84\%&20.43\%&14.74\%\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}未定義語タグを付加された文字列に含まれる文字の70.40\%はカタカナであった.漢字および数字については,それぞれ1つずつしか未登録語とされていない.数字は一文字一文字を独立した数字として扱うことが可能であり,このため,未登録語となる可能性が非常に低い.また,漢字は表意文字であり,一文字でもなんらかの意味を持つ.そのため,誤分割によって一文字だけ独立して切り分けられた場合でも,その一文字で一つの文字列と扱われることがあり,その結果,未登録語として出力される可能性が低くなっている.例えば,「この世界」を「この世」と「界」とに切り分けた例があったが,この場合,「界」は「文学界」等に見られるような名詞接尾語とされていた.このように,漢字文字列の未登録語は,未登録語とされずに無理な切り分けをされ,タグ付けの誤りを引き起こす原因となっている.\subsubsection{異表記に起因する未登録語}\label{sec:unkrep}表\ref{tab:unkrep}に,茶筌が未登録語としたもののうち,表記変化が原因となっているものを示す.ほとんどの辞書は,基本的に,それぞれの語について見出し語を一つしか持たないため,例えば同じ語をカタカナで表記された場合これを同じと判定することは困難である.しかし,口語表現等では語の強調や表記の簡素化等のため,基本的な表記を用いずかなで表記することも多い.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{表記変化に起因する未登録語}\label{tab:unkrep}\begin{tabular}{lrrrr}\hline\hline\multicolumn{2}{c}{未定義語タグ}&\multicolumn{3}{c}{本システムでの抽出結果}\\サブカテゴリ&計&抽出成功&一部抽出&抽出失敗\\\hline語形変化&40&33&3&4\\カタカナ表記&137&102&12&23\\語形変化\&カタカナ表記&55&34&10&11\\その他&44&25&3&16\\\hline\multicolumn{1}{r}{計}&276&194&28&54\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}\subsubsection{発音延長に起因する未登録語}\label{sec:pronunciation-extension}日本語では「ん」以外の音がすべて母音を伴うため,ある音を伸ばす場合にはその音の含む母音をさらに付加する.表\ref{tab:unkrepsmall}に,発音の延長のために添付された文字が未登録語となった119例について,本システムによるその抽出結果を示す.未登録語とされた添付文字は7種類の小字および「ン」の8種類である.表\ref{tab:unkrepsmall}の「抽出失敗」は,添付文字は文字列に付加されたが,文字列自体の抽出に失敗したものを示す.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{添付文字が未登録語とされた例}\label{tab:unkrepsmall}\begin{tabular}{crrrrrrrrr}\hline\hline文字&ぁ&ぃ&ぅ&ぇ&ぉ&っ&ッ&ン&計\\\hline付加成功&39&2&5&32&7&3&1&0&89\\抽出失敗&0&0&0&0&0&4&0&0&4\\付加失敗&5&1&4&2&1&7&5&1&26\\\hline\multicolumn{1}{r}{計}&44&3&9&34&8&14&6&1&119\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}表\ref{tab:unkrepsmall}に示すように,本システムを利用することで,茶筌で未登録語とされた添付文字の74.79\%が元の文字列に添付された形で抽出された.これにより,添付文字に起因する未登録語のおよそ75\%が,未登録語としてでなく,文字列の一部として抽出することが可能になった.この場合,抽出される文字列は添付文字を付けた形であり辞書の見出し語と異なるが,これは見出し語が変形したものであり,添付文字まで含めて一塊の文字列であることは否めない.従って,語形変化した文字列と見出し語とを結びつけることができれば,語形変化した文字列を辞書に登録することが可能である.未登録語とされた文字と元の文字列との関係が明らかになり元の文字列の語形変化であることが示されれば,元の文字列の属性を継承することで語形変化した文字列に十分な情報を与えることが可能である.例えば,「すごく」を強調するため添付文字「っ」を挿入して「すっごく」とした場合,茶筌のような辞書ベースのツールでは,「す」「っ」「ごく」等分割されて出力される.この時,挿入された「っ」は未登録語とされる.本システムでは辞書とは関係なく文字単位の共起情報を基に文字列を抽出するため,頻出語である「すっごく」は一塊の文字列として抽出される.ここで,「っ」が茶筌では未登録語とされていること,この「っ」を抜かした「すごく」が辞書に登録されていること,周りの語句との共起情報等から,「すっごく」が「すごく」の語形変化であることを推測することが可能となる.\subsection{茶筌の解析誤り}\label{sec:chasenfail}表\ref{tab:fail-category}に,茶筌が解析に失敗した文字列の抽出結果を示す.本システムは茶筌が解析に失敗した文字列のうち70.88\%の認識に成功した.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{茶筌による解析失敗}\label{tab:fail-category}\begin{tabular}{clrrrr}\hline\hline\multicolumn{3}{c}{解析失敗}&\multicolumn{3}{c}{本システムでの抽出結果}\\&カテゴリ&計&抽出成功&一部抽出&抽出失敗\\\hlineA&英文字を含むもの&42&41&1&0\\B&数字を含むもの&60&35&10&15\\C&固有名詞&92&81&5&6\\D&新語(固有名詞以外)&11&2&5&4\\E&言い回し&8&4&3&1\\F&表記変化&176&106&37&33\\G&字種変化&19&10&5&4\\H&強調表現&257&154&73&30\\I&文末記号&253&233&6&14\\J&解析誤り&115&82&19&14\\\hline\multicolumn{2}{r}{計}&941&667&159&115\\&&&70.88\%&16.90\%&12.22\%\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}カテゴリBは数字を含む文字列であり,このカテゴリに含まれる文字列はすべて数字に助数詞が付加された形になっている.本システムは25の文字列の抽出に失敗しているが,「30日」が「30」と「日」に切り分けられたもの等,25のうち12は助数詞が切り分けられてしまったものである.カテゴリFとGとHが,文字列の語形変化に起因する誤りである.カテゴリFは,口語での利用等のための発音変化に起因する表記変化のため茶筌が認識に失敗した文字列である.「やはり」の口語化である「やっぱ」等がこのカテゴリに入る.カテゴリGは強調等のため他の字種で書かれた文字列である.カテゴリJは解析誤りによる失敗である.本システムでは解析誤りのため茶筌が切り分けに失敗した文字列のうち71.30\%の認識に成功した.カテゴリHで,本システムで抽出に失敗した103の文字列のうちの53個は,長音化のための附属文字が欠落したものであり,抽出された文字列は意味的に正しいものであった.口語等で強調のために添付する文字は,複数個になることもある.例えば,「まさか」を強調するために「まさかーーー」等と長音記号を複数添付することも可能だが,この場合,添付する文字の個数には特に制限がない.本システムでは,例えば長音記号は複数回並ぶ可能性がある,という情報をd-bigramの形で保有しているため,このような複数個の文字の添付に対応可能である.これは添付文字に限ったことではなく,例えば笑い声を示す「ははははは」や文末の「!!!」等の抽出も可能である.\subsection{茶筌への語句登録}\label{sec:chasenentory}辞書ベースのツールでは一般に語句の登録を許しているが,その登録は主に人手によるものである.本システムは,辞書ベースの解析ツールのための辞書作成支援システムとして利用することが可能である.本手法は文字間の統計情報のみを利用して自動的に文字列の抽出を行なうため過分割・過接合の問題があるが,文字列抽出の閾値を上げることでかなり抽出文字列を絞ることが可能である.例えば茶筌では,新規ファイルを用意し図\ref{fig:chasendic}のフォーマットで各語句を記述することで,語句の登録を行なうことができる\cite{chasen97}.\begin{figure}[hbt]\begin{minipage}{\textwidth}\begin{center}\begin{tabular}{c}\hline\hline\\(品詞(名詞固有名詞人名一般))((見出し語(竹取の翁2000))(読みタケトリノオキナ))\\\\\hline\hline\end{tabular}\caption{茶筌の辞書項目の記述}\label{fig:chasendic}\end{center}\end{minipage}\end{figure}茶筌の辞書の見出し語に付加されている数値は単語コストである.この値の決定には,本システムが文字列抽出に際して計算した有繋評価値を加工して利用することが可能である.本システムでは読みがなや品詞の決定はできないが,読みがな付加に関してはKAKASI\footnote{KAKASI漢字-かな(ローマ字)変換プログラム.http://kakasi.namazu.org/}等のツールを利用も可能である.未登録語とされる文字列のうち,カタカナ表記に起因するものについては,カタカナとひらがなは一対一に対応するので,読みがな付加は容易である.また品詞情報については,既存の辞書の情報との差別化が必要な場合,本システムの出力した文字列を対象とした新たな品詞名を設定すればよい.品詞情報を必要としないシステムでは,本システムの出力結果をそのまま,あるいは人手による選別を得て,利用することが可能である.特に,かな漢字変換システム等では,本システムの利用により頻出言い回しの登録が容易となることで精度の向上が期待できる.\subsection{他の手法との比較}\label{sec:comparison}日本語における語句抽出の研究は,主に,名詞句の抽出,固有名詞の抽出,および語句切り分けに関するものである.統計情報を利用した語句抽出の手法は,主として品詞情報を利用するもの,単語の共起情報を利用するもの,文字の共起情報を利用するものに大別できる.Nagaoらは$n$-gram頻度を用いた文字列抽出を提案した\cite{nagao94}.$n$-gramは$n$の値が大きくなるにしたがって出現頻度が低下するが,有意味文字列は他の文字列に比べて高い頻度で出現する.Nagaoらの手法はこの性質を利用したものであり,本稿と同様品詞等の情報を利用せずに文字列の抽出を行なっている.Kitaniらは固有名詞全般を対象に,固有名詞の前後に出現しやすい語を接辞として扱うことで固有名詞の抽出を行なっている\cite{kitani94}.また,久光らは対象を人名に絞り,辞書と共起情報を利用した手法を提案している\cite{hisamitsu97}.久光らの手法でも,人名の直後に現れる接辞を手がかりとして抽出を行なっており,さらに,人名接辞の獲得支援や,姓と名との分割・判別についても提案している.また,福本らは,接辞の他,固有名詞の特性に基づいたヒューリスティクスを導入し精度の向上を図っている\cite{fukumoto98}.また,Chaらは韓国語を対象として,構文解析中に出現した未登録語の抽出を行なっている\cite{cha98}.Chaらは,未登録語発見のための形態素パターン辞書を利用して,未登録語に対しても他の語と同様にタグ付けを行なうという手法を提案している.単語間共起情報や品詞情報を利用する手法では,前処理として切り分けおよびタグ付けが必要となる.辞書を利用した手法では未登録語の問題は避けられないが,未登録語に起因する解析エラーがその後の処理の精度を下げるという問題が生じる.本稿で提案する手法では,辞書を利用せず,前処理にあたる訓練フェーズも文字単位の共起情報の取得だけであるため完全に自動的に行なうことが可能である. \section{まとめ} 辞書ベースの自然言語処理では未登録語が大きな問題の一つである.本稿では,処理対象となるドメインの生コーパスを訓練コーパスとして取得した文字共起データのみを利用して対象ドメインの頻出文字列の自動抽出を行なう手法を提案し,口語を多く含む電子メール文書に対して適用しその有効性を示した.本稿で利用したシステムでは,純粋に二文字間の共起情報のみを利用し,与えられた入力コーパス内の各隣接文字間の関係を推測することで,文中の意味のある文字列の認識を行なっている.本稿では,口語を多く含む電子メール文書をコーパスとし,コーパス中に頻出する口語表現および異表記表現等の抽出を行なった.これらの口語表現,異表記表現は一般的な辞書に登録されていないものが多く,辞書ベースの解析の際にノイズとなるものである.本稿で示した実験では,辞書ベースの形態素解析ツールである茶筌が未登録語と判断した文字列の69.06\%を正しく認識した.また,茶筌がなんらかの解析結果を出力した文字列についても,解析誤りのため正しく切り分けが行なわれなかった文字列のうち70.88\%について,本システムは正しい切り分けを行なった.本システムは品詞タグを利用しないため,この数字は切り分け誤りについてのものであり,本システムを利用することによって正しく認識された文字列を辞書に組み込むことで,切り分け誤りだけでなく,品詞タグ付けの誤りについても,減少を図ることができると期待する.\bibliographystyle{jnlpbbl}\bibliography{260}\nocite{nobesawa00coling}\begin{biography}\biotitle{略歴}\bioauthor{延澤志保}{1994年慶應義塾大学理工学部数理科学科卒業.1996年同大学院理工学研究科計算機科学専攻修士課程修了.同年,慶應義塾大学理工学研究科博士課程進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{斎藤博昭}{1983年慶應義塾大学理工学部数理科学科卒業.工学博士.慶應義塾大学理工学部専任講師.}\bioauthor{中西正和}{1966年慶應義塾大学工学部管理工学科卒業.工学博士.慶應義塾大学理工学部教授.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V30N02-18
\section{はじめに} 本論文では,自然言語処理システムの実社会応用の具体例として,筆者が行った2020東京オリンピック参加者名簿の翻訳支援の経験を報告する.実社会応用では,「ことば」が社会的存在であることを考慮したシステム設計・運用が重要となる.オリンピック参加者名簿の翻訳とは,国際オリンピック委員会(InternationalOlympicCommittee,IOC)から提供される名簿に含まれる,ほぼすべての参加者の氏名(アルファベット表記)に,カタカナ表記の訳を付与することである\footnote{氏名を漢字で表記する国・地域の参加者を除く.具体的には,日本,中国,韓国,香港,台湾.}.このタスクは,技術的にはトランスリタレーション(transliteration)の問題とみなされる.しかしながら,客観的な正解は存在しないため,システムが出力すべきものは,システムの利用者,あるいは,社会が納得するカタカナ訳となる.この点については,次章以降で詳しく議論する.本論文では,まず,第2章で,オリンピック参加者名簿翻訳というタスクを説明し,人名翻訳の本質について議論する.第3章では,翻訳支援に使用したシステム\textbf{綴2021}と,実際の翻訳支援作業の経過を示す.続く第4章と第5章では,綴2021とそれを支えるシステム\textbf{袷2019}の技術的詳細を示す.これらのシステムは,準備段階で作成したシステム\cite{Yasue2016a,Yasue2016b,Sato2017}に,改良を加えたものである.第6章では,システムの翻訳結果が実際にどの程度採用されたかを示すとともに,これらの一連の経験を通して得られた知見をまとめる.最後の第7章では関連研究について述べる.本研究の新規性は,オリンピック参加者名簿の翻訳という現実のタスクを実行するためのシステムを設計・実装し,そのタスクをどの程度うまく遂行したかを翻訳結果の採用率という形で示した点にある.なお,本論文では,姓と名の組を表す用語として「氏名」を,姓または名を表す用語として「名前」を用い,「氏名」と「名前」を総称する用語として「人名」を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{オリンピック参加者名簿翻訳と人名翻訳} \label{sec:difficult}オリンピック参加者名簿翻訳には,人名翻訳自体の難しさと,オリンピック名簿固有の過酷さが存在する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人名翻訳の難しさ}アルファベット表記の人名にカタカナ表記の訳を付与することは,技術的にはトランスリタレーションとみなされる.トランスリタレーションとは,ある言語の表記を,もっぱら発音に基づいて他の言語の表記に変換することである.人名のトランスリタレーションには,次の2つの難しさがある.(1)はトランスリタレーション一般の,(2)は人名のトランスリタレーション固有の難しさである.\begin{enumerate}\item日本語の音で近似する必要がある有名な例に,テニス選手の``AndyMurray''の姓をどのようにカタカナ表記するかという問題(いわゆる,マリー/マレー問題)がある.日本語にない音は,日本語のいずれかの音に近似する必要があるが,そこには自由度があり,訳者,あるいは,翻訳する組織の意向が反映される.\item言語を同定できない人名のアルファベット表記だけから,言語を推測するのは困難である.テキストとして非常に短い(ほとんどの場合,2語)だけでなく,同一表記の語が複数の言語に存在するからである.オリンピックやワールドカップなどのスポーツ大会の参加選手の人名を翻訳する場合,その人物の所属する国家はわかるのが普通であるが,国家から言語を一意に決定することはできない.多言語国家は数多く存在するとともに,婚姻や移民による国籍変更もある.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{オリンピック参加者名簿翻訳固有の過酷さ}オリンピック参加者名簿翻訳固有の過酷さとして,次の3点がある.\begin{enumerate}\item対象人数が多い具体的には,2020東京オリンピックの参加者は,13,032人であった.\item対象とする国\footnote{本論文での「国」とは,正確にはIOCコードを持つ国・地域・参加主体を指す.}の数が多い具体的には,2020東京オリンピックの参加国は,206カ国であった.\item開幕直前まで名簿が確定しない開幕の約1ヶ月前から数回に渡って,IOCから参加者の候補リストが送られてくる(回を重ねる毎に更新される).参加者がほぼ確定するのは開幕直前であり,そのタイミングで大量の人名を翻訳するのは時間的に困難であるため,前もって参加者の候補リストを翻訳しておく必要があるが,候補リストに含まれる候補者の数は,実際の参加者数よりもかなり多い(3.5節で具体的な数字を示す).なお,大会期間中にも,選手の入れ替えはあるとのことである.\end{enumerate}日本において,オリンピック参加者名簿を翻訳する主な組織は,(1)放送局から委託をうけたNHKの関連会社と,(2)2つの通信社(時事通信社と共同通信社)である.ちなみに,従前は,これら3組織は独立に翻訳を行っていたそうで,同一人物のカタカナ訳が3組織で一致しないものが少なからず存在したようである.東京オリンピック開催に合わせて,3者間でカタカナ訳のすり合わせが行われたと聞いているが,おそらくカタカナ訳の不一致の問題は,完全には解消されていないものと推察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人名翻訳の本質}人名は,その人物を特定する識別子としての機能を持つ.そのカタカナ訳は,その人物の日本語における識別子となるため,同一人物に複数の訳が存在することは好ましくない.そのため,人名を翻訳する際には,まず,既訳の有無を確かめることが重要となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{既訳が存在する場合}``RogerFederer''のような有名人の場合は既訳が存在し,「ロジャー・フェデラー」が定着している.このような場合の人名翻訳は,定着した既訳に合わせることが要請される.しかしながら,すでに述べた``AndyMurray''のように,複数のカタカナ表記(「アンディ・マリー」と「アンディ・マレー」)が広く使われる場合もある.そのような場合は,そのどちらかに合わせることになるが,一方を採用することにしたならば,一貫してそれを採用する必要がある.ここで注意したいことは,諸般の事情により,定着した訳が変更される場合があるという点である.よく知られた具体例は人名ではなく地名であるが,「グルジア」が「ジョージア」に,「キエフ」が「キーウ」に変更になったことは,記憶に新しい.すなわち,たとえ定着した訳であっても,それは永劫不変の絶対的存在ではない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{既訳が存在しない場合}少数の有名人を除けば,既訳が存在しない人物がほとんどである.本当に存在しないかどうかは知る術はないので,探した範囲で既訳が見つからなかった場合は存在しないと判断する.既訳が存在しない場合,アルファベット表記からその発音を推測し,それを近似的に表すカタカナ表記を定める.そこには恣意性が存在し,客観的な正解というものは存在しない.だからといって,任意のカタカナ表記を採用してよいわけではない.たとえば,``BriceOttonello''というフランス(FRA)の選手の訳に「バンジャマン・ダビエ」を当てることはできない.「ブリス・オットーネロ」のように,それらしいカタカナ訳を当てることが要請される.この訳が社会的に受け入れられば,既訳として定着する.つまり,既訳が存在しない場合の人名翻訳は,定着する可能性のある訳を新たに作ることである.たとえ,それが実際の発音と多少異なっていても,社会に受け入れられれば既訳として定着する.言い換えるならば,定着した既訳とは,社会的に受け入れられた訳である.以上をまとめると次のようになろう.\textbf{人名翻訳の適切さは,社会的に決定される}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{人名翻訳支援システム「綴2021」} 本プロジェクトは,2020東京オリンピックの参加者名簿の翻訳に関して,時事通信社より協力の要請があり,それを受ける形で2015年に正式にスタートした.時事通信社の意向は,この翻訳作業を機械処理で軽減し,名簿全体の翻訳を実現したいというものであった\footnote{従前のオリンピックの参加者名簿の翻訳では,時事通信社は全参加者の翻訳を準備しなかったとのことである.リアルタイムで読み上げる必要がある放送媒体とは異なり,活字媒体では入稿までに若干の時間的余裕があるため,その時間に翻訳するという方法がとれる.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{基本方針}支援システムの設計にあたっては,以下に示す3つの基本方針を定めた.\begin{enumerate}\item{カタカナ表記の統制}日本語は表記に関して寛容な言語であり,カタカナ表記においては,いわゆる「表記ゆれ」が多数存在する.外来語の表記のガイドラインとして,平成3年6月28日の内閣告示二号「外来語の表記」\cite{Katakana}が存在するが,実際にはこのガイドラインを逸脱した表記が多数存在する.支援システムにおいては,使用するカタカナ表記の範囲を厳密に定め,出力するカタカナ訳を統制する.具体的な統制方法は,\ref{sec:Awase}章で詳しく述べる.\item{既訳辞書を用いた翻訳}既訳辞書を整備し,既訳が存在する場合は,既訳を採用する.\item{国毎のトランスリタレータ}同一のアルファベット表記であっても,言語によってカタカナ訳が異なる場合がある.すでに述べたように,人名の言語はわからないため,国毎にトランスリタレータを用意し,訳し分けを実現する.\end{enumerate}既訳辞書の整備\footnote{前回までのオリンピックやメジャーな国際大会の参加者名簿などを元に,オリンピックへの参加予想も考慮して作成するようである.}は,時事通信社が担当した.時事通信社の人名翻訳の基本方針は,「1国1名前に対して,カタカナ訳はひとつ」である.つまり,国と名前が定まれば,カタカナ訳が一意に定まるように統制する.これは原則であり,すでに定着した既訳などは例外として扱う.この方針は,国毎のトランスリタレータの実現に好都合であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{30-2ia17f1.pdf}\end{center}\caption{綴2021の構成}\label{fig:system}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{綴2021の構成}綴2021の構成を図\ref{fig:system}に示す.綴2021は,以下の要素から構成されている.\begin{enumerate}\item既訳辞書\\過去に採用された翻訳の具体例を辞書化したもの.氏名対訳辞書と名前対訳辞書の2種類の辞書から構成される.辞書のレコードは,国名の情報(IOCコード)を持つ.\item国別翻訳サブシステム\\名前のアルファベット表記からカタカナ表記を推定するトランスリタレータ.国別翻訳サブシステムは,全部で208個存在する.このうち207個はIOCコードに対応するサブシステムで,残りの1個は,国名が不明の場合に使用するサブシステムである.\item辞書翻訳モジュール\\入力に対して既訳辞書を検索し,一致するものがあれば出力する.国名の一致は必須である.\item訳語推定モジュール\\入力された国名に基づいて国別翻訳サブシステムを呼び出し,訳語候補を5件出力する.訳語推定の単位は,名前(姓または名)である.\end{enumerate}この構成で,次に示す2種類の翻訳支援サービスを提供する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{17table01.tex}%\caption{一括翻訳の入出力形式}\label{tab:batch}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{一括翻訳サービス}一括翻訳は,多数の氏名を一度に翻訳するサービスで,その入出力はエクセルファイルである.その形式を表\ref{tab:batch}に示す.なお,ここで言及しない列も存在するが,翻訳処理には関与しない.\begin{enumerate}\itemD,F,Gの3列が入力である\itemH列は,翻訳処理の状況(ステータス)を以下の4種類で示す\begin{description}\item[{\rm完全一致}]氏名対訳辞書で翻訳でき,訳が唯一である\item[{\rm一致}]名前対訳辞書で姓と名の両方が翻訳でき,かつ,それぞれの訳が唯一である\item[{\rm重複}]名前対訳辞書での翻訳に,曖昧性(複数の訳)が存在する\item[{\rm推定}]姓と名のいずれかは,訳語推定された(「重複」よりもこちらを優先する)\end{description}\itemI,J列は,辞書翻訳の結果を示す\itemK,L列は,以下の優先度で決定した暫定訳を示す\begin{enumerate}\item氏名対訳辞書での翻訳結果\item名前対訳辞書での翻訳結果(複数訳がある場合は,一番頻度が高いもの)\itemトランスリタレータによる1位の推定結果\end{enumerate}\itemN,O,P,Q列は,辞書翻訳における他の候補を示す\itemR,S,T,U列は,姓の訳語推定結果の2位から5位を示す\itemW,X,Y,Z列は,名の訳語推定結果の2位から5位を示す\end{enumerate}実用システムでは,入出力の形式がシステムの利便性を大きく左右する.このため,入出力形式の設計は非常に重要である.上記の形式は,実際に出力ファイルを利用して最終的な対訳名簿を作成する当事者とよく相談のうえ決定した.\begin{itemize}\itemH列(ステータス)は,翻訳結果を見直す際に,翻訳処理の状況がわかるように導入した.\itemK,L列(暫定訳)は,翻訳結果をそのまま採用する場合の作業を不要にするために導入した.翻訳結果を修正する場合,この2列のみを書き換えればよいため,作業量は最小限で済む.\end{itemize}一括翻訳に要する時間は,翻訳する人名の件数に依存する.3.8万件の場合,MacBookPro(AppleM1,16GB)で5分程度である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ウェブサービス}ウェブサービスでは,ユーザーの入力に対して翻訳候補を提示し,訳語決定を支援するサービスである.複数の国を指定して,それらの結果を比較したり,国名から推定される言語を示す機能を持っている.すでに\ref{sec:difficult}章で述べたように,参加者情報は五月雨式に更新されるため,一括翻訳以外の翻訳支援が必要となる.図\ref{fig:interface}に,ウェブサービスの入出力画面を示す.入力は,アルファベット表記の名前と,国名(最大3カ国まで指定可能)である.この例は,``Peter''をHUG(ハンガリー),GER(ドイツ),CAN(カナダ)の3カ国を指定して翻訳する場合を示している.指定した3カ国以外に,国名が不明の場合の結果(all)も表示される.出力ページの上部には,訳語推定の結果が示される.辞書翻訳で翻訳できた場合は,その結果も表示される.この例の場合,名前辞書のハンガリー(HUG)の対訳に「Peter/ペテル」があるため,その情報が示されている.訳語の下に国名は,その対訳が存在する国を示している.出力ページの下部には,名前辞書の検索結果が示される.``Peter''の対訳は9カ国に存在し,訳語の種類は3種類である.この部分の表示では,国名から推測される言語も合わせて表示される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[p]\begin{center}\scalebox{0.97}{%\includegraphics{30-2ia17f2.pdf}}%\end{center}\caption{ウェブサービスのインタフェース}\label{fig:interface}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{オリンピック参加者名簿の実際}表\ref{tab:timeline}に,本プロジェクトのタイムラインを示す.すでに述べたように,本プロジェクトは2020東京オリンピックを見据えて,2015年よりスタートした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{17table02.tex}%\caption{プロジェクト・タイムライン}\label{tab:timeline}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%支援システムのウェブサービスは,2016年リオデジャネイロオリンピックに合わせて稼働させ,それ以降,オリンピック開催に合わせて更新してきた.東京オリンピックの翻訳スケジュールはタイトであることが想定されたため,事前に入念に準備し,本番に備えた.東京オリンピック・パラリンピックが1年延期されたため,実際の作業は2021年となった.その後,時事通信社から依頼があり,引き続き北京オリンピック・パラリンピックの参加者名簿の翻訳を行った.この表からわかるように,東京オリンピック参加者名簿の1回目の一括翻訳は,開催の約3週間前に実施した.この時点で翻訳数は,38,200件であり,最終的な参加者の2.9倍である.すでに述べたように,時間的制約から名簿が確定する前に翻訳する必要があり,翻訳対象の人数は膨れ上がる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{17table03.tex}%\caption{オリンピック・パラリンピックの参加者数と一括翻訳数}\label{tab:olympic}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:olympic}に,4大会の参加国数,参加者数,一括翻訳数を示す.この表から,特に夏季オリンピックの参加者名簿の翻訳の過酷さが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{「綴2021」の技術的詳細} 本章では,綴2021の技術的な詳細を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{辞書翻訳}辞書翻訳で使用する辞書は,以下の通りである.これらの辞書は,翻訳実行時には,リレーショナルデータベース(SQLite3)に格納され,検索される.辞書翻訳では,国名の一致は必須とする.\begin{description}\item[氏名対訳辞書]28,816レコード.各レコードは,以下の5要素から構成される.\begin{enumerate}\item国名(IOCコード)\item姓(アルファベット表記)\item名(アルファベット表記)\item姓(カタカナ表記)\item名(カタカナ表記)\end{enumerate}\item[名前対訳辞書]40,050レコード.各レコードは,以下の4要素から構成される.\begin{enumerate}\item国名(IOCコード)\item名前(アルファベット表記)\item名前(カタカナ表記)\item頻度(氏名対訳辞書における頻度)\end{enumerate}\end{description}名前対訳辞書は,氏名対訳辞書から機械的に作成する.氏名対訳辞書では,姓と名を区別するが,名前対訳辞書では,姓と名を区別しない.付録の表\ref{tab:country}に,対訳辞書の国別のサイズを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訳語推定}国別翻訳サブシステムは,MeCab\footnote{\texttt{https://taku910.github.io/mecab/}}をトランスデューサー(transducer)として動作させることによって実現する.そのためには,動作を規定するMeCab用辞書が必要となるが,このMeCab用辞書をそれぞれの国に対して作成することにより,国別翻訳サブシステムを構成する.このMeCab用辞書のことを,本論文では\textbf{国別モデル}と呼ぶ.国別モデルは全部で208個存在する.国別モデルをどのように作成するかは,\ref{sec:Awase}章で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{30-2ia17f3.pdf}\end{center}\caption{MeCabによる訳語推定}\label{fig:MeCab}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-2ia17f4.pdf}\end{center}\caption{袷2019の構成}\label{fig:Awase}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:MeCab}に,マレーシア(MAS)用の翻訳サブシステムで``selvathamy''がどのように分解されて翻訳されるかを示す.1行目が入力で,2行目以降が出力である.``se/l/va/tha/m/by''の6単位に分解され,それぞれがカタカナに変換されて「セ/ル/バ/サ/ム/ビー」が得られていることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{「袷2019」の技術的詳細} \label{sec:Awase}袷2019は,綴2021が必要とする国別モデルを作成するシステムである.\pagebreakその構成を図\ref{fig:Awase}に示す.国別モデルの作成は,大きく2段階に分かれる.第1段階では,国が不明の対訳データから,国別モデルの作成基盤となるモデル(\textbf{ベースモデル})を作成する.第2段階では,それぞれの国に対して,その国の対訳データを用いてベースモデルに再学習を適用し,国別モデルを作成する.これらのモデルの作成には,MeCabの学習機能と再学習機能を利用する.MeCabの学習機能・再学習機能を利用するためには,それぞれの対訳を図\ref{fig:MeCab}に示すような解析結果と同じ形式に変換する必要がある.この形式を\textbf{学習用コーパス}と呼ぶ.対訳をこの形式に変換するためには,対訳のアライメント(部分対応)を推定する必要がある.このアライメントの自動推定が,袷2019の中核的機能であり,その実現には,カタカナ表記の統制と,独自のローマ字表記が重要な役割を果たしている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{カタカナ表記の統制}袷2019では,規範的カタカナ列を厳密に定義している.具体的には,使用できるカタカナ\mbox{1文字},カタカナ2文字(通常のカタカナ1文字+小書カタカナ1文字),記号1文字を定義し,それらの列に分解できるカタカナ列を規範的カタカナ列とみなす.表\ref{tab:katakana}に,使用できるカタカナ1文字・2文字の一覧を示す.これらのそれぞれには,独自のローマ字表記(絣式ローマ字)を定めている.このローマ字表記は,アライメントを決定する際に使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[p]\input{17table04.tex}%\caption{袷2019が認めるカタカナ文字(1文字と2文字)とローマ字表記}\label{tab:katakana}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:katakana}は,平成3年6月28日の内閣告示二号「外来語の表記」\cite{Katakana}の第1表と第2表のすべてのカタカナ列を含んでいる.これらに加えて,以下のものを追加している.\begin{quote}キェ,ギェ,グィ,グェ,グォ,ヒェ,ヴャ,ヴュ,ヴョ,ビェ,ピェ,ミェ,リェ,ニェ,\\・(中黒),=(等号),-(マイナス記号),|(縦棒)\footnote{最後の「|」は過去の実装を踏襲して残っているだけで,実質的には不要である.}\end{quote}これらの選定に当たっては,カタカナ表記の人名における頻度,規範的リストから除外した場合にどんな表記に変換(標準化)することになるか,全体の一貫性などを考慮した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{17table05.tex}%\caption{規範カタカナ列への変換表}\label{tab:katakana2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%袷2019は,規範的ではないカタカナ列を検出したり,それを規範的カタカナ列に自動変換(標準化)する機能を有する.自動変換は,以下に従う.\begin{enumerate}\item表\ref{tab:katakana2}に示す変換表で変換できる場合は,この表に従って変換する.\item小書き文字の音が直前と同じ音の場合は,長音記号「ー」に変換する.ただし,直後が長音記号の場合は変換しない.\\例:「キャシィ$\rightarrow$キャシー」,「アルマルジァビィ$\rightarrow$アルマルジャビー」\itemそれ以外の小書き文字は,通常の大きさの文字に変換する.\\例:「ネグレァン$\rightarrow$ネグレアン」,「クデャコフ$\rightarrow$クデヤコフ」\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アルファベット表記の統制}名前に含まれる大文字はあらかじめ小文字に変換する.名前のアルファベット表記は,以下の文字だけからなる文字列とする.\begin{quote}\item小文字(aからz),空白,ハイフン(\texttt{-}),アポストロフィ(\texttt{'})\end{quote}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アライメントの推定}名前のアルファベット表記(統制済)とカタカナ表記(統制済)のアライメントの推定を,次の3ステップで行う.\begin{enumerate}\itemカタカナ表記をローマ字表記に変換する\itemローマ字表記とアルファベット表記のアライメントを決定する\item得られたアライメントを必要に応じて結合し,カタカナ表記とアルファベット表記のアライメントを完成させる\end{enumerate}この処理の中核は,ステップ(2),すなわち,ローマ字表記とアルファベット表記のアライメントを決定する処理で,その出力は部分対応の列となる.袷2019では,規範的な部分対応として1,191種類の部分対応を定義し,それぞれにスコアを付与してある.与えられた入力(ローマ字表記の文字列とアルファベット表記の文字列)に対して,スコアの総和が最も大きい部分対応の列を動的計画法により求め,これをアライメントとして採用する.1,191種類の規範的な部分対応はすべて手作業で定義した.そのスコアは,若干の例外を除き,部分対応の両辺から自動的に計算される.アライメントには,規範的ではない部分対応が含まれることも認める.ただし,規範的ではない部分対応のスコアは,規範的な部分対応のスコアよりも小さく設定しているため,そのようなアライメントが採用されることは少ない.事実上,これは,「誤りの可能性のある」対訳を見つけるための機能である.カタカナ表記とアルファベット表記のアライメントを直接決定するのではなく,ローマ字表記とアルファベット表記のアライメントを経由して決定するのは,定義すべき部分対応の種類を減らすためである.このアライメント推定プログラムは,対象言語(原語)を問わない.そのため,多くの種類の部分対応を定義する必要がある.部分対応の定義にカタカナを用いると,定義すべき部分対応の種類は,組み合わせ的に増大する.ヘボン式ローマ字や訓令式ローマ字を採用しなかったのは,それらは子音字の一貫性に欠けるからである.たとえば,「サ」と「シ」の子音は明らかに異なる.加えて,それらのローマ字は,いわゆる50音に対してのみ定義されており,それ以外の単位(たとえば「クァ」)には定義されていないからである.絣式ローマ字では,原則として子音字(大文字または数字1字で表す)の一貫性を重要視して設計した.部分対応の定義を手作業で行ったのは,多くの言語に対応するためである.入手可能な人名対訳の量は,メジャーな言語ほど多く,マイナーな言語は少ない.そのため,入手可能な対訳例から部分対応を推定すると,マイナーな言語で必要となる部分対応が十分に得られない.実際,機械学習による部分対応の推定は試みたが,満足できる結果は得られなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{17table06.tex}%\caption{定義されている部分対応の長さ}\label{tab:primitive}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%定義した1,191種類の部分対応の両辺の長さ別の数を表\ref{tab:primitive}に示す.ローマ字側の長さが1の部分対応は,日本語の子音,または,母音に対する部分対応である.この表からも,部分対応の定義にカタカナを使用するのは得策ではないことが確認できる\footnote{国が不明である場合に使用する国別モデルallのMeCab辞書に登録されているカタカナ表記とアルファベット表記の部分対応は,10,707種類である.}.なお,例外的に長い対応は「MoHaMaDo(モハマド)/mohd」で,これはひとかたまりとして捉えるのがよいと判断したため,部分対応として採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習用コーパスの形式}MeCabの学習機能と再学習機能を利用するために必要な学習用コーパスは,名前対訳のアライメント結果から作成する\footnote{対訳のアライメントが不自然な(アルファベット側に対応要素がないカタカナが存在する)場合は,その対訳からは学習用コーパスを作成しない.}.学習用コーパスの各行は,ひとつの部分対応に対応し,以下に示す9属性から構成される.\begin{enumerate}\item部分対応のアルファベット側\item(1)の母音・子音字情報(v:母音字,c:子音字,X:特殊文字)\item部分対応のカタカナ側\item(3)の母音・子音字情報(v:母音字,s:半母音字,C:子音字,0:ン,Q:ッ,l:長音記号,X:特殊文字)\item(3)の先頭の子音字列(半母音も含む)\item(3)の先頭の子音字\item(3)の末尾の母音字列\item(3)の末尾の母音字\item(3)の末尾の音タイプ(v:通常,l:長音,q:促音)\end{enumerate}これらのうち,(1)と(3)が部分対応のアルファベット側とカタカナ側であり,それ以外の属性は,部分対応から計算する.部分対応にどのような属性を付与するかは,学習における汎化性能に影響する.しかしながら,上記の設定で必要と思われる性能が達成されたため,それ以上の検討は行わなかった.実験的に確かめてはいないが,「どのような対応(単位)を部分対応として採用するか」の方が,「部分対応にどのような属性を設定するか」よりも実行性能に与える影響がより大きいと思われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースモデルの作成}\label{sec:base_model}ベースモデルは,MeCabの学習機能を使って作成する.使用した対訳データは,過去の研究\cite{SatoWWW2009,SatoNLP2012}によって得られた,国情報が不明の氏名対訳データ276,311件である.このデータを,まず,名前対訳データ136,106件\footnote{一部,クリーニングを適用した.}に変換し,次に,それぞれの対訳のアライメントを推定して学習用コーパスに変換し,MeCabのモデルを学習した.学習時に設定するCRFのパラメータは,実験的に調査した範囲では$C=0.4$が最も良かったため,この値で作成したモデルをベースモデルとして採用した.なお,このベースモデルの作成は2017年に行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{国別モデルの作成}\label{sec:country_model}国別モデルは,MeCabの再学習機能を使って作成する.この再学習機能は,学習済モデルと少量の追加学習用データからモデルを再構築する仕組みである.学習済モデルとしては,上記で述べたベースモデルを用い,追加学習用データとしては,名前対訳辞書に含まれるそれぞれの国の対訳データを用いる.再学習においてもCRFのパラメータが必要となるが,この値は,ベースモデル作成時と同じ$C=0.4$を用いた.208カ国の国別モデルの作成は,MacBookPro(AppleM1,16GB)で約26時間で完了する.そのため,国別モデルの数の多さ(208カ国)は,特に問題とはならない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{検討} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{暫定訳はどのぐらい採用されたか}綴2021が出力した暫定訳は,実際にどのぐらい使われたのだろうか.時事通信社から入手した4大会の最終対訳名簿と,時事通信社に送付した綴2021の翻訳結果をつきあわせて採用率(そのまま採用された割合)を算出した.対象としたのは,最終対訳名簿と綴2021の翻訳結果の両方に含まれる人名である.人名の同一性は,選手コード\footnote{オリンピック参加者名簿では,候補者を含め,それぞれの選手にユニークなコードが割り当てられている.}の同一性で判定した.その結果を表\ref{tab:used}に示す.氏名は延べ数(人物単位),名前は異なり数(国名,アルファベット表記の名前,カタカナ表記の名前の3つ組の単位)である.氏名の下位分類「完全一致,一致,重複,推定」は,3.3節で述べた翻訳処理の状況に対応する.名前の下位分類「辞書,推定」は,辞書で翻訳したのか,トランスリタレーションで翻訳したのかを表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{17table07.tex}%\caption{4大会の暫定訳採用率}\label{tab:used}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,東京オリンピックの結果に注目しよう.以下のことが観察される.\begin{itemize}\item翻訳結果が訳語推定によるもの,すなわち,新たにカタカナ訳を付与しなければならない人名が,氏名単位の翻訳では69.6\%,名前単位の翻訳では59.8\%を占めた.既訳辞書は,前回までのオリンピックやメジャーな国際大会の参加者名簿などを元に参加者予想を加味して作成されているが,そのような既訳辞書を用いても,辞書のカバー率は50\%に届かない.\item既訳の採用率は100\%ではない.氏名単位では,完全一致で6.0\%,一致で4.8\%,名前単位では3.4\%が修正された.これは,既訳がさまざまな事情(たとえば,他メディアとの整合性)で修正されることを示している.\item暫定訳の採用率は,氏名単位では90.4\%,名前単位では94.0\%であった.この値は十分高いと言えよう.\item訳語推定に限定した場合の暫定訳の採用率は,氏名単位では88.7\%,名前単位では92.3\%である.この値も十分高いと言えよう.\end{itemize}これらの数値から,綴2021の翻訳支援は十分に役立ったと結論づけてもよいだろう.さらに,綴2021のトランスリタレータ(翻訳サブシステム群)は,実用的な性能を有していると判断してもよいだろう.次に,他の3大会にも目を向けよう.\begin{itemize}\itemパラリンピックはオリンピックと比較して辞書のカバー率が高い.これは,おそらく,パラリンピックの方が参加者を予想しやすいためと考えられる.\item夏季大会に比べて冬季大会の採用率が低い.特に北京オリンピックの採用率が低い.この理由は定かではないが,各国モデルの作成に使用した既訳辞書に由来する可能性(夏季と冬季の参加者数の違いが,既訳辞書にも反映されている)と,対象とする国に由来する可能性(カタカナ訳が難しい国が多い),あるいは,競技種目に由来する可能性(冬季はメジャーな種目が少ない)が考えられる.辞書翻訳の採用率も低いことを考慮に入れると,カタカナ訳の方針が安定していない国が多いということなのかもしれない.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{得られた知見}本稿で報告したオリンピック参加者名簿の翻訳支援の経験から多くの知見が得られたが,そのなかで筆者が特に重要と思う3点を以下にまとめる.\begin{enumerate}\item現実の問題は,ベンチマークとは異なる現実の人名トランスリタレーションでは,既訳が存在しない人名が対象となる.そこには正解は存在ぜず,トランスリタレータに求められることは,使用者や社会に受け入れられることが期待されるカタカナ訳(のひとつ)を作り出すことである.これまで,トランスリタレータの性能は,既訳データから構成されるテストセットを用い,既訳との一致率で評価されてきた.既訳が存在する人名は,本来はトランスリタレーションの対象外の人名である(トランスリタレーションの対象となる人名の母集団には含まれない).そのため,テストセットを用いたベンチマークは,現実のタスクでどのぐらい役立つかを必ずしも正しく反映しない.現実のトランスリタレーション・タスクは,正解を当てるという問題ではない.\itemカタカナ訳の設計が重要一度に大量の人名にカタカナ訳を付与する場合,カタカナ訳全体の一貫性や統一性が求められる.そのため,それぞれの人名をどう訳すかを決める以前に,それぞれの国に対してカタカナ訳のガイドラインを決めることがより重要となる.このガイドラインには,どれだけのカタカナを使用するか(たとえば,「ヴ」を使用するのかしないのか),どのようなスペル・部分スペルにどのようなカタカナ表記を当てるか(たとえば,末尾の``vic''を「ビッチ」と訳すのか「ビク」と訳すのか)などが含まれる.今回のプロジェクトでは,カタカナ訳で使用できるカタカナ1文字・2文字を定義し,辞書および学習データのカタカナ表記を統制して,トランスリタレータが出力するカタカナ表記を統制した.このことは,トランスリタレーションを,ある種の設計問題として扱ったとも言える.しかしながら,十分に統制が行き届かなかったという反省もある.特に,複数の語からなる名前,たとえば,``AndreKlippenberg''や``Andre-Pierre''のカタカナ訳をどうするかの設計が不十分であった\footnote{カタカナ訳でこのような名前の区切りをどう表記するかは,社会的にはまったく定まっていないと言ってよい.区切りを無視する場合,中黒「・」でつなぐ場合,ハイフォンやマイナス記号でつなぐ場合など,多種多様な実例が存在する.}.アルファベット表記では,前者のように空白で区切られる場合と,後者のようにハイフォンで区切られる場合があるが,既訳辞書には後者の形式は存在しなかった.前者の場合,時事通信社の方針に従い,綴2021は空白を無視して「アンドレクリッペンベルグ」を出力するが,後者の場合はハイフォンを残し「アンドレ-ピエール」を出力するようになっていた\footnote{実はこれはバグで,設計では,全角のマイナス記号を出力する仕様となっていた.}.最終名簿では,後者はハイフォンを削除した「アンドレピエール」が使われていたため,後者の推定結果は不採用に分類される.このようなハイフォン削除のみの修正は,東京オリンピックの名前の修正数897件中194件(21.6\%)を占めた.\item安定したソフトウェアを使う\\綴2021と袷2019が利用している主要なソフトウェアは,Ruby,MeCab,SQLite3,ActiveRecordである.これらは安定しており,MeCab以外は十分に保守されている.数年に渡るプロジェクトにおいては,安定したソフトウェア,よく保守されているソフトウェアを使うことが重要である.実際,綴の旧バージョンで使用していた辞書検索ツールがOSのバージョンアップで使用できなくなったため,SQLite3への変更を余儀なくされた.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} トランスリタレーションの自動化は,Knightらの先駆的な研究\cite{Knight1998}以降,多くの研究が行われてきた.2010年頃までの研究は,Karimiらのサーベイ\cite{Karimi2011}にまとめられている.最近は,我々の研究\cite{JungJSAI2018}を含め,ニューラルネットを利用した実装\cite{Jadidinejad2016,grundkiewicz-heafield-2018-neural,10.1145/3265752}もある.トランスリタレーションは,抽象的には,ある系列を別の系列に変換する系列変換問題と捉えることができる.トランスリタレーションでは,通常の翻訳とは異なり,変換前後で対応する部分列の順序が保存される.そのため,系列ラベリング問題と捉えることもできる.トランスリタレーション過程を具体的にどのようにモデル化するかには,多くのバリエーションが存在する.それらのバリエーションを作り出す主要なポイントは,(1)中間的な音素のレベルを明示的に導入するか否か,(2)変換の最小単位をどのように設計するか,(3)最小単位の変換が何に依存して定まると仮定するか,の3点である.これらを定め,その詳細と実装方法を定めると,具体的な手法が得られる.トランスリタレーションは,対象とする言語対に依存する部分も大きく,どのような方法が最適であるかの判断は,容易ではない.綴2021の方式は,変換過程ではアルファベット表記を直接カタカナ表記に変換するため,中間的な音素レベルを経由しない(直接変換方式).しかし,最小単位は,音を強く意識した独自のローマ字表記を経由して定める(袷2019)ため,音変換として完結した単位である.つまり,表面上は表記から表記への変換であるが,その変換の最小単位は,音に基づく変換となっている.最小単位への分割と最小単位の変換は,MeCab,すなわち,bi-gramマルコフモデルに基づいて行われ,その確率はConditionalRandomField(CRF)によって訓練例から学習される.トランスリタレーションはMeCabで実行されるため,十分に高速である.綴2021の大きな特徴は,入力として,原言語ではなく,国名を指定する点にある.これは,すでに2.1節で述べたように,人名のアルファベット表記だけから言語を推測することは困難であるという理由による.同時に,「1国1名前に対して,カタカナ訳はひとつ」という名簿翻訳の統制方針を実現するためでもある.どのような学習方式を採用するにせよ,学習ベースのシステムでは,どのような訓練例集合を用いるかが重要な要素となる.アルファベット表記\footnote{原論文では,Latinscript.}とカタカナ表記の人名対訳データとして,ウィキペディアから抽出したデータセットが公開されているが\cite{Merhav2018},その大きさは名前単位で98,820件であり,かつ,それぞれの表記は統制されていない.これに対して,綴2021は,ベースモデルの学習に,対象とするタスク(オリンピック名簿の翻訳)の要請に合致するように表記を統制した訓練例136,106件を使用し,さらに,各国モデルの学習では,延べ40,050件の国別人名訓練例(既訳辞書)を使用している.トランスリタレーションの出力を統制するためには,訓練例を適切に統制することが不可欠である.これまでのトランスリタレーションの研究では,既訳データから構成されるテストセットを用いて性能を評価してきた.しかしながら,2.3節で述べたように,既訳が存在するならば,トランスリタレーションを適用する必要はない.つまり,このような評価は,本来対象とすべき母集団には含まれないデータを使って評価していることになる.真にトランスリタレーションを必要とするのは,既訳が存在しない場合である.本研究は,オリンピック参加者名簿の翻訳という現実のタスクに対してシステムを設計・実装し,真にトランスリタレーションを必要とする人名に対して,システムのタスク遂行の程度を採用率という形で示した点に新規性がある.なお,採用率は,テストセットを用いてシステムの性能を測るベンチマークの指標ではなく,遂行した現実のタスクの事後評価の指標である.ほとんどのトランスリタレーション研究では,どのような方式でトランスリタレーションを実現するかに焦点が当てられてきた.しかしながら,現実のタスクに対して実際に使えるシステムを作る場合は,その比重は小さい.それよりも,そのタスクが要請する仕様をどう満たすか,それに合わせて訓練例をどのように統制するか,使用形態を想定してどのようなサービスを提供するか,外部要因で定まるスケジュールを満たすために何をすべきか(十分な高速化と修正作業の簡便化)などが,より大きな比重を占める.現実の問題を解く場合は,このような要素を考慮して実現可能な解決策を見つける必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究に研究パートナーとして協力してくださった時事通信社の朝賀英裕氏に感謝します.本研究では,JSPS科学研究費21300094,2650047の成果を利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{17refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{対訳辞書のサイズ} 表\ref{tab:country}に,綴2021の氏名対訳辞書および名前対訳辞書の国別のサイズを示す.\newpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[p]\input{17table08.tex}%\end{center}\caption{対訳辞書の国別サイズ(国名はIOCコード)}\label{tab:country}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{佐藤理史}{%1988年京都大学大学院工学研究科博士後期課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.博士(工学).言語処理学会,人工知能学会,日本認知科学会,ACM各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V12N03-04
\section{はじめに} label{sec:introduction}\smpt{結合価辞書の重要性}用言の下位範疇化構造や選択制限などの詳細な情報は、自然言語処理の様々な分野で利用されている。本稿では、これらの詳細な情報を結合価情報と呼び、結合価情報を持つ辞書を結合価辞書と呼ぶ。また、結合価辞書のエントリを結合価エントリ、あるいは単にエントリと呼ぶ。結合価辞書を用いたシステムには、機械翻訳システム(\altje\citep{Ikehara:1991}、PIVOT\citep{Nomura:2002j})や自動要約システム(CBsummarizer\citep{Nomura:2002j})、言い換えシステム(蔵\citep{Takahashi:01})、ゼロ代名詞照応システム(ZeroChecker\citep{Yamura-Takei:Fujiwara:Yoshie:Aizawa:2002})、質問応答システム(SAIQA-II\citep{Sasaki:2004})などがあり、多岐に渡っている。また、近年では、結合価辞書等の詳細な辞書情報とコーパスなどを利用した統計的手法を融合させる研究も行なわれている\citep{Uszkoreit:2002,Copestake:Flickinger:Pollard:Sag:1999}。例えば、\citet{Carroll:Minnen:Briscoe:1998}は、統計的統語解析器に下位範疇化構造の情報を持つ辞書を利用することで、解析精度をあげられることを示している。\smpt{言語現象を調べることに利用できる}このように、詳細な情報を持つ結合価辞書は非常に有用なため、様々な自然言語処理システムで利用されている。また、交替などの言語現象の量的な調査にも利用できる。ここで交替関係とは、異なる表層的構造によって、ほぼ同じ意味関係を表すことができるような関係である。例えば、「(店の)製品が\ul{完売する}」と「(店が)製品を\ul{完売する}」は表層的構造は異なるが、ほぼ同じ意味関係を持ち、交替している。このような交替は、英語では、\citet{Levin:1993}によって80種類以上提示されている。日本語では、\citet{Bond:Baldwin:Fujita:2002j}によって大規模に調査が行なわれている。\citet{Bond:Baldwin:Fujita:2002j}によると、最も多い交替タイプは「砂糖が\ul{溶ける}」\tot「私が砂糖を\ul{溶く}」などのように、自動詞の主語(\sbj)が他動詞の目的語(\obj)となる交替(以降、\soaltと呼ぶ)であると報告されている。\soaltは全交替の34\%を占めており、最も一般的な交替タイプであるといえる。本稿では、この、最も一般的な交替タイプである\soaltを対象とし、既存の結合価辞書を用いて交替の選択制限の対応関係等の調査を量的に行なう。また、その調査結果に基づき、交替情報を用いて新たな結合価エントリを獲得する方法を提案する。\smpt{結合価辞書の構築方法の先行研究}結合価辞書の構築方法は多く提案されており、これらの構築方法は大別して3種類に分類できる。第一に人手で作成する方法がある\citep{Shirai:1999zj}。人手で作成する方法の利点は、質の高い言語資源が獲得できるという点である。しかし、その作成にはコストと時間がかかるという問題や、作成するエントリが網羅性に欠けるという問題がある。また、内省による作成の場合、作成者や作成時期の異なりによる判断の揺れが起こり、辞書の一貫性を保つことが難しいという問題もある。第二に、コーパスから情報を学習する方法が提案されている\citep{Li:Abe:1998,Manning:1993,Utsuro:1997,Kawahara:Kurohashi:2001}。しかし、\citet{Korhonen:2002}は、コーパスからの単言語の下位範疇化構造を自動的に獲得する場合、精度は約80\%が上限である事を示している。また、\citet{Utsuro:1997}や\citet{Korhonen:2002}は、下位範疇化構造を自動的に獲得する場合でも、人手による修正が必要であると述べている。このように、自動学習では、必然的にエラーが含まれ精度が保証できないため、完全に自動構築された結合価辞書はほとんどない。第三に、言語資源を統合する方法が提案されている。例えば、既存の結合価辞書を半自動的に拡張する方法\citep{Fujita:Bond:2002a,Bond:Fujita:2003,Hong:Kim:Park:Lee:2004}、コーパスからの学習データを用いて拡張する方法\citep{Korhonen:2002}、多言語辞書を用いて単言語データを豊かにする方法\citep{Probst:2003}が提案されている。このように、言語資源を統合する方法は多様であるが、全般に人手で全て作成するよりコストが安く、コーパスから自動的に獲得するより信頼性が高いという利点がある。また、こうした方法では、様々な研究者や組織により構築されている言語資源を有効利用できるという利点もある。\smpt{提案手法}本稿で提案する結合価エントリの獲得方法は、第三の言語資源を統合する方法に分類できる。本提案手法では、交替を起こす動詞に対し、交替の片側に対応する結合価エントリが不足している場合、不足しているエントリを自動的に獲得する手法を提案する。本提案手法では、見出し語レベルでの交替情報、すなわち、「溶ける」と「溶く」は交替する、という情報と、交替の片側に対応する既存の結合価エントリを種として用いる。これらから、交替のもう一方に対応する新たな結合価エントリを獲得し、両エントリ間の対応関係を辞書に付与する。すなわち、本提案手法は、交替を起こす動詞で不足している結合価エントリを補うと共に、結合価エントリ間の交替関係の情報を付与することで結合価辞書をより豊かにすることができる。また、既存の結合価辞書が2言語の結合価情報を持つ場合、両方の言語の結合価情報も同時に獲得できる。そのため、本提案手法は特に機械翻訳において利用価値が高い。以下、\ref{sec:resource}章では、本稿で利用する言語資源を紹介する。\ref{sec:exam}章では、\soaltの調査を行なう。\ref{sec:create-method}章では、\ref{sec:exam}章の調査に基づき、交替情報を用いた結合価エントリの作成方法を提案する。\ref{sec:eva}章では本提案手法で作成した結合価エントリの評価について報告する。\ref{sec:discuss}章では、本提案手法の改良や展開について議論し、\ref{sec:conclusion}章はまとめである。 \section{利用する言語資源} \label{sec:resource}本章では、交替を起こす動詞の特徴調査に利用する言語資源について述べる。調査に利用する言語資源は、交替を起こす動詞のリスト(以下、交替動詞リストと呼ぶ)と、既存の2言語の結合価情報を持つ結合価辞書である。また、これらの言語資源は、\ref{sec:create-method}章で提案するの結合価エントリの獲得方法でも利用する。\smpt{交替動詞リストの説明}まず、交替動詞リストとは、\soaltを起こす動詞の組み合わせのリストである。このリストは、\citet{Jacobsen:1981}と\citet{Bullock:1999}の日本語交替のデータと、日英辞書であるEDICT\citep{Breen:1995,Breen:2004}を元に我々が作成したものであり、日本語の和語動詞の自動詞と他動詞のペアと、各動詞につき一つ以上の英訳(gloss)で構成される。\citet{Jacobsen:1981}のリストには370組、\citet{Bullock:1999}のリストには190組の和語動詞が登録されている。我々がEDICTを用いて抽出したのは434組である。これらのリストから、「俯向く」「俯く」などの表記揺れを吸収し、重複を除くと571組になる。更にこの中から、\soalt{}として不適切な動詞の組み合せ、例えば、「混む」「込める」のように語義の異なる組み合わせや、「漏れる」「漏る」のような自動詞同士の組み合わせなどを人手で削除し\footnote{\citet{Jacobsen:1981}と\citet{Bullock:1999}のリストからも、主に、語義が異なるという理由で約70組が削除された。}、最終的に460組を残した。このリストの例を表\ref{tab:list}に示す。\begin{table}[htbp]\centering\begin{tabular}{ll|ll}\multicolumn{2}{c|}{\jita{自動詞}}&\multicolumn{2}{c}{\jita{他動詞}}\\\hline日本語&英訳&日本語&英訳\\\hline溶ける&dissolve&溶く&dissolve\\泣く&cry&泣かす&makecry\\上がる&rise&上げる&lift\\\end{tabular}\caption{\soaltのリストの例}\label{tab:list}\end{table}\smpt{結合価辞書(ALT)の説明}また、本稿で用いた結合価辞書は、NTTで日英機械翻訳システム\altje用に開発してきた結合価辞書\citep{GoiTaikeij}である。この結合価辞書は日本語と英語の両方の結合価情報を持っている。\altje{}の結合価辞書は、慣用表現辞書と形容詞を除き、5,062の日本語動詞と11,214の結合価エントリで構成されている。日本語側の結合価情報には項構造と選択制限の情報が含まれる。\mpt{項構造の説明}ここで項とは、動詞の意味を完結させるために必要な情報であり、用いられる表層的な格助詞、意味役割の情報を含んでいる。また多くのエントリには、必須格に加えて、曖昧性を減らすため、随格も付与されている。\begin{figure*}[htb]\begin{center}\begin{tabular}{ll}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}[t]{ll}\multicolumn{2}{l}{J-EEntry:302116}\\\\\sbj&┌\textbf{N1}:\izj{具体物}が\node{sbj}{\gm{nom}}\\\ix&├\textbf{N3}:\izj{具体物}に\node{ix1}{\gm{dat}}\\&└\textbf{Vi}:溶ける\\\\[-1ex]\\\sbj&┌\ul{\textbf{N1}}\node{Esbj}{\gm{subject}}\\&├\textbf{Vi}\ul{\eng{dissolve}}\\\ix&└\textbf{PP}\node{Eix1}{\ul{\eng{in}\textbf{N3}}}\\\end{tabular}\end{minipage}}&\framebox{\begin{minipage}[t]{0.45\textwidth}\begin{tabular}[t]{ll}\multicolumn{2}{l}{J-EEntry:508661}\\\node{erg}{\abs}&┌\textbf{N1}:\izj{人人工物}が\gm{nom}\\\node{obj}{\obj}&├\textbf{N2}:\izj{具体物}を\gm{acc}\\\node{ix2}{\ix}&├\textbf{N3}:\izj{無生物}に\gm{dat}\\&└\textbf{Vt}:溶く\\\\[-1ex]\node{Eerg}{\abs}&┌\ul{\textbf{N1}}\gm{subject}\\&├\textbf{Vt}\ul{\eng{dissolve}}\\\node{Eobj}{\obj}&├\ul{\textbf{N2}}\gm{directobject}\\\node{Eix2}{\ix}&└\textbf{PP}\ul{\eng{in}\textbf{N3}}\\\end{tabular}\end{minipage}}\end{tabular}\caption{\mbox{\soaltの例:\textbf{Vi}溶ける\protect\eng{dissolve}}\tot\textbf{Vt}溶く\protect\eng{dissolve}}\label{fig:toku-tokeru}\vspace*{-5mm}\end{center}\aanodecurve[r][0]{ix1}[l][0]{ix2}{10mm}\aanodecurve[r][0]{Eix1}[l][0]{Eix2}{10mm}\aanodecurve[r][0]{sbj}[l][0]{obj}{10mm}\aanodecurve[r][0]{Esbj}[l][0]{Eobj}{9mm}\end{figure*}図\ref{fig:toku-tokeru}に、\altjeの結合価辞書の例を示す。図\ref{fig:toku-tokeru}の「溶く」\tot「溶ける」は\soaltの関係を持ち、図のように項構造をリンクできる。但し図\ref{fig:toku-tokeru}では、\abs{}は他動詞側だけに現れ、自動詞側では対応する意味役割がない。また、図\ref{fig:toku-tokeru}で、N1は主格を、N2、N3は目的格を表す変数であり、本稿ではこれらN1、N2、N3等を格役割と呼ぶ。また、図\ref{fig:toku-tokeru}で、\izj{}で示したのは格の選択制限であり、意味属性か字面、あるいは、\iz{*}のリスト形式で定義されている。意味属性は2,710カテゴリを持つ日本語語彙大系\citep{GoiTaikeij}のシソーラスで定義されている。このシソーラスの上位4レベルを図\ref{fig:iz}に示す。このシソーラスは最大12レベルまでの深さを持つ非平衡型階層構造である。レベル1は\iz{名詞}であり、レベル12は\iz{農作業},\iz{出演}などの細かな意味属性を含む。レベルが深くなるにつれ、意味はより特殊化されているため、選択制限はより厳しくなる。また、字面は、特定の語とだけ一致し得ることを、\iz{*}は、あらゆる語や節を取り得ることを示している。なお、本稿では、\soalt{}における他動詞側の主格を\abs(ergative)、目的格を\obj{}、自動詞側の主格を\sbj{}と呼ぶ。また、\abs{}、\obj{}、\sbj{}以外の格は、\ix{}と呼ぶ\citep[p11]{Dixon:1991}。\smpt{調査対象と実験対象}本稿で用いる交替動詞リスト(460組)のうち、315組(68.5\%)は、図\ref{fig:toku-tokeru}のように自動詞と他動詞の両方のエントリが既存の結合価辞書に存在する。また、79組(17.2\%)は自動詞か他動詞のどちらかのみが既存の結合価辞書に存在する(図\ref{fig:venn}参照)。自動詞、他動詞共に結合価辞書に存在しないのは、66組合せ(14.3\%)である。ここで、両方のエントリが存在する315組をエントリに展開すると、381組の結合価エントリとなる。この381組の結合価エントリを利用して、\soaltの交替の特徴調査を行なう(\ref{sec:AOS-compare}章)。また、片側のエントリのみが結合価辞書に存在する79組の動詞について、欠如している結合価エントリの獲得実験を行なう(\ref{sec:create-method}章)。\begin{figure}[htbp]\fbox{\begin{pspicture}(12,4)\psset{fillstyle=solid}\psset{fillcolor=white}\psellipse(7,2)(5,1.7)\psset{fillcolor=white}\psclip{\psset{fillcolor=white}\psellipse(5,2)(4.75,1.7)}\psset{fillcolor=lightgray}\psellipse(7,2)(5,1.7)\endpsclip\rput(0.75,3.75){\shortstack{全460組}}\rput(6,2){\shortstack{自/他動詞共に存在\\315組}}\rput(1.2,2){\shortstack{他動詞のみ\\27組}}\rput(11,2){\shortstack{自動詞のみ\\52組}}\rput(6,0.05){\shortstack{自/他動詞共に存在せず\hspace{0.5cm}66組}}\end{pspicture}}\centering\caption{\soaltの交替動詞リストに対応する結合価エントリの有無}\label{fig:venn}\end{figure}{\setlength{\tabcolsep}{4.7pt}\begin{figure*}[hbtp]\begin{center}\begin{tabular}{llllllllllllllllllllllll}&&\multicolumn{10}{c}{\sa{1}{名詞}}\\[2ex]\multicolumn{7}{c}{\sa{2}{具体}}&\multicolumn{14}{c}{\sa{1000}{抽象}}\\[2ex]\multicolumn{2}{c}{\sa{3}{主体}}&\multicolumn{3}{c}{\sa{388}{場所}}&\multicolumn{2}{c}{\sa{533}{具体物}}&\multicolumn{2}{c}{\sa{1001}{抽象物}}&\multicolumn{3}{c}{\sa{1235}{事}}&\multicolumn{9}{c}{\sa{2422}{抽象的関係}}\\[2ex]\sa{4}{人\\~}&\sa{362}{組\\織}&\sa{389}{施\\設}&\sa{458}{地\\域}&\sa{468}{自\\然}&\sa{534}{生\\物\\~}&\sa{706}{無\\生\\物}&\sa{1002}{抽象物\\(精神)}&\sa{1154}{\hspace*{-1em}抽象物\\\hspace*{-1em}(行為)}&\sa{1236}{人\\間\\活\\動}&\sa{2054}{事\\象}&\sa{2304}{自\\然\\現\\象}&\sa{2423}{存\\在}&\sa{2432}{類\\・\\系}&\sa{2443}{関\\連}&\sa{2483}{性\\質}&\sa{2507}{状\\態}&\sa{2564}{形\\状}&\sa{2585}{数\\量}&\sa{2610}{場}&\sa{2670}{時\\間}\end{tabular}\nodeconnect[b]{c1}[t]{c2}\nodeconnect[b]{c1}[t]{c1000}\nodeconnect[b]{c2}[t]{c3}\nodeconnect[b]{c2}[t]{c388}\nodeconnect[b]{c2}[t]{c533}\nodeconnect[b]{c3}[t]{c4}\nodeconnect[b]{c3}[t]{c362}\nodeconnect[b]{c388}[t]{c389}\nodeconnect[b]{c388}[t]{c458}\nodeconnect[b]{c388}[t]{c468}\nodeconnect[b]{c533}[t]{c534}\nodeconnect[b]{c533}[t]{c706}\nodeconnect[b]{c1000}[t]{c1001}\nodeconnect[b]{c1000}[t]{c1235}\nodeconnect[b]{c1000}[t]{c2422}\nodeconnect[b]{c1001}[t]{c1002}\nodeconnect[b]{c1001}[t]{c1154}\nodeconnect[b]{c1235}[t]{c1236}\nodeconnect[b]{c1235}[t]{c2054}\nodeconnect[b]{c1235}[t]{c2304}\nodeconnect[b]{c2422}[t]{c2423}\nodeconnect[b]{c2422}[t]{c2432}\nodeconnect[b]{c2422}[t]{c2443}\nodeconnect[b]{c2422}[t]{c2483}\nodeconnect[b]{c2422}[t]{c2507}\nodeconnect[b]{c2422}[t]{c2564}\nodeconnect[b]{c2422}[t]{c2585}\nodeconnect[b]{c2422}[t]{c2610}\nodeconnect[b]{c2422}[t]{c2670}\caption{日本語語彙大系の上位4階層(一般名詞シソーラス)}\label{fig:iz}\end{center}\end{figure*}} \section{\soalt{}の調査} \label{sec:exam}\subsection{\abs\obj\sbjの選択制限の調査}\label{sec:AOS-compare}交替では、同じ意味役割が、異なる表層格(syntacticposition)に出現し得る\citep[pp118--123]{Gunji:2002}。「溶く」\tot「溶ける」の交替を例にあげると、溶かされる役は自動詞「溶ける」の主語(\sbj{})であり、かつ、他動詞「溶く」の目的語(\obj{})でもある。\citet{Baldwin:1999b}は、異なる表層格に対応する選択制限が出現すると仮定している。\citet{Dorr:1997}は、一つの表記により両方の交替のエントリを生成しており、この仮定を支持しているようである。この仮定のように、異なる表層格に同じ選択制限が用いられるのであれば、交替の片側のエントリからもう片側のエントリを作成する場合に、対応する表層格では同じ選択制限が利用できる。但し、\abs{}は空の項と交替するため、他動詞側のエントリを作成する場合の選択制限を、対応する表層格から得ることができない。しかし、\citet{Kilgarriff:1993}は、\abs{}は\izs{意識(sentient)}と\izs{意志性(volition)}を持ち、\obj{}は\izs{状態変化(changes-state)}と、\izs{影響(causallyaffected)}を受けるという特徴を持つとしている。Kilgarriffの主張のように、特に\abs{}の意味属性が特徴的であれば、他動詞側のエントリを作成する場合に、最も典型的な意味属性を用いて\abs{}を作成することができる。そこで本章では、\soaltにおける意味役割、具体的には\abs{}、\obj{}、\sbj{}の選択制限として用いられている意味属性の同一性や性質を調査する。特に\sbj{}と\obj{}に同一の選択制限が利用できるかどうか、また、\absに頻出する選択制限を調査する。まず、選択制限として用いられている意味属性の同一性を検討するため、\abs{}、\obj{}、\sbj{}の意味属性間の距離を調査する。選択制限は意味属性のリストで表されるため、2つの選択制限に含まれる意味属性間の親等\footnote{親等とは、「親族関係の親疎を測る単位。直系親では、親子の間を一世とし、その世数によって定める。〜中略〜傍系親では、それぞれの共通の祖先までの世数を合計して算出する。〜後略〜」(広辞苑第四版CD-ROM版\citep{koujien}より)}のうち、最少のものを最近距離として用いる。親等は例えば、図\ref{fig:iz}より、\izj{名詞}と\izj{具体}は1親等、\izj{名詞}と\izj{主体}は2親等、のようになる。そのため、最近距離は近ければ近いほど、それぞれの意味属性が近い事を示している。但し、利用する結合価辞書は人手で作成されたものであるため、1親等程度の差は、作成者や作成時期の異なりによる揺れの可能性もある。例えば、図\ref{fig:toku-tokeru}の\ix{}の選択制限はそれぞれ「溶ける」では\izj{具体物}、「溶く」では\izj{無生物}であり、最近距離が1となるが、これは有意な差ではないと考えられる。しかしこの場合も、最近距離は高々1であり、最近距離が近ければ近いほど、意味属性が近いことに変わりはない。図\ref{fig:sr-diff}は、意味役割が対応する\abs{}と\sbj{}、文法役割が対応する\obj{}と\sbj{}の最近距離の分布の調査結果を示している。但し、最近距離0の組み合わせのうち、選択制限が完全に同一になったものを「0(同一)」に分類し、その他のものを「0」に分類している。例えば、図\ref{fig:toku-tokeru}の「溶く」\tot{}「溶ける」では、\sbj{}と\obj{}の選択制限は共に\izj{具体物}なので、最近距離は「0(同一)」である。また、\abs{}の選択制限は\izj{人人工物}であり、図\ref{fig:iz}より\izj{人}と\izj{具体物}は3親等、\izj{人工物}と\izj{具体物}は2親等\footnote{\izj{人工物}は\izj{無生物}(図\ref{fig:iz})の子供なので、\izj{具体物}の孫である。}なので、\abs{}と\sbj{}の最近距離は2である。図\ref{fig:sr-diff}から、\obj{}と\sbj{}の選択制限は最近距離0(同一)が30.1\%、最近距離0が27.5\%であり、ここまでで、全体の57.6\%を占める。対して、\abs{}と\sbj{}では、最近距離1が26.7\%と最も多く、次が最近距離2の21.5\%である。つまり、\obj{}と\sbj{}は文法的には異なる位置にあるが、\citet{Bond:Baldwin:Fujita:2002j}が主張しているように、選択制限の一致率は高い。特に、完全に同じ選択制限でなくとも、少なくとも一部は同じ意味属性を含んでいる割合が非常に高い。一方、\abs{}と\sbj{}は文法役割は共に主語だが、\obj{}と\sbj{}に比べ、一致率は低く、選択制限は異なっている。\begin{figure}[h]\begin{center}\includegraphics[angle=0,width=100mm]{SR-taiou.eps}\caption{選択制限の最近距離}\label{fig:sr-diff}\end{center}\end{figure}次に、\abs{}、\obj{}、\sbj{}、特に\abs{}が\izs{意識}と\izs{意志性}を持つかどうかを調べる。日本語語彙大系の階層の中で、\izj{主体}配下の意味属性は\izs{意識}と\izs{意志性}を持ち、\izj{主体}配下の意味属性が含まれる割合が高いほど、その格の動作主性(agentivity)が高いといえる。\abs{}、\obj{}、\sbj{}の選択制限に、\izj{主体}配下の意味属性が含まれる割合は、\abs{}で60.1\%、\obj{}で14.1\%、\sbj{}で13.9\%であった。つまり、\citet{Kilgarriff:1993}が主張しているように、\abs{}は非常に動作主性が高いが、\sbj{}は文法的には同じ位置にあるが動作主性は低い。なお、\abs{}の選択制限として最も出現頻度が高かったのは、\izj{主体}であり、全\abs{}の41.4\%を占めた。これらの結果をまとめると、\sbjと\objは完全に一致するわけではないが、少なくとも一部の意味制限が一致する確率が高く、\sbjと\objの選択制限として同一の選択制限が利用できるといえる。また、\abs{}は\izs{意識}と\izs{意志性}を持つ割合が非常に高く、\abs{}の選択制限として最もよく利用されるのは\izj{主体}である。\subsection{日本語と英語の交替の比較調査}\label{sec:alternations}本節では、2言語間の交替比較を行なう。特に、日本語が\soaltを起こす場合に、対応する英訳の結合価情報の変化を調査する。結合価エントリ獲得の観点からすると、日本語が\soaltを起こす場合に、英語側の結合価の変化も規則的であれば、英語側の結合価情報も日本語側と同時に獲得が可能であると予測できる。この調査には、交替動詞リストを用いる。交替動詞リストは日本語は460組み合わせだが、多くの動詞は英訳が複数あるため、英訳の異なりを考慮すると、全部で839の組み合わせからなる。このリストの英訳組み合わせを分類した結果を、表\ref{tb:alternation-type}に示す。{\setlength{\tabcolsep}{2.2pt}\begin{table*}[h]\small\begin{tabular}{lllllllrr}\multicolumn{2}{c}{日本語}&\multicolumn{2}{c}{英訳}&\multicolumn{2}{c}{英語構造}&タイプ&数&(\%)\\\jita{自動詞}&\jita{他動詞}&\jita{自動詞}&\jita{他動詞}&\jita{自動詞}&\jita{他動詞}&\\\hline\hline弱まる&弱める&\sbj\ul{weaken}&\abs\ul{weaken}\obj&\eng{\sbjVi}&\eng{\absVt\obj}&\typeSO&138&30.0\\漏れる&漏らす&\sbjbe\ul{omitted}&\abs\ul{omit}\obj&\eng{\sbjbeVt-ed}&\eng{\absVt\obj}&\iz{passive}&91&19.8\\泣く&泣かす&\sbj\ul{cry}&\absmake\obj\ul{cry}&\eng{\sbjVi/beAdj}&\eng{\absVc\objVi/Adj}&\iz{synthetic}&30&6.5\\\hline亡くなる&亡くす&\sbj\ul{passaway}&\abs\ul{lose}\obj&\eng{\sbjVi}&\eng{\absVt\obj}&主辞が異なる&197&42.8\\%\eng{\absVt\obj}&じゃれる&じゃらす&\sbj\ul{play}&\abs\ul{play}with\obj&\eng{\sbjVi}&\eng{\absVtprep\obj}&構造が異なる&4&0.9\\\end{tabular}\\[1ex]\footnotesize{Vcは\eng{make,get,let,become}等の制御動詞(controlverb)。実際のエントリには随格が含まれることもある。}\caption{英語側交替タイプ分類}\label{tb:alternation-type}\end{table*}}表\ref{tb:alternation-type}の通り、英訳を5タイプに分類した。線より上は、自動詞側も他動詞側も英語の主辞が同じものである。これらは、形態変化を伴わない\typeSOタイプ、形態変化を伴う\iz{passive}タイプ、合成的に訳される\iz{synthetic}タイプの3種類からなる。\typeSO{}タイプでは、英語側も\soaltを許す非対格動詞が使われている。このタイプに分類されたものは最も多く、30.0\%を占める。\iz{passive}タイプでは、日本語の自動詞側に対応する英訳が、他動詞の受身として訳されている。このタイプに分類されたものは19.8\%を占める。\iz{synthetic}タイプでは、日本語の他動詞側に対応する英訳が、制御動詞(controlverb)が自動詞か形容詞を補語として持つ形で訳されている。用いられる制御動詞は\eng{make}が多いが、\eng{get,let,become}などの場合もある。このタイプに分類されたものは6.5\%を占める。線より下の2タイプは、英語の主辞が異なっている(42.8\%)か、\eng{\sbjplay\tot\absplaywith\obj}のように、英語の主辞は同じだが結合価の変化が上記のクラスに当てはまらないものである(0.9\%)。ただし、同じ日本語ペアに対し、英訳組み合わせが複数ある場合は「主辞が同じ」組み合わせが一つでもあればそちらに分類している。例えば、「集まる」\tot「集める」の英訳は\eng{gather\totcollect}と、\eng{begathered\totgather}の組み合わせがあるため、\iz{passive}タイプに分類している。結合価辞書構築の観点からすると、最初の3タイプのように英語の主辞が同じで、その結合価の変化を規則化できる場合、日本語の交替を作成すると同時に、英訳も自動的に生成できる。つまり、交替の片側の英訳からもう片側の交替の英訳を作成できる可能性は、表\ref{tb:alternation-type}から56.3\%(30.0\%$+$19.8\%$+$6.5\%)と見積もることができる。但し、最初の3タイプに分類されなかったものでも、他の辞書等から異なる英訳を抽出すれば、このタイプに分類される可能性がある。また、逆に、ほとんどの動詞が複数の英訳を持つ事からもわかるように、同じ主辞を用いて英訳が生成できたとしても、その英訳が最適とは限らない。\smpt{日マ}さて、本章では日英の交替の比較を行なったが、他の言語対の場合でも、多くはこのような分類になると思われる。例えば、日本語とマレー語の場合、日本語側が\soaltなら、マレー語では一般に、同じ語幹に自動詞と他動詞で違う接辞をとる交替で翻訳できる。例えば、「(砂糖が水に)溶ける」\tot「(私が砂糖を水に)溶く」における「溶ける」\tot{}「溶く」はマレー語では\eng{larut}\tot\eng{\ul{me}larut\ul{kan}}である。しかし、マレー語においてもすべての日本語の\soaltをこのように翻訳できるわけではなく、合成的に翻訳したり、違う動詞で翻訳することもある。このように、ある言語の交替が目的言語側でも似た交替を用いて翻訳できるとは限らない。そのため、目的言語の結合価情報の翻訳方法として、以下の4通りの方法が考えられる。\begin{enumerate}\item目的言語でも交替として翻訳できる場合。但し、一つの交替になるとは限らない。日英の場合、\typeSO{}タイプと\iz{passive}タイプがこれにあたる。\item目的言語では、交替の意味の差を合成的に翻訳する場合。日英の場合、\iz{synthetic}タイプがこれにあたる。\item目的言語では、違う語として翻訳する場合。日英の場合、「主辞が異なる」としたタイプがこれにあたる。\item目的言語では交替によるニュアンスの差を表すことができず、両方同じ翻訳になる場合。日英の場合、表\ref{tb:alternation-type}には、ここに分類されるものはなかった。しかし、例えば、「私に英語がわかる」「私が英語をわかる」という交替を考えると、英語では共に\eng{IcanunderstandEnglish}と訳され、日本語側の交替に対応した英訳の変化がない。\end{enumerate} \section{結合価エントリの作成方法} \label{sec:create-method}\ref{sec:exam}章では、\soalt{}を起こす動詞の特徴を調査した。その結果、互いに交替する項(\sbj{}と\obj{})では、選択制限は完全に一致するわけではないが、少なくとも一部の意味制限が一致する確率が高く、また、\abs{}は自動詞側には対応する項がないが、その選択制限の出現傾向には非常に偏りがあることがわかった。そこで本章では、これらの調査結果に基づいた新しい結合価エントリの作成方法を提案する。本提案手法では、交替動詞リストに載っており、交替の片側にしか対応する結合価エントリが存在しない動詞に対し、存在する方の既存のエントリを種(seed)として用い、欠如している結合価エントリを自動的に作成する。本手法で自動的に作成された結合価エントリは、最終的には人手で修正する必要があるにせよ、ベースとなる結合価エントリを獲得できると考えられる。\subsection{結合価エントリの基本的作成方法}\label{sec:basic-method}基本的な結合価エントリの作成方法は下記の通りである。\begin{enumerate}\item元の結合価エントリの、各項N$_i$に対して、\begin{description}\item[\if]\hspace{3mm}N$_i$が交替する場合\begin{description}\item[\\if]\hspace{3mm}他の項に対応する\textbf{then}対応する項に変更する\item[\\elseif]\hspace{3mm}対応する項がない\textbf{then}削除する\end{description}\item[\else]\hspace{3mm}そのまま複製する\end{description}\item新しい結合価エントリに該当する交替における必須格が不足していれば、デフォルトの必須格を追加する\end{enumerate}ここで、デフォルトとして用いる必須格の情報は、既存の同じ交替を取る結合価エントリの組合せの中で、該当する格として最も出現頻度が高いものを利用する。また、交替における必須格とは、\soalt{}の場合、\abs{}、\obj{}、\sbj{}である。\subsection{日本語側:結合価エントリ作成方法}\label{sec:Experimental_Method}\paragraph{自動詞側作成方法}\label{sec:jap-int}他動詞側エントリから自動詞側エントリを作成する方法を述べる。\obj{}と\sbj{}が交替するので、\objの選択制限を\sbjの選択制限として複製し、格助詞を「ヲ格」から「ガ格」に変更する。\absは対応する格役割がないため削除し、それ以外の項は全てそのまま複製する。図\ref{fig:kizutuku-kizutukeru}に、自動詞側エントリの作成例を示す。なお、図\ref{fig:kizutuku-kizutukeru}から\ref{fig:odoroku-odorokasu}で、[SeedEntry]は作成元の、[NewEntry]は新しく作成する結合価エントリを示している。また、図\ref{fig:kizutuku-kizutukeru}から\ref{fig:odoroku-odorokasu}には、英語側の結合価情報作成例も併記している(\ref{sec:create_eng}章参照)。\begin{figure*}[htb]\begin{center}\begin{tabular}{ll}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{NewEntryID:700030}\\\\\sbj&┌\textbf{{N1}}:\izj{人動物}\node{sbj8}{が}\\\ix&{├}\textbf{{N12}}:\izj{争い}\node{de8}{で}\\&└\textbf{Vi}:傷付く\\\\[-1ex]\sbj&{┌}\ul{\textbf{N1}}\gm{subject}\node{Esbj8}{}\\&├\textbf{Cop}\eng{be}\textbf{Vp}{\ul{\eng{injured}}}\\\ix&{└}\textbf{PP}\ul{\eng{in}\textbf{N12}}\node{Ede8}{}\\\end{tabular}\end{minipage}}&\framebox{\begin{minipage}[t]{0.45\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{SeedEntryID:760038}\\\node{erg8}{\abs}&┌\textbf{{N1}}:\izj{主体}が\\\node{obj8}{\obj}&├\textbf{{N2}}:\izj{人動物}を\\\node{de9}{\ix}&{├}\textbf{{N12}}:\izj{争い}で\\&└\textbf{Vt}:傷付ける\\[-1ex]\node{Eerg8}{\abs}&{┌}\ul{\textbf{N1}}\gm{subject}\\&├\textbf{Vt}\ul{\eng{injure}}\\\node{Eobj8}{\obj}&{├}\ul{\textbf{N2}}\gm{directobject}\\\node{Ede9}{\ix}&{└}\textbf{PP}\ul{\eng{in}\textbf{N12}}\\\end{tabular}\end{minipage}}\\\end{tabular}\caption{自動詞側作成例\iz{[passive]}[NewEntry]傷付く\protect\eng{\sbjbeinjuredin\ix}\lto[SeedEntry]傷付ける\protect\eng{\absinjure\objin\ix}}\label{fig:kizutuku-kizutukeru}\anodecurve[l][0]{de9}[r][0]{de8}{12mm}\anodecurve[l][0]{obj8}[r][0]{sbj8}{15mm}\anodecurve[l][0]{Ede9}[r][0]{Ede8}{10mm}\anodecurve[l][0]{Eobj8}[r][0]{Esbj8}{12mm}\end{center}\begin{center}\begin{tabular}{ll}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{SeedEntryID:504952}\\\\\sbj&┌\textbf{{N1}}:\izj{食料水}\node{sbj9}{が}\\&└\textbf{Vi}:腐る\\\\[-1ex]\sbj&{┌}\ul{\textbf{N1}}\gm{subject}\node{Esbj9}{}\\&└\textbf{Vi}\node{surp1}{\ul{\eng{spoil}}}\\\end{tabular}\end{minipage}}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{NewEntryID:750039}\\\node{erg9}{\abs}&┌\textbf{{N1}}:\izj{主体}が\\\node{obj9}{\obj}&├\textbf{{N2}}:\izj{食料水}を\\&└\textbf{Vt}:腐らす\\[-1ex]\node{Eerg9}{\abs}&{┌}\ul{\textbf{N1}}\gm{subject}\\&├\textbf{Vt}\ul{\eng{spoil}}\\\node{Eobj9}{\obj}&{└}\ul{\textbf{N2}}\gm{directobject}\\\end{tabular}\end{minipage}}\end{tabular}\caption{他動詞側作成例\iz{[\typeSO]}[SeedEntry]腐る\protect\eng{\sbjspoil}\rto[NewEntry]腐らす\protect\eng{\absspoil\obj}}\label{fig:kusaru-kusarasu}\anodecurve[r][0]{sbj9}[l][0]{obj9}{15mm}\anodecurve[r][0]{Esbj9}[l][0]{Eobj9}{12mm}\vspace{5mm}\begin{tabular}{ll}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{SeedEntryID:202204}\\\sbj&┌\textbf{{N1}}:\izj{主体動物}が\node{sbj2}{}\\&{├}\textbf{{N3}}:\izj{*}\ul{に}\node{ni}{}\\&└\textbf{Vi}:驚く\\[-1ex]\sbj&{┌}\ul{\textbf{N1}}\gm{subject}\node{Esbj2}{}\\&├\textbf{Cop}\eng{be}\\&|\textbf{Particle}\node{surp1}{\ul{\eng{surprised}}}\\&{└}\textbf{PP}\eng{at/\ul{by}\textbf{N3}}\node{Eni}{}\\\end{tabular}\end{minipage}}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{NewEntryID:760038}\\\node{erg2}{\abs}&┌\textbf{{N1}}:\izj{*}が\\\node{obj2}{\obj}&├\textbf{{N2}}:\izj{主体動物}を\\&└\textbf{Vt}:驚かす\\[-1ex]\node{Eerg2}{\abs}&{┌}\ul{\textbf{N1}}\gm{subject}\\&├\textbf{Vt}\ul{\eng{surprise}}\\\node{Eobj2}{\obj}&{└}\ul{\textbf{N2}}\gm{directobject}\\\\\end{tabular}\end{minipage}}\\\end{tabular}\caption{他動詞側作成例2\iz{[synthetic]}[SeedEntry]驚く\protect\eng{\sbjbesurprisedat/by\ix}\rto[NewEntry]驚かす\protect\eng{\abs(=\ix)surprise\obj}:自動詞の「ニ格」を他動詞の\objの選択制限にする}\label{fig:odoroku-odorokasu}\end{center}\anodecurve[r][0]{ni}[l][0]{erg2}{12mm}\anodecurve[r][0]{sbj2}[l][0]{obj2}{15mm}\anodecurve[r][0]{Eni}[l][0]{Eerg2}{10mm}\anodecurve[r][0]{Esbj2}[l][0]{Eobj2}{12mm}\end{figure*}\paragraph{他動詞側作成方法}\label{sec:jap-trn}自動詞側エントリから他動詞側エントリを作成する方法を述べる。自動詞の\sbjの選択制限を\objの選択制限として複製し、格助詞を「ガ格」から「ヲ格」に変更する。それから、\absとしてデフォルトの「\izj{主体}が」を加える。これは、\ref{sec:AOS-compare}章の調査で、「\izj{主体}が」が\abs{}として、最も出現頻度が高かったためである。図\ref{fig:kusaru-kusarasu}に作成例を示す。\mpt{前提は?対象とする結合価情報で必須な物は?TT}ここまでは、日本語の格助詞と選択制限の情報のみを利用して新エントリを作成しているが、既存の結合価辞書が英語の結合価情報も持っている場合には、格役割N$_i$が新エントリ側の他の格役割に対応するかどうかの判断に、英語の結合価情報も利用できる。例えば、自動詞「N1\izj{主体動物}が\ul{N3\izj{*}に}驚く」\eng{N1besurprisedat/\ul{byN3}}からは、「\ul{N1\izj{*}が}N2\izj{主体動物}を驚かす」という他動詞が作成でき、自動詞の「ニ格」と他動詞の「ガ格」が交替する(図\ref{fig:odoroku-odorokasu})。よって、自動詞側の格助詞が「ニ格」に対応する英語の前置詞が\eng{by}の場合、自動詞側の「ニ格」の選択制限を\abs{}の選択制限として複製し、「ガ格」とすることができる。この場合は、他動詞側で不足する必須格がなくなるため、デフォルトの必須格を追加する必要はない。\subsection{英語側:結合価エントリ作成方法}\label{sec:create_eng}{\begin{figure}[hb]\begin{minipage}[t]{1.0\textwidth}\border\\\textbf{自動詞側作成方法:}\begin{itemize}\item元の項構造が制御動詞(\eng{make,have,get,cause})を取る場合\footnote{例外として、主辞が制御動詞でない\eng{have}の場合、自動詞側は\eng{Thereis}構文にする。例えば、「及ぼす」\eng{\abshave\objonX}\rto「及ぶ」\eng{Therebe\sbjonX}。}\begin{itemize}\item\absVc\objVi/Adj\rto\sbjVi/beAdj\iz{[synthetic]}\coml{\eng{\absmake\objcry\rto\sbjcry}}\end{itemize}\item制御動詞を取らない場合(元の主辞がVt)\begin{itemize}\item他動詞の主辞が\soaltを起こす場合\begin{itemize}\item\absVt\obj\rto\sbjVi\iz{[\typeSO]}\coml{\eng{\absturn\obj\rto\sbjturn}}\end{itemize}\item起こさない場合\begin{itemize}\item\absVt\obj\rto\sbjbeVt-ed\iz{[passive]}\comll{(\eng{\absinjure\objin\ix}}\comrr{\rto\sbjbeinjuredin\ix)}(図~\ref{fig:kizutuku-kizutukeru}参照)\end{itemize}\end{itemize}\end{itemize}\normalsize\textbf{他動詞側作成方法:}\begin{itemize}\item元の項構造がbe+形容詞の場合\begin{itemize}\item\sbjbeAdj\rto\absVc\objAdj\iz{[synthetic]}\comll{(\eng{\sbjbesurprisedat/by\ix}}\\\comrr{\rto\eng{\abs(=\ix)make\objsurprised)}}(図~\ref{fig:odoroku-odorokasu}参照)\end{itemize}\item元の項構造が他動詞の受身形の場合\begin{itemize}\item\sbjbeVt-ed\rto\absVt\obj\iz{[passive]}\comll{(\eng{\sbjbedefeatedby\ix}}\\\comrr{\rto\eng{\abs(=\ix)defeat\obj)}}\end{itemize}\item元の項構造の主辞が自動詞の場合\begin{itemize}\item自動詞の主辞が\soaltを起こす場合\begin{itemize}\item\sbjVi\rto\absVt\obj\iz{[\typeSO]}\coml{\eng{\sbjspoil\rto\absspoil\obj}}\end{itemize}\item起こさない場合\begin{itemize}\item\sbjVi\rto\absVc\footnote{但し、制御動詞Vcとして\eng{make}を利用}\objVi\iz{[synthetic]}\coml{\eng{\sbjrot\rto\absmake\objrot}}(図~\ref{fig:kusaru-kusarasu}参照)\end{itemize}\end{itemize}\end{itemize}\end{minipage}\border\caption{英語側作成方法}\label{fig:mk-eng}\end{figure}}英語側の結合価エントリの作成方法も、基本的には\ref{sec:basic-method}章で述べた方法と同じである。但し、\altjeの結合価辞書には、英語側には選択制限の情報は付与されていない\footnote{但し、格役割が日本語側と対応するので、格役割をキーとして日本語側に付与されている選択制限を参照できる。}。そのため、英語側の結合価エントリの作成は、主辞にあわせた項構造の変更が中心である。ここで、\ref{sec:alternations}章の調査結果から、英語側は\typeSO{},\iz{passive},\iz{synthetic}の3タイプで作成できるため、作成対象の英訳がどのタイプに分類されるかの判断が重要である。この判断は、図\ref{fig:mk-eng}に示す場合わけにより行なっている。また、図\ref{fig:mk-eng}の場合わけで、英語の主辞が\soaltを起こすかどうかの判断にはLCSデータベース(EVCA+)\citep[\url{http://www.umiacs.umd.edu/~bonnie/LCS_Database_Documentation.html}]{Dorr:1997}を利用した。EVCA+とは、\cite{Levin:1993}によって行なわれた英語の動詞分類(EVCA)を元に拡張されたもので、4,432動詞が492クラスに分類されている。EVCA+から、\soalt{}を起こす動詞として、\eng{dissolve,spoil}など659動詞を抽出し\footnote{\soalt{}を起こす動詞としては、SuffocateVerbs(40.7.ii),VerbsofLightEmission(43.1.c),VerbsofSoundEmission(43.2.d),VerbsofSubstanceEmission(43.4.e),BreakVerbs(45.1.a,45.1.b,45.1.c),BendVerbs(45.2.a,45.2.b,45.2.c),OtherChangeofStateVerbs(45.4.a,45.4.b,45.4.c),VerbsofEntity-SpecificChangeofState(45.5),RollVerbs(51.3.1.a.i),RunVerbs(51.3.2.b.i)のクラスに分類されている動詞を用いた。}、作成対象の英語の主辞がこれらの動詞に含まれるならば\soaltを起こすとし、含まれないならば\soaltを起こさないとした。例えば、自動詞作成例の図\ref{fig:kizutuku-kizutukeru}では、元の項構造が制御動詞を取らず、かつ、主辞である\eng{injure}がEVCA+から抽出した\soalt{}を起こす動詞に含まれていないので、図\ref{fig:mk-eng}の場合わけに基づき、\iz{[passive]}タイプと判断する。\clearpage \section{交替情報に基づく結合価エントリの獲得実験と評価} \label{sec:eva}\subsection{対象}\label{sec:experiment_target}\mpt{Opentextかどうか?NH}本実験では、\soalt{}のみを対象とする。従って、実験対象となる動詞は、他動詞側の結合価エントリがない自動詞、あるいは、自動詞側の結合価エントリがない他動詞である。\soaltを起こす動詞の組み合わせは交替動詞リストから抽出する。実験対象のエントリは、\ref{sec:AOS-compare}章の調査で用いたエントリとは別である。一般に、語は複数の語義を持ち、同じ語であっても、語義によって交替を許す場合と許さない場合がある。つまり、同じ語でも、語義によっては交替しないエントリもある。そこで、種として不適切なエントリを少しでも取り除くため、本実験では、自動詞側の見出し語としてリストに登録されているにも関わらず「ヲ格」を持つエントリと、「象は鼻が長い」のような「ハ格」と「ガ格」を両方含むエントリは対象外とする。これにより4エントリが対象外となった。本実験の対象エントリは、他動詞の81エントリ(25見出し語)と、自動詞の115エントリ(37見出し語)、合計196エントリ(62見出し語)となった\footnote{\altjeの結合価辞書の構築の初期段階において、和語動詞は集中的に登録されたため、和語動詞の未登録語は非常に少ない。よって、一般的な辞書であれば、より多くのエントリが対象となると思われる。}。これは、交替動詞リストの78組合せを占める。本実験では、他動詞のエントリから自動詞のエントリを、自動詞のエントリから他動詞のエントリを作成した。\subsection{翻訳による評価}\label{sec:eva-trans}本章では、\ref{sec:create-method}章で述べた方法で作成した結合価エントリを翻訳によって評価した。新規に作成したエントリの動詞を対象に、新聞データとWebページから1動詞につき2文を抽出し、評価対象文とした。評価対象文は、自動詞作成側50文、他動詞作成側74文、合計124文である。翻訳は、日英機械翻訳システム\altjeで行なった。作成したエントリを含む結合価辞書を利用した場合の翻訳結果(有)と、作成したエントリを含まない結合価辞書を利用した場合の翻訳結果(無)を比較し、(有)と(無)が全く同じ翻訳結果になった場合は「変化なし」に分類した。それ以外の場合は、両言語に堪能な評価者によりどちらの翻訳結果がより良いかの評価を行なっている。但し、英訳のどちらが(有)か(無)か、評価者にはわからないようランダムに表示し、\iz{A}、\iz{B}のラベルを張っている。評価者は、翻訳結果を(i)\iz{A}が\iz{B}より良い、(ii)\iz{A}と\iz{B}の翻訳品質は同等、(iii)\iz{A}が\iz{B}より悪い、の3段階に評価した。(\ref{s:70002})に評価例を示す。\begin{exe}\ex\label{s:70002}塩田喜代子さんは、毛布にくるまりながら。\trans(\iz{A})\texttt{Ms.\KiyokoShiodaiswrapped\ul{upto}ablanket.}\trans(\iz{B})\texttt{Ms.\KiyokoShiodaiswrapped\ul{in}ablanket.}\end{exe}(\ref{s:70002})では、評価は(iii)の「\iz{A}が\iz{B}より悪い」になる。実際には、(\ref{s:70002})の\iz{A}は(無)、\iz{B}は(有)なので、(有)の翻訳結果は(無)より良くなっている。表\ref{tb:eva-trans}は評価結果である。表\ref{tb:eva-trans}から、評価で最も割合が高いのは「(有)が(無)より良くなった」の46.0\%である。それに対し「(有)が(無)より悪くなった」は14.5\%であり、「良くなった」から「悪くなった」を引くと31.5\%の改善となる。すなわち、本提案手法によって作成した結合価エントリは、人手による修正を全く行なわなくとも、機械翻訳システムにとって非常に有効である。\begin{table*}[htbp]\begin{center}\begin{tabular}{l|rr|rr|rr}&\multicolumn{2}{|c|}{自動詞作成側}&\multicolumn{2}{|c|}{他動詞作成側}&\multicolumn{2}{|c}{合計}\\&No.&\%&No.&\%&No.&\%\\\hline(有)が(無)より良くなった&19&38.0&38&51.4&57&46.0\\同等&5&10.0&12&16.2&17&13.7\\変化なし&18&36.0&14&18.9&32&25.8\\(有)が(無)より悪くなった&8&16.0&10&13.5&18&14.5\\\hline差分(良$-$悪)&&+22.0&&+37.9&&+31.5\\\hline合計&50&100.0&74&100.0&124&100.0\\\end{tabular}\caption{翻訳による評価}\label{tb:eva-trans}\end{center}\end{table*}\subsection{問題事例の分析}\label{sec:eva-lex}本節では、(有)が(無)より悪くなった場合の原因を分析する。原因は大きく分類し、日本語作成側の問題と、英語作成側の問題に分類できる。日本語作成側の問題では、\mpt{1.全ての語義が交替するわけではない}全ての語義が交替するわけではないという問題があげられる。例えば、「溶ける」は次の二つの語義、(1)溶解する。固形物が液体になる。(2)液体に他の物がまざって均一な液体になる。を持つ(広辞苑第四版CD-ROM版\citep{koujien}より)。ここで、(2)の語義では、「溶ける」\tot{}「溶く」の間で、「砂糖が\ul{溶ける}」\tot{}「私が砂糖を\ul{溶く}」のように\soalt{}を起こす。しかし、(1)の語義では、「雪が\ul{溶ける}」\tot{}「*私が雪を\ul{溶く}」のように他動詞側は非文となり、交替しない。また、「雨が\ul{降る}」から「雨を\ul{降らす}」を作成する場合、\abs{}としては、デフォルトとして用いた「\izj{主体}が」より、「\izj{空雲}が」の方が適切である。詳しい議論は、\ref{sec:eva-f}章で行なう。\mpt{交替する語義か交替しない語義かのふるい分けをどうすべきか?}\mpt{英語の主辞が異なる}英語作成側の問題では、交替で作成した英訳より、異なる英語主辞が適切な場合があるという問題がある。これには、元々同じ英語主辞では翻訳できない場合と、同じ英語主辞でも翻訳はできるが、より適切な英訳が存在する場合とがある。英訳の改良に関しては、\ref{sec:eng-alter-disccussion}章で詳しく議論する。 \section{議論と今後の課題} label{sec:discuss}本稿では、\soalt{}の特徴を量的に調査し、その結果に基づき、交替を利用して詳細な結合価エントリを作成する手法を提案した。\ref{sec:eva}章までの結果から、本提案手法は有効であることがわかった。さらに、2言語同時に結合価エントリを獲得した場合、翻訳に対して有効であることがわかった。本章では、本提案手法の改良方法と展開方法等について議論し、今後の課題について述べる。\subsection{不適切な候補の削除}\label{sec:eva-f}本手法の精度をあげるためには、語義単位で交替が行なえるかどうか、また、特にデフォルトとして利用した選択制限が各エントリで適切かどうか、の判断を自動的に行なう必要がある。このためには、まずフィルターとしてコーパスを利用する方法が考えられる。この場合、もし、そのエントリに対応する文がコーパス中になければ、そのエントリを取り除く。あるいは、頻出する意味カテゴリを用いて選択制限を修正する。この手法には、我々が対象とした和語動詞は出現頻度が低いものが多いため、正しいエントリでも必ずしもコーパス中に出現するとは限らないという問題点がある。本稿で実験対象とした和語動詞の出現頻度は、新聞16年分で平均173回だけである。また、22動詞は日本語が母国語の人にとっては馴染みのある語であるにもかかわらず、新聞16年分で一度も出現していない。これらの動詞には、「吹き飛ぶ」「貼り付く」など複合動詞が多く含まれている。もちろん、Webを利用できればこの問題に対応できる。例えば、検索エンジンgoogle\footnote{http://www.google.co.jp/}で検索したところ、「吹き飛ぶ」は26,800件、「貼り付く」は3,800件検索された\footnote{検索日は2004/9/14。4,285,199,774のウェブページから検索した。}。これらを利用できれば十分なデータが得られると思われる。\mpt{吹き飛ぶ10,600(gooq)23,800(google),貼り付く1,460(goo)3,420(google)}\mpt{22動詞の親密度チェック}もう一つの対策としては、既存の交替ペアを正例とし、訓練データとして学習することも考えられる。\subsection{英訳の分類と改良方法}\label{sec:eng-alter-disccussion}本章では、表\ref{tb:alternation-type}と同様に、自動作成した英訳(以下、「作成後」という)の分類を行なった。分類結果を表\ref{tb:alternation-type-compare}に示す。表\ref{tb:alternation-type-compare}には、更に比較対象として、表\ref{tb:alternation-type}で示した分類結果を再掲する。{\setlength{\tabcolsep}{4pt}\begin{table*}[htb]\begin{tabular}{lll|rr|rr|rr}&\multicolumn{2}{c|}{英語構造}&\multicolumn{2}{c|}{参考データ(表\ref{tb:alternation-type})}&\multicolumn{2}{c|}{\jita{自動詞作成側}}&\multicolumn{2}{c}{\jita{他動詞作成側}}\\タイプ&\jita{自動詞}&\jita{他動詞}&数&(\%)&数&(\%)&数&(\%)\\\hline\hline\typeSO{}&\eng{\sbjVi}&\eng{\absVt\obj}&138&30.0&9&11.1&24&21.7\\\iz{passive}&\eng{\sbjbeVt-ed}&\eng{\absVt\obj}&91&19.8&71&87.7&14&12.2\\\iz{synthetic}&\eng{\sbjVi/beAdj}&\eng{\absVc\objVi/Adj}&30&6.5&0&0&76&66.1\\\hline\multicolumn{3}{l|}{主辞が異なる}&191&41.5&0&0.0&0&0.0\\\hline\multicolumn{3}{l|}{構造が異なる}&10&2.2&1&1.2&0&0.0\\\hline\hline合計&&&460&100&81&100&115&100\\\end{tabular}\caption{作成後/修正後の英語側結合価エントリと参考データの英語構造の比較}\label{tb:alternation-type-compare}\end{table*}}まず、表\ref{tb:alternation-type-compare}から、\iz{synthetic}タイプは、他動詞から自動詞を作成する場合では皆無だが、自動詞から他動詞を作成する場合では非常に多いことがわかる。他動詞から自動詞を作成する場合、作成元の他動詞エントリでは制御動詞は全く使われていなかった。一般に、辞書編集者がエントリを作成する場合、合成的なエントリよりも簡単なエントリを作成する傾向がある。交替動詞リストは言語学者と辞書から作成したデータだが、そのデータでは\iz{synthetic}タイプは約6.5\%であり、皆無ではないが多くもない。一方、自動作成では、\iz{synthetic}タイプは76エントリ(66.1\%)を占め、他のどのタイプよりも多い。この内、約36\%程度は修正が必要だと思われる。例えば、作成元の自動詞側の英訳が\eng{N1beexhausted}で、既存の辞書では\eng{exhausted}が形容詞として定義されている場合、作成する英訳は\eng{N1makeN2exhausted$_{\textnormal{adj}}$}となる。しかし実際は、他動詞の\eng{exhaust}があるので、\eng{N1exhaustN2}の方が好ましい。このため、本稿で述べた手法に、形容詞と過去分詞が同じ形なら、形容詞を動詞に変換して利用できないかを調べるアルゴリズムを追加することが考えられる。最後に、日本語の他動詞と自動詞が交替するが、英語側では異なる主辞を必要とする場合について考察する。表\ref{tb:alternation-type-compare}の参考データでは、交替の41.5\%で異なる英語主辞が用いられているが、本提案手法では、異なる英語主辞は利用できない。しかし、作成したエントリの14\%程度は異なる英語主辞を用いた方が適切だと考えられる。これには例えば、「\sbjが亡くなる」\eng{\sbjpassaway}\tot「\absが\objを亡くす」\eng{\abslose\obj}(\eng{Myfriendpassedaway}\tot\eng{Ilostmyfriend})があげられる。他動詞としての\eng{passaway}も、自動詞としての\eng{lose}も存在するが、語義が異なり、「亡くす」「亡くなる」の訳としては不適切である。この問題には本提案手法では対応できない。信頼性の高い英語の統語データがあったとしても、他動詞としての\eng{passaway}や自動詞としての\eng{lose}を規則的に排除することは難しい。これを自動化するには、意味によって項構造をリンクしていて、かつ、日本語の動詞の意味にもリンクされているようなデータが必要である。これは、Papillonプロジェクト\footnote{\url{http://www.papillon-dictionary.org/}}で構築されているようなより大規模な多言語辞書を用いることで解決できると期待される。まとめると、英語側の作成精度をより高くするには、形容詞と過去分詞が同形でないかのチェック、語義による用法の異なり、特に交替についてのより詳しい英語側の情報が必要である。\subsection{語彙規則としての利用}\label{sec:lr}本稿では、辞書構築における交替の利用について詳細な調査を行なった。本稿で提案した手法は、語彙規則や翻訳規則としてシステムで直接利用できる。例えば、\citet{Shirai:Bond:Nozawa:Sasaki:Ueda:1999j}は、結合価辞書に登録されている結合価エントリと、各エントリを様々な形に展開する規則を用い、使役の受身や被害の受身の翻訳を行なっている。また、\citet{Trujillo:1995}は、語彙の翻訳に語彙規則を利用することを提案している。つまり、個々の言語に対して用意した語彙規則により、語彙の展開を行ない、更に、2言語間の語彙規則同士のリンクを作成して翻訳に利用する。本稿で提案した手法も、同様に語彙規則や翻訳規則として利用できる。しかし、同じ見出し語でもすべての語義で交替するわけではない(\ref{sec:eva-lex}章参照)。また、目的言語側も必ずしも同じ主辞を用いて規則的に翻訳できるわけではない(\ref{sec:alternations}、\ref{sec:eng-alter-disccussion}章参照)。そのため、本稿で述べてきたように、辞書のエントリとして作成・保存し、そのエントリを修正して利用する方が、より精度の高い処理が行なえる。更に、本手法による結合価エントリの獲得には、不要な揺れや矛盾を減らすことができるという利点がある。つまり、図\ref{fig:toku-tokeru}の\ix{}の選択制限(\izj{具体物}\tot\izj{無生物})に見られるような、不必要な選択制限の揺れや矛盾を減らし、その上で、必要な修正を加えることで、より一貫した辞書構築を行なうことができる(\ref{sec:AOS-compare}章参照)。また、辞書の形式にすることで、他のシステムにも適用しやすくなる。しかし一方、全ての交替のエントリを網羅的に結合価辞書に登録できているわけではないため、交替の片側の結合価エントリが辞書にない場合や、新しい見出し語の結合価エントリを追加した場合などには、語彙規則や翻訳規則で対応できるようにすることが必要である。\subsection{提案手法の展開}\mpt{作成した数が少なかった原因}本稿では和語動詞のみを対象として、結合価エントリを作成した。しかし、\altjeの結合価辞書は、構築の初期段階において、和語動詞を集中的に登録したため、未登録の和語動詞は非常に少なかった。しかし、この辞書に対しても、交替の片側にのみ対応するエントリが存在する79組の\soaltを起こす動詞組み合わせのうち、78組に対してエントリを獲得できた。そのため、\soaltの組合せに対するカバー率を、68.5\%から85.4\%(315+78/460)へと増やすことができた。他の多くの結合価辞書や新しい言語対の結合価辞書では、よりカバー率が低いことが予想されるため、より多くのエントリが対象となると思われる。また、交替の片側を人手で作成し、本手法により自動的に交替の残りのエントリを作成することも考えられる。\mpt{対象を増やすための手段}また、\soaltにはサ変動詞も多く含まれる。例えば「製品が\ul{完売した}」\tot{}「店が製品を\ul{完売した}」などである。\altjeの日本語辞書には自他動詞の品詞を付与されたサ変動詞が約2,400見出し語載っており、そのうち、約400見出し語の結合価エントリが結合価辞書に登録されている。但し、これらのサ変動詞に関する交替動詞リストはなく、人手で作成するとコストがかかる。しかし、サ変動詞は和語動詞と異なり、自動詞と他動詞で形態変化をしないので、\soalt{}を起こすかどうかを自動、あるいは、半自動的的に判断できると考えられる。まず、サ変動詞が自動詞と他動詞の両方の用法を持っているかどうかは、\altjeの日本語辞書や茶筌\cite{chasen:2.3.3j}等の品詞情報から判断できる。但し、自動詞と他動詞の両方の用法を持つサ変動詞であっても、\soalt{}以外の交替、例えば、「私が晩ご飯を\ul{料理した}」\tot「私が\ul{料理した}」を起こすものも多い(この交替を、\soalt{}に対して\saalt{}と呼ぶ)。そこで、これらのサ変動詞が\soalt{}を起こすかどうかの自動的な判断方法を以下に2つあげる。一つは、英訳を用いる方法である。まず、サ変動詞の英訳を日英の対訳辞書から取り出し、その英訳がEVCA+等のデータベースで\soalt{}を起こす動詞として分類されていれば(\ref{sec:create_eng}章参照)、日本語側のサ変動詞も\soalt{}を起こすと判断する方法である。もう一つの方法は、コーパスの解析結果を利用する方法である。この場合、\soalt{}と\saalt{}の両交替を起こすと仮定した場合の両タイプの結合価エントリを作成し、コーパスの解析に利用する。その結果、作成した結合価エントリのうち、より多く実際の解析に用いられた方の交替を起こすと判断する方法である。つまり、\soalt{}を起こすと仮定して作成した結合価エントリばかりが解析に利用されており、\saalt{}を起こすと仮定して作成した結合価エントリは全く利用されていないならば、そのサ変動詞は\soalt{}を起こすと判断できる。こうした判断方法を用いて、今後は、サ変動詞を中心に本手法を適用していきたい。なお、和語動詞に対しても、同じ語幹を持つ自動詞と他動詞に対して上記の判断方法を利用すれば、最終的に人手による確認が必要であるとしても、始めから人手で作成するより容易に交替動詞リストを作成できると思われる。\mpt{他の交替や和語動詞でも、自動的に交替動詞リストを拡張できないか?NH}また、本稿では、交替動詞リストとして\citet{Jacobsen:1981}と\citet{Bullock:1999}の\soalt{}を起こす動詞のリストを利用した。こうしたリストは\soalt{}に限らず、言語学者等によって他にも作成されている\citep{Oishi:Matsumoto:1997,Furumaki:Tanaka:2003,McCarthy:2000}。これらのリストを活用し、他の種類の交替に対しても本手法を展開してきたい。 \section{まとめ} \label{sec:conclusion}本稿では、まず、交替についての調査・分析を行なった。また、その調査結果に基づき、交替情報を利用して既存の結合価辞書に不足しているエントリを補い、交替関係を付与する方法を提案した。対象とした交替は、自動詞の主語が他動詞の目的語となる\soalt{}である。交替についての調査・分析では、日本語の\soaltについて選択制限の対応関係と、日本語が\soaltを起こす場合の英語の交替変化を分類した。この結果、日本語の\soaltでは、\sbjと\objの選択制限の一致率が高いことと、\absの主体性が高いことがわかった。また、日本語が\soaltを起こす場合、英語は56\%が規則的な交替変化を行ない、そのうち\soaltを起こす割合は30\%であることがわかった。結合価情報の獲得実験では、上述の交替についての分析結果を踏まえ、交替情報と既存の結合価辞書から、比較的単純な置き換えにより、新しい結合価情報を自動的に獲得する方法を提案し、実験を行なった。具体的には、既存の結合価辞書が交替の自動詞側のエントリのみを持つ場合、他動詞側のエントリを自動的に作成し、他動詞側のエントリのみを持つ場合、自動詞側のエントリを作成する実験を行なった。本実験では、日本語と英語の結合価エントリを同時に獲得した。これにより、和語動詞の\soaltを83\%からほぼ100\%カバーすることができた。また翻訳評価の結果、翻訳結果の32\%が改善できた。すなわち、本提案手法は人手による修正を行なわなくとも、翻訳に対して有効であることを示した。\subsection*{謝辞}日頃熱心にご討論いただいている、中岩浩巳グループリーダーを始めとするNTTコミュニケーション科学基礎研究所自然言語研究グループの皆様、および、奈良先端科学技術大学院大学松本研究室の皆様に感謝致します。また特に、本稿をまとめるにあたり多くのコメントをいただきました、田中貴秋氏、TimothyBaldwin氏、成山重子氏に感謝致します。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baldwin,Bond,\BBA\Hutchinson}{Baldwinet~al.}{1999}]{Baldwin:1999b}Baldwin,T.,Bond,F.,\BBA\Hutchinson,B.\BBOP1999\BBCP.\newblock\BBOQAValencyDictionaryArchitectureforMachineTranslation\BBCQ\\newblockIn{\BemEighthInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation:TMI-99},\BPGS\207--217\Chester,UK.\bibitem[\protect\BCAY{Bond,Baldwin,藤田}{Bond\Jetal}{2002}]{Bond:Baldwin:Fujita:2002j}Bond,F.,Baldwin,T.,藤田早苗\BBOP2002\BBCP.\newblock\BBOQDetectingAlternationInstancesinaValencyDictionary\BBCQ\\newblock\Jem{言語処理学会第8回年次大会},519--522.\bibitem[\protect\BCAY{Bond\BBA\Fujita}{Bond\BBA\Fujita}{2003}]{Bond:Fujita:2003}Bond,F.\BBACOMMA\\BBA\Fujita,S.\BBOP2003\BBCP.\newblock\BBOQEvaluationofaMethodofCreatingNewValencyEntries\BBCQ\\newblockIn{\Bem{MT}Summit{IX}},\BPGS\16--23\NewOrleans.\newblock(\url{http://www.amtaweb.org/summit/MTSummit/FinalPapers/80-Bond-final.pdf}).\bibitem[\protect\BCAY{Breen}{Breen}{1995}]{Breen:1995}Breen,J.~W.\BBOP1995\BBCP.\newblock\BBOQBuildinganelectronic{Japanese-English}dictionary\BBCQ\\newblockJapaneseStudiesAssociationofAustraliaConference(\url{http://www.csse.monash.edu.au/~jwb/jsaa_paper/hpaper.html}).\bibitem[\protect\BCAY{Breen}{Breen}{2004}]{Breen:2004}Breen,J.~W.\BBOP2004\BBCP.\newblock\BBOQ{JMDict}:a{Japanese}-MulitlingualDictionary\BBCQ\\newblockIn{\BemColing2004WorkshoponMultilingualLinguisticResources},\BPGS\71--78\Geneva.\bibitem[\protect\BCAY{Bullock}{Bullock}{1999}]{Bullock:1999}Bullock,B.\BBOP1999\BBCP.\newblock\BBOQAlternativesci.lang.japanFrequentlyAskedQuestions\BBCQ\\newblock\url{http://www.csse.monash.edu.au/~jwb/afaq/jitadoushi.html}.\bibitem[\protect\BCAY{Carroll,Minnen,\BBA\Briscoe}{Carrollet~al.}{1998}]{Carroll:Minnen:Briscoe:1998}Carroll,J.,Minnen,G.,\BBA\Briscoe,T.\BBOP1998\BBCP.\newblock\BBOQCansubcategorisationprobabilitieshelpastatisticalparser?\BBCQ\\newblockIn{\BemACL/SIGDAT-1998},\BPGS\118--126\Montreal.\bibitem[\protect\BCAY{Copestake,Flickinger,Pollard,\BBA\Sag}{Copestakeet~al.}{1999}]{Copestake:Flickinger:Pollard:Sag:1999}Copestake,A.,Flickinger,D.,Pollard,C.,\BBA\Sag,I.~A.\BBOP1999\BBCP.\newblock\BBOQMinimalRecursionSemantics:AnIntroduction\BBCQ\\newblock(manuscript\url{http://www-csli.stanford.edu/~aac/papers/newmrs.ps}).\bibitem[\protect\BCAY{Dixon}{Dixon}{1991}]{Dixon:1991}Dixon,R.M.~W.\BBOP1991\BBCP.\newblock{\BemANewApproachto{English}Grammar,onSemanticPrinciples}.\newblockOxfordUniversityPress,Oxford.\bibitem[\protect\BCAY{Dorr}{Dorr}{1997}]{Dorr:1997}Dorr,B.~J.\BBOP1997\BBCP.\newblock\BBOQLarge-ScaleDictionaryConstructionforForeignLanguageTutoringandInterlingualMachineTranslation\BBCQ\\newblock{\BemMachineTranslation},{\Bbf12}(4),271--322.\bibitem[\protect\BCAY{Fujita\BBA\Bond}{Fujita\BBA\Bond}{2002}]{Fujita:Bond:2002a}Fujita,S.\BBACOMMA\\BBA\Bond,F.\BBOP2002\BBCP.\newblock\BBOQExtendingtheCoverageofaValencyDictionary\BBCQ\\newblockIn{\BemCOLING-2002workshoponMachineTranslationinAsia},\BPGS\67--73\Taipei.\newblock(\url{http://acl.ldc.upenn.edu/coling2002/workshops/data/w07/w07-08.pdf}).\bibitem[\protect\BCAY{Furumaki\BBA\Tanaka}{Furumaki\BBA\Tanaka}{2003}]{Furumaki:Tanaka:2003}Furumaki,H.\BBACOMMA\\BBA\Tanaka,H.\BBOP2003\BBCP.\newblock\BBOQTheConsiderationof$<$N-suru$>$forConstructionoftheDynamicLexicon\BBCQ\\newblockIn{\Bem9thAnnualMeetingofTheAssociationforNaturalLanguageProcessing},\BPGS\298--301.\newblock(inJapanese).\bibitem[\protect\BCAY{Hong,Kim,Park,\BBA\Lee}{Honget~al.}{2004}]{Hong:Kim:Park:Lee:2004}Hong,M.,Kim,Y.-K.,Park,S.-K.,\BBA\Lee,Y.-J.\BBOP2004\BBCP.\newblock\BBOQSemi-AutomaticConstructionof{Korean}-{Chinese}VerbPatternsBasedonTranslaitonEquivalency\BBCQ\\newblockIn{\BemColing2004WorkshoponMultilingualLinguisticResources},\BPGS\87--92\Geneva.\bibitem[\protect\BCAY{Ikehara,Shirai,Yokoo,\BBA\Nakaiwa}{Ikeharaet~al.}{1991}]{Ikehara:1991}Ikehara,S.,Shirai,S.,Yokoo,A.,\BBA\Nakaiwa,H.\BBOP1991\BBCP.\newblock\BBOQTowardan{MT}SystemwithoutPre-Editing--EffectsofNewMethodsin{{\bfALT-J/E}}--\BBCQ\\newblockIn{\BemThirdMachineTranslationSummit:MTSummitIII},\BPGS\101--106\WashingtonDC.\newblock(\url{http://xxx.lanl.gov/abs/cmp-lg/9510008}).\bibitem[\protect\BCAY{Jacobsen}{Jacobsen}{1981}]{Jacobsen:1981}Jacobsen,W.\BBOP1981\BBCP.\newblock{\BemTransitivityintheJapaneseVerbalSystem}.\newblockPh.D.\thesis,UniversityofChicago.\newblock(ReproducedbytheIndianaUniversityLinguisticsClub,1982).\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2001}]{Kawahara:Kurohashi:2001}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2001\BBCP.\newblock\BBOQJapaneseCaseFrameConstructionbyCouplingtheVerbanditsClosestCaseComponent\BBCQ\\newblockIn{\BemProceedingsofFirstInternationalConferenceonHumanLanguageTechnologyResearch(HLT2001)},\BPGS\204--210\SanDiego.\bibitem[\protect\BCAY{Kilgarriff}{Kilgarriff}{1993}]{Kilgarriff:1993}Kilgarriff,A.\BBOP1993\BBCP.\newblock\BBOQInheritingVerbAlternations\BBCQ\\newblockIn{\BemSixthConferenceoftheEuropeanChapteroftheACL(EACL-1993)},\BPGS\213--221\Utrecht.\newblock(\url{http://acl.ldc.upenn.edu/E/E93/E93-1026.pdf}).\bibitem[\protect\BCAY{Korhonen}{Korhonen}{2002}]{Korhonen:2002}Korhonen,A.\BBOP2002\BBCP.\newblock\BBOQSemanticallyMotivatedSubcategorizationAcquisition\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponUnsupervisedLexicalAcquisition}\Philadelphia,USA.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{Levin:1993}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishVerbClassesandAlternations}.\newblockUniversityofChicagoPress,Chicago,London.\bibitem[\protect\BCAY{Li\BBA\Abe}{Li\BBA\Abe}{1998}]{Li:Abe:1998}Li,H.\BBACOMMA\\BBA\Abe,N.\BBOP1998\BBCP.\newblock\BBOQGeneralizingCaseFramesUsingaThesaurusandthe{MDL}principle\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf24}(2),217--244.\bibitem[\protect\BCAY{Manning}{Manning}{1993}]{Manning:1993}Manning,C.~D.\BBOP1993\BBCP.\newblock\BBOQAutomaticAcquisitionofalargesubcategorizationdictionaryfromcorpora\BBCQ\\newblockIn{\Bem31stAnnualMeetingoftheAssociationforComputationalLinguistics:ACL-93},\BPGS\235--242.\bibitem[\protect\BCAY{McCarthy}{McCarthy}{2000}]{McCarthy:2000}McCarthy,D.\BBOP2000\BBCP.\newblock\BBOQUsingSemanticPreferencestoIdentifyVerbalParticipationinRoleSwitchingAlternations\BBCQ\\newblockIn{\BemProceedingsofthefirstConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics.(NAACL)}\Seattle,WA.\bibitem[\protect\BCAY{Oishi\BBA\Matsumoto}{Oishi\BBA\Matsumoto}{1997}]{Oishi:Matsumoto:1997}Oishi,A.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1997\BBCP.\newblock\BBOQDetectingtheOrganizationofSemanticSubclassesof{Japanese}Verbs\BBCQ\\newblock{\BemInternationalJournalofCorpusLinguistics},{\Bbf2}(1),65--89.\bibitem[\protect\BCAY{Probst}{Probst}{2003}]{Probst:2003}Probst,K.\BBOP2003\BBCP.\newblock\BBOQUsing`smart'bilingualprojectiontofeature-tagamonolingualdictionary\BBCQ\\newblockIn{\BemProceedingsofCoNLL2003}.\bibitem[\protect\BCAY{Sasaki,Isozaki,Suzuki,Kokuryou,Hirao,Kazawa,\BBA\Maeda}{Sasakiet~al.}{2004}]{Sasaki:2004}Sasaki,Y.,Isozaki,H.,Suzuki,J.,Kokuryou,K.,Hirao,T.,Kazawa,H.,\BBA\Maeda,E.\BBOP2004\BBCP.\newblock\BBOQ{SAIQA-II:ATrainableJapaneseQASystemwithSVM}\BBCQ\\newblock{\BemIPSJ},{\Bbf45}(2),635--646.\newblock(inJapanese).\bibitem[\protect\BCAY{Takahashi,Iwakura,Iida,Fujita,\BBA\Inui}{Takahashiet~al.}{2001}]{Takahashi:01}Takahashi,T.,Iwakura,T.,Iida,R.,Fujita,A.,\BBA\Inui,K.\BBOP2001\BBCP.\newblock\BBOQ\textsc{Kura}:atransfer-basedlexico-structuralparaphrasingengine\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\37--46.\newblock\url{http://cl.aist-nara.ac.jp/kura/doc/}.\bibitem[\protect\BCAY{Trujillo}{Trujillo}{1995}]{Trujillo:1995}Trujillo,A.\BBOP1995\BBCP.\newblock\BBOQBi-LexicalRulesforMulti-LexemeTranslationinLexicalist{MT}\BBCQ\\newblockIn{\BemSixthInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation:TMI-95},\BPGS\48--66.\bibitem[\protect\BCAY{Uszkoreit}{Uszkoreit}{2002}]{Uszkoreit:2002}Uszkoreit,H.\BBOP2002\BBCP.\newblock\BBOQNewChancesforDeepLinguisticProcessing\BBCQ\\newblockIn{\Bem19thInternationalConferenceonComputationalLinguistics:COLING-2002},\BPGS\XIV--XXVII\Taipei.\bibitem[\protect\BCAY{Utsuro,Miyata,\BBA\Matsumoto}{Utsuroet~al.}{1997}]{Utsuro:1997}Utsuro,T.,Miyata,T.,\BBA\Matsumoto,Y.\BBOP1997\BBCP.\newblock\BBOQMaximumEntropyModelLearningofSubcategorizationPreference\BBCQ\\newblockIn{\BemProc.ofthe5thWorkshoponVeryLargeCorpora},\BPGS\246--260.\bibitem[\protect\BCAY{Yamura-Takei,Fujiwara,Yoshie,\BBA\Aizawa}{Yamura-Takeiet~al.}{2002}]{Yamura-Takei:Fujiwara:Yoshie:Aizawa:2002}Yamura-Takei,M.,Fujiwara,M.,Yoshie,M.,\BBA\Aizawa,T.\BBOP2002\BBCP.\newblock\BBOQAutomaticLinguisticAnalysisforLanguageTeachers:TheCaseofZeros\BBCQ\\newblockIn{\Bem19thInternationalConferenceonComputationalLinguistics:COLING-2002},\BPGS\1114--1120\Taipei.\bibitem[\protect\BCAY{池原,宮崎,白井,横尾,中岩,小倉,大山,林}{池原\Jetal}{1997}]{GoiTaikeij}池原悟,宮崎雅弘,白井{諭},横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{新村}{新村}{1996}]{koujien}新村出\JED\\BBOP1996\BBCP.\newblock\Jem{広辞苑第四版(CD-ROM)}.\newblock岩波書店.\bibitem[\protect\BCAY{野村}{野村}{2002}]{Nomura:2002j}野村直之\BBOP2002\BBCP.\newblock\Jem{機械翻訳用の認知科学的辞書と情報検索・要約技術に関する研究}.\newblockPh.D.\thesis,九州大学.\bibitem[\protect\BCAY{白井}{白井}{1999}]{Shirai:1999zj}白井諭\BBOP1999\BBCP.\newblock\JBOQ単文の結合価パターンの網羅的収集に向けて-日英機械翻訳の観点から-\JBCQ\\newblockIn{\BemNLPSymposium}.\newblock\url{www.kinet-tv.ne.jp/~sat/data/publications/1999/s29.html}.\bibitem[\protect\BCAY{白井,Bond,野沢,佐々木~富,上田洋美}{白井\Jetal}{1999}]{Shirai:Bond:Nozawa:Sasaki:Ueda:1999j}白井諭,Bond,F.,野沢弥生,佐々木~富子,上田洋美\BBOP1999\BBCP.\newblock\JBOQ入力文と結合価パターン対辞書の照合に関する一手法\JBCQ\\newblock\Jem{言語処理学会第5回年次大会},\BPGS\80--83.自然言語処理学会.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本\Jetal}{2003}]{chasen:2.3.3j}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸\BBOP2003\BBCP.\newblock\Jem{形態素解析システム「茶筌」version2.3.3使用説明書}.\newblock\url{http://chasen.naist.jp/hiki/ChaSen/}.\bibitem[\protect\BCAY{郡司}{郡司}{2002}]{Gunji:2002}郡司隆男\BBOP2002\BBCP.\newblock\Jem{単語と文の構造}.\newblock現代言語学入門.岩波書店.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{藤田早苗}{1997年大阪府立大学工学部航空宇宙工学科卒業。1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了。同年4月よりNTT日本電信電話株式会社コミュニケーション科学基礎研究勤務。以来、自然言語処理の研究に従事。また、2003年4月より奈良先端科学技術大学院大学情報科学研究科博士後期課程に社会人学生として在学中。ACL,言語処理学会各会員。{\ttemail:sanae@cslab.kecl.ntt.co.jp}}\bioauthor{FrancisBond(フランシスボンド)}{1988年B.A.(UniversityofQueensland)。1990年B.E.(Hons)(同大学)。1991年日本電信電話株式会社入社。以来、計算機言語学、自然言語処理、特に機械翻訳の研究に従事。1999年CSLI,Stanford大学客員研究員。2001年Ph.D.(UniversityofQueensland)。2005年3ヶ月間Oslo大学招聘研究員。現在、NTTコミュニケーション科学基礎研究所主任研究員。著書「TranslatingtheUntranslatable」CSLIPublicationsにて日英機械翻訳における数・冠詞の問題を扱う。ACL,ALS,言語処理学会各会員。{\ttemail:bond@cslab.kecl.ntt.co.jp}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V15N02-01
\section{序論} label{sec:hajime}自然言語処理においては,タグ付けや文書分類をはじめとするさまざまな分類タスクにおいて,分類器が出力するクラスに確信度すなわちクラス所属確率を付与することは有用である.例えば,自動分類システムがより大きなシステムの一部を構成し,自動分類結果が別のシステムに自動入力されるような場合に,クラス所属確率は重要な役割を果たす.この例として,ブログ記事に対してさまざまな観点から付けられたタグ(複数)をユーザに表示するシステムにおいて,タグを自動的に付与する際に,クラス所属確率が閾値より低いタグについては排除することが有効な場合がある~\cite{Ohkura06}.同様に,手書き文字認識システムによる分類結果が,言語モデルのようなドメイン知識を組み込んだシステムの入力である場合も,クラス所属確率が用いられている~\cite{Zadrozny02}.また,自動的にタグ付けされた事例のうち誤分類されたものを人手により訂正したい場合に,すべての事例をチェックするのは大きなコストがかかるが,クラス所属確率が低いものほど不正解である可能性が高いと仮定し,クラス所属確率が閾値を下回る事例のみを訂正することにすれば,効率的な作業が行える.さらに,自動分類結果が人間の意思決定を支援する場合においては,クラス所属確率は判断の根拠を与える.例えば,高橋らは,社会調査において自由回答で収集される職業データを該当する職業コードに自動分類し~\cite{Takahashi05a,Takahashi05c},上位5位までに予測されたクラスを候補として画面に提示するシステム(NANACOシステム)を開発した~\cite{Takahashi05b}.NANACOシステムは,我が国の主要な社会調査であるJGSS(JapaneseGeneralSocialSurveys;日本版総合的社会調査)\kern-0.5zw\footnote{\texttt{http://jgss.daishodai.ac.jp/}.JGSSプロジェクトは,シカゴ大学NORC(theNationalOpinionResearchCenter)におけるGSSプロジェクトの日本版であり,国際比較分析を可能にするために,日本の社会や態度,行動に関する調査項目を有する.}や,SSM調査(SocialStratificationandSocialMobilitySurvey;社会階層と社会移動調査)\kern-0.5zw\footnote{\texttt{http://www.sal.tohoku.ac.jp/coe/ssm/index.html}.1995年から10年ごとに実施されている「仕事と暮らしに関する」全国調査である.}などに利用されているが,システムを利用したコーダから,提示された各クラスについてどの程度確からしいかを示すクラス所属確率を付与してほしいという要望が出されている\footnote{NANACOシステムが適用されるたびに,コーダによるシステム評価を行っている.}.最後に,クラス所属確率はEMアルゴリズムにおいても有用である.例えば,語の曖昧性解消において,あるドメインで訓練された分類器を,別のドメインのコーパス用に調整するために用いられたEMアルゴリズムにおいて,クラス所属確率は精度の向上に役立つことが報告されている~\cite{Chan06}.事例$x$があるクラス$c$に所属するクラス所属確率$P$は,2値分類,多値分類のいずれにおいても$P(x\in{c}|x)$で表される\footnote{クラス所属確率$P$の別の定義として,$P(\overrightarrow{\rmX}_{i},X_{i}\in{C_{j}}|\overrightarrow{\rmV}_{j},T_{j},S,I)$で表される場合もある.ただし,$\overrightarrow{\rmX}_{i}$は事例$X_{i}$を記述する属性のベクトル,$C_{j}$はクラス$j$,$\overrightarrow{\rmV}_{j}$は確率密度関数を具体化するパラメータ集合,$T_{j}$は確率密度関数の数式,$S$は許容される確率密度関数$\overrightarrow{\rmV}_{j}$,$T$の空間,$I$は明確には表現されない暗黙の情報を表す~\cite{Cheeseman96}.}.このようなクラス所属確率の意味からは,1つの事例が複数のクラスに所属するマルチラベル分類の可能性があってもよく~\cite{erosheva05},またある事例の全クラスに対するクラス所属確率の推定値の総和が$1$である必要もない~\cite{Canters02}\footnote{さらに,Carreiras(2005)らにおいては,$n$個の分類器のバギングにより生成された分類器において,クラス所属確率の推定値として,それぞれのクラスごとに各分類器におけるクラス所属確率の推定値の平均をそのまま用いている~\cite{Carreiras05}.}.しかし,もし,シングルラベル分類で,全クラスに対するクラス所属確率の推定値を求めることができれば,その総和が$1$になるように正規化することが可能である.このようなクラス所属確率は「正規化されたクラス所属確率」とよばれ~\cite{Cheeseman96},事後確率と考えることができる.対象とする分類問題をシングルラベルとして扱う場合,本来は正規化されたクラス所属確率を用いる必要があると考えられる.しかし,本稿においては,事例が注目するクラスに所属するか否かという問題に対する関心により,それぞれのクラスを独立に扱うため,一部の実験を除き基本的には正規化されたクラス所属確率を用いない.実際には,今回の実験では,正規化を行わないクラス所属確率の推定値の総和の平均はほぼ1に等しく,また限定された実験の結果ではあるが\footnote{3.2.2節および4.2.2節において報告を行う.},本稿における提案手法に関しては,正規化を行わない場合は正規化された場合とほぼ同様かやや劣る結果であるため,本稿における結論は,正規化されたクラス所属確率を用いた場合には,さらなる説得性をもつと考えられる\footnote{この理由は,既存の方法に関しては,正規化を行う場合の方が正規化を行わない場合より結果が悪いためである.ただし,一般化するにはさらなる実験が必要である.}.クラス所属確率の推定は,分類器が出力するスコア(分類スコア)に基づいて行われる.非常に単純には,例えばナイーブベイズ分類器や決定木では分類スコアが$[0,1]$の値をとるために,分類スコアをそのまま用いることができる.また,サポートベクターマシン(SVM)のように分類スコアが$[0,1]$の値をとらない場合でも,最大値や最小値を利用して確率値に変換することは容易である\footnote{例えば分類スコアが$f$の場合,$(f-min)/(max-min)$~\cite{Mizil05}または$(f+max)/2*max$~\cite{Zadrozny02}により$[0,1]$の値に変換することが可能である.ここで,$max$,$min$はそれぞれ分類スコアの最大値,最小値を表す.}.しかし,このようにして得られた推定値は実際の値から乖離することが多い.この理由は,例えば,ナイーブベイズ分類器が出力する確率値は,0または1に近い極端な値をとることが多いために,この値をそのままクラス所属確率とすると不正確になるためである\footnote{Zadroznyらによれば,ナイーブベイズ分類器が出力する確率は,その大小関係を用いた事例のランキングをうまく行うことはできる.}~\cite{Zadrozny02}.また,決定木においては,少なくとも,ナイーブベイズ分類器の場合と同様の確率値の偏りおよび,リーフに関連する訓練事例数が少ない場合に分散が大きいという2つの問題\footnote{度数が少ないことによる信頼性の低さが原因である.}があるが,刈り込みによっても確率値の改善は期待できないため,クラス所属確率の推定値としては使えない~\cite{Zadrozny01b}.SVMにおいても,分類スコアとして用いられる分離平面からの距離が,事例がクラスに所属する程度に正確には比例しない~\cite{Zadrozny02}ために,単純な変換では正確な値を推定しにくい.したがって,クラス所属確率の正確な値を推定する方法についての研究が必要である.\begin{table}[b]\begin{center}\caption{ビニングによる方法において参照される正解率の例}\raisebox{1zw}[0pt][0pt]{(ナイーブベイズ分類器を利用しビンが3個の場合)}\par\label{bining1}\input{01table01.txt}\end{center}\end{table}これまでにいくつかの方法が提案されているが,代表的なものに,Plattの方法~\cite{Platt99}やZadroznyらにより提案された方法~\cite{Zadrozny01a,Zadrozny01b,Zadrozny02,Zadrozny05}がある.Plattの方法では,SVMにおける分離平面からの距離を分類スコアとし,この値をシグモイド関数を利用して$[0,1]$区間の値に変換してクラス所属確率値の推定値とする(図~\ref{Platt}における実線).例えば,訓練事例により図~\ref{Platt}の実線で表されるような変換式が得られている場合に,ある事例の分類スコアが1.5であれば,この事例のクラス所属確率は0.9であると計算される.しかし,Plattの方法では分類器やデータセットによってはうまく推定できない場合があるとして~\cite{Bennett00,Zadrozny01b},Zadroznyらは決定木やナイーブベイズ分類器に対していくつかの方法を提案した~\cite{Zadrozny01a,Zadrozny01b}.このうち,ナイーブベイズ分類器に適用した「ビニングによる方法」は注目に値する.ビニングによる方法は,訓練事例を分類スコアの順にソートして等サンプルごとに「ビン」にまとめ,各ビンごとに正解率を計算しておいたものをクラス所属確率として利用する(表~\ref{bining1}を参照のこと.表の上段の数値(斜体)は各ビンにおける分類スコアの範囲,下段の数値は各ビンの正解率を表す).すなわち,評価事例の分類スコアから該当するビンを参照し,そのビンの正解率を評価事例のクラス所属確率の推定値とする.例えば,訓練事例により表~\ref{bining1}が作成されている場合に,未知の事例の分類スコアが0.6であれば,この事例のクラス所属確率は0.46であると推定される.Zadroznyらは,ビニングによる方法には最適なビンの個数を決定するのが困難であるという問題があるとして,次にIsotonic回帰による方法を提案した~\cite{Zadrozny02}.Isotonic回帰による方法もビニングによる方法と同様に,訓練事例を分類スコアの順にソートすることが前提条件であるが,ビンとしてまとめずに事例ごとに確率(正解の場合1,不正解の場合0)を付ける点が異なる.確率値は初期値1または0で開始されるが,分類スコアと単調関係を保つようになるまで修正が繰り返され,最終的に定まった値を正解率とする(表~\ref{Isotonic1}を参照のこと.表の上段の数値(斜体)は各事例の分類スコア,下段の数値は各事例の正解率を表す).評価事例のクラス所属確率は,評価事例の分類スコアと等しい分類スコアをもつ事例の正解率を参照し,この値を推定値とする.例えば,訓練事例により表~\ref{Isotonic1}が作成されている場合に,未知の事例の分類スコアが0.8であれば,この事例のクラス所属確率は0.5であると推定される.\begin{table}[b]\begin{center}\caption{Isotonic回帰による方法において参照される正解率の例(SVMを利用し事例数が10の場合)}\label{Isotonic1}\input{01table02.txt}\end{center}\end{table}これまでに提案された方法\footnote{これらの方法についての詳しい解説はこの後2節で行う.}はいずれも2値分類を想定しているために,クラス所属確率の推定には推定したいクラスの分類スコアのみを用いる.したがって,文書分類でしばしば用いられる多値分類に対しても,分類スコアを単独に用いて推定する2値分類に分解する方法が検討された~\cite{Zadrozny02,Zadrozny05}.すなわち,多値分類をいったん2値分類の組に分解し,それぞれの組で2値分類として推定したクラス所属確率の値を最後に統合(調整)する.多値分類を2値分類に分解するには,all-pairs(one-versus-one)およびone-against-all(one-versus-rest)の2つの方法があるが,Zadroznyらは,分解する方法そのものに精度の違いがないことを実験により示した上で,実験においてはいずれの場合もone-against-allを用いた.各組の2値分類における推定値を統合する方法としては,one-against-allにより分解した各組(クラスの数と等しい)において推定した値の合計が1になるようにそれぞれの推定値を正規化する方法がよい結果を示したことを報告した\footnote{Zadroznyらが推定値を統合する方法として提案した他の方法については,2.3節で述べる.}~\cite{Zadrozny02}.また,Zadroznyらによる最新の統合方法はさらに単純で,one-against-allにより分解した2値分類の各組において推定したクラス所属確率をそのままそのクラスについての推定値とする\footnote{ただし,この推定は($\text{分類クラスの数}-{1}$)個に対して行い,残りの1クラスについては,これらの推定値を合計したものを1から引いた値を推定値とする.}~\cite{Zadrozny05}.多値分類についての推定方法についてはZadroznyらの研究以外になく,例えば,Caruanaらによるクラス所属確率の推定方法の比較~\cite{Mizil05}においても,2値分類を対象としており,多値分類に対しては,Zadroznyらの文献~\cite{Zadrozny02}の紹介にとどまっている.しかし,多値分類は2値分類の場合と異なり,予測されるクラスは分類スコアの絶対的な大きさではなく相対的な大きさにより決定されるために,クラス所属確率は推定したいクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられる.したがって,多値分類においては,推定したいクラス以外のクラスの分類スコアも用いることが有効であると思われる.本稿は,多値分類における任意のクラスについてのクラス所属確率を,複数の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いて,ロジスティック回帰により高精度に推定する方法を提案する.本稿ではまた,複数の分類スコアを用いてクラス所属確率を推定する別の方法として,「正解率表」(表~\ref{accuracy_table1}を参照のこと.表の最左列と最上段の数値(斜体)はそれぞれ第1位と第2位に予測されたクラスに対する分類スコアの範囲,それ以外の数値は、第1位のクラスについての正解率を表す.)を利用する方法も提案する.正解率表を利用する方法とは,各分類スコアのなす空間を等区間(例えば0.5)に区切って「セル」\footnote{正解率表は多次元を想定するために,ビンではなくセルの語を用いることにする.}を作成し,各セルについて正解率を計算した表を用意して参照する方法である.例えば,「正解率表」を利用する方法において,訓練事例により表~\ref{accuracy_table1}が作成されている場合,未知の事例において第1位に予測されたクラスの分類スコアが0.8,第2位に予測されたクラスの分類スコアが$-0.6$であれば,この事例の第1位のクラスに対するクラス所属確率は0.67であると推定される.しかし,もし第2位に予測されたクラスの分類スコアが$-0.2$または0.3であれば,第1位のクラスについてのクラス所属確率の推定値は,それぞれ0.53または0.38のようにより小さな値になる.このように,提案手法は既存の方法と異なり,推定したいクラス所属確率に関連すると思われる別のクラス(例えば第2位のクラス)の分類スコアを直接利用することで,より正確な推定を行うことが可能になる.\begin{table}[b]\begin{center}\hangcaption{複数の分類スコアを用いた正解率表の例(SVMを利用し,第1位と第2位のクラスの分類スコアを用いた場合)}\label{accuracy_table1}\input{01table03.txt}\end{center}\end{table}以下,次節で関連研究について述べた後,3節では,まず第1位に予測されたクラスのクラス所属確率を複数の分類スコアを用いて推定する方法を提案し,実験を行う.4節では3節で得られた結論を第2位以下の任意のクラスに対して拡張する方法を提案し,実験を行う.最後にまとめと今後の課題について述べる. \section{関連研究} label{sec:kanren}ここでは,本稿の基礎として,クラス所属確率を推定する代表的な方法であるPlattの方法および,Zadroznyらにより提案されたビニングによる方法とIsotonic回帰による方法について述べる.これらはいずれも2値分類を想定しているが,Isotonic回帰による方法においては,2値分類を多値分類に対応させる方法についても述べる.最後に,Plattの方法とIsotonic回帰による方法について,多種類の分類器とデータセットによる実験を行って比較したCaruanaらによる研究~\cite{Caruana04,Mizil05}について述べる.\subsection{Plattの方法}Platt~\cite{Platt99}は,分類器をSVMに限定し,分類スコアを事例に対してクラスが予測された際の分離平面からの距離$f$として,シグモイド関数$P(f)=1/\{1+\exp(Af+B)\}$により[0,1]区間に変換される値$P(f)$をクラス所属確率の推定値として用いることを提案した.ただし,パラメータ$A$および$B$は,あらかじめ最尤法により推定しておく必要がある.シグモイド関数による方法の利点は,分類スコアから直接,クラス所属確率の推定値を求めることができるため,パラメータ$A$および$B$が推定されていれば,手続きが容易であることである.Plattは,シグモイド関数の過学習を避けるために,out-of-sampleモデルを用いて,Reuters~\cite{Joachims98}を含む5種類のデータセットを用いて実験を行い,この方法の有効性を示した.データセットがAdultの場合における結果を図\ref{Platt}~\cite{Platt99}に示す.図~\ref{Platt}において,$X$軸は分類スコア,$Y$軸はクラス所属確率を表し,$+$印は分類スコアを0.1の区間に分けた場合に対応するクラス所属確率の実測値,実線は推定値を表す.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f1.eps}\caption{Plattの方法による推定値と実測値の例}\label{Platt}\end{center}\end{figure}しかし,Bennett~\cite{Bennett00}は,Plattの方法は分類器がナイーブベイズの場合にうまくいかないことをReuters21,578データセット\footnote{\texttt{http://www.daviddlewis.com/resources/testcollections/reuters21578/}}により示した\footnote{Bennett~\cite{Bennett00}の実験では,特に,出現頻度が少ないクラス(例えば$Corn$など)において信頼度曲線(3.2.1節を参照のこと)による評価が悪かった.}.また,Zadroznyら~\cite{Zadrozny02}も,この方法がデータセットによっては適合しない場合があることを示し\footnote{Zadroznyら~\cite{Zadrozny02}の実験では,AdultデータセットとTIC(TheInsuranceCompanyBenchmark)データセットにナイーブベイズ分類器を適用した場合は,スコアの変換がうまくいかなかった.},以下に述べる方法を提案した.\subsection{ビニングによる方法}Zadroznyらは,分類器としてナイーブベイズを想定し,ビニングによる方法(ヒストグラム法)を提案した~\cite{Zadrozny01a,Zadrozny01b}.ビニングによる方法は,未知の事例のクラス所属確率を直接推定せずに,あらかじめ作成しておいた「ビン」を参照し,そのビンにある正解率を用いて間接的に推定を行う方法である.ビニングによる方法における処理手順は次の通りである.まず,訓練事例を分類スコアの値順に並べ,各区間に属する事例数が等しくなるように区切ってビンを決める.このとき,各ビンに属する事例の分類スコアから,そのビンに所属する事例における分類スコアの最大値と最小値を調査しておく.ここまでの処理を図~\ref{bining}に示す.図~\ref{bining}はナイーブベイズ分類器の例で,数値(斜体)は分類スコアを表す.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f2.eps}\caption{ビンの作成例(訓練事例数が12でビンの数が3個の場合)}\label{bining}\end{center}\end{figure}次に,各ビンごとに正解の事例を数えてそのビンに属す全事例数で割り,正解率を計算する(表~\ref{bining1}を参照のこと).最後に,未知の事例の分類スコアから該当するビンを見つけ,そのビンの正解率を未知の事例のクラス所属確率値とする.実験はKDD'98データセット\footnote{\texttt{http://kdd.ics.uci.edu/}}を用いて行われ,平均二乗誤差や平均対数損失による評価の結果,有効性が示された(ビンの数が10個の場合).ビニングによる方法は処理が単純であるという利点があるが,最適なビンの個数をどのようにして決めればよいか(各ビンに含まれる事例数をいくつにするか)という問題がある.なお,Zadroznyらは,この後に,誤分類に対するコストを考慮した方法として,ビニングによる方法を改良した「Probing」という方法を提案したが,実験の結果,有効性を示さない場合も多かった\footnote{決定木,バギングされた決定木,SVM,ナイーブベイズ,ロジスティック回帰において,UCImachinelearningrepositoryやUCIKDDarchive,2004KDDにおける計15種類のデータセットを用いて実験し,二乗誤差,クロスエントロピー,AUC(AreaundertheROCcurve)によりを評価を行った.}~\cite{Zadrozny05}.\subsection{Isotonic回帰による方法}Zadroznyらは,ビニングによる方法の問題点を解決する方法として,次には,分類スコアと正解率が単調非減少な関係にあるという観察に基づくIsotonic回帰による方法\footnote{Chanらは,語の曖昧性解消タスクにおけるEMアルゴリズムで,Isotonic回帰による方法を用いてクラス所属確率の推定を行った~\cite{Chan06}.}を提案した~\cite{Zadrozny02}.ここで,Isotonic回帰問題とは,実数の有限集合$Y=\{y_{1},y_{2},\cdots,y_{n}\}$が与えられたとき,制約条件$x_{1}\le\cdots\lex_{n}$の下で目的関数$\sum_{i=1}^{n}w_i(x_i-y_i)^{2}$を最小化する2次計画問題である~\cite{Kearsley96}.ただし,$w_i$は正値重みを表す.Isotonic回帰問題の解法としては,PAV(pool-adjacentviolatorsまたはpair-adjacentviolators)アルゴリズム(以下では,PAVと略す)が最も代表的であり~\cite{Kearsley96,Ahuja01,Mizil05,Fawcett06},Zadroznyらが提案したIsotonic回帰による方法もPAVが適用されている.ここで,PAVとは,単調非減少ではないブロックがある場合に,そのブロック内に存在する値のすべてをブロック内の値の平均値で置き換える処理を繰り返すことにより,全体の単調非減少性を保つ方法である.例えば,前述の目的関数において重みがすべて1のとき,\{1,3,2,4,5,7,6,8\}において,まず\{3,2\}のブロックが単調非減少ではないために,ブロック内のすべての値を平均値2.5で置き換えて\{1,2.5,2.5,4,5,7,6,8\}に修正する.次に,\{7,6\}のブロックが単調非減少ではないために,同様に平均値6.5で置き換えて\{1,2.5,2.5,4,5,6.5,6.5,8\}に修正する方法である~\cite{Kearsley96}.PAVを用いたIsotonic回帰による方法も,ビニングによる方法と同様に,最初に訓練事例を分類スコア順にソートする必要があるが,事例をまとめて扱わずに,各事例に対して正解率(正例の場合は1,負例の場合は0となる)を付ける点が異なる(図~\ref{Isotonic}における開始時点の表を参照のこと).正解率が分類スコアと単調非減少な関係になるまで正解率の修正を繰り返し,最終的に定まった値を正解率とする(図~\ref{Isotonic}における終了時点の表を参照のこと).図~\ref{Isotonic}では1回修正された値が再度修正されることはなかったが,値の並び方によっては再修正される可能性が高く,一般的には何度も修正が繰り返される場合が多い~\cite{Kearsley96,Ahuja01,Mizil05,Fawcett06}.\begin{figure}[t]\begin{center}\includegraphics{15-2ia1f3.eps}\caption{Isotonic回帰による方法における正解率の修正例(SVMを利用し事例数が10の場合)}\label{Isotonic}\end{center}\end{figure}実験は,ナイーブベイズ分類器とSVMにおいてKDD'98データセットなどを用い,ビニングによる方法やシグモイド関数による方法と比較された(ビニングの数は5個から50個まで変えて行われた).平均二乗誤差による評価の結果,PAVによる方法はビニングによる方法を常に上回ったが,シグモイド関数による方法との差は少しであった.Zadroznyらは,次に,多値分類においては,分類器は各々の予測クラスに対して分類スコアを1つずつ出力すると仮定し,多値分類におけるPAVの効果を調査した.すなわち,2値分類においてPAVにより推定したクラス所属確率値を統合した場合と,PAVを用いずに推定した値を統合した場合との比較を行った~\cite{Zadrozny02}.Zadroznyらは,この実験の前に,あらかじめ,ナイーブベイズ分類器とブーステッドナイーブベイズにおいて20Newsgroupsデータセット\footnote{\texttt{http://people.csail.mit.edu/jrennie/20Newsgroups/}}などを用いた実験を行って,2値分類への分解法であるall-pairsとone-against-allの間で精度の差がないことを確認し,実験ではすべてone-against-allを用いた.2値分類における推定値を統合する方法としては,one-against-allに対応した正規化の方法の他に,どちらの分解方法にも対応可能な最小2乗法による方法や対数損失を最小化するカップリングの方法が用いられたが,正規化の方法が最もよい結果を示した.PAVの有効性については,まず,ナイーブベイズ分類器とブーステッドナイーブベイズによりデータセットPendigitを用いた実験の結果,分類器や統合する方法に関係なく,平均二乗誤差による評価では改善がみられたが,エラー率による評価ではほとんど改善されなかった.次に,ナイーブベイズ分類器によりデータセット20Newsgroupsを用いた実験結果も,多値分類への統合方法に関係なく,平均二乗誤差による評価では改善がみられたが,エラー率による評価ではほとんど改善されなかった.ここで,2値分類における推定値の3種類の統合方法を比較すると,ナイーブベイズ分類器による値をPAVにより修正した値を正規化する方法がよかったが(平均二乗誤差により評価した場合),他の分類器や評価法においては差がなかった.なお,Zadroznyらは,この後さらに提案したProbingとよばれるクラス所属確率の推定方法を多値分類へ拡張する場合には,ここで述べた統合方法を用いずに,one-against-allにより分解した各組において2値分類として推定した値をそのまま用いるという非常に単純な方法を示した~\cite{Zadrozny05}.ただし,この方法に対する評価実験は行っていない.\subsection{方法の比較}Caruanaら~\cite{Caruana04,Mizil05}は,アンサンブル学習を含めた10種類の分類器(SVM,ニューラルネット,決定木,k近傍法,baggedtrees,randomforests,boostedtrees,boostedstumps,ナイーブベイズ分類器,ロジスティック回帰)を,8種類のデータセット(UCIRepositoryから4種類,医療分野から2種類選んだデータセット,IndianPine92データセット~\cite{Gualtieri99},StanfordLinearAccelerator)に適用し,Plattの方法とIsotonic回帰による方法(PAV)の比較を行った.その結果,Plattの方法はデータが少ないとき(約1,000サンプル未満)に効果的であり,Isotonic回帰による方法は過学習しない程度に十分なデータがあるときによかった.Jonesら~\cite{Jones06}は,検索を成功させるために,ユーザが入力したクエリから新しくクエリを生成して置き換えるというタスクにおいて,置き換えられたクエリの正確さの程度を予測するために確信度スコアが必要であると考え,Isotonic回帰による方法(PAV)とシグモイド関数による方法についての簡単な比較実験を行った.その結果,Isotonic回帰による方法は過学習の問題があり,平均二乗誤差および対数損失のいずれにおいてもシグモイド関数による方法の方が上回ったため,彼らのタスクではシグモイド関数による方法が採用された. \section{第1位のクラスについてのクラス所属確率推定} 本稿においても,Zadroznyらと同様に,多値分類においては,分類器は各々の予測クラスに対して分類スコアを1つずつ出力すると仮定する.例えば,$k$値分類の場合は分類スコアを$k$個出力するものとする.このとき,第1位に予測されるクラスはすべての分類スコアの中で最大の分類スコアをもつクラスで,分類スコアの絶対的な大きさではなく分類スコア間の相対的な大きさにより決定される.したがって,例えば第1位の分類スコアが大きな値であっても,第2位の分類スコアも同じ程度に大きな値の場合には第1位のクラスが不正解であったり,逆に,第1位の分類スコアがたとえ小さな値であっても,第2位の分類スコアがさらに小さな値の場合には第1位のクラスが正解であるケースも観察される.以上より,多値分類において第1位のクラスのクラス所属確率は,第1位のクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられるために,正確な推定値を得るためには,第1位のクラス以外の分類スコアも考慮に入れた複数の分類スコアを用いる必要があると思われる.ここで,既存のビニングによる方法やIsotonic回帰による方法は,いずれも前提条件として,事例を分類スコアの順にソートする必要があるために,複数の分類スコアを用いることが困難である.したがって,複数の分類スコアを扱える方法を検討する必要がある.本稿は,パラメトリックな方法としてPlattの方法を,またノンパラメトリックな方法としてZadorznyらのビニングによる方法をそれぞれ参考にしながら,複数の分類スコアを有効に用いる方法を検討する.その際,対象とするクラスを,クラス所属確率の必要性が最も高い第1位に予測されたクラスと,それ以外のクラス(第2位以下に予測されたクラス)の2つの場合に分けて検討することにする.以下では,まず,本節において,第1位の予測クラスについてクラス所属確率の推定方法を検討し,有効な方法を提案する.次に,4節で,本節において提案された推定方法を第2位以下の任意のクラスに対して拡張する方法を提案する.\subsection{提案手法}\label{method}本稿では,第1位のクラス所属確率を複数の分類スコアを用いて推定することを提案する.クラス所属確率を推定する方法としては,ロジスティック回帰により直接推定する方法と,正解率表を利用して間接推定する方法の2つを提案する.\subsubsection{ロジスティック回帰による方法}第1位のクラスから第$r$位のクラスまで$r$個の分類スコアを用いる場合,ロジスティック回帰による方法は(1)式により直接,クラス所属確率を推定する.用いる分類スコアの数に制限はない.\begin{equation}P_{Log}(f_{1},\cdots,f_{r})=\frac{1}{1+\exp(\sum_{i=1}^rA_{i}f_{i}+B)},\end{equation}ここで,$f_{i}$は第$i$位の分類スコアを表す.このとき,パラメータ$A_{i}$($\foralli$)および$B$は訓練事例を用い,最尤法によりあらかじめ推定しておく必要がある.ロジスティック回帰による方法の手順を次に示す.\vspace{0.5\baselineskip}\begin{description}\item[STEP1]ロジスティック回帰式におけるパラメータの推定\item[STEP2]クラス所属確率の推定\end{description}\vspace{0.5\baselineskip}\noindent{\bfSTEP1}\par全訓練事例を,パラメータを推定するための訓練事例と評価事例に分割し,各評価事例についての分類スコアと正解の状態(正解か不正解か)のペアデータから,パラメータ$A_{i}$と$B$の最尤推定を行う.このとき,訓練事例と評価事例の分割は交差検定による.\vspace{1\baselineskip}\par\noindent{\bfSTEP2}未知の事例に対するクラス所属確率の推定は,未知の事例において用いるクラスの分類スコア$f_{i}$をロジスティック回帰式((1)式)に代入し,クラス所属確率を直接推定する.\subsubsection{正解率表を利用する方法}本稿においては,正解率表とは,各分類スコアを軸として等区間に区切ってセルを作成し,各セルについて正解率(=セル内の正解事例数/セル内の全事例数)を計算した表をいう(表3参照のこと).正解率表は用いる分類スコアの数により次元が決まる.すなわち,$k$個の分類スコアを用いる場合には$k$次元の正解率表になる.例えば,分類スコアを1つしか利用しない場合は等幅の区切りをもつ線分,2個利用する場合は同様の長方形,3個利用する場合は同様の直方体となる.正解率表を利用する方法の手順を次に示す.\\\begin{description}\item[STEP1]正解率表のためのセルの作成と正解率の計算\item[STEP2]正解率の平滑化\item[STEP3]クラス所属確率の推定\end{description}\vspace{1\baselineskip}\noindent{\bfSTEP1}まず,正解率表を作成するためには,事例ごとに分類スコアと正誤状況のペアデータが必要である.これは,ロジスティック回帰による方法と全く同様に,全訓練事例を交差検定により,正解率表作成のための訓練事例と評価事例に分割して学習を行って得ることができる.次に,用いる分類スコアを軸とし,各軸とも等間隔(例えば,SVMの場合には0.1など)に区切ってセルを作成し,各セルごとに該当する事例をまとめて正解率を計算する.例えば,第1位のクラスと第2位のクラスの分類スコアの2つを用いて区間幅0.1とする場合,縦横ともに0.1間隔で区切られたセルをもつ長方形の正解率表となるが,訓練事例中の各評価事例における2つのクラスの分類スコアから,どのセルに属するかが決まる.すべての訓練事例の所属先セルが決定された時点で,各セルごとに所属する事例数と正解の事例数により正解率が計算できる.提案手法は,ビニングによる方法やIsotonic回帰による方法のように,事例を分類スコア順にソートしておく必要がないために,利用する分類スコアの数(次元)が複数であっても正解率表の作成を行うことが可能である.ただし,実際には,正解率表の次元が上がるに連れてセル数の爆発が起こるというノンパラメトリックな方法に特有の問題があるために,分類スコアの数を無制限に大きくすることはできない.また,訓練事例数に比較してセル数が多すぎる場合や,区間幅の決め方(セルの作り方)によっては,セルに含まれる事例数がゼロになる(ゼロ頻度問題)可能性があり,正解率が計算できないという問題もある.さらに,セルに属する事例数が等しくない可能性があるために,正解率における信頼性に違いが生じるという問題もある.ゼロ頻度問題や信頼性の問題については,STEP2で対応する.\vspace{1\baselineskip}\par\noindent{\bfSTEP2}正解率表の精度を高めるために,STEP1で計算された正解率に対して平滑化を行う.まず,ゼロ頻度問題に対応する手法とし,ラプラス法やリッドストーン法がある~\cite{Kita99_j}.分類スコア$f$が与えられたとき,ラプラス法$P_{Lap}(f)$およびリッドストーン法$P_{Lid}(f)$により平滑化された正解率は,次式により計算される:\begin{equation}P_{LapLid}(f)=\frac{N_{p}(c(f))+\delta}{N(c(f))+2\delta}.\end{equation}ただし,$c(f)$は平滑化を行うセル,$N(c(f))$は平滑化を行うセル中の訓練事例の数,$N_{p}(c(f))$は平滑化を行うセル中の正しく分類された訓練事例の数を表す.また,$\delta$は擬似的に加える数\footnote{本稿では,$\delta$の最適な値を実験により決定する.}であり,$\delta=1$の場合がラプラス法である.ここで,正解率表におけるセルの位置と正解率の関係を観察すると,各セルとも正解率は周囲のセルの正解率と値が類似しており,各軸ごとに分類スコアの変化に伴う正解率の状況は,ほぼ単調な関係がみられる.例えば,第1位の分類スコアは正解率と正の相関があり,第2位の分類スコアでは正解率と負の相関が観察される.したがって,平滑化を行うセルに対して,そのセルの周囲に位置するセルの情報も用いることが有効であると考えられる.このような平滑化を可能にする手法としては,移動平均法やメディアン法~\cite{Agui91_j}がある.分類スコア$f$が与えられたとき,移動平均法$P_{MA}(f)$およびメディアン法$P_{Median}(f)$により平滑化された正解率は,次式により計算される:\begin{align}P_{\mathit{MA}}(f)&=\frac{\frac{N_p(c(f))}{N(c(f))}+\sum_{s\inNb(c(f))}\frac{N_p(s)}{N(s)}}{n},\\P_{\mathit{Median}}(f)&=\mathit{median}_{s\inNb(c(f))}\Bigg(\frac{N_p(c(f))}{N(c(f))},\frac{N_p(s)}{N(s)}\Biggr).\end{align}ただし,$Nb(c(f))$は平滑化を行うセル$c(f)$の周囲に位置するセル,$n$は$|Nb(c(f))|+1$を表す.さらに,セルごとに正解率の信頼性が異なる問題を解決する方法としては,各セルのカバレッジを重み付けとして調整する方法が考えられる.移動平均法にカバレッジによる重み付けを行う方法$P_{MA\_cov}$により平滑化された正解率は,次式により計算される:\begin{equation}P_{\mathit{MA}\_cov}(f)=\frac{\frac{N_p(c(f))}{N(c(f))}C(c(f))+\sum_{s\inNb(c(f))}\frac{N_p(s)}{N(s)}C(s)}{C(c(f))+\sum_{s\inNb(c(f))}C(s)}.\end{equation}ただし,$C(c(f))$は各セルのカバレッジで,セル$c(f)$における事例数をすべての事例数で割った数を表す.周囲の情報も利用した平滑化手法においては,どこまでの範囲を周囲とするかという問題があるが,今回は,最も単純に,平滑化を行うセルに隣接するセルまでとする.例えば,分類スコアを1つ利用する場合には平滑化を行うセルを含めて計3個,分類スコアを2個利用する場合には,平滑化を行うセルを中心に斜めに位置するセルも含め計9個のセルを用いる\footnote{ただし,端や端の列(行)に位置するセルで用いられるセルは,この数より少ない.}.\\\\{\bfSTEP3}未知の事例に対するクラス所属確率の推定は,未知の事例において用いる分類スコアにより正解率表の中から該当するセルを見つけ,そのセルの正解率を推定値とする.\subsection{実験}実験の目的は,多値分類における第1位のクラスのクラス所属確率について有効な推定方法を調査し,複数の分類スコアを用いることが有効であることを示すこと(実験1),および実験1で最も有効であった方法の性能を評価すること(実験2)である.\subsubsection{実験設定}\noindent{\bf分類器}分類器はSVMを用いたが,提案手法の汎用性を調査するため,一部の実験についてはナイーブベイズ分類器も用いた.SVMを選択した理由は,SVMは文書分類においてきわめて高い分類性能を示す分類器として認識され~\cite{Joachims98,Dumais_et_al98,Taira00,Sebastiani02},適用される場合が多いために,分類器を特定しても有用性が高いと思われたためである.ただし,SVMは本来は2値分類器であるために,one-versus-rest法~\cite{kressel99}により多値分類器に拡張した\footnote{\texttt{http://chasen.org/\textasciitildetaku/software/TinySVM/}}.高橋ら(2005a)およびTakahashietal.(2005)にしたがって,SVMにおけるカーネル関数は線形カーネルを用いた.\vspace{1\baselineskip}\par\noindent{\bfデータセット}データセットは,日本語の調査データであるJGSSデータセット\pagebreakおよびZadroznyらの実験~\cite{Zadrozny02}において用いられた英文のネットニュース記事であるUseNetnewsarticles(20Newsgroups)データセットの2つを用いた.JGSSデータセットは,2000年から2003年までの4年間に毎年実施された調査により収集されたデータのうちの職業データ(サンプル数23,838)で,自由回答である「仕事の内容」「従業先事業の種類」の他に,選択回答である「従業上の地位」「役職」「従業先事業の規模」など複数の回答群から構成されている.すべての職業データに195個ある職業コードのいずれか1つのコードが付与されており\footnote{過去のデータには人手による職業コーディングが行われて職業コードが付与されている.},本稿ではこの職業コードを正解とした.例えば,次のような職業データには正解として職業コード「563」が付与されている.\vspace{0.5\baselineskip}\par\begin{tabular}{lll}「仕事の内容」&:&配車等を手配(自由回答)\\「従業先事業の種類」&:&荷物をつみおろす業務他(自由回答)\\「従業上の地位」&:&2常時雇用の一般従事者(選択肢)\\「役職」&:&1役職なし(選択肢)\\「従業先事業の規模」&:&8500〜999人(選択肢)\end{tabular}\vspace{0.5\baselineskip}JGSSデータセットにおいては,先に開発した自動コーディングシステム~\cite{Takahashi05a}の設定を踏襲し,「仕事の内容」と「従業先事業の種類」に出現する単語unigramおよび「従業上の地位」と「役職」を表す選択肢を素性として用いた.訓練事例と評価事例の分割は,実際の職業コーディングの状況に似せて,すでに正解が付けられた過去のデータを訓練事例とし,これからコーディングを行う予定のデータを評価事例とした.今回は,訓練事例として2000年から2002年までの3年間分のデータ(20,066サンプル),評価事例として2003年のデータ(3,772サンプル)に分割した.さらに,訓練事例は正解率表を作成するため,5分割交差検定により訓練事例と評価事例に分割した.すなわち,正解率表を作成するために,データを変えて訓練事例16,053サンプル,評価事例4,013サンプルに分割し,計5回の学習を行った.20Newsgroupsデータセット(サンプル数18,828)は,さまざまなUseNetのディスカッショングループに対応する20個のカテゴリのいずれかに分類されており,本稿ではこれを正解とした.用いた素性は,ネットニュース記事に出現する単語unigramで,JGSSデータセットにおける自由回答の場合と同様である.20Newsgroupsデータセットでは,訓練事例と評価事例の分割は5分割交差検定により行った.すなわち,データを変えて,例えば,訓練事例15,063サンプル,評価事例3,765サンプルとし,計5回の学習を行った.正解率表の作成は,JGSSデータセットの場合と全く同様に,全訓練事例を5分割交差検定により,訓練事例(例えば12,053サンプル)と評価事例(例えば3,013サンプル)に分割し計5回の学習を行った.\clearpage\noindent{\bfセルの区間幅}最適なセルの区間幅は自動的に決めることができないために,実験を行って決める必要がある.今回は,区間幅を0.05,0.1,0.2,0.3,0.5の5通りに設定した.このとき,1つの正解率表においては,どの次元の軸も同一の区間幅で区切った.第1位のクラスの分類スコア軸における区間幅とセルの数との関係は,表~\ref{cell_interval}に示す通りであった.\begin{table}[t]\begin{center}\caption{SVMにおけるセルの区間幅と個数の関係}\label{cell_interval}\input{01table04.txt}\end{center}\end{table}\vspace{1\baselineskip}\noindent{\bf評価尺度}実験1では,各手法の評価を行うために,Zadroznyら~\cite{Zadrozny05}にしたがい,次式で計算されるクロスエントロピーを用いた.\begin{equation}H(y,p)=\frac{1}{N}\sum_{i=1}^N\{-y_{i}\log(p_{i})-(1-y_{i})\log(1-p_{i})\},\end{equation}ただし,$N$は評価事例数,$p_{i}$は$i$番目の事例におけるクラス所属確率の推定値,$y_{i}$は$i$番目の事例における正誤状況で,正解の場合は$1$,不正解の場合は$0$を表す.クロスエントロピーの値が小さいほどよい手法であるとする.実験2では,提案手法の評価を行うために,Caruanaら~\cite{Caruana04,Mizil05}にしたがい,予測値がどの程度実測値と重なるかを表す信頼度曲線を用いた.予測値と実測値が重なる程度が高いほどよい手法であるとする.また,Zadroznyら~\cite{Zadrozny05}にしたがい,ROC(receiveroperatingcharacteristic)曲線に基づいて計算されるAUC(AreaUndertheCurve)を用いた評価も行った.AUCの値が大きいほどよい手法であるとする.提案手法の性能評価としては,誤分類検出能力により従来の検出手法との比較を行った.誤分類検出能力は,誤分類の事例を対象となる事例数のカバレッジが低い時点で多く検出できるほどよい手法であるとする.\subsubsection{実験1:有効な方法の調査}\noindent{\bfセルの作成法}実験1を行う前の予備実験として,正解率表におけるセルの作成法について,分類スコアを等間隔に区切る方法(提案手法)を各ビンの事例数を等しくする方法(Zadoroznyらによるビニングの方法)と比較し,提案手法の有効性を確認した.ここでは,Zadoroznyらによるビニングの方法との比較を可能にするために,提案手法においても用いる分類スコアを第1位のクラスに対するもののみとし,正解率の平滑化を行わない値を用いた.ここで,提案手法における定義域は$[-\infty,+\infty]$であるが,今回用いたデータセットにおける第1位のクラスの分類スコアの範囲は,分類器がSVMの場合,JGSSデータセットでは$[-0.99,5.48]$,20Newsgroupsデータセットでは$[-2.92,19.636]$であった.表~\ref{equal}は,2つの方法により作成されたセルからなる正解率表の有効性を,データセットや分類器を変えてクロスエントロピーにより比較した結果である.表中,等間隔は我々の提案する方法(セルの区間幅を等間隔にする方法),等事例はZadroznyらの提案する方法(セルに含まれる事例数を等しくする方法)を表す.表の値は,等間隔の方法では区間幅を0.1から0.5まで4通り,等事例の方法においても,この区間幅に対応させてセルの個数を30個から7個まで4通りに変化させた中のそれぞれ最もよかった場合の値である\footnote{セル個数30,16に対応するセルの区間幅はそれぞれ0.1,0.2である(表~\ref{cell_interval}参照のこと).}.太字の数字は,2つの方法のうちよい方の値を示す.\begin{table}[b]\begin{center}\caption{セルの作成法別クロスエントロピー}\label{equal}\input{01table05.txt}\end{center}\end{table}表~\ref{equal}において,セルを等間隔に区切る方法は,ナイーブベイズ分類器ではセルに含まれる事例を等しくする方法にやや劣るものの,SVMではどちらのデータセットでも大きく上回る結果を示した.この傾向は,最もよかった値同士の比較だけではなく,セルの区間幅(セルの個数)が異なっても全く同様であった.この理由としては,一般に,データを各区間の度数が等しくなるように分割する方法は各区間幅が等しくなるように分割する方法より推定効率が高いことが知られているが,一方で,密度関数推定の観点から大きなバイアスを引き起こす可能性があることが指摘されており~\cite{Kogure05},今回用いたデータセットの分類スコアの分布において,特にSVMを適用した場合にこのバイアス問題が生じたのではないかと考えられる.その結果,セルを等事例で区切る方法において作成された正解率表は,セルに属する事例の分類スコアと正解率の関係を適切に反映したものにならなかったのではないかと思われる.表~\ref{equal}より,「分類スコアを等間隔に区切ってセルを作成する方法」により正解率表を作成する方法が有効であることが確認できたため,以下の実験では,セルの作成は分類スコアを等間隔に区切る方法を用いた.なお,今回,等事例に区切る方法において最もよかったのは,セルの個数が12個または7個の場合であったが,Zadroznyらのビニングによる方法においてもビンの個数が10個の場合が最もよかったとの報告があり~\cite{Zadrozny02},第1位のクラスの分類スコアのみを用いる場合には,分類器やデータセットが異なっていても最適なセルの個数が類似していることは興味深い.\vspace{1\baselineskip}\par\noindent{\bfクロスエントロピーによる評価}表~\ref{loglikelihoodJGSS}は,SVMを適用しJGSSデータセットを用いた場合のクロスエントロピーの値を,用いた分類スコア別,クラス所属確率を推定する方法別にまとめたものである.表において,重み付け移動平均法はカバレッジを重みとする移動平均法を表す.リッドストーン法においては最もよい場合の値を示す.表の縦方向はセルの区間幅を0.05から0.5まで5通りに変化させたことを示しており,各区間幅の上段は利用した分類スコアが第1位のクラスのみの場合,下段は利用した分類スコアが第1位と第2位のクラスの場合の結果を示す.表中の記号「---」はクロスエントロピーが計算できなかったセルがあったことを示す\footnote{セル内の事例数が0であったり,正解の場合に確率値が0であった場合に生じた.}.また,太字の数字は,表中のすべての値の中で最もよい値であることを示す.\begin{table}[b]\begin{center}\hangcaption{用いた分類スコア別SVMにおけるクロスエントロピー(JGSSデータセット).正解率表を利用する方法(上)およびロジスティック回帰による方法(下)}\label{loglikelihoodJGSS}\input{01table06.txt}\end{center}\end{table}表では省略したが,正解率表を利用する方法において,第1位から第3位まで3つのクラスの分類スコアを用いた場合のクロスエントロピーは,いずれも第1位のクラスのみの場合よりははるかによく第1位と第2位のクラスの場合よりやや悪かった.なお,1節で述べた2種類の単純な変換~\cite{Mizil05,Zadrozny02}によるクロスエントロピーは,Nicllescu-Mizilらによる変換では1.4563であり,Zadroznyらによる変換では0.8332であった.同様に,SVMを適用し20Newsgroupsデータセットを用いた結果を表~\ref{loglikelihoodNS}に示す.表の形式や記号の意味などは表~\ref{loglikelihoodJGSS}と同様である.ここでも,正解率表を利用する方法においては,第1位から第3位まで3つのクラスの分類スコアを用いた場合のクロスエントロピーはJGSSデータセットを用いた場合と全く同様で,いずれも第1位のクラスのみの場合よりははるかによく,第1位と第2位のクラスの場合よりやや悪かった.なお,1節で述べた単純な変換によるクロスエントロピーは,Nicllescu-Mizilらによる変換では計算できず,Zadroznyらによる変換では0.9199であった.\begin{table}[b]\begin{center}\hangcaption{用いた分類スコア別SVMにおけるクロスエントロピー(20Newsgroupsデータセット).正解率表を利用する方法(上)およびロジスティック回帰による方法(下)}\label{loglikelihoodNS}\input{01table07.txt}\end{center}\end{table}表~\ref{loglikelihoodJGSS}および表~\ref{loglikelihoodNS}より,次のことが明らかになった.まず,SVMを適用した場合は,クラス所属確率を推定する方法やデータセットに関係なく,第1位のクラスの分類スコアのみ用いるより他のクラスの分類スコアも含めた複数の分類スコアを用いることが有効であった.分類スコアの有効な組み合わせ方については,ロジスティック回帰による方法と正解率表を利用する方法で異なっており,ロジスティック回帰による方法は,第1位のクラスから第3位のクラスまで3つの分類スコアを用いた場合,正解率表を利用する方法は,第1位のクラスと第2位のクラスの2つの分類スコアを用いた場合が最もよかった.ただし,いずれの方法においても,分類スコアの組み合わせ方の違いによる差は小さかった.次に,ロジスティック回帰による方法も含めてすべての場合の中で最もよい結果を示したのは,最適な正解率表を利用した場合,すなわち「第1位と第2位のクラスの分類スコアを用いてカバレッジを重みとする移動平均法による平滑化を行った正解率表を利用する方法」(セルの区間幅0.1)であった.ただし,正解率表を利用する方法は,セルの区間幅の決め方により結果に大きな差があった.特にセルの区間幅を非常に小さく(0.05)設定した場合は,複数の分類スコアを用いることは有効ではなかった.この理由は,セルの個数が増えることにより各セルごとに含まれる事例数が少なくなり,場合によっては事例が存在しないセルが出現したために,正解率における信頼性が低くなったことが原因であると考えられる.正解率表を利用する方法においてはロジスティック回帰による方法と異なり,分類スコアを3つ用いた方が2つ用いた場合より結果が悪かった理由も,同様であると考えられる.今回は,最適なセルの区間幅は,どちらのデータセットにおいても0.1であった.これに対して,ロジスティック回帰による方法は,どちらのデータセットにおいても安定してよい結果を示した\footnote{なお,第2位以下のクラスについて,注目するクラスのスコアのみを用いて推定した場合における全クラスの総和は,平均1.0035,標準偏差0.1625であり,4.2.2節で提案するように注目するクラスと第1位のクラスのスコアを用いて推定した場合における全クラスの総和は,平均0.9998,標準偏差0.0478であった.これらの値から,正規化されたクラス所属確率を計算して用いた場合のクロスエントロピーは,第1位のスコアしか用いない場合は0.4449で表~\ref{loglikelihoodNS}におけるすべてのケースの中で最も悪く,第1位\&第2位のスコアを用いた場合は0.3634で正規化しない場合よりややよかった.一方,JGSSデータセットの場合は,クラスの総数が約200個と多いため第20位までのクラスに対する推定値の総和の計算を試みた.その結果,注目するクラスのスコアのみを用いた場合は,平均0.9217,標準偏差0.2711で,注目するクラスと第1位のクラスのスコアを用いた場合の総和は,平均0.9039,標準偏差0.1141であった.}.さらに,正解率表における平滑化の手法は,いずれもデータセットに関係なく有効であった.特に,平滑化を行うセルの周囲にあるセルの情報も利用する方法である(カバレッジを重みとする)移動平均法は,セルの区間幅が適切であった場合によい結果を示した.注目するセルの情報のみで平滑化を行うラプラス法やリッドストーン法は,クロスエントロピーにおいては大きな効果はなかったが,ゼロ頻度問題に対応できる点で評価できる.ここで,正解率表を利用する方法における結論をより一般化させるために,分類器をナイーブベイズ分類器に変え,20Newsgroupsデータセットによる実験を行った\footnote{ただし,正解率の信頼性が低下することが明らかな場合,すなわち分類スコアを第3位のクラスまで用いた場合やセルの個数が60個の場合についての実験は行わなかった.また,表~\ref{loglikelihoodJGSS}および表~\ref{loglikelihoodNS}に示すように,周囲の情報を用いない平滑化手法の2つの手法は違いがみられなかったため,ラプラス法のみを用いた.}.結果は表~\ref{loglikelihoodNS_NB}に示すように,SVMの場合と同様に,第1位のクラスの分類スコアのみを用いた場合より,第2位のクラスまで2つの分類スコアを用いた場合の方がよかった.また,平滑化手法は有効で,特にセルの区間幅が適切な場合に移動平均法はよい結果を示した.ナイーブベイズ分類器において最もよかったのはセルの個数が30個の場合であり,これはSVMにおいて最もよかったセルの区間幅0.1の場合に該当する.\begin{table}[t]\begin{center}\hangcaption{用いた分類スコア別ナイーブベイズ分類器におけるクロスエントロピー(20Newsgroupsデータセット)}\label{loglikelihoodNS_NB}\input{01table08.txt}\end{center}\end{table}以上より,多値分類における第1位のクラスのクラス所属確率の推定は,複数の分類スコアを用いることが有効であった.特に,最適な正解率表である「第1位と第2位のクラスの分類スコアを用いて(カバレッジによる重み付き)移動平均法による平滑化を行い,セルの区間幅を0.1(セルの個数30個)に設定した正解率表」を利用する方法は最も有効であった.ただし,正解率表を利用する方法は設定されたセルの区間幅により結果が不安定であるという問題があったのに対して,ロジスティック回帰による方法は安定してよい結果を示した.また,今回は,正解率表を利用する方法における最適な正解率表がデータセットや分類器に関係なく一致したが,この結果をさらに一般化するには,データセットや分類器をより多様なものに変えた実験を行って確認する必要がある.したがって,現時点では,正解率表を利用する方法は,データセットや分類器が異なる場合に最適な正解率表を決定するための実験を行う必要があり,手間がかかるという欠点があるといえる\footnote{今回は,$\delta$を最適にしたリッドストーン法のラプラス法に対する優位性が認められなかったが,この点についても一般化するためにはさらなる実験が必要である.}.\subsubsection{実験2:提案手法の評価}ここでは,SVMを適用して,実験1において最適であった方法(以後,提案手法とよぶ)の評価を行った.\\\\\noindent{\bf信頼度曲線およびROC曲線}信頼度曲線は,予測値(推定値)($X$軸)と実際の値($Y$軸)の関係をプロットしたもので,予測値と実際の値が等しい場合には対角線上にプロットされ,対角線から離れるほど予測の精度が悪いことを示す.ここでは,提案手法を,分類スコアを1つ用いた方法のうち,平滑化を行わない正解率表を利用する方法(以後,平滑化を行わない方法とよぶ)およびシグモイド関数による方法と比較した.このとき,平滑化を行わない方法は,等事例ではなく等間隔に区切ったビニングによる方法であると考えることができ,シグモイド関数による方法はPlattの方法を簡略化したものであると考えられる.今回は,予測値を0.1ずつ区切り10区間を作成し,予測値と真の値としていずれも区間内(例えば,$[0,0.1]$)に含まれる事例の平均を用いた.JGSSデータセットによる結果を図~\ref{reliability_JGSS}に,20Newsgroupsデータセットによる結果を図~\ref{reliability_20ng}に示す.図~\ref{reliability_JGSS}および図~\ref{reliability_20ng}において,提案手法はどちらのデータセットにおいても対角線の近くにプロットされており,クラス所属確率を全体的にうまく推定することがわかった.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f4.eps}\hangcaption{JGSSデータセットにおける信頼度曲線.左から順に提案手法,平滑化を行わない方法,シグモイド関数による方法の結果を示す.}\label{reliability_JGSS}\end{center}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f5.eps}\hangcaption{20Newsgroupsデータセットにおける信頼度曲線.左から順に提案手法,平滑化を行わない方法,シグモイド関数による方法の結果を示す.}\label{reliability_20ng}\end{center}\end{figure}ROC曲線は,$X$軸がFPF(FalsePositiveFraction;偽陽性率),$Y$軸がTPF(TruePositiveFraction;真陽性率)を表す座標上に,正解率の程度により分類された各グループごとのFPFとTPFの値をプロットしたものである.ここで,FPF=注目するグループ内の不正解事例数/全不正解事例数,TPF=注目するグループ内の正解事例数/全正解事例数である.今回は,正解率を10点刻みに分類してFPFとTPFの値を求めた.すなわち,最上位のグループ(正解率が91\%〜100\%の範囲にある事例)から始めて,上限を固定し下限を10\%ずつ下げたグループ(例えば2番目のグループは,正解率の範囲が81\%〜100\%である事例の集合)を計10個作成し,各グループにおけるFPFとTPFを計算した.ROC曲線においては,ROC曲線が左上方に位置するほど正確な推定が行われていることを示すが,より正確には,ROC曲線の下方にある領域であるAUC(AreaUndertheCurve)を計算し,その値が大きいほどよい手法であるとされる.図~\ref{ROC_JGSS_20ns}に,JGSSデータセットおよび20Newsgroupsデータセットによる提案手法,平滑化を行わない方法,シグモイド関数による方法におけるROC曲線を示す.また,3つの手法におけるAUCの値を表~\ref{AUC_rank1}に示す.図~\ref{ROC_JGSS_20ns}および表~\ref{AUC_rank1}より明らかなように,提案手法はいずれのデータセットにおいても他の2つの方法より正確な推定を行えることがわかった.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f6.eps}\hangcaption{クラス所属確率の推定方法別ROC曲線(JGSSデータセット(左)および20Newsgroupsデータセット(右))}\label{ROC_JGSS_20ns}\end{center}\end{figure}\begin{table}[b]\begin{center}\caption{クラス所属確率の推定方法別AUC(AreaUndertheCurve)}\label{AUC_rank1}\input{01table09.txt}\end{center}\end{table}\vspace{1\baselineskip}\noindent{\bf誤分類検出能力}事例をクラス所属確率の推定値の小さい順に並べたとき,カバレッジの値が小さいときにできるだけ多くの誤分類事例が検出されることが望ましい.カバレッジをこのように考えた場合に,各カバレッジごとにどのくらい誤分類された事例を検出できるかを,本稿では誤分類検出能力とよぶ.提案手法の誤分類検出能力を,JGSSデータセットおよび20Newsgroupsデータセットを用いて評価した.評価の方法は,提案手法によるクラス所属確率の推定値を値の小さい順に事例を並べ,カバレッジを10\%ずつ増やしてできた区間ごとに,誤分類された事例数を調査した.比較のため,既存の手法であるSchohnにより提案された単純な方法~\cite{Schohn00}による結果も示した.単純な方法では,分類スコアの値の小さい順に並べ,同様にカバレッジを10\%ずつ増やしてできた区間ごとに,誤分類された事例数を調査した.それぞれのデータセットによる結果を図~\ref{Lap-RawJGSS_ns}に示す.図~\ref{Lap-RawJGSS_ns}において,提案手法はどちらのデータセットにおいても常に単純な方法を上回った.特に,20Newsgroupsデータセットにおいては,カバレッジが小さい場合に大きく上回る点が評価できる.その理由は,我々が実際に人手により分類誤りを検出する必要がある場合,チェックをするデータセットの量はできる限り少量の方が作業が楽であるからである.JGSSデータセットでは,全体の40\%をチェックすれば誤分類事例の80\%を検出することができるが,20Newsgroupsデータセットで同じ量をチェックすると,誤分類事例の90\%を検出できる.両者のデータセットにおける傾向の違いを説明する理由は明確ではないが,JGSSデータセットには非常に短く有効な素性が少ししか含まれない事例が多いため,正確な推定を行うために十分な情報がないことが原因であると考えられる\footnote{表~\ref{equal},表~\ref{loglikelihoodJGSS},表~\ref{loglikelihoodNS}におけるクロスエントロピーの値からも,JGSSデータセットの方が推定が困難なタスクであることが予想される.}.\begin{figure}[t]\begin{center}\includegraphics{15-2ia1f7.eps}\hangcaption{SVMにおける提案手法の誤分類検出能力(JGSSデータセット(左)および20Newsgroupsデータセット(右))}\label{Lap-RawJGSS_ns}\end{center}\end{figure}以上をまとめると,多値分類において第1位に予測されたクラスのクラス所属確率の推定は,複数の分類スコアを用いることが有効であることがわかった.特に,第1位と第2位に予測されたクラスの分類スコアを用いて作成した最適な正解率表を利用する方法が最もよい結果を示した.ここで,最適な正解率表とは,セルの区間幅を0.1(セルの個数が30)として作成した正解率表を(カバレッジによる重み付き)移動平均法による平滑化を行ったものである.ただし,正解率表を利用する方法は正解率表の作成法により結果が不安定であるという欠点があった.この点において,ロジスティック回帰による方法は安定してよい結果を示した.また,ロジスティック回帰による方法は,最適な正解率表を見つけるために実験を重ねる手間が不要であるという利点もある. \section{第2位以下の任意のクラスについてのクラス所属確率推定} 3節で,多値分類における第1位の予測クラスについてのクラス所属確率は,複数の分類スコアを用いた推定が有効であることが明らかになった.本節では,3節で得られた結論を第2位以下の任意のクラスに対して拡張する方法を検討する.この場合,どのクラスの分類スコアを組み合わせることが有効であるかを検討することが重要である.\subsection{提案手法}本稿では,多値分類における第2位以下の任意のクラスについてのクラス所属確率を高精度に推定するために,推定したいクラス(第$k$位のクラス)と第1位のクラスの分類スコアを用いてロジスティック回帰により推定する方法を提案する.すなわち,次式\footnote{3節で示した(1)式を第1位と第$k$位のクラスのみ用いるように修正したものである.}によりクラス所属確率の推定を行うことを提案する.\begin{equation}P_{Log}(f_{1},f_{k})=\frac{1}{1+\exp(A_{1}f_{1}+A_{k}f_{k}+B)}.\end{equation}ここで,$f_{k}$は第$k$位の分類スコアを表す.このとき,パラメータ$A_{1}$,$A_{k}$および$B$は訓練事例を用い,最尤法によりあらかじめ推定しておく必要がある.ここで,推定したいクラスの他に用いるクラスとして第1位のクラスを選択した理由は,3節でも述べたように,多値分類においては,第1位のクラスの分類スコアが最も大きく,どのクラスの分類スコアも第1位のクラスの分類スコアの値以上にはならないため,推定したいクラスの分類スコアの値を第1位のクラスの分類スコアとの相対的な関係で捉えることが有効であると考えたためである.これを実現するための方法はいくつか存在するが\footnote{例えば,2つのスコア間の差や相関係数などが考えられる.},ここでは,3節と同様に最も単純に第1位のクラスの分類スコアをそのまま用いることにした.また,クラス所属確率の推定方法については,第2位以下のクラスにおいては,第1位のクラスよりも分類スコアの傾向をさらに把握しにくくなるために,最適な正解率表を作成することが困難であると考えられる.したがって,第1位のクラスの場合において安定した結果を示したロジスティック回帰による方法の方が有効であると考えた.この2つの仮定を以下の実験により確認する.\subsection{実験}実験の目的は,多値分類における第2位以下の任意のクラスのクラス所属確率の推定に用いる分類スコアは,提案手法による組み合わせ方が最も有効であることを示すこと(実験1),および第2位以下のクラスにおいては,ロジスティック回帰による方法が正解率表を利用する方法より有効であることを示すこと(実験2)である.実験設定は3節と同様で,分類器はSVMを適用した.実験1では第2位から第20位までのクラス\footnote{JGSSデータセットにおいては10\%,20Newsgroupsデータセットにおいてはすべてのクラスをカバーする.},実験2では第2位から第5位までのクラスについて調査した.\subsubsection{実験1:分類スコアの有効な組み合わせ方}\noindent{\bf分類スコアの候補}実験1を行う前の予備実験として,推定したいクラスのクラス所属確率と関連の深いクラスを発見するために,第2位以下のすべてのクラスについて,注目するクラスの正誤状況(正解の場合1,不正解の場合0)と全クラスの分類スコアとの相関関係を調査した.これは,注目するクラスの正誤状況と相関係数の絶対値が大きい分類スコアのクラスほど注目するクラスとの関連が強いと仮定したためである.したがって,相関係数の絶対値の大きな分類スコアが多い順位のクラスを候補として用いることを検討した.JGSSデータセットと20Newsgroupsデータセットを用いて第2位から第20位のクラスにおいて,各クラスごとに関連の強かったクラスを表~\ref{correlation}にまとめる.表~\ref{correlation}より,注目するクラス(推定したいクラス)自身より第1位のクラスの方が多かったため,用いるクラスの候補として第1位のクラスを候補とした.また,注目するクラスの直前や直後のクラスも候補とした.\begin{table}[b]\begin{center}\caption{注目するクラスの正誤状況と関連の強いクラス}\label{correlation}\input{01table10.txt}\end{center}\end{table}次に,これらの3つのクラスの分類スコアを推定したいクラスとそれぞれ単純に組み合わせた場合におけるクロスエントロピーを,JGSSデータセットと20newsgroupsデータセットを用いて調査した.その結果,どちらのデータセットにおいても,第1位のクラスの分類スコアを組み合わせた場合以外は有効性が認められなかったため,実験1では,複数の分類スコアとして次の3つの組み合わせ方を考え,「推定したいクラスの分類スコアのみを用いる」場合と比較を行った(()内は用いる分類スコアの数を表す).このとき,分類スコアを3個以上用いた場合のクラス所属確率の推定には,3節で述べた(1)式を適宜修正した式を用いた.\begin{itemize}\item[提案手法]「推定したいクラスと第1位のクラスの分類スコア」(2個)\item「第1位のクラスから推定したいクラス(第$k$位のクラス)までのすべてのクラスの分類スコア」($k$個)\item「推定したいクラスとその直前および直後のクラスの分類スコア」(3個)\end{itemize}\vspace{1\baselineskip}\noindent{\bf提案手法の有効性}図~\ref{rank2-12_JGSS_20ns}は,JGSSデータセットと20Newsgroupsデータセットにより,用いた分類スコアの組み合わせを変えた場合のクロスエントロピーを,推定したいクラスの順位別($X$軸)に示したものである.ただし,どちらのデータセットにおいても,13位以下のクラスにおいては12位と同様の傾向であったために省略した.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f8.eps}\caption{分類スコアの組み合わせ方別クロスエントロピー}\label{rank2-12_JGSS_20ns}\end{center}\end{figure}図~\ref{rank2-12_JGSS_20ns}から明らかなように,どちらのデータセットにおいても,推定したいクラスが上位の場合には,推定したいクラスの分類スコアのみを用いるより,クラスの組み合わせ方に関係なく複数の分類スコアを用いた方がよかった.特に提案手法である「推定したいクラスと第1位のクラスの分類スコア」を用いた場合は,どの順位においても最もよかった.ただし,推定したいクラスの順位が下がるにつれて,どの方法もクロスエントロピーの値が小さくなり,方法間の違いの差がみられなくなった.この理由は,クラスの順位が下がるにつれてどの方法であってもクラス所属確率の推定値が小さくなり,また予測されたクラスも不正解である場合が多くなるために\footnote{例えば,JGSSデータセットにおいて第2位から第5位に予測されたクラスの正解率は,それぞれ7.7\%,2.2\%,0.9\%,0.6\%であり,20newsgroupsデータセットにおいてはそれぞれ6.4\%,2.3\%,1.2\%,0.8\%であった.},クロスエントロピーも小さくなったためだと考えられる.次に,提案手法を含めた4つの方法におけるROC曲線を,第2位のクラスと第3位のクラスに注目した場合についてそれぞれ図~\ref{ROC2}および図~\ref{ROC3}に示す\footnote{第4位以下のクラスについては,いずれのデータセットにおいても第3位の場合と同様の傾向であったために省略した.}.ただし,第2位のクラスにおいては,「第1位から推定したいクラスまでのすべてのクラスの分類スコアを用いる方法」は提案手法と同じ方法であるために,図~\ref{ROC2}では省略した.また,図~9,図~10におけるAUCを表~\ref{AUC_rank23}に示す.表中,太字の数字は,各ケースにおいて最もよい値であることを示す.図~\ref{ROC2},図~\ref{ROC3},表~\ref{AUC_rank23}より,注目するクラスやデータセットが異なっても,複数の分類スコアを用いる方法は,注目するクラスの分類スコアだけを用いる方法よりよかった.AUCによる評価において最もよかった方法は,JGSSデータセットの場合は提案手法であり,20Newsgroupsデータセットの場合は,注目するクラスと直前および直後のクラスの分類スコアを用いる方法(第2位のクラスの場合)や,第1位から推定したいクラスまでのすべてのクラスの分類スコアを用いる方法(第3位のクラスの場合)であった.ただし,提案手法は20Newsgroupsデータセットの場合も安定してよかった.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f9.eps}\hangcaption{第2位のクラスについての分類スコアの組み合わせ方別ROC曲線(JGSSデータセット(左)および20Newsgroupsデータセット(右))}\label{ROC2}\end{center}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f10.eps}\hangcaption{第3位のクラスについての分類スコアの組み合わせ方別ROC曲線(JGSSデータセット(左)および20Newsgroupsデータセット(右))}\label{ROC3}\end{center}\end{figure}以上より,第2位以下の任意のクラスについてのクラス所属確率を推定する場合も,複数の分類スコアを用いることは有効であり,特に推定したいクラスと第1位のクラスの分類スコアを用いる方法は有効であることが示された.最後に,ロジスティック回帰式におけるパラメータを最尤推定するために用いる訓練事例数を変化させたときのクロスエントロピーを調査した.図~\ref{JGSS_train_size}は,JGSSデータセットにより,推定したいクラスの分類スコアのみ用いる方法と提案手法を比較したものである.$X$軸は訓練事例数を表しており,右端はこれまでの実験において訓練事例として用いられてきた20,066サンプルの場合,左端は1,000サンプルにまで減らした場合を表す.図~\ref{JGSS_train_size}より,まず,訓練事例の数に関係なく提案手法が有効であることがわかった.また,訓練事例が1,000サンプルと比較的少ない場合でも,ロジスティック回帰による方法は安定してよい結果を示すこともわかった.\begin{table}[t]\begin{center}\caption{分類スコアを利用したクラス別AUC}\label{AUC_rank23}\input{01table11.txt}\end{center}\end{table}\begin{figure}[t]\begin{center}\includegraphics{15-2ia1f11.eps}\hangcaption{パラメータ推定に用いる訓練事例数の変化によるクロスエントロピー(ロジスティック回帰による方法)}\label{JGSS_train_size}\end{center}\end{figure}\subsubsection{実験2:ロジスティック回帰による方法の有効性}ここでは,提案手法による分類スコアの組み合わせにおいて,ロジスティック回帰による方法を最適な正解率表を利用する方法と比較した.このとき,最適な正解率表としては次の2つを検討した.1つは第1位のクラスについて推定する場合に最も有効であった正解率表(セルの区間幅を0.1に設定)で,推定したいクラスごとに新たな正解率表を作成する手間を省略する目的で用いた.もう1つは,第2位以下の各クラスにおける分類スコアのとる値の状況に合わせて,セルの区間幅を適宜(例えば0.2など)変えたもので,「正解率表(改良版)」とよぶことにする.いずれの正解率表も,3節で最も有効であった平滑化手法すなわちカバレッジを重みとする移動平均法による平滑化を行った.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f12.eps}\caption{クラス所属確率の推定方法別クロスエントロピー}\label{JGSS_20ns_seikai_hikaku}\end{center}\end{figure}図~\ref{JGSS_20ns_seikai_hikaku}に,ロジスティック回帰による方法と正解率表を利用する方法におけるクロスエントロピーを示す.図~\ref{JGSS_20ns_seikai_hikaku}より,注目するクラスが第2位から第5位までの場合の平均において,ロジスティック回帰による方法が最も有効であることが示された\footnote{なお,20Newsgroupsデータセットを用いた場合,ロジスティック回帰による方法において正規化されたクラス所属確率を用いた場合の第2位から第5位までのクロスエントロピーとその平均はそれぞれ0.2386,0.1246,0.0694,0.0483,0.1202で,正規化しない場合の値(0.2450,0.1161,0.0697,0.0556,0.1216)とほぼ同様であった.}.正解率表(改良版)を利用する方法は,JGSSデータセットにおいて第2位のクラスに注目する場合や,20Newsgroupsデータセットにおいて第3位のクラスに注目する場合のみ,ロジスティック回帰による方法よりわずかによい結果であったが,注目するクラスに対して毎回,最適な正解率表を作成する手間がかかるという欠点がある.3つの方法におけるROC曲線の例として,JGSSデータセットを用いて第2位のクラスに注目する場合を図~\ref{ROC_JGSS_seikai_hikaku}に示す.このとき,3つの方法におけるAUCは,それぞれロジスティック回帰による方法(0.7443),第1位のクラスに対する最適な正解率表を利用する方法(0.7260),正解率表(改良版)を利用する方法(0.7449)で,JGSSデータセットにおいて第2位のクラスを推定する場合に限り,正解率表(改良版)を利用する方法がロジスティック回帰による方法をやや上回った.\begin{figure}[t]\begin{center}\includegraphics{15-2ia1f13.eps}\caption{クラス所属確率の推定方法別ROC曲線(JGSSデータセットにおける第2位のクラス)}\label{ROC_JGSS_seikai_hikaku}\end{center}\end{figure}今回,第6位以下のクラスについては比較実験を行っていないが,先に述べたように,下位のクラスになるにしたがって最適な正解率表の作成は困難になることが予想されるため,第6位以下のクラスにおいてもロジスティック回帰による方法が有効であると考えられる.以上より,第2位以下の任意のクラスにおいても,ロジスティック回帰による方法の方が正解率表を利用する方法より有効であると判断できた. \section{結論} 本稿では,文書分類で適用されることの多い多値分類における任意のクラスのクラス所属確率を,複数の分類スコアを用いて高精度に推定する方法を提案した.提案手法は,複数個の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いてロジスティック回帰によりクラス所属確率を推定する.ここで,第1位のクラスについては,第1位と第2位のクラスの分類スコアのなす空間を等間隔(0.1)に区切って作成した各セルにおいて正解率を計算し,カバレッジを重みとする移動平均法により平滑化を行った正解率表を参照する方法も有効であった.提案手法は,SVMを適用し,性質の異なる2種類のデータセット(社会調査データである日本語自由回答や英文の自由投稿ネットニュース記事)を用いて実験した結果,どちらのデータセットにおいても有効性を示した.また,誤分類の検出において,従来の方法を上回った.今後の課題は,提案手法の有効性を理論的に裏付けることが必要であると考えられる.\acknowledgment日本版GeneralSocialSurveys(JGSS)は,大阪商業大学比較地域研究所が,文部科学省から学術フロンティア推進拠点としての指定を受けて(1999--2003年度),東京大学社会科学研究所と共同で実施している研究プロジェクトである(研究代表:谷岡一郎・仁田道夫,代表幹事:佐藤博樹・岩井紀子,事務局長:大澤美苗).データの入手先は,東京大学社会科学研究所附属日本社会研究情報センターSSJデータ・アーカイブである.本稿に対して貴重なコメントを下さいました査読者の皆さまに深く感謝いたします.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ahuja\BBA\Orlin}{Ahuja\BBA\Orlin}{2001}]{Ahuja01}Ahuja,R.~K.\BBACOMMA\\BBA\Orlin,J.~B.\BBOP2001\BBCP.\newblock\BBOQAFastScalingAlgorithmforMinimizingSeparableConvexFunctionsSubjecttoChainConstraints\BBCQ\\newblock{\BemOperationsResearch},{\Bbf49},\mbox{\BPGS\784--789}.\bibitem[\protect\BCAY{Bennett}{Bennett}{2000}]{Bennett00}Bennett,P.~N.\BBOP2000\BBCP.\newblock\BBOQAssessingtheCalibrationofNaiveBayes'PosteriorEstimates{CMU}-{CS}-00-155\BBCQ\\newblock\BTR,SchoolofComputerScience,CarnegieMellonUniversity.\bibitem[\protect\BCAY{Canters,Genst,\BBA\Dufourmont}{Canterset~al.}{2002}]{Canters02}Canters,F.,Genst,W.~D.,\BBA\Dufourmont,H.\BBOP2002\BBCP.\newblock\BBOQAssessingeffectsofinputuncertaintyinstructurallandscapeclassification\BBCQ\\newblock{\BemInternational{J}ournalof{G}eographical{I}nformation{S}cience},{\Bbf16}(2),\mbox{\BPGS\129--149}.\bibitem[\protect\BCAY{Carreiras,Pereira,Campagnolo,\BBA\Shimabukuro}{Carreiraset~al.}{2005}]{Carreiras05}Carreiras,J.~M.~B.,Pereira,J.~M.~C.,Campagnolo,M.~L.,\BBA\Shimabukuro,Y.~E.\BBOP2005\BBCP.\newblock\BBOQAlandcovermapforthe{B}razilian{L}egal{A}mazonusing{SPOT\-4}{VEGETATION}dataandmachinelearningalgorithms\BBCQ\\newblockIn{\BemAnaisX{I}{I}{S}inposio{B}rasileirode{S}ensoriamento{R}emoto},\mbox{\BPGS\457--464}.\bibitem[\protect\BCAY{Caruana\BBA\Niculescu-Mizil}{Caruana\BBA\Niculescu-Mizil}{2004}]{Caruana04}Caruana,R.\BBACOMMA\\BBA\Niculescu-Mizil,A.\BBOP2004\BBCP.\newblock\BBOQPredictingGoodProbabilitiesWithSupervisedLearning\BBCQ\\newblockIn{\BemProceedingsofNIPS2004WorkshoponCalibrationandProbabilisticPredictioninSupervisedLearning}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{Chan06}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingClassPriorsinDomainAdaptationforWordSenseDisambiguation\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheACL},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Cheeseman\BBA\Stutz}{Cheeseman\BBA\Stutz}{1996}]{Cheeseman96}Cheeseman,P.\BBACOMMA\\BBA\Stutz,J.\BBOP1996\BBCP.\newblock\BBOQB{AYESIANCLASSIFICATION(AUTOCLASS):\mbox{THEORY}ANDRESULTS}\BBCQ\\newblockIn{\BemAdvancesinknowledgediscoveryanddatamining},\mbox{\BPGS\153--180}.AmericanAssociationforArtficialIntelligence.\bibitem[\protect\BCAY{Dumais,Platt,Hecherman,\BBA\Sahami}{Dumaiset~al.}{1998}]{Dumais_et_al98}Dumais,S.,Platt,J.,Hecherman,D.,\BBA\Sahami,M.\BBOP1998\BBCP.\newblock\BBOQInductiveLearningAlgorithmsandRepresentationsforTextCategorization\BBCQ\\newblockIn{\BemProceedingsoftheACM-CIKM98},\mbox{\BPGS\145--155}.\bibitem[\protect\BCAY{Erosheva}{Erosheva}{2005}]{erosheva05}Erosheva,E.\BBOP2005\BBCP.\newblock\BBOQLatentclassrepresentationofthe{G}radeof{M}embershipmodel\BBCQ\\newblock\BTR,Departmentof{S}tatistics,UniversityofWashington.\bibitem[\protect\BCAY{Fawcett\BBA\Niculescu-Mizil}{Fawcett\BBA\Niculescu-Mizil}{2006}]{Fawcett06}Fawcett,T.\BBACOMMA\\BBA\Niculescu-Mizil,A.\BBOP2006\BBCP.\newblock\BBOQPAVandtheROCConvexHull\BBCQ\\newblock\BTR,KluwerAcademicPublishers.\bibitem[\protect\BCAY{Gualtieri,Chettri,Cromp,\BBA\Johnson}{Gualtieriet~al.}{1999}]{Gualtieri99}Gualtieri,A.,Chettri,S.~R.,Cromp,R.,\BBA\Johnson,L.\BBOP1999\BBCP.\newblock\BBOQSupportvectormachineclassifiersasappliedtoavirisdata\BBCQ\\newblockIn{\BemProceedingsofthe6thJPLAirborneGeoscienceWorkshop}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1998}]{Joachims98}Joachims,T.\BBOP1998\BBCP.\newblock\BBOQTextCategorizationwithSupportVectorMachines:LearningwithManyRelevantFeatures\BBCQ\\newblockIn{\BemProceedingsoftheEuropeanConferenceonMachineLearning},\mbox{\BPGS\137--142}.\bibitem[\protect\BCAY{Jones,Rey,Madani,\BBA\Greiner}{Joneset~al.}{2006}]{Jones06}Jones,R.,Rey,B.,Madani,O.,\BBA\Greiner,W.\BBOP2006\BBCP.\newblock\BBOQGeneratingQuerySubstitutions\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalWorldWideWebConference(WWW'06)},\mbox{\BPGS\387--396}.\bibitem[\protect\BCAY{Kearsley,Tapia,\BBA\Trosset}{Kearsleyet~al.}{1996}]{Kearsley96}Kearsley,A.~J.,Tapia,R.~A.,\BBA\Trosset,M.~W.\BBOP1996\BBCP.\newblock\BBOQAnApproachtoParallelizingIsotonicRegression\BBCQ\\newblock\BTR,CRPC-TR98840.\bibitem[\protect\BCAY{Kressel}{Kressel}{1999}]{kressel99}Kressel,U.\BBOP1999\BBCP.\newblock\BBOQPairwiseclassificationandsupportvectormachines\BBCQ\\newblockInSch{\"o}lkopf,B.,Burgesa,C.J.~C.,\BBA\Smola,A.~J.\BEDS,{\BemAdvancesinKernelMethodsSupportVectorLearning},\mbox{\BPGS\255--268}.TheMITPress.\bibitem[\protect\BCAY{Langford\BBA\Zadrozny}{Langford\BBA\Zadrozny}{2005}]{Zadrozny05}Langford,J.\BBACOMMA\\BBA\Zadrozny,B.\BBOP2005\BBCP.\newblock\BBOQEstimatingClassMembershipProbabilitiesusingClassifierLearners\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonArtificialIntelligenceandStatistics('06)}.\bibitem[\protect\BCAY{Niculescu-Mizil\BBA\Caruana}{Niculescu-Mizil\BBA\Caruana}{2005}]{Mizil05}Niculescu-Mizil,A.\BBACOMMA\\BBA\Caruana,R.\BBOP2005\BBCP.\newblock\BBOQPredictingGoodProbabilitiesWithSupervisedLearning\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonMachineLearning(ICML'05)},\mbox{\BPGS\625--632}.\bibitem[\protect\BCAY{Ohkura,Kiyota,\BBA\Nakagawa}{Ohkuraet~al.}{2006}]{Ohkura06}Ohkura,T.,Kiyota,Y.,\BBA\Nakagawa,H.\BBOP2006\BBCP.\newblock\BBOQBrowsingSystemforWeblogArticlesbasedonAutomatedFolksonomy\BBCQ\\newblockIn{\BemWorkshopontheWebloggingEcosystem(WWW2006)}.\bibitem[\protect\BCAY{Platt}{Platt}{1999}]{Platt99}Platt,J.~C.\BBOP1999\BBCP.\newblock\BBOQProbabilisticOutputsforSupportVectorMachinesandComparisonstoRegularizedLikelihoodMethods\BBCQ\\newblockInSch{\"o}lkopf,B.,Burgesa,C.J.~C.,\BBA\Smola,A.~J.\BEDS,{\BemAdvancesinLargeMarginClassifiers},\mbox{\BPGS\255--268}.TheMITPress.\bibitem[\protect\BCAY{Schohn\BBA\Cohn}{Schohn\BBA\Cohn}{2002}]{Schohn00}Schohn,G.\BBACOMMA\\BBA\Cohn,D.\BBOP2002\BBCP.\newblock\BBOQLessisMore:ActiveLearningwithSupportVectorMachines\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonMachineLearning(ICML'00)},\mbox{\BPGS\839--846}.\bibitem[\protect\BCAY{Sebastiani}{Sebastiani}{2002}]{Sebastiani02}Sebastiani,F.\BBOP2002\BBCP.\newblock\BBOQMachineLearningAutomatedTextCategorization\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf34}(1),\mbox{\BPGS\1--47}.\bibitem[\protect\BCAY{Takahashi,Takamura,\BBA\Okumura}{Takahashiet~al.}{2005}]{Takahashi05c}Takahashi,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQAutomaticOccupationCodingwithCombinationofMachineLearningandHand-CraftedRules\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonPacific-AsiaKnowledgeDiscoveryandDataMining(PAKDD'05)},\mbox{\BPGS\269--279}.\bibitem[\protect\BCAY{Zadrozny\BBA\Elkan}{Zadrozny\BBA\Elkan}{2001a}]{Zadrozny01a}Zadrozny,B.\BBACOMMA\\BBA\Elkan,C.\BBOP2001a\BBCP.\newblock\BBOQLearningandMakingDecisionsWhenCostsandProbabilitiesareBothUnknown\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonKnowledgeDiscoveryandDataMining(KDD'01)},\mbox{\BPGS\204--213}.\bibitem[\protect\BCAY{Zadrozny\BBA\Elkan}{Zadrozny\BBA\Elkan}{2001b}]{Zadrozny01b}Zadrozny,B.\BBACOMMA\\BBA\Elkan,C.\BBOP2001b\BBCP.\newblock\BBOQObtainingcalibratedprobabilityestimatesfromdecisiontreesandnaiveBayesianclassifiers\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning(ICML'01)},\mbox{\BPGS\609--616}.\bibitem[\protect\BCAY{Zadrozny\BBA\Elkan}{Zadrozny\BBA\Elkan}{2002}]{Zadrozny02}Zadrozny,B.\BBACOMMA\\BBA\Elkan,C.\BBOP2002\BBCP.\newblock\BBOQTransformingClassifierScoresintoAccurateMulticlassProbabilityEstimates\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonKnowledgeDiscoveryandDataMining(KDD'02)},\mbox{\BPGS\694--699}.\bibitem[\protect\BCAY{安居院\JBA中嶋}{安居院\JBA中嶋}{1991}]{Agui91_j}安居院猛\JBA中嶋正之\BBOP1991\BBCP.\newblock\Jem{画像情報処理}.\newblock森北出版.\bibitem[\protect\BCAY{北}{北}{1999}]{Kita99_j}北研二\BBOP1999\BBCP.\newblock\Jem{言語と計算(4)確率的言語モデル}.\newblock東大出版会.\bibitem[\protect\BCAY{小暮\JBA寒河江}{小暮\JBA寒河江}{2005}]{Kogure05}小暮厚之\JBA寒河江雅彦\BBOP2005\BBCP.\newblock\JBOQパーセント点に集計されたデータからの密度関数の推定—バイアス・パズルの考察—\JBCQ\\newblock\Jem{統計数理},{\Bbf53}(2),\mbox{\BPGS\376--389}.\bibitem[\protect\BCAY{平\JBA春野}{平\JBA春野}{2000}]{Taira00}平博順\JBA春野雅彦\BBOP2000\BBCP.\newblock\JBOQSupportVectorMachineによるテキスト分類における属性選択\JBCQ\\newblock\Jem{情報処理},{\Bbf41}(4),\mbox{\BPGS\1113--1123}.\bibitem[\protect\BCAY{高橋\JBA高村\JBA奥村}{高橋\Jetal}{2005a}]{Takahashi05a}高橋和子\JBA高村大也\JBA奥村学\BBOP2005a\BBCP.\newblock\JBOQ機械学習とルールベース手法の組み合わせによる自動職業コーディング\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{高橋\JBA須山\JBA村山\JBA高村\JBA奥村}{高橋\Jetal}{2005b}]{Takahashi05b}高橋和子\JBA須山敦\JBA村山紀文\JBA高村大也\JBA奥村学\BBOP2005b\BBCP.\newblock\JBOQ職業コーディング支援システム({NANACO})の開発と{JGSS}-2003における適用\JBCQ\\newblock\Jem{日本版GeneralSocialSurveys研究論文集[4]JGSSで見た日本人の意識と行動〈JGSSResearchSeriesNo.1〉{\kern-0.5zw}},\mbox{\BPGS\225--242}.\end{thebibliography}\begin{biography}\bioauthor{高橋和子(正会員)}{東京女子大学文理学部数理学科卒.茨城大学人文学部社会科学科助手,千葉敬愛短期大学専任講師を経て1997年敬愛大学国際学部国際協力学科専任講師.1998年産能大学大学院経営情報学研究科修了.2007年東京工業大学大学院総合理工学研究科博士課程修了.2008年敬愛大学国際学部国際学科教授,現在に至る.修士(経営情報学).博士(工学).社会調査で収集されるテキスト型データの処理・分析方法に興味をもつ.日本オペレーションズ・リサーチ学会,数理社会学会,情報処理学会,言語処理学会,人工知能学会各会員.}\bioauthor{高村大也(正会員)}{1974年生.1997年東京大学工学部計数工学科卒.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学博士後期課程修了.同年東京工業大学精密工学研究所助手(現在,助教),現在に至る.博士(工学).自然言語処理,特に学習理論等の応用に興味を持つ.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{奥村学(正会員)}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキストマイニングに関する研究に従事.情報処理学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
V30N02-04
\section{はじめに} 文法誤り訂正とは,与えられた文章中の文法誤りを文法的に正しい表現に訂正するタスクである.主に語学学習者が書いた文章を対象とし,自然言語処理の教育応用における主要タスクのひとつとなっている.これまでルールに基づく手法\cite{schneider-mccoy-1998-recognizing-syntactic}や言語モデルに基づく手法\cite{gamon-etal-2008-using},分類器に基づく手法\cite{dahlmeier-ng-2011-grammatical}などが開発されてきた.近年では機械翻訳に基づく手法\cite{brockett-etal-2006-correcting}が盛んに研究されている\cite{chollampatt-ng-2018-multilayer,junczys-dowmunt-etal-2018-approaching,zhao-etal-2019-improving,lichtarge-etal-2019-corpora,kiyono-etal-2020-massive,kaneko-etal-2020-encoder,rothe-etal-2021-simple,yuan-etal-2021-multi,stahlberg-etal-2022-uncertainty,sun-wang-2022-adjusting}.分類器に基づく手法などが対象とする誤りを限定していたのに対し,機械翻訳に基づく手法は様々な誤りを訂正できるためモデルの性能は飛躍的に向上した.文法誤り訂正が発展する要因のひとつに一般利用可能な評価コーパスの存在がある.例えば英語文法誤り訂正では2012年頃まで各研究が独自の評価コーパスでモデルを評価していたため,異なる研究間でモデルの性能が比較しづらいという問題があった.しかしCoNLL-2013及びCoNLL-2014sharedtask\cite{ng-etal-2013-conll,ng-etal-2014-conll}で評価コーパスが一般公開されたことにより,各研究が同じ評価コーパスでモデルを評価するようになった.その結果,英語文法誤り訂正ではモデル間の性能差を比較しやすくなり迅速に研究を進めることが可能になった.現在ではCoNLL-2014sharedtask評価コーパスでモデルを評価することが一般的である.また英語文法誤り訂正では,単一の評価コーパスに過度に依存することの危険性が指摘されており\cite{mita-etal-2019-cross},様々な評価コーパスを用いた多面的な評価が進んでいる\cite{grundkiewicz-etal-2019-neural,kiyono-etal-2020-massive,kaneko-etal-2020-encoder,yasunaga-etal-2021-lm,lai-etal-2022-type}.具体的にはCoNLL-2014sharedtask評価コーパスに加え,FCE\cite{yannakoudakis-etal-2011-new}やJFLEG\cite{napoles-etal-2017-jfleg},W\&I+LOCNESS\cite{granger-1998-computerized,yannakoudakis-etal-2018-developing},GMEG\cite{napoles-etal-2019-enabling}といった評価コーパスが利用されている.一方日本語文法誤り訂正では利用可能な評価コーパスが限られており\cite{oyama-etal-2016-nihongo,kiyama-etal-2022-nihongo},研究間でのモデルの比較・多面的評価のためには評価コーパスをいま以上に増やす必要がある.そこで本研究では,日本語文法誤り訂正のための評価コーパスを構築し,一般利用可能な形で公開する.我々は文法誤り訂正において代表的な多言語学習者コーパスLang-8コーパス\cite{mizumoto-etal-2013-nihongo}の日本語学習者文を本評価コーパスの学習者文に利用する.また文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスとするため,本評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せる.具体的には(1)対象とする誤りの範囲を学習者コーパスNUCLE\cite{dahlmeier-etal-2013-building}に合わせ,(2)誤用タグを自動誤用タグ付けツールERRANT\cite{felice-etal-2016-automatic,bryant-etal-2017-automatic}の誤用タグを一部改変し設計する.(1)について,現在の文法誤り訂正では綴り誤りや語彙選択誤りといった狭義の文法誤り以外も訂正対象に含めることが一般的である.したがって本評価コーパスでも綴り誤りや語彙選択誤りも訂正対象に含める.(2)について,英語文法誤り訂正ではモデルの誤りタイプ別評価を$\mathrm{F_{0.5}}$で行うため,ERRANTが盛んに使用されている.本研究では日本語用の自動誤用タグ付けツール(日本語版ERRANT)を今後開発しやすくするため,ERRANTの誤用タグを一部改変し誤用タグを設計する.最後に作成した評価コーパス及び既存評価コーパスで6種類の代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてベースラインとなるスコアを報告する.本研究の主な貢献は以下の通りである.\begin{itemize}\item日本語文法誤り訂正のための誤用タグ付き評価コーパスを構築し公開した\footnote{TMUEvaluationCorpusforJapaneseLearners(TEC-JL).\url{https://github.com/koyama-aomi/TEC-JL}}.また誤用タグを利用し,日本語文法誤り訂正モデルの誤りタイプ別の性能を調査した.\item作成した評価コーパス及び既存評価コーパスで6種類の代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてベースラインとなるスコアを示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文法誤り訂正の評価コーパス}文法誤り訂正の代表的な自動評価手法は誤り文と比較し訂正文に施されている編集をモデルがどの程度再現できたかをスコアリングする\cite{dahlmeier-ng-2012-better,felice-briscoe-2015-towards,napoles-etal-2015-ground,bryant-etal-2017-automatic,gotou-etal-2020-taking}.そのため評価には誤り文とその訂正文を収録したコーパスが必要である.表~\ref{learner_corpora}に誤り文とその訂正文を収録した主な日本語学習者コーパスを示す.日本語文法誤り訂正では作文対訳データベース\cite{inoue-etal-2006-sakubun}やNAIST誤用コーパス\cite{oyama-etal-2016-nihongo}が評価コーパスに利用されている.作文対訳データベースは元々日本語教育での活用を目的に作成された学習者コーパスであり,NAIST誤用コーパスは作文対訳データベースに誤用タグを付与したコーパスである.我々の評価コーパスが文法誤り訂正モデルの評価を目的に一貫した訂正基準に基づき訂正を行っているのに対し,作文対訳データベースでは日本語教師が学習者の習熟度に応じて日本語教師個人の感覚と経験に基づき訂正を施している.また作文対訳データベースの手書き作文は仮名漢字変換システムを利用しておらず,Lang-8コーパスのキーボード入力とは学習者の犯す誤り傾向が異なる.さらにLang-8コーパスが多様なトピックの文章を含むのに対し\cite{mizumoto-etal-2013-nihongo},作文対訳データベースでは与えられた課題\footnote{``あなたの国の行事について''や``たばこについてのあなたの意見''など.}にトピックが限られる.加えてNAIST誤用コーパスの誤用タグが学習者の誤用分析や学習者へのフィードバックを目的に設計されている一方,本研究の誤用タグは今後日本語版ERRANTを開発しやすいように設計している.その他の日本語学習者コーパスには,なたね\footnote{\url{https://hinoki-project.org/natane}}や日本語学習者作文コーパス\footnote{\url{http://sakubun.jpn.org}},国際日本語学習者作文コーパス及び誤用辞典\footnote{\url{https://corpus.icjs.jp/corpus_ja}}が存在する.しかしなたねは言語資源協会の会員以外は有償であり\footnote{\url{https://www.gsk.or.jp/catalog/gsk2021-c}},日本語学習者作文コーパスと国際日本語学習者作文コーパス及び誤用辞典はテキストデータ全体が一般公開されていないためモデルの評価に利用しにくい.\mbox{また\citeA{mizumoto-etal-2013-nihongo}や}\citeA{liu-etal-2018-automatic-error}は独自に作成した評価コーパスを用いており,それら評価コーパスは非公開のため使用できない.我々は作成した評価コーパスを他の研究も利用可能な形で公開する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{03table01.tex}%\caption{主な日本語学習者コーパス.}\label{learner_corpora}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%近年日本語文法誤り訂正ではFLUTEC\cite{kiyama-etal-2022-nihongo}という評価コーパスが公開された.FLUTECは日本語文法誤り訂正モデルの流暢性評価\cite{sakaguchi-etal-2016-reassessing}を目的としており,Lang-8コーパスの日本語学習者文へ文法的に正しいだけでなく流暢になる訂正({\bf流暢な訂正}:Fluencyedits)を行っている.一方我々は流暢性よりも文法性評価を目的に文法的に正しくなる最小限の訂正({\bf最小限の訂正}:Minimaledits)を施した評価コーパスを作成する.表\ref{minimal_and_fluency_edits}に最小限の訂正と流暢な訂正の例を示す.最小限の訂正は本論文の訂正基準(\ref{correction_criteria}節参照)に基づき作成した訂正文であり,流暢な訂正はFLUTECに実際に収録されている訂正文である.表\ref{minimal_and_fluency_edits}より,最小限の訂正では``以外''を``意外''にのみ訂正しているのに対し,流暢な訂正では``たっぷりになってしまいました''を``予定がぎっしり詰まってしまいました''のように表現を大幅に変えて訂正していることが分かる.このように最小限の訂正では原文の表現を可能な限り尊重し誤りがある箇所のみを訂正するのに対し,流暢な訂正では流暢な文になるように原文の表現を大幅に変えて訂正する.文法誤り訂正モデルをどのような評価コーパスで評価すべきかは目的次第であり,流暢に訂正する必要がなく文法誤りへの訂正性能のみを測りたい場合などは最小限の訂正を施した評価コーパスが有用である.実際英語文法誤り訂正では,最小限の訂正を施したCoNLL-2014sharedtask評価コーパスと流暢な訂正を施したJFLEGが評価の目的に合わせ使用されている\cite{sakaguchi-etal-2017-grammatical,mita-etal-2020-self}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{03table02.tex}%\caption{最小限の訂正と流暢な訂正の例.}\label{minimal_and_fluency_edits}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%またロシア語や中国語などでも文法誤り訂正のための評価コーパスが開発されている.\citeA{trinh-rozovskaya-2021-new}はLang-8コーパス中の文章を再添削しロシア語文法誤り訂正の評価コーパスRU-Lang8を作成した.中国語文法誤り訂正でもLang-8コーパスを使用しMuCGEC\cite{zhang-etal-2022-mucgec}というコーパスが作成された.我々もLang-8コーパス中の文章を再添削し日本語文法誤り訂正の評価コーパスを作成する.近年文法誤り訂正では,英語だけでなくロシア語,ドイツ語,チェコ語など多言語にわたって実験を行う研究が増加している\cite{naplava-straka-2019-grammatical,grundkiewicz-junczys-dowmunt-2019-minimally,katsumata-komachi-2020-stronger,flachs-etal-2021-data,rothe-etal-2021-simple,straka-etal-2021-character,yamashita-etal-2022-gengo}.この背景にはロシア語\cite{rozovskaya-roth-2019-grammar}やドイツ語\cite{boyd-2018-using},チェコ語\cite{naplava-straka-2019-grammatical}でコーパスが整備されたことがある.したがって我々の評価コーパスの公開でも日本語文法誤り訂正の研究促進が期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文法誤り訂正モデル}機械翻訳に基づくモデルが台頭する以前は,訂正対象を限定した取り組みが主流であった.例えば英語では,訂正対象を前置詞誤りや冠詞誤りなどに限定した研究がある\cite{de-felice-pulman-2008-classifier,gamon-2010-using,rozovskaya-roth-2010-generating,rozovskaya-roth-2010-training,rozovskaya-roth-2011-algorithm,dahlmeier-ng-2011-grammatical,cahill-etal-2013-robust}.日本語では主に助詞誤りに訂正対象を限定していた\cite{imaeda-etal-2003-nihongo,suzuki-toutanova-2006-learning,nampo-etal-2007-bunsetsu,imamura-etal-2012-syokibo,kasahara-etal-2012-nihongo}.その後,大規模な学習者コーパスLang-8コーパスが公開されたことにより機械翻訳に基づくモデルが隆盛し,訂正対象を限定しない取り組みが主流になった.機械翻訳に基づくモデルには様々なアーキテクチャが使用され,英語文法誤り訂正ではSMT\cite{mizumoto-etal-2012-effect,junczys-dowmunt-grundkiewicz-2016-phrase},RNN\cite{yuan-briscoe-2016-grammatical,ji-etal-2017-nested},CNN\cite{chollampatt-ng-2018-multilayer,ge-etal-2018-reaching}を経て,現在Transformer\cite{vaswani-etal-2017-attention}が主に使用されている\cite{lichtarge-etal-2019-corpora,kaneko-etal-2020-encoder,mita-yanaka-2021-grammatical,stahlberg-etal-2022-uncertainty}.近年ではBART\cite{lewis-etal-2020-bart}やT5\cite{raffel-etal-2020-exploring}といった大規模事前学習済みモデルも利用されるようになった\cite{katsumata-komachi-2020-stronger,rothe-etal-2021-simple}.日本語文法誤り訂正では\citeA{mizumoto-etal-2013-nihongo}がLang-8コーパスを用いてSMTを訓練し訂正を行った.\citeA{liu-etal-2018-automatic-error}は訂正対象を機能表現に限定しているもののRNNを用いて訂正を行っている.\citeA{homma-komachi-2022-kosoku}は非自己回帰モデルであるLevenshtein\mbox{Transformer\cite{gu-etal-2019-levenshtein}}を使用し,高速な訂正機能を持ったライティング支援システムを構築した.\citeA{suzuki-etal-2022-construction}は日本語文法誤り訂正の品質推定データセットを作成する際,SMT,RNN,CNN,Transformerを利用した.我々は機械翻訳に基づくモデルを幅広く用意し,本研究で作成した評価コーパスでの性能を報告する.英語文法誤り訂正ではモデルごとに誤りタイプ別の性能が異なることが知られている.例えば\citeA{chollampatt-ng-2018-multilayer}はCNNに基づくモデルは局所的な誤りの訂正性能が高いと述べている.\citeA{mita-etal-2021-bunpou}はCoNLL-2014sharedtask評価コーパス上でTransformerの時制誤りの訂正性能がSMT,RNN,CNNよりも高いことを報告している.\mbox{\citeA{white-rozovskaya-2020-comparative}は}2つの擬似データ生成手法を比較し,擬似データごとのモデルの誤りタイプ別の性能を調査した.1つ目の手法ではスペルチェッカーを用いて構築した混同セットを利用し擬似データを生成する\cite{grundkiewicz-etal-2019-neural}.2つ目の手法では学習者コーパスから抽出した誤りパターン及び,動詞・名詞・前置詞の置換を利用し擬似データを生成する\cite{choe-etal-2019-neural}.実験の結果,前者では綴り誤りの訂正性能が高く,後者では名詞の単数・複数形の誤りと時制誤りの訂正性能が高いことが明らかになった.一方日本語文法誤り訂正では,モデルの誤りタイプ別の訂正性能が未だ明らかでない.そのため我々は作成した評価コーパスを用いて日本語文法誤り訂正モデルの誤りタイプ別の性能を調査する.英語文法誤り訂正では異なる訂正傾向を持つモデルを組み合わせ性能を向上させる研究もあり\cite{grundkiewicz-junczys-dowmunt-2018-near,kantor-etal-2019-learning,qorib-etal-2022-frustratingly},日本語文法誤り訂正でもモデルごとの訂正傾向を把握することがより高性能なモデルの構築に繋がると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価コーパスの構築} 本研究ではLang-8コーパスの一部から評価コーパスを構築する.Lang-8コーパスは文法誤り訂正モデルの訓練に使用されることが多い.しかし語学学習SNSLang-8\footnote{\url{https://lang-8.com}}から自動収集して作成されたコーパスのためノイズを多く含み,評価にはほとんど使用されていない.そこで本評価コーパスを作成し,Lang-8コーパスを評価にも使用可能にする.また文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスとするため,本評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せる.具体的には対象とする誤りの範囲を学習者コーパスNUCLEに合わせ,誤用タグを自動誤用タグ付けツールERRANTの誤用タグを一部改変し設計する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訂正文の作成}我々はLang-8コーパスの訂正文にノイズが多く含まれることやLang-8ではユーザごとに訂正基準が異なることを理由に,学習者文を再添削し新たな訂正文を作成する.Lang-8コーパスの訂正文には訂正者(Lang-8ユーザ)のコメントが付与されている場合や訂正者が学習者文中の誤りを全て訂正していない場合がある\cite{mizumoto-etal-2013-nihongo}.\citeA{mita-etal-2020-self}の実験ではLang-8コーパスの訂正文に含まれるノイズの定量化を試みている.具体的にはLang-8コーパスの訂正文からノイズを除去した訂正文を新たに作成し,元の訂正文とノイズ除去した訂正文の間の単語編集率でノイズ量を推定している.なお単語編集率は以下の式で定義される.\begin{equation}\label{word_edit_rate}単語編集率:=\frac{\sum_{i=1}^Nd(X_{i},Y_{i})}{\sum_{i=1}^N|X_{i}|}\times100\left(\%\right)\end{equation}ここで$N$はデータセット内の文対数であり,$X_{i}$と$Y_{i}$はそれぞれ編集前と編集後の文である.また$d(\cdot)$は編集距離\cite{levenshtein-1966-binary}を表し,$|X_{i}|$は$X_{i}$の単語数を表す.\mbox{\citeA{mita-etal-2020-self}の}実験では,$X_{i}$が元の訂正文に相当し,$Y_{i}$がノイズ除去後の訂正文に相当する.実験の結果,単語編集率は34.6\%となり,Lang-8コーパスの訂正文には無視できない量のノイズが含まれることが明らかになった.また\citeA{rothe-etal-2021-simple}は英語・ドイツ語・ロシア語でLang-8コーパスの訂正文を大規模多言語事前学習済みモデルmT5\cite{xue-etal-2021-mt5}の出力文に置き換え,ノイズの少ない訂正文を持ったCleanedLang-8Corpus(cLang-8)を作成し公開した\footnote{\url{https://github.com/google-research-datasets/clang8}}.さらにLang-8ではユーザが自由に学習者文を訂正しているため訂正基準が統一されておらず,モデルの文法性に絞った評価がしにくい.したがって本研究では一貫した訂正基準のもと訂正文を作成し,文法誤り訂正モデルの評価に使いやすくする.加えて本研究ではマルチリファレンス評価のため,1つの学習者文につき2つの訂正文を付与する.文法誤り訂正は1つの入力文に対し正解となる訂正文が必ずしも1つに定まらないタスクである\cite{bryant-ng-2015-far}.そのため文法誤り訂正では,複数の訂正文(参照文)を用いたマルチリファレンス評価を行い,モデルが参照文とは異なる正しい訂正を行った場合に過小評価される問題を軽減している.例えばCoNLL-2014sharedtask評価コーパスでは1つの学習者文につき2つの訂正文が付与されており,英語文法誤り訂正ではそれら2つの訂正文を用いてモデルを評価している.そこで本研究でも1つの学習者文につき2つの訂正文を付与しマルチリファレンス評価を可能にする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{作成手順}我々が訂正文を作成した際の具体的な手順は以下の通りである.\begin{enumerate}[手順1.]\itemLang-8コーパスから2,000文程度になるように日本語を学習言語とする文章を抽出する\footnote{ただし評価コーパス間で文章が重複するのを避けるためFLUTECで使用されている文章は含んでいない.}.\item\label{step2}抽出した文章の内,約1割を3人の日本語母語話者が訂正し,訂正基準を決定する.\item\label{step3}1つの文章につき2人の訂正者が訂正を行うように,3人の日本語母語話者に文章を割り振り,作成した訂正基準に従って訂正文を作成する.\item\label{step4}作成した訂正文を本論文の最終著者が確認し,不適切な箇所があれば各訂正者が再度訂正を行う.\end{enumerate}ここで手順\ref{step2}と手順\ref{step3}における訂正者は本論文の第1著者,第2著者,第3著者である.各訂正者は情報通信工学を専攻する20代の大学生であり日本語教育歴はない.手順\ref{step4}の終了後,文分割に失敗している箇所を人手で修正した\footnote{Lang-8では文章を自動で文分割しており,Lang-8コーパスはその分割をそのまま使用しているため文分割に失敗している箇所が存在する.}.また文法誤り訂正に無関係な記号のみの文や日本語以外の文などを取り除き,URLや顔文字は特殊トークンに置き換えた.結果,日本語学習者文が1,702文となり,1つの学習者文につき2つの訂正文が付与された評価コーパスを作成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{訂正基準}\label{correction_criteria}我々は基本的な訂正方針をNUCLEに合わせた.具体的には(1)文法的に正しくなる最小限の訂正を行うこと,(2)文章単位で訂正を行うことの2つを定めた.NUCLEの一部を使用したCoNLL-2014sharedtask評価コーパスは英語文法誤り訂正で最も代表的な評価コーパスである.NUCLEに仕様を合わせることで英語と同じような評価環境を整備することを狙った.\mbox{(1)に}ついて,最小限の訂正にはNUCLE同様,狭義の文法誤りだけでなく綴り誤りや語彙選択誤りも含める.訂正対象の範囲をNUCLEに合わせることで英語文法誤り訂正の知見を日本語文法誤り訂正に援用しやすくなる.またドイツ語\cite{boyd-2018-using}やロシア語\cite{rozovskaya-roth-2019-grammar},チェコ語\cite{naplava-etal-2022-czech}の文法誤り訂正評価コーパスでも狭義の文法誤り以外(綴り誤りや語彙選択誤りなど)を訂正対象に含めている.したがって文法誤り訂正分野全体として狭義の文法誤り以外も訂正対象とすることが一般的であるため,本研究でも綴り誤りや語彙選択誤りを訂正対象に含める.\mbox{(2)について,}学習者が書いた文章には時制誤りや接続詞誤りなど文間文脈に依存する誤りが存在する\cite{tajiri-etal-2012-tense,chollampatt-etal-2019-cross,yuan-bryant-2021-document}.文単位で訂正を行った場合,そのような文間文脈を必要とする誤りを捉えることが難しい.文章単位であれば前後の文を考慮し訂正できるため,文間文脈を必要とする誤りを捉えることができる.本研究では日本語の文章であることやLang-8コーパスを元データにしていることを考慮し,基本的な訂正方針に加え以下の訂正基準を定めた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文単位の訂正基準}\begin{enumerate}[L1.]\item翻字を行う際,単語が本来の発音のまま表記してあり,一般的な表記と異なる場合には一般的な表記に訂正する\footnote{一般的な表記は検索エンジンを用いて使用例を調査し,各訂正者が一般的な表記と判断した表記に訂正した.}.\item補助用言が漢字で書かれている場合には平仮名に訂正する.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文章単位の訂正基準}\begin{enumerate}[G1.]\item1つの文章内では,常体と敬体を揃えるように訂正する.\item助詞が脱落している場合,助詞がないと不自然である場合のみ訂正する.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{03table03.tex}%\caption{設定した訂正基準に基づく訂正例.}\label{example_criteria}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各訂正基準に基づく訂正例を表\ref{example_criteria}に示す.L1について,翻字とはある言語の単語を別言語の表記に移すことである.翻字では表\ref{example_criteria}の例のように原言語の発音が目的言語の表記に必ずしも反映されず,目的言語での表記に合わせて書く必要があるためL1を設定した.また翻字に関する訂正は作文対訳データベースやなたねでも行われており日本語教育にとって有用である.L2について,補助用言は単語本来の意味が失われており平仮名で書くことが一般的であるためL2を設定した.G1について,1つの文章内では常体と敬体を揃えることが一般的であるためG1を設定した\footnote{なおNAIST誤用コーパスでは``文体''の誤用タグを``文法的''の下位分類としており,文体に関する誤りを文法誤りに含めている.したがって本研究では文体に関する誤りも訂正対象とした.}.G2について,Lang-8コーパスでは学習者の日記がくだけた表現で書かれていることが多い.くだけた表現の場合,助詞が脱落しても不自然でない場合があることからG2を設定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誤用タグの付与}我々は日本語文法誤り訂正モデルをより詳細に分析するための誤用タグを設計し,本評価コーパスの各誤りに人手で付与する.我々は英語文法誤り訂正で代表的な自動誤用タグ付けツールERRANTの誤用タグを日本語用に一部改変し誤用タグを設計する.この理由はERRANTの誤用タグに基づき誤用タグを設計することで今後日本語版ERRANTを開発しやすくするためである.実際ドイツ語\cite{boyd-2018-using}やチェコ語\cite{naplava-etal-2022-czech}では,ERRANTの誤用タグを各言語用に一部改変しERRANTのコードを流用する形でドイツ語版ERRANT\footnote{\url{https://github.com/adrianeboyd/boyd-wnut2018}}やチェコ語版ERRANT\footnote{\url{https://github.com/ufal/errant_czech}}を開発している\footnote{日本語では英語・ドイツ語・チェコ語と異なり単語分割処理が必要になる.学習者文のように誤りを含む文を正しく分割することは難しく\cite{fujino-etal-2012-nihongo,tomo-komachi-2015-bubun},日本語版ERRANTの開発は英語・ドイツ語・チェコ語ほど単純ではない.そのため日本語版ERRANTの作成自体は今後の課題とする.}.またERRANTの誤用タグに基づくことで,日本語にあまり馴染みのない研究者が本評価コーパスを利用する場合でも誤用タグの意味を理解しやすくなると考えられる.さらに多言語にわたって文法誤り訂正の研究を行う場合,言語間で誤用タグの粒度がある程度揃っていた方がモデルの誤りタイプ別の分析をしやすくなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{03table04.tex}%\caption{本研究で設計した誤用タグの一覧.}\label{example_error_tag}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{誤用タグの設計}我々はERRANTの誤用タグを一部改変し誤用タグを設計した\footnote{なお誤用タグの設計は訂正文の作成後に行った.}.ERRANTではUniversalDependencies(UD)\cite{de-marneffe-etal-2021-universal}\footnote{UDは言語横断的に品詞や構文構造をアノテーションするための枠組みである\cite{nivre-etal-2016-universal,nivre-etal-2020-universal}.}の品詞を基に誤用タグを設計している.そのため本研究ではUD日本語コーパス\cite{asahara-etal-2019-universal}の品詞も参考にした.表\ref{example_error_tag}に本研究で設計した誤用タグの一覧を示す.1行目から10行目は語彙選択に関する誤用タグである.語彙選択の誤用タグはある品詞の単語が同じ品詞の別の単語に訂正された場合に付与される\footnote{助詞誤りについて,UD日本語コーパスでは助詞を格助詞,終助詞,接続助詞に区別しているが,本研究では誤用タグの体系を簡単化するため区別せず扱った.}.例えば\mbox{1行}目では,``大切な''という形容詞が``重大な''という別の形容詞に訂正されているため\texttt{ADJ}の誤用タグが付与される.ここで形容詞や動詞の選択誤りにはコロケーション誤りも含める.11行目から13行目は活用に関する誤用タグである.活用の誤用タグはある単語が別の活用形に訂正された場合に付与される.例えば11行目では,``寂しい''という形容詞が``寂しく''という連用形に訂正されているため\texttt{ADJ:INFL}の誤用タグが付与される.14行目の\texttt{SPELL}の誤用タグは誤字・脱字・衍字などの誤りが訂正された場合に付与される.また\texttt{SPELL}には翻字の誤りも含める.15行目の\texttt{VERB:TENSE}の誤用タグはテンスやアスペクトといった時間表現について訂正された場合に付与される.16行目の\texttt{WO}の誤用タグは隣り合う単語を入れ替えるような訂正がされた場合に付与される.17行目の\texttt{OTHER}の誤用タグは1行目から16行目の誤用タグの中に該当する誤用タグがなかった場合に付与される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{付与手順}我々が誤用タグを付与した際の具体的な手順は以下の通りである.\begin{enumerate}[手順1.]\item\label{step1_tag}原文(学習者文)と訂正文に自然言語処理ライブラリspaCy\cite{honnibal-montani-2017-spacy2}\footnote{\url{https://spacy.io}}を適用し,各文中の単語に基本形及び品詞の情報を付与する.\item\label{step2_tag}各文の基本形及び品詞の情報を基に表\ref{example_error_tag}の誤用タグを人手で付与する.\end{enumerate}手順\ref{step1_tag}ではERRANTに合わせspaCyを使用した.なおspaCyを使用する際のモデルには\texttt{ja\_core\_news\_trf}モデルを用いた.手順\ref{step2_tag}では誤り箇所及び訂正箇所の基本形や品詞の情報を確認しながら本論文の第一著者が人手で誤用タグを付与した.表\ref{example_annotations}に誤用タグの付与例を示す.表\ref{example_annotations}の左側は動詞の選択誤りの例であり,``飲み''を``食べ''に訂正している.各単語の基本形を見ると``飲む''と``食べる''という異なる基本形をしており,品詞を見るとVERBとなっているため動詞の選択誤りの誤用タグを付与する.表\ref{example_annotations}の右側の例は動詞の活用誤りの例であり,``見つかれ''を``見つから''に訂正している.各単語の基本形を見ると``見つかる''という同じ基本形をしており,品詞を見るとVERBとなっているため,動詞の活用誤りの誤用タグを付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{03table05.tex}%\caption{誤用タグの付与例.}\label{example_annotations}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{03table06.tex}%\caption{各コーパスの統計量.}\label{corpus_statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパス分析}表\ref{corpus_statistics}に本研究の評価コーパス,FLUTEC,NAIST誤用コーパスの統計量を示す.ここで学習者文の平均文長や単語編集率(式(\ref{word_edit_rate})参照)を計算する際は各コーパスを\mbox{MeCab\cite{kudo-etal-2004-applying}}で単語分割した.MeCabの辞書には現代話し言葉UniDic\cite{oka-2019-gengo}を用いた.表\ref{corpus_statistics}より,学習者文の平均文長を比較すると,コーパス間の差は最大で3.9語であり文長に大きな差はない.一方単語編集率と無編集の文対の割合では,本研究の評価コーパスとそれ以外のコーパスで大きな差が見られる.本研究の評価コーパスは他のコーパスよりも単語編集率は低く,無編集の文対の割合は高くなっている.これは文法的に正しくなる最小限の訂正を行ったことに起因する.一方FLUTECの単語編集率が最も大きい理由は文法的に正しいだけでなく流暢になる訂正を行っているためである.またNAIST誤用コーパスでは日本語教師が学習者の習熟度に応じた訂正を行っており,例えば日本語上級者の文には流暢になるような訂正も施していることから単語編集率が高くなったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia3f1.pdf}\end{center}\caption{各コーパス中の誤りタイプの割合.}\label{error_type_ratio}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{03table07.tex}%\caption{綴り誤りの例.}\label{typo_error}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{error_type_ratio}に本研究で作成した評価コーパスとNAIST誤用コーパス中の各誤りタイプの割合を示す\footnote{NAIST誤用コーパスは\citeA{oyama-etal-2016-nihongo}が実験で用いた誤りタイプのみを記載した.}.本研究の評価コーパスとNAIST誤用コーパスでは誤りタイプの粒度が異なるため厳密な比較は困難であることに注意する必要がある.比較の結果,どちらも助詞誤りの割合が最も大きいことから,日本語学習者にとって助詞を使いこなすことは難しいと分かる.また本評価コーパス中の綴り誤り(NAIST誤用コーパスでの表記誤りに相当)の割合がNAIST誤用コーパスと同様に比較的高い.綴り誤りには翻字の誤りや仮名漢字変換システムに起因する誤りが見られた.表\ref{typo_error}に翻字の誤りと仮名漢字変換システムに起因する誤りの例を示す.翻字の誤りでは,学習者が``シェルロク・ホールムス''と書いたのを``シャーロック・ホームズ''に訂正している.翻字は目的言語での表記をあらかじめ知っておかないと正しく表記することが難しく,学習者にとって間違いやすい誤りである.仮名漢字変換システムに起因する誤りでは,学習者が``張る''と誤入力したのを``春''に訂正している.NAIST誤用コーパスは手書き作文をもとにしているため誤入力は起きず,このような誤入力はLang-8コーパスを基にしている本評価コーパス特有の誤りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{一致率}我々は訂正者間の一致率を調べるため,$\kappa$係数\cite{cohen-1960-coefficient}を計算した.一致率は誤り検出の一致率と誤り訂正の一致率の2つを求めた.誤り検出の一致率は両方の訂正者が何らかの訂正を行った箇所の一致率である.誤り訂正の一致率は両方の訂正者が同じ訂正を行った箇所の一致率である.$\kappa$係数の計算は\citeA{dahlmeier-etal-2013-building}に従った.表\ref{corpus_agreement}の左側にそれぞれの訂正者間の一致率を示す.表\ref{corpus_agreement}より,誤り検出の一致率は\citeA{landis-koch-1977-measurement}の基準におけるsubstantialagreement(かなりの一致)に該当し,誤り訂正の一致率はmoderate\mbox{agreement(適度な一致)}に該当する.したがって訂正者間で誤りの検出や訂正は概ね一致していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{03table08.tex}%\caption{訂正者間の一致率.}\label{corpus_agreement}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%別の観点からも訂正者間の一致率を測る.具体的には片方の訂正文を文法誤り訂正モデルの出力とみなし,もう片方の訂正文のみを正解として評価した時のスコアを求める.表\ref{corpus_agreement}の右側にそれぞれの訂正文のスコアを示す.スコアは$\mathrm{M^2}$scorer\cite{dahlmeier-ng-2012-better}で測定したPrecision,Recall,$\mathrm{F_{0.5}}$を用いた.表\ref{corpus_agreement}より,どちらの場合もRecallは約62\%である.言い換えると,例えば訂正文2を正解とした場合,訂正文2が訂正した箇所のうち訂正文1も同じ訂正をした箇所が約62\%である.したがって約62\%の訂正が訂正者間で一致していることが分かる.また$\mathrm{F_{0.5}}$はどちらも約64\%であり,このスコアが文法誤り訂正モデルのある種の性能限界であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本評価コーパスのリミテーション}我々は文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスを作成するためERRANTの誤用タグを一部改変し本誤用タグを設計した.したがって第二言語習得分野での誤用タグと大きく異なる部分が生じており,第二言語習得分野の研究者にとっては使いにくい誤用タグである可能性がある.例えば本誤用タグはERRANTと同様フラットな構造をしているが,第二言語習得分野での誤用タグは階層的な構造をとる\cite{dagneaux-etal-1998}.またNAIST誤用コーパスやなたねが細かく誤用タグを設計しているのに対し\footnote{NAIST誤用コーパスでは76種類,なたねでは77種類の誤用タグを設計している.},本誤用タグはERRANTの誤用タグを基に設計したため17種類と比較的粗い\footnote{ERRANTでは25種類の誤用タグを設計している.ERRANTはルールに基づき誤用タグを付与するため誤用タグがルールで記述可能な範囲に限られる.また誤用タグを細かくすると記述するルールの数が膨大になり開発コストが大幅に増加する.そのためERRANTでは開発コストと折り合いをつけ誤用タグの種類を抑えている.}.この理由は今後日本語版ERRANTを開発しやすくするためであるが,第二言語習得分野での利用(学習者の誤用分析や学習者へのフィードバックなど)まで考慮すると誤用タグは細かく設計される方が望ましい.本誤用タグをより細かくする場合,語彙選択誤りとコロケーション誤りを区別することなどが挙げられる.実際NAIST誤用コーパスやなたねでは,語彙選択誤りとコロケーション誤りを区別しており,第二言語習得分野で利用する場合それらは区別された方が有用である.一方日本語版ERRANTの作成では,語彙選択誤りとコロケーション誤りをどのように自動で区別するかが問題となる.語彙選択誤りとコロケーション誤りを区別するには,コロケーションに関する外部知識の利用\cite{pereira-etal-2016-leveraging}や機械学習による誤用タグの付与\cite{swanson-yamangil-2012-correction,oyama-etal-2016-nihongo}などを行う必要があると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} 本節では作成した評価コーパスで代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてベースラインとなるスコアを示す.また我々の評価コーパスに加え,FLUTECやNAIST誤用コーパスも利用しモデルを多面的に評価した結果を報告する.さらに本評価コーパスの誤用タグを利用しモデルごとの誤りタイプ別の性能も調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{experimental_settings}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データセット}表\ref{gec_dataset_table}に本実験で使用したデータセットを示す.訓練データにはLang-8コーパス\cite{mizumoto-etal-2013-nihongo}を用いた.ただしTEC-JL(本研究の評価コーパス)とFLUTECに使用されている文章は取り除いた.また\citeA{mizumoto-etal-2013-nihongo}と同様に,訓練データには文長制限などを施し,訓練時にノイズとなる文対を除去した\footnote{前処理に使用したスクリプトはGitHubで公開する.}.開発データにはFLUTECの開発データを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{03table09.tex}%\caption{実験で使用したデータセットの詳細.}\label{gec_dataset_table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{性能評価}評価データにはTEC-JLに加え,\pagebreakFLUTEC\cite{kiyama-etal-2022-nihongo}とNAIST誤用コーパス\cite{oyama-etal-2016-nihongo}を使用した.TEC-JLとNAIST誤用コーパスはMaxMatch($\mathrm{M^2}$)\cite{dahlmeier-ng-2012-better}で評価し,FLUTECは\mbox{$\mathrm{GLEU^+}$\cite{napoles-etal-2015-ground,napoles-etal-2016-gleu}}で評価した\footnote{英語文法誤り訂正では慣習的に,最小限の訂正を施したCoNLL-2014sharedtask評価コーパスは$\mathrm{M^2}$で評価し,流暢な訂正を施したJFLEGは$\mathrm{GLEU^+}$で評価していることを考慮した.}.また単語分割誤りが評価結果に影響を与えないようにするため文字単位で評価した.報告する全ての値は4つの異なるシードで訓練されたモデルのスコアの平均である.各評価尺度の詳細は以下の通りである.\begin{description}\item[$\mathrm{M^2}$\cite{dahlmeier-ng-2012-better}]$\mathrm{M^2}$は文法誤り訂正において最も一般的な評価尺度である.$\mathrm{M^2}$ではモデルの出力文が行った編集を参照文の編集となるべく多く一致するように計算し,Precision,Recall,$\mathrm{F_{0.5}}$を求める.文法誤り訂正ではCoNLL-2014sharedtask以降,$\mathrm{F_{1}}$ではなくPrecisionを重視した$\mathrm{F_{0.5}}$を使用することが一般的である\footnote{\citeA{ng-etal-2014-conll}は$\mathrm{F_{0.5}}$を採用した理由に,文法誤り訂正モデルの訂正をユーザに受け入れてもらいやすくするには誤った訂正が少ないことが重要であるためと述べている.また英語\cite{grundkiewicz-etal-2015-human}やチェコ語\cite{naplava-etal-2022-czech}文法誤り訂正では,$\mathrm{F_{1}}$よりも$\mathrm{F_{0.5}}$の方が人手評価との相関が高いことが示されている.さらに文法誤り検出ではRecallよりもPrecision重視のモデルの方が学習効果を高めることが知られている\cite{nagata-nakatani-2010-evaluating}.}.本研究では$\mathrm{M^2}$の計算に$\mathrm{M^2}$scorerを使用した\footnote{\url{https://github.com/nusnlp/m2scorer}}.\item[$\mathrm{GLEU^+}$\cite{napoles-etal-2015-ground,napoles-etal-2016-gleu}]$\mathrm{GLEU^+}$は機械翻訳モデルの評価尺度BLEU\cite{papineni-etal-2002-bleu}を文法誤り訂正用に改良した評価尺度である.BLEUがモデルの出力文と参照文のN-gramのみを使用するのに対し,$\mathrm{GLEU^+}$では原文のN-gramも使用しスコアリングする.本研究では$\mathrm{GLEU^+}$の計算に\citeA{napoles-etal-2016-gleu}が公開しているスクリプトを使用した\footnote{\url{https://github.com/cnap/gec-ranking}}.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{文法誤り訂正モデル}幅広いモデルの性能を調査するため,\pagebreak文法誤り訂正モデルにはSMT\cite{koehn-etal-2003-statistical}及びRNN\cite{luong-etal-2015-effective},CNN\cite{gehring-etal-2017-convolutional},Transformer\cite{vaswani-etal-2017-attention}を用いる.また上記のモデルに加え,事前学習済みモデルBART\cite{lewis-etal-2020-bart}とT5\cite{raffel-etal-2020-exploring}も使用する.実装にはSMTではMoses\cite{koehn-etal-2007-moses}\footnote{\url{https://github.com/moses-smt/mosesdecoder}}を用いた.またRNN,CNN,Transformer,BARTではfairseq\cite{ott-etal-2019-fairseq}\footnote{\url{https://github.com/facebookresearch/fairseq}}を使用し,T5ではTransformers\cite{wolf-etal-2020-transformers}\footnote{\url{https://github.com/huggingface/transformers}}を使用した.なお\citeA{mizumoto-2020-nihongo}の実験結果に基づき,SMT,RNN,CNN,Transformerの訓練には,学習者文は文字に分割し訂正文は語彙サイズ16,000で1-gram言語モデルに基づくトークン化\cite{kudo-2018-subword}を施したデータを使用した.またBARTとT5では事前学習時の分割に従った.具体的にはBARTではJuman++\cite{morita-etal-2015-morphological}で単語分割したのち語彙サイズ32,000で1-gram言語モデルに基づくトークン化を施し,T5では語彙サイズ32,000で1-gram言語モデルに基づくトークン化を施した.1-gram言語モデルに基づくトークン化を行う際の実装にはSentencePiece\cite{kudo-richardson-2018-sentencepiece}\footnote{\url{https://github.com/google/sentencepiece}}を使用した.各モデルの設定は以下の通りである.\begin{description}\item[SMT\cite{koehn-etal-2003-statistical}]GIZA++\cite{och-ney-2003-systematic}をアライメントツールに使用し,KenLM\cite{heafield-2011-kenlm}を用いて3-gram言語モデルを構築した.言語モデルの訓練には訓練データ中の訂正文を使用した.また開発データを用いてBLEUを最大化するようにMERT\cite{och-2003-minimum}を行った.\item[RNN\cite{luong-etal-2015-effective}]アーキテクチャは\citeA{luong-etal-2015-effective}のモデルをベースにした6層のエンコーダ・デコーダモデルである.エンコーダとデコーダの単語埋め込みは512次元である.訓練時の最適化方法や推論時の設定は\citeA{kiyono-etal-2020-massive}に従った.\item[CNN\cite{gehring-etal-2017-convolutional}]アーキテクチャは\citeA{gehring-etal-2017-convolutional}のモデルをベースにした6層のエンコーダ・デコーダモデルである.エンコーダとデコーダの単語埋め込みは512次元である.またカーネルサイズは3である.訓練時の最適化方法や推論時の設定は\citeA{kiyono-etal-2020-massive}に従った.\item[Transformer\cite{vaswani-etal-2017-attention}]アーキテクチャは\citeA{vaswani-etal-2017-attention}の``Transformer(base)''と同様である.具体的には6層のエンコーダ・デコーダモデルであり,エンコーダとデコーダの単語埋め込みは512次元である.訓練時の最適化方法や推論時の設定は\citeA{kiyono-etal-2020-massive}に従った.\item[BART\cite{lewis-etal-2020-bart}]BARTはTransformerに基づくエンコーダ・デコーダ型の事前学習済みモデルである.本研究では\citeA{tanaka-etal-2021-nihongo}が公開している日本語BARTを使用した\footnote{\url{https://github.com/utanaka2000/fairseq/tree/japanese_bart_pretrained_model}}.\citeA{tanaka-etal-2021-nihongo}のモデルでは,テキスト内の0個以上のトークンを1個の\texttt{[MASK]}トークンに置き換え,元のテキストを予測するtextinfillingタスクを事前学習に行っている(表\ref{example_bart_t5}参照).事前学習用のデータには日本語Wikipediaから抽出した1,800万文を使用している.エンコーダとデコーダはそれぞれ6層であり,単語埋め込みは768次元である.訓練時の最適化方法や推論時の設定は付録\ref{bart_t5_setting}に記載する.\item[T5\cite{raffel-etal-2020-exploring}]T5はTransformerに基づくエンコーダ・デコーダ型の事前学習済みモデルである.本研究ではMegagonLabs\footnote{\url{https://megagon.ai}}が公開している日本語T5を使用した\footnote{\url{https://github.com/megagonlabs/t5-japanese}}.T5ではテキスト内の一部トークンをそれぞれ別の特殊トークンに置き換え,置き換え元のトークンのみを予測するように事前学習を行っている(表\ref{example_bart_t5}参照).事前学習用のデータにはmC4\cite{raffel-etal-2020-exploring}とWiki-40B\cite{guo-etal-2020-wiki}の日本語部分からそれぞれ782GBと2GBのテキストを使用している.エンコーダとデコーダはそれぞれ12層であり,単語埋め込みは768次元である.訓練時の最適化方法や推論時の設定は付録\ref{bart_t5_setting}に記載する.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{03table10.tex}%\caption{BART及びT5での事前学習の例.\texttt{[MASK]}及び\texttt{<X>},\texttt{<Y>},\texttt{<Z>}は特殊トークンである.}\label{example_bart_t5}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{tb:over_all_score_no_pseudo_data}に各文法誤り訂正モデルの性能を示す.訂正なしは入力文をモデル出力とみなし評価した時のスコアである.表\ref{tb:over_all_score_no_pseudo_data}より,CNNはPrecisionが高く,不必要な訂正が他のモデルよりも少ないことが分かる.その結果,最小限の訂正を施したTEC-JLでは,事前学習済みモデルであるT5を除いてCNNの$\mathrm{F_{0.5}}$が最も高くなっている.一方Transformerに加え,Transformerに基づくモデルであるBARTやT5はRecallが高いことが分かる.また流暢な訂正を施したFLUTECではTransformerやBART,T5の方が他のモデルよりも$\mathrm{GLEU^+}$スコアが高い.したがってTransformerを含めTransformerに基づくモデルは流暢な訂正を行っていると考えられる.我々はTransformerが流暢な訂正を行っていることを検証するため,各モデルの流暢性を調査した.流暢性は入力文と出力文のパープレキシティ比(PPLR)で測定した.具体的にはPPLRは以下の式で定義される.\pagebreak\begin{equation}PPLR:=\frac{PPL_{output}}{PPL_{input}}\end{equation}ここで$PPL_{input}$及び$PPL_{output}$はそれぞれ入力文と出力文のパープレキシティである.PPLRは$0$以上の値をとり,値が低いほど流暢性が高い,つまり流暢な訂正を行ったと考えられる.本実験ではパープレキシティの測定にGPT\cite{radford-etal-2018-improving}を使用した\footnote{\url{https://huggingface.co/rinna/japanese-gpt-1b}}.また文法誤り訂正では入力文の意味を保存しつつ訂正する必要がある\cite{asano-etal-2018-bumposei}.そのため入力文と出力文の間で意味が保存されているか(意味保存性)を,入力文と出力文の文ベクトルのcos類似度を用いて測定する.cos類似度は$-1$以上$1$以下の値を取り,$1$に近いほど入力文と出力文の間で意味が保存されていると考えられる.本実験では入力文と出力文の文ベクトルの取得にSentence-BERT\cite{reimers-gurevych-2019-sentence}を利用した\footnote{\url{https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens-v2}}.図\ref{pplr_cos_sim}にTEC-JLにおける各モデルのPPLR及びcos類似度を示す\footnote{外れ値の影響を軽減するため5\%トリム平均を用いた.}.図\ref{pplr_cos_sim}より,流暢性はCNNよりもTransformerの方が高いことが分かる.一方意味保存性はTransformerよりもCNNの方が高い.したがってTransformerは意味保存性を犠牲にし,CNNよりも流暢性の高い訂正を行っている\footnote{なおハイパーパラメータ次第ではTransformerでも意味保存性を重視した訂正を行う可能性はあり,今後\citeA{kiyono-etal-2020-massive}の設定以外でも検証する必要がある.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{03table11.tex}%\caption{各文法誤り訂正モデルの性能.}\label{tb:over_all_score_no_pseudo_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に各モデルの誤りタイプ別の性能を表\ref{recall_score}に示す.誤りタイプはTEC-JL中の割合が$5\%$以上の誤りタイプのみを記載した.また誤りタイプ別の性能にはRecallを用いた\footnote{誤りタイプ別の性能を$\mathrm{F_{0.5}}$で評価するにはモデル出力に誤用タグを付与し,誤りタイプ別のPrecisionを求める必要がある.英語文法誤り訂正ではERRANTで誤用タグを自動推定し,誤りタイプ別のPrecisionを求めることが可能である.しかし日本語では公開された自動誤用タグ付けツールがないためRecallで評価した.}.表\ref{recall_score}より,各モデルは綴り誤りの性能が高いことが分かる.また助詞誤りの性能も高く,BARTでは$60\%$近くの助詞誤りを訂正できている.したがって綴り誤りや助詞誤りは日本語文法誤り訂正モデルにとって比較的訂正しやすい誤りタイプである.綴り誤りや助詞誤りが訂正しやすい理由には様々な要素があると思われるが,例えば学習者が犯しやすい誤りのため訓練データに同様の誤りが多く存在することなどが考えられる.一方名詞誤りは各モデルの訂正性能が比較的低く,SMTやRNN,CNNでは$10\%$以下であり,TransformerやBART,T5でも$20\%$から$30\%$程度である.名詞誤りは文脈を考慮して訂正する必要がある場合が多いため,誤りタイプの中でも訂正性能が低くなったと考えられる.英語文法誤り訂正でも名詞誤りの訂正性能は低く\cite{bryant-etal-2019-bea},名詞誤りの訂正性能向上は日本語と英語で共通の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-2ia3f2.pdf}\end{center}\caption{TEC-JLにおける各モデルのPPLR及びcos類似度.}\label{pplr_cos_sim}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{03table12.tex}%\caption{TEC-JLにおける各モデルの誤りタイプ別のRecall(\%).}\label{recall_score}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{擬似データによる性能向上} 本節では日本語文法誤り訂正モデルの訓練に\pagebreak擬似データを使用した場合の性能変化を調査する.現在文法誤り訂正で主流のエンコーダ・デコーダモデル\cite{sutskever-etal-2014-sequence,bahdanau-etal-2015-neural}は大量の訓練データを必要とする\cite{koehn-knowles-2017-six}.しかし文法誤り訂正に利用可能な学習者データは限られており,英語文法誤り訂正では擬似データを利用したエンコーダ・デコーダモデルの性能向上が一般化している\cite{xie-etal-2018-noising,ge-etal-2018-fluency,zhao-etal-2019-improving,grundkiewicz-etal-2019-neural,lichtarge-etal-2019-corpora,lichtarge-etal-2020-data,kiyono-etal-2020-massive,wang-zheng-2020-improving,zhou-etal-2020-improving-grammatical,wan-etal-2020-improving,stahlberg-kumar-2021-synthetic,yasunaga-etal-2021-lm,li-he-2021-data,koyama-etal-2022-tayo}.一方日本語文法誤り訂正では,擬似データがエンコーダ・デコーダモデルの性能に与える影響があまり明らかになっていない.そこで本節では,既存の擬似データ生成手法を適用し,日本語文法誤り訂正に擬似データを用いた場合のモデルの性能変化を観察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}エンコーダ・デコーダモデルにはRNN,CNN,Transformerを使用する.各モデルのアーキテクチャや評価方法は\ref{experimental_settings}節と同様である.擬似データ生成時の生成元コーパスにはWiki-40Bの日本語Wikipedia部分から抽出した1,000万文を用いた.\citeA{kiyono-etal-2020-massive}に従い,擬似データは事前学習で使用し,学習者データはファインチューニングにのみ用いた.また事前学習及びファインチューニング時の設定は\citeA{kiyono-etal-2020-massive}に従った.使用する擬似データ生成手法は以下の通りである.\begin{description}\item[Directnoise\cite{zhao-etal-2019-improving}]原文に4つの編集操作(削除,挿入,置換,シャッフル)を行う.具体的には原文をトークンに区切り,次の操作を確率的に適用する.$(\mathrm{i})$削除:10\%の確率でトークンを削除する.$(\mathrm{ii})$挿入:10\%の確率でトークンの後ろに生成元コーパス中のトークンを挿入する.$(\mathrm{iii})$置換:10\%の確率でトークンを生成元コーパス中のトークンに置き換える.$(\mathrm{iv})$シャッフル:各トークンの位置番号に対し正規分布から抽出した値を加え,昇順に整列する.本実験では\citeA{zhao-etal-2019-improving}が公開しているスクリプトを使用した\footnote{\url{https://github.com/yuantiku/fairseq-gec}}.\item[Directnoise(ja)\cite{ogawa-yamamoto-2020-nihongo}]Directnoiseが非現実的な誤りを多く生成する点を改良し,Directnoiseに日本語学習者特有の誤り傾向を反映させる.具体的には原文をトークンに区切り,次の操作を確率的に適用する.$(\mathrm{i})$削除:助詞を10\%,助詞以外を5\%の確率で削除する.また送り仮名がある単語では50\%の確率で送り仮名の1文字目を削除する.$(\mathrm{ii})$挿入:5\%の確率で後ろにトークンを挿入する.挿入するトークンは70\%の確率で助詞セットから,30\%の確率で生成元コーパスから選択する.$(\mathrm{iii})$置換:助詞を10\%,助詞以外を5\%の確率で置換する.置換するトークンは70\%の確率で助詞セットから,30\%の確率で生成元コーパスから選択する.$(\mathrm{iv})$シャッフル:Directnoiseのシャッフル操作を文節単位で行う.本実験では\citeA{ogawa-yamamoto-2020-nihongo}が公開しているスクリプトを使用した\footnote{\url{https://github.com/youichiro/transformer-copy}}.\item[Back-translation\cite{xie-etal-2018-noising}]逆翻訳モデル\cite{sennrich-etal-2016-improving}を用いて原文に誤りを生成させる.逆翻訳モデルとは入力と出力を入れ替えて訓練したモデルである.文法誤り訂正の場合,訂正文を入力とし学習者文を出力として訓練したモデルになる.\citeA{xie-etal-2018-noising}はビームサーチ時,毎ステップの各仮説のスコアに$r\beta_{\mathrm{random}}$をノイズとして加え,より多様な誤りを含むように改良した.ここで,$r$は区間$[0,1]$の一様分布からランダムに選択される値であり,$\beta_{\mathrm{random}}$はノイズの大きさを調節するためのハイパーパラメータである.本実験ではTransformerを逆翻訳モデルに用い,事前実験において開発データ上で最大の$\mathrm{GLEU^+}$スコアとなった時の値である$\beta_{\mathrm{random}}=8$を使用した.\item[Round-triptranslation\cite{lichtarge-etal-2019-corpora}]原文を他言語へ翻訳し,その翻訳文を原言語に翻訳し直す.本実験では日本語の原文を英語に翻訳し,生成された英語を日本語へ再度翻訳した.日英翻訳モデル及び英日翻訳モデルには,\citeA{morishita-etal-2022-jparacrawl}のJParaCrawl\cite{morishita-etal-2020-jparacrawl,morishita-etal-2022-jparacrawl}で訓練された``Transformer(big)''\cite{vaswani-etal-2017-attention}を使用した\footnote{\url{https://www.kecl.ntt.co.jp/icl/lirg/jparacrawl}}.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{tb:over_all_score_pseudo_data}に擬似データを使用した場合の各文法誤り訂正モデルの性能を示す.表\ref{tb:over_all_score_pseudo_data}より,擬似データを使用することで各モデルの性能が向上したことが分かる.TEC-JLではCNNにBack-translationで生成した擬似データを用いた場合に$\mathrm{F_{0.5}}$が最も高くなった.FLUTECとNAIST誤用コーパスではTransformerにBack-translationを使用した場合にそれぞれ$\mathrm{GLEU^+}$スコアと$\mathrm{F_{0.5}}$が最も高くなった.全体的な傾向としてはDirectnoiseとDirectnoise(ja)よりもBack-translationやRound-triptranslationを用いた方がモデルの性能が向上している.この理由にはBack-translationやRound-triptranslationの方がより多様な誤りを生成できることが考えられる.DirectnoiseとDirectnoise(ja)を比較すると,DirectnoiseよりもDirect\mbox{noise(ja)}を使用した場合の方がRecallが向上することが分かる.Directnoise(ja)は学習者の犯しやすい現実的な誤りを発生できるため,Directnoiseよりも学習者文中の誤りを捉えやすくなったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{03table13.tex}%\caption{擬似データを用いた場合の各文法誤り訂正モデルの性能.\textbf{太字}は各モデルでの最高性能を表す.}\label{tb:over_all_score_pseudo_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{error_type_with_pseudo_data}に擬似データで事前学習した場合の各文法誤り訂正モデルの誤りタイプ別の性能を示す.ここで事前学習なしは擬似データを用いず学習者データのみで訓練したモデルの性能を表す.図\ref{error_type_with_pseudo_data}より,全ての擬似データ生成手法で助詞誤りの訂正性能が事前学習なしの場合のよりも向上していることが分かる.助詞誤りは学習者が犯しやすい誤りタイプであるため\cite{oyama-etal-2016-nihongo},全ての擬似データ生成手法で性能が向上したことは好ましい結果である.またRNNではDirectnoise(ja)を使用した場合に,句読点誤りの訂正性能が他の手法よりも向上している.TransformerではBack-translationを使用した場合に,綴り誤りの訂正性能が他の手法よりも向上した.一方CNNでは,綴り誤りの訂正性能がBack-translationを使用しても向上しておらず,Round-triptranslationの場合のみ向上している.また動詞の活用誤りの訂正性能に関して,CNNでは全ての擬似データ生成手法で性能が向上しているが,RNNやTransformerでは性能を低下させる擬似データ生成手法がある.したがってどのような擬似データ生成手法が有効かはモデルのアーキテクチャに依存することが示唆され,今後より詳細な分析が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\begin{center}\includegraphics{30-2ia3f3.pdf}\end{center}\caption{擬似データを利用した場合の各文法誤り訂正モデルのRecall(\%).}\label{error_type_with_pseudo_data}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-2ia3f4.pdf}\end{center}\caption{TEC-JLにおける擬似データ量を変化させた時の$\mathrm{F_{0.5}}$.}\label{f0.5_score}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{03table14.tex}%\hangcaption{TEC-JLにおける擬似データ量(文対数)を変化させた時の誤りタイプ別のRecall(\%).Δは擬似データなしの性能からの各擬似データ量での差分を表す.}\label{error_type_with_each_data_size}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{擬似データ量が性能に与える影響}擬似データ量が訂正性能に与える影響をより詳細に調べるため,擬似データ量を変化させた時のモデルの性能を調査した.具体的には擬似データ量を1M,3M,5M,7M,10Mと変化させた時の性能を調査した.図\ref{f0.5_score}にTEC-JLにおける擬似データ量を変化させた時の$\mathrm{F_{0.5}}$を示す.本実験では,表\ref{tb:over_all_score_pseudo_data}でTEC-JLにおいて最高性能であるCNNを文法誤り訂正モデルに使用し,Back-translationによる擬似データを用いた.図\ref{f0.5_score}より,擬似データ量の増加とともにモデルの性能は向上することが分かる.これは英語文法誤り訂正での\citeA{kiyono-etal-2020-massive}や\mbox{\citeA{wan-etal-2020-improving}}の報告と整合性のある結果である.次に誤りタイプ別の性能はどのように変化するかを調べる.表\ref{error_type_with_each_data_size}に擬似データ量を変化させた時の誤りタイプ別のRecallを示す.\mbox{表\ref{error_type_with_each_data_size}}より,ほとんどの場合,擬似データなしの時に比べ擬似データを使用した時の方が誤りタイプ別の性能も向上することが分かる.また助詞誤りや助動詞の選択誤りなどは擬似データ量が1Mの時と比べ10MではRecallが2\%程度上昇している.一方綴り誤りでは擬似データなしの時よりも10Mの時の方が性能が下がっている.また句読点誤りの性能は擬似データ量が1Mと10Mの時でほとんど変わっていない.この理由にはBack-translationでは綴り誤りや句読点誤りを上手く生成できていないことが考えられ,擬似データにより性能が向上しやすい誤りタイプとそうでない誤りタイプが存在することが分かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では日本語文法誤り訂正のための誤用タグ付き評価コーパスを構築した.学習者文にはLang-8コーパスの日本語学習者文を利用し,一貫した訂正基準に基づき訂正を施した.また文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスとするため,評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せた.本評価コーパスが日本語文法誤り訂正の研究促進に寄与することを期待する.実験では6種類の代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてベースラインとなるスコアを示した.今後の課題としては日本語版ERRANTの開発が挙げられる.本実験では誤りタイプ別の性能評価にRecallを用いたが,モデルをより精緻に評価するにはPrecisionも考慮した$\mathrm{F_{0.5}}$で評価することが望ましい.誤りタイプ別の$\mathrm{F_{0.5}}$を求めるには,モデル出力に誤用タグを付与し,誤りタイプ別のPrecisionを求める必要がある.しかし日本語ではERRANTのような自動誤用タグ付けツールが存在せず,人手での誤用タグ付けはコストが高い.したがって日本語版ERRANTを開発し,モデルの誤りタイプ別の性能を$\mathrm{F_{0.5}}$で評価可能にする必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentLang-8のデータを提供してくださった株式会社Lang-8の喜洋洋氏に感謝申しあげます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{BART及びT5の設定} \label{bart_t5_setting}表\ref{optimaization_setting}にBART及びT5のハイパーパラメータと推論時の設定を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[h]\input{03table15.tex}%\caption{BART及びT5のハイパーパラメータと推論時の設定.}\label{optimaization_setting}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{小山碧海}{%2021年東京都立大学システムデザイン学部システムデザイン学科情報通信システムコース卒業.2023年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年KDDI株式会社入社及び東京都立大学大学院システムデザイン研究科情報科学域博士後期課程進学.現在に至る.}\bioauthor{喜友名朝視顕}{%2021年東京都立大学システムデザイン学部システムデザイン学科情報通信システムコース卒業.2023年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年ヤフー株式会社入社.現在に至る.}\bioauthor{小林賢治}{%2021年東京都立大学システムデザイン学部システムデザイン学科情報通信システムコース卒業.2023年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年NECソリューションイノベータ株式会社入社.現在に至る.}\bioauthor{新井美桜}{%2017年帝京大学外国語学部外国語学科卒業.2020年首都大学東京(現東京都立大学)大学院システムデザイン研究科情報科学域博士前期課程修了.同年フューチャー株式会社入社.現在に至る.}\bioauthor{三田雅人}{2014年県立広島大学経営情報学部経営学科卒業.2016年奈良先端科学技術大学院大学情報科学研究科博士前期課程終了.同年日本マイクロソフト株式会社入社.2018年理化学研究所革新知能統合研究センター入所.2021年東北大学大学院情報科学研究科博士後期課程修了.博士(情報科学).同年東京都立大学システムデザイン学部特任助教.2022年株式会社サイバーエージェントAILabリサーチサイエンティスト.現在に至る.言語処理学会,ACL各会員.}\bioauthor{岡照晃}{%2010年豊橋技術科学大学情報工学課程卒業.2012年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2013年より日本学術振興会特別研究員(DC2)を経て,2015年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同年京都大学大学院情報学研究科特定研究員.2016年国立国語研究所言語変化研究領域プロジェクト非常勤研究員.同年同研究所コーパス開発センター特任助教.2021年東京都立大学システムデザイン学部特任助教.2023年一橋大学ソーシャル・データサイエンス研究科特任助教.現在に至る.}\bioauthor{小町守}{%2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同年同研究科助教.2013年首都大学東京(現東京都立大学)システムデザイン学部准教授.2022年同大学同学部教授.2023年一橋大学ソーシャル・データサイエンス研究科教授.現在に至る.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\end{document}
V28N01-04
\section{はじめに} 本稿では『分類語彙表』\cite{WLSP-2004}に対する反対語・対義語情報付与について論じる.分類語彙表は単語の意味をその語義に基づいて分類している.分類語彙表の初版の書籍は1964年に出版され,増補改訂版の書籍が2004年に出版された.この増補改訂版をもとにしたCSV形式のデータベース,分類語彙表増補改訂版データベース(以下『分類語彙表DB』)が公開されている.同データは区切り記号を含めて101,070エントリからなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{03table01.tex}\caption{分類語彙表の構造}\label{tbl:ex-wlsp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\begin{center}\input{03table02.tex}\caption{分類語彙表の項目「最大」}\label{tbl:wlsp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:ex-wlsp}に分類語彙表の構造を示す.分類語彙表の単語・語義は,分類番号・段落番号・小段落番号・語番号が割り当てられている.これらの番号が,語の階層的なクラスタを構成している.分類番号は,語の統語分類を表す類と,意味分類を表す部門・中項目・分類項目により構成されている.分類語彙表のピリオドより前の数字が類を,ピリオドの後1ケタの数字が部門を,2ケタが中項目を,4ケタが分類項目を表す.表\ref{tbl:wlsp}に「最大」(分類番号1.1920)の例を示す.ここで最初の1は統語分類の類「体」を表す.ピリオドより後の.1920が意味分類を表し,最初の.1が部門「関係」,.19が中項目「量」,.1920が分類項目「程度・限度」を表す.分類語彙表の意味の階層構造は反対語(opposites)・反義語(antonyms)も含めた類義語(synonyms)\footnote{本稿では類義語(synonyms)$\supset$反対語・対義語(opposites)$\supset$反義語(antonyms)とする.反対語・対義語の定義については\ref{subsec:related:ling}節で論じる.以降,反対語・対義語を含めて「反対語」と呼ぶ.}に対して同じラベルを割り当てる.例えば,表\ref{tbl:ex-wlsp}の小段落番号1.1920-01-01には,「最大」$\Leftrightarrow$「最小」と「最多」$\Leftrightarrow$「最少」といった単語対が反対語だと考えられる.反対語は基本的には二項対立の単語対に対して認めるものであるが,三項対立のものに対して認めるものもある.本研究では,分類語彙表の類義語に対する反対語情報を大規模に付与する.まず,反対語と少しでも考えられる単語対を人手で分類語彙表から抽出した.次に,展開した反対語対候補とランダムに抽出した単語対を文字刺激として,反対語らしさの評定値をクラウドソーシングにより収集した.さらに,クラウドソーシングにより,\modified{正順呈示・逆順呈示のいずれかで}50\%以上の方が反対語であると認識した語対について,反対語の分類情報を付与した.これらのデータベースについて,反対語の分類ごとの評定値情報・コーパス頻度・単語ベクトルの傾向について調査した.\ref{sec:related}節では,言語学における反対語の関連研究と,言語処理における極性分析などについて示す.\ref{sec:method}節に反対語情報の付与方法を示し,\ref{sec:analysis}節に分析結果を示す.\ref{sec:summary}節にまとめと今後の課題について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連研究:言語学の観点から}\label{subsec:related:ling}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Cruseの反対語(opposites)の分類}反対語(opposites)は様々な定義があり,何を反対と考えるのかという基準や評価はいまだ明確ではない.\citeA{Cruse-1994}の言及によると,反対語(opposites)は相補語(complementaries)・逆語(converses)・反転語(reversives)・反意語(antonyms)を含む一般的な概念であり,\begin{enumerate}\item対立的な反対性(diametricopposition)\item二値性(binarity)\item上位概念における包括性(exhaustivenessofsuperordinatedomain)\item対称性(symmetry)\end{enumerate}などが特徴としてあげられる.しかし,反対語と呼ばれるものが,これらのすべての特徴を備えているわけではないことに言及している.例えば,反対語対(huge,tiny)は,(large,small)と比べて,上位概念における包括性は低い.方向における反対語(directionalopposition)は,空間における動作も含めて定義しやすいとされる\cite{Cruse-1986}.方向から発展して,連想により定義されるものも含まれる\footnote{基準の示し方においては,内包的な定義もあれば,外延的な記述などさまざまな手法がある.例えば,\citeA{Cruse-1994}においては,\begin{itemize}\item相補語(complementaries):「Xであること」が「Yでないこと」と同値である場合に,XとYは相補と言う.\item逆語(converses):変数A,Bをとる関数$F^{X}(A,B)$が成り立つ場合かつその場合にのみ$F^{Y}(B,A)$が成り立つとき,XとYは逆語と言う.\end{itemize}のように内包的に定義するものもあれば,\begin{itemize}\item相補語の例(dead,alive)\item逆語の例(isabove,isbelow)\end{itemize}のように外延的な記述もある.但し,\cite{Cruse-1994}は,すべての反対語の概念を内包的に定義もしくは外延的に記述することは難しいとも言及している.}.以下にさまざまな反対語について示す.\begin{itemize}\item対蹠語(antipodal):何らかの軸の両端に位置するものから発展して,両極として対になる表現(例:(top,bottom),(maximum,minimum))\item対照語(counterparts):位置的に対照的なものから発展して,概念的・文化的に対になる表現(例:(ridge,groove),(hill,valley),(male,female),(heaven,hell),(yin,yang))\item反転語(reversives):反対方向への動作や変化を示す動詞など(例:(rise,fall),(appear,disappear),(enter,leave))\item逆語(converses):2つの対象の相対的な関係を表す対(例:(above,below),(ancestor,descendant)(doctor,patient))\end{itemize}反対性に関わる極性(polarity)には形態上あるいは論理上のほか,何らかの特徴の有無,評価的なポジティブ/ネガティブがあるとしている.\citeA{Cruse-1994}によれば,反対語は上記のような二項対立だけでなく,三項以上の対立(lackofcongruence)も含まれる.また,反対語の中で,反意語(antonyms)は尺度の対立に関連する狭い範囲の語対を表す.\citeA{Cruse-1986}の定義では,\begin{enumerate}\item段階的なもの(gradable)で,ほとんどは形容詞であり一部動詞を含む(mostareadjectives;afewareverbs)\item何らかの変数の程度(degreesofsomevariableproperty)\item程度を表す尺度に沿って反対の方向性がある(oppositedirectionsalongthescalerepresentingdegrees)\item語対により厳密に領域を2分しない(thetermsofapairdonotstrictlybisectadomain)\end{enumerate}と,二項対立性や上位概念における包括性などを厳密に規定しない.つまり,閉じた対ではなく,開いた対であると言える.なお,\cite{Murphy-2003}は,反意語(antonym)の下位分類に(1)contrary,(2)complementary(contradictory),(3)converse,(4)reversiveとしたうえで,(3),(4)に種々の雑多な例(一般に方向関連)を含める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{村木の「対義語」の分類}日本語においては,\citeA{村木-1987}が,反意語(antonyms)よりも広い意味で「対義語」を捉えるとし,\begin{enumerate}\item相補関係に基づく反義対:ある条件下で,概念の領域を分割する対\item両極性に基づく反義対:ものごとの対極を名付けた単語の対立\item程度性をもつ反義対:空間量,重量,スピードといったものごとの属性や性質をあらわす単語の対立(多くは形容詞)\item視点がらみの反義対:(a)同一の対象や過程が2つの異なる視点から名付けられた単語対,(b)互いに他を前提としてなりたっている単語対\item変化に関わる反義対:(a)ある空間を考慮して,互いに逆方向に移動することを含意する単語対,(b)状態の変化に関与するもので,互いにもとの状態にもどる関係の単語対\end{enumerate}を挙げる.Cruseの反意語(antonyms)は概ね村木の「程度」にあたるといえる.三項以上の対立の単語対や相反するとはいえない側面の単語対も含める.このほか,対比が反対の意識になったと考えられる単語対を,開いた対義対と位置付け,二値性・全体-部分・二側面・文脈に依存する反義対・慣用句による反義対などを挙げる.また,村木が(閉じた対と区別して)開の対に分類する「都会:田舎」などが,Cruseでは方向性で説明される(開閉の区別はない)ほか,「相補」関係と考えられる「表:裏」のような対や「変化」にあたる対は反転語(reversives),「視点がらみ」の対は逆語(converses)の扱いとされ,反対を持つ対の分類は大きく異なる.詳細については,\ref{subsec:label:anno}節に示す.実際にどのような対が反対と認識されているのか,どのようなタイプの対が反対と認識されているのか,理論上の分類で反対の意識の説明が可能であるのか,実態からの調査や分析が待たれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{反義性の調査}反対語において何が「反対」なのかを解明するため,辞書やコーパスから収集した反対語対の関係性や反義性の度合を調査する試みがなされている.反対語対における反義性の強さについても,議論や調査がなされてきた.たとえば\citeA{Herrmann-1979}は,反意語(antonyms)の程度の違いを実験的に調査し,関係性の類似が項目の類似よりも反対性に関わるとした.\citeA{Herrmann-1986}は,疑念構造を反意語(antonym)対の要因とし,速さ,明るさ,強さ,大きさ,幅,価値,厚さのような概念次元を基盤と考える.\citeA{Cruse-1986}は,一次元で概念化できること,対立で意味が言いつくされていること,その他の意味に関して一致度が高いことなどが影響するという.\citeA{村木-1987}は,一次元の尺度で対立すること,つりあいが対立で言いつくされていること,文脈の不要性,同種類(品詞・語種・文体的特徴・共通語形部分)を挙げている.反義性の良し悪しを,コーパス調査,産出実験,心理実験などから検証\cite{Paradis-2009}する試みも見られるが,いずれの要素も反義性の判断に影響している可能性が考えられるとはいえ,何がどれだけ影響しているのかは明確ではない.日本語の反対語の実態的な調査の例には,\citeA{荻野-1988,荻野-1996}による「通常の日本語話者が考えている」反対語の報告がある.165反対語対の反義性判断実験を行ったもので,結果から,一般的な「対比」の意識は雑多で個人差があるものの,意味関係よりも現実世界のモノの関係でとらえられ,二項対立の単語対に反義性の意識が強い傾向が分析されている.また,日本語の反対語の程度性については,\citeA{松本-2007}が,138反対語対の反義性判断実験の結果に基づき,反義性の程度を方向性と極性の概念的な対立の観点から分析している.対比的な比較において方向性が顕著な単語対で反義性が高く判断される傾向と,肯定性・否定性の程度が関わる傾向が示された.但し,\citeA{Cruse-2004}は,(doctor,patient)のような単語対について内在する二項対立を考えるが,\citeA{松本-2007}は,極性の明確さが要因と分析する.また,方向性に関する単語対では「両端開放型スケール」\footnote{両側開放型の例として(大きい,小さい),(長い,短い),片側開放型の例として(無害の,有害の),(同じ,違う),両側閉鎖型の例として(満杯の,空の),(真っ白な,真っ黒な)があげられる.}で反義性判断程度が高いという結果も得られている.これらの日本語を用いた先行研究はいずれも百数十単語対規模の実験であるが,現実世界のモノの関係・比較において方向性が顕著という点において一致しているといえる.\citeA{村木-1987}が「程度」に分類する形容詞対(いわゆるCruseの「反意語」(antonyms))で反対性の強い可能性も考えられる.反対語と認識されている対を網羅的に収集した検証が求められよう.なお,\citeA{荻野-1996}では,提示順を逆転させた調査において,165単語対中15単語対において反対語らしさの大小が異なっていた.この現象の理由として,先に読んだ語に複数の反対語が意識される場合,単語対の反対語意識が低下する傾向を分析している.\citeA{Paradis-2009}の調査でも,反対語対間の結びつきの強さが連想の起点とする語によって変わる例が示され,想起される使用文脈との関係によると指摘されている.しかし,提示順の違いによる反対語らしさの違いが,先に示された語の多義性のみで全て説明されるのではない.\citeA{荻野-1996}は,提示順の逆転で反対語らしさが異なっていた(以前,以後),(上,下)などの単語対はあてはまらないとし,「前後」「上下」のような熟語の影響を否定している.%「調べたい」らしい反対性の意識が語の提示順で異なる例について,どの程度どのような種類として存在するか調査し,反対性の意識に関わる要因を確かめる必要があろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連研究:言語処理の観点から}\label{subsec:related:nlp}以下では,主に単語埋め込み\cite{Mikolov-2013a,Mikolov-2013b}を含めた分布意味論における反対語の扱いについて紹介する.\citeA{mohammad-etal-2013-computing}は,分布意味論で構成される単語の類義性評価において反対語同士の分布意味論的な距離が近いところに出現するとしており,\citeA{ono-etal-2015-word,rothe-schutze-2015-autoextend}は単語の対義関係を単語埋め込みから判断するのは難しいとしている.一方,\citeA{mikolov-etal-2013-linguistic}がword2vec上のlinguistic\modified{regularity}の例に出した$$\vec{king}-\vec{man}+\vec{woman}=\vec{queen}$$におけるmale/female関係は閉じた対義関係にあるとも言えるだろう.日本語においては,単語埋め込み中にも反対語間で文脈的な差異があるとして,単語埋め込み上での識別を試みた研究もある\cite{佐藤-2016,中村-2018,中村-2019,川島-2019}が,主として評価的なポジティブ/ネガティブを対象としており,言語学的に精緻な反対語の調査は行われていない.\citeA{村木-1987}においては,(man,woman)や(king,queen)\footnote{(king,queen)は,「最高支配者」という領域において相補.}は相補(complementation)に相当する閉じた反対語対である.\citeA{mikolov-etal-2013-linguistic}の例ではmale/femaleの例として,(uncle,aunt)を示しており,これも相補に相当する反対語対\footnote{(uncle,aunt)は「父母のきょうだいもしくは父母のきょうだいの配偶者」という領域において相補.}である.一方,視点(viewpoints)に相当するuncleの反対語として,nephewやnieceが考えられる.\citeA{松本-2007}においては(man,woman)は非関係的であるが,(king,queen)・(uncle,aunt)・(uncle,nephew)・(uncle,niece)は関係的である.これらの先行研究から,はたして単語埋め込み上で反対語対がどのように表現されるのか,適切に収集した反対語データベースに基づく検証が求められよう.さらに\citeA{村木-1987}の「対義語」の分類ごとに異なる差ベクトルを持つのかを検証したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データ構築方法} \label{sec:method}日本語の反対語対を収集し,一般的な日本語話者による反対語かどうかの判断を取得する.反対語の定義として,一般的な日本語話者に対して質問紙調査を行った際の「反対語である」の判定が50\%以上のものを「反対語」とする.また,反対語として得られた対の分析を行い,先行研究で示された傾向を大規模なデータで検証するとともに,反対語とされる単語対のタイプ分類と,反対語と認識されやすいタイプについての調査も試みる.具体的なデータ構築方法は次のとおりである.最初に分類語彙表から反対語に相当する候補を人手により収集した(\ref{subsec:label:ext}節).次にクラウドソーシングにより反対語であるか否かの評定値情報を収集した(\ref{subsec:label:crowd}節).最後に人手により\citeA{村木-1987}による反対語のタイプ(村木においては「対義語」)を付与した(\ref{subsec:label:anno}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{反対語対候補の抽出}\label{subsec:label:ext}4人の作業者により,分類語彙表の階層構造において同じラベルを持つものを対象に,反対語対候補の抽出を行った.まず,\modified{4人の作業者により,}小段落番号が同じ単語群\modified{の組み合わせ162,990対}から\modified{反対語}候補対を抽出した.次に,\modified{2人の作業者が}段落番号が同じ単語群\modified{の組み合わせ842,459対}から\modified{反対語}候補対を抽出した.\modified{この際,小段落番号が同じ単語群において漏れがあった場合には追加した.}抽出にあたっては,「三省堂反対語対立語辞典」に採録されている単語対についても参照した.抽出作業は2017年6月に開始し,2018年11月に終了した.本作業で7,658の反対語対を抽出した.3,405語対は小段落番号が同じ単語群から,4,253語対は段落番号が同じ単語群から抽出したものであった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングによる評定値情報}\label{subsec:label:crowd}\ref{subsec:label:ext}節で抽出した7,658反対語対候補に,ランダムで追加した4,342の単語対\footnote{小段落番号が同じ単語群からランダムに2語をフィラー候補対として抽出した.}をあわせた12,000単語対を対象として,一般の方が反対語として認識するかどうかの評定値をYahoo!クラウドソーシングにより収集した.\modified{実験対象者は,20歳以上のYahoo!JapanIDを所持する者とした.実験に際し,不適切な回答を行う実験不適切者の排除を行ったが,性別・在住地などによる統制は行っていない.}図\ref{fig:crowd}に評定値情報収集画面の例を示す.反対語の程度を「対義語・反対語でない」・「対義語・反対語であるが置き換え不可」・「対義語・反対語であり,置き換え可」の3択から選択させた.「対義語・反対語でない」は,単語対に対義語・反対語性を見いだせないときに選択する.「対義語・反対語であるが置き換え不可」は,単語対に対義語・反対語性があるが,格交代などにより文脈によっては置き換えができないときに選択する.置き換え不可の例として,「(AにBを)加算する」$\Leftrightarrow$「(AからBを)減算する」を示した.「対義語・反対語であり,置き換え可」は,単語対に対義語・反対語性があり,置き換えができるときに選択する.置き換え可の例として,「北」$\Leftrightarrow$「南」と「暑い」$\Leftrightarrow$「寒い」を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-1ia3f1.pdf}\end{center}\caption{クラウドソーシングによる評定値情報収集画面}\label{fig:crowd}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\modified{単語対の呈示順として,分類語彙表上のIDの昇順に示したもの(正順呈示)と降順に示したもの(逆順呈示)の2種類を設定した.}クラウドソーシングは2回に分けて実施した,1回目は2018年12月17日8:03〜21:25に行い,1,597人が参加し,18時間21分を要した.2回目は2019年11月22日8:03〜24日7:40に行い,1,753人が参加し,47時間43分を要した.費用は税別で40万円を要した.各単語対は順方向20人・逆方向20人評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{反対語タイプアノテーション}\label{subsec:label:anno}クラウドソーシングにより,\pagebreak実験協力者50\%以上の方が\modified{正順呈示・逆順呈示のいずれかで}「対義語・反対語である」(置き換えの可不可問わず)の5,538単語対を評価対象とした.ラベル分類は閉じた対・開いた対を確認しながら\citeA{村木-1987}の分類にならった.但し,反対語と評価された対には,\citeA{村木-1987}では示されていない関係性の対が存在することや,反対性が見いだせない(分類不能)ことなどが予想されたため,閉開ともに「その他」のラベルを設定した.閉じた対のタイプは以下の通り.\begin{itemize}\item{\bf相補}(\modified{complementation}):ふたつの単語XとYがある条件下で概念の領域を分割する対.一方が肯定されれば他方が否定される.中間段階を認めない.\\例)(男,女),(父,母),(上,下),(裏,表),(真,偽),(等しい,異なる),(同じ,違う),(出勤,欠勤),(合格する,落第する),(引き受ける,断る)\\但し,人間の判断にかかわる関係については,どちらも否定可能で厳密ではない場合がある\footnote{例:賛成-反対の中間に「保留」,信じる-疑うは「信じもしないし疑いもしない」があり得る.}.\item{\bf両極}(bipolar):連続的であれ不連続的であれ,ものごとの両極に位置する部分の対.中間段階が存在する.\\例)(満点,零点),(最高,最低),(最大値,最小値),(頂上,ふもと),(天,地),(始発駅,終着駅),(開会,閉会),(入学,卒業),(始まる,終わる)\item{\bf程度}(degree):ものごとの属性や性質をあらわし(多くは形容詞),程度を特徴づける副詞類(「とても」「少し」など)と共起する対.対立するふたつの語の意味領域は厳密には別れない(差は相対的).中間点は多くの場合存在しない($\neq$両極)が,一方の否定は他方の肯定を意味しない($\neq$相補).例)(大きい,小さい),(高い,低い),(重い,軽い),(早い,遅い),(暑い,寒い),(きれいな,汚い),(安全,危険),(積極的,消極的),(うれしい,悲しい),(太った,やせた)\item{\bf視点}(viewpoints):現実の対象世界に属さず,人間の対象のとらえかたに関わる対.\begin{itemize}\item同一の対象や過程がふたつの異なる視点から名づけられた単語のあいだに成立.\\例)(上り坂,下り坂),(入口,出口),(スタート地点,ゴール地点),(いく,くる),(売る,買う),(貸す,借りる),(教える,教わる)\item互いに他を前提として成立.\\例)(親,子),(夫,妻),(先生,生徒),(医者,患者),(師匠,弟子)\end{itemize}\item{\bf変化}(change):\begin{itemize}\itemある空間を考慮して,互いに逆方向に移動する(位置の変化が逆方向)関係.\\例)(あがる,さがる),(つく,離れる),(到着,出発)\item状態の変化に関与し,互いにもとの状態に戻る(可逆的)関係.\\例)(現れる,消える),(結ぶ,ほどく),(覚える,忘れる),(積む,下ろす),(生産,破壊),(着衣,脱衣),(暖める,冷やす),(のばす,ちぢめる)\end{itemize}\end{itemize}開いた対は,ものごとのふたつの側面をとりだして対比し,反義性を感じる対である.文脈に依存するが,二値性や両極性が認容される.\begin{itemize}\item{\bf典型(2値)}(representative):ある対象にふたつしかないなど,ふたつがものごとの典型である対.\\例)(和室,洋室),(都会,田舎)\item{\bf部分全体}(whole-part):さししめしている対象の関係が全体と部分である対.\\例)(往復,片道),(両手,片手)\item{\bf2側面}(twosided):ものごとのふたつの側面に注目した対.\\例)(たて,よこ),(水平,垂直),(一般,特殊)\item{\bf慣用}(idiom):慣用句として反義性をもつと感じられる対.\\例)(気を失う,我にかえる),((気が)はれる,(気が)ふさぐ),(骨をおる,骨をおしむ)\item{\bfその他開}(others):上記以外のもの.\end{itemize}最初に3人の作業者が独立に作業を行った.関係性の判定においても,反対性の考え方には個人差が生じることになる.\modified{3人の判定が完全に一致したのは1,539対(27.8\%),2人の判定が一致したのは2,625対(47.4\%),であり,3人とも一致しなかったのは1,374対(24.8\%)であった}.2人以上一致した\modified{4,164対(75.2\%)}については,一致したものを最終結果として採用した.なお,特に判定が一致しなかったものは閉の「相補」「両極」「程度」(597対)と,開(425対)の判定である.判定が一致しなかったものについては,4人目の判定を追加するとともに,「その他開」は傾向により次の3つのタイプを導入し,最終結果とした.\begin{itemize}\item{\bf終了}(finished):継続していた状態とその終了を示す語の対.終わった状態であれば「相補」関係が成立するため問題はないが,(授乳,離乳)のような反対語対においては判定が一致していなかった.ほかに(進捗,停滞)などがある.\item{\bf主副(別)}(main-sub):一方が主であるものの「相補」や「両極」,「部分全体」とも判定し難い(本流,支流),(直行する,迂回する)などで判定揺れが生じていた.\item{\bf因果}(cause-effect):一方が原因となる単語対に付与した.(におう,脱臭する)や,因果関係を示す(起因する,結果する)のような単語対で判定が一致していなかった.\end{itemize}最終的に「その他開」が付与されている対は,その他の反義でない(が反対語と半数以上に判定された)類義語対,反義ではあるが態が異なり反対と認められなかった単語対(例:(首がつながる,首にする))である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} \label{sec:analysis}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対応する反対語数の分析}\label{subsec:analysis:1ton}まず,反対語対は必ずしも1対1対応しているわけではなく,1対多対応している場合がある.表\ref{tbl:1ton}に1つの反対語に対応する反対語数の分布(反対語であると\modified{の}認定が\modified{正順呈示・逆順呈示のいずれかで}50\%以上のもののみ)を示す.9,286語\footnote{分類語彙表番号が異なる語を別語とした場合の,反対語対のいずれかの要素になる異なり語数.}中,88\%の8,184語が1対1対応しているが,残りの12\%は複数の反対語を持つ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3and4\begin{table}[b]\begin{minipage}[t]{153pt}\setlength{\captionwidth}{153pt}\input{03table03.tex}\hangcaption{1つの反対語に対応する反対語数の分布}\label{tbl:1ton}\end{minipage}\hfill\begin{minipage}[t]{252pt}\input{03table04.tex}\caption{複数の反対語に対応する例}\label{tbl:1ton2}\end{minipage}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{Cruse-1986}は,反対語を共有するという合同関係に基づく合同類(congruencevariants)についての検討を行っている.Cruseは反対語の合同類を上位下位型(`hypo-/super'type)と逆元なし型(`semi-'type)の2種類に分けたうえで,前者のみが頻出するとしている.日本語では上位反対語として「脱ぐ」の例(「着る」「かぶる」「履く」「はく」「穿く」)を示しており,本データベース上でも確認できた(表\ref{tbl:1ton}).本データベース上で見られたそのほかの例として,性差・視点のものがあった.例えば,表\ref{tbl:1ton2}に示すとおり,「ホステス」「ホスト」「ゲスト」は,それぞれ互いに反対語の関係にあるが,性差の関係としての相補と,主客の関係としての視点の関係がある.動詞の例としては「婿取りする」が,視点として「婿入りする」や,典型として「嫁とりする」などの反対語を持つ.表\ref{tbl:1ton-example}に対応する反対語数が多い用例を示す.分類語彙表に含まれる類義の慣用表現が多い場合に,1つの反対語に対応する語数が多い傾向が確認できた.また,動詞において,自他交代した事例が出現する傾向も見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{03table05.tex}\caption{対応する反対語数が多い用例}\label{tbl:1ton-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{反対語データベースを構成する語の多義性}次に反対語の多義性について検討する.多義性を検討するにあたり,WLSP2UniDic(分類語彙表番号-UniDic語彙素番号対応表)\footnote{\url{https://github.com/masayu-a/WLSP2UniDic/}}\cite{wlsp2unidic}を用いる.反対語対に出現する分類語彙表の語に対して,UniDicの語彙素番号と対応をとったうえで,UniDic側からみて分類語彙表の語義が何種類割り当てられているかを集計したものとその例を表\ref{tbl:polysemous}に示す.語義数の欄が「-」とあるのは,分類語彙表とUniDicの単位が異なるために対応する要素がないもの(3,050例)である.残りの6,232例中,59\%の3,651例がUniDicの語彙素単位に単義の語であった.残りの41\%は多義性を持ち,多いものでは「掛ける」が12の語義を持つ.\modified{ここでは},複数の反対語に対応する多義語の例として「甘い」を表\ref{tbl:polysemous:amai}を示す.「難易」「待遇」「味」の3つの語義に対して,「厳しい」と「辛い」が反対語として対応していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{03table06.tex}\caption{反対語データベースを構成する語の多義性}\label{tbl:polysemous}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{03table07.tex}\caption{多義語「甘い」の反対語}\label{tbl:polysemous:amai}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{03table08.tex}\caption{クラウドソーシングによる評定値の集計結果}\label{tbl:crowd:rate}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングによる評定値の分析}\label{subsec:analysis:crowd}まず,表\ref{tbl:crowd:rate}にクラウドソーシングによる評定値の集計結果について示す.候補外の単語対に対して83.8\%の回答が「反対語でない」である一方,反対語候補の単語対に対しては34.3\%(小段落一致候補)・35.9\%(段落一致候補)であった.「反対語でない」の判断においては,小段落一致と段落一致の差は1.6\%$(35.9\%-34.3\%)$であった.しかしながら,「置き換え可」か否かについては,小段落番号一致のほうが段落番号一致よりも5.6\%(42.4\%$-$36.8\%)\modified{大きな値}であった.小段落番号一致のほうが,置き換え可能性が高い傾向がみられる.100\%反対語であると判断された例は,可決$\Leftrightarrow$否決(置き換え可87.5\%),寒流$\Leftrightarrow$暖流(置き換え不可85\%)であった.\modified{表\ref{tbl:crowd:dist}に反対語対候補毎の評定値の分布を示す.割合は10\%単位に四捨五入した.なお,アノテーション対象である正順呈示・逆順呈示のいずれかが50\%以上反対語である要素数は,小段落一致候補2,465対,段落一致候補3,008対,候補外65対であった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{03table09.tex}\caption{反対語対候補毎の評定値の分布}\label{tbl:crowd:dist}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{03table10.tex}\caption{正順と逆順とで「反対語でない」の判断が分かれる事例}\label{tbl:crowd:reverse}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%クラウドソーシングの評価は呈示順序を正順と逆順の2パターン(それぞれ20人)評価した.表\ref{tbl:crowd:reverse}に,正順と逆順で「反対語でない」の判断が分かれる事例を示す.たとえば「ぷりぷりする」「にこにこする」の正順で呈示した場合には70\%の回答が「反対語でない」であったが,逆順で呈示した場合には10\%にまで小さくなった.ほかの事例として,性差((淑女,紳士)のほうが(紳士,淑女)よりも反対語性があがる),大小((小鼓,大鼓)のほうが(大鼓,小鼓)よりも反対語性があがる)などの傾向がみられた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分類語彙表番号による分析}\modified{本データベースは分類語彙表をもとにして構成されており,分類語彙表の意味情報に基づく検討が可能である.}表\ref{tbl:result:wlsp}に分類語彙表の分類番号ごとの集計結果(頻度上記10位まで)を示す.\modified{頻度最上位の2.3100}言語活動は「口を開く」などの慣用表現が多く含まれているために頻度が高くなっている.\modified{それ以外については,2.1580増減(変化(閉))・1.1730方向(視点(閉),両極(閉),相補(閉),典型(開)など)・1.1770内外(相補(閉))の表現が多く反対語として見られた.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{03table11.tex}\caption{分類語彙表ごとの集計(頻度上位10位まで)}\label{tbl:result:wlsp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{反対語のタイプによる分析}アノテーションした反対語のタイプによる集計結果を表\ref{tbl:crowd:type}に示す.頻度で最も多いものは相補であり,次いで変化・程度・両極と閉じた反対語対が多くみられた.表は「反対語でない」の回答が少ない順にならべたが,閉じた対が開いた対よりも「反対語である」と判断されやすい傾向が確認できた.開いた対の中では2側面が「反対語である」と判断されやすい傾向がみられた.置き換え可能性は程度(閉)・相補(閉)・両極(閉)・2側面(開)などで高い傾向が確認された.\modified{一般に,閉じた反対語対のほうが置き換え可能性が高い傾向があるが,変化(閉)や視点(閉)などは,格交替を行う可能性が高く置き換え可能性が低くなったと考えられる.}また,正順と逆順とでの「反対語でない」の判断の差分は主副(別)(開)で若干高くなる傾向がみられた.表\ref{tbl:crowd:reverse}の結果とあわせて考えると,副から主への方向のほうが,反対語として認定されやすい傾向がうかがえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{03table12.tex}\caption{反対語のタイプに基づく集計(「反対語でない」昇順)}\label{tbl:crowd:type}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスのUni-gram頻度による分析}次に『現代日本語書き言葉均衡コーパス』(BCCWJ)上のUni-gram頻度との対照比較を行う.国語研短単位(SUW)に基づく頻度比の対数「SUW対数頻度比」\footnote{SUW対数頻度比:単語対中の短単位に基づく単語Aの頻度(1以上)を短単位に基づく単語Bの頻度(1以上)で割ったものの自然対数をとり,絶対値をとったもの.LUW対数頻度比は長単位に基づいて同様の計算を行ったもの.母集団が同じため対数尤度比に相当する.2単語の頻度が同じ場合は0,頻度の差があるほど大きな値になる.}と国語研長単位\pagebreakに基づく頻度の対数比「LUW対数頻度比」により,単語対の2単語の頻度に差があるか否かを算出する.算出された頻度の差が,クラウドソーシングによる「正順と逆順の差分」\modified{と相関があるのか}を検証する.対象は「反対語である」が50\%以上であり,単語対の双方がBCCWJの短単位・長単位に基づく頻度情報を持つ(頻度1以上の)2,747\modified{対}とする.まず「SUW対数頻度比」と「正順と逆順の差分」のSpearman相関係数を単語対ごとに評価したところ,相関係数が0.051($p<0.01$)と相関がみられなかった.「LUW対数頻度比」と「正順と逆順の差分」についても,Spearmanの相関係数0.054($p<0.01$)と同様の結果であった.このことから,\modified{反対語性判断における呈示順序の選好性を表す}「正順と逆順の差分」は頻度に基づく差異と関連がないということがわかる.\modified{なお,対数頻度比に方向性を与えた設定でも検討したが,相関係数SUW0.004,LUW0.003(いずれも$p<0.01$)と相関は見られなかった.}表\ref{tbl:freq}にタイプごとの対照結果を示す.視点・典型・2側面などの反対語対は頻度差がない傾向がみられるが,変化・部分全体・主副(別)・因果については頻度差がある傾向がみられた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\input{03table13.tex}\caption{反対語タイプとコーパス上のUni-gram頻度差}\label{tbl:freq}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[b]\input{03table14.tex}\caption{反対語のタイプとコーパス上の反対語対の生起順序の頻度差}\label{tbl:bifreq}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\modified{コーパス中の生起順序による検討}}\modified{次に『国語研日本語ウェブコーパス』(NWJC)上の生起順序との対照比較を行う.反対語対の2要素が1文中に共起する用例中において,その生起順序の頻度比の対数\footnote{1文中に反対語対の要素AとBがこの順に出現した頻度を,要素BとAの順に出現した頻度で割ったものの自然対数をとり,絶対値をとったもの.}により,生起順序に差があるか否かを算出する.算出された頻度の差が,クラウドソーシングによる「正順と逆順の差分」と相関があるのかを検証する.対象は「反対語である」が50\%以上であり,単語対の双方が正順と逆順ともにNWJC中1文以上共起する2,725対とする.対数頻度比と「正順と逆順の差分」のSpearman相関係数を評価したところ,相関係数が0.011($p<0.01$)と相関がみられなかった.このことから,反対語性判断における呈示順序の選好性を表す「正順と逆順の差分」はコーパス中の生起順序と関連がないということがわかる.なお,対数頻度比に方向性を与えた設定でも検討したが,相関係数$-0.008$($p<0.01$)と相関は見られなかった.表\ref{tbl:bifreq}にタイプごとの対象結果を示す.程度・2側面・終了などの反対語対は頻度差がない傾向がみられるが,両極・視点・典型(2値)・慣用・その他開については頻度差のある傾向がみられた.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語埋め込みによる分析}本小節では,『国語研日本語ウェブコーパス』\cite{Asahara-2014}から訓練した単語埋め込みモデルNWJC2vec\cite{nwjc2vec}において,反対語対がどのように表現されるかを検証する.「反対語である」が50\%以上であり,単語対の双方がNWJC2vecに基づく単語埋め込みを有する2,809単語対を分析対象とした.NWJC2vecのモデルとして,fastText\cite{fastText}で訓練した300次元のskip-gramのものを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[b]\input{03table15.tex}\caption{反対語対のコサイン類似度とクラウドソーシングによる置き換え可能性}\label{tbl:word2vec}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,単語対間の距離を評価した.置き換え可の回答と相関分析(反対語対ごと)を行ったところ,Spearman相関係数は0.286($p<0.05$)であった.\modified{このことから,ヒトが感じる置き換え可能性と,単語埋め込み上の類似度とに中程度の相関があることがわかる.}表\ref{tbl:word2vec}にタイプごとのコサイン類似度の平均とクラウドソーシングによる置き換え可能性の評定値の平均の比較を示す.\modified{反対語対の2単語の類似度が高いのは2側面・慣用・典型(2値)など開いた反対語対であった.このことから,狭義においては反義でなくても,単語ベクトルで確認できる前後文脈の類似性から,ヒトは反義性を感じるのではないかと考えられる.閉じた対の中では,視点のコサイン類似度が高かった.表現として格交替が考えられるものの,単語埋め込みが捉えられる範囲においては前後文脈の類似性が高かった可能性がある.}\deleted{次に単語対間の差ベクトルを評価した.反対語対による差ベクトル間のコサイン類似度を評価したところ,平均0.945,中央値0.954と高い類似度が確認された.このことから$\vec{king}-\vec{man}+\vec{woman}=\vec{queen}$の前提となる$\vec{king}-\vec{queen}\sim\vec{man}-\vec{woman}$が一般に成り立つことが伺える.また,差ベクトル集合に対して,主成分分析・クラスタ分析(k-means法)・tSNE法による可視化などにより分析してみたが,反対語タイプごとの差ベクトルの違いはみられなかった.以上の観察から,対義関係の差ベクトルを前提とする$\vec{king}-\vec{man}+\vec{woman}=\vec{queen}$の演算にみられる,反対語対間の差ベクトルの類似性は確認できた.しかしながら,今回導入した反対語タイプごとに差ベクトルが異なるかについては,明確な区別は確認できなかった.}\modified{また,反対語対をなす各語のベクトルや,反対語対の差ベクトルについても,主成分分析・クラスタ分析・tSNE法による可視化などにより分析を行ったが,反対語タイプごとの違いについて特段の傾向が見られなかった.今後,他の単語埋め込み手法などを用いて,さらなる調査を進めたい.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:summary}本稿では『分類語彙表』に対する反対語情報付与について示した.人手により『分類語彙表』より反対語候補を収集したうえで,クラウドソーシングによりヒトが反対語と判定するか否かを収集し,\modified{正順呈示・逆順呈示のいずれかで}50\%以上の方が反対語と判定したものを反対語と定義した.反対語として得られた単語対に対して,\citeA{村木-1987}の反対語タイプを付与した.開いた反対語対については,新たに「終了」「主副(別)」「因果」を導入し,精緻化を行った.分析においては,認知言語・言語処理の両面の分析を進めた.まず,クラウドソーシングにおいて順序を変えて呈示した場合に反対語対と認識する割合が異なるものを中心に分析し,主副・性差・大小において非対称性がみられることを確認した.分類語彙表の分類項目による分析においては,増減・方向・内外・変化・往復・進行などの反対語表現が多いほか,言語活動・人物・家族などにも反対語表現が多いことを確認した.反対語のタイプごとの分析においては,閉じた反対語対のほうが,開いた反対語対よりも反対語として認識されやすい傾向を確認した.コーパス頻度の分析においては,反対語対としての認識に非対称性がみられるものが頻度によるものではないということを確認した.最後に単語埋め込みによる分析においては,\modified{置き換え可能性がベクトル空間上のコサイン類似度と中程度の相関がある}こと\deleted{と,反対語対の差ベクトル同士が高いコサイン類似度(平均0.945)を有しており$\vec{king}-\vec{man}+\vec{woman}=\vec{queen}$のような演算が近似的に可能であること}を確認した.\deleted{しかし,反対語タイプごとに異なる差ベクトルをもつという現象については確認できなかった.}本データは\url{https://github.com/masayu-a/WLSP-antonym}より,クリエイティブコモンズライセンスBY-NC-SA3.0で公開する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」,JSPS科研費17H00917,18H05521,18K18519,19K00591,19K00655の助成を受けています.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{加藤祥}{%2011年神戸大学人文学研究科博士後期課程修了.2012年より国立国語研究所コーパス開発センタープロジェクトPDフェロー.同プロジェクト非常勤研究員.2020年より目白大学外国語学部専任講師.博士(文学).日本語学会,日本認知言語学会,日本認知科学会各会員.}\bioauthor{浅原正幸}{%2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\bioauthor{森山奈々美}{%2018年津田塾大学学芸学部英文学科卒業.2018〜2020年国立国語研究所コーパス開発センター技術補佐員.}\bioauthor{荻原亜彩美}{%2019年津田塾大学学芸学部英文学科卒業.現在,同大学院文学研究科修士課程に在学中.2019年より国立国語研究所コーパス開発センター技術補佐員.}\bioauthor{山崎誠}{%1984年筑波大学大学院文芸・言語研究科言語学専攻(日本語学)単位取得退学.同年国立国語研究所研究員.現在,同言語変化研究領域教授.博士(学術).言語処理学会,日本語学会,計量国語学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V31N02-12
\section{はじめに} やさしい日本語とは,語彙や文法に制限を加えた,外国人や高齢者など多くの人にとってわかりやすい日本語のことである.現在の日本では,多様な国籍の在留外国人約300万人\footnote{\url{https://www.moj.go.jp/isa/content/001381744.pdf}}が生活しており,このような日本語非母語話者に対する情報伝達の手段として,やさしい日本語の活用およびやさしい日本語へのテキスト平易化の技術\cite{alva-manchego-etal-2020-data}が期待されている.テキスト平易化とは,文の意味を保持しつつ,難解な文を平易に言い換えるタスクのことである.テキスト平易化は,非母語話者\cite{wreo15332}や子ども\cite{belder-2010,kajiwara-2013},失語症などの言語障害を持つ人々\cite{1998Practical,Dyslexia,autism}の文章読解を支援し,他の自然言語処理タスク\cite{chandrasekar-etal-1996-motivations,Silveira2012EnhancingMS,stajner-popovic-2016-text}の性能を改善する.近年の研究では,テキスト平易化を同一言語内の機械翻訳の問題として扱い\cite{alva-manchego-etal-2020-data},難解な文と平易な文からなるパラレルコーパスを用いて,系列変換モデル\cite{vaswani-2017}を訓練する.本研究では,日本語を対象に,テキスト平易化モデルを訓練および評価するためのパラレルコーパスを構築する.パラレルコーパスに基づくデータ駆動のテキスト平易化は,英語を中心にドイツ語\cite{klaper-etal-2013-building,sauberli-etal-2020-benchmarking}やイタリア語\cite{brunato-etal-2016-paccss}など多くの言語で研究されている.英語では,非母語話者向けのSimpleWikipediaや専門家によって子供向けに書かれたニュース記事から,文アライメントによって自動構築されたパラレルコーパス\cite{coster-kauchak-2011-simple,xu-etal-2015-problems,jiang-etal-2020-neural}が公開されている.日本語では,学生やクラウドワーカにより平易化されたSNOW\footnote{\url{https://www.jnlp.org/GengoHouse/snow/t15}}\cite{maruyama-yamamoto-2018-simplified,katsuta-yamamoto-2018-crowdsourced}や,テキスト平易化の専門家によって平易化されたJADES\footnote{\url{https://github.com/naist-nlp/jades}}\cite{hayakawa-etal-2022-jades}がある.SNOWは,教科書などの日本語文\footnote{\url{http://www.edrdg.org/wiki/index.php/Tanaka_Corpus}}を,非専門家が文単位で平易化した大規模なパラレルコーパスである.SNOWの平易化は,作者らによって定義された基礎語彙2,000語\footnote{\url{https://www.jnlp.org/GengoHouse/list/語彙}}に基づくため,この語彙で網羅できない表現については,却ってわかりにくい言い回しが見られる.そのため,SNOWに含まれる低品質な文対を除外するパラレルコーパスフィルタリング\cite{hatagaki-etal-2022-parallel}が研究されている.JADESは,WMT20\cite{barrault-etal-2020-findings}日英ニュース翻訳タスクの検証・評価用サブセットを,専門家が文単位で平易化した小規模なパラレルコーパスである.表~\ref{tab:corpus_kind}に示すように,既存の日本語テキスト平易化パラレルコーパスには,高品質かつ大規模なコーパスは存在しない.本研究では,高品質かつ大規模な日本語のテキスト平易化パラレルコーパスを構築するために,日本語のWeb記事とその専門家による平易化版の記事対から人手で文アライメントをとる.我々が構築したテキスト平易化パラレルコーパスの1.6万文対について分析したところ,本コーパスは既存の大規模コーパスであるSNOWよりも多様な平易化操作を含み,専門家が構築したJADESよりも解釈性と正確性の高い平易化が行われていることを確認できた.また,MATCHAで訓練したテキスト平易化モデルは,SNOWで訓練したモデルに比べて,解釈性と正確性の高い平易化ができることを確認した.本研究で構築した日本語のテキスト平易化パラレルコーパスMATCHAはGitHub\footnote{\url{https://github.com/EhimeNLP/matcha}}で公開した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{11table01.tex}%\caption{日本語テキスト平易化コーパスの特徴}\label{tab:corpus_kind}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} label{sec:previous}テキスト平易化のためのパラレルコーパスの構築には,大きく2種類の方法がある.一方は所与の文を人手で平易に書き換える方法で,他方は難解\footnote{以降,パラレルコーパスのうち,相対的に難しい方を難解な記事や文,相対的に易しい方を平易な記事や文と呼ぶ}な記事と平易な記事の記事対の中から文アライメントによって意味的に対応する難解文と平易文の文対を抽出する方法である.前者はコストが高いため,主に数千文対の規模の評価用コーパスの構築\cite{xu-etal-2016-optimizing,scarton-etal-2018-simpa,alva-manchego-etal-2020-asset}に用いられる.後者は比較的低コストであるため,英語\cite{coster-kauchak-2011-simple,xu-etal-2015-problems,jiang-etal-2020-neural}・ドイツ語\cite{klaper-etal-2013-building,sauberli-etal-2020-benchmarking}・イタリア語\cite{brunato-etal-2016-paccss}など,多くの言語においてテキスト平易化の訓練用パラレルコーパスを構築するために採用されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{他言語のテキスト平易化コーパス}\label{sec:previous_corpus}英語では,Wikipedia\cite{coster-kauchak-2011-simple}やNewsela\cite{xu-etal-2015-problems}のパラレルコーパスが,TF-IDFに基づく自動的な文アライメントによって構築されている.また,深層学習を用いて文アライメントを改善した高品質かつ大規模版のWiki-AutoやNewsela-Auto\cite{jiang-etal-2020-neural}も公開されている.英語以外の言語においては,ドイツ語では障害者向けのWebサイト\cite{klaper-etal-2013-building}やニュース記事\cite{sauberli-etal-2020-benchmarking}から,文アライメントによってテキスト平易化のパラレルコーパスが構築されている.イタリア語では,Webテキストに対するリーダビリティ測定\cite{brunato-etal-2016-paccss}によって難解なテキストと平易なテキストを分類した上で,自動的な文アライメントによってテキスト平易化のパラレルコーパスが構築されている.本研究でも同様に,難解な記事と平易な記事の対を用いてテキスト平易化パラレルコーパスを構築する.しかし,先行研究とは異なり,本研究では訓練用コーパスを含む全ての文アライメントを人手で行い,高品質なパラレルコーパスを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語のテキスト平易化コーパス}\label{sec:ja_simp_corpora}日本語のテキスト平易化コーパスにはSNOW\cite{maruyama-yamamoto-2018-simplified,katsuta-yamamoto-2018-crowdsourced}およびJADES\cite{hayakawa-etal-2022-jades}がある.SNOWは,教科書や歌詞などの文で構成される田中コーパス$^4$の日本語文を,学生やクラウドワーカなどの非専門家が文単位で平易化して構築したパラレルコーパスである.SNOWの平易化は,作者らによって定義された基礎語彙2,000語$^5$に基づくため,この基礎語彙で網羅できない表現については,却ってわかりにくい言い回しが見られる.例えば,「エミリーは夕食に\textbf{豆腐}をたべた。」を「エミリーは夕食に\textbf{水につけた植物で作った白く柔らかいもの}を食べた。」と書き換えている例がある.JADESは,WMT20\cite{barrault-etal-2020-findings}日英ニュース翻訳タスクの検証・評価用サブセットの一部を,専門家が文単位で平易化して構築した小規模なパラレルコーパスである.平易文の難易度としては,日本語能力試験\footnote{\url{https://www.jlpt.jp/}}の旧3級を基準として採用している.これは,日本語非母語話者が日常的なコミュニケーションの際に必要となる,基本的な日本語を理解できる難易度で,CEFR(CommonEuropeanFrameworkofReferenceforLanguages)のB1級に相当する.表~\ref{tab:corpus_kind}にも示したように,既存の日本語テキスト平易化パラレルコーパスには,高品質と大規模を両立したコーパスは存在しない.本研究では,専門家による平易化に基づき,日本語のテキスト平易化のための高品質かつ大規模なパラレルコーパスを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{MATCHAコーパスの構築} label{sec:matcha}本研究では図~\ref{fig:matcha}のように,訪日観光客向けメディアMATCHA\footnote{\url{https://matcha-jp.com/}}から,日本語のテキスト平易化のための高品質なパラレルコーパス(MATCHAコーパス)を構築する.以降,\ref{sec:simple}節ではMATCHAのやさしい日本語の記事について,\ref{sec:preprocess}節では前処理について,\pagebreak\ref{sec:alignment}節では文アライメントについて,それぞれ説明する.なお,前処理および文アライメントは,本稿の著者である4人の大学生(日本語母語話者)が作業した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-2ia11f1.pdf}\end{center}\caption{MATCHAコーパスと文アライメントの概要}\label{fig:matcha}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{やさしい日本語の記事について}\label{sec:simple}MATCHAは,日本を訪れる旅行者に向けて,観光・グルメ・文化など,日本の情報を紹介する記事をWeb上に掲載している.MATCHAの記事は日本語だけでなく,英語や中国語など10言語で書かれており,専門家\footnote{日本語教育能力検定試験に合格後,海外で日本語教師として勤務.}によって書かれたやさしい日本語の記事も含まれる.MATCHAのやさしい日本語記事は,日本語能力試験新4級相当(旧3級相当)の文法や単語を用いて,通常の日本語記事を書き換えて作成されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{記事の前処理}\label{sec:preprocess}本研究では,2015年4月から2023年3月までの8年間に公開されたMATCHAの記事のうち,タイトルおよび本文のテキストを用いて,日本語のテキスト平易化のためのパラレルコーパスを構築する.まず,同じ内容について書かれた(URLに含まれる記事IDが一致する)日本語の記事およびやさしい日本語の記事の対を抽出し,以下の前処理を施す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{記号の削除}HTMLタグ,空白文字,本文中に含まれる装飾記号(●,■,□,・,/,※)を削除した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文分割}本文のテキストに対して「。」「?」「!」の文末記号の後に改行を入れ,自動的に文分割を行った.ただし,括弧内のテキストには文分割を適用しなかった.また,改行の次の単語が助詞となる場合にも文分割を適用しなかった.これは例えば「~してみたい!という人は~」というテキストにおいて「!」の位置で文分割するのは適切ではないと考えたためである.ここで,品詞の判定にはMeCab(IPADIC)\footnote{\url{https://taku910.github.io/mecab/}}\cite{kudo-etal-2004-applying}を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{スタイルの調整}以下の1から4を人手で行い,最後に5を自動的に実行した.なお,この作業は4人の作業者が分担して進めたが,誤字の認定や例文の認定は作業者によって判断が揺れ得るため,1から3は全作業者の同意を得てから実行した.\begin{enumerate}\item誤字脱字の修正\item注釈記号や段落番号を削除\footnote{文単位の平易化を扱う本研究では文外の情報を参照しない.}\item例文を鉤括弧で囲む\item漢字の読み仮名を削除\item本文のうち,文末記号を含まない文を削除\end{enumerate}また,無作為に選択した10記事対(1,123文)について,これらの前処理の作業者間の一致率を適合率および再現率によって評価した.その結果,全ての作業者間において0.95以上のF値であり,一貫した基準で前処理を実施できていることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{11table02.tex}%\caption{スタイル調整の具体例(\underline{\bf{下線}}は追加する修正,\protect\sol{\bf{取り消し線}}は削除する修正を表す)}\label{tab:edit_format}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:edit_format}に,スタイル調整の具体例を示す.誤字脱字がある場合は修正し,不要な括弧や注釈記号,読み仮名は削除し,文中の例文には括弧を付与した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文アライメント}\label{sec:alignment}難解な記事と平易な記事の対の中から,意味的に対応する文対を人手で抽出し,\pagebreak文単位のパラレルコーパスを構築する.文アライメントの概要については,図\ref{fig:matcha}に示す.なお,平易な記事が難解な記事を書き換えて作成されていることをふまえて,作業者は難解文を起点として対応する平易文を探す.ここで,書き換えは文単位で行われているわけではないため,全ての難解文に対して意味的に完全に対応する平易文が存在するわけではないことに注意されたい.そこで,英語の先行研究\cite{hwang-etal-2015-aligning,kajiwara-komachi-2016-building,jiang-etal-2020-neural}に従い,完全一致および部分一致の両方の文アライメントをとる.また,同じ理由で,難解文と平易文の対応関係が1文対1文になるとは限らないため,文の分割(1対n,$n>1$)および融合(m対1,$m>1$)も考慮する.ただし,本研究では文単位のテキスト平易化を対象とするため,複数文同士の対応(m対n)は扱わない.なお,文アライメントの選択肢が複数存在する場合は,記事中の文の相対位置が近い方を選択する.無作為に選択した5記事対(難解文223文,平易文280文)について,文アライメントの作業者間の一致率をFleiss'kappa\cite{fleiss-1971-kappa}を用いて計算した.その結果,一致率は$\kappa=0.90$であり,一貫した基準で文アライメントを実施できていることを確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{11table03.tex}%\hangcaption{コーパスの統計情報(文の平均文字数,文の平均単語数,単語難易度については,常に他のコーパスとの統計的有意差(ウェルチ検定における$p<0.05$)が認められた.)}\label{tab:statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{MATCHAコーパスの分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{統計情報}表~\ref{tab:statistics}に,SNOW,JADESおよびMATCHAのコーパスの統計情報を示す.前処理として,全ての英数字や記号,カタカナを半角に変換し,ルールベースの文分割\footnote{\url{https://github.com/wwwcojp/ja_sentence_segmenter}}およびMeCab(IPADIC)による単語分割を実施した.なお,MATCHAは完全一致$11,847$件のうち$11,000$件および部分一致$5,098$件のうち$5,000$件を無作為に選択してコーパスを構築した.まず語彙サイズに注目すると,平易化によってSNOWとJADESの語彙サイズが大幅に減少している一方で,MATCHAの平易文は語彙サイズ\footnote{MATCHAは多くの固有名詞を含むが,IPADIC以外の辞書を単語分割に用いるなどの特別な処理はしていない.}が大きい.これは,SNOWとJADESは基礎語彙を用いるなどの語彙制限を行っているが,MATCHAは厳密に語彙を制限していないためであると考えられる.文の平均文字数および平均単語数,平均文節数からは,JADESが長文であり,SNOWが短文であることがわかる.この差はドメインの違いに起因すると考えられる.また,平易化によってJADESとMATCHAの文長が短くなる一方で,SNOWは長くなっている.これは,SNOWの語彙制限が影響していると考えられる.SNOWでは語彙制限により,\ref{sec:ja_simp_corpora}節で例示した「豆腐→水につけた植物で作った白く柔らかいもの」のように,単語から長いフレーズへの言い換えが起こり,平易化に伴う文長の増加を引き起こしている.単語難易度は,内容語の出現頻度の対数順位を文ごとに平均した値であり,英語の先行研究\cite{alva-manchego-etal-2020-asset}で用いられている分析手法である.この値が小さいほど,より平易な単語を使用していると解釈できる.なお,本研究ではfastText\footnote{\url{https://fasttext.cc/docs/en/crawl-vectors.html}}\cite{bojanowski-etal-2017-enriching}の語彙が頻度順に並んでいることを利用して,これを計算した.平易化によってSNOWの単語難易度が上昇している一方で,専門家によって平易化されたJADESおよびMATCHAはより平易な単語が使われている.なお,SNOWにおける基礎語彙2,000語への語彙制限が単語難易度に影響を与えているかどうかを確認するために,SNOWの基礎語彙および各コーパスの平易文中の単語が,fastTextの単語頻度順位の中でどのように分布しているのかを表すヒストグラムを図\ref{fig:element_word_rank}に示す.どのコーパスも同様の頻度分布で単語が使用され,特にSNOWの基礎語彙2,000語は高頻度領域に集中していることから,SNOWの語彙制限が単語難易度の推定に悪影響を与えている可能性は低い.平易文の単語難易度は,アノテータの質によって影響を受けることが示唆される.表~\ref{tab:alignment-type}に,各コーパスにおける文アライメントの種類ごとの割合を示す.SNOWおよびJADESは難解文から平易文に文単位で書き換えているため,部分一致の文対は存在しない.一方で,MATCHAは約3割が部分一致である.また,JADESおよびMATCHAはSNOWよりも1対nの文アライメントの割合が多い.これは,JADESやMATCHAには文長の長い難解文が含まれるため,これを効果的に平易化するために文分割が積極的に行われているからだと考えられる.m対1も含めて,JADESやMATCHAはSNOWよりも文単位の大域的な変換を豊富に含むことが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-2ia11f2.pdf}\end{center}\caption{fastTextの単語頻度順位における平易文中の単語の分布}\label{fig:element_word_rank}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{11table04.tex}%\caption{文アライメントの種類の内訳}\label{tab:alignment-type}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手評価}\label{sec:corpus_human_eval}各コーパスの完全一致の文対の中から200文対ずつを無作為に選び,\pagebreak平易化操作の出現回数を数えた結果を表~\ref{tab:operation_result}に示す.ここで,平易化操作には,語句の挿入・語句の削除・単語の置換という語彙に関する変換と,並び替え・文分割・文融合という構文に関する変換が含まれる.また,語彙と構文の両方に関係する句の置換も扱う.SNOWの平易化操作が語句の置換に集中している一方で,JADESやMATCHAには語句の挿入や削除,並び替えや文分割など,多様な変換が含まれることがわかる.なお,短い難解文に対しては,語句の削除や文分割が起こりにくいと考えられるため,最も文長の短いSNOWに合わせて,難解文の平均単語数が11となるように制限した評価も行った.短い文に対しても同様に,SNOWが語句の置換を中心とする平易化を行っている一方で,JADESやMATCHAは文分割以外の多様な変換を行っている.SNOWを平易化した非専門家は語句の置換を中心に行い,JADESやMATCHAを平易化した専門家は多様な平易化操作を行っていることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{11table05.tex}%\hangcaption{200文対ごとに含まれる平易化操作の出現回数.上段は各コーパスの全体から,下段は最も短いSNOWに合わせて難解文の平均単語数が11となるように,それぞれ無作為抽出した文対を対象とする.}\label{tab:operation_result}\vspace{-0.75\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%コーパスの品質評価のために,同様に選んだ200文対を,3人のアノテータによって解釈性・正確性・平易性の観点から人手評価した.これらのアノテータは,著者ではない日本語母語話者の大学生である.人手評価には,機械翻訳の人手評価に用いられる解釈性(5点満点)および正確性(7点満点)の評価基準\cite{sudoh-2021}を用い,さらに以下の平易性(5点満点)の評価基準を追加した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文意解釈性(5点満点)}\begin{enumerate}\item何を伝達しようとしているかが理解できない箇所がある\item表記や文法の誤り,表現の問題でしっかり読まないと伝達内容が理解できない\item表記や文法の誤りがあるが,伝達内容の理解は容易\item文法的に正しいが,不自然な表現がある\item文法的に正しく,言葉遣いも自然である\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文意正確性(7点満点)}\begin{enumerate}\item文意が理解できず,正確性評価に値しない\item参照文と無関係な内容が伝達されている\item参照文と矛盾する内容が伝達されている\item参照文と矛盾とまではいかないが重要な情報の誤りや過不足があり文意の重大な誤解が起こり得る\item参照文と文意に若干の齟齬はあるが,大きな誤解を招くほどではない\item参照文と文意に僅かな違いがあるが,ほぼ誤解の心配はない\item参照文と文意が同一と考えて差し支えない\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{平易性(5点満点)}\begin{enumerate}\item原文と無関係な内容であり,評価に値しない\item原文よりも理解しにくい\item原文と理解しやすさに変わりがない\item原文よりも僅かに理解しやすい\item原文よりも理解しやすい\end{enumerate}評価結果の平均値を表~\ref{tab:corpus_eval_result}に示す.MATCHAは解釈性および正確性が他のコーパスよりも顕著に高く,日本語の言い換えとしての品質が高いことがわかる.これは,専門家によって書かれた記事の中から,我々が誤字脱字を修正した上で注意深く文アライメントを行った成果である.JADESも専門家が携わっているが,こちらは解釈性や正確性を犠牲に平易性を重視しているのが対照的である.このことから,解釈性および正確性と平易性の間にはトレードオフの関係があることが示唆される.平易性に関して,JADESでは充分に平易な原文をコーパスから除外しているため,相対的な平易性の差が表れやすいことも要因のひとつである.SNOWはMATCHAと同等の平易性を持つものの,解釈性および正確性の観点ではMATCHAほどの品質ではないと言える.各評価指標においての平均順位を考慮すると,表\ref{tab:corpus_kind}の「言い換えの品質」に示したように,MATCHA$>$SNOW$>$JADESの順で高品質なコーパスであると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{11table06.tex}%\hangcaption{{コーパス品質の人手評価(解釈性と平易性は5段階評価,正確性は7段階評価.\textbf{太字}は最高値である.$^{\dagger}$は\textbf{太字}とその他の統計的有意差(Bootstrap検定における$p<0.05$)が認められたことを示す.})}\label{tab:corpus_eval_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人手評価における評価者間の一致度をQuadraticWeightedKappa\cite{cohen-1968}を用いて計算した結果を表\ref{tab:corpus_result_qwk}に示す.全ての観点において,全ての評価者間で$\kappa>0.4$の中程度の一致を確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{11table07.tex}%\caption{コーパス人手評価における評価者間の一致度(QuadraticWeightedKappa)}\label{tab:corpus_result_qwk}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} 本実験では,本研究で構築したMATCHAおよび既存の大規模な日本語テキスト平易化コーパスであるSNOW\cite{maruyama-yamamoto-2018-simplified,katsuta-yamamoto-2018-crowdsourced}を用いてテキスト平易化モデルを訓練し,それらの性能を評価する.既存の小規模な日本語テキスト平易化コーパスであるJADES\cite{hayakawa-etal-2022-jades}は評価用に使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データセット}データセットの規模を表\ref{tab:dataset}に示す.まず,検証用および評価用データについて説明する.MATCHAの検証用および評価用データは,完全一致の文対の中からそれぞれ$500$件ずつを無作為に抽出した.先行研究\cite{hatagaki-etal-2022-parallel}に従い,SNOWはマルチリファレンス部分の$100$文対を評価用に,その他から無作為抽出した$2,000$文対を検証用に用いた.JADESについては,全てを評価用データとして使用し,検証用データにはMATCHAおよびSNOWの検証用データを合わせた$2,500$文対を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{11table08.tex}%\caption{モデルとデータセットの構成}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,モデルと訓練データについて説明する.MATCHA-10kは,MATCHAの完全一致の文対のみを用いて訓練したモデルである.MATCHA-15kは,MATCHAコーパスの全体を用いて訓練したモデルである.SNOW-15kは,訓練データ量を合わせた比較のために,SNOWの訓練用データの中からMATCHAコーパスと同じく$15,000$文対を無作為に抽出して訓練したモデルである.SNOW-82kは,SNOWの検証用データと評価用データ以外の文対を全て用いて訓練したモデルである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モデル}テキスト平易化モデルは,マスク言語モデリングによって事前訓練された日本語BART(BART-basev2)\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?BART日本語Pretrainedモデル}}\cite{lewis-2020}を,それぞれの訓練データ上でファインチューニングして構築した.BARTの訓練には,fairseqツールキット\cite{ott-2019}を使用した.訓練の設定は基本的に公式の設定に従うが,earlystoppingを採用し,検証用データのクロスエントロピー損失が5回連続で改善しない場合に訓練を終了した.また,学習率は$\{2e-5,3e-5,4e-5,5e-5\}$の中から検証用データにおける損失が最低となる値を採用した.前処理は,全角化を施し,Juman++v2.0.0-rc3\footnote{\url{https://github.com/ku-nlp/jumanpp}}\cite{Morita-2015,Tolmachev-2018}による単語分割の後に,BARTに付属のSentencePiece\cite{sentencepiece}モデルを用いてサブワード分割を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価指標}テキスト平易化モデルの性能は,EASSE\footnote{\url{https://github.com/feralvam/easse}}\cite{alva-manchego-etal-2019-easse}を用いてSARI\cite{xu-etal-2016-optimizing}を評価した.SNOWのみ7種類ずつの参照文を持つマルチリファレンスであることに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自動評価による実験結果}\label{sec:model_auto_eval}自動評価の結果を表\ref{tab:sari}に示す.まず,ドメイン内の評価用データに対して各ドメインのモデルが高い性能を達成すること,訓練データ量が多い方が高い性能を達成することがわかる.次に,同じ訓練データ量のMATCHA-15kおよびSNOW-15kの比較から,ドメイン外のJADESにおいてより高い性能を達成したMATCHAがより高品質な訓練データであることが示唆される.一方で,MATCHA-15kとSNOW-82kを比較すると,より大規模なSNOW-82kがJADESにおいて最高性能を示した.また,MATCHAの2モデルの間ではMATCHA-15kの方が高い性能を達成したことから,部分一致の文対も訓練に含め,訓練データ量を増やすことが重要であることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{11table09.tex}%\hangcaption{SARIによる自動評価の結果{(MATCHA-15kについて,$^{\dagger}$はMATCHA-10k,$^{\ddagger}$はSNOW-15kとの統計的有意差(Bootstrap検定における$p<0.05$)が認められたことを示す.\textbf{太字}は最高値である.)}}\label{tab:sari}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{人手評価による実験結果}詳細な品質評価のために,各コーパスから均等に合計200件を無作為抽出し,3人のアノテータによって\ref{sec:corpus_human_eval}節と同様に解釈性・正確性・平易性の人手評価を実施した.表~\ref{tab:model_eval_result}に示す評価結果から,解釈性と正確性においてはMATCHAで訓練したテキスト平易化モデルが高い性能を達成することがわかる.これは,表~\ref{tab:corpus_eval_result}に示したとおり,訓練データの性質を反映し,MATCHAで訓練したモデルが解釈性および正確性のより高い平易化を実現できたと考えられる.MATCHAの2モデルの間では,完全一致の文対のみで訓練したMATCHA-10kモデルの方が解釈性および正確性に秀でている一方で,平易性に関しては部分一致の訓練データも含むMATCHA-15kモデルの方が優れている.同じ訓練データ量のMATCHA-15kおよびSNOW-15kの比較からは,全ての観点においてMATCHAで訓練したモデルの方が高性能であることがわかる.このことから,MATCHAコーパスで訓練したモデルは,\ref{sec:corpus_human_eval}節で言及した解釈性および正確性と平易性の間のトレードオフを,少なくとも同規模の訓練データを用いる設定では,克服できていることがわかる.一方で,大規模なSNOWの全体で訓練したモデルは,平易性に関して最高性能を達成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{11table10.tex}%\hangcaption{モデル品質の人手評価(解釈性および平易性は5段階,正確性は7段階評価.\textbf{太字}は最高値である.$^{\dagger}$は\textbf{太字}とその他の統計的有意差(Bootstrap検定における$p<0.05$)が認められたことを示す.)}\label{tab:model_eval_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{11table11.tex}%\caption{モデル人手評価における評価者間の一致度(QuadraticWeightedKappa)}\label{tab:result_qwk}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\ref{sec:corpus_human_eval}節と同様に,人手評価における評価者間の一致度をQuadraticWeightedKappa\cite{cohen-1968}を用いて計算した結果を表\ref{tab:result_qwk}に示す.全ての観点において,全ての評価者間で$\kappa>0.4$の中程度の一致を確認できた.また,解釈性においては,$\kappa>0.6$のかなりの一致が見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では,新しい日本語のテキスト平易化パラレルコーパスMATCHAについて説明した.我々は,専門家が平易化した記事の対から人手で文アライメントをとることによって,$16,000$文対の大規模かつ高品質なテキスト平易化パラレルコーパスを構築した.本コーパスを分析したところ,既存の日本語テキスト平易化パラレルコーパスと比較して,より多様な平易化操作を含み,より流暢かつ意味を保持しながら平易化された文を収録できていることが明らかになった.また,MATCHAコーパスを用いて訓練したテキスト平易化モデルは,コーパスの特性を反映し,既存のコーパスを用いて訓練したモデルよりも高品質なテキスト平易化を実現できた.しかし,より大規模な既存コーパスを用いて訓練したモデルの方が,生成文の平易性に関しては高い人手評価を得た.今後の課題として,大規模言語モデル\cite{brown-2020}の活用やデータ拡張\cite{kajiwara-2020}の適用などによって,コーパスサイズの問題を克服したい.また,元の記事が多言語で記述されていることを利用し,英語など他言語の文とも文アライメントをとり言語横断のテキスト平易化パラレルコーパス\cite{marchisio-etal-2019-controlling,agrawal-carpuat-2019-controlling,tani-etal-2022-benchmark}へと拡張したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,愛媛大学と株式会社MATCHAの共同研究の成果をまとめたものであり,内閣府総合科学技術・イノベーション会議の戦略的イノベーション創造プログラム(SIP)第3期「統合型ヘルスケアシステムの構築」(研究推進法人:JST)の助成を受けて実施されたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{11refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{宮田莉奈}{2024年愛媛大学工学部工学科卒業.同年同大学大学院理工学研究科に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{惟高日向}{2023年愛媛大学工学部工学科卒業.同年同大学大学院理工学研究科に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{山内洋輝}{2023年愛媛大学工学部工学科卒業.同年同大学大学院理工学研究科に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{柳本大輝}{2023年愛媛大学工学部工学科卒業.同年同大学大学院理工学研究科に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{梶原智之}{愛媛大学大学院理工学研究科講師.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).2018年より大阪大学データビリティフロンティア機構の特任助教,2021年より愛媛大学大学院理工学研究科の助教を経て,2024年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{二宮崇}{1996年東京大学理学部情報科学科卒業.1998年同大学大学院理学系研究科修士課程修了.2001年同大学大学院理学系研究科博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\bioauthor{西脇靖紘}{株式会社MATCHA取締役CTO.2008年静岡大学情報学部情報社会学科卒業.2009年早稲田大学大学院国際情報通信研究科修士課程修了.Coltテクノロジーサービス株式会社,株式会社サイバーエージェントを経て,2021年より現職.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V20N03-04
\section{はじめに} 2011年3月11日に発生した東日本大震災の被災範囲の広大さは記憶に新しい.この震災では,既存マスメディア(放送・新聞・雑誌等)だけでなく,Twitterなどのソーシャルメディアによる情報発信が盛んに行われた\cite{Shimbun,Endo2}.しかしながら,大手既存メディアは被災報道を重視していた.実際,被災者にとって有用な報道として,災害時でも乾電池で駆動可能なラジオ,並びに,無料で避難所等へ配布された地元地方紙が役に立ったことが,\cite{Fukuda}の被災者アンケートで調査報告されている.この様な震災初期の状況の理由として,阿部正樹(IBC岩手放送社長)は,震災発生当時の被災地において,テレビは「テレビ報道は系列間競争の中でどうしても全国へ向かって放送せざるを得ない.(中略)被災者に面と向き合う放送がなかなか出来ない,被災者のためだけの放送に徹し切れない.」というジレンマがあったとする一方,「しかしラジオは違う.地域情報に徹することが出来る.(中略)テレビではどこそこの誰が無事だという情報はニュースになりづらい.しかし,ラジオでは大切な情報なのだ.いつしかラジオが安全情報,安否情報へと流れていったのは自然なことだったと思う.」と述懐している\cite{IBC}.震災初期から,ソーシャルメディアの一つであるTwitterには,救助要請ハッシュタグ{\tt\#j\_j\_helpme}\cite{Twitter_tags}が付与された大量の救助の声が寄せられていた.(被災地マスメディアの一つであるラジオ福島は,当時生きていた3~G回線を用いて,Twitterによる情報収集・発信を行っている\cite{rfc}.)ただし,これら救助要請の多くには「【拡散希望】」という文字列が含まれていたため,それを見た「善意の第三者」は,Twitterのリツィート機能(全文引用機能)を用いる傾向が高かった\cite{Ogiue,Tachiiri}.結果として,リツィートによって救助要請の類似情報がTwitterへ膨大に流れたものの,「実際に救助要請情報が警察など関係機関へ適切に通報されたかどうか」という最も重要な情報のトレースは,著しく困難なものになった.この様な状況を解消するために,我々は2011年3月15日,Twitter上の救助要請情報をテキストフィルタリングで抽出し,類似文を一つにまとめて一覧表示するWebサイトを開発し,翌16日に公開した\cite{Aida0,extraction,Aida1}.本論文では,本サイトの技術のみならず,救助要請の情報支援活動プロジェクト{\tt\#99japan}と本サイトとの具体的な連携・活用事例について述べる.ここで{\tt\#99japan}とは,救助状況の進捗・完了報告を重視するTwitterを用いたプロジェクトであると共に,発災2時間後,2ちゃんねる臨時地震板ボランティアらによって立ち上げられたスレッド「【私にも】三陸沖地震災害の情報支援【できる】」\cite{2ch}を由来する.このスレッドは,「震災初期におけるネット上のアウトリーチ活動記録」として,特筆に値する. \section{Twitter} {\bfTwitter}とは,Web上で140字以内の短文による{\bfツィート(Tweet)}を投稿することで情報発信出来る,{\bfソーシャルメディア}の一種である.Twitterのブラウザ表示例を図\ref{fig:Twitter}に示す.以降,本論文に関連するTwitterの用語・概念について述べるが,より詳細については\cite{Twitter_help}を参照されたい.\begin{figure}[b]\begin{center}\includegraphics{20-3ia5f1.eps}\end{center}\caption{Twitterのブラウザ表示の一例(一関コミュニティFM・{\tt@FMasmo}のツィート)}\label{fig:Twitter}\end{figure}{\bfユーザ名(UserName)}とは,TwitterへのログインIDであり,{アルファベット・数字・アンダースコアの組合せ文字列}として(既存ユーザ名と重複がなければ)自由に決められる.従来の電子掲示板やチャットとは異なり,ユーザ同士が{\bfフォロー(Follow)}し合うことで,ソーシャルネットワークを成す.このネットワークにおいて,フォロー元のユーザを{\bfフォロワー}と呼ぶ.ユーザのページには,自分のツィートと,フォローしている他ユーザのツィートなどが時系列順に表示される.これを,ユーザの{\bfタイムライン(TimeLine)}と呼ぶ.{\bfパブリックタイムライン(PublicTimeLine)}とは,「(非公開ユーザを除く)全ユーザのタイムライン」を指す.ここで,{\bf非公開ユーザ}とは,フォローを許可制にしているユーザを指す.非公開ユーザでなければ誰からもフォローされ得るが,任意のフォロワーを{\bfブロック}すると,フォローを拒否出来る.{\bf返信(Reply)}とは,ユーザのツィートの内容に対して,メールの返信のようにそのユーザへ向けてツィートすることである.返信する場合,「返信ボタン」(図\ref{fig:Twitter}の左方向矢印)をクリックすると,文頭に返信先ユーザ名が``{\tt@ユーザ名}''のように表示される.返信に限らず,任意のツィート中に``{\tt@ユーザ名}''を含めると,ツィートはそのユーザのタイムラインにも反映される.それを{\bf言及(Mention)}と呼ぶ.言及は通例,ユーザのツィートの出典が解るよう``{\ttRT@ユーザ名:ツィートの一部}''付きで引用し,それについて言及するツィートを前置する場合が多い.{\bfリツィート(Retweet,RT)}とは,「全文引用すること」を意味する.リツィートによって,ユーザのタイムライン上のツィートを全文引用し,それをフォロワーへ一斉に拡散出来る.リツィートを受信したフォロワーは,さらにそれをリツィートすることも出来るため,一般に興味・関心を惹く深いツィートは伝播されやすい.特に,フォロワー数の多いユーザ(有名人など)のリツィートは伝播されやすい傾向があり,ソーシャルメディアの特徴と言える.リツィートをする場合は,「リツィートボタン」(図\ref{fig:Twitter}の折れ線矢印二組の記号)をクリックする.この機能を{\bf公式リツィート}と呼ぶ.一方,{\bf非公式リツィート}とは,リツィートボタンを押さずに,コピー\&ペーストなどによる全文引用を指す.非公式リツィートは公式リツィートとは異なり,引用元ツィート日時ではなく,引用日時が記録されてしまう.そのため,最初のツィート日時の把握が困難になる,引用元がツィートを削除した場合も引用先情報は削除されない,など様々な問題点が指摘されている\footnote{ただし,かつてリツィートはユーザが情報拡散のために始めた試みであり,「{\ttRT@発言ユーザ名:ツィート}」形式で全文引用していた.この機能を,Twitter社がRTボタンを押すだけでリツィート出来る機能を実装し,それを「公式リツィート」と呼んでいる.}.{\bfハッシュタグ}とは,ツィートの任意の位置に挿入出来る,自分の興味・関心に関係する``{\tt\#}''で始まるアルファベット・数字・アンダースコアの組合せで表現される文字列である.(なお,2011年7月13日より「{\tt\#日本語}」などマルチバイト日本語文字列のハッシュタグが利用可能になった\cite{nihongo}.)図\ref{fig:Twitter}中の``{\tt\#cfmasmo}''はハッシュタグの使用例である.ツィート内の``{\tt@user}''や``{\tt\#hashtag}''から自動的にリンクが張られ,そのリンクをクリックすることで,「{\tt@user}のタイムライン」や「{\tt\#hashtag}のタイムライン」をそれぞれ得られる.ハッシュタグに限らず,Twitterでは任意の検索語でパブリックタイムラインを,図\ref{fig:Twitter}上部の検索フォーム等から検索出来る.Twitterは,上述のツィート・リツィート・返信・言及・ハッシュタグなどによって,フォロワーだけでなく,共通の関心事を持つユーザを意識した投稿が出来る{\bfマイクロブログ}でもある.以降,本論文ではツィートを以下の形式で表す.\begin{quote}\twitter{@user2user2user3への言及ツィート\#tag${}_1$...\#tag${}_n$\\RT@user3:user3のツィートの部分引用...}{YYYY/MM/DDhh:mm:ss}{user1}\end{quote} \section{救助要請情報} \label{request}震災初期の救助活動において,検討すべき救助要請情報を整理した結果,以下を識別した:\begin{enumerate}\item救助要請の1次情報.\item救助要請の2次情報.(あるいは重複情報.)\item救助要請とは無関係な情報.\item救助完了報告.\end{enumerate}我々は,まず(1)〜(3)に着目した.本論文では,(1)及び(2)を{\bf救助要請情報},(3)を{\bf非救助要請情報}と呼ぶ.ここで(2)は,Twitter上での情報拡散を希望する文字列(【拡散希望】等)が付与されてリツィートされた情報も含む.このような情報は,救助活動においては情報が拡散するだけで通報されたのかどうか判明しない恐れがあるが,遠隔地から被災地の現状をある程度把握できる利点も有り得る.\subsection{Twitter上の救助要請情報}Twitter上での救助要請の「1次情報」はオリジナルツィート,「2次情報」はリツィート・返信・言及にそれぞれ該当する.その文例を以下に挙げる:\begin{itemize}\item{\bf1次情報:}\begin{quote}\twitter{【拡散希望】宮城県の○○病院で100人以上孤立している模様.\#j\_j\_helpme\\}{2011/3/1201:23:45}{foo}\end{quote}\item{\bf2次情報(リツィート):}\begin{quote}\twitter{RT@foo:【拡散希望】宮城県の○○病院で100人以上孤立している模様.\#j\_j\_helpme}{2011/3/1201:23:45}{bar}\end{quote}\item{\bf2次情報(返信):}\begin{quote}\twitter{@foo本件について,どなたも通報されていないようでしたので,警察へ通報致しました.\#j\_j\_helpme}{2011/3/1212:34:50}{baz}\end{quote}\item{\bf2次情報(言及):}\begin{quote}\twitter{どなたか本件の情報発信元をご存じの方はいらっしゃらないですか?RT@foo:【拡散希望】宮城県の○○病院で100人以上孤立している模様.\#j\_j\_helpme\\}{2011/3/1201:30:00}{bar}\end{quote}\end{itemize}一般に,2次情報の場合は引用・返信先を明示する``{\tt@ユーザ名}''が含まれ,なおかつ,そのユーザのタイムラインにも2次情報のツィート本文が表示される.また,1次情報でも,任意の``{\tt@ユーザ名}''を含むツィートが出来る.本論文では,リツィートの場合,文頭に``{\ttRT}''(ReTweetの略)と``{\tt@引用元ユーザ名}''を付記する.なお,言及の場合は,``{\ttRT}''の他に``{\ttQT}''(QuoteTweetの略)が用いられることもある.Twitterでは,下記のように先頭から時系列を遡って言及文は前置,引用文は後置され,一次情報が最後置される場合が顕著である.\begin{quote}\twitter{user2への言及文RT@user2:user3への言及文RT@user3\\$\ldots$RT@user$n$:一次情報}{YYYY/MM/DDhh:mm:ss}{user1}\end{quote}救助要請の情報源は,被災地から直接寄せられたものだけでなく,知人宛のメール伝聞や,電子掲示板情報など,様々ありえるが,我々は{\bf1次情報を「重要度の高い救助要請ツィートの情報源」}と定めた.2次情報については,リツィートの場合,全文引用であるため1次情報と同一視可能であり,また言及・返信の場合,上述の考察より最後置引用文が1次情報となる可能性が高いため,重要度は1次情報よりも相対的に下がる.\subsection{救助要請情報の傾向}\label{key}救助要請情報に含まれやすい語による検索結果には,それ以外の情報も数多く含まれうる.そこで,救助要請情報を抽出するために,それらの語の特徴を正規表現としてまとめた.\begin{enumerate}\item救助要請情報は,以下を含むものとする:\begin{itemize}\item「地名+県・市・区・町・村」など住所に含まれる語.{(5語)}(救助要請の発信先特定のため.)\item「孤・救・助・命・探・願・捜・求・送・食・水・届・死・衰」や,「消息・深刻・要請・避難」など,ライフライン未復旧や安否確認に起因する語.{(21語)}\end{itemize}\item非救助要請情報は,以下を含むものとする:\begin{itemize}\item過去のデマに含まれていた固有名詞{など.}{例:デマ,花山村,競輪場,ピースボート,ヨーグルト,納豆,など.(14語)}\item報道機関のTwitter公式アカウント.(報道機関{が発信した}情報は警察など関係機関へ既報済みの可能性が高いため.){例:{\ttradio\_rfc\_japan},{\ttfct\_staff},{\tt[Aa]sahi},{\ttFKSminpo},{\tt[Nn][Hh][Kk]},{\ttnhk\_seikatsu},{\tti\_jijicom\_eqa},{\ttkahoku\_shimpo},{\ttakt\_akita\_tv},{\ttNTV,telebee\_tnc},{\ttNISHINIPPON},{\ttzakdesk},{\tt781fm},など.(20語)}\item政治家や著名人など特定人名,国名,政党名,団体名.(思想・信条を含む情報は救助要請の可能性が低いため.){例:民主党,自民党,社民党,共産党,公明党,みんなの党,など.(9語)}\item{特定の国名・国際機関.(国名・機関名は報道等の二次情報の可能性が高いため.}{例:アメリカ,フランス,ドイツ,ケニア,国連,ユニセフ.(6語)}\item原発事故関連の語.(救助要請に科学用語を含む可能性は低いため.){例:セシウム,ヨウ素,ウラン,プルトニウム,ストロンチウム,マイクロ,ベクレル,シーベルト,放射線,放射能.(10語)}\item{救助要請情報に用いられないであろう語.}{例:笑,批判,テロ,など.(8語)}\item{ハッシュタグが濫用されたツィートに含まれていた語.}(ハッシュタグ{本来の意味}と無関係な内容のため.){例:予測市場,リスクマネジメント情報,{\tt\#oogiri},など.(6語)}\end{itemize}\end{enumerate}\subsection{救助要請情報の表示方針}2011年3月15日は震災初期であったため,救助要請情報の抽出処理サイトを速やかに構築・公開する必要があった.我々は,必要な救助要請情報が埋もれないように敢えて単一ページ内に大量表示することにした.(当初は300件,2012年1月30日当時1000件.)このようにした理由を以下に挙げる:\begin{enumerate}\item抽出した情報はノイズが含まれうる.正規表現によるフィルタリング規則を厳しくすると,本当の救助要請情報が表示されない恐れがあるため,「本当にそれが真の救助要請かどうか」は,閲覧者の判断に委ねることとした.\item表示された救助要請情報を閲覧して通報活動を行うボランティアは,被災地以外の者でPC用電源環境が確保されていると仮定した.また,2011年時点の一般世帯のPC環境では,大量の情報を表示しても,ブラウザ動作が不安定になることは無い.\item同一ページ表示であれば,どのブラウザもデフォルトで備えている検索機能で,任意の語で文を検索できる.\itemページ分割(pagination)されていると,利用者にリンク遷移作業などを強いるため,ページ分割を行わない.\end{enumerate}この方針に基づき,次節で述べる情報抽出アルゴリズムの試作版を2011年3月15日に実装,翌16日にインターネット上に公開\cite{extraction}し,その後も改良に努めた.また,デマ等のノイズは事前に想定出来ないため,それらに含まれうる語を分析し,前節の「非救助要請情報が含む語」の定義に適宜追記した.\subsection{救助要請情報の抽出手法}\label{algorithm}\begin{figure}[t]\begin{center}\sloppy\begin{screen}\tt\#j\_j\_helpme\#j\_i\_helpme\#hinan\#jishin\#jisin\#tunami\#311sppt\#311care\#311sien\#itaisousaku99japan\#anpi\#aitai\#Funbaro\#hope4japan\#prayforjapan\#ganbappe\#save\_busshi\#save\_volunteer\#save\_gienkin\#save\_kids\#saigai\#shinsai\#tasukeai\#fukkou\#fukko\#save\_miyagi\#save\_fukushima\#save\_iwate\#save\_aomori\#save\_ibaraki\#save\_chiba\#save\_nagano\#save\_sendai\#save\_ishinomaki\#save\_iwaki\#ishinomaki\#shiogama\#rikuzentakata緊急地震余震火事怪我負傷者自宅避難避難所孤立餓死\\緊急+救助食料+不足物資+不足食糧+不足救援支援安否消息栄村陸前高田釜石大船渡\\気仙沼南三陸歌津志津川石巻松島亘理山元相馬いわき飯舘\end{screen}\end{center}\caption{救助活動が最も盛んだった時期の検索語一覧(2012年4月22日確認時)}\label{keyword}\end{figure}救助要請情報の抽出アルゴリズムの手法概要は以下のとおりである:\begin{enumerate}\item図\ref{keyword}に示した検索語それぞれについて,それを含むツィート情報を「1500ったー」\cite{1500}よりHTML取得する.\item取得したすべての情報に対して,以下を行う:\begin{enumerate}\itemHTMLからツィートのみ抽出し,直前までに抽出していたものにマージ後,そのログを保存する.\item抽出した救助要請情報候補から,非救助要請情報と思われるものを,\ref{key}節の規則に従ってフィルタリングする.\itemフィルタリング済みの救助要請情報候補から,下記手続きで{\bf類似ツィート判定キー}を生成する:\begin{enumerate}\item文頭から``{\tt@}''までの最長文字列を削除する(ユーザ名付き1次情報抽出).\itemASCII文字(ユーザ名含む)・全角記号・仮名文字などを除去したマルチバイト文字列の前15字分を類似ツィート判定キーとする.\end{enumerate}\item類似ツィート判定キーが一致するツィートは同値と見なし,ツィート回数をカウントする.同値類の中で,最も古い日時のものを,その同値類の{\bf代表ツィート}とし,同値のツィートの最新日時を更新時刻として記録する.\item更新時刻の新しい順でソートする.\end{enumerate}\item得られたツィート情報をそれぞれ下記5項目としてまとめ,上位1000件をHTMLへ変換し,サイトを更新する.\begin{itemize}\item救助要請情報の通し番号\item救助要請代表ツィート本文\item最新ツィート日時\item最古ツィート日時(本サイトで最初に観測した代表ツィートの日時)\itemツィート回数(代表ツィートの同値類の数)\item推定情報源URL(``http://twitter.com/ユーザ名/statuses/発言ID''の形式)\end{itemize}\end{enumerate}ここで,ツィートには任意の位置に``{\tt@ユーザ名}''を含めることが出来るため,以下のようにユーザ名を後置している場合,1次情報が``{\tt@}''の前置であるため類似ツィート判定キーは空語になるが,Twitterの慣習上,このような文例はほとんど出現しないことより無視する.\begin{quote}\twitter{1次情報$\ldots$@user2}{YYYY/MM/DDhh:mm:ss}{user1}\end{quote} \section{救助活動} Webベースでの救助活動には,ボランティア同士で救助要請の通報状況を共有する必要がある.本サイト開設後,このような活動を個人で行なっていた株式会社エコヒルズ代表取締役・田宮嘉一氏との出会いがきっかけとなって,\ref{99japan}節で述べる{\tt\#99japan}へ我々も参加した.\subsection{震災初期のネットの状況}震災初期は,ネット上において多くのボランティア活動が立ち上げられた.また,GoogleやYahoo!などのポータルサイトにおいて,情報提供が行われた.特に,2010年1月のハイチ地震から使われた安否確認システム``GooglePersonFinder''はよく知られている\cite{GPF}.さらに,様々なネット上の情報源からGooglePersonFinderへの安否情報を強化するプロジェクト``ANPINLP''\shortcite{anpi_nlp}が自然言語処理研究者らボランティアによって立ち上げられ,Twitterからは33242に及ぶツイートにタグ付けされた\cite{anpi_nlp_proc}.救助活動を含めたシステムとしては,``sinsai.info''\shortcite{sinsai.info}が知られている.このサイトは,2007年のケニア大統領選挙以降,多くの人災・天災で用いられたクラウドソーシングツールUshahidiを用い,震災当日に構築されたシステムとして有名である\cite{sinsai.info_TechWave}.その他,放射線量マップや,Twitterの震災関連タグが付与されたツィートのタイムライン表示サイトなど,様々なシステムが公開された.しかしながら,無数に生まれたシステムと,震災初期の全国各地のボランティアとの連携は必ずしも迅速に出来たとは言えない.寧ろ,ボランティア側が既存システムを利用して,試行錯誤的に規則を決めて活動していた事例も多い.その一例として,2ちゃんねる臨時地震板において震災当日に立てられたスレッド「【私にも】三陸沖地震災害の情報支援【できる】」\cite{2ch}を中心として,「東北大震災まとめWiki」\cite{atwiki}や「共同編集:被害リアルマップ東北地方太平洋沖地震(救助用マップ)」\cite{map1}が挙げられる.これらは,以下に示す経緯で開設された:\begin{enumerate}\item発災直後,2ちゃんねる臨時地震板スレッド「震度7」\cite{2ch_shindo7_1}が立ち上がる.\itemその後「震度7その2」〜「震度7その5」\cite{2ch_shindo7_2,2ch_shindo7_3,2ch_shindo7_4,2ch_shindo7_5}の順序でスレッドが立ち上がる.\item「震度7その5」\cite{2ch_shindo7_5}47番目の投稿ユーザ{\ttID:nx64KwTT}が,発災2時間後にスレッド「【私にも】三陸沖地震災害の情報支援【できる】」\cite{2ch}を立て,11番目の投稿で「東北大震災まとめWiki」\cite{atwiki}開設を表明する.\item翌12日,ユーザ{\ttID:EJYqO+nC0}が立てたスレッド「被害状況まとめGoogleマップ希望スレ」\cite{2ch_map}で「救助用マップ」\cite{map1}が開設されたことが,同日\cite{2ch}436番目の投稿で表明される.\end{enumerate}後にこれらのサイトの情報は,「東日本大震災(東北地方太平洋沖地震)@ウィキ」\shortcite{matome_wiki}に一元化された.\subsection{「東日本震災支援{\tt\#99japan}」}\label{99japan}2011年3月15日,田宮嘉一氏(TwitterID:{\tt@ktamiya})は,ブログのコメント欄を用いて通報活動履歴を管理していた\cite{ktamiya}.同氏は3月18日,自身のTwitterのフォロワー数(10万超)が多い利点を活かして情報支援活動のメンバーを募集,{\bf「東北関東大震災救助支援プロジェクト{\tt\#99japan}」}が組織された(現「東日本震災支援{\tt\#99japan}」).募集時の活動概要は以下のとおりである\cite{99japan1}:\begin{itemize}\item{\bf目的:}Twitter等での救助要請の声を適正機関に伝達する支援を行い,被災者を救う.\item{\bf活動内容:}主に被災者の情報の整理,内容確認,アドバイス,救助要請の代行.期間は物資が行き渡り,復興段階に入る頃までを予定.\end{itemize}このプロジェクトでは,Googleマップのデフォルト機能を用いて構築された前述の「救助用マップ」\cite{map1}と「物資要請・提供マップ」\cite{map2}の使用,並びに編集規則が採用された.なお,これらマップ開設者らも{\tt\#99japan}に合流していることより,{\tt\#99japan}は「東日本大震災最初期の情報支援プロジェクト」の一つと言える.``{\tt\#99japan}''はプロジェクト名であると共に,ハッシュタグでもある.このタグ付きでツィートすることで,プロジェクトメンバーはいつでも救助要請情報や通報状況情報を共有出来る.もちろん,メンバー以外の人でもツィートは閲覧可能である.この{\bf「ハッシュタグによる緩やかなユーザ間の情報共有」が,「Twitterベースのボランティア活動」最大の特徴である.}``{\tt\#99japan}''における情報共有・マップ編集・情報元確認作業の流れを以下に示す:(\texttt{@ma\_chiman}2011a)\nocite{99japan2}\begin{itemize}\item{情報共有・マップ編集作業}\begin{enumerate}\item{各活動者は,本サイトなどで得た救助要請情報や関連情報に対して,``{\tt\#99japan}''を付加したツィートを発言することで,有益な情報を集約させ,各活動者が短時間で情報の把握ができるようにする.}\item{共有された情報に従い,各活動者はマップから通報対象地点を選び,警察など関係機関に電話・メール・ツィートする.通報対象地点は,(1)未通報地点,(2)通報済みだが経過不明,(3)解決済み,(4)その他,に大別される.}\item{通報地点のポップアップに通報内容を記入する.(記入例:【(日付)(要請先)に(電話)で連絡済(自分のID)】)}\end{enumerate}\item{情報元確認作業}\begin{enumerate}\itemツィート時点から一定日数経過した現地情報の鮮度を保つために,情報元ツイート者を辿り,経過を訪ねる.\item近辺にお住まいの方とコンタクトを取り,状況を尋ね,確認中であることをマップに記入する.\item返信の有無や内容に応じて,次の情報をマップに反映する:\begin{itemize}\item【解決:(現在の日付)(自分のID)】\item【新しい情報得られず:(現在の日付)(自分のID)】\item【未連絡:(現在の日付)(自分のID)】\itemその他情報.\end{itemize}\end{enumerate}\end{itemize}我々が開発したサイトの目標は,``{\tt\#99japan}''において,救助要請情報を通報ボランティアが発見する機会を増やすことである.\subsection{本サイトと{\tt\#99japan}の連携活動}我々は,{\tt\#99japan}メンバーの要望に沿うよう本サイトを改善した結果,本論文著者の相田(TwitterID:{\tt@aidashin})に対して,公式サイト開設者・{\tt@ma\_chiman}氏や「救助用マップ」管理者・{\tt@juntaro33}氏より,以下のような評価を得た:\begin{itemize}\item3月20日の活動開始直後(発足後,最初の日曜日):\begin{itemize}\item\twitter{【提案】@aidashinさんのツイートでhttp://is.gd/THMebZというものを見かけました.対応済み・アバウトな内容なものも多いですが,対応してなさそうなものも見かけたのですがこちらを照会する作業も必要だと思われますか?\\\mbox{\rm(\texttt{@ma\_chiman}2011b)\nocite{ma_chiman_0}}}{2011/03/2020:39:37}{ma\_chiman}\item\twitter{@ma\_chiman@ktamiya@aidashinこれもツイッターからの情報であれば全部拾う必要があると思います\mbox{\rm\cite{juntaro33_00}}}{2011/03/2020:47:22}{\mbox{juntaro33}}\end{itemize}\item1次情報のツィート日時の表示機能追加時:\begin{itemize}\item\twitter{@aidashinすごいです!お疲れ様です!\mbox{\rm\cite{juntaro33_0}}\\}{2011/3/2518:19:14}{\mbox{juntaro33}}\item\twitter{@aidashinhttp://bit.ly/hfDcW0,確認致しました.相変わらず最新ツイートを拾うのに便利ですね.観測機能がついたのはこのツールにとっては大きな進展になりそうですね^^最中に開発,さすがです.{\tt\#99japan}\mbox{\rm(\texttt{@ma\_chiman}2011c)\nocite{ma_chiman_1}}\\}{2011/03/2517:09:46}{ma\_chiman}\end{itemize}\item救助要請と安否確認の色分け機能追加時:\begin{itemize}\item\twitter{@aidashinこれは見やすいです!\#99japan\mbox{\rm(\texttt{@ma\_chiman}2011d)\nocite{ma_chiman_2}}\\}{2011/3/3115:28:46}{ma\_chiman}\end{itemize}\item本サイトへの反応に驚いていたことに対して:\begin{itemize}\item\twitter{@aidashin今,一番有用に使わせてもらってます!ありがとうございます!\mbox{\rm\cite{juntaro33_1}}}{2011/4/216:16:24}{\mbox{juntaro33}}\end{itemize}\itemマップを作成された方々の見解を伺った際:\begin{itemize}\item\twitter{@aidashinいえいえ.今,マップの情報のほとんどがあいださんのシステムからの情報ですから.\mbox{\rm\cite{juntaro33_2}}}{2011/4/623:52:14}{\mbox{juntaro33}}\end{itemize}\end{itemize}本サイトの豊橋技術科学大学以外からのアクセス数の遷移を図\ref{log}に示す.公開日や3月20日の{\tt\#99japan}活動開始直後は,特にアクセス数が多い.4月初め頃に緊急状態を脱し,アクセス数は一時的に減少したが,4月7日の最大震度6強(宮城),4月11・12日の最大震度6弱(福島)の大余震時アクセス数が再び増加しており,相関が見られる.\begin{figure}[b]\begin{center}\includegraphics{20-3ia5f2.eps}\end{center}\caption{「救助要請情報抽出サイト」アクセス数の遷移}\label{log}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia5f3.eps}\end{center}\caption{共同編集:物資要請・提供マップ東北関東大震災(2012月1日30日当時)}\label{map}\end{figure}「救助用マップ」や「物資要請・提供マップ」(図\ref{map})を用いた活動によって,4月上旬までの3週間程で,救助・物資支援それぞれ200地点を超える通報・支援活動が行われた\footnote{「救助用マップ」(「共同編集:被害リアルマップ東北地方太平洋沖地震」)は公開が凍結されているが,2011年3月29日9:17までのバックアップは閲覧可能である\cite{map1_backup}.}.なお,本活動は\cite{Utada}において評価されている. \section{考察} {\tt\#99japan}を振り返ると,まず「大地震発生時に集う場所」として,「2ちゃんねる臨時地震板が存在していたこと」が重要であった.今回,震災当日に2ちゃんねる臨時地震板ユーザらがボランティアとなって,WikiやGoogleマップの他に,Twitterやmixiなどソーシャルメディアなど既存の情報技術を活用した情報共有がなされた.次に,Twitterユーザらが,彼らと{\tt\#99japan}に自然合流し,Twitterによってより多くの情報が共有できた.とりわけ,ハッシュタグとしての``{\tt\#99japan}''は,通報報告のみならず,進捗報告や救助完了報告についても共有出来る仕組みとして極めて意義がある.このような進捗・完了報告の重要性は,「東日本大震災ビッグデータワークショップ」のTwitterブレインストーミングにおいても指摘されている\shortcite{bigdata}.通報活動には,「救助要請情報の鮮度」が重要であったが,我々の「救助要請情報抽出サイト」は,{\tt\#99japan}への情報源提供元として活用され,効率的な通報活動支援に貢献した.大震災後の社会について考察した\cite{Endo}において,遠藤は序章3節「われわれはいま,何を考えるべきか」の中で,以下を留意点として述べている:\begin{enumerate}\item未曾有の大災害におけるミクロな「現実」の精査\itemマクロな社会システムの分析と再設計\item非常時における社会的コミュニケーション回路の再構築\item地域コミュニティにおける社会資本と情報蓄積\itemボランティア活動の組織化とソーシャルメディア\item国際社会との対話—世界問題としての大震災\end{enumerate}{\tt\#99japan}は,(5)をいち早く実施した事例と言える.また,実社会における(3)の一部として機能した.\cite{Utada}は本活動を評価しながらも,(1)と(2)に関連する課題点として,「公共の組織と連携していない点」を指摘している:\begin{quote}それぞれのマップ\footnote{マップは\cite{map1,map2}を指す.}の冒頭には,「通報が無ければ、このマップに書き込んでも救助されません!通報が原則です!!通報をしないと国は助けられません!!」と注意喚起している。しかし、国の救援組織がこのマップを採用すれば、こうした心配はなくなる。通報したかどうかではなくて、「対応中」とか「救援済」といったより具体的で確実な情報が反映できる。通信ネットワークが十分に機能しなかった今回の教訓で、いずれは避難所などにも、衛星を使ったネット回線など災害対応の通信ネットワーク環境が整備されていくだろう。そうなってくれば、こうした地図を使った情報共有の仕組みはますます役に立つ。公の組織も利用することを考えるべきではないか。検索できない名簿を作っている時代ではもはやなくなっているはずなのだから。\end{quote}なお,(4)は震災復興対策,(6)は震災に関する正確な情報発信をそれぞれ含意するが,これらのための「研究者らと地域住民一体となったアウトリーチ活動」は広く行われている.そして,このような活動の収集・記録・分析活動が,(1)と(2)に対する復興方法論の提案になると考えられる. \section{おわりに} 我々は,震災初期の2011年3月16日,Twitter上の全情報から救助要請情報を一覧表示するサイトを早期開発し,Web上に公開した.特に,Twitterベースの東日本震災支援プロジェクト{\tt\#99japan}の活動に参加・連携することで,本サイトで抽出した数多くの救助要請情報に基づいて適宜通報活動が行われたことが判った.{また,{\tt\#99japan}のメンバーの要望に従い,救助要請情報の抽出精度向上と機能改善に努めることが出来た.}本活動に限らず,震災初期支援活動に「ソーシャルメディア」が活用されていることも報告されている\cite{NHK,Shimbun,Tachiiri}.今後の課題として,現在も稼働し取得し続けている本サイトログからニーズを分析し,適応的な震災復興支援システム構築が挙げられる.また,今回は{\tt\#99japan}は偶然幾つかの重要な要素が繋がったが,\cite{Endo,Utada}で指摘されている様に,{\tt\#99japan}のような活動を一過性のものとせずに,次の災害時,より迅速的かつ効率的な救助・復興活動になるように,「災害ボランティアに関する社会システムの枠組み」を今のうちに洗練化しておくべきであろう.\section*{この度の東日本大震災で被災された皆様へ}この度の東日本大震災によって亡くなられた方々へ謹んで哀悼の意を表しますと共に,被災された皆様,ご家族,並びに関係者の皆様へお見舞い申し上げます.そして,被災地の一日も早い復興を心よりお祈り申し上げます.\acknowledgmentまず,本サイト開発を勧めて頂いた{\tt@nkanada}様に,御礼申し上げます.次に,本研究成果は,{\tt\#99japan}を立ち上げた田宮嘉一様,マップ開設者の{\tt@juntaro33}様,{\tt\#99japan}のサイト管理者の{\tt@ma\_chiman}様,並びに多くの{\tt\#99japan}ボランティアの皆様のお力添え賜りましたことへ深謝致します.また,本サイト開発・公開に際して,有益な助言賜りました``ANPINLP''\shortcite{anpi_nlp}ボランティア研究者の方々に,感謝致します.最後に,震災初期に出会った``311HELP.com''\cite{311help}開発者の株式会社42・田原大生様が,2011年7月31日,{\tt\#99japan}について公の場で初めて発表の機会を与えて下さいましたことへ,改めて感謝致します.(本論文の内容の一部は,言語処理学会第18回年次大会で発表したものである\cite{Aida1}.)\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{{\tt\#99japan}有志ら}{{\tt\#99japan}有志ら}{2011a}]{map1}{\tt\#99japan}有志ら\BBOP2011a\BBCP.\newblock共同編集:被害リアルマップ東北地方太平洋沖地震.\\linebreak\newblock\url{https://maps.google.co.jp/maps/ms?ie=UTF8&hl=ja&brcurrent=3,0x5f8892ddfbe0dc71:0xce6fb9385107a4ad,0&msa=0&msid=209051486000599298555.00049e33f3610df1bed86&z=9}.\bibitem[\protect\BCAY{{\tt\#99japan}有志ら}{{\tt\#99japan}有志ら}{2011b}]{map2}{\tt\#99japan}有志ら\BBOP2011b\BBCP.\newblock共同編集:物資要請・提供マップ東北関東大震災.\\newblock\url{https://maps.google.co.jp/maps/ms?ie=UTF8&hl=ja&brcurrent=3,0x34674e0fd77f192f:0xf54275d47c665244,0&oe=UTF8&num=200&msa=0&msid=212756209350684899471.00049ea27cf60c4292136&ll=37.827141,140.306396&spn=2.290855,3.488159&z=8}.\bibitem[\protect\BCAY{{\tt\#99japan}有志ら}{{\tt\#99japan}有志ら}{2011c}]{map1_backup}{\tt\#99japan}有志ら\BBOP2011c\BBCP.\newblock共同編集:被害リアルマップ東北地方太平洋沖地震(3/299:17までのバックアップ分).\\newblock\url{https://maps.google.co.jp/maps/ms?ie=UTF8&hl=ja&brcurrent=3,0x34674e0fd77f192f:0xf54275d47c665244,0&msa=0&ll=38.255436,140.998535&spn=10.259815,16.54541&z=6&msid=212756209350684899471.00049f93fb04a48b1dce9}.\bibitem[\protect\BCAY{{\tt@juntaro33}}{{\tt@juntaro33}}{2011a}]{juntaro33_00}{\tt@juntaro33}\BBOP2011a\BBCP\\newblock\url{https://twitter.com/#!/juntaro33/status/49436866939863040}.\bibitem[\protect\BCAY{{\tt@juntaro33}}{{\tt@juntaro33}}{2011b}]{juntaro33_0}{\tt@juntaro33}\BBOP2011b\BBCP\\newblock\url{https://twitter.com/#!/juntaro33/status/51211528241819648}.\bibitem[\protect\BCAY{{\tt@juntaro33}}{{\tt@juntaro33}}{2011c}]{juntaro33_1}{\tt@juntaro33}\BBOP2011c\BBCP\\newblock\url{https://twitter.com/#!/juntaro33/status/54079719091605504}.\bibitem[\protect\BCAY{{\tt@juntaro33}}{{\tt@juntaro33}}{2011d}]{juntaro33_2}{\tt@juntaro33}\BBOP2011d\BBCP\\newblock\url{https://twitter.com/#!/juntaro33/status/55643984638394368}.\bibitem[\protect\BCAY{{\tt@ma\_chiman}}{{\tt@ma\_chiman}}{2011a}]{99japan2}{\tt@ma\_chiman}\BBOP2011a\BBCP.\newblock東日本震災支援\#99japan(救急ジャパン)公式サイト.\\newblock\url{https://sites.google.com/site/sharp99japan/}.\bibitem[\protect\BCAY{{\tt@ma\_chiman}}{{\tt@ma\_chiman}}{2011b}]{ma_chiman_0}{\tt@ma\_chiman}\BBOP2011b\BBCP\\newblock\url{https://twitter.com/#!/ma_chiman/status/49434917083414528}.\bibitem[\protect\BCAY{{\tt@ma\_chiman}}{{\tt@ma\_chiman}}{2011c}]{ma_chiman_1}{\tt@ma\_chiman}\BBOP2011c\BBCP\\newblock\url{https://twitter.com/#!/ma_chiman/status/51194045803921408}.\bibitem[\protect\BCAY{{\tt@ma\_chiman}}{{\tt@ma\_chiman}}{2011d}]{ma_chiman_2}{\tt@ma\_chiman}\BBOP2011d\BBCP\\newblock\url{https://twitter.com/#!/ma_chiman/status/53342954399600640}.\bibitem[\protect\BCAY{{\ttID:nx64KwTT}}{{\ttID:nx64KwTT}}{2011}]{atwiki}{\ttID:nx64KwTT}\BBOP2011\BBCP.\newblock東北大震災まとめWiki.\\newblock\url{http://www45.atwiki.jp/acuser001}.\bibitem[\protect\BCAY{相田}{相田}{2011}]{Aida0}相田慎\BBOP2011\BBCP.\newblockTwitterからどのようにして救助要請情報を抽出したのか?—「東日本震災支援{\tt\#99japan}」活動を通して—.\\newblock\Jem{LAシンポジウム会誌,第57号},\mbox{\BPGS\9--24}.\bibitem[\protect\BCAY{相田\JBA新堂\JBA内山}{相田\Jetal}{2011}]{extraction}相田慎\JBA新堂安孝\JBA内山将夫\BBOP2011\BBCP.\newblock救援要請ツィート抽出サイト.\\newblock\url{http://www.selab.cs.tut.ac.jp/~aida/}.\bibitem[\protect\BCAY{相田\JBA新堂\JBA内山}{相田\Jetal}{2012}]{Aida1}相田慎\JBA新堂安孝\JBA内山将夫\BBOP2012\BBCP.\newblock「東日本大震災関連の救助要請情報抽出サイト」構築と救助活動について.\\newblock\Jem{言語処理学会第18回年次大会講演論文集},{\Bbf13}(1),\mbox{\BPGS\1236--1239}.\bibitem[\protect\BCAY{荒蝦夷}{荒蝦夷}{2012}]{IBC}荒蝦夷\JED\\BBOP2012\BBCP.\newblock\Jem{その時,ラジオだけが聴こえていた—IBC岩手放送3・11震災の記録}.\newblock竹書房.\bibitem[\protect\BCAY{遠藤}{遠藤}{2012}]{Endo2}遠藤薫\BBOP2012\BBCP.\newblock\Jem{メディアは大震災・原発事故をどう語ったか—報道・ネット・ドキュメンタリーを検証する}.\newblock東京電機大学出版局.\bibitem[\protect\BCAY{遠藤\JBA高原\JBA西田\JBA新\JBA関谷}{遠藤\Jetal}{2011}]{Endo}遠藤薫\JBA高原基彰\JBA西田亮介\JBA新雅史\JBA関谷直也\BBOP2011\BBCP.\newblock\Jem{大震災後の社会学}.\newblock講談社.\bibitem[\protect\BCAY{林\JBA山路}{林\JBA山路}{2012}]{GPF}林信行\JBA山路達也\BBOP2012\BBCP.\newblock東日本大震災と情報、インターネット、Google「パーソンファインダー、東日本大震災での進化(1)」.\\newblock\url{http://www.google.org/crisisresponse/kiroku311/chapter_06.html}.\bibitem[\protect\BCAY{本田}{本田}{2012}]{sinsai.info_TechWave}本田正浩\BBOP2012\BBCP.\newblockオープンソースマインドが支えたsinsai.infoの1年—関治之氏インタビュー.\\newblock\url{http://techwave.jp/archives/51731021.html}.\bibitem[\protect\BCAY{片瀬\JBAラジオ福島}{片瀬\JBAラジオ福島}{2012}]{rfc}片瀬京子\JBAラジオ福島\BBOP2012\BBCP.\newblock\Jem{ラジオ福島の300日}.\newblock毎日新聞社.\bibitem[\protect\BCAY{久世}{久世}{2010}]{1500}久世宏明\BBOP2010\BBCP.\newblock1500ったー.\\newblock\url{http://xtter.openlaszlo-ason.com/XTTER/1500ttr/}.\bibitem[\protect\BCAY{村上\JBA他\JBA他}{村上\Jetal}{2011}]{anpi_nlp}村上浩司他\BBOP2011\BBCP.\newblock\BBOQANPINLP.\BBCQ\\newblock\url{http://trans-aid.jp/ANPI_NLP/}.\bibitem[\protect\BCAY{村上\JBA萩原}{村上\JBA萩原}{2012}]{anpi_nlp_proc}村上浩司\JBA萩原正人\BBOP2012\BBCP.\newblock安否情報ツイートコーパスの詳細分析とアノテーションに関する一考察.言語処理学会第18回年次大会発表論文集,\newblock{\Bbf13}(1),\mbox{\BPGS\1232--1235}.\bibitem[\protect\BCAY{{\ttnextutozin}\JBA他\JBA他}{{\ttnextutozin}\Jetal}{2011}]{matome_wiki}{\ttnextutozin}他\BBOP2011\BBCP.\newblock東日本大震災(東北地方太平洋沖地震)@ウィキ.\\newblock\url{http://www46.atwiki.jp/earthquakematome/}.\bibitem[\protect\BCAY{NHK総合テレビ}{NHK総合テレビ}{2011}]{NHK}NHK総合テレビ\BBOP2011\BBCP.\newblockクローズアップ現代「いま,私たちにできること〜“ソーシャルメディア”支援〜」.\\newblock\url{http://cgi4.nhk.or.jp/gendai/kiroku/detail.cgi?content_id=3022}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011a}]{2ch_shindo7_1}2ちゃんねる臨時地震板\BBOP2011a\BBCP.\newblock震度7.\\newblock\url{http://www.logsoku.com/r/eq/1299822821/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011b}]{2ch_shindo7_2}2ちゃんねる臨時地震板\BBOP2011b\BBCP.\newblock震度7その2.\\newblock\url{http://www.logsoku.com/r/eq/1299823601/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011c}]{2ch_shindo7_3}2ちゃんねる臨時地震板\BBOP2011c\BBCP.\newblock震度7その3.\\newblock\url{http://www.logsoku.com/r/eq/1299825048/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011d}]{2ch_shindo7_4}2ちゃんねる臨時地震板\BBOP2011d\BBCP.\newblock震度7その4.\\newblock\url{http://www.logsoku.com/r/eq/1299826741/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011e}]{2ch_shindo7_5}2ちゃんねる臨時地震板\BBOP2011e\BBCP.\newblock震度7その5.\\newblock\url{http://www.logsoku.com/r/eq/1299830742/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011f}]{2ch}2ちゃんねる臨時地震板\BBOP2011f\BBCP.\newblock【私にも】三陸沖地震災害の情報支援【できる】.\\newblock\url{http://logsoku.com/thread/hayabusa.2ch.net/eq/1299829654/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011g}]{2ch_map}2ちゃんねる臨時地震板\BBOP2011g\BBCP.\newblock被害状況まとめGoogleマップ希望スレ.\\newblock\url{http://logsoku.com/thread/hayabusa.2ch.net/eq/1299892327/}.\bibitem[\protect\BCAY{荻上}{荻上}{2011}]{Ogiue}荻上チキ\BBOP2011\BBCP.\newblock\Jem{検証東日本大震災の流言・デマ}.\newblock光文社.\bibitem[\protect\BCAY{関\JBA他\JBA他}{関\Jetal}{2011}]{sinsai.info}関治之他\BBOP2011\BBCP.\newblock\BBOQsinsai.info.\BBCQ\\newblock\url{http://www.sinsai.info/}.\bibitem[\protect\BCAY{福田}{福田}{2012}]{Fukuda}福田充\BBOP2012\BBCP.\newblock\Jem{大震災とメディア}.\newblock北樹出版.\bibitem[\protect\BCAY{新聞通信調査会}{新聞通信調査会}{2013}]{Shimbun}新聞通信調査会\BBOP2013\BBCP.\newblock\Jem{大震災・原発とメディアの役割—報道・論調の検証と展望—}.\newblock公益財団法人新聞通信調査会.\bibitem[\protect\BCAY{田原}{田原}{2011}]{311help}田原大生\BBOP2011\BBCP.\newblock必要物資・支援要求マップ311HELP.com.\\newblock\url{http://311help.com/}.\bibitem[\protect\BCAY{田宮}{田宮}{2011a}]{ktamiya}田宮嘉一\BBOP2011a\BBCP.\newblock東北関東大震災,救助依頼連絡先(アメーバブログ).\\newblock\url{http://ameblo.jp/ktamiya/entry-10829792004.html}.\bibitem[\protect\BCAY{田宮}{田宮}{2011b}]{99japan1}田宮嘉一\BBOP2011b\BBCP.\newblock東北関東大震災の救助支援プロジェクト「{\tt\#99japan}」参加者を募集します.\\newblock\url{http://twipla.jp/events/6133}.\bibitem[\protect\BCAY{立入}{立入}{2011}]{Tachiiri}立入勝義\BBOP2011\BBCP.\newblock\Jem{検証東日本大震災そのときソーシャルメディアは何を伝えたか?}\newblockディスカヴァー・トゥエンティワン.\bibitem[\protect\BCAY{Twitter社}{Twitter社}{2011a}]{Twitter_tags}Twitter社\BBOP2011a\BBCP.\newblock東北地方太平洋沖地震に関して.\\newblock\url{http://blog.jp.twitter.com/2011/03/blog-post_12.html}.\bibitem[\protect\BCAY{Twitter社}{Twitter社}{2011b}]{nihongo}Twitter社\BBOP2011b\BBCP.\newblock{\tt\#}日本語ハッシュタグ.\\newblock\url{http://blog.jp.twitter.com/2011/07/blog-post.html}.\bibitem[\protect\BCAY{Twitter社}{Twitter社}{2013}]{Twitter_help}Twitter社\BBOP2013\BBCP.\newblockTwitterヘルプセンター.\\newblock\url{https://support.twitter.com/}.\bibitem[\protect\BCAY{歌田}{歌田}{2011}]{Utada}歌田明弘\BBOP2011\BBCP.\newblock仮想報道Vol.~673「地図を使った震災情報の共有」.\\newblock\Jem{週刊アスキー4月12日号},\mbox{\BPGS\94--95}.\bibitem[\protect\BCAY{山崎\JBA他\JBA他}{山崎\Jetal}{2012}]{bigdata}山崎富美他\BBOP2012\BBCP.\newblock{\tt\#shinsaidata}「東日本大震災ビッグデータワークショップ---Project311---」ブレスト.\\newblock\url{http://togetter.com/li/372103}.\end{thebibliography}\begin{biography}\bioauthor{相田慎}{1975年生.2002年名古屋大学大学院人間情報学研究科物質・生命情報学博士後期課程修了.博士(学術).2002年豊橋技術科学大学工学部知識情報工学系助手.2007年同助教.2007年同大大学院工学研究科情報・知能工学系助教.計算量理論・アルゴリズム理論の研究に従事.}\bioauthor{新堂安孝}{1974年生.2000年大阪市立大学大学院理学研究科博士前期課程修了.2004年大阪市立大学博士(理学)取得.PC周辺機器メーカー,機械メーカー,通信キャリア,ソフトウェア・メーカーに勤務.音声言語処理・自然言語処理の研究などに従事.}\bioauthor{内山将夫}{1969年生.1997年筑波大学大学院工学研究科電子情報工学専攻修了.博士(工学).1997年信州大学工学部電気電子工学科助手.1999年郵政省通信総合研究所非常勤職員.2001年独立行政法人通信総合研究所任期付き研究員.2004年独立行政法人情報通信研究機構主任研究員.自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
V09N05-03
\section{はじめに} ある文字列を$k$回以上含むドキュメント数には,文字列の意味に関連する性質がある.この論文では,このドキュメント数を重複度$k$のドキュメント頻度と呼び,特に$k$を指定しない場合には,重複条件付きドキュメント頻度と呼ぶことにする.図\ref{dfn-sample}は,332,918個の日本語アブストラクトの本文を対象に,様々な文字列に対し,$k$を変化させて,重複度$k$のドキュメント頻度を計測したものである.文字列が意味のある単語の部分である場合には,$k$の増加にしたがっても,文書数の減少は緩やかである.たとえば,「メ」「メデ」「メディ」「メディア」などについては,$k$が一つ増加するごとに,ドキュメントの数が半減する傾向が観察される.一方,単語の切れ目を含む文字列の場合,$k$が増えるにしたがって文章数が1/4以下になることが観測できる.この性質を使って,文書中のキーワードを辞書を使わないで検出するということが可能であるという報告\cite{Keyword}がある.重複条件付きドキュメント頻度を単語の境界の検出に使用するには,任意の文字列について,その重複度付ドキュメント頻度を求めることが必要である.たとえば,文献\cite{Keyword}の文書分析では,頻度3を越える文字列について重複条件付きドキュメント頻度を計算しており,平均440バイト程度の1ドキュメントについて,1400個程度の文字列が調査の対象となっている.単純な方法で重複度付ドキュメント頻度を求めると,文字列ごとにコーパス長に比例する計算時間がかかることになり,後述するように一つのドキュメントを処理するのも大変である.さらに,キーワードをドキュメントの全体にわたって調査すると,この処理を332,918回繰り返すことになり,単純な方法では計算時間がかかりすぎるという問題がある.\begin{figure}[htbp]\begin{center}\begin{verbatim}k=1k=2k=3k=4k=5文字列52424223241111761563419メ463222001221707392メデ458021781211699388メディ443421311195692382メディア560881540メディアを8312000メディアを用8312000メディアを用い646000メディアを用いた\end{verbatim}\caption{重複条件付きドキュメント頻度の例}\label{dfn-sample}\end{center}\end{figure}ここで,重複度を考慮しないドキュメント頻度(単純ドキュメント頻度)については,ドキュメント頻度が同じ文字列をクラス分けができ,そのクラスごとに頻度を計測することが可能であるという報告\cite{DF1}がある.例中の「メディアを用」と「メディアを用い」の二つの文字が同じドキュメント頻度を持っているが,このような文字列が一つのクラスに属する文字列の例である.報告\cite{DF1}によると,コーパスの文字数を$N$とした場合に,クラス数は最大で$2N-1$である.よって,$O(N)$の大きさの表に,任意の文字列の単純ドキュメント頻度を保持することができる.しかし,重複度を考慮した場合に同じクラス分けが使えるかどうか明らかではないという問題が残る.また,クラス分けをして,表を作成するならば,重複条件付きのドキュメント頻度は,クラスごと,つまりそのクラスを代表する一つの文字列についてのみ求めればよいが,単純な方法では,代表の文字列の個数が$O(N)$,それぞれの計算に$O(N)$かかることになり,全体で$O(N^2)$の処理となる.$N$がおよそ$10^8$程度のコーパスでは,実際に前処理が終わらないという問題が残る.文献\cite{DF1}は単純ドキュメント頻度について,この問題の解決方法を示している.この方法は,文字出現頻度から重複を除いて単純ドキュメント頻度を求めている.しかし,重複の構造が複雑な重複条件付きドキュメント頻度の計測には,重複を除くという考え方が使用できない.この論文では,重複条件付きドキュメント頻度の計測についても,クラス分けが使用できることを示し,その前処理として重複度の上限を与えた場合に,$O(N\logN)$で,クラスごとの重複条件付きドキュメント頻度の表を作ることができることを示す.そのときに,重複条件付き文字列頻度という概念を提案し,重複条件付き文字列頻度の関数として重複条件付きドキュメント頻度が求まることを示す.最後に,実際に動作するシステムを作成し,332,918個のドキュメントで,69,312,280文字からなるコーパスで計測した計算時間を示す.ここで示すアルゴリズムは,$k$を固定したとき,ある文字列が$k$回以上出現するドキュメントの数を数え上げる問題について,ドキュメントの全文字数を$N$とすると,前処理は計算時間$O(N\logN)$,メモリ使用量$O(N)$であり,その後に値を求めるときには計算時間$O(\logN)$,メモリ使用量$O(N)$である. \section{記号の定義} $tf(d,x)$を,ドキュメント$d$に含まれる文字列$x$の個数と定義する.この論文で扱う頻度は,$tf(d,x)$で定義できるものである.$cf(x)$は,文字列頻度と呼ばれるものであり,$df(x)$は単純ドキュメント頻度と呼ばれるものである.\begin{itemize}\item$cf(x)$\:\ドキュメント集合中に文字列$x$が出現する数\\$$cf(x)=\sum_{d}tf(d,x)$$\item$df(x)$\:\文字列$x$が1回以上出現するドキュメントの数\\$$df(x)=\mid\{d|tf(d,x)\geq1\}\mid$$\end{itemize}われわれが求めたい重複条件付きドキュメント頻度も$tf(d,x)$から求められるものである.\begin{itemize}\item$df_k(x)$\:\文字列$x$が$k$回以上出現するドキュメントの数\\$$df_k(x)=\mid\{d|tf(d,x)\geqk\}\mid$$\end{itemize} \section{SuffixArray} クラス分けのために,SuffixArrayというデータ構造を用いる.SuffixArrayは文献\cite{SUFFIX}によって示されたデータ構造である(図\ref{suffix_array}).このデータ構造はあるテキストがあったときに,そのテキストのすべての文字からテキストの終了までの文字列(suffix;接尾辞)の集合を考え,その集合を辞書順に並べたものである.ここで,テキストの本体がメモリにあるとすると,一つの文字列を格納するのに,文字列の開始場所という一つの整数を格納すれば良い.このため,任意の部分文字列の場所を知ることができるにもかかわらず,必要な記憶容量は$O(N)$で済む.SuffixArrayは以下のルーチンで生成できる.\begin{center}\begin{verbatim}/*size:コーパスの文字数,text:コーパスの先頭を指すポインタ*/intsuffix_compare(structsuffix_struct*x,structsuffix_struct*y){returnstrcmp(text+x->position,text+y->position);/*x->position,y->positionはそれぞれx,yに対応する場所を指すポインタ*/}for(i=0;i<size;i++){suffix[i].position=i;}qsort(suffix,size,sizeof(structsuffix_struct),suffix_compare);\end{verbatim}\end{center}ドキュメント頻度を計算する場合,ドキュメントの長さに上限があればコーパス中の文字列はドキュメント毎に区切られていると見なすことができる.この条件の下で上記のアルゴリズムを使ってデータ構造を作成するためには,$O(N\logN)$時間必要である.\par\begin{figure}[htbp]\begin{center}\epsfxsize=9cm\epsfbox{suffix_array.eps}\caption{SuffixArrayのサンプルとある文字列の出現場所の特定}\label{suffix_array}\end{center}\end{figure} \section{文字列のクラス分け} 文字列の文献\cite{DF1}の文字列のクラス分けの方法を使用するが,この論文では,重複条件付きドキュメント頻度を求める場合にもクラス分けを使用できることを述べる.クラス分けはsuffixを用いて定義される.SuffixArrayのsuffixは辞書順に並んでいるので,文字列の先頭部分が次のsuffixと共通であることが多い.そこで,$common[i]$を$suffix[i]$と$suffix[i+1]$の文字列の先頭からの共通部分とする.文献\cite{DF1}のクラスの定義を下に示す.\parここで,定義の記述を簡単にするため$j-1<i$の場合$min_{k=i}^{j-1}=∞$とする.そして,$common[-1]=-1$,$common[N]=-1$とする.区間の境界での$common$の大きい方である$outgoing(i,j)=max(common[i-1],common[j])$と定義し,区間内部での$common$の最小のもの$inner(i,j)=min_{k=i}^{j-1}(common[k])$と定義する.\\\par\newpage[定義]\par区間$[i,j]$がクラスを形成するとは,$inner(i,j)>outgoing(i,j)$であることをいう.\\\par$inner(i,j)$は区間全体で共通部分となる文字列の長さであり,$inner(i,j)>outgoing(i,j)$であるとは区間を広げると全体で共通となる文字列が短くなるという意味となる.区間$[i,j]$がクラスを形成するとき,区間$[i,j]$に共通する「長さ$outgoing(i,j)+1$から$inner(i,j)$までの部分文字列」の集合を,その区間に対応する文字列のクラスと定義する.図\ref{suffix_array_class}で,区間$[i,j]=[2,2]$,$[i,j]=[1,4]$,$[i,j]=[1,3]$を見た場合,\begin{center}\[\begin{array}{lllllll}outgoing(2,2)&=&max(common[1],common[2])&=&max(6,3)&=&6\\inner(2,2)&=&min_{k=2}^{1}(common[k])&=&∞\\\\outgoing(1,4)&=&max(common[0],common[4])&=&max(2,0)&=&2\\inner(1,4)&=&min_{k=1}^{3}(common[k])&=&3\\\\outgoing(1,3)&=&max(common[0],common[3])&=&max(2,6)&=&6\\inner(1,3)&=&min_{k=1}^{2}(common[k])&=&3\\\end{array}\]\end{center}となり,区間$[2,2]$は$inner(2,2)>outgoing(2,2)$,区間$[1,4]$は$inner(1,4)>outgoing(1,4)$となるのでクラスを形成するが,区間$[1,3]$は$inner(1,3)<outgoing(1,3)$となるのでクラスを形成しない.\begin{figure}[htbp]\begin{center}\epsfxsize=7cm\epsfbox{suffix_array_class.eps}\caption{SuffixArray上の文字列のクラス}\label{suffix_array_class}\end{center}\end{figure}文献\cite{DF1}によると,クラス数は最大でも$2N-1$であり,その表は作成し記憶することが実際的な大きさである.\\\par[$occurence(C)$の定義]\parクラス$C$で定まる区間$[i,j]$について,集合${suffix[i],...,suffix[j]}$を$occurence(C)$とする.$occurence(C)$は,出現場所を示す整数の集合となる.\\\par[性質1]\parクラス$C$があったとき,$C$の任意の2要素$x$,$y$について,任意のドキュメントを$d$とすると,$tf(d,x)=tf(d,y)$である.\\証明\par$tf(d,x)$は,$d$の中に出現する$x$の個数であるが,これは,$x$の出現する場所で,その場所がドキュメント$d$に属する回数に等しい.$x$の出現する場所は,$x$の属するクラス$C$の$occurence(C)$で求まる.$tf(d,x)$は,$occurence(C)$の各要素である整数が,ドキュメント$d$に属しているかどうかで求めることができる.つまり,$x$の属する$C$について,$x$の出現する位置の集合$occurence(C)$を求めて,それから$tf(d,x)$を決定できる.ここで,$y$が$x$と同じクラスの属していれば,両方とも$occurence(C)$が同じであるため,$tf(d,x)=tf(d,y)$となる.\\\par[性質2]\parクラス$C$があったとき,$C$の任意の2要素$x$,$y$について,\begin{itemize}\item$cf(x)=cf(y)$\item$df(x)=df(y)$\item$df_k(x)=df_k(y)$\end{itemize}が成立する.\\証明\par性質1より,$tf(d,x)=tf(d,y)$なので,$tf(d,x)$を使用して定義できる頻度はすべて等しい.すなわち,\par$$cf(x)=\sum_{d}tf(d,x)=\sum_{d}tf(d,y)=cf(y)$$$$df(x)=\mid\{d|tf(d,x)\geq1\}\mid=\mid\{d|tf(d,y)\geq1\}\mid=df(y)$$$$df_k(x)=\mid\{d|tf(d,x)\geqn\}\mid=\mid\{d|tf(d,y)\geqn\}\mid=df_k(y)$$\\証明は単純であるが,$df_k(x)$の性質は未知であるため,同じクラスに属する文字列について,その値が等しいことを示すことは必要である. \section{クラスの階層関係} クラスごとの頻度の表を高速に作成するために,クラス間の階層関係を利用するが,まず,クラスの階層関係を定義する.区間$[i_1,j_1]$がクラス$C_1$を形成し,区間$[i_2,j_2]$がクラス$C_2$を形成していて,区間$[i_1,j_1]$が区間$[i_2,j_2]$に含まれているとき,$C_1$は$C_2$の下位のクラスと定義する.また,$C_2$は$C_1$の上位のクラスと定義する.\\\begin{figure}[htbp]\begin{center}\epsfxsize=7cm\epsfbox{class_kankei.eps}\caption{クラスの階層関係}\label{class_kankei}\end{center}\end{figure}[性質4]\par2つのクラス$C_1$,$C_2$に交わりがあったときには,$C_1$は$C_2$の上位のクラスであるか$C_1$は$C_2$の下位のクラスであるかのどちらかである.\\証明\par$C_1$と$C_2$に交わりがあるということは,\begin{center}\[\begin{array}{lr}i_1\leqi_2\leqj_1\leqj_2&(1)\\i_2\leqi_1\leqj_2\leqj_1&(2)\\i_1\leqi_2\leqj_2\leqj_1&(3)\\i_2\leqi_1\leqj_1\leqj_2&(4)\\\end{array}\]\end{center}のいずれかである.\par$(1)$の場合,$i_1<i_2$であると仮定する.区間$[i_1,j_1]$では$$max(common[i_1-1],common[j_1])<min_{k_1=i_1}^{j_1-1}(common[k_1])$$となるので,$common[j_1]<common[k_1]\(i_1\leqk_1\leqj_1-1)$である.一方,区間$[i_2,j_2]$では,$k_1=i_2-1$,$k_2=j_1\(i_2\leqk_2\leqj_2-1)$となる$k_1$,$k_2$が存在する.従って,$$common[k_1]=common[i_2-1]>common[k_2]=common[j_1]$$となり,区間$[i_2,j_2]$は$$max(common[i_2-1],common[j_2])<min_{k_2=i_2}^{j_2-1}(common[k_2])$$を満たさず,$i_1<i_2$の場合クラス$C_2$を形成しないので$C_1$と$C_2$に交わりはない.\par$i_1=i_2\leqj_1\leqj_2$の場合はクラスの階層の定義より,$C_2$が$C_1$の上位クラスである,または,等しいクラスである.\par$(2)$も$(1)$と同様に証明できる.また,$(3)$の場合はクラスの階層の定義より,$C_1$が$C_2$の上位クラスであるか等しいクラスであり,$(4)$の場合は,$C_2$が$C_1$の上位クラスである,または,等しいクラスである.\par以上より,2つのクラスに交わりがある場合は,一方がもう一方の上位クラス,または,下位クラスとなる.\\[性質5]\parSuffixArrayにおいて,すべてのsuffixはクラスによって階層構造を形成する.\\証明\par$common[-1]=common[N]=-1$より,最上位クラスは,すべてのsuffixを含むクラスである.また,性質4よりあるクラスが他のクラスの部分クラスでない限り交わることはない.このとき,部分クラスでは上位クラスよりその区間が短くなる.\par以上のことから,すべての文字列の出現場所は文字列クラスによって階層構造を形成する.\\[性質6]\par任意の区間$[i,j]$について,$[i,j]$を含む区間でクラスを形成する区間がある.\\区間$[i,i]$において$outgoing(i,i)<∞$,$inner(i,i)=∞$なので,$inner(i,i)>outgoing(i,i)$となり,区間$[i,i]$は1つのsuffixからなる最下位クラスを形成する.\\\par証明\par性質5より,SuffixArrayのすべてのsuffixはクラスによって階層構造を形成する.\\\par[記号]\par任意の区間$[i,j]$について,それを含むクラスを形成する区間のうち,もっとも下位のものを$[i,j]$から定まるクラスとし,$Class^{\ast}([i,j])$と記述する.任意の区間について,それを含むもっとも下位のクラスが一意に定まることは,計算量を押さえたアルゴリズムを構成するときに必要な性質である.$Class^{\ast}([i,j])$は,後述する頻度を計数するところで使用する. \section{重複条件付きドキュメント頻度の計測における問題点} すべてのクラスについて,それに属する文字列のドキュメント頻度を単純な方法で求めるとすると,通常の計算機では実用上問題がある.クラスの大きさが高々$2N$であったとしても,$df(x)$,$df_2(x)$,$df_3(x)$のように条件を満たす集合を作って,その大きさを計測すると,各$x$の処理に$O(N)$時間かかり,$x$が$N$個あれば,全体では$O(N^2)$時間必要となる.これは,コーパスの大きさから考えて,通常の計算機では実行できない処理となる.\par文字列の出現頻度であれば,クラス階層に従って頻度の合計を求めることができる.すなわち,下位のクラスの文字列頻度を合計して,上位の文字列頻度とすることができる.言い換えれば,長い文字列の頻度から,短い文字列の頻度をもとめることができる.しかし,ドキュメント頻度は,直接寄せ集めることができない.たとえば,図\ref{chofuku_df}のようなコーパスについて考える.文字列abcは6回出現し,それが出現するドキュメントの数が4個である.また,文字列abxは7回出現し,それが出現するドキュメントの数が5個である.このとき文字列abに続く文字のパターンがabcとabxの2つだけであったとすると,suffixの構造は図\ref{chofuku_df}に示されたような構造になる.この状況で,abの出現回数は6+7回である.しかし,この状況で,abが出現するドキュメントの数は9個とはいえない.abcとabxが両方出現するドキュメントを2個と数えることが間違いだからである.\cite{DF1}で示されるように,単純なドキュメント頻度の計数であれば,重複して数えているところを差し引くという方法があるが,ドキュメントを計測する条件が,その文字列が2回以上出現するドキュメント数であった場合,クラスの上下によるドキュメント頻度の変化はさらに複雑になり,重複を差し引くという方法は使用できない.\begin{figure}[htbp]\begin{center}\epsfxsize=12cm\epsfbox{chofuku_df.eps}\caption{重複がある場合のドキュメント頻度}\label{chofuku_df}\end{center}\end{figure} \section{出現場所の重複条件} 重複条件付きドキュメント頻度の計測行う準備として,この論文で新しく使用する「文字列の出現場所ごとの重複条件」を定義する.重複条件付きドキュメント頻度の計測のために,クラス階層で寄せ集められる数を定義し,その数の関数として重複条件付きドキュメント頻度を求めることを行う.ここで使用する頻度を定義するために,文字列の出現場所の重複度と重複条件を使用する.すべての文字列の出現場所は,SuffixArray内の配列の番号で順序づけることができる.この順序をsuffix順と定義し,これを利用して文字列の出現場所の重複条件と重複度を定義する.\\[定義]\parある文字列$x$の出現場所の重複度が$k$であるとは,suffix順でその出現場所以下の場所で,かつ同一のドキュメントに属する文字列$x$の出現場所が$k$個あることとする.\\\par図\ref{chofuku}に重複度の例を示す.\parsuffix順でabx(suffix[3])以下の場所にあるのは,abc(suffix[0])とabd(suffix[1]),abe(suffix[2]),abx(suffix[3])である.ここで,文字列abxについてdocument\#1での文字列abの重複度$k$を求めると,ドキュメント中に文字列abc,abd,abxが出現するので,$k=3$である.\\\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{chofuku.eps}\caption{重複度$k$}\label{chofuku}\end{center}\end{figure}[性質7]\par文字列$x$がドキュメント$i$に$t$個出現するとき,$t$個の出現場所について,すべて重複度を求め,それをsuffix順に並べると$1,...,t$となる. \section{重複条件付き文字列頻度} [記号]\par$x$を文字列としたとき,重複条件付き文字列頻度$cf_k(x)$と重複条件付きドキュメント文字列頻度$tf_k(d,x)$と書く.\\[定義]\par$cf_k(x)$はコーパス中で,重複度が$k$以上の文字列$x$の出現数とする.\\[定義]\par$tf_k(d,x)$はドキュメント$d$中で,重複度が$k$以上の文字列$x$の出現数とする.\\[性質8]$$\forallx,y\inC,\\forallk;\foralld;\tf_k(d,x)=tf_k(d,y)$$\\文字列$x$の属するクラスを$C$とする.重複度は,場所と文字列に関係するので注意が必要であるが,suffix順で順番をつけるので,$occurence(C)$が定まれば,それぞれの要素についての重複度が一意に定まる.したがって,$tf_k(d,x)$は$tf(d,x)$と同様に$d$と$occurence(C)$の関数となる. \section{重複条件付き文字列頻度とドキュメント頻度の関係} ドキュメント頻度と重複条件付き文字列頻度には下の単純な関係がある.\\[定理\\文字列頻度とドキュメント頻度の関係]$$df_k(x)=cf_{k}(x)-cf_{k+1}(x)$$証明\par$tf(d,x)=t$のとき,$k\leqt$について,$$tf_{k}(d,x)-tf_{k+1}(d,x)=1$$$tf(d,x)=t$のとき$tf_t(d,x)=1$,$tf_{t+1}(d,x)=0$,$tf_{t+2}(d,x)=0$,以下0が続くので,$k>t$について,$$tf_{k}(d,x)-tf_{k+1}(d,x)=0$$$cf_k(x)=\sum_{d}tf_k(d,x)$であるので,\begin{eqnarray*}cf_{k}(x)-cf_{k+1}(x)&=&\sum_{d}(tf_{k}(d,x)-tf_{k+1}(d,x))\\&=&\mid\{d|tf(d,x)\geqk\}\mid\\&=&df_k(x)\\\end{eqnarray*}あるテキストにおいて,$cf_k$と$df_k$を実際に求めた例を図\ref{df_cf}に示す.\par図\ref{df_cf}の3つのドキュメントで,文字列abについて$cf_k$,$df_k$を求める.まず,$cf_k$を計算する.$tf(1,ab)=7\leq8$,$tf(3,ab)=6\leq8$である,ドキュメント\#1,\#3は,重複度$k\geq8$となる文字列abが存在しないため,$cf_8$の数え上げに関係しない.ドキュメント\#2では,$tf(2,ab)=8$であるので重複度$k\geq8$となる文字列abが一つだけ($tf-k+1=1$)存在する.したがって,$cf_8(ab)=1$.同様に,$cf_7(ab)$は,$tf(1,ab)-k+1=7-7+1=1$,$tf(2,ab)-k+1=8-7+1=2$となり,ドキュメント\#1,\#2によってそれぞれ1と2がカウントアップされるので,$cf_7(ab)=1+2=3$となる.他も同様である.この様に$cf_k$が求められたので,定理「文字列頻度とドキュメント頻度の関係」を用いることで,$df_k$を計算できる.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{df_cf.eps}\caption{重複条件付き文字列頻度とドキュメント頻度}\label{df_cf}\end{center}\end{figure}[性質9]\parあるクラス$C$があったとき,その要素$x,y$については任意の$k$について,$$cf_k(x)=cf_k(y)$$証明\par$cf_k(x)=\sum_{d}tf_k(d,x)$,$tf_k(d,x)=tf_k(d,y)$なので,$$cf_k(x)=\sum_{d}tf_k(d,x)=\sum_{d}tf_k(d,y)=cf_k(y)$$ \section{重複度判定のためのデータ構造} ここでは重複度を判定するためのデータ構造であるpreviousリンク(文献[DF1])について説明する.previousリンクはそれぞれのsuffixについて,同じドキュメントに属し,かつsuffix順で前にある最も近いsuffixの順位を記録しておく.もしそのような場所がなければ,-1をpreviousリンクとする.このデータ構造はコーパスの大きさに比例した大きさのメモリ領域である.\par文字列$x$のある出現重複度が$k$以上であることの判定は,その出現場所からpreviousリンクを$k$回たどれるかどうかと,たどれる場合,その文字列がまだ出現しているかを計測することで判定できる(図\ref{chofuku_struct}).\par\begin{figure}[htbp]\begin{center}\epsfxsize=12cm\epsfbox{chofuku_struct.eps}\caption{重複度判定のためのデータ構造}\label{chofuku_struct}\end{center}\end{figure}このデータ構造を作るには,ドキュメント数と同数の整数配列を用意して,それぞれの文字列の出現ごとに,ドキュメントの番号を求め,その配列からpreviousリンクの場所の情報を求めると同時に,その表を現在の場所に更新すればよい.\parpreviousリンクを作成するプログラムは以下のような構造になる.このデータ構造を作成するには,ドキュメント数と同じメモリ領域を用意し,コーパス全体を一度スキャンすることになる.\begin{verbatim}/*id_max:ドキュメント数,size:コーパスの文字数*/for(i=0;i<id_max;i++){last_suffixes[i]=-1;}for(i=0;i<size;i++){suffix[i].previous_suffix=last_suffixes[suffix[i].id];last_suffixes[suffix[i].id]=i;}\end{verbatim}重複度判定は,このpreviousリンクを$k$回たどることができ,かつその文字列が同じドキュメントにあるかどうかで判定できる.(注)実際のプログラムでは,計算量を押さえるため,単純に重複度を判定せず,この重複度の判定と別の処理を同時に行っている. \section{クラス検出のアルゴリズム} クラスを検出するアルゴリズムの概略は以下のように行う.\begin{enumerate}\itemSuffixArrayをsuffix順が小さいものから見て行く.\itemクラスの開始場所を見つける.\itemクラスの終了場所を探す.\begin{itemize}\itemクラスは階層構造になっているため,そのクラスの終了場所が見つかる前に,他のクラスの開始場所が見つかることがある.この場合は,スタックにその開始場所をプッシュする.\itemクラスの終了場所が見つかれば,報告しスタックを回復する.\end{itemize}\end{enumerate}上記のアルゴリズムでクラスを求めていったとき,求めるクラスの先頭が発見できていて,まだ,その終りが発見できていないクラスを計算中のクラスと呼ぶことにする.アルゴリズムでは,スタック中のクラスを現在計算中のクラスとする.\par$common[i]$はコーパスの文字列と同じ大きさの配列で,SuffixArrayで次のsuffixと文字列が一致している長さである.この文字列はドキュメントの長さを越えることはなく,したがって,計算量のオーダを増やすことはない.\par文字列のクラスは,$common[i]$の増減にしたがっている.$common[i]$が増加したときは,現在計算中のクラスを計算終了していないクラスとして登録し,新しいクラスが開始したものとして処理する.\par$common[i]$が減少しているときは次の2つのケースがある.\begin{itemize}\item現在のクラスは終了するが,実は現在のクラスと同じsuffixの場所から始まったクラスが,現在のクラス以外にもある場合.\item現在のクラスを終了し,スタックトップのクラスの処理を継続しなければならない場合.\end{itemize}2番目のケースで,スタックトップの計算途中のクラスの処理を継続するときには,このクラスがすぐに終了しているかどうかの検査から処理を継続する.クラスの発見をするには$common[i]$ごとに,クラス終了判定の操作を行うことになる.2番目のケースでは,計算途中のクラスの数だけ繰り返しが起きるのだが,その繰り返しの数を合計してもクラスの最大数を越えることはない.したがって,クラスの最大数と$common[i]$の個数からこの操作は$O(N)$で完了できる.\par現在計算中のクラスについて,以下の性質が成り立つ.\\[性質10]\par現在計算中のsuffixから始まり,ドキュメントの区切りまでの文字列を属するクラス毎に分類すると,そのクラスは現在計算中のクラスとなる. \section{単純な重複条件付き文字列頻度の計数} 重複度$k$が与えられていたとき,すべての文字列$x$に対して重複度が$k$以上である$cf_k(x)$を求めることを考える.重複度は文字列と場所の関数であるが,同一クラスに属する文字列の重複度が異なることはない.また,同一クラスに属する文字列について,$cf_k(x)$は等しい.そこでクラスの数だけのカウンタを用意し,各suffixについて処理を行なうことでも計数できる.これを単純な方法とよぶ.この方法はメモリ領域$O(N)$であるが,計算時間が問題となる.\par計数の方法は,ある場所について,そこから始まるクラスの集合を求め,すべてのクラスに対してカウンタを用意し,クラス毎に重複度が$k$以上であるかを判定して,カウンタに1を加えるというものである.この方法を単純に行うと,一つのsuffixに関連するクラスが多数になり得るため,$O(N\logN)$以下の計算量では収まらない場合がある.具体的には同じ文字が長く連続するようなデータがこのケースになる.\par \section{重複条件付き文字列頻度の計数} 重複条件付き文字列頻度の計数を単純な方法で行うと,一つのsuffixに対し,それが含まれるクラスをすべて求め,そのクラスのすべてに対してカウンタの更新を行わなければならない.しかし,以下の性質を利用することですべてのクラスに対しカウンタを更新することを避けられる.\\[性質11]\parある場所が与えられたとき,そのsuffixの先頭の文字列に対応するクラスの集合が求められるが,そのクラスには一意の階層関係がある.\\[性質12]\parある場所が与えられたとき,そこのsuffixの先頭の文字列に対応するクラスのうち,あるクラスの文字列について重複度が$k$であったとすると,そのクラスより上位のクラスの重複度は$k$以上である.\parこの2つの性質のため,カウンタの加算を一つのsuffixと一つの重複度$k$にに対して一つにすることができる.つまり,あるsuffixで重複度$k$以上となるクラスのうち,最下位のクラスのカウンタだけを加算しておき,下位クラスの計数が終了したときに,上位のクラスのカウンタにその計数値を加算していくことで,すべてのクラスの計数値を得ることができる. \section{クラスの発見と頻度計算} \subsection{クラスの始まりを発見したときの処理}あるクラスの始まりは$common[i]$が増加したことで発見できる.このとき,現在計測している重複条件付き文字列頻度の情報はほかのクラスの情報と同様にスタックに待避させ,重複条件付き文字列頻度は0に初期化して新たに計数する.\subsection{重複度判定とクラス選択の融合}ある場所で,重複度が$k$より大きいクラスのなかで最も下位のクラスを特定する操作は,重複度判定と融合することができる.重複度の判定はpreviousリンクを$k$回たどった場所$i$と,現在の場所$j$の区間が一つのドキュメントに含まれるかどうかで行うので,逆にその区間を含むクラスの集合を求めておき,その中で$Class^{\ast}([i,j])$を求めることができる.\parこの操作は,さらにクラスの検出と同時に行うことができる.これは,「ある場所で,重複度が$k$より大きい$Class^{\ast}([i,j])$」を定める区間$[i,j]$が,現在の場所$j$を終りに持つため,検出の途中では計算未終了のクラスとなっていることを利用する.\par具体的には,まず,previousリンクを$k$回たどったところにある文字列の出現を求める.次に,その出現場所と最初の出現場所を含む文字列から,共通かつ計算中の$Class^{\ast}([i,j])$を特定する.そのクラスの重複条件付き文字列頻度を加算する.\subsection{クラスの終了を発見したときの処理}あるクラスの終了は$common[i]$が減少することで発見できる.このとき,上位クラスへ計数の値を伝える処理をする.下位クラスの計数が終了したときに上位クラスのカウンタに,その計数値を加算することで,結果的にすべてのクラスに加算するのと同じ値を得ることができる. \section{実行例} サンプルとして処理するデータは以下のファイルである.一行が一つのドキュメントになっている.\begin{verbatim}abcabcabcabcdabcdebcde\end{verbatim}\subsection{SuffixArrayの作成とクラス検出の準備}第一段階では,SuffixArrayを作成し,commonをもとめ,PreviousLinkを作成する.例に対しては以下のようなデータが作成される.先頭から,\begin{itemize}\itemsuffixの番号\itemsuffixが属するドキュメントの番号\item同じドキュメントに属しているsuffixで,直前に現れたものの番号\item直後のsuffixと「先頭から一致している文字列」の長さ\itemそのsuffixの文字\end{itemize}である.\begin{verbatim}00-10:11-10:22-10:33-10:4003:abc5046:abcabc6053:abcabcabc7114:abcd8220:abcde9062:bc10095:bcabc110102:bcabcabc12173:bcd13284:bcde14330:bcde150111:c160154:cabc170161:cabcabc181122:cd192133:cde203140:cde211181:d222192:de233200:de242221:e253230:e\end{verbatim}\subsection{求められたクラスの表の例}本文で説明した方法で,$cf$が2より大きなクラスを求める.これを,クラスの先頭の場所を第1キー,長さを第2キーにしてソートし,同時に,重複条件付き文字列頻度から,文書頻度に変換する.その結果は,以下のようになる.この例では,$cf$が2より大きなクラスは全部で14個ある.クラスごとに,対応する区間,次に長さ,それぞれのクラスに対する統計値とクラスを代表する文字列となっている.クラスを代表する文字列とは,そのクラスのなかで最長の文字列である.この中には,区間の大きさが1のクラスは含まれていない.この情報の中にはクラスに含まれる最短の文字列が何であるかという情報が含まれていない.そのような文字列は,クラスを代表する文字列と先頭から比較していき,最も長く一致するものの中で最も上位のクラスの情報を取り出すことで対処している.クラスのソートで,区間の先頭を第1キーにすることでほぼ辞書順に並ぶ.区間の先頭が同じ場合には,長さが短いほうが優先されることで,結果としてクラスの代表する文字列は辞書順に並ぶ.\begin{verbatim}total=14Class[4,8]L=3tf=5df1=3df2=1df3=1df4=0S="abc"Class[5,6]L=6tf=2df1=1df2=1df3=0df4=0S="abcabc"Class[7,8]L=4tf=2df1=2df2=0df3=0df4=0S="abcd"Class[9,14]L=2tf=6df1=4df2=1df3=1df4=0S="bc"Class[10,11]L=5tf=2df1=1df2=1df3=0df4=0S="bcabc"Class[12,14]L=3tf=3df1=3df2=0df3=0df4=0S="bcd"Class[13,14]L=4tf=2df1=2df2=0df3=0df4=0S="bcde"Class[15,20]L=1tf=6df1=4df2=1df3=1df4=0S="c"Class[16,17]L=4tf=2df1=1df2=1df3=0df4=0S="cabc"Class[18,20]L=2tf=3df1=3df2=0df3=0df4=0S="cd"Class[19,20]L=3tf=2df1=2df2=0df3=0df4=0S="cde"Class[21,23]L=1tf=3df1=3df2=0df3=0df4=0S="d"Class[22,23]L=2tf=2df1=2df2=0df3=0df4=0S="de"Class[24,25]L=1tf=2df1=2df2=0df3=0df4=0S="e"\end{verbatim}\subsection{文字列に対する処理}与えられた任意の文字列に対して,上記の表を二分探索することで$tf,df_1(=df),df_2,df_3,df_4$を求めることができる.二分探索であり,表の大きさは$O(N)$であるので,この処理は$O(\logN)$で終了する.\begin{verbatim}abc--Class[4,8]に該当(代表文字列)53110abcabcabc--Class[5,6]に該当(代表文字列)21100abcabcabcd--Class[7,8]に該当(代表文字列)22000abcdabca--Class[5,6]に該当(代表文字列でない)21100abcaabcab--Class[5,6]に該当(代表文字列でない)21100abcababcabc--Class[5,6]に該当(代表文字列)21100abcabcabcabca--表になく,コーパスに存在する11000abcabcaabcabcab--表になく,コーパスに存在する11000abcabcababcabcabc--表になく,コーパスに存在する11000abcabcabcabcabcabca--表になく,コーパスに存在しない00000abcabcabca\end{verbatim} \section{実行時間の計測} 実行時間の計測は,どのようなドキュメントを用いても良いが,ここでは,技術用語のアブストラクトの集合を使用した.そこからアブストラクトの本文だけを抜き出し,一行を一つのドキュメントに整形したものである.332,918文書,69,312,280文字,130,993,215バイトのコーパスである.測定には,AthlonMP1.2Mhz,3GByteメモリのシステムを使用した.\subsection{ボトムラインシステム}最初の比較対象のシステムは,一番単純な方法で計測した場合である.文字列と重複度$k$が与えられたときに,$k$のドキュメント頻度をは,コーパスの先頭から順番に見るという方針で求めるものである.具体的には,以下のようなプログラムで求める.これば,クラス分けもクラスの階層構造も利用しないシステムとなっている.このシステムは定義が単純であるため速度の比較だけでなく,プログラムの動作の正答を用意し,提案するシステムが正しく動作していることの確認にも使用した.このシステムを{\ttlinear}と呼ぶことにする.\begin{verbatim}/*s1の先頭がs2で始まっているかどうかを検査する関数*/staticintstring_sub(char*s1,char*s2){while(*s2){if(*s1!=*s2){return0;}s1++;s2++;}return*s1;}/*改行までの間に,文字列がk回出現するかどうか調べ,出現した回数をカウントする回数.*/intdfn(intk,char*s){inti;/*stringposition*/intt;/*termfrequencyinadocument*/intn;/*documentfrequency*/n=0;t=0;for(i=0;i<size;i++){if(string_sub(&text[i],s))t++;if(text[i]=='\n'){if(t>=k)n++;t=0;}}returnn;}\end{verbatim}\subsection{ベースラインシステム}ベースラインシステムは,クラス分けを使用しているが,表を作成するときにクラスの階層構造を使用しないシステムである.クラスの検出のあと,下のCのプログラムを使って,$df_1$から$df_5$までを同時にもとめて表にする.このシステムを{\ttbase}と呼ぶことにする.\begin{verbatim}/*重複条件付きドキュメント頻度を一斉に求める関数結果は,staticな配列に保存する.*/staticintdfn[MAX_C];staticvoidcount_dfn(char*s,intlen){inti;/*stringposition*/intt;/*termfrequencyinadocument*/intn;/*documentfrequency*/intk;n=0;t=0;for(k=0;k<MAX_C;k++){dfn[k]=0;};for(i=0;i<size;i++){if(strncmp(&text[i],s,len)==0)t++;if(text[i]=='\n'){for(k=0;k<MAX_C;k++){if(t>k)dfn[k]++;}t=0;}}}\end{verbatim}\subsection{提案システム}提案するシステムはこの論文で記述した方法を用いたものであり,クラスの表を作成し,表の数値を計数するときに,クラスの階層の性質を使用したものである.このシステムを{\ttclass}と呼ぶことにする.\subsection{計測}実験は,10個のドキュメントのなかに含まれる文字列頻度が3をこえるすべての文字列について,$cf$,$df_0$,$df_1$,$df_2$,$df_3$,$df_4$,$df_5$を求めることを行った.コーパスの文字数$N$による効果を測定するために,使用するコーパスを,先頭から,316ドキュメント,1000ドキュメント,3162ドキュメント,10000ドキュメント,31623ドキュメント,100000ドキュメント,332918ドキュメントと変化させた実行時間を計測した.実行時間は,前処理の時間と,重複条件付きのドキュメント頻度を求める時間とに分けて計測した.表\ref{実行時間}に{\ttlinear},{\ttbase},{\ttclass}の実行時間を示す.表\ref{実行時間}の中の時間は,処理装置の使用時間を秒で示したものである.また,すべてのプログラムが同一の頻度を出力することも確認した.重複条件付きドキュメント頻度の分析対象とした文字列は,10ドキュメント,4156バイト,2190文字の部分文字列で,統計的に安定な頻度が3を越える文字列である.この文字列の数は,コーパスが大きくなるにつれ増加するが,その増加は緩やかである.{\ttlinear}システムは,前処理は必要なく,前処理の時間はテキストを読む時間だけである.この計測ではファイル処理の時間は除外しているので,前処理の時間は0.0となる.{\ttlinear}システムは直ちに結果を出力し始めるがコーパスのドキュメント数が増加することに比例して一つあたりの分析時間が大きくなっていく.10個のドキュメントの分析という小さな問題であっても,実用的に使用できるのは,ドキュメントの数が1万程度までである.{\ttbase}システムは,分析時間は高速になるが,前処理に$O(N^2)$の時間がかかることが観測される.実用的に使用できるのは,ドキュメントの数が数千個程度までである.提案するシステム({\ttclass})の実行時間は,実データにおいて,前処理$O(N\logN)$となっている.そして,分析時間を分析対象の文字数で割ることで求められる1文字列あたりの時間は,最大でも0.036ミリ秒であり,1000ドキュメントより大きなコーパスにおいて,$O(\logN)$となっている.332,918ドキュメントの前処理の時間は1223.4と$O(N\logN)$に比べて大きい.ほかに比べて増加しているのは,実験に使用したコンピュータの実装メモリに近いプロセスの大きさになったためだと考えられる.以上,クラス分けによる表の作成と,クラスの階層構造を利用することによって,はじめて10万を越えるドキュメント数に対して分析ができるようになったことがわかる.\begin{table}[htbp]\begin{center}\begin{tabular}{|r|r|r|}\hlineドキュメント数&コーパス文字数&文字列個数\\\hline316&66547&6119\\1000&221457&6957\\3162&724945&8018\\10000&2336198&9189\\31623&6862825&10349\\100000&20095547&11214\\332918&69312280&12270\\\hline\end{tabular}\vspace*{3mm}\\\begin{tabular}{|r|rr|rr|rr|}\hline{ドキュメント数}&\multicolumn{2}{|c|}{linear\[sec]}&\multicolumn{2}{|c|}{base\[sec]}&\multicolumn{2}{|c|}{class\[sec]}\\&前処理&分析&前処理&分析&前処理&分析\\\hline316&0.0&89.2&81.4&0.10&0.3&0.10\\1000&0.0&312.3&891.6&0.14&1.1&0.14\\3162&0.0&1173.8&9802.6&0.19&4.4&0.19\\10000&0.0&4315.8&-&-&17.5&0.26\\31623&-&-&-&-&59.9&0.31\\100000&-&-&-&-&202.6&0.38\\332918&-&-&-&-&1223.4&0.44\\\hline\end{tabular}\vspace*{2mm}\caption{実行時間の計測}\label{実行時間}\end{center}\end{table}\vspace*{4em}\subsection{メモリ容量負荷}プログラムで使用するメモリの量を示すために,実行しているプロセスの大きさを計測する.これを表\ref{プロセス}に示す.計測では分析する重複度の上限は5に設定している.表\ref{プロセス}より,提案するシステムのメモリ負荷は,$O(N)$となっていることがわかる.そして,表の作成に,1クラスあたり100バイト,表の検索に,1クラスあたり50バイト使用していることがわかる.表の検索のプログラムは,クラス分けの表とSuffixArrayを保持しており,プロセスの大きさの主要な部分は,その大きさである.表を作成するには,クラス検出のためのデータ構造や,重複度判定のためのデータ構造などがあり,分析処理よりもメモリを多く必要とする.\begin{table}[htbp]\begin{center}\begin{tabular}{|l||r|r|r|r|}\hlineドキュメント数&10000&31623&100000&332918\\\hline$cf>2$のクラスの数&787844&2303978&6815815&24018652\\表の作成プロセス&80M&234M&626M&2366M\\分析処理プロセス&40M&116M&333M&1175M\\\hline\end{tabular}\vspace*{2mm}\caption{メモリ使用量の計測}\label{プロセス}\end{center}\end{table}\newpage \section{そのほかの応用} 任意の文字列について,前処理の後に$O(\logN)$で重複条件付きドキュメント頻度の分析を行うことは,文字列の統計処理の基本技術であり,ここで述べた単語の境界の分析以外にも応用範囲がある.\subsection{情報検索への応用}日本語,中国語などの情報検索では2文字の文字列に対して,ドキュメント頻度を計測して,2文字に対して情報検索の重みを計算することが行われている.$df_2(x)/df_1(x)$は,Adaptationと呼ばれる量で,ドキュメントの確率という空間において,ドキュメントにある文字列が出現するということを条件としたとき,そのドキュメントに2回文字列が出現する確率の推定値である.文献\cite{DF2}は英語において,その確率が統計的に単語の性質を識別できることを示している.この量を使って検索対象の文字列を区分けすると検索精度が向上するという報告\cite{IR}がある.あらかじめ表を作成するのが難しいため,この報告の処理対象は2文字に限られていたが,ここで述べた方法を使って,任意の長さの文字列から検索に効果のある文字列を選びだし,情報検索の性能を向上させるのは有望な応用の一つだと考えられる.\subsection{遺伝子情報への応用}文献\cite{Keyword}は,自然言語で書かれたドキュメントを分析対象として,辞書を使わず,重複条件付きドキュメント頻度からキーワードを抽出していたが,これは「あるドキュメントに繰り返し現れる文字列」を効果的に取り出すシステムと解釈できる.これを遺伝子情報に適用して,「遺伝子に繰り返し現れるDNA配列」を検出するのは有望な応用の一つと考えられる.遺伝子の長さを考えると,ここで示した方法をつかってはじめて,遺伝子のドキュメント頻度の分析ができるようになると考えられる.\subsection{プログラミングツールへの応用}文献\cite{TOOL}は,文字列の頻度を分析して,プログラム中にまれにしか現れない文字列を検出し,それがプログラムの欠損の判定に効果があることを示している.このツールにおいて,使用しているのは文字列の総出現頻度だけであるが,重複条件付きドキュメント頻度はプログラム中の構造がより精密に判定できる情報源である.あらたな情報が提供されれば,このようなツールの検出性能が向上することが期待できる. \section{まとめ} この論文では,重複条件付きドキュメント頻度の性質を述べたあと,それを前処理で表にする方法を述べた.その経過において,まず,出現場所の集合という概念を示すことで,既存のクラス分けの方法が重複条件付きドキュメント頻度の計数に使えることを述べた.次に,クラスの階層関係を利用して計数できる重複条件付文字列頻度を説明し,それを用いて重複条件付きドキュメント頻度の表を構成できることを述べた.最後に,クラス分けの効果とクラスの階層構造の利用が処理に効果があることを,332,918個のドキュメントをもつコーパスで検証し,ドキュメントの長さを$N$とするとき,前処理の処理時間が$O(N\logN)$であり,表を引く処理が$O(\logN)$であることを確かめた.最後に,実行中のプロセスの大きさを調べることでメモリの負荷が$O(N)$であることを確認した.そして,この方法で10万を越える数のドキュメントについて,任意文字列に対する重複度付きドキュメント頻度の分析を行えたことを報告する.\acknowledgment本研究は平成14年度IPA未踏ソフトウェア創造事業のプロジェクトの一部であり,住友電気工業株式会社の援助による成果です.また,AT\&T\KennethW.Church氏,つくば大学\山本幹雄氏にはクラスシステムについて,直接,教えて頂きました.深く感謝します.\bibliographystyle{jnlpbbl}\bibliography{369}\begin{biography}\biotitle{略歴}\bioauthor{梅村恭司}{1983年東京大学大学院工学系研究科情報工学専攻修士課程修了.同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,現在に至る.博士(工学),記号処理,統計言語処理,システムプログラムの研究に従事ACM,ソフトウェア学会,電子情報通信学会,計量国語学会各会員.}\bioauthor{真田亜希子}{1978年生.2001年豊橋技術科学大学工学部情報工学課程卒業.同年豊橋技術科学大学大学院工学研究科情報工学専攻修士課程入学,現在に至る.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}