id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V14N01-03
コンピュータに自然言語の意味を理解させるためには,文の述語とその項の意味的な関係を表現する必要がある.竹内は,述語と項の深層関係を表現する手法としての語彙概念構造に着目,これに基づく辞書を提案している\cite{takeuchi04,takeuchi05}.語彙概念構造は述語と項の深層関係を抽象化するため,言い換えの分野で有効性が示されている\cite{furuhata04}.河原らは,用言とその直前の格要素の組を単位とした用例ベースの辞書,格フレーム辞書を提案し,それに基づく格解析モデルを提案している\cite[など]{kawahara05_1,kawahara05}.照応や省略の解析に格フレーム辞書の有効性が示されている\cite[など]{sasano04,kawahara04,kawahara03}.格フレーム辞書は表層格を表現・区別し,語彙概念構造は表層格および深層関係を抽象化するものであり,表層格で区別できない述語と項の意味関係を個々の項について詳細に表現することはできない.これに対し,述語と項との詳細な意味関係を典型的場面についての構造化された知識である意味フレームに即して表現した体系として,日本語フレームネットが提案されている\cite[など]{ohara05}.日本語フレームネットは英語語彙情報資源FrameNet\footnote{http://framenet.icsi.berkeley.edu}と同様にフレーム意味論\cite{fillmore82}に基づく日本語語彙情報資源で,意味フレーム別に,その意味要素である詳細な意味役割を定義し,その意味フレームに関与する述語項構造の述語となる語彙項目をリストアップしている.格フレーム辞書,語彙概念構造辞書および日本語フレームネットによる,述語「払う」に対する記述を図\ref{fig:resource_comparison}に示す.\begin{figure}[p]\setlength{\tabcolsep}{1.3mm}\begin{tabular}{llllllllllll}\hline\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf格フレーム辞書}$^{*1}$}\\&\multicolumn{11}{l}{払う:動1}\\&&\multicolumn{2}{r}{*$\langle$ガ格$\rangle$}&\multicolumn{8}{l}{私:393,人:246,者:215,俺:168,自分:158,僕:101,あなた:38,$\langle$数量$\rangle$人:37,...}\\&&\multicolumn{2}{r}{*$\langle$ヲ格$\rangle$}&\multicolumn{8}{l}{金:18570,料:7522,料金:4101,税金:2872,$\langle$数量$\rangle$円:2726,費:1643,税:1340,...}\\&&\multicolumn{2}{r}{*$\langle$ニ格$\rangle$}&\multicolumn{8}{l}{$\langle$補文$\rangle$:336,人:250,者:233,会社:211,業者:127,店:95,NTT:72,屋:68,...}\\&&\multicolumn{2}{r}{*$\langle$デ格$\rangle$}&\multicolumn{8}{l}{レジ:106,$\langle$時間$\rangle$:75,受付:74,入り口:63,税金:63,$\langle$補文$\rangle$:56,コンビニ:55,...}\\&&\multicolumn{2}{r}{*$\langle$無格$\rangle$}&\multicolumn{8}{l}{$\langle$数量$\rangle$円:2739,$\langle$数量$\rangle$ドル:371,$\langle$数量$\rangle$回:363,$\langle$数量$\rangle$元:102,$\langle$数量$\rangle$人:96,...}\\&&\multicolumn{2}{r}{$\langle$時間$\rangle$}&\multicolumn{8}{l}{$\langle$時間$\rangle$:677}\\&&\multicolumn{2}{r}{$\langle$ノ格$\rangle$}&\multicolumn{8}{l}{$\langle$数量$\rangle$円:963,$\langle$時間$\rangle$:499,$\langle$数量$\rangle$:260,$\langle$数量$\rangle$ドル:164,$\langle$数量$\rangle$倍:153,...}\\&\multicolumn{11}{l}{払う:動2}\\&&\multicolumn{10}{l}{$\vdots$}\\\vspace*{-2mm}&&&&&&&&&&&\\\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf語彙概念構造}$^{*2*3}$}\\&\multicolumn{3}{l}{払う}&\multicolumn{8}{l}{[[~]xCONTROL[BECOME[[~]yBEAT[FILLED]z]]]}\\\vspace*{-2mm}&&&&&&&&&&&\\\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf日本語フレームネット}$^{*4*5}$}\\&\multicolumn{11}{l}{払う.v}\\&&\multicolumn{2}{l}{Frame:}&\multicolumn{8}{l}{Commerce\_pay}\\&&\multicolumn{2}{l}{Definition:}&\multicolumn{8}{l}{IPAL:相手に受け取る権利のある金を渡す.}\\&&\multicolumn{10}{l}{FrameElements:}\\\cline{4-11}&&&\multicolumn{2}{l}{FrameElement}&\multicolumn{6}{l}{Realizations}&\\\cline{4-11}&&&\multicolumn{2}{l}{\itBuyer}&DNI.--.--&INC.--.--&INI.--.--&NP.Ext.--&NP.Ext.ガ&&\\&&&\multicolumn{2}{l}{\itCircumstances}&NP.Dep.デ&&&&&&\\&&&\multicolumn{2}{l}{\itGoods}&NP.Obj.ヲ&&&&&&\\&&&\multicolumn{2}{l}{\itMeans}&NP.Dep.デ&&&&&&\\&&&\multicolumn{2}{l}{\itMoney}&NP.Obj.ヲ&DNI.--.--&NP.Obj.ハ&NP.Dep.--&NP.Obj.--&NP.Obj.モ&\\&&&\multicolumn{2}{l}{\itPlace}&NP.Dep.ニ&NP.Dep.デ&NP.Dep.ハ&&&&\\&&&\multicolumn{2}{l}{\itRate}&AVP.Dep.--&&&&&&\\&&&\multicolumn{2}{l}{\itReason}&AVP.Dep.--&Sfin.Dep.--&NP.Dep.カラ&&&&\\&&&\multicolumn{2}{l}{\itSeller}&DNI.--.--&NP.Dep.ヘ&INI.--.--&NP.Ext.ハ&&&\\&&&\multicolumn{2}{l}{\itTime}&NP.Dep.ニ&NP.Dep.モ&&&&&\\\cline{4-11}&&&&&&&&&&&\\\hline\hline\multicolumn{12}{r}{\begin{minipage}[t]{0.8\textwidth}\footnotesize\begin{itemize}\item[\hspace*{3mm}*1]\texttt{http://reed.kuee.kyoto-u.ac.jp/cf-search/}で検索した結果の一部を引用した.\item[\hspace*{3mm}*2]\texttt{http://cl.it.okayama-u.ac.jp/rsc/lcs/}から引用した.\item[\hspace*{3mm}*3]この例では,\texttt{x,y,z}は表層ではそれぞれ「が」「を」「に」格,深層ではそれぞれAgent,Theme,Goalに対応している.\item[\hspace*{3mm}*4]ここに示した日本語フレームネットデータは2006年8月現在のものである.\item[\hspace*{3mm}*5]表において,``FrameElement''(フレーム要素)はいわゆる深層格に当たる.\end{itemize}\end{minipage}}\\\end{tabular}\vspace{4pt}\caption{格フレーム辞書,語彙概念構造および日本語フレームネットにおける述語「払う」の記述}\label{fig:resource_comparison}\end{figure}FrameNetは機械翻訳や語義曖昧性解消の分野で有効と考えられており,将来の適用に向けて,FrameNet意味役割を自動推定するタスクのコンテストも開催されている\footnote{http://www.lsi.upc.edu/$\tilde{~}$srlconll/home.htmlならびにhttp://www.senseval.org/}\cite{litkowski04}.FrameNetに基づく意味役割自動推定は,述語の各項に対し,詳細な意味役割に相当する,フレーム意味論における「フレーム要素(FrameElement)」を付与する試みである.この研究はGildeaらの提案に端を発する\cite{gildea02}.Gildeaらは,条件付き確率モデルを用いた意味役割推定に加え,確率モデルの学習に必要な訓練事例の自動生成手法も提案した.Gildeaらの提案は,形式意味論の枠組みに沿って述語と項の意味的な関係を表現するPropBank\cite[など]{kingsbury02}を背景とした意味役割推定手法においても参照され,その改良として,確率モデルの獲得手法に最大エントロピー(ME)法\cite{berger96}やサポートベクタマシン(SVM)\cite{vapnik99}を用いた意味役割推定が複数提案された\cite[など]{kwon04,pradhan04,bejan04}.また,文中のどの部分が項であるかを同定するため,形態素の品詞や句の文法機能を用いて項を抽象化し,頻出するものを項とする手法も提案された\cite{baldewein04}.日本語フレームネットではFrameNetの枠組や方法論をふまえ,日英の比較対照を考慮した日本語語義記述が実践されているが,日本語フレームネットを用いた,日本語を対象とした意味役割の自動推定に関する研究は行われていない.そこで本稿では,日本語フレームネットに基づき,述語項構造における項の意味役割を推定するモデルを提案する.日本語フレームネットは現在作成中であり,現時点では語彙資源の規模が非常に小さい\footnote{2006年8月現在,FrameNetの注釈付き事例数約150,000に対し,日本語フレームネットの注釈付き事例数は1,756.}.そのため,日本語の意味役割推定にはある程度規模の大きい英語FrameNetを対象とした既存の手法をそのまま適用できず,小規模の語彙資源でも十分な精度で推定可能な手法を新たに考える必要がある.本稿では以上を踏まえ,日本語フレームネットの注釈付き事例に基づく機械学習を用いて,意味役割を推定するモデルの獲得手法を提案する.意味役割推定モデルは,文と述語から述語項構造を同定,意味役割を付与すべき項を抽出し,それらに適切な意味役割を付与するという3つのタスクを担う.モデルの獲得には最大エントロピー法ならびにサポートベクタマシンを用い,項候補の獲得には構文情報を利用する.同時に,モデルの学習に必要な訓練事例の自動生成も行う.
V30N02-09
\label{sec:introduction}ニューラルエンコーダ・デコーダは,機械翻訳や自動要約などの様々な系列変換タスクにおいて顕著な性能を達成している\cite{DBLP:journals/corr/BahdanauCB14,rush-etal-2015-neural,NIPS2017_3f5ee243}.近年の研究においてニューラルネットワークを用いた手法の性能は訓練データ量に対数比例することが指摘されており\cite{NEURIPS2020_1457c0d6},系列変換タスクにおいても高い性能を達成するためには,大規模な並列コーパスが必要である\cite{koehn-knowles-2017-six}.本稿では,生成型要約タスクにおけるニューラルエンコーダ・デコーダの性能を向上させるために,訓練データを拡張することに取り組む.人手による並列コーパスの構築はコストが高いため,既存研究では疑似訓練データを自動的に構築する方法が検討されている.疑似訓練データを構築する方法としては,逆翻訳\cite{sennrich-etal-2016-improving}が広く用いられている.翻訳タスクにおける逆翻訳では,翻訳先の言語の文から翻訳元の言語の文を生成するモデルを学習し,得られたモデルを翻訳先の言語のコーパスに適用し,翻訳元の言語の疑似コーパスを生成する.また,機械翻訳以外にも,文法誤り訂正\cite{kiyono-etal-2019-empirical}や要約\cite{parida-motlicek-2019-abstract}タスクにおいても,逆翻訳が利用されている.しかしながら,この逆翻訳手法を要約タスクに適用する場合にモデルは,要約から原文を生成する必要があるため,要約タスクにおける逆翻訳は本質的に非合理的である(付録\ref{sec:appendix-backtranslation}).Heら\cite{He2020Revisiting}は,自己学習が機械翻訳や要約タスクの性能を向上させることを示した.自己学習では教師モデルを学習し,そのモデルを入力側のコーパスに適応し,出力側の疑似コーパスを生成する.逆翻訳が非合理的な処理であったのに対し,自己学習による疑似要約の生成は合理的である.しかしながら,自己学習を適用した場合,多様な要約の生成が困難であると指摘されている\cite{gu2018non}.これらの問題に加え,自己学習や逆翻訳において高品質な疑似データを得るためには,大量の訓練データで教師モデルや逆翻訳モデルを学習しておく必要があるため,データ構築のコストが高い.そこで,本研究では生成型要約の疑似訓練データを構築する新たなアプローチとして抽出型要約と言い換えの組み合わせによる手法(ExtractionandParaphrasing;\textbf{ExtraPhrase})を提案する.ExtraPhraseの抽出型要約では,原文の統語構造を基に,ヒューリスティックな手法で重要な部分を要約として残し,原文を圧縮する.このため,逆翻訳や自己学習と異なり,疑似訓練データ作成のためだけにニューラルモデルを構築する必要がない.圧縮された要約に対し,既存のモデルを活用した言い換え手法を適用し,多様な疑似要約を得る.本研究では見出し生成タスクと文書要約タスクで実験を行う.実験を通して,ExtraPhraseによる疑似訓練データは両タスクにおいて性能を向上させることを確認した.具体的には,疑似データを用いることにより両タスクのROUGEF1スコアが0.50以上向上した.提案手法は真の訓練データが少ない低リソースの設定においても頑健であることが確認された(\ref{sec:appendix-lowresource}節).また,生成された疑似データの性質を分析し(\ref{sec:pseudo-diversity}節),提案手法による疑似データの生成が従来手法より効率的であることを示した(\ref{sec:pseudo-efficiency}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V10N05-05
インターネットが急速に広まり,その社会における重要性が急速に高まりつつある現在,他言語のウェブ情報を閲覧したり,多言語で情報を発信するなど,機械翻訳の需要は一層高まっている.これまで,機械翻訳の様々な手法が提案されてきたが,大量のコーパスが利用可能となってきたことにともない用例ベース翻訳\cite{Nagao1984}や統計ベース翻訳\cite{Brown1990}が主な研究対象となってきている.本稿は前者の用例ベース翻訳に注目する.用例ベース翻訳とは,翻訳すべき入力文に対して,それと類似した翻訳用例をもとに翻訳を行なう方式である.経験豊かな人間が翻訳を行う場合でも用例を利用して翻訳を行っており,この方式は他の手法よりも自然な翻訳文の生成が可能だと考えられる.また,用例の追加により容易にシステムを改善可能である.以上のような利点を持つものの,用例ベース方式は翻訳対象領域をマニュアルや旅行会話などに限定して研究されている段階であり,ウェブドキュメント等を翻訳できるような一般的な翻訳システムは実現されていない.その実現が困難な理由の一つに,用例の不足が挙げられる.用例ベース翻訳は入力文とできるだけ近い文脈をもつ用例を使うため,用例は対訳辞書のように独立した翻訳ペアではなく,まわりに文脈を持つことが必要である.つまり,用例中のある句が相手側言語のある句と対応するというような対応関係が必要となる.用例ベース翻訳を実現するためには大量の用例が必要だが,人手でこのような用例を作成するのは大量のコストがかかる.そこで,対訳文に対して句アライメントを行い用例として利用できるように変換する研究が90年代初頭から行われてきた.当初は,依存構造や句構造を用いた研究が中心であったが\cite{Sadler1990,Matsumoto1993,Kaji1992},構文解析の精度が低いために実証的な成果が上がらなかった.その後には,構造を用いず用例を単なる語列として扱った統計的手法が研究の中心となっている\cite{北村1997,Sato2002}.統計的手法によって対応関係を高精度に得ることは可能だが,そのためには大量の対訳コーパスが必要となる.近年は構文解析の精度が日英両言語で飛躍的に向上し,再び構造的な対応付けが試みられている.Menezes等\cite{Menezes2001}は,マニュアルというドメインで依存構造上の句アライメントを行なっている.今村\cite{今村2002}は,旅行会話というドメインで句構造的上の句アライメントを行なっている.これらの先行研究は,限定されたドメインのパラレリズムが高いコーパスを扱っており,一般的なコーパスが用いられていない.本稿はコーパスに依存しない対応付けを実現するために依存構造上の位置関係を一般的に扱い,対応全体の整合性を考慮することにより対応関係を推定する.これは,\cite{Watanabe2000}を基本句の概念を導入して発展させたものである.本稿の構成は以下のとおりである.2章で提案手法について述べる.3章で実験と考察を述べ,4章にまとめを付す.
V16N01-02
本論文では,ベイズ識別と仮説検定に基づいて,英文書の作成者の母語話者/非母語話者の判別(母語話者性の判別)を高精度で行う手法を提案する.WWW上の英文書を英語教育や英文書作成支援に利用する研究が盛んに行われている\cite{大鹿,佐野,大武}.WWW上にはオーサライズされた言語コーパスとは比べものにならないくらいの大量の英文書が存在するため,これを言語データとして活用することで,必要な言語データの量の問題をかなり克服できる.しかし,WWW上の英文書の質は様々であり,英語を母語とする者あるいはそれと同等の英語運用能力を有する者が書いた英文書(本論文では母語話者文書と呼ぶ)と英語を母語としない者が書いた誤りや不自然な表現を含む英文書(本論文では非母語話者文書と呼ぶ)とが混在している.WWW上の英文書を英語学習教材として使用する場合,あるいは,英語表現の用例集として使用する場合は,使用する英文書を母語話者文書に制限するのが望ましい.また,非母語話者に特有の文法的特徴や使用語彙の傾向を調査したり,非母語話者が犯しがちな不自然な表現を収集するには,大量の母語話者文書および非母語話者文書を必要とする.したがって,英語教育や英文書作成支援を目的としてWWW上の英文書を使用する場合,英文書の母語話者性判別を行う技術は非常に重要である.本論文で提案する英文書の母語話者性判別手法では,品詞$n$-gramモデルを言語モデルとし,判別対象の文書の品詞列(文書中の単語をその品詞で置き換えた列)の母語話者言語モデルによる生起確率と非母語話者言語モデルによる生起確率との比に基づいて判別を行う.$n=5,6,7$といった比較的大きな$n$-gramモデルを言語モデルとすることで,母語話者/非母語話者固有の特徴をより良く扱うことが可能となり,判別精度の向上が期待できる.しかしその反面,両言語モデルのパラメタ($n$-gram確率)を最尤推定した場合,母語話者/非母語話者文書間で品詞$n$-gramモデルのパラメタ値に大きな違いがあるのか,学習データの統計的な揺らぎに起因するものなのかが区別できない.$n=3$という条件部が短い$n$-gramモデルを用いて判別を行う場合でさえ,ゼロ頻度問題およびスパースネスの問題に対処するために,通常なんらかのスムージングを行う.これに対し,提案手法では,仮説検定に基づいた方法で両言語モデルにおける文書の生起確率の比を推定する.
V21N05-04
線形計画問題において全てもしくは一部の変数が整数値を取る制約を持つ(混合)整数計画問題は,産業や学術の幅広い分野における現実問題を定式化できる汎用的な最適化問題の1つである.近年,整数計画ソルバー(整数計画問題を解くソフトウェア)の進歩は著しく,現在では数千変数から数万変数におよぶ実務上の最適化問題が次々と解決されている.また,商用・非商用を含めて多数の整数計画ソルバーが公開されており,整数計画問題を解くアルゴリズムを知らなくても定式化さえできれば整数計画ソルバーを利用できるようになったため,数理最適化以外の分野においても整数計画ソルバーを利用した研究が急速に普及している.最適化問題は,与えられた制約条件の下で目的関数$f(\bm{x})$の値を最小にする解$\bm{x}$を1つ求める問題であり,線形計画問題は,目的関数が線形で制約条件が線形等式や線形不等式で記述される最も基本的な最適化問題である.通常の線形計画問題では,全ての変数は連続的な実数値を取るが,全ての変数が離散的な整数値のみを取る線形計画問題は整数(線形)計画問題と呼ばれる.また,一部の変数が整数値のみを取る場合は混合整数計画問題,全ての変数が$\{0,1\}$の2値のみを取る場合は0-1整数計画問題と呼ばれる.最近では非線形の問題も含めて整数計画問題と呼ばれる場合が多いが,本論文では線形の問題のみを整数計画問題と呼ぶ.また,混合整数計画問題や0-1整数計画問題も区別せずに整数計画問題と呼ぶ.整数変数は離散的な値を取る事象を表すだけではなく,制約式や状態を切り替えるスイッチとして用いることが可能であり,産業や学術の幅広い分野における現実問題を整数計画問題に定式化できる.組合せ最適化問題は,制約条件を満たす解の集合が組合せ的な構造を持つ最適化問題であり,解が集合,順序,割当て,グラフ,論理値,整数などで記述される場合が多い.原理的に,全ての組合せ最適化問題は整数計画問題に定式化できることが知られており,最近では,整数計画ソルバーの性能向上とも相まって,整数計画ソルバーを用いて組合せ最適化問題を解く事例が増えている.現実問題を線形計画問題や整数計画問題に定式化する際には,線形式のみを用いて目的関数と制約条件を記述する必要がある.こう書くと,扱える現実問題がかなり限定されるように思われる.実際に,線形計画法の生みの親であるDantzigもWisconsin大学で講演をした際に「残念ながら宇宙は線形ではない」と批判を受けている\cite{KonnoH2005}.しかし,正確さを失うことなく現実問題を非線形計画問題に定式化できても最適解を求められない場合も多く,逆に非線形に見える問題でも変数の追加や式の変形により等価な線形計画問題や整数計画問題に変換できる場合も少なくない.そのため,現実問題を線形計画問題や整数計画問題に定式化してその最適解を求めることは,実用的な問題解決の手法として受け入れられている.現在では,整数計画ソルバーは現実問題を解決するための有用な道具として数理最適化以外の分野でも急速に普及している.一方で,数理最適化の専門家ではない利用者にとって,線形式のみを用いて現実問題を記述することは容易な作業ではなく,現実問題を上手く定式化できずに悩んだり,強力だが専門家だけが使う良く分からない手法だと敬遠している利用者も少なくない.そこで,本論文では,数理最適化の専門家ではない利用者が,現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説する.なお,最近の整数計画ソルバーはアルゴリズムを知らなくても不自由なく利用できる場合が多いため,本論文では,線形計画法,整数計画法の解法および理論に関する詳しい説明は行わない.線形計画法については\cite{ChvatalV1983,KonnoH1987},整数計画法については\cite{KonnoH1982,NemhauserGL1988,WolseyLA1998}が詳しい.また,線形計画法,整数計画法の発展の歴史については\cite{AchterbergT2013,AshfordR2007,BixbyR2007,KonnoH2005,KonnoH2014,LodiA2010}が詳しい.
V31N02-06
近年,言語モデルの言語間転移能力に高い関心が寄せられている.例えば,英語の大規模言語モデルは,学習データに少量しか存在しない英語以外の言語に対しても,一定の翻訳性能を示しており\cite{Brown2020-zt,shi2023language},英語から他の言語への効率的な言語間転移が示唆されている.このような言語間転移能力について,既存研究では,パープレキシティや下流タスクでの性能などの抽象的・全体的な尺度によって評価されてきた\cite{Papadimitriou2020-kp,Deshpande2022,Blevins2022-ta}.その一方で,言語学的な観点からの調査,例えば言語の類型的な特徴などに起因する文法能力や転移能力の差異についての調査はほとんど実施されてこなかった.本研究では,言語モデルの言語間転移能力について,第一言語獲得の第二言語の言語的汎化の効率への影響を言語横断的に調査する.具体的には,まず言語モデルを特定の言語で事前学習し(第一言語話者と想定),第二言語として英語を使用して追加で学習した後に(第二言語話者と想定),第二言語の言語的汎化の評価とその分析を行うという手順を設計する(\ref{sec:exp_procedure}\nobreak節).第一言語として,英語への転移の難易度が異なる4つの言語(フランス語,ドイツ語,ロシア語,日本語)を選択する.学習データの量は,人間の第二言語獲得シナリオに一致するように制限することで,人間の第二言語獲得の傾向との比較が容易になり,計算言語学的な観点から第二言語獲得に関する洞察が得られることが期待される.事前実験では,第二言語の学習方法における帰納バイアスを調査する(\ref{sec:pre_exp}\nobreak節).第二言語のテキストのみでの学習や,第一言語と第二言語の対訳での学習など,様々なデータの入力設定を比較する.言語モデルの第二言語の学習時に,第一言語と第二言語の対訳を提示する設定では,対訳関係を崩した文対を提示する設定よりも,第二言語の言語的汎化が遅くなることが示された.本実験では,第一言語の学習が第二言語の文法獲得に与える影響を探索的に分析する(\ref{sec:experiments}\nobreak節).第一言語の知識は第二言語のより良い言語的汎化を促進する傾向が見られたが(\ref{sec:l1-promote}\nobreak節),第一言語の特徴によって第二言語で異なる言語的汎化を引き起こすことが示された(\ref{sec:diff-l1}\nobreak節).例えば,日本語またはロシア語を第一言語として学習したバイリンガル言語モデルはフランス語とドイツ語と比較して言語的汎化の性能が著しく低かった.これは人間について定義された言語学習の難易度\cite{Chiswick2004-zz}と一致している.また,第一言語の事前学習は対象とする言語現象によっても異なる効果を与えることがわかった(\ref{sec:diff-grammar}\nobreak節).特に,第一言語による事前学習は,意味的現象や統語/意味的現象よりも,形態的現象や統語的な現象で大きな効果が観察された.最後に,より詳細な調査として,第二言語獲得の過程を分析する(\ref{sec:analysis}\nobreak節).まず,第一言語の違いにより,第二言語の言語的汎化の過程がどのように変化するかを調査した.言語モデルの言語的汎化は,データセット全体を50--100回程度見るまであまり進まず,学習の非効率性を示唆する結果となった.次に,第二言語の学習中に,第一言語の知識に与える影響の過程も調査した.第二言語の学習中に第一言語の言語的汎化が抑制される傾向にあることが観察され,言語転移の間に,第一言語と第二言語の言語学的知識のバランスを取ることは容易でないことが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-2ia5f1.pdf}\end{center}\hangcaption{実験手順の概要.はじめに,第一言語を用いて単言語の穴埋め言語モデリングを行う(第一言語獲得).次に第一言語と第二言語(英語)を両方用いて,既存研究に従い\protect\cite{conneau_xlm}穴埋め言語モデリングを行う(第二言語獲得).最後に,英語の文法性判断ベンチマークであるBLiMPを用いてモデルの第二言語の文法能力を評価し,第一言語が第二言語の獲得にどのように影響するか分析する.}\label{fig:exp_procedure}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V30N03-04
\label{purpose}医療分野には電子カルテや退院サマリといった症例テキストが蓄積されている.これらを新たな知識の発見に繋げるために,自然言語処理技術を応用する研究が試みられている.たとえば,英語では症例テキストを対象とした推論やテキストマイニング\cite{bethard-etal-2017-semeval,romanov-shivade-2018-lessons,EHRs2018}が活発に研究されつつある.日本語でも症例テキストを解析する研究が発展しつつあり,病名抽出\cite{DBLP:conf/medinfo/AramakiYW17,荒牧英治2018}や診療情報抽出\cite{東山翔平2015},患者状態の表現抽出\cite{info:doi/10.2196/11021},臨床医学表現の医学的関係抽出\cite{矢田竣太郎2022}など,固有表現抽出や関係抽出タスクを中心に,様々な解析技術が提案されている.一方で,これまでの日本語の症例テキストの解析技術は固有表現抽出のような文字列の表層的な情報のマッチングに基づく解析が中心であり,否定や量化といった構成素の構造を考慮した高度な意味解析については発展途上である.その理由の一つとして,日本語の症例テキストには症状や診断名などの複数の医療用語から構成される\textbf{複合語}が多く含まれており,複合語の構文解析や意味解析が難しいという問題がある.複合語を含む症例テキストの例を(\ref{ex:1})に示す.\begin{exe}\setlength{\parskip}{0pt}%\ex\label{ex:1}非持続性心室頻拍が認められたため,アミオダロン併用した.\ex\begin{xlist}\ex\label{ex:2}心室頻拍は持続性ではない.\ex\label{ex:3}アミオダロンを併用した.\end{xlist}\end{exe}(\ref{ex:1})の「非持続性心室頻拍」からは,「持続性ではない心室頻拍」が認められたこと,「アミオダロン併用」からは「アミオダロンを併用」したことがわかる.このように複合語には,複合語を構成する要素間の様々な意味関係が非明示的に含まれている.これらの意味関係を同定することができれば,複合語が現れる(\ref{ex:1})のような文から,複合語が現れない(\ref{ex:2})や(\ref{ex:3})のような文への含意関係が認識可能となる.これまで,日本語の高度な意味解析・推論システムとしてccg2lambda\cite{ccg2lambda}が提案されている.ccg2lambdaは,テキストに対して組合せ範疇文法\cite{steedman2000a}に基づく構文解析と,高階論理に基づく意味解析を行い,テキストの意味を高階論理式によって表現し,論理式間の含意関係を定理証明器を用いて自動判定する含意関係認識システムである.ccg2lambdaは否定や量化\cite{ccg2lambda},時間関係\cite{sugimoto-yanaka-2022-compositional}と,構成素の構造にもとづく意味を広範囲に扱うことができ,近年では一般ドメインのテキストに限らず,%%%%金融テキスト\cite{hokazono2018}や供述文書\cite{koyano2021}の意味解析への応用研究も進められている.金融テキスト\cite{hokazono2018}や供述文書(小谷野他2021)\nocite{koyano2021}の意味解析への応用研究も進められている.ccg2lambdaを用いて症例テキストの意味解析と推論を実現できれば,症例テキストの複合語に含まれる否定や量化といった構成素の構造にもとづく意味を正しく扱い,症例テキスト間の含意関係を正しく計算することが可能となる.そこで本論文では,ccg2lambdaを改良して,症例テキストの高度な意味解析と推論を扱える推論システムMedc2l(メドシーツーエル)を提案する.具体的には,ccg2lambdaに複合語解析モジュールを追加することで,複合語を含む症例テキストに対して頑健に意味解析と推論ができるようにする.Medc2lの複合語解析モジュールは,\begin{enumerate}\item[(i)]症例テキストに含まれる複合語の抽出\item[(ii)]複合語を構成する形態素間の意味的な関係を表す意味現象タグの付与\item[(iii)]意味現象タグに基づく複合語の構文解析\item[(iv)]意味現象タグに基づく複合語の意味解析\end{enumerate}から構成される.(i)で抽出した複合語に対して意味現象タグのアノテーションを行い,(ii)では系列変換モデルを学習することによって構築した複合語意味現象タグ分類モデルを用いる.(iii)では予測された意味現象タグを元に複合語の構造をCFG解析したのちCCG部分木に変換し,(iv)では(iii)のCCG部分木に基づいて高階論理の意味表示を導出する.本研究の貢献は以下の3点である.\begin{itemize}\item症例テキストに含まれる複合語に対して複合語を構成する形態素間の意味関係を複合語意味現象タグとして定義し,アノテーションデータを構築した.\item複合語意味現象タグに従って複合語の構文解析・意味解析を行う複合語解析モジュールを提案し,ccg2lambdaと組み合わせて症例テキストの高度な意味解析と推論を実現する論理推論システムMedc2lを構築した.\item日本語の症例テキストのための評価用推論データセットを構築し,提案する論理推論システムと深層学習の含意関係認識モデルの比較実験を行った.\end{itemize}なお,本研究で構築した症例テキストの推論システム,複合語意味関係データセット,症例テキストの推論データセットは,それぞれ研究利用可能な形で公開予定である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V17N04-05
\resp{コミュニケーションの手段として,メールやWebの掲示板を日常的に利用するシーンは非常に多い.}メール\resp{やWebの掲示板}によるコミュニケーションの特徴として,非言語情報が欠落しているため,会話時に相手から感じる対人圧力が低くなり,気軽に考えていることを書き出すことができるメリットがあげられる\cite{sugitani20070320}.しかし一方で,\resp{メッセージ}の受け取り手は\resp{テキスト}の内容のみから相手の考えを読み取らなければならないため,ちょっとした言葉の誤解が,感情的な問題へと発展していくことがある\cite{小林正幸}.また,書き方によっては書き手の感情が伝わりにくいことがあったり\cite{katou20051020},書き手はそれほど怒っていないにもかかわらず,非常に怒っているようにとらえられたりと,過剰に感情が伝わってしまうこともある\cite{小林正幸}.このように,\resp{書き手が思っている程,伝えたいことが相手に伝わらない傾向があるため{\cite{citeulike:528278}},メールやWebの掲示板では相手に誤解を与えやすいというデメリットを持っているといえる.}そこで我々は上記の問題点を解決するため,\respeqn{テキスト}から読み手が想起する書き手の感情を推定し,推定結果を書き手に示すことで\resp{テキスト}を書き手に修正させ,相手に誤解を与えないようにするシステムの開発を目指した研究を行っている.このようなシステムを実現するためには,\resp{読み手が想起する書き手の感情をテキスト中の発話文}から推定する手法が必要となる.\respeqn{発話文}からの感情推定手法として,目良らは複数の事象の格フレームタイプのうち,どれに入力文が当てはまるかを判定し,該当した格フレームタイプに対応する情緒計算式を用いて発話者の感情が快か不快かを判定する手法を提案している\cite{mera}.この手法では,あらかじめ用意した情緒計算式のほかに,ユーザの嗜好情報を基にした単語に対する好感度データを用いる.単語に限らず,文の冒頭に現れる副詞や文末表現によって話し手の意図や心的態度を表すモダリティ\cite{modality2}も,感情推定に有用であることが考えられる.文末表現から情緒を推定する可能性についての検討を徳久らが行っており\cite{徳久雅人:20080131},文末表現と情緒の間に若干の相関がみられたと報告している.単語や文末表現に感情の属性を振ったとしても,単語や文末表現の組み合わせによって感情が変化すると考えられる.そのため,単語や文末表現を用いて感情推定を行うためには,これらの組み合わせに対応して感情を出力するルールの作成が必要になると考えられる.ルールの例として,例えば``嬉しい''という語に``喜び''の属性が割り振られていたとする.ここで``嬉しいことなんてひとつもない''という文の感情を推定する場合,推定結果としては``喜び''ではなく``悲しみ''や``怒り''といった感情が出力されるべきである.``喜び''の単語が含まれているからといって,単純に``喜び''を出力してよいわけではない.ここで``悲しみ''や``怒り''を出力するためのルールを作成しておくことで,感情推定が可能になる.しかし,このようなルールの作成は単語に感情の属性を割り振る作業以上にコストがかかると考えられる.この問題を解決する方法として,三品らは用例に基づく感情推定手法を提案している\cite{aiac}.この手法では,発話者が表現している感情ごとに\respeqn{発話文}を分類した感情コーパスを用い,入力文と最も類似度が高い発話文が含まれる感情コーパスの感情を推定結果として得る.類似度計算には機械翻訳システムの性能のスコアを求めるBLEU\cite{bleu}を用いている.この手法を実装するためには発話文を収集して感情ごとに分類した感情コーパスを構築すればよく,先に述べた例のようなルールを作成する必要がない.しかし,この手法は感情推定成功率が決して高くないため,類似度の計算式を改良する必要がある.この方法では入力文とコーパス中の各文の類似度を計算し,その最大値の文が持つ感情を出力している.そのため,次のような特異な文によって感情推定に失敗することがある.\begin{enumerate}\item感情が異なっていても,たまたま表現や文型が類似している文\label{enum:prob1}\itemコーパスを構築する際に誤って分類された文\label{enum:prob2}\end{enumerate}感情が異なるが類似している文の例として,``嫌悪''の文``嫌いなんです''と``喜び''の文``好みなんです''があげられる.ともに\resp{名詞の後に``なんです''}が続く形となっており,文型が類似している.ここで入力文として``好きなんです''が与えられたとき,入力文の``なんです''は二つの文に存在しており,形態素数も同じであるため,``嫌悪''と``喜び''の文とのBLEUスコアは同じになってしまう.その結果,``嫌悪''と``喜び''が出力されてしまう.この推定結果としては``喜び''のみが出力されることが適切であると考えられる.また,コーパスを構築する際には誤って分類される\respeqn{発話文}を完全に取り除くことは非常に困難であると考えられる.このことから,誤って分類された\respeqn{発話文}の影響を最小限に抑える手段が必要となる.本稿では三品らの手法を改善し,(\ref{enum:prob1})や(\ref{enum:prob2})の文による影響を抑え,感情推定成功率を向上させる手法を提案する.本稿では,まず\ref{sec:conventional}章で従来手法である``BLEUを類似度計算に用いた用例に基づく感情推定手法''について述べる.次に\ref{sec:proposed_method}章で,従来手法で用いられていた類似度計算式とは異なる新たな類似度計算式を提案する.また,この新たに提案する類似度計算式で,どのようにして従来手法の問題点を解決するかについて述べる.そして\ref{sec:ev}章では従来手法と提案手法の感情推定成功率の比較を行う.また三品らの方法とは異なる感情推定の従来法として,SVMを用いた感情推定を行い,結果を比較する.最後に\ref{sec:conclusion}章でまとめと今後の課題を述べる.
V24N02-01
\label{sec:introduction}自然言語処理において高度な意味処理を実現する上で,同義語の自動獲得は重要な課題である\cite{inui}.例えば,近年の検索エンジンのクエリ拡張においては同義語辞書が用いられている\cite{utsumi}が,新出単語に対し全て人手で同義語辞書を整備することは現実的ではない.同義語の獲得には様々な手法が提案されている.例えば笠原ら\cite{kato}は国語辞典を用いて,見出し語に対して語義文により単語のベクトルを作成した後,シソーラスにより次元圧縮を行う方法で同義語の獲得を行った.また,渡部ら(渡部,Bollegala,松尾,石塚2008)は,\nocite{watanabe}検索エンジンを用いて,同義対を共に含むようなパターンを抽出し,得られたパターンから同義語の候補を得るという手法で同義語の抽出を行い,係り受け解析を行わずとも既存手法と同様の性能が得られることを示した.一方,これらの研究とは異なり「同じ文脈に現れる単語は類似した意味を持つ」という分布仮説(distributionalhypothesis)\cite{harris}に基づいたアプローチも存在する.実際に文脈情報が同義語獲得に有用であるとの報告\cite{hagiwara}もあり,加えてその他の手法と組み合わせて使用することが可能であるという利点もある.そこで,本研究では文脈情報を用いたアプローチを検討する.文脈情報の獲得にも手法が多数存在するが,近年では,分布仮説に基づきニューラルネットワーク的な手法を用いて単語の``意味''を表すベクトル(単語ベクトル)を求めるSkip-gramモデル\cite{mikolov1}が注目されている.Skip-gramモデルで得られた単語ベクトルを利用するとコサイン類似度により単語の意味の類似度が計算できることが知られており,その性能は既存手法より良いという報告\cite{roy}もある.しかし,Skip-gramモデルでは周辺単語の品詞や語順を無視したものを文脈情報として用いており,有用な情報を無視している可能性がある.実際に既存のSkip-gramモデルでは同義語獲得に失敗する例として,「カタカナ語」と「和語」からなる同義語対の場合,コサイン類似度が低くなることなどが知られており\cite{joko},改善が望まれる.そこで,本研究では,Skip-gramを拡張し,周辺単語の品詞情報や語順情報を取り込み可能なモデル(文脈限定Skip-gram)を提案する.文脈限定Skip-gramでは,既存のSkip-gramと違い,周辺の単語のうち,ある条件を満たすもの(特定の単語分類属性(品詞等)や特定の相対位置)のみを文脈として利用し,単語ベクトルを学習する.たとえば,「カタカナ語」あるいは「カタカナ語」ではないもの(これを「非カタカナ語」と呼ぶ)のみに周辺単語を限定することによって,周辺の「カタカナ語」あるいは「非カタカナ語」との関係を強く反映した単語ベクトルを学習することができる.そして,そのような様々な限定条件ごとに単語ベクトル及びコサイン類似度を計算し,それらを線形サポートベクトルマシン(SVM)と同義対データを用いた教師あり学習による合成することで,同義語獲得を行った.その結果,日本語の言語特性を適切に抽出して利用できていることがわかった.たとえば,同義語の獲得精度が一番高かったモデルにおいては,「非カタカナ語」および「直後の単語」などの特定の限定条件から得られたコサイン類似度への重みが大きいことがわかった.また,これらの限定条件への重みを大きくすることは,既存のSkip-gramモデルでは獲得が難しかった「カタカナ語」と「和語」からなる同義対の獲得の精度へ大きな影響をあたえることもわかった.本論文の構成は以下のとおりである.第\ref{sec:related-work}節では,関連研究について述べる.第\ref{sec:method}節では,提案手法について述べる.\ref{subsec:method:skipgram}節では,既存のSkip-gramモデルについて概説し,\ref{subsec:method:limited-skipgram}節では,提案する文脈限定Skip-gramモデルについて説明する.第\ref{sec:data-and-preexperiment}節では,使用データと予備実験について述べる.\ref{subsec:ex:data}節では実験に使用したコーパス及び同義語対/非同義語対の教師データ作成方法について,\ref{preliminary-experiment}節ではSkip-gramにおける設定とSVMの素性作成方法に関する予備実験について述べる.第\ref{sec:experiment}節では提案手法による結果を示し,有効性を議論する.最後に第\ref{sec:conclusion}節において結論を述べる.
V19N01-01
上位下位関係は自然言語処理の様々なタスクにおいて最も重要な意味的関係の一つであり,それゆえ盛んに研究されてきた\cite{hearst92,hovy09,oh09,ponzetto07,隅田:吉永:鳥澤:2009,suchanek07,nastase08,snow05}.これらの過去の研究では,上位下位関係を,「AはBの一種あるいはインスタンスであるAとBの関係」と定義している.本論文の上位下位関係もこの定義に従う.ただし,「概念」の詳細な表現を可能にするために,単一の語だけでなく,\xmp{黒澤明の映画作品}のような句や複合語も考慮する.このように制限を緩めることで,上位概念をより詳細に表現することが可能となる.上記の定義によれば,次のペアはいずれも上位下位関係にあると考えられる\footnote{本稿では上位下位関係を\isa{A}{B}のように表す.\xmp{A}が上位概念で\xmp{B}が下位概念である.}.\begin{enumerate}\item\isa{黒澤明の映画作品}{七人の侍}\label{enum:Kurosawa}\item\isa{映画作品}{七人の侍}\item\isa{作品}{七人の侍}\label{enum:work}\end{enumerate}質問応答等のアプリケーションを考えた場合,これらの上位下位関係の有用性は異なると考えられる.例えば,「``七人の侍''とは何ですか?」という質問に対して,上の3つの上位下位関係の上位概念のうち,答えとして適切なのは最も詳細な上位概念である(\ref{enum:Kurosawa})の「黒澤明の映画作品」と考えられる.一方,(\ref{enum:work})の上位概念「作品」は,「何の作品であるか」という必要な情報が欠落しているため「黒澤明の映画作品」という答えに比べて適切ではない.本論文では,以下の2つの条件を満たす場合に「下位概念Cに対して,AはBより詳細な上位概念」と呼ぶ.\begin{itemize}\itemAとBは同じ下位概念Cを持つ\itemBはAの上位概念である\end{itemize}上記の例では,全ての上位概念が「七人の侍」という同じ下位概念を持ち,かつ,上位概念間には,それぞれ上位下位関係が成り立つ.「黒澤明の映画作品」の上位概念は「映画作品」,または「作品」,さらに「映画作品」の上位概念は「作品」と考えられる.従って,下位概念「七人の侍」に対して「黒澤明の映画作品」は「映画作品」や「作品」より詳細な上位概念であり,「映画作品」は「作品」より詳細な上位概念と言うことができる.また,ある上位概念をより詳細な上位概念に置き換える処理を「上位概念の詳細化」と呼ぶ.本研究では,自動獲得した上位下位関係の上位概念と下位概念の間に,より具体的な上位概念を中間ノードとして追加することで,元の上位下位関係を詳細化する.中間ノードとして追加されるより具体的な上位概念は,元の上位下位関係が記述されているWikipedia記事のタイトルと元の上位概念を「AのB」の形式で連結することで自動獲得する.例として\isa{作品}{七人の侍}を挙げる.この上位下位関係は,タイトルが「黒澤明」のWikipedia記事の中に現れる.具体的には,当該記事の\xmp{作品}というセクションに\xmp{七人の侍}が記載されている.本手法では,この情報から,\xmp{七人の侍}は黒澤明の\xmp{作品}であると推測し,\isa{黒澤明の作品}{七人の侍}を新たに獲得する.さらに,\xmp{黒澤明}の上位概念が\xmp{映画監督}であることが獲得済みの上位下位関係から判明すれば,\isa{映画監督の作品}{七人の侍}も獲得できる.最終的に,元の\isa{作品}{七人の侍}から,\isaFour{作品}{映画監督の作品}{黒澤明の作品}{七人の侍}を得ることができる.本稿ではさらに,本手法により獲得した上位下位関係(例えば\isa{黒澤明の作品}{七人の侍})が\attval{対象}{属性}{属性値}関係(例えば\attval{黒澤明}{作品}{七人の侍})として解釈できることについて議論する.この解釈では,Wikipedia記事のタイトルが対象に,上位概念が属性に,下位概念が属性値に対応づけられる.実験で生成した上位下位関係2,719,441ペアは,94.0\%の適合率で,\attval{対象}{属性}{属性値}関係として解釈可能であることを確認した.以下,\ref{sec:hh-problems}節では,既存の手法で獲得された上位概念の問題点を例とともに述べる.\ref{sec:Base-hh}節では,Wikipediaからの上位下位関係獲得手法\cite{隅田:吉永:鳥澤:2009}について説明する.\ref{sec:proposed-method}節では,我々が開発した,Wikipediaを用いた詳細な上位下位関係の獲得手法について説明する.\ref{sec:evaluation}節では,提案手法の評価とエラー分析の結果について述べる.\ref{sec:discussion}節では,提案手法により獲得した詳細な上位概念をより簡潔に言い換える試みと,詳細な上位下位関係の\attval{対象}{属性}{属性値}関係としての解釈について議論する.\ref{sec:related-word}節で関連研究について述べる.最後に\ref{sec:conclusion}節で結論を述べる.
V06N02-01
音声認識技術はその発達にともなって,その適用分野を広げ,日本語においても新聞など一般の文章を認識対象とした研究が行なわれるようになった\cite{MATSUOKA,NISIMURA4}.この要因として,音素環境依存型HMMによる音響モデルの高精度化に加え,多量の言語コーパスが入手可能になった結果,文の出現確率を単語{\itN}個組の生起確率から推定する{\itN}-gramモデルが実現できるようになったことが挙げられる.日本語をはじ\breakめとして単語の概念が明確ではない言語における音声認識を実現する場合,どのような単位を認識単位として採用するかが大きな問題の1つとなる.この問題はユーザーの発声単位に制約を課す離散発声の認識システムの場合に限らない.連続音声の認識においても,ユーザーが適\break時ポーズを置くことを許容しなければならないため,やはり発声単位を考慮して認識単位を決\breakめる必要がある.従来日本語を対象とした自然言語処理では形態素単位に分割することが一般\break的であり,またその解析ツールが比較的\mbox{よく整備されていたことから{\itN}-gramモデル作成におい}ても「形態素」を単位として採用したものがほとんどである\cite{MATSUOKA,ITOHK}.しかしながら,音声認識という立場からあらためてその処理単位に要請される条件を考えなおしてみると,以下のことが考えられる.\begin{itemize}\item認識単位は発声単位と同じか,より細かい単位でなければならない.形態素はその本来の定義から言えば必ずこの条件を満たしているが,実際の形態素解析システムにおいては,複合名詞も1つの単位として登録することが普通であるし,解析上の都合から連続した付属語列のような長い単位も採用している場合があるためこの要請が満たされているとは限らない.\item長い認識単位を採用する方が,音響上の識別能力という観点からは望ましい.つまり連続して発声される可能性が高い部分については,それ自身を認識単位としてもっておく方がよい.\item言語モデルを構築するためには,多量のテキストを認識単位に分割する必要があり,処理の多くが自動化できなければ実用的ではない.\end{itemize}これらは,言い換えれば人間が発声のさいに分割する(可能性がある)単位のMinimumCoverSetを求めることに帰着する.人が感覚的にある単位だと判断する\mbox{日本語トークンについて考}察した研究は過去にも存在する.原田\cite{HARADA}は人が文節という単位について一貫した概念を持っているかについて調査し,区切られた箇所の平均一致率が76\%であり付属語については多くの揺れがあったと報告している.また横田,藤崎\cite{YOKOTA}は人が短時間に認識できる文字数とその時間との関係から人の認知単位を求め,その単位を解析にも用いることを提案している.しかしながら,これらの研究はいずれも目的が異なり,音声認識を考慮したものではない.そこで,われわれは,人が潜在意識としてもつ単語単位を形態素レベルのパラメータでモデル化するとともに,そのモデルに基づいて文を分割,{\itN}-gramモデルを作成する手法を提案し,認識率の観点からみて有効であることを示した\cite{NISIMURA3}.本論文では主として言語処理上の観点からこの単語単位{\itN}-gramモデルを考察し,必要な語彙数,コーパスの量とパープレキシティの関係を明らかにする.とくに新聞よりも「話し言葉」に近いと考えられるパソコン通信の電子会議室から収集した文章を対象に加え,新聞との違いについて実験結果を述べる.
V09N02-05
差分検出を行なうdiffコマンドは言語処理の研究において役に立つ場面が数多く存在する.本稿では,まず簡単にdiffの説明を行ない,その後,diffを使った言語処理研究の具体的事例として,差分検出,書き換え規則の獲得,データのマージ,最適照合の例を示す\footnote{本稿は筆者のさまざまな言語処理研究におけるdiffというツールの使用経験を述べたものであり,今後の自然言語処理,言語学の研究に有益な知見を与えることを目的にしている.}.あらかじめ本稿の価値を整理しておくと以下のようになる.\begin{itemize}\itemdiffコマンドはUNIXで標準でついているため,これを用いることは極めて容易である.この容易に利用できるdiffコマンドを用いることで,さまざまな言語処理研究を行なうことができることを示している本稿は,容易さ,簡便さの観点から価値がある.\item近年,言い換えの研究が盛んになりつつある\cite{iikae_jws}.本稿の\ref{sec:kakikae}節では実際に話し言葉と書き言葉の違いの考察,また話し言葉と書き言葉の言い換え表現の獲得\cite{murata_kaiho_2001}にdiffが利用できることを示している.diffの利用は,話し言葉と書き言葉に限らず,多方面の言い換えの研究に役に立つと思われる.本稿はそれらの基盤的なものとなると思われる.\itemdiffコマンドは一般には差分の検出に利用される.しかし,本稿で述べるようにデータのマージや最適照合にも利用できるものである.本稿では\ref{sec:merge}節で,このデータのマージ,最適照合の例として,対訳コーパスの対応づけ,講演と予稿の対応づけ,さらに最近はやりの質問応答システム(「日本の首都はどこですか」と聞くと「東京」と答えるシステムのこと)といった,種々の興味深い研究をdiffという簡便なツールで実現する方法を示している.本稿はこのような研究テーマもしくは研究手段の斬新性といった側面も兼ね備えている.\end{itemize}
V28N02-06
文法誤り訂正は言語学習者の書いた文法的に誤りを含んだ文を文法的に正しい文へと訂正を行うタスクであり,第二言語学習者の作文支援システムとして有用である.文法的に誤りを含んだ文に対して訂正を行う際,訂正結果は複数存在することがある.例えば,\citeA{bryant-ng-2015-far}は,文法的に誤りを含んだ文に対して10人のアノテータがそれぞれ異なる有効な訂正手法を提案する場合があることを示した.この10人のアノテータに対して,明示的に異なる訂正文の作成を行わせていないが,実際に,訂正した文におけるアノテータ間の一致率は約16\%であった.表\ref{table:example}に\citeA{bryant-ng-2015-far}により作成された複数訂正文の例の一部を示す.\textbf{太字}は原文から訂正が行われた箇所を示している.1文から複数の訂正文が提案されているが,いずれも原文において誤りのある箇所のみにおいて多様な訂正が行われている.この様に,様々な訂正結果が存在するため,文法誤り訂正モデルが複数の訂正結果を提示することで,言語学習者は訂正結果を反映するかどうかの判断や,複数の訂正結果の中から好みの表現を選択することが可能になる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}\caption{BryantandNg(2015)により作成された1文に対する複数の訂正文の例}\label{table:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一般に,文法誤り訂正は文法的に誤りを含んだ文から文法的に正しい文への機械翻訳タスクとして捉えられ,近年,ニューラルネットワークを用いた機械翻訳モデルが文法誤り訂正モデルとして用いられることが多い.実際に,機械翻訳モデルを文法誤り訂正モデルに適応することにより,文法誤り訂正タスクにおいても有効な結果を示している\cite{chollampatt2018mlconv,junczys-dowmunt-etal-2018-approaching,zhao-etal-2019-improving,kiyono-etal-2019-empirical,kaneko-etal-2020-encoder}.しかしながら,既存の文法誤り訂正モデルは1つの入力文に対して1つの有効な出力文の生成を目指しており,複数の訂正結果の生成を考慮していない.そこで我々は,文法誤り訂正において多様な出力を生成するという新たなタスクに取り組み,訂正度を制御可能な文法誤り訂正モデルを用いた手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-2ia5f1.pdf}\end{center}\caption{1文中の単語編集率のヒストグラム}\label{fig:wer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%訂正を行う際,必要最低限の書き換えのみ行うか,もしくは,より多くの書き換えを行うかという違いにより,訂正文に多様さが生じる.文法誤り訂正タスクにおいて訓練データとして一般的に使用されるLang-8\cite{2013B-C76},評価データとして使用されるCoNLL-2014\cite{ng-etal-2014-conll}やJFLEG\cite{napoles-etal-2017-jfleg}では,1文中における訂正の量という意味での訂正度が異なることが知られている.また,\citeA{sakaguchi-etal-2016-reassessing}は,専門性の異なるアノテータにおいて,必要最小限の書き換えと流暢性を求めた書き換えの2種類の訂正をそれぞれ行うことで,多様な訂正文を作成し,それらの一致率は流暢な訂正において約15\%以下,最小限な訂正においても約38\%以下であったと報告している.つまり,1つの誤り文に対しても複数の訂正度を用いて訂正が行われるということである.しかし,既存の文法誤り訂正モデルは学習した単一の訂正度でのみ訂正を行っており,それらの異なる訂正度で訂正を行う手法の研究は行われていない.そこで本研究では,訂正度を制御可能な文法誤り訂正モデルを提案し,1つの入力文に対して複数の訂正度での訂正文を生成することで,多様な訂正文の生成を行う.手法としては,まず,文法誤りが訂正されているデータ内において,1文ごとの訂正度の情報を特殊トークンとして文に付与し,新たな訓練データを作成する.ここで,訂正度を表す指標として単語編集率を用いる.単語編集率とは文中の単語がどれだけ書き換えられたのかを表す指標であるため,文法的誤りを含んだ文と,その誤りを訂正した文の単語編集率は,文の訂正度を表していると言える.CoNLL-2014とJFLEGでは,JFLEGの方が訂正度が大きいことが知られており,実際に,図\ref{fig:wer}に示すグラフからも,CoNLL-2014よりもJFLEGの方が単語編集率が大きいため,単語編集率が訂正度を示していることが確認できる.そして,新たに作成した訓練データを用いて文法誤り訂正モデルの学習を行い,推論時には,入力文に複数の訂正度の特殊トークンを付与することで,付与した単語編集率に基づきモデルの訂正度を制御する.結果として,1つの入力文に対して1つの訂正度ではなく,複数の訂正度を用いて訂正を行うことが可能となり,多様な訂正文を得ることができる.我々は,さらに出力を多様化する手法として,誤り箇所を考慮したビームサーチ手法を提案する.文法誤り訂正において,複数の訂正結果を生成する手法としてはビームサーチを用いて$n$-bestを生成する方法が存在する\cite{grundkiewicz-etal-2019-neural,kaneko-etal-2020-encoder}.しかし,これらの研究では,1つの適切な訂正文の出力の探索のためにビームサーチを利用しており,多様な訂正結果の出力を目的としていない.さらに,通常のビームサーチを用いた$n$-best出力は多様性に欠けることが示されている\cite{DBS}.そのため,機械翻訳の分野などにおいて,多様な候補を生成するために,出力を多様にする制約を加えたいくつかの多様なビームサーチ手法が提案されている\cite{DBLP:journals/corr/LiMJ16,DBS}.これらの多様なビームサーチ手法は,文中の全てのトークンに対して様々な書き換えを行うことで,複数の出力文に多様性をもたらしている.一方で,入力文と出力文の大部分が共通しているようなタスクにおいては,これらの手法は適していないと考えられる.特に,文法誤り訂正においては,入力文の文法的に正しい部分に対しても書き換えが行われてしまうため,この様な入力文の全体に対して書き換えを行う手法は好ましくない.そのため,文法誤り訂正モデルは,入力文中の文法的に正しい部分は書き換えずに,誤りを含む部分に対してのみ様々な方法で訂正を行うことが望まれる.そこで本研究では,誤り箇所を考慮したビームサーチ手法を提案する.図\ref{fig:overview}は既存手法と提案手法との比較を図示したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-2ia5f2.pdf}\end{center}\hangcaption{既存のビームサーチ手法と提案手法を比較した概要図.赤字の単語は誤りであることを,太字の単語は訂正が行われたことを示している.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\renewcommand{\theenumi}{\alph{enumi}}\begin{enumerate}\item通常のビームサーチ(Plainbeamsearch)では,訂正が特定のパスに集中しているため多様性がなく,類似した単語の組み合わせで文を生成している.\item既存手法の多様なビームサーチ(Diverseglobalbeamsearch)は,様々なパスを探索している.したがって,通常のビームサーチとは異なり,この方法では様々な単語の組み合わせで文が生成されるため,多様な出力を得ることができる.ただし,訂正する必要のない単語においても書き換えを行った出力も生成されてしまう.\item提案手法である誤り箇所を考慮したビームサーチ(Diverselocalbeamsearch)では,訂正が必要な単語に対してのみ様々なパスの探索を行う.それゆえ,我々の提案手法では,訂正が必要な箇所でのみ,通常のビームサーチよりも多様な単語を組み合わせた文の生成を行う.\end{enumerate}ここで,上記の手法は全て同じビーム幅であるが,パスが異なることに注意されたい.実験の結果,訂正度を制御可能な文法誤り訂正モデルを用いることで既存手法よりも多様な訂正結果を生成することが可能となり,誤り箇所を考慮したビームサーチと組み合わせることで,更に多様化可能であることを示した.本研究の主な貢献は以下の4つである.\begin{itemize}\item単語編集率により文法誤り訂正モデルの訂正度が制御可能なことを示した.\item既存の多様な文を生成する手法が文法誤り訂正においては適切な多様性をもたらさないことを示した.\item訂正度を制御した文法誤り訂正モデルの出力を用いることで多様な出力が得られることを示した.\item誤り箇所を考慮したビームサーチを提案し,訂正度を制御した文法誤り訂正モデルと組み合わせることで既存手法よりも適切に出力文に多様性をもたらすことを示した.\end{itemize}本稿の構成を示す.2章では,既存の出力文の制御や多様化の先行研究について紹介する.3章では,訂正度を制御した文法誤り訂正モデルを提案する.4章では,誤り箇所を考慮したビームサーチを提案する.5章では,BERTを用いた文分類を提案する.6章では,複数の人手による訂正文が付与されている評価データを用いて提案手法を評価する.7章では,提案モデルについて分析する.最後に8章で,本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V12N01-01
\label{sec:Introduction}近年,情報化が進むにつれて,大量の電子テキストが流通するようになった.これを有効活用するために,情報検索や情報抽出,機械翻訳など,計算機で自然言語を処理する技術の重要性が増している.この自然言語処理技術は様々な知識を必要とするが,その中で構文解析の際に最もよく用いられるものは文脈自由文法(CFG,以下,文法と略す)である.ところが,人手で作成した大規模な文法は,作成者の想定する言語現象にどうしても``もれ''があるため,網羅性に欠けるという問題がある.一方,最近では,コーパスから抽出した統計情報を用いて自然言語を解析するコーパスベースの研究が成果をあげており,それに伴い,(電子)コーパスの整備が進んでいる.このコーパスから文法を自動的に抽出する研究もあり\cite{charniak:96,shirai:97},文法作成者に大きな負担をかけることなく,コーパス内に出現する多様な言語現象を扱える大規模な文法を作成することが可能である.しかし,コーパスから抽出した文法には問題がある.それは,コーパスから抽出した文法で構文解析を行うと,一般に,膨大な量の構文解析結果(曖昧性)\footnote{以降,特に断わらない限り,構文解析結果の曖昧性を単に曖昧性と呼ぶ.}が出力されることである.その要因については後述するが,これが,解析精度の低下や解析時間,使用メモリ量の増大の要因となる.コーパスから抽出した大規模文法がこれまで実用に供されなかった最大の理由はここにある.コーパスには意味を考慮した構文構造が付与されていることが普通であり,そのコーパスから抽出した文法で構文解析を行うと,意味解釈に応じた異なる構文解析結果が多数生成される.しかし,意味情報を用いない構文解析の段階では,意味的に妥当な少数の構文構造に絞り込めず,可能な構文構造を全て列挙せざるを得ない.我々は,構文解析結果(構文木)に沿って意味解析を進める構文主導意味解析(SyntaxDirectedSemanticAnalysis,SDSA)\cite{jurafsky:2000}を想定し,構文解析の段階で生じる曖昧性を極力抑え,次の意味解析の段階で意味的に妥当な意味構造を抽出するという2段階の解析手法を採用する(図\ref{fig:analysis_flow}).\begin{figure}[tp]\centering\epsfxsize=.9\textwidth\epsfbox{Introduction/figure/flow.eps}\caption{自然言語解析の流れ}\label{fig:analysis_flow}\end{figure}\if0\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Introduction/figure/procedure.eps}\caption{大規模日本語文法作成手順}\label{fig:procedure}\end{figure}\fi本論文では,構文解析の段階の曖昧性を極力抑え,その後の意味解析の段階にも有効な構文構造を生成する大規模日本語文法について検討する.\if0そこで,我々は,既存の構文構造付きコーパスを出発点とし,以下の手順で文法を作成することを試みている(図\ref{fig:procedure}).\begin{enumerate}\item既存の構文構造付きコーパスから文法を抽出する\item構文解析結果の曖昧性を増大させる要因を分析する\item分析結果をもとに構文構造付きコーパスの変更方針を作成する\item変更方針に従ってコーパスを変更し,そこから新しい文法を再抽出する\item(2)〜(4)を繰り返す\end{enumerate}ただし,文法の抽出は,Charniakによる``tree-bankgrammar''の抽出方法\cite{charniak:96}と同様の方法をとる.上述の文法作成手順では,構文構造付きコーパスの変更に重点が置かれ,文法の作成,変更というより,むしろコーパスの作成,変更のように思われるかもしれない.しかし,実際の変更過程では,抽出した文法を変更し,それをコーパス中の構文構造に反映させる方法をとっている.文法の変更をコーパスにまで反映させるのは,PCFGモデル等の確率モデルによる学習の際に訓練データとして必要であるからであり,文法の作成,変更とコーパスの作成,変更は同時に扱うべき問題である.つまり,「曖昧性を抑えた構文構造を出力するように文法を変更する」ことと,「コーパスに付与されている構文構造を曖昧性を抑えたものに変更する」ことは,結局のところ,同じことであると考えている.\fiその結果,検討前の文法と比較して,出力される解析木の数を$10^{12}$オーダから$10^5$オーダまで大幅に減少させることが可能になった.さらに,この文法から得た解析結果に対して,意味情報をまったく用いず,確率一般化LRモデル(PGLRモデル)\cite{inui:98}によるスコア付け1位の解析木の文の正解率は約60\%であった.一方,スコア付け1位の解析木に対し,機械的な方法で文節の係り受けの精度を測定したところ,意味情報を用いなくても,89.6\%という高い係り受け精度が得られた.意味情報を本格的に利用することで,さらなる精度向上が図れるという見通しを得ている.以下に本論文の構成を述べる.第\ref{sec:Related}節では,コーパスから文法を抽出する主な研究を二つ紹介する.第\ref{sec:Procedure}節では,我々が大規模日本語文法を作成する際の手順について述べる.第\ref{sec:Problem}節では,コーパスから抽出した文法が,構文解析において膨大な量の曖昧性を出力する要因を考察する.第\ref{sec:Modification}節では,構文解析結果の曖昧性の削減を考慮した具体的な文法とコーパスの変更方針を述べ,第\ref{sec:Evaluation}節,第\ref{sec:SDDA}節では,変更したコーパスから抽出した文法の有効性を実験により明らかにする.最後に,第\ref{sec:Conclusion}節で本研究を総括し今後の課題を述べる.
V04N02-06
自然言語処理技術の一つに,文書の自動抄録がある.従来から行なわれている自動抄録は大きく分けて2つの手法,すなわち,1.文書の構造解析を行なう手法,2.文書の統計情報を用いた手法とに分類できる.1はスクリプトなどを使用して重要箇所を抽出する方法や,テキストの構文・意味解析を行なって談話構造を作成し,この構造から重要箇所を抽出する方法である\cite{Reimer1988},\cite{Tamura1989},\cite{Jacobs1990},\cite{Inagaki1991}.しかし,これらの方法では,ある特定の分野について書かれたテキストのみを対象としている場合が多いため,結果的に汎用性に欠けることが指摘されている\cite{Paice1990},\cite{Zechner1996}.2は電子化されたコーパスに対し統計手法を適用することで重要箇所を抽出する方法である.この場合,文に出現する各語に重み付けを行ない,そのスコアの高い文を重要箇所とする手法が多く用いられている.重み付けには,(a)ヒューリスティックスを用いたもの,(b)単語頻度などの情報を用いたもの(c)シソーラスなどの意味情報を用いたものなどがある.(a)は文書から得られるヒューリスティックスを用いて文の重み付けを行ない重要箇所を抽出する手法である.\cite{Paice1990},\cite{Paice1993},\cite{Kupiec1995}.ヒューリスティックスとしては,修辞関係\cite{Miike1994},タイトルに出現する語の情報\cite{Edmundson1969},文の出現位置\cite{Baxendale1958}などがある.これらは,分野を限定し特別に用意された知識を用いて重要箇所を抽出する研究と比べると汎用性があると言えるが,対象分野の変更に対しどの程度適用できるかは調査の余地がある.(b)はLuhnらにより提唱されたキーワード密度方式に代表される手法である\cite{Luhn1958}.Luhnらは,「一つの文献において,その主題と関係の深い語は概して文献中に繰り返し出現する」という前提に基づき,文献の内容に関係の深い数語のキーワードを抽出し,これらの語を高頻度で含む文を文献中から選定して抄録とした\cite{Luhn1958}.しかし,文献中どこにでも現れる一般語との区別がつきにくく,文献中におけるキーワード分布の偏りが小さくなってしまうことが指摘されている\cite{Suzuki1988}.鈴木らはこの問題に対処するため,文章中で隣接または近接している語の組のうち,出現頻度の高い組を高頻度隣接語と呼び,キーワード密度法により得られたキーワードと高頻度隣接語を共に多く含む文を抄録文の候補とする手法を提案した\cite{Suzuki1988}.しかし,キーワード及び隣接語の決定は人手により行なわれているため恣意的であり,また抄録を行なおうとするテキストごとにキーワードと隣接語を決定しなければならない.SaltonやZechnerらは,単語の頻度を基に計算されたTF$\ast$IDFを用いて語に重み付けを行なうことで重要箇所を抽出する手法を提案した\cite{Salton1993},\cite{Salton1994},\cite{Zechner1996}.これらの手法は,表記の統計情報だけを用いているため,鈴木らの手法と比べると重要箇所を抽出する際,人間の介在を必要としない.しかし,人間が対象とする記事のみから重要箇所を抽出できるのは,記事に関する様々な知識を用いているからであり,対象となる記事の頻度を基にした単語の機械的な処理による重み付けだけで重要箇所を適切に抽出できるかどうかは不明である.また,(c)は意味に関する統計情報を用いた手法である.佐々木らは,段落内,又は,段落間に跨る意味分類の出現パターンをシソーラスを用いて分析し,その結果をチャート形式で表現する結束チャートを提案した\cite{Sasaki1993}.鈴木らは,佐々木らの提案した結束チャートを利用することでキーワードを自動的に抽出する手法を提案している\cite{Suzuki1993}.鈴木らの手法では,文中に現れる語が多義語である場合には,それまでに現れた文中の語の累積頻度が最も高い意味コードをその語に割り当てている.しかし,佐々木,及び鈴木らのシソーラスを用いる手法の問題として,データスパースネスの問題がある.すなわち,シソーラスのカテゴリー自身が抽象的な語で定義されているため,文書の種類によっては,その語が文書に出現しない場合がある\cite{Niwa1995}.さらに,各段落のキーワード候補は,各段落に2回以上出現した語をその段落におけるキーワード候補としているが,{\itWallStreetJournal}のように経済が主となる報道の新聞記事では,評論や科学文献などと比べると,一つのパラグラフの語数が少ないため,一つのパラグラフ内で同一表層語が2回以上出現する現象は少なく,結果的に文書の種類によっては手法が適用できない場合がある.実際,今回の実験で使用した50記事に出現するパラグラフ数395のうち,一つのパラグラフ内で同一表層語が2回以上出現したパラグラフ数は168(42.5\%)であり,半数以上のパラグラフに対して佐々木らの手法が適用できなかった.本稿では,文脈依存の度合に注目した重要パラグラフの抽出手法を提案する.本稿の基本的なアイデアは,文書の重要箇所を適切に抽出するため,その文書がどの分野に属しているかという情報を利用するということである.例えば,ある記事に`株'が高頻度で出現したとする.その記事が`事件'の分野に属する一つの記事である場合には,`株'に関する事件の可能性が高いことから重要度の度合は強い.一方,`株式市場'の分野に属する一つの記事である場合には,この分野に属する他の記事にも`株'が高頻度で現れることから重要度は下がる.つまり`株'がある記事にとって重要であるかどうかは,その記事が設定された分野にどのくらい深く関わっているかに依存し,これは予め設定された分野に属する他の記事における`株'の頻度と比較することで判定が可能となる.我々は,分野固有の重要語の選定を行なうため,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対する重み付けを行なった.先ず,佐々木らがシソーラスを用いて語の意味を決定しているのに対し,我々は辞書の語義文を用いることで文書中の多義語の意味を自動的に決定する.次に主題に関連する単語の低頻度数の問題に対処するため,名詞同士のリンク付けを行なう.この結果に対し,文脈依存の度合を利用する.すなわち,我々はZechnerらがTF$\ast$IDFを用いて重み付けを行なっているのに対し,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対して重み付けを行なう.その際,鈴木らのように重要語を抽出する過程で人間の介在を必要としない.以下,2章では,文脈依存の度合いについて述べ,3章では語の重み付け手法を示す.4章では重み付けされた語を用いてパラグラフごとに文書のクラスタリングを行ない,重要パラグラフを抽出する手法について述べる.5章では実験について報告し,6章で実験結果に関する考察を行なう.
V31N03-18
他の人にどこかへ連れて行ってもらいたい時,住所・緯度・経度情報などの固有位置情報や東西南北などの絶対位置情報のみならず,前後左右などの話者の\deleted{主観的な}\modified{一人称視点からの}相対位置情報によって位置情報を共有することが多い.\deleted{主観的な}\modified{このような}相対位置情報を表現する場合,\deleted{単純な}\modified{単一の}有向辺のみに基づく抽象化では,本質的に位置情報の曖昧性解消ができない場合がある.例えば,「東京タワーを背にして右前方に豆腐屋があります」という表現を有向辺で表現するためには2つの辺を利用する必要がある.1つはランドマークである「東京タワー」と空間的実体である「話し手」の現在の位置との相対的な配置を表し,もう1つは「話し手」の現在の位置とランドマークである「豆腐屋」の位置との相対的な配置を表す.\textbf{正確な位置情報を記述するためには,これらの2つの有向辺の情報を単一の位置\modified{情報}フレームとして保持し,3点の相対位置を定義することが必要である.}空間論理の分野において,相対位置情報を表現するDoubleCrossModelが提案されている.DoubleCrossModelは文字通り2つの十字(cross)を使用する位置情報フレームである.2つの十字の中心に2つのランドマークもしくは空間内実体を配置したうえで,3つ目のランドマークもしくは空間内実体の相対位置情報を表現することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-3ia17f1.pdf}\end{center}\caption{DoubleCrossModelに基づく相対位置情報表現の例}\label{fig:example1}\vspace{-0.75\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:example1}に例を示す.表現「[東京タワー](\texttt{id:T1})を背にして右前方に[豆腐屋](\texttt{id:T3})があります」に対して,聞き手の\texttt{id}を\texttt{H0}としたうえで,図\ref{fig:example1}の左下\modified{の二つの十字の図}のように表現する.本論文では,位置情報を共有する対話中の相対位置情報を,DoubleCrossModelを利用して表現することを提案する.さらに,本研究では,絶対位置情報・方向・向き・時間的距離・空間的距離・位相情報(部分・全体情報)のフレーム情報の付与手法について示す.本論文の構成は以下の通りである.\ref{sec:frame}節では,空間情報フレームのアノテーション手法について解説する.\ref{sec:double-cross}節では,提案手法であるDoubleCrossModelに基づく相対位置情報アノテーション手法を示す.\ref{sec:annotation}節では,実際のアノテーションを行ったデータの統計について示す.\ref{sec:conclusions}節に,まとめと今後の展開について示す.\modified{なお本研究は,ホンダ・リサーチ・インスティチュートにおいて,対話データの収録・転記・さまざまなメンションのタグ付けされたものに対して,どのように相対位置情報を適切にタグ付けするかについて提案するものである.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V26N02-09
ゼロ照応解析とは,テキスト中の述語の省略された項(ゼロ代名詞)を検出し,項として埋めるべき格要素を同定するタスクである.格要素は先行詞としてテキスト中で言及されている場合もあれば,言及されていない場合もある.前者の場合,先行詞は述語と同じ文中にある(文内ゼロ照応)か,先行する文中にある(文間ゼロ照応)\footnote{この研究では後方照応は扱わない.}.後者(外界ゼロ照応)の例として,テキストの著者である主語が明示的に言及されない場合などがある.\begin{quote}$(1)大岡山商店街でも(\phiガ)お洒落な建物を\underline{見かける}ようになった.カフェテリアが特に多くて,今月も新しく(\phiガ)(\phiニ)\underline{オープンしてる}.$\end{quote}例~(1)では「見かける」のガ格と「オープンしてる」のガ格,ニ格が省略されている.「オープンしてる」のガ格の格要素は同文中に言及されている「カフェテリア」であり(文内ゼロ照応),ニ格の格要素は前文で言及されている「大岡山商店街」である(文間ゼロ照応).一方,「見かける」のガ格の格要素はテキスト中では明示的に言及されていない「著者」である(外界ゼロ照応).本論文では特に日本語のゼロ照応解析を取り扱うが,項の省略が起こるpro-drop言語は日本語だけではなく,他に中国語,イタリア語,スペイン語などがあり,各言語で日本語ゼロ照応解析と類似したタスクに取り組む研究が数多くある\cite{Chen-Chinese-2016,Yin-Chinese-2017,Yin-Zero-2018,Yin-Deep-2018,Iida-A-2011,Rello-Elliphant-2012}.また英語では意味役割付与タスクがゼロ照応解析に似た研究として挙げられる\cite{Zhou-End-2015,He-Deep-2017}.日本語ゼロ照応解析は,日本語述語項構造解析の部分問題であり,自動要約\cite{Yamada_Designing_2017}や情報抽出\cite{Sudo_Automatic_2001},機械翻訳\cite{Kudo_A_2014}など様々な自然言語処理アプリケーションの精度改善にとって重要であるため,緊急に解決されるべき課題として盛んに研究されている\cite{Sasano-A-2011,Hangyo-Japanese-2013,Ouchi-Neural-2017,Matsubayashi-Revisiting-2017,Matsubayashi2018,Shibata2018,Kurita2018}.本研究の貢献は大きく二つに分けられる.第一に大規模均衡コーパス上で日本語ゼロ照応解析を行い評価したことと,第二にこの大規模均衡コーパス上で文内・文間ゼロ照応解析を可能にするための解候補削減手法を提案したことの二点である,従来のゼロ照応解析研究は,新聞記事のみからなる『NAISTテキストコーパス』(NTC)\cite{Iida-Annotating-2007}で評価を行うものが多かった.従って,それらの評価ではテキストドメインの違いによる影響が考慮されていない.ゼロ照応解析結果の応用を考えた時,複数ドメインの文書に対しても頑健なゼロ照応解析手法の有用性は高い.我々は『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014aa}を評価実験に使用した.BCCWJは13ドメインにまたがって構築された約一億語からなる日本語均衡コーパスである.このうちの約100分の2にあたる約二百万語からなるコアデータに対しては,人手による述語項構造と照応関係の付与がされている.また,BCCWJは新聞,雑誌,書籍,白書,Yahoo!知恵袋,Yahoo!ブログの6ドメインにまたがったテキストを含んでいる.ドメインによるゼロ照応解析の性能の違いを調べるために,我々はBCCWJを使用した.表~\ref{tab:distance-distribution}はBCCWJコアデータセットの述語と格ごとの格要素の距離の分布を示している.ここでの距離は述語と格要素の間の文数である.距離0は文内照応を示しており,距離1以上は文間ゼロ照応を示している.この表から,文中に格要素の出現するゼロ照応のうち,半数以上のゼロ照応が文間ゼロ照応であることがわかる.表~\ref{tab:genre-distribution}はテキストドメインごとに分類した述語とガ格の格要素との距離の分布を示している.この表から,文内,文間ゼロ照応のドメインごとの違いが確認できる.OW(白書)のガ格には文内ゼロが多く出現している一方で,PM(雑誌),OC(QA)のガ格には文内ゼロ比率が少なく,5文前までの文間ゼロが多く出現している.また,PM(雑誌),OY(ブログ)のガ格は7文以上前の文間ゼロが他のドメインと比較して多く出現しており,このようなドメインごとの述語と格要素間の距離の違いが文間ゼロ照応解析の精度に影響を及ぼす原因だと予測できる.これらの観察から,異なるタイプのテキスト上で評価実験を行うことの重要性が示唆される.\begin{table}[b]\begin{minipage}[t]{189pt}\caption{格要素と述語の距離の分布}\label{tab:distance-distribution}\input{09table01.tex}\end{minipage}\hfill\begin{minipage}[t]{210pt}\caption{文書ドメインごとのガ格ゼロ照応の分布(\%)}\label{tab:genre-distribution}\input{09table02.tex}\end{minipage}\end{table}表~\ref{tab:distance-distribution}に示すとおり現実の文書には文間ゼロ照応が頻出するが,従来のゼロ照応解析研究の多くは,文内ゼロ照応のみに焦点を絞っている\cite{Iida-Intra-2015,Shibata-Neural-2016,Ouchi-Neural-2017,Matsubayashi-Revisiting-2017,Matsubayashi2018,Kurita2018}.\citeA{Ouchi-Neural-2017}は,文内ゼロ照応のみを取り扱う理由として,探索範囲の問題を指摘している.文間ゼロ照応では,格要素候補をテキスト全体から探す必要があるため,文内ゼロ照応解析に比べて探索範囲が拡大する.\citeA{Matsubayashi-Revisiting-2017,Matsubayashi2018}と\citeA{Kurita2018}は解析に際して文脈素性を取り入れるために,リカレントニューラルネットワーク(RNN)を導入し,格要素候補と述語が含まれる文を読み込ませている.しかしこれと同じ手法を文間ゼロ照応解析において適用しようとすると,テキスト全体をRNNに入力として与える必要がある.長距離の文脈を記憶する仕組みを持つLSTMやGRUを使用しても,システムがテキスト全体における長距離の依存関係を十分に学習できるとは限らない.また,テキスト全体を記憶しなくても,選択的に抽出された文脈情報のみで解析できる可能性がある.先述の研究と異なり,\citeA{Sasano-A-2011}と\citeA{Hangyo-Japanese-2013},\citeA{Shibata2018}は,文内・文間ゼロ照応解析手法を提案している.しかし,彼らは新聞コーパスとWebコーパスを用いて評価実験を行っており,複数ドメインコーパスを用いた評価実験は行っていない.また,\citeA{Shibata2018}は各entityごとにembeddingを割り当て,現在解析対象としている述語より文書の前方におけるRNNの解析結果を用いて,それぞれのembeddingを逐次更新することで文脈情報を使用している.これら2つの問題に対して,本研究では様々なドメインの文書への対応を可能とするために大規模格フレームを利用し,述語が取りうる複数の格要素の組合せから最適なものを選ぶ.大規模コーパスから得られた述語の格フレームに関する統計的情報を使用することで,特定のドメインにのみ出現する事例数の少ない格フレームに対しても対処できるようになると考えられる.解候補となる格要素の組合せが膨大になる問題に対しては,格フレームを使用した解候補削減手法を取り入れることで,より汎用性の高い文内・文間ゼロ照応解析モデルを提案する.ひとつのモデルで文内・文間のゼロ照応解析を同時に行う際,各格に対してそれぞれ独立に解析を行うより,他の格の情報を利用して複数格を同時に解析する方がより良い精度が得られると考えられる.\citeA{2010C-994}はCoNLL-2009SharedTaskデータを用いた述語項構造解析において,述語項構造の大域的な情報を取り扱う因子を素性として取り入れることで,日本語を含む7種類すべての言語の精度が改善することを確認している.しかし複数格を同時に解析する際には,先行詞の広大な探索範囲の問題に対処する必要がある.特に機械学習を適用する際,正解の候補となる名詞の組合せが大幅に増加する.BCCWJの場合では,格フレーム候補が平均20個,ガヲニ格の格要素候補が平均10個出現するため,組合せは$20\times10\times10\times10=\text{約20,000}$通り考えられ,このうち正しい格フレームと格要素の組合せは一つのみである.結果としてデータ中の正例と負例の比率が約1対20,000と著しく不均衡となる.このような偏った訓練データは不必要に計算量を増幅させ,かつモデルの汎化を妨げる要因となる.我々は,学習に不要な負例を削減するために,解析対象述語に対応する格フレームを用いた効率的な解候補削減手法を提案する.この提案手法により,正解を候補に残しつつ,約1,000分の1にまで解候補を削減することに成功した.また,我々はRNNにローカルアテンション機構\cite{Luong-Effective-2015}を導入することで,前文中のどの部分に注意を向けて解析するかをシステムに学習させた.本研究の提案手法は二つの構成要素からなり,一つは格フレーム内の単語分散表現を使用した解候補削減アルゴリズムで,もう一つは解候補削減に使用した分散表現を利用するニューラルネットゼロ照応解析モデルである\footnote{https:\slash\slash{}github.com\slash{}yamashiros\slash{}Japanese\_zero\_anaphora}.なお,BCCWJを訓練・テストに用いた文内・文間のガヲニ格を対象とするゼロ照応解析は.本研究が初の試みである.\begin{table}[b]\caption{関連研究}\label{tab:related-work}\input{09table03.tex}\end{table}
V04N01-02
label{sec:Intro}自然言語処理では,これまで書き言葉を対象として,さまざまな理論や技術が開発されてきたが,話し言葉に関しては,ほとんど何もなされてこなかった.しかし,近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.話し言葉の特徴は,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)である.例えば,(\ref{eq:Sentence1})には,(i)\,言い直し(「ほん」が「翻訳」に言い直されている),(ii)\,助詞省略(「翻訳」の後の格助詞「を」が省略されている)の2つの不適格性がある.\enumsentence{\label{eq:Sentence1}ほん,翻訳入れます.}書き言葉には見られないこれらの現象のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.したがって,不適格性を扱うための手法を確立することが,話し言葉を対象とした自然言語処理研究にとって必須である.特に,不適格性を扱うための手法をその他の言語解析過程の中にどのように組み込むかが,重要な課題となる.本稿では,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べる.不適格文を扱う手法の研究は,以下の3つのアプローチに大別できる.\begin{description}\item[A.不適格性を扱う個別的な手法]話し言葉に特有の不適格性を個別的な手法で扱う.言い直しを扱う手法\cite{Hindle:ACL83-123,Bear:ACL92-56,Nakatani:ACL93-46,佐川:情処論-35-1-46}や助詞省略を扱う手法\cite{山本:情処論-33-11-1322}がある.\item[B.不適格性を扱う一般的な手法]さまざまな不適格性を一般的なモデルに基づいて扱う.以下の2つのモデルに大別される.\begin{description}\item[B-1.二段階モデル(two-stagemodel)に基づく手法]まず,通常の適格文の解析手法で入力文を解析し,それが失敗した場合に,不適格性を扱うための処理を起動する.{\bf部分解析法}\cite{Jensen:CL-9-3-147,McDonald:ANLP92-193}や{\bf制約緩和法}\cite{Weischedel:CL-9-3-161,Mellish:ACL89-102}がある.\item[B-2.統一モデル(uniformmodel)に基づく手法]適格文と不適格文との間に明確な区別をおかず,両者を連続的なものととらえ統一的に扱う.{\bf優先意味論}に基づく手法\cite{Fass:CL-9-3-178}や{\bfアブダクション}に基づく手法\cite{Hobbs:AI-63-69}がある.\end{description}\end{description}本稿では,以下にあげる理由により,統一モデルに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item不適格文の処理はしばしば,適格文の処理と同等な能力を必要とする.例えば,言い直しを含む文において修復対象(言い直された部分)の範囲を同定するのは,適格文において従属節の範囲を決めるのと同じ難しさがある.したがって,不適格文を扱うために,従来適格文の処理に使われてきた手法を拡張して使えることが望ましい.\item不適格文と適格文が曖昧な場合がある.例えば,(\ref{eq:Sentence1})の「ほん」はたまたま「本」と同じ字面であるため,「本(に)翻訳(を)入れます」のような適格文としての解釈が可能になる.適格文と不適格文が統一的に扱えないと,このような曖昧性は解消できない.\item話し言葉(特に音声言語)の解析に必要な実時間処理は,不適格文を処理するのに二段階の過程を経る二段階モデルでは実現できない.これに対して,統一モデルでは,漸時的な処理が可能なので,実時間処理を実現しやすい.\item統一モデルは人間の言語処理モデルとしても妥当である.人間はしばしば,文の途中であっても不適格性が生じたことに気がつく.このことは,人間が適格文の処理と並行して,不適格性の検出のための処理を行なっていることを示唆する.\end{enumerate}統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.以下,まず\ref{sec:Ill-formed}\,節では,日本語の話し言葉におけるさまざまな不適格性を,音声対話コーパスからの実例をあげながら説明し,統一モデルの必要性を述べる.次に\ref{sec:Uniform}\,節で,本稿で提案する統一モデルに基づく話し言葉の解析手法を説明する.\ref{sec:Evaluation}\,節では,解析の実例をあげるとともに実験システムの性能を評価することで本手法の有効性を検討する.さらに,その適用範囲についても明らかにする.\ref{sec:Comparison}\,節では,従来の手法との比較を述べ,最後に,\ref{sec:Conclude}\,節でまとめを述べる.なお,話し言葉の解析を考える上で,音声情報の果たす役割は重要であるが,本稿では音声処理の問題には立ち入らない.
V05N03-05
\label{sec:intro}コーパス,辞書,シソーラスなどの機械可読な言語データの整備が進んだことから,自然言語処理における様々な問題の解決に何らかの統計情報を利用した研究が盛んに行われている.特に構文解析の分野においては,構文的な統計情報だけでなく,単語の出現頻度や単語の共起関係といった語彙的な統計情報を利用して解析精度を向上させた研究例が数多く報告されている\cite{schabes:92:a,magerman:95:a,hogenout:96:a,li:96:a,charniak:97:a,collins:97:a}.ここで問題となるのは,このような語彙的な統計情報を構文的な統計情報とどのように組み合わせるかということである.このとき,我々は以下の2つの点が重要であると考える.\begin{itemize}\item解析結果の候補に与えるスコアが,構文的な統計情報のみを反映したスコアと語彙的な統計情報のみを反映したスコアから構成的に計算できることこのことによる利点を以下に挙げる.\begin{itemize}\item個々の統計情報を個別に学習できる構文的な統計情報を学習する際には,学習用言語資源として比較的作成コストの高い構文構造が付加されたコーパスが必要となる\footnote{Inside-Outsideアルゴリズム\cite{lari:90:a}に代表されるようなEMアルゴリズムを用いて,構文構造が付加されていないコーパスから構文的な統計情報を学習する研究も行われている.しかしながら,このような教師なしの学習は一般に精度が悪く,現時点では構文構造が付加されたコーパスを利用した方が品質の良い統計情報を学習できると考えられる.}.しかしながら,推定パラメタの数はそれほど多くはないので,比較的少ないデータ量で学習することができる.これに対して,語彙的な統計情報は,単語の共起に関する統計情報を学習しなければならないために大量の学習用データを必要とするが,構文構造付きコーパスに比べて作成コストの低い品詞付きコーパスを用いても学習することが十分可能である.このように,統計情報の種類によって学習に要する言語資源の質・量は大きく異なる.そこで,構文的な統計情報と語彙的な統計情報を異なる言語資源を用いて個別に学習できるように,それぞれの統計情報の独立性を保持しておくことが望ましい.\item曖昧性解消時における個々の統計情報の働きを容易に理解することができる例えば,曖昧性解消に失敗した場合には,構文的な統計情報と語彙的な統計情報を独立に取り扱うことにより,どちらの統計情報が不適切であるかを容易に判断することができる.\end{itemize}\item個々の統計情報を反映したスコアが確率的意味を持っていること構文的な統計情報を反映したスコアと語彙的な統計情報を反映したスコアを組み合わせて全体のスコアとする場合,両者のスコアの和を計算すればいいのか,積を計算すればいいのか,またどちらか片方に重みを置かなければならないのかなど,その最適な組み合わせ方は自明ではない.このとき,個々のスコアが確率的意味を持つように学習することにより,確率の積としてそれらを自然に組み合わせることができる.\end{itemize}ところが,語彙的な統計情報を利用して構文解析の精度を向上させる過去の研究の多くは以上の条件を満たしていない.例えば田辺らは,確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFG)における書き換え規則の非終端記号に,その非終端記号が支配する句の主辞となる単語を付加すること(以下,これをPCFGの語彙化と呼ぶ)によって語彙的従属関係をPCFGの確率モデルに反映させる方法を提案している~\cite{tanabe:95:a}.一方,英語を対象にPCFGを語彙化した研究としてはHogenoutら~\cite{hogenout:96:a},Charniak~\cite{charniak:97:a},Collins~\cite{collins:97:a}によるものがある.しかしながら,PCFGの語彙化によって構文的な統計情報と語彙的な統計情報を組み合わせる方法は,非終端記号に単語を付加することによって規則数が組み合わせ的に増大し,推定するパラメタ数も非常に多くなるといった問題点がある.また,構文的な統計情報と語彙的な統計情報を同時に学習するモデルとなっているが,先ほど述べたように両者は独立に学習できることが望ましい.PCFGをベースとしないSPATTERパーザ~\cite{magerman:95:a}やSLTAG~\cite{schabes:92:a,resnik:92:b}にも同様の問題が存在する.これらの研究は語彙的な統計情報を利用して解析精度の向上を図ってはいるが,構文的な統計情報と独立に学習する枠組にはなっていない.構文的な統計情報と語彙的な統計情報を独立に学習する枠組としてはLiによるものが挙げられる~\cite{li:96:a,li:96:b}.Liは,解析結果の候補$I$に対して,構文的な統計情報を反映させた確率モデル$P_{syn}(I)$と単語の共起関係を反映させた確率モデル$P_{lex}(I)$を別々に学習する方法を提案している.そして,語彙的な制約は構文的な制約に優先するといった心理言語学原理に基づき,まず$P_{lex}(I)$を$I$のスコアとして用い,一位とそれ以外の候補のスコアの差が十分に大きくなかった場合に限り$P_{syn}(I)$をスコアとして用いている.すなわち,構文的な統計情報と語彙的な統計情報をそれぞれ独立に学習してはいるが,これらを同時に利用して曖昧性解消を行っているわけではない.また,この2つのスコアの持つ確率的意味が不明確であり\footnote{$P_{syn}(I)$,$P_{lex}(I)$は確率と呼ばれてはいるが,どのような事象に対する確率なのかは不明である.},その最適な組み合わせ方は自明ではない.本研究では,構文的な統計情報と語彙的な統計情報を組み合わせる一方法として,統合的確率言語モデルを提案する~\cite{inui:97:b,inui:97:e,sirai:96:a}.この統合的確率言語モデルの特徴は,単語の出現頻度,および単語の共起関係といった2つの語彙的な統計情報を局所化し,構文的な統計情報と独立に取り扱う点にある.また,構文的な統計情報を構文構造の生成確率として,語彙的な統計情報を単語列の生成確率としてそれぞれ学習し,これらの積を解析結果の候補に対するスコアとすることにより,曖昧性解消に両者を同時に利用することができる.この統合的確率言語モデルの詳細については\ref{sec:model}節で述べる.\ref{sec:exp-stat}節ではこの統合的確率言語モデルの学習,およびそれを用いた日本語文の文節の係り受け解析実験について述べる.最後に\ref{sec:conclusion}節で結論と今後の課題について述べる.
V03N03-04
入力文の構文構造を明らかにする構文解析手法には,大きく分けて,1)可能な構造をすべて生成する手法と,2)可能な構造に優劣を付け,そのうち最も適切なものだけを,または適切なものから順に生成する手法,の二つがある.前者の手法として,これまでに,一般化LR法\cite{Tomita85}やSAX\cite{Matsumoto86},LangLAB\cite{Tokunaga88}などの効率の良い手法が数多く提案されている.しかしながら,これらの手法を,機械翻訳システムなどの実用を目指した自然言語処理システムに組み込むことは,必ずしも適切ではない.なぜならば,通常,可能な構文構造の数は膨大なものになるため,それらをすべて意味解析などの構文解析以降の処理過程に送ると,システム全体としての効率が問題になるからである\footnote{文献\cite{Tomita85}には,構文構造の曖昧さをユーザとの対話で解消する方法も示されている.}.意味的親和性や照応関係に関する選好なども考慮に入れて全体で最も適切となる解釈は,最も適切な構文構造から得られるとは限らないので,システム全体で最も適切な解釈を得るためには,最悪の場合,可能な構造をすべて生成しなければならない.しかし,より適切な構文構造がシステム全体で最も適切な解釈の構成要素となる可能性が高いと期待されるので,適切でない構造は生成しなくてもよい可能性が高い.従って,可能な構造のうち最も適切なものだけをまず生成し,構文解析以降の処理からの要請があって初めて,次に適切な構造を生成するための処理を開始する後者の手法のほうが,システム全体の効率の観点からは望ましい.後者の手法を実現するためのアプローチでは,費用が付与された部分構造を状態とする状態空間において,目標状態のうち費用の最も小さいものを発見するという探索問題として構文解析を捉えるのが自然である.このように捉えると,確立された種々の探索戦略を構文解析に応用することができる.本稿では,可能な構造のうち生成費用の最も小さいものだけをまず生成し,必要ならば可能な構造が尽きるまですべての構造を生成費用の昇順に生成する構文解析法を提案する.基本的な考え方は,チャート法のアジェンダ\cite{Kay80}を$\A^*$法の探索戦略\cite{Nilsson80}に従って制御することである\cite{Yoshimi90}.チャート法は,良く知られているように,重複処理を行わない効率の良い構文解析の枠組みである.解析過程において生成されうる部分構造に,構文規則に付与された費用に基づいて計算される生成費用を付与するとともに,その構造を構成要素として持つ全体構造を生成するまでの費用を,$\A^*$法の最適性条件を満たし実際の費用になるべく近くなるように推定して付与し,競合する部分構造のうちその生成費用と推定費用の和が最も小さいものに対する処理を優先的に進めれば,効率の良い構文解析が実現できる.本稿の手法と同じように,適切な構造を優先的に生成する手法として,これまでに,Shieberの手法\cite{Shieber83}やKGW+p\cite{Tsujii88},島津らの手法\cite{Shimazu89}などが提案されている.これら関連する研究との比較は\ref{sec:comparison}節で行なう.
V32N02-04
LLMは優れた言語理解能力と文章生成能力を示し,最近は文生成タスクの自動評価手法(LLM評価器;LLM-as-a-Judge\cite{NEURIPS2023_91f18a12})としても活用されている\cite{liu2023geval,fu2023gptscore,kocmi-federmann-2023-large,chiang-lee-2023-large}.例えば,評価対象の文章の尤度をLLMに計算させ,評価スコアとして使用する方法\cite{fu2023gptscore,yuan2021bartscore}や,LLMに文章の評価スコアを直接出力させる方法\cite{liu2023geval,kocmi-federmann-2023-large}が提案されている.BLEU\cite{papineni-etal-2002-bleu}やROUGE\cite{lin-2004-rouge}などの従来の自動評価手法と比べ,LLMによる自動評価は多くのタスクで人間の評価とより高い相関を示すことが報告されている.LLMの学習は膨大な事前学習データ\cite{NEURIPS2020_1457c0d6,openai2023gpt4}と指示学習データ\cite{wei2022finetuned,NEURIPS2022_b1efde53}の尤度最大化であり,文章生成も尤度に基づいている.ゆえに,尤度を直接的に評価スコアとする方法だけではなく,評価スコアを生成させる方法においても,評価対象の文章の尤度が評価結果に影響を与えると考えられる.ところが,LLMが計算する尤度は文章の流暢性や文法性,事実性などの良し悪しを捉えているとは限らない.例えば,ある文章の語順や構造を変更して言い換えると,LLMの尤度が変動することが報告されている\cite{kuribayashi-etal-2020-language}.この場合,文章の意味に関する評価を行う際に,尤度の変動がLLMの評価結果に悪影響を及ぼしうる.言い換えると,LLMの尤度と文章の良し悪しのずれが,さまざまな評価項目で評価バイアスを引き起こしている可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig1\begin{figure}[t]\begin{center}\includegraphics{32-2ia3f01.eps}\end{center}\hangcaption{尤度バイアスの例.人間の採点であれば同じスコアをつけられるべき出力のうち,尤度の低い出力(上側)が尤度の高い出力(下側)よりも不当に低く評価されていることを表す.}\label{fig:bias_image}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,LLMが文章の評価スコアを出力する際,尤度の低い文章を(人間の評価よりも)不当に低く評価し,尤度の高い文章を不当に高く評価するという評価バイアスの存在を仮定し,これを\textbf{尤度バイアス}と呼ぶ.尤度バイアスの例を図~\ref{fig:bias_image}に示す.この図ではデータから文を生成するタスク(data-to-text)をdatacoverage(データの情報を出力がカバーしているか)という評価項目に基づいて採点する際に,人間の採点であれば同スコアになる出力のうち,尤度の低い出力(上側)が尤度の高い出力(下側)よりもLLMによって不当に低く評価されていることを表す.この問題に対処するため,我々は尤度バイアスを(1)定量的に測定し,(2)緩和する手法を提案する.本研究はLLM評価器における評価時のバイアスを緩和する初めての試みである.まず,LLMの尤度と,LLMと人手評価のスコアの差の相関に着目し,尤度バイアスの定量的な測定を行う.次に,訓練データから尤度バイアスの強い事例(タスクの入出力のペア)を特定し,それらの事例に人手評価スコアを付与し,Few-shot事例としてLLM評価器に与えることで,評価時の尤度バイアスを緩和する.尤度バイアスの大きさは評価に用いる評価項目によって変化することが予想される.例えば,datacoverageのような出力の尤度と関係が浅いと考えられる項目に対しては,尤度バイアスはより大きくなる可能性がある.逆に,fluency(出力か流暢かどうか)のような出力の尤度と関係が深いと考えられる項目に対しては,尤度バイアスは小さくなる可能性がある.このような評価項目と尤度バイアスの関係を検証するために,本研究ではdata-to-textと文法誤り訂正(GrammaticalErrorCorrection;GEC)の2つのタスクを使用する.これらのタスクを選んだ理由は,他タスクにおける既存の評価データセット\cite{freitag-etal-2021-experts,guan-etal-2021-openmeva,kamalloo-etal-2023-evaluating}と異なり,この2タスクにおける評価データセット\cite{castro-ferreira-etal-2020-2020,yoshimura-etal-2020-reference}はfluency,grammar,datacoverageのような複数の評価項目における人間が付与した評価結果を含んでいるからである.実験の結果,GPT-3.5\footnote{\url{https://platform.openai.com/docs/models#gpt-3-5-turbo}}とLlama213B\cite{touvron2023llama}の2つのLLMがdata-to-textとGECの2つのタスクにおいて尤度バイアスを持つ可能性を示した.さらに,バイアス緩和手法によりほとんどのモデル・タスクにおいてLLMの尤度バイアスが緩和され,評価性能(人手評価スコアとの順位相関係数)も向上することが分かった.Data-to-textにおいては有意なバイアスの緩和と評価性能の向上が確認され,GECにおいてはその傾向が確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V14N05-03
存在文はいかなる言語にも存在し,人間のもっとも原始的な思考の言語表現の一つであって,それぞれの言語で特徴があり言語により異なりが現れてくる.日本語と中国語でも,前者が存在の主体が有情物か非情物かで使われる動詞が異なる(「ある/いる」)のに対し,後者では所在の意味か所有の意味かで使われる動詞が異なる(「在/有」)など,大きな違いがある.日本と中国の言語学の分野では,存在文について論述があるが(飯田隆2001,西山佑司2003,金水敏2006,儲澤祥1997),日中機械翻訳の角度からの研究は殆ど見あたらない.また日中機械翻訳において現在の日中市販翻訳ソフトでは,存在文に関する誤りが多く見られる.本論文は言語学の側の文献を参考にしながら存在文に関する日中機械翻訳の方法について考察し,翻訳規則の提案,翻訳実験を行ったものである.\begin{itemize}\item[(1)]日中両言語における存在表現を対照的に分析し,異同を起こす原因に関しても検討を試みた.\item[(2)]中国語の存在動詞の選択とその位置の問題を中心に,機械翻訳における存在文の翻訳規則を提案した.\item[(3)]提案した翻訳規則を,手作業で及び我々が開発している翻訳システムで翻訳実験を行い,評価した.\item[(4)]関連する問題点と今後の課題について議論した.\end{itemize}
V12N03-09
\label{sec:intr}インターネットの世界的な普及により,世界各国に分散したメンバーによるソフトウェア開発などが盛んになっている\cite{Jarvenpaa}.特に,アジア太平洋地域でのインターネットの普及は目覚しく\footnote{http://cyberatlas.internet.com/big\_picture/geographics/print/\\0,,5911\_86148,00.html},今後,この地域におけるソフトウェアの共同開発などが活発化すると予想される.しかし,母国語が異なる国々と共同ソフトウェアの開発などを行う場合,言葉の壁により円滑にコミュニケーションを行うことは難しい.共通言語として英語を使用することにより,コミュニケーションを行うことも可能であるが,英語で書くことは負担が大きく,コミュニケーションの沈滞を招く.異文化間でのコラボレーション参加者は母国語での情報発信を望んでいる.機械翻訳の利用はこのような異言語間におけるコミュニケーション課題を解決する1つの手段である.機械翻訳は異文化コラボレーションを行うためのコミュニケーションの道具としてどのように役に立つのか?あるいは,役立つようにするためには,どのような問題を克服する必要があるのか?このような問いに答えることは,コミュニケーションの新しい研究テーマとして有意義であるとともに,機械翻訳システム開発への有益な提言が得られる可能性が高いという意味でも重要である.また,コンピュータを介したコミュニケーションの研究は最近活発に行われているが\cite{Herring},機械翻訳を介したコミュニケーションの研究\cite{Miike}は,まだ少なく,二ヶ国語間の機械翻訳で,機械翻訳への適応が行なわれないコミュニケーションの研究が中心である.さらに,機械翻訳の研究においても,機械翻訳自体の翻訳品質の評価の研究\cite{Hovy,Papineni}は活発に行われているが,コミュニケーションという観点からの評価は行われていない.本論文では,機械翻訳を介したコミュニケーションによる母国語が異なる異文化間での共同ソフトウェア開発のためのコラボレーション実験を行うことにより,目的が明確で,かつ,利用者の機械翻訳への適応が期待できる環境において,決して十分な翻訳品質とは言えない機械翻訳に対して利用者がどのように適応を行ってコミュニケーションを成立させようとするのかを分析する.また,その適応効果はどの程度のものなのかを明らかにする.適応の翻訳言語ペアについての依存性,英訳を参照した適応の他言語への翻訳への有効性,言語ごとの適応の違いなどを中心に分析した結果を提示し,機械翻訳を介した異言語間コミュニケーション支援の方向性について述べる.
V06N02-02
音声認識・文字認識の精度向上のため,より高い性能を持つ言語モデルを求めることは重要である.近年は,モデル構築やメンテナンスの容易さの点から,コーパスに基づく統計的言語モデルの研究が盛んである.大語彙ないしタスク非依存のシステムのための統計的言語モデルとして今日もっとも有望視されているものに,$n$-gramが挙げられる.$n$-gramは大量のテキストコーパスからの単純な数え上げによって得られる統計量であり,強力かつ頑健性に優れている.英語などのヨーロッパ系言語においては,$n$-gramの単位として単語を用いることが多い.大語彙のシステムでは単語はカテゴリ数が非常に大きくなるため,単語の代わりに品詞を用いる\cite{nagata94},または単語クラスタリングによって得られる単語クラスを用いることが多い.これらの言語においては単語は分かち書きされるため機械的に取り出すことができ,数え上げも容易に行える.これに対し,日本語や中国語には分かち書きの習慣がない.朝鮮語は文節ごとに分かち書きをするが,その分かち方は一定しないうえ,$n$-gramの単位としては大き過ぎて汎化性に難がある.よって,これらの言語を$n$-gramによってモデル化する際には,テキストコーパスに何らか\breakの前処理が必要である.これには次の可能性が考えられる.\begin{itemize}\item人手によって分割されたタグ付きコーパスを使う\item自動形態素解析システムによって単語に分割する\item経験的な統計基準によって文字列に分割する\end{itemize}このうちタグ付きコーパスを使う方法には,コーパス自体の入手が質的・量的な困難を伴うという欠点がある.形態素解析に基づく方法は有効であるが,モデルを学習するためにはまず形態素解析システムを用意せねばならないうえ,特定タスクに対して高い性能を得るためには予め辞書をチューニングする必要があると考えられ,メンテナンスのコストがかかる.また,形態素解析システムの文法規則によっては機能語が短めに分割される傾向があり,$n$-gramの性能を必ずしも最大にするものではない.これらの手法に対して,伊藤ら\cite{aito96}は統計的な基準によって文\mbox{字列の集合を選}定し,その文字列に分割されたテキストを使って$n$-gramを学\mbox{習する方法を提案している.文字}列を選定する基準としては,単純な頻度,および語彙の自動獲得のために提案されている正規\break化頻度\cite{nakawatase95}の高いものから選ぶ方式が\mbox{有効であったとされる.この方法は,形態素解}析を必要としない点で優れている.しかし,抽出すべき文字列の最適な個数を見出す方法については述べられていない.また,用いられている基準と言語モデルの能力との理論的関係は浅く,最良の分割方法である保証はない.さらに,この手法ではテキストが明示的に分割される.このため,接辞を伴った語や複合語などの長い文字列が抽出された場合,その文字列を構成するもっと短い語は出現しなかったのと同様な扱いを受けることになる.有限のテキストから汎化性の高い言語モデルを構築したい場合に,このような明示的な分割が最良の結果を与えるとは限らない.本論文では,高い曖昧性削減能力を持つ新しい言語モデルを提案する.このモデルは,superwordと呼ぶ文字列の集合の上の$n$-gramモデルとして定義される.superwordは訓練テキスト中の文字列の再現性のみに基づいて定義される概念であり,与えられた訓練テキストに対して一意に定まる.具体的な確率分布は,訓練テキストからForward-Backwardアルゴリズムによって求める.訓練テキストを明示的に分割せぬまま学習を行うため,長い文字列中の部分文字列を「再利用」することが可能となり,少量の訓練テキストでも効率の良いモデル化が期待できる.本論文ではまた,いくつかのモデルの融合による汎化性の向上についても検討する.実時間性が要求される大語彙連続音声認識システムにおいては,緩い言語モデルを用いて\mbox{可能性をしぼり込んだ後,詳細な言語モデルによって最終出力を導}く2パス処理が一般的である.本論文で提案するような字面の適格性を与える言語モデルは,ディクテーションシステムの第2パス,すなわち後処理用の言語モデルとして有用であるものと考えられる.また,文字$n$-gramを用いた認識手法\cite{yamada94}を本手法に応用することも可能である.
V19N04-01
近年,質問応答や要約,含意認識などで,幅広い知識の必要性が高まっている.幅広い分野の一般的知識を記述したものに汎用オントロジーがある.オントロジーとは概念の意味と概念同士の関係を定義したものであり,特定の分野に偏らず幅広い分野に対応したオントロジーを汎用オントロジーという.概念間の関係には,is-a関係\footnote{``is-a関係''とは,Bisa(kindof)Aが成り立つときのAとBの関係をいう.}(上位‐下位概念)やpart-of関係(全体‐部分関係)など様々な種類がある.固有名詞や日々生まれる新しい語彙への即時対応を目指して,即時更新性と知識量の多さに優れたオンライン百科事典であるWikipediaを利用したis-a関係の汎用オントロジーの作成が注目されている\cite{Morita}.汎用オントロジーと言われるものには少なくとも2つのタイプがある.一つは,WordNet\cite{WordNet}のように,語と語の関係(synsetで表現される語義と語義の関係)を表現するものと,日本語語彙大系\cite{goitaikei}のように,ある語の上位概念をさまざまな粒度で表現したもの(語を階層的に分類したもの)である.前者は,上位下位関係を構成している単語対をたくさん獲得する方法であり,例えば「紅茶はお茶の一種で,紅茶にはアールグレーやダージリンがある」というような,ある単語を中心として上位概念と下位概念を表現する用語の集合を獲得する(ある単語の近傍の単語の集合を密に獲得する)目的に適している.またこのような目的のために,7.1節で述べるようにWikipediaからis-a関係の抽出の研究も行われている.本研究では後者のタイプの汎用オントロジーを目指す.このタイプの汎用オントロジーからは,葉節点にある概念(Wikipediaの記事の見出し)の上位語を,トップレベルとして設定した10個程度の上位概念まで,細かな粒度から荒い粒度まで順に,葉節点の概念を分類する用語が並んでいるような知識表現が得られる.このようなオントロジーの典型的な応用は,クエリログの解析のためにアイドルの名前を集めたり,アニメのタイトルのリストを作るといった用語リストを作ることである.特に,何らかのアプリケーションのために,「日本の今」を反映するような固有表現辞書を作る場合に有効である.Wikipediaの記事にはカテゴリが付与され,そのカテゴリは他のカテゴリとリンクして階層構造を作っている.しかしオントロジーと違い,Wikipediaのカテゴリ間,カテゴリ‐記事間のリンクの意味関係は厳密に定義されていない.そこで,Wikipediaのリンク構造からis-a関係のリンクを抽出する,以下のような研究が行われている.\begin{itemize}\item[1.]Wikipediaのカテゴリ間のリンクからis-a関係のリンクを抽出し,is-a関係のリンクでつながる部分的なカテゴリ階層を複数抽出する研究\cite{Ponzetto,Sakurai,Tamagawa}\item[2.]WordNetや日本語語彙大系のような既存のオントロジーに,Wikipediaのカテゴリや記事を接続する研究\cite{Suchanek,Kobayashi,Kobayashi2}\item[3.]既存のオントロジーの下位に,Wikipediaから抽出した部分的なカテゴリ階層と記事を接続する研究\cite{Shibaki}\end{itemize}\noindent1〜3の手法はis-a関係のリンクの抽出や既存のオントロジーの接続に文字列照合を用いるため,適合率は高いが再現率が低い.手法2では,Wikipediaのカテゴリ階層の情報が失われる.手法3はWikipediaのカテゴリ階層の情報をオントロジーに組み込めているが,上位階層に既存のオントロジーを用いているため,多くのカテゴリ階層の情報が失われる.また手法3は既存のオントロジーとWikipediaのカテゴリの接続部分を人手で判定しているため半自動の手法である.本研究では,Wikipediaの階層構造を出来るだけそのまま生かし,新たに定義した上位カテゴリ階層にWikipediaを整形した階層を接続することで1つに統一されたis-a関係のオントロジーを自動で構築する(図\ref{fig:image}).目標とするオントロジーの特徴は主に以下の2点である.\begin{itemize}\item[1.]Wikipediaの各記事名に対して,上位下位関係に基づく順序が付いた上位語のリストをWikipediaのカテゴリ階層から作成する.\item[2.]Wikipediaの記事名の全体集合を,網羅的(broadcoverage)かつ重なりなく(disjoint)分類できるような,上位下位関係に基づく階層的な分類体系をWikipediaのカテゴリ階層から作成する.\end{itemize}\noindent本手法では初めに,Wikipediaの上位のカテゴリ階層を削除する.またカテゴリ間とカテゴ\mbox{リ‐}記事間のis-a関係でないリンク(以下,not-is-a関係)を高い精度で削除し,残ったリンクをis-a関係とみなすことでWikipediaをis-a関係のリンクのみでつながる階層へ整形する.次にそれらの階層を新たに定義した深さ1の上位階層の下位に接続することで,1つに統一された階層を再構成する.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f1.eps}\end{center}\caption{本手法で構築する汎用オントロジーの一部}\label{fig:image}\vspace{-4pt}\end{figure}本研究では,(1)全概念を網羅していることを明確化するため(2)標準的な構造(3)計算機処理しやすい,という理由から,体系が統一された汎用オントロジーの構築を目指す.\begin{enumerate}\item一般に,「人オントロジー」「組織オントロジー」など個別のオントロジーを作成してもそれらのオントロジー間の関係は並列とは限らない.また今回作成した9つで概念のどれだけを網羅しているのかも分かりにくい.我々は,(ほぼ)全概念を9種類の排他的な意味属性で網羅していることを明確化するため,一つのオントロジーとして構築した.\itemこれまでに提案されているオントロジーである日本語語彙大系なども同様の形式であり,このような構造にすることによる恣意性,特殊性はない.本研究はオントロジーのあるべき表現構造の議論を行うのが主眼ではないため,最も標準的な構造のオントロジー構築を目指した.\item計算機で処理する上で全体が統一された一つの構造となっているほうが便利であり,また柔軟性がある.汎用オントロジーとして構築したものの一部(例えば「人」オントロジーのみ)を利用することは可能だが,一般に逆は可能とは限らない.\end{enumerate}本研究で作成するオントロジーの利用例として質問応答システムを取り上げる.集合知によって作成された百科事典であるWikipediaは,一般的な(常識的な)知識を記述したものであり,Wikipediaの記事名の集合は,多くの人が興味を持つ「もの」と「こと」のリストと考えられる.本研究で構築するオントロジーを用いると,記事名に関して用途に応じて様々な粒度での分類や記述が可能になる.例えば質問応答システムにおいて,「ドラゴンボールとは何か?」という質問に対して,その上位語「格闘技漫画」「冒険作品」「週刊少年ジャンプの漫画作品」はいずれも回答となる.また上記項目2のように一つの統一された階層分類になっていることで,任意の2つの記事名に対して必ず共通の上位語が存在し,共通の上位語に至るまでの上位語は2つの記事名の違いを特徴付けることができる.例えば「ONEPIECEと名探偵コナンの違いは?」という質問に対して,共通の上位語である「漫画作品」と,それぞれの上位にある語「週刊少年ジャンプの漫画作品」,「週刊少年サンデーの漫画作品」を使って,「どちらも漫画作品だが,ONEPIECEは週刊少年ジャンプの漫画で,名探偵コナンは週刊少年サンデーの漫画」というような回答が可能になる.本論文では以降,\ref{sec:onto_wiki}章でオントロジーとWikipediaについて説明した後,3章で本研究で提案する汎用オントロジー構築手法を示す.次に\ref{sec:zikken}章で実験条件,\ref{sec:kekka}章で実験結果,\ref{sec:kousatsu}章で考察を述べる.そして\ref{sec:kanren_kenkyu}章でWikipediaからのオントロジーを構築する関連研究について紹介し,最後に\ref{sec:ketsuron}章で本論文の結論を述べる.
V18N03-02
\label{sec:intro}語義曖昧性解消は古典的な自然言語処理の課題の一つであり,先行研究の多くは教師あり学習により成果を挙げてきた\cite{Marquez04,Navigli09}.しかし,教師あり学習による語義曖昧性解消においてはデータスパースネスが大きな問題となる.多義語の語義がその共起語より定まるという仮定に基づけば,一つの多義語と共起し得る単語の種類が数万を超えることは珍しくなく,この数万種類のパターンに対応するために充分な語義ラベル付きデータを人手で確保し,教師あり手法を適用するのは現実的でない.一方で語義ラベルが付与されていない,いわゆるラベルなしのデータを大量に用意することは,ウェブの発展,学術研究用のコーパスの整備などにより比較的容易である.このような背景から,訓練データと大量のラベルなしデータを併用してクラス分類精度を向上させる半教師あり学習,または訓練データを必要としない教師なし学習による効果的な語義曖昧性解消手法の確立は重要であると言える.本稿では半教師あり手法の一つであるブートストラッピング法を取り上げ,従来のブートストラッピング法による語義曖昧性解消手法の欠点に対処した手法を提案する.ブートストラッピング法による語義曖昧性解消においては主にSelf-training(自己訓練)\cite{Nigam00b}とCo-training(共訓練)\cite{Blum98}の二つのアプローチがある\cite{Navigli09}.まずこれらの手法に共通する手順を述べると次のようになる.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{一般的ブートストラッピング手順}\begin{description}\item[Step1]ラベルなしデータ$U$から事例$P$個をランダムに取り出し$U'$を作る.\item[Step2]ラベル付きデータ$L$を用いて一つまたは二つの分類器に学習させ$U'$の事例を分類する.\item[Step3]Step2で分類した事例より分類器毎に信頼性の高いものから順に$G$個を選び,$L$に加える.\item[Step4]Step1から$R$回繰り返す.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}Self-trainingとCo-trainingの違いは,前者はStep2で用いる分類器は一つであるのに対し,後者は二つ用いる点にある.またCo-trainingにおいては二つの独立した素性集合を設定し,各分類器を一方の素性集合のみを用いて作成する.Co-trainingにおいてこのように設定するのは,Step3において追加する事例を一方の素性のみから決定することから,追加事例のもう一方の素性を見たとき新しい規則の獲得が期待できるためである.Self-trainingとCo-trainingの欠点はいずれも性能に影響するパラメータが多数存在し,かつこれらのパラメータを最適化する手段がないことである.具体的にはStep1のプールサイズ$P$,Step3の$L$に加える事例の個数$G$,手順の反復回数$R$は全てパラメータであり,タスクに合わせた調整を必要とする.本稿では,ラベル付きデータとラベルなしデータを同時に活用しつつも,パラメータ設定をほとんど不要とする新しい手法を提案する.本手法はまずヒューリスティックと教師あり学習で構築した分類器によるラベルなしデータの二段階の「分類」を行う.ここで「分類」とは語義曖昧性解消を行い,語義ラベルを付与することを意味する.本稿では以後特に断りがない限り,分類とはこの語義ラベル付与のことを指す.二段階分類したラベルなしデータの中で条件を満たすデータはオリジナルのラベル付きデータに加えられる.その結果,パラメータ設定がほぼ不要なブートストラッピング的半教師あり手法による語義曖昧性解消を実現する.さらに追加するラベルなしデータの条件を変えることで複数の分類器を作成し,アンサンブル学習することで,パラメータの変化に頑健な分類器を生成する.本稿の構成は以下の通りである.\ref{sec:work}節にて関連研究および本研究の位置付けを述べる.\ref{sec:method}節にて提案手法およびその原理を並行して述べる.\ref{sec:exp}節にてSemEval-2日本語タスク\cite{Okumura10}のデータセットに提案手法を適用した実験の結果を示す.\ref{sec:conc}節にて結論を述べる.
V18N04-01
\subsection{背景と目的}我々が記述や発話によって伝える情報は客観的な事柄のみではない.事柄が真なのか偽なのか,事柄が望ましいか望ましくないか,といった心的態度も併せて伝達する.言語学,日本語学にはこのような心的態度に対応する概念として「モダリティ」または「様相」と呼ばれるものが存在する.モダリティは,文を構成する主要な要素として規定されている概念である.モダリティ論では「文は,客観的な事柄内容である『命題』と話し手の発話時現在の心的態度(命題に対する捉え方や伝達態度)である『モダリティ』からな」るという規定が多くの学者に受け入れられてきた\cite{Book_01}\footnote{以後,修飾語句なしに「心的態度」と記述するときは書き手の発話時現在の命題に対する捉え方や伝達態度のことを指す.}.そして,活用形と「べき(だ)」「だろう」「か」といった助動詞や終助詞および,それらの相当語句がモダリティに属する文法形式とされている.これらの文法形式はコーパスに心的態度の情報をアノテーションする上で有効な指標になると考えられる.ただし,前述の文法形式をアノテーションするだけでは心的態度を網羅することはできない.「ことを確信している」「と非常に良さそうだ」等,文法形式以外にも心的態度を表す表現は存在する.そのことは心的態度のアノテーションを目的とする既存研究で指摘されており,それらの研究では「拡張モダリティ」\cite{Article_01}「確実性判断」\cite{Article_02}といった文法形式以外も含む新たな概念が提案されている.しかし,このように対象を拡張すると,モダリティの持つアノテーションに有利な特徴が失われてしまう.モダリティであれば,文ごとに特定の文法形式の有無を目安にしてアノテーションの判定をすればよい.対して,拡張モダリティや確実性判断にはこのような明確な判断基準がない.よって,作業者によって基準がぶれてアノテーションが安定しない可能性がある.これに対し本論文では,「階層意味論」で規定される「モダリティ」の概念を用いることで,母語話者の判断による一貫したアノテーションが可能であると考える.階層意味論とは,言語普遍的な意味構造を規定する意味論上の概念であり,この意味構造によって従来の文法論では解釈が困難な複数の言語現象に自然な解釈を与えることができる.この階層意味論で規定される「モダリティ」は文法論上の概念ではない.拡張モダリティや確実性判断と同じく文法形式ではない心的態度も対象とするため,心的態度の網羅という目的に適う概念といえる.ただし,階層意味論の研究は主に英語の事例を扱っており,日本語の事例研究は限定的である.そのため日本語における普遍性が実証的に確かめられているとは言い難い.そこで,4名の母語話者に新聞の社説記事から「モダリティ」を読み取ってもらう調査を行い,母語話者間での回答の一致度を見る.本論文では「階層意味論の『モダリティ』が普遍性のある概念であれば母語話者間で『モダリティ』に対する認識の仕方に違いは出ない」という前提のもと,母語話者間の一致度を通して普遍性を評価する.以下,2節で,自然言語処理,言語学,日本語学それぞれにおける「モダリティ」の扱いを概観し,その違いが心的態度のアノテーションに及ぼし得る問題点を論じる.次に3節で,本論文で検討する階層意味論について説明する.そして4節で,日本語の母語話者を対象に,新聞の社説記事から階層意味論に基づき規定された心的態度を読み取ってもらう調査を行い,その判断に対する母語話者間の一致度を示すとともに不一致を引き起こす要因について論じる.最後に,5節でまとめと今後の課題について述べる.\vspace{-0.5\baselineskip}\subsection{用語に関する注意事項}「文」「命題」「モダリティ」といった用語は,特定の言語形式を指す場合と,その形式で表現される意味内容を指す場合とがある.文法論,意味論と自然言語処理との間で横断的な議論を行う場合は,どちらの用法で用いているのか明記しないと混乱を招く恐れがある.そこで,本論文における各用語の便宜的な用法をここで示す.まず,文については「書き言葉において句点\footnote{文体によっては改行や句点以外の記号で代用されることもある.}で区切られる統語上の言語単位」を指すことにする.話し言葉は本論文では取り上げない.次に,モダリティは「文法論でモダリティとして扱われている表現の集合\footnote{この集合を厳密に定義する既存研究はないが,日本語のモダリティについては,日本語学でモダリティを体系的に論じた書籍である宮崎他(2002)と日本語記述文法研究会(2003)のいずれかでモダリティとして扱われているかどうかを基準とする.}」を指すことにする.文法論では「モダリティ」が文法形式を指す場合とその機能を指す場合とがあるが,本論文ではもっぱら前者として用いる.この規定は心的態度とモダリティを明確に区別することを意図している.本論文では,心的態度はアノテーションすべき対象なのに対し,モダリティはあくまでアノテーションの目安となる統語上の特徴の1つということになる.そして,命題は「補足語+述語」\inhibitglue\footnote{述語とは「動詞,形容詞,形容動詞または『名詞+助動詞「だ」』(+ヴォイス)(+テンス)(+アスペクト)」を指す.},「補足語+述語+形式名詞」および「補足語+述語+形式名詞」に言い換え可能な「(連体修飾語+)名詞」を指す\footnote{形式名詞の規定は\cite{Book_25}に従う.}.例えば「彼が渋谷まで買い物に行った」「A銀行の破たん」といった表現が挙げられる\footnote{名詞の言い換えは文脈に依存するため,ここで「A銀行の破たん」の言い換えを一意に定めることはできないが,文脈さえ定まれば母語話者は困難なく言い換えることができると考える.具体的には4.2の手順2で論ずる.}.ただし,階層意味論で「命題」や「モダリティ」と呼ばれているものは意味構造を記述するための概念であり,ここで述べた用法とは異なる.そこで「命題’」「モダリティ’」と,「’」をつけて区別する.
V24N03-07
\label{sec:intro}統計的機械翻訳(StatisticalMachineTranslation:SMT\cite{brown93smt})で高い翻訳精度\footnote{SMTシステムの性能を評価する場合,評価用原言語コーパスの翻訳結果が目標となる正解訳にどの程度近いかを示す自動評価尺度を翻訳精度の指標とすることが多く,本稿では最も代表的な自動評価尺度と考えられるBLEUスコア\cite{papineni02}を用いて評価する.}を達成するには,学習に用いる対訳コーパスの質と量が不可欠である.特に,質の高い対訳データを得るためには,専門家による人手翻訳が必要となるが,時間と予算の面で高いコストを要するため,翻訳対象は厳選しなければならない.このように,正解データを得るための人手作業を抑えつつ高い精度を達成する手法として,能動学習(ActiveLearning)が知られている.SMTにおいても,能動学習を用いることで人手翻訳のコストを抑えつつ高精度な翻訳モデルを学習可能である\cite{eck05,turchi08,haffari09naacl,haffari09acl,ananthakrishnan10,bloodgood10,gonzalezrubio12,green14}.SMTや,その他の自然言語処理タスクにおける多くの能動学習手法は,膨大な文書データの中からどの\textbf{文}をアノテータに示すか,という点に注目している.これらの手法は一般的に,幾つかの基準に照らし合わせて,SMTシステムに有益な情報を多く含んでいると考えられる文に優先順位を割り当てる.単言語データに高頻度で出現し,既存の対訳データには出現しないような\textbf{フレーズ}\footnote{本稿では,フレーズとは特定の文中に出現する任意の長さの部分単語列を表すものとし,文全体や単語もフレーズの一種として扱う.また,後述する句構造文法における句とは区別して扱うこととする.}を多く含む文を選択する手法\cite{eck05},現在のSMTシステムにおいて信頼度の低いフレーズを多く含む文を選択する手法\cite{haffari09naacl},あるいは翻訳結果から推定されるSMTシステムの品質が低くなるような文を選択する手法\cite{ananthakrishnan10}などが代表的である.これらの手法で選択される文は,機械学習を行う上で有益な情報を含んでいると考えられるが,その反面,既存システムに既にカバーされているフレーズも多く含んでいる可能性が高く,余分な翻訳コストを要する欠点がある.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f1.eps}\end{center}\caption{フレーズ選択手法の例,および従来手法と提案手法の比較}\label{fig:select-methods}\end{figure}このように文全体を選択することで過剰なコストを要する問題に対処するため,自然言語処理タスクにおいては短いフレーズからなる\textbf{文の部分的アノテーション}を行うための手法も提案されている\cite{settles08,tomanek09,bloodgood10,sperber14}.特にSMTにおいては,文の選択手法では翻訳済みフレーズを冗長に含んでしまう問題に対処するため,原言語コーパスの単語$n$-gram頻度に基づき,対訳コーパスにカバーされていない原言語コーパス中で最高頻度の$n$-gram自体を翻訳対象のフレーズとして選択する手法が提案されている\cite{bloodgood10}.この手法では,選択されたフレーズ全体が必ず翻訳モデルの\textbf{$n$-gramカバレッジ}\footnote{\label{note:coverage}入力されるデータに対して,その構成要素がどの程度モデルに含まれているかという指標をカバレッジ(被覆率)と呼ぶ.本稿では,原言語コーパス中の$n$-gramが翻訳モデル中に含まれる割合に着目する.}向上に寄与し,余分な単語を選択しないため,文選択手法よりも少ない単語数の人手翻訳で翻訳精度を向上させやすく,費用対効果に優れている.しかし,この手法には2つの問題点が挙げられる.先ず,図\ref{fig:select-methods}(a)に示すように,$n$-gram頻度に基づくフレーズの選択手法では複数のフレーズ間で共有部分が多いため冗長な翻訳作業が発生し,単語あたりの精度向上率を損なう問題がある(\textbf{フレーズ間の重複問題}).また,最大フレーズ長が$n=4$などに制限されるため,``oneofthepreceding''のように句範疇の一部がたびたび不完全な形で翻訳者に提示されて人手翻訳が困難になる問題もある(\textbf{句範疇の断片化問題}).本研究では,前述の2つの問題に対処するために2種類の手法を提案し,部分アノテーション型の\textbf{能動学習効率}\footnote{人手翻訳に要した一定のコストに対する翻訳精度の上昇値を本稿における学習効率とし,作業時間あたりの精度向上と必要予算あたりの精度向上に注目する.}と翻訳結果に対する\textbf{自信度}の向上を目指す(\ref{sec:proposed}節).フレーズ間の重複問題に対しては,図\ref{fig:select-methods}(b)に示すように包含関係を持つフレーズを統合して,より少ないフレーズでカバレッジを保つことで学習効率の向上が可能と考えられる(\textbf{極大フレーズ選択手法},\ref{sec:maxsubst-freq}節).重複を取り除き,なるべく長いフレーズを抽出する基準として,本研究では\textbf{極大部分文字列}\cite{yamamoto01,okanohara09}の定義を単語列に適用し,極大長\footnoteref{note:maximality}となるフレーズの頻度を素性に用いる.句範疇の断片化問題に対しては,図\ref{fig:select-methods}(c)に示すように,原言語コーパスの句構造解析を行い,部分木をなすようなフレーズを\textbf{統語的に整ったフレーズ}とみなして選択することで,人手翻訳が容易になると考えられる(\textbf{部分構文木選択手法},\ref{sec:struct-freq}節).また,これら2つの手法を組み合わせ,フレーズの極大性と構文木を同時に考慮する手法についても提案する(\ref{sec:struct-freq}節).本研究で提案するフレーズ選択手法による能動学習効率への影響を調査するため,先ず英仏翻訳および英日翻訳において逐次的にフレーズ対の追加・モデル更新・評価を行うシミュレーション実験(\ref{sec:simulation}節)を実施し,その結果,2つの提案手法を組み合わせることで従来より少ない追加単語数でカバレッジの向上や翻訳精度の向上を達成することができた.次に,部分構文木選択手法が人手翻訳に与える影響を調査するため,専門の翻訳者に翻訳作業と主観評価を依頼し,述べ120時間におよぶ作業時間で収集された対訳データを用いて実験と分析を行った結果(\ref{sec:manual-trans}節),同様に高い能動学習効率が示された.また,翻訳者は構文木に基づくフレーズ選択手法において,より長い翻訳時間を要するが,より高い自信度の翻訳結果が得られるという傾向も得られた\footnote{本稿の内容は(三浦,Neubig,Paul,中村2015,2016)および\cite{miura16naacl}で報告されている.}.\nocite{miura15nl12,miura16nlp}
V03N01-04
日本語文章における名詞の指す対象が何であるかを把握することは,高品質の機械翻訳システムを実現するために必要である.例えば,以下の文章中の二つ目の「おじいさん」は前文の「おじいさん」と同じなので翻訳する際には代名詞化するのが望ましい.\begin{equation}\begin{minipage}[h]{10cm}\underline{おじいさん}は地面に腰を下ろしました.\\\underline{Theoldman}satdownontheground.\\[0.1cm]やがて\underline{おじいさん}は眠ってしまいました.\\\underline{He}soonfellasleep.\end{minipage}\label{eqn:ojiisan_jimen_meishi}\end{equation}これを計算機で行なうには,二つの「おじいさん」が同じ「おじいさん」を指示することがわかる必要がある.そこで,本研究では名詞の指示性,修飾語,所有者などの情報を用いて名詞の指示対象を推定する.このとき,指示詞や代名詞やゼロ代名詞の指示対象も推定する.英語のように冠詞がある言語の場合は,それを手がかりにして前方の同一名詞と照応するか否かを判定することができるが,日本語のように冠詞がない言語では二つの名詞が照応関係にあるかどうかを判定することが困難である.これに対して,我々は冠詞に代わるものとして名詞の指示性\cite{match}を研究しており,これを用いて名詞が照応するか否かを判定する.名詞の指示性とは名詞の対象への指示の仕方のことであり,総称名詞,定名詞,不定名詞がある.定名詞,不定名詞はそれぞれ定冠詞,不定冠詞がつく名詞に対応する.総称名詞には定冠詞,不定冠詞のどちらがつくときもある.名詞の指示性が定名詞ならば既出の名詞と照応する可能性があるが,不定名詞ならば既出の名詞と照応しないと判定できる.以上で述べた名詞の指示性の情報だけでは指示対象が異なる二つの名詞の指示対象が同一であると誤る場合がある.この誤りを正すために名詞の修飾語や所有者の情報を用い,より確実に名詞の指示対象の推定を行なう.
V03N04-08
現在,機械による文解析の処理単位としては,形態素が利用されることが多いが,これは,形態素を用いることにより辞書の語数を制限でき,計算機の記憶を経済的に利用できるという利点があるからである.bigramによる解析方式は,文解析や音声認識など様々な分野において高い評価を得ているものの\cite{jeli,naka},文字や形態素を単位としたbigramによる解析は,単位が小さすぎて,文の局所的な性質を解析しているのに過ぎないと考えられる.しかし,trigramや4-gram以上になると,しばしば計算機の記憶容量の限界を超えてしまい,実用的ではない.筆者らは,知覚実験により,人間による文解析には,形態素より長い単位が用いられていることを既に明らかにしている\cite{yoko,yoko0}.従って,人間の場合と同様の長い単位を解析に用いれば,機械においても高い処理効率が得られると期待される.本論文は,このような観点から,bigramの単位として認知単位を用いる方法を提案するものである.形態素より長い単位を解析に用いる方法は,他にもいくつか報告されている.例えば,音声認識の分野において,伊藤らは休止を単位とした解析を行う方法を提案している\cite{ito}.また,テキスト処理において,文法的な解析が難しい発話を処理するために,発話を部分的に構文解析する方法なども提案されている.しかし,これらの解析に用いられている長い単位は,解析の効率化のために便宜上導入されたもので,比較的専用の用途にのみ使用できるものである.人間における文解析処理が複数段階の処理からなると仮定すれば,認知単位はその複数段階の処理において主に単位として利用されていると考えられる.従って,機械における処理を同様に多段に分けて考えるとすれば,認知単位はこの多くの段階において単位として汎用的に利用できることが期待される.機械の処理が,形態素解析,構文解析,意味解析,談話解析からなるとすれば,認知単位を利用することにより構文解析の処理を効率化できることが既に筆者らにより実証されている\cite{yoko0}.本論文では,認知単位を利用することにより形態素解析に相当する処理の効率化を行なう方法を提案し,認知単位の有効性を実証する.
V31N04-02
事前学習済み言語モデル(Pre-trainedLanguageModels;PLM)は自然言語処理領域の基盤資源となっており,事前学習時に獲得した言語理解能力や知識は多種多様な下流タスクに活用されている.PLMは既知の問題に対して,事前学習時に記憶した知識を用いて推論を行うことができるが,未知の問題に対してはPLMの推論能力のみを頼りに推論する必要がある.しかし既存のデータセットを用いてPLMの純粋な推論能力を測ることは難しい.PLMは多種多様なデータを用いて事前学習を行うため,既存の推論能力を測るためのデータセットの情報も\emph{直接的}(下流タスクのデータセットが直接,事前学習用データに含まれている場合)・\emph{間接的}(下流タスクのデータセット自体は直接,事前学習用データに含まれていないが,下流タスクのデータセットの作成の元となったデータなど推論に有益な情報が含まれる場合)に事前学習用データに含まれている場合があり,PLMは事前学習で得た知識を下流タスクの推論時に使用している可能性がある.現に言語モデルの事前学習データに既存データセットがそのまま混入していることが指摘されていたり\cite{magar-schwartz-2022-data,ml-leakage,sainz-etal-2023-nlp},事前学習データに含まれないような専門的な知識を必要とする下流タスクでは汎用的なPLMは正しく推論を行うことができない\cite{wang2023on-robust-domain-specific,jullien-etal-2023-semeval,nair-modani-2023-exploiting}.PLMの推論能力を測るためのいくつかの研究\cite{zhou-etal-2021-rica,wang2021adversarial,zhu2023autokg,zheng2023-vicuna-judging,yu2024kola,laban2023llms,qin-etal-2023-chatgpt}では,それらはPLMの記憶能力の影響を考慮していないため,全く未知の事象に対してのPLMの推論能力は未だ明らかになっていない.PLMの記憶能力についての研究\cite{petroni-etal-2019-language,roberts-etal-2020-much,heinzerling-inui-2021-language,wei2022emergent,carlini2023quantifying-memorize}から,その記憶能力が推論時に有益である一方,事前学習時の記憶はバイアスとして推論に影響を与えたり\cite{bias1,kaneko-etal-2022-debiasing,kaneko-etal-2022-gender,meade-etal-2022-empirical,deshpande-etal-2023-toxicity,feng-etal-2023-pretraining,ladhak-etal-2023-pre},事前学習データに誤りが混入している場合,その誤りが推論結果に出現することがある\cite{dziri-etal-2022-origin,mckenna-etal-2023-sources,hallusination-survey,dziri-etal-2022-faithdial}.このことより,PLMの記憶能力と推論能力は密接に関係しており,記憶能力が推論時に及ぼす影響は大きいと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-4ia1f1.eps}\end{center}\caption{PLMを用いたKGC手法は知識の利用と推論による解決との両側面を有している.}\label{fig:intro}\vspace{-1\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで我々はPLMの純粋な推論能力のみに焦点を当て,未知の事象に対するPLMの推論能力を調査する.本研究での純粋な推論能力とは,下流タスクのテストデータなど,未知の事象に対して,直接的・間接的に獲得した事前学習時の事実的知識を用いずに推論することを指す.未知の事象に対するPLMの推論能力の分析に際して,知識グラフ(KnowledgeGraph;KG)上の既知の関係から欠損している未知の関係を予測するタスクである知識グラフ補完(KnowledgeGraphCompletion;KGC)を対象とする.従来の埋め込みに基づくKGC手法は推論能力のみから欠損箇所を予測する一方,近年利用されているPLMを用いたKGC手法では,図~\ref{fig:intro}に示すように,事前学習時に記憶したエンティティに関する知識も利用している.このようにKGCは記憶した知識の利用と推論による解決との両側面を有することからPLMが記憶した知識の影響を測ることに適したタスクである.しかし既存のKGCデータセット(例:WN18RR\cite{WN18RR},FB15k-237\cite{FB15k-237},Wikidata5m\cite{wang-etal-2021-kepler})はWeb上のデータから作成されているため,事前学習データにKGCデータセット内の関係が直接的・間接的に含まれている可能性がある.図~\ref{fig:intro}の例では,``KyloRen''の``grandfather''は``DarthVader''であるということを知識グラフから推論したいが,PLMは事前学習時に文章として間接的にその事柄に関する知識を獲得しているため,知識の利用を行っている.そのためPLMを用いたKGC手法が,問題を言語モデルの推論能力によって解決したのか,それとも言語モデルの記憶能力により解決したのか定かではない.そこで我々はモデルの記憶能力に対する評価と推論能力に対する評価を切り分けた評価方法及びそのためのデータ構築手法を提案する.この方法ではKGのグラフ構造を保持しつつ,エンティティや関係の表層表現を実際のものとは異なる表現に置換することで,PLMが事前学習で獲得した知識とは異なる環境を作り出す.この処理によってPLMは事前学習時に記憶した知識に頼らず,純粋な推論能力のみを頼りに,エンティティ間のグラフ構造を手がかりにKGCを行う必要が生じるため,言語モデルが持つ推論能力のみを測ることができる.表~\ref{tab:configurations}に我々が構築した疑似データによって評価可能な事象をまとめている.本研究では表~\ref{tab:configurations}に示した疑似データを用いて,PLMの学習過程やモデル構造の違い,事前学習の重みの有無,大規模言語モデルへの適用可能性など含めた,様々な設定下でのモデルの推論結果を分析することで,PLMが事前学習で得たエンティティに関する知識により推論を行っている箇所を明らかにした.またPLMが持つ未知の関係に対する推論能力も同時に事前学習時に獲得していることを示唆する結果も得られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{01table01.tex}%\hangcaption{各設定での利用可能な情報の一覧.各設定で評価を比較することで,どの要素がKGCにおける推論能力に寄与しているか明らかになる.なお\textsc{Base}は元のデータセットによる推論を表す.また,\textsc{VirtualWorld}(\S\ref{sec:shuffle}),\textsc{AnonymizedEntities}(\S\ref{sec:random}),\textsc{InconsistentDescriptions}(\S\ref{sec:shuffle-descriptions}),\textsc{FullyAnonymized}(\S\ref{sec:random-descriptions})はそれぞれ本研究で作成した疑似データでの評価を表す.Pre.とRand.はそれぞれ事前学習で訓練された重みとランダムな値で初期化された重みで比較した場合を意味する.}\label{tab:configurations}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V14N03-03
人は必ずしも流暢に話しているわけではなく,以下の例のように,ときにつっかえながら,ときに無意味とも言える言葉を発しながら,話している.\newcounter{cacocnt}\begin{list}{例\arabic{cacocnt}}{\usecounter{cacocnt}}\item\underline{アッ}しまった\underline{エッ}本当?\item\underline{ド}どうしよう?\underline{アシ}あさってかな?\item\underline{エート}今度の日曜なんですが\underline{アノー}部屋はあいてるでしょうか\end{list}例1の下線部は感動詞(間投詞,interjections),例2は発話の非流暢性(disfluency)の一部であり,例3はその両方のカテゴリーに帰属する話し言葉特有の発話要素である.これらは,近年,人の言語処理を含む内的処理プロセス(mentalprocessing)や心の動きを映し出す「窓」として注目されてきている\cite{定延・田窪,田窪・金水,田中,Clark:02,山根,定延:05,富樫:05}.本研究では,これらを発話に伴う「心的マーカ(mentalmarker)」と捉え,例3のような「フィラー(fillers)」を中心に,「情動的感動詞(affectiveinterjections)」(例1)および「言い差し(途切れ;speechdiscontinuities)」(例2)と対比することで,人の内的処理プロセスとこれらの心的マーカとの対応関係について検討した.\subsection{従来の研究アプローチ}感動詞および非流暢性に焦点をあてた研究アプローチには,大きく分けて言語学的(linguistic)アプローチと言語心理学的(psycholinguistic)アプローチの2つが存在する.前者のアプローチからは,これまで主として,感動詞と感情の関係や感動詞の統語的性質が考察されてきた\cite[など]{田窪・金水,森山:96,土屋,富樫:05}.例えば,\citeA{森山:96}は「ああ」や「わあ」などの情動的感動詞を内発系と遭遇系に分類し,それらがどのような心的操作と対応するかについて詳しく考察した.一方,後者のアプローチからは,人の内的言語処理メカニズムを知るために,途切れや延伸,繰り返し,言い直しなどの非流暢性が研究されてきた\cite[など]{村井,伊藤,田中}\footnote{最近になって,\citeA{定延・中川}が非流暢性の言語学的な制約を分析するという言語学的アプローチによる考察を試みている.}.例えば,\citeA{村井}は,幼児の言語発達における言語障害的発話を分類し,言語発達過程における非流暢性の現れ方について考察した.これら2つのアプローチは,発話要素から人の内的処理メカニズムを探るという目的では類似している.しかしながら,前者は主としてそれぞれの感動詞に対応する心的操作について,後者は主として非流暢性の程度と言語処理メカニズムあるいは言語発達過程との関係について検討してきたため,共通する対象領域をカバーしながらも,それぞれ別の角度から取り組んできたといえる.本研究において中心に取り上げるフィラーは,言語学的には感動詞の一部として\cite{田窪・金水,定延・田窪},言語心理学的には非流暢性の一種である有声休止(filledpause,\cite{Goldman-Eisler,田中})として,双方のアプローチから研究されてきた音声現象である\cite{山根}.フィラーと情動的感動詞,言い差し(途切れ)を同一軸上で比較することで,両研究アプローチからの「切り口」により明らかにされる内的処理プロセスの諸側面をさらに深く理解することにつながると考えられる.以下に,本研究で扱う3つの発話要素(フィラー,情動的感動詞,言い差し)に関する先行研究を概観し,本研究の目的および特色を述べる.\subsubsection{フィラー}Merriam-WebsterOnlineDictionary(http://www.m-w.com/)によると,フィラー(fillers)には「間を埋めるもの」という意味がある.\citeA{Brown}によると,フィラーは主に発話権を維持するために,発話と発話の間を埋めるように発する発話要素とされる\footnote{\citeA{Clark-Tree}や\citeA{水上・山下}は,話し手のフィラーが長い場合,前後のポーズ長も長くなる傾向にあることを示しており,結果として,ポーズだけの場合よりも長く発話権を維持できる.}.この意味に相当する日本語の用語として,「間(場)つなぎ言葉」がある.その他に,無意味語,冗長語,繋ぎの語,遊び言葉,言い淀み,躊躇語など,これまでそれぞれの研究者の視点からさまざまに呼ばれてきている\cite{山根}.本研究では,近年の傾向にしたがい\cite{山根,定延:05},便宜的に,フィラーという名称を用いる.フィラーは,一般に命題内容を持たず,前後の発話を修飾するようなものでもない\cite{野村,山根}.例えば,例3の文からフィラーを除いたとしても,文意には何ら影響しない.そのため,古典的な日本語研究においては,感動詞や応答詞あるいは間投詞の一部として,その用法が取り上げられるにすぎなかった\cite{山根}.しかしながら,近年,言語学的アプローチによる研究により,フィラーのさまざまな機能が注目されるようになってきた.例えば,談話の区切りを表示する「談話標識(discoursemarker\cite{Schiffrin})」の機能\cite{Swerts,Watanabe,野村}や,換言や修正のマーカ\footnote{「渡したペーアノプリント」のように言い直しの前などに出現するフィラーを指す.}としての機能\cite{野村}があげられる.その他にも,``uh''や``ah''などのフィラーが構文理解(parsing)にもうまく利用されることが示されている\cite{Ferreira-Bailey}.また,フィラーは,非流暢性あるいは停滞現象(speechunfluency\cite{田中}),有声休止(filledpause)と呼ばれることもあり,発話上の問題として捉えられてきた側面もある(例えば,\citeA{Hickson}).一方で,1960年代から\citeA{Goldman-Eisler}ら言語心理学者によってさかんに非流暢性が研究されてきた理由の一つは,非流暢性が話し手の言語化に関わる内的処理過程・処理能力を表示するよい指標になり得るからである.注目すべきは,表情や一部の身体動作と共に(例えば,\citeA{Ekman,Ekman-Friesen}),フィラーが話し手の心的状態や態度が外化したものと考えることができる点である\cite{定延・田窪,田窪・金水}.\citeA{定延・田窪}は,フィラーを話し手の心的操作標識と捉え,「エート」と「アノ(ー)」を取り上げて,心的操作モニター機構について考察した.\citeA{定延・田窪}によれば,「エート」は,話し手が計算や検索のために心的演算領域を確保していることを表示し,一方で「アノ(ー)」は,話し手が主に聞き手に対して適切な表現をするために言語編集中であることを表示するとされる.この例以外に,状況によって適さないフィラーや,逆に儀礼的に使われるフィラーも存在する\cite{定延:05}.これらは,フィラーが発話者の心的状態を表示する標識となる一方で,状況や場などの制約を受ける言語学的な側面を持つことを示している.\subsubsection{情動的感動詞}情動的感動詞とは,\citeA{森山:96}が,情動的反応を表す感動詞として分類したものである.\citeA{森山:96}は,泉の比喩を使ったモデルで「アア」のような内から湧き上がってくる感情を表す内発系と,「オヤ」「オット」「ワア」「キャア」などの遭遇系の情動を分類し,それぞれと感情との関係を考察した.また,\citeA{田窪・金水}は,感動詞を,「心的な過程が表情として声に現れたもの」と捉え,特に情報の入出力に関わるものを「入出力制御系」とし,それらを応答,意外・驚き,発見・思い出し,気付かせ・思い出させ,評価中,迷い,嘆息に分類し,それぞれについて考察した\footnote{出力の際の操作に関わるものは「言い淀み系」として,非語彙的形式,語彙的形式(内容計算,形式検索,評価)に分類された.これはほぼフィラーに対応すると考えられる.}.彼らによれば,例えば,感動詞「ア」とは,発見・思い出しの標識であり,「予期されていなかったにも関らず関連性の高い情報の存在を新規に登録したということを表す」ものである.これに対し,近年,\citeA{富樫:05}は,驚きを伝えるとされる「アッ」と「ワッ」を取り上げ,「アッ」の本質は発見や新規情報の登録を示すものではなく,単に「変化点の認識」を示すものであると述べた.さらに\citeA{富樫:05}は,従来考えられてきたような感動詞の伝達的側面を疑問視し,感動詞の本質は感動を含まず,それは聞き手の解釈による効果に過ぎないと述べている.これらの研究は,情動的感動詞が少なくとも話し手の何らかの「心の状態の変化が音声として表出したもの(changeofstatetoken\cite{Heritage})」と考えられることを示している.\subsubsection{言い差し(途切れ)}言い差しとは,反復や言い直しによって途切れた不完全な語断片を指す.本研究では,スラッシュ単位マニュアル\shortcite{Slash-Manual}でタグとして使用されている言い差しの用法に従う\footnote{「ちょっと用事がありまして(参加できません)」のように,重要な部分を省略した用法を「言い差し表現」と言う場合もある.}.言い差しは,言語心理学的な研究の中で,意味処理や調音運動に関連付けて研究されてきた.例えば,\citeA{田中}は,スピーチの停滞現象を反復(「ヒヒトハオドロイタ」),言い直し(「キカイガヘンカコワレタ」),有声休止(フィラー),無声休止(ポーズ)などに分類し,それらが意味処理の過程とどのように関っているのかを実験に基づく考察から詳細に分析した.その結果,意味の処理には,音声を伴わない処理と音声を伴う処理の2つの様相があることが示された.この結果は,従来の考え方が前提としていた,人の発話処理過程において,意味の処理が完了してから音声出力されるという考え方に疑問を投げかけるものであった.つまり,人は考えてから話すのではなく,話しながら考えるという二重処理を行っていることを示す.言い差しとは,一旦,出力されかけた言語表現が並列的に動作する意味処理によって,中断されたものと考えられる.その意味で,言い差しは人の発話に伴う内的処理のプロセスの並列性,階層性を理解する上で,重要な鍵となると考えられている.\subsection{本研究のアプローチ}\subsubsection{3つの発話要素の定義}本研究では,先行研究\cite{山根}を参考に,フィラー,情動的感動詞,言い差しといった3つの発話要素を以下のように定義した.以下の例では,フィラー,情動的感動詞,言い差しに該当する部分をそれぞれカタカナで表記して示す.\\\noindent\textbf{フィラー}\\・それ自身命題内容を持たず,発話文の構成上,排除しても,意味に影響を及ぼさないもので\\\noindent(1)他との応答・修飾・接続関係にないもの\\○「エットソノー3つ目の正方形の」\\×「その角に」\noindent○「普通のモー三角形ですね」\\×「もう少し」\noindent○「コーナンテイウンデスカネ」\\×ジェスチャーを伴って「こう(こんなふうに)」\noindent(2)他との応答関係にあっても逡巡を示すもの\\○質問を受けて「ウーン左側が長いんですよね」\\×「うんそう」\noindent(3)情動的感動詞\cite{森山:96}や言い差し(途切れ)とは異なるもの\\○「エー左だけ書いてから」\\×「えっそれだけ?」(情動的感動詞)\\×「え円を描くように」(言い差し)\vspace{10pt}\noindent\textbf{情動的感動詞}\\・気付き,驚き,意外など,心的状態の変化を表出していると考えられるもの\\「アわかりました」「エ違う?」「アレ?」など\vspace{10pt}\noindent\textbf{言い差し(途切れ)}\\・反復,言い直しなど,言いかけて止めることによって,単語として成立していないもの\\「サさんかく」「フタ三つ目」「ホ(沈黙)」など\vspace{10pt}この定義により,本研究で扱う対話データ(後述)では,以下のようなものがフィラーとして認定された:アー,アノ(ー),アノナ,アノネ,アレ\footnote{フィラーとしての「アレ」は,平坦に短く,低ピッチで発音される.「それはアレ三角関数みたいに」という場合.同様に,代名詞と同表記である,「アノ」,「コノ」,「ソノ」もフィラーの場合には基本的に平坦かつ低ピッチで発音される.},アンナ,ウー,ウーン,ウ(ー)ント(ー),ウ(ー)ントネ,ウ(ー)ントナ,エ(ー),エ(ー)(ッ)ト,エ(ー)(ッ)トネ,エ(ー)(ッ)トナ,エ(ー)(ッ)トデスネ,コー,コノ(ー),ソーデスネ(ー),ソノ(ー),(ッ)ト(ー),(ッ)トネ,(ッ)トナ,ドウイエバイイノカ\footnote{{\kern-0.5zw}「ドウイエバイイノカ」に類するフィラーは,低ピッチで独り言のように発する場合であり,相手に答えを求めて「どう言えばいいんですか?」と問いかけているものではない.「ナンテイエバイイノカ」に類するフィラーも同様.これらが命題内容を持つかどうかについては議論の余地があるが,本研究では,\citeA{山根}において,フィラーとされる「ドウイウカ」「ナンテイウカ」の変形として,これらをフィラーに含めた.},ドウイエバイインダロウ,ドウイッタライイカ,ドウイッタライイノカ,ドウイッタライインデスカネ,ドウセツメイシタライイカ,ドウダロウ,ナンカ,ナンカネ,ナンカナ,ナンテイウカ,ナンテイウノカ,ナンテイウノ,ナンテイウノカナ,ナンテイイマスカ,ナンテイエバ,ナンテイエバイイカ,ナンテイエバイインデスカネ,ナンテイッタライイノカ,ナンテイウンデスカネ,ナンテイッタラインデスカネ,ハー,フーン,マ(ー),モー,ンー,ン(ー)ト,この他,方言による変異と考えられる,アンナー,ソヤネー,ナンチューカ,ナンテイエバイイトなどもフィラーとみなした.また,情動的感動詞としては,以下のものが認定された:ア(ー)(ッ),アレ(ッ),イ(ッ),ウ(ッ),エ(ー)(ッ),オ(ー)(ッ),ハ(ッ),ハイ,ヒ(ッ),ヘ(ッ),(ウ)ン.言い差しについては,不定形のため省略する.\subsubsection{本研究の目的}本研究の目的は,従来の言語学的アプローチと言語心理学的アプローチにより明らかにされてきた発話行為に伴う内的処理について,フィラーを中心に,情動的感動詞,言い差し(途切れ)という心的マーカを指標に検討することにある.対話において内的処理の過程に何らかの問題が発生すると,その内的状態を反映して,話し手,聞き手双方の発話中に,心的マーカが出現する.これらの心的マーカの出現率を分析することで,対応する処理プロセスとの関係を明らかにする.話し手の内的処理プロセスには,思考に関わるもの(検索・記憶操作,計算,類推,話の組み立てなど)と,発話生成に関わるもの(構文調整,音韻調整,単語・表現選択など),聞き手の内的処理プロセスには,発話の理解に関わるもの(構文理解,文脈理解,意味解釈,意図推論など)が考えられる.これらの話し手,聞き手の処理プロセスに,状況の認識に関わる内的処理(場の認識,関係性の認識,話者間の共通知識についての認識,利用可能なモダリティの認識,時間や空間の制約の認識など)が影響を及ぼすことが予想される.つまり,状況の認識が決定されることで,思考や発話のなされ方が変化すると考える.\begin{table}[b]\begin{center}\caption{話し手の内的処理プロセスおよび心的マーカと状況変数との対応}\label{map_speaker}\scriptsize\begin{tabular}{cccccc}\hline\multirow{2}{12mm}{状況変数}&\multirow{2}{24mm}{喚起される主だった状況認識のモード}&主な思考プロセス&主な発話生成プロセス\\&&[主な心的マーカ]&[主な心的マーカ]\\\hline親近性&関係性の認識&説明の組み立て&表現選択\\&(丁寧さの意識)&[フィラー(アノ)]&[フィラー(アノ)]&\\対面性&モダリティの認識&表象の言語化&単語選択\\&(制約の意識)&[フィラー(ナンカ)]&[フィラー(アノ)]\\難易度&必要な処理の認識&記憶・検索操作,説明方略&単語選択,文構成\\&(必要操作への意識)&[フィラー(エート,ソノ),情動的感動詞]&[フィラー(アノ),言い差し]\\\hline\end{tabular}\end{center}\end{table}そこで本研究では,発話の言語化に関わる内的処理プロセスに影響を及ぼすと想定される3つの状況変数(親近性,対面性,課題難易度)が操作され,話し手の内的処理プロセスが状況変数の影響をどのように受け,また聞き手の理解に影響するかどうかが検討された.本研究で操作される変数以外にも,状況変数としては性別差や年齢差などが考えられる.それらと比較して,親近性,対面性,課題難易度は,それぞれ,社会性,伝達手段,処理の複雑さといった異種の認識モードを必要とし,発話の言語化に関わる内的処理プロセスにも異なる影響を及ぼすと考えられた.本研究で想定された話し手の内的プロセス(思考と発話生成のプロセス)および心的マーカと状況変数の関係が,表\ref{map_speaker}に示される.具体的には,親近性の場合,対話の相手が友人か初対面の人であるかという関係性の認識によって,丁寧さへの意識が変化し,発話生成のための言葉選びや言い回しが変化する.つまり,初対面の人に説明する場合には,思考プロセスにおいて丁寧な説明のための発話の組み立てに負荷が,発話生成プロセスにおいては,発話表現の選択に負荷がかかることが予想される.次に,対面性の場合,相手と対面して対話するかどうかという利用可能なモダリティの認識によって,表現方法への制約が意識される.つまり,非対面の場合に,思考プロセスにおいては形状の表象への変換に負荷が,そして発話生成プロセスでは説明のための単語や表現の選択に負荷がかかるだろう.最後に,難易度の場合,説明内容が難しく,必要な処理操作が増加するという認識によって,記憶や対象への注意などの必要操作への意識が高まる.つまり,思考プロセスにおいては記憶操作や単語検索,対象把握や文の組み立てなどに,発話生成プロセスではどのような言語表現を使い,いかに発話の整合性を保つかという単語選択や文構成に負荷がかかるであろう.リアルタイムに処理可能な情報量に限界のある話し手にとって,特定の発話プロセスに負荷がかかると,その状態を表示するさまざまな心的マーカが外化することが予想される.例えば,先行研究からの予測として,単語や表現の検索・選択への負荷の増加は,「エート」や「アノ(ー)」などのフィラーの増加として表出するであろう.その他,「ナンカ」は,具現化できない何かを模索中であることの標識であり,表象の言語化過程に表出しやすいであろうし,「ソノ」は,すぐに具現化できない内容が思考プロセスに存在していることを示すとされ\cite{山根},言葉を掘り起こす負荷の高い場合に表出されやすいであろう.また,並列的に処理される思考プロセスと発話生成プロセスに同時に負荷がかかる場合,例えば,発話を始めてから言い間違いに気付いて,言い直す場合には,言い差しが表出することが予想される.一方,「ア」や「エ」などの情動的感動詞の場合には,上記の負荷の影響は間接的であり,例えば,説明しにくい(相手にも理解しにくい)対象を説明する場合に,自分が今行っている説明の仕方よりもさらによい説明の仕方を思いついたときや,説明の不備に気がついたときに表出される機会が増加することが予想される\footnote{ここでは,話し手の発話プロセスについて言及しているが,「ア」などの情動的感動詞は,理解や発見の表示として表出する場合が多く,聞き手の応答時に現れやすい(例えば,「ア,はいはいはい」).}.以上から,3つの状況変数は以下のような心的マーカの出現率の差として現れることが予測される.1)親近性が低いと,表現選択に関するフィラー出現率が高まり,2)対面性がないと,表象の言語化や単語選択に関するフィラー出現率が高まり,3)難易度が高いと,記憶・検索操作に関するフィラー出現率,情動的感動詞出現率,言い差し出現率のすべてが高まる.また,本研究では,状況による心的マーカの現れ方を検討するため,統制された実験環境において,課題遂行型の対話である図形説明課題対話を収録,分析した.先行研究では,自然な対話収録を目的とし,自由対話を課題とするものが多く,例えば,会話分析のような社会学的手法においては日常会話が主として扱われてきた\cite{好井}.しかし,本研究で用いる図形説明課題対話は,提示された図形を説明する説明者役と,説明を受けて理解し,選択肢を答える回答者役に分かれて行う課題であり,役割の非対称性(話し手/聞き手)と情報の非対称性(説明者≫回答者)を特徴としている\footnote{ただし,回答者には,説明者に対して質問することを許可しており,局所的には話し手/聞き手が逆転する場合がある.}.役割の非対称性がある対話として,インタビュー対話\shortcite[など]{CSJ}があげられるが,ここでは,聞き手であるインタビュアの会話進行能力や質問の仕方に依存し,発話量のバランスや難易度の統制が困難である.また,本研究での課題と同様に,協同作業型課題遂行対話である地図課題対話\shortcite{堀内-99}では,説明者役と回答者役の間の情報の非対称性が完全ではない(回答者にも手がかりがある).図形説明課題を使用することで,説明者側の内的処理プロセスは,説明のための言語化に係わる処理プロセスが主となり,回答者側の内的処理プロセスは,理解に係わる処理プロセスが主となると切り分けて検討できる利点を有する.
V23N05-04
文書間類似度がはかるものとして「伝える内容の一致」(内容一致)だけでなく「伝える表現の一致」(表現一致)がある.文書間類似度は自動要約や機械翻訳ではシステム出力の内容評価を行うために参照要約(翻訳)との差異を評価する指標として用いられる.一方,文書間類似度は表現の差異を評価することを目的としてテキストの文体の計量比較にも用いられる.本稿では,文書間類似度の数理的構造の説明し,様々な内容もしくは文体が同じであることが想定されるテキストを用いて,各計量の特性について検討する\modified{.}\cite{nanba-hirao-2008-JSAI-journal}は2008年時点での自動要約の評価指標についての評価をまとめている.2008年以降に提案された語順を考慮した内容評価のための指標を含めて,語順に対する順序尺度を含めた距離空間・類似度・カーネル・相関係数などの尺度を用いて,数理的構造について整理する.具体的には,一致部分文字列による尺度・一致部分列による尺度・ベクトル型順序尺度・編集型順序尺度の四つに分類し議論する.これらの四つの尺度に基づき,内容一致(内容の同一性)と表現一致(文体の類似性)の観点から,言語生産過程の多様性を評価する.複数人が同一課題を実施した場合の各評価尺度の分散や,同一人が同一課題を繰り返し実施した場合の各評価尺度の分散などを検討する.生産過程においては口述・筆術・タイプ入力の三種類について評価し,課題においては要約・語釈・再話について評価する.要約は長い文書を同等の内容で短く言い換えることを目的とする言語生産過程であるが,語釈は短い単語が指し示す意味と同等の内容を長く言い換えることを目的とする言語生産過程であることから,要約は語釈の逆写像の一般化ととらえることができる.また,再話は長い文書を再度同等の内容でそのまま提示することを目的とする言語生産過程であることから,要約の一般化であるととらえることができる.この評価を通して,四つの指標における差異がどのような生産過程の差異に現れるのかを調査する.また同一言語生産課題に対する生成物の多様性についても議論する.表現一致をつかさどるものとして,情報の提示順序を含む修辞法(rhetoric)・使用域(register)や位相(phase)\footnote{ここでは「使用域」と「位相」は数学の用途ではなく文体論の用語として用いている.}に内在する文体・個人に内在する文体などが考えられる.要約を評価するにあたり,内容一致は重要であると考えるが,表現一致はどの程度重要であるのだろうか.さらにこれらはどの評価尺度に表出するのだろうか.対照比較を介して,各言語生産過程に共通のふるまいを示す評価尺度と課題に特有のふるまいを示す評価尺度について調査する.\modified{自動要約評価のための参照文書は一般に口述筆記の専門家や記者経験者などにより作成され,統制された少数のものが提供される.自動翻訳評価においても職業翻訳家等により限られた数の参照文書が作成される.統制は距離空間上の凸問題として課題を設定し,その課題設定の枠組内で評価したい工学研究者の都合で行われているものである.さらに,工学研究者は参照文書の差異がユークリッド距離空間上に規定され,文書間類似度で比較可能なレベルで統制できうるものだと考えているきらいがある.一方,文書を介したコミュニケーションにおいて,言語生産者ではない者による受容過程は統制されるものではなく,複数の受容者間で共有されるものではない.一人の受容者においても時間的経過などで統制できるものでもない.本稿では,人間の要約作成時の不安定な言語受容過程\footnote{ここで言語受容過程とは,要約作成時に元文書を読む過程のことを指す.}において文書の重要箇所選択がどの程度ゆれるものなのかを評価するとともに,そのゆれは評価指標を構成するどの尺度に表れるのかを調査する.この調査を通して,本来誤りでないものが課題設定の時点で誤りになっている可能性があるという実態を明らかにする.}本稿の貢献は以下のとおりである:\begin{itemize}\item既存の文書要約や機械翻訳の自動評価に利用される評価指標と,距離空間・類似度・カーネル空間・順序尺度・相関係数などの尺度との関係を整理\modified{した}\item同一課題について複数人の言語生産者間で生成される文書のゆれを定量的に評価\modified{した}\item課題ごとに同一人の言語生産者の課題試行間で生成される文書のゆれを定量的に評価\modified{した}\item上に述べたゆれの評価に基づき,内容評価と表現評価の尺度上のふるまいの\modified{不安定さを明らかにした}\end{itemize}尚,本稿では,「評価指標」と「尺度」を区別して用いる.自動要約や機械翻訳ではシステム出力の内容評価を行うためのROUGEやBLEUなど広く知られているものを表す際に「評価指標」と呼び,「評価指標」を構成する距離空間・類似度・カーネル・相関係数などを「尺度」と呼ぶ.「評価指標」が単一の「尺度」から構成されることもあり,「評価指標」=「尺度」である場合もある.以下,\ref{sec:sim}節では既存の自動評価指標を距離・類似度・カーネル・順序尺度・相関係数により説明することで,文書間類似度を四つに分類し整理する.3節では尺度を適用して比較するさまざまな言語生成過程を記録した言語資源について説明する.4節では評価尺度の定性的な評価について示す.5節にまとめと今後の研究の方向性について示す.
V22N05-01
ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}は自然言語処理(NLP)の様々なタスクの横断的な誤り分析により,今後のNLPで必要となる技術を明らかにしようとするプロジェクトである.プロジェクトでは誤り分析の対象のタスクが18個設定され,「語義曖昧性解消」はその中の1つである.プロジェクトではタスク毎にチームが形成され,チーム単位でタスクの誤り分析を行った.本論文では,我々のチーム(「語義曖昧性解消」のチーム)で行われた語義曖昧性解消の誤り分析について述べる.特に,誤り分析の初期の段階で必要となる誤り原因のタイプ分けに対して,我々がとったアプローチと作成できた誤り原因のタイプ分類について述べる.なお本論文では複数の誤り原因が同じと考えられる事例をグループ化し,各グループにタイプ名を付ける処理を「誤り原因のタイプ分け」と呼び,その結果作成できたタイプ名の一覧を「誤り原因のタイプ分類」と呼ぶことにする.誤り分析を行う場合,(1)分析対象のデータを定める,(2)その分析対象データを各人が分析する,(3)各人の分析結果を統合し,各人が同意できる誤り原因のタイプ分類を作成する,という手順が必要である.我々もこの手順で誤り分析を行ったが,各人の分析結果を統合することが予想以上に負荷の高い作業であった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない.しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため,名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった.そこで我々は「各人が同意できる誤り原因のタイプ分類」を各分析者のどの誤り原因のタイプ分類とも類似している誤り原因のタイプ分類であると考え,この統合をある程度機械的に行うために,各自が設定した誤り原因をクラスタリングすることを試みた.また,本論文では「各分析者のどのタイプ分類とも類似している」ことに対し,「代表」という用語を用いることにした.つまり,我々が設定した目標は「各分析者の誤り原因のタイプ分類を代表する誤り原因のタイプ分類の作成」である.クラスタリングを行っても,目標とするタイプ分類を自動で作成できるわけではないが,ある程度共通している誤り原因を特定でき,それらを元にクラスタリング結果を調整することで目標とする誤り原因のタイプ分類が作成できると考えた.具体的には,各自の設定した誤り原因を対応する事例を用いてベクトル化し,それらのクラスタリングを行った.そのクラスタリング結果から統合版の誤り原因を設定し,クラスタリング結果の微調整によって最終的に9種類の誤り原因を持つ統合版の誤り原因のタイプ分類を作成した.この9種類の中の主要な3つの誤り原因により,語義曖昧性解消の誤りの9割が生じていることが判明した.考察では誤り原因のタイプ分類間の類似度を定義することで,各分析者の作成した誤り原因のタイプ分類と統合して作成した誤り原因のタイプ分類が,各分析者の視点から似ていることを確認した.これは作成した誤り原因のタイプ分類が分析者7名のタイプ分類を代表していることを示している.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.
V10N03-04
本論文では,Nigamらによって提案されたEMアルゴリズムを利用した教師なし学習の手法\cite{nigam00}を,SENSEVAL2の日本語翻訳タスク\cite{sen2}で出題された名詞の語義の曖昧性解消問題に適用する.その結果,通常の教師付き学習で得られる分類規則の精度を向上させ得ることを示す.自然言語処理では個々の問題を分類問題として定式化し,帰納学習の手法を利用して,その問題を解決するというアプローチが大きな成功をおさめている.しかしこのアプローチには帰納学習で必要とされる訓練データを用意しなければならないという大きな問題がある.この問題に対して,近年,少量のラベル付き訓練データから得られる分類器の精度を,大量のラベルなし訓練データによって高めてゆく教師なし学習が散見される.代表的な手法として,Co-training\cite{blum98}と,EMアルゴリズムを利用した手法\cite{nigam00}がある.Co-trainingは2つの独立した属性AとBを設定し,一方の属性Aから構築される分類器を利用して,ラベルなしデータにラベル(クラス)を付与する.その中から信頼性のあるラベルが付与されたデータをラベル付き訓練データに加える.このようにして追加されたラベル付き訓練データは,もう一方の属性Bから見るとランダムなサンプルにラベル付けされたデータとして振る舞うので,属性Bから構築される分類器の精度が高まる.これをお互いに作用し合うことで,分類器の精度が高められる.一方,EMアルゴリズムは,部分的に欠損値のある不完全な観測データ\(x_1,x_2,\cdots,x_N\)から,そのデータを発生する確率モデル\(P_{\theta}(x)\)を推定する手法である.\(P_{\theta}(x)\)は未知パラメータ\(\theta\)を含み,\(P_{\theta}(x)\)の推定は,\(\theta\)の推定に帰着される.分類問題の教師なし学習では,ラベル付き訓練データが完全な観測データ,ラベルなし訓練データがラベルを欠損値とした不完全な観測データとなる.EMアルゴリズムは,現時点での\(\theta\)を使って,モデル\(P_{\theta}(c|x_i)\)のもとでの\(\logP_{\hat{\theta}}(x_i,c)\)の期待値を取る(E-step).次に,この期待値を最大にするような\(\hat{\theta}\)を求める(M-Step).\(\hat{\theta}\)を新たな\(\theta\)として先のE-stepとM-stepを繰り返す.ここで\(c\)は欠損値となるラベルである.EMアルゴリズムはパラメータ\(\theta\)とモデル\(P_\theta(x)\)を適切に設定することで,隠れマルコフモデルや文脈自由文法のパラメータ推定,あるいは名詞と動詞間の関係クラスの教師なし学習\cite{rooth}\cite{torisawa}などに利用できる.そして,Nigamらは文書分類を題材にモデル\(P_\theta(x)\)をNaiveBayesのモデル,\(\theta\)をラベル\(c\)のもとで素性\(f\)が起る条件付き確率\(p(f|c)\)に設定することで,教師なし学習を試みている\cite{nigam00}.NigamらのEMアルゴリズムを利用した手法やCo-trainingは,どちらも本来は文書分類に対して考案されており,多義語の曖昧性解消に利用できるかどうかは明らかではない.多義語の曖昧性解消は自然言語処理の中心的な課題であり,これらの手法が適用できることが望ましい.ここではSENSEVAL2の日本語翻訳タスクで出題された名詞を題材に,EMアルゴリズムを利用した教師なし学習の手法が名詞の語義の曖昧性解消に適用可能であることを示す.翻訳タスクの出題形式はある単語\(w\)がマークされた(日本語)文書である.翻訳タスクでは予め,単語\(w\)に関するTranslationMemory(以下TMと略す)と呼ばれる日英の対訳例文の集合が解答者に配られている.そして翻訳タスクの解答形式は,出題された文書内において注目する単語\(w\)を英訳する際に利用できるTMの例文番号である\footnote{厳密には,翻訳システムも参加できるように,英訳自身を返す解答形式も認められているが,ここでは例文番号を返す解答形式のみを考える.}.つまり,翻訳タスクは単語\(w\)の訳を語義と考えた多義語の曖昧性解消問題となっている.また同時に,翻訳タスクはTMの例文番号をクラスと考えた場合の分類問題として扱える.ここで注意すべきは,翻訳タスクは訓練データを作るのが困難な点である.TMは1つの単語に対して平均して21.6例文がある.今仮にある単語\(w\)の例文として\(id_1\)から\(id_{20}\)までの20例文がTMに記載されていたとする.新たに訓練データを作成する場合,単語\(w\)を含む新たな文を持ってきて,\(id_1\)から\(id_{20}\)のどれか1つのラベルを与える必要がある.〇か×かの二者択一は比較的容易であるが,20個のラベルの中から最も適切な1つを選ぶのは非常に負荷のかかる作業である.このように,翻訳タスクは訓練データを新たに作るのが困難であるために,教師なし学習を適用する格好のタスクになっている.実験ではSENSEVAL2の日本語翻訳タスクで出題された全名詞20単語を用いて,本手法の評価を行う.各単語に対して,平均70事例(TMの例文も含む)からなるラベル付き訓練データと,新聞記事1年分から取り出した平均3,354事例からなるラベルなし訓練データを作成し,本手法を適用した.ラベル付き訓練データだけから学習できた決定リストの正解率は58.9\,\%(コンテストでのIbarakiの成績)であり,NaiveBayesによる分類器の正解率は58.2\,\%であった.そして本手法を用いてNaiveBayesによる分類器の精度を高めた結果61.8\,\%まで改善された.また一部,訓練データの不具合を修正することで,NaiveBayesによる分類器の正解率を62.3\,\%,決定リストでの正解率を63.2\,\%に向上できた.更に,本手法を用いてNaiveBayesによる分類器の正解率(62.3\,\%)を68.2\,\%まで高めることができた.
V17N04-02
\label{sec:intro}今日,Webからユーザーの望む情報を得る手段としてGoogleなどのサーチエンジンが一般的に利用される.しかし,ユーザーの検索要求に合致しないWebページも多数表示されるため,各ページがユーザーの望む情報を含むかどうかを判断するのに時間と労力を割かなければならない.このような負担を軽減するための検索支援手法として,検索結果をクラスタに分類して表示するWeb文書クラスタリングが挙げられる.Webページのクラスタリング手法として,WebページのHTMLタグの構造\cite{Orihara08}やWebページ間のリンク関係\cite{Ohno06,Wang02}などWebページに特有の情報を用いた手法も提案されているが,Webページの内容(Webページに含まれるテキスト・文章)に基づく手法が一般的であり,多くの手法が提案されている\cite<e.g.,>{Eguchi99,Ferragina05,Hearst96,Hirao06,Narita03,Zamir98}.Webページの内容に基づくクラスタリング手法は,{\bfWebページ間の類似度に基づく手法}と{\bf共通する語句に基づく手法}に大別できる\cite{Fung03}.前者は,ベクトル空間モデルなどを用いて各文書間の(非)類似度を計算し,k-means法などのクラスタリングアルゴリズムを適用する手法である.例えば,最初のWebページクラスタリングシステムと言われているScatter/Gather\cite{Hearst96}や江口らのシステム\cite{Eguchi99}はこの手法を用いている.類似度に基づく手法は文書クラスタリング手法として広く用いられている\cite{Kishida03}が,実時間性が要求される検索結果のクラスタリングにはあまり適していない.Webページ間の類似度を適切に計算するためには,Webページそのものを取得する必要があるが,その取得時間がかかるとともに,文書規模が大きくなると類似度計算にも時間がかかる.よって,サーチエンジンの検索結果をクラスタリングする手法として,Webページ(スニペット)集合に共通して出現する語句に基づく手法が多く用いられている\cite{Ferragina05,Fung03,Hirao06,Narita03,Zamir98}.この手法では,検索結果として得られるページタイトルやスニペットから何らかの方法を用いて基準となる語句を抽出し,それらの語句を含む文書集合をひとつのクラスタとする.一般的に,ひとつのWebページ(スニペット)には複数の頻出語句が含まれるため,この手法は本質的に非排他的なクラスタリング(ひとつの文書を複数のクラスタに割り振ることを許すクラスタリング)を行うことになる.この手法は,タイトルやスニペットの情報のみを用いるために情報の取得時間が短く,文書間の類似度を計算する必要がないために処理時間も短く,ノイズとなる単語が混ざりにくいなどの利点がある.さらに,\citeA{Zamir98}は,スニペットのみの情報を用いたクラスタリングの性能はWebページ全体を用いる場合に比べて遜色ないこと,共通語句に基づくクラスタリング手法がWebページ間の類似度に基づく手法よりも高性能であることを実験的に示している.共通語句に基づく手法で重要となるのが,クラスタのベースとなる語句の抽出手法である.既存研究では,文書頻度\cite{Hirao06,Osinski05,Zamir98},tfidf\cite{Ferragina05,Zeng04},検索結果のランキング\cite{Narita03},語句の長さ\cite{Zamir98,Zeng04}などの情報を用いて語句をランク付けし,上位の語句を選択するという手法が用いられている.しかし,この抽出方法では語句間の意味的な類似関係を考慮していないので,クラスタのベースとなる語句どうしが類似した話題を表していると,同じ文書を多く含む類似したクラスタを出力してしまうという欠点がある.特に,検索結果のWebページ集合には共通する話題が多いことを考えると,この問題点は深刻である.抽出語句からクラスタを作成した後に重複の大きいクラスタをマージする手法\cite<e.g.,>{Zamir98}も考えられているが,話題が似ているからクラスタが重複する場合(ひとつのクラスタとすべきである場合)と,複数の異なる話題が共通しているから重複する場合(別々のクラスタにすべきである場合)かの区別はできない.この問題に対して,本研究では,語句間の意味関係を考慮してクラスタのベースとなる語句を選択することによって,類似したクラスタをできるだけ出力せずにWebページを分類できると考える.さらに,作成されるクラスタに含まれる文書数はその語句の文書頻度と同じであるため,文書頻度が低い語句が重要語として多く選択される場合には,どのクラスタにも属さない文書の数が多くなってしまう.そこで抽出語句を基準にWebページ集合に含まれる単語のクラスタを作成し,単語グループから文書クラスタを作成することによって,どのクラスタにも属さないWebページを減らすことができると考えられる.本論文では,以上の考え方に基づいて,検索結果のスニペットとタイトルから互いに話題が類似しない重要語を抽出し,それらを核とした単語グループを生成し,単語グループに基づいてWebページをクラスタリングする手法を提案する.そして,実際に人手で分類したWebページ群を用いて従来手法(語句間の類似度を考慮しない方法)との比較評価を行い,本手法のほうがクラスタリング性能が高く,かつ類似したクラスタを生成してしまうという従来手法の問題点が解消できることを示す.
V13N03-09
\label{sec:hajimeni}\subsection{背景}インターネットの普及により,インターネット上に膨大でかつ多種多様なテキスト情報が蓄積されるようになって久しい.インターネット上の膨大なテキスト情報を扱うための技術として,テキスト検索,自動要約,質問応答等さまざまな知的情報アクセス技術に関する研究が活発化しているが,同様にインターネット上の多様なテキスト情報のうち,これまであまり研究対象とされてこなかったものを扱うための技術も研究が活発化してきている.これまで研究対象とされてきたテキスト情報は,新聞記事,学術論文に代表されるように,事実を記述するものがほとんどであった.それに対し,チャット,Web掲示板,Weblog等の普及,利用者の増大に示されるように,インターネット上では,一般の個人が手軽に情報発信できる環境が整うとともに,個人の発信する情報に,ある対象に関するその人の評価等,個人の意見が多数記述されるようになってきている.この個人の評価に関する情報(\textbf{評価情報})をテキスト中から抽出し,整理し,提示することは,対象の提供者である企業やサイト運営者,また,対象を利用する立場の一般の人々双方にとって利点となる.このため,自然言語処理の分野では,近年急速に評価情報を扱う研究が活発化している.2004年春にはAAAIのシンポジウムとして評価情報を扱う最初の会議が開催された\cite{aaai2004a}.国内でも,2004年度の言語処理学会年次大会では,評価情報の抽出に関連する研究報告が数多く見られた.そこで本解説論文では,テキストから評価情報を発見,抽出および整理,集約する技術について,その基盤となる研究から最近の研究までを概説することを目的とする.上述したように,この研究領域ではここ数年で爆発的に研究が増大しているが,それらの研究を体系的に整理,概説する解説論文はいまだなく,研究の現状,あるいは今後の方向性を見極めるのに研究者が苦労しているのが現状である.本解説論文がその一助となれば幸いである.\subsection{テキスト評価分析とは?--本論文で扱う問題領域--}個人の記述する「意見」と言われるものにはさまざまなものが存在する.意見を下位分類するなら,少なくとも以下のようなものがその範疇に含まれることになる.\begin{itemize}\item評価を記述するもの,\item要望,要求,提案の表明,\item不安,懸念,不満,満足等の感情を表すもの,\item認識,印象を述べるもの,\item賛否の表明.\end{itemize}本解説論文では,このうち「評価を記述するもの」を対象とする研究を主に扱う.この分野でのこれまでの研究の多くは,以下の問題を解いているという風に要約できる:\begin{quote}\tab{example1}のような,ある対象の評価を記述しているテキスト断片に対して,その評価が,肯定的な評価(たとえば「良い」)であるか,あるいは,否定的な評価(例えば「悪い」)であるかを推定する.\end{quote}本稿では,このような評価に関する分析を{\bfテキスト評価分析}と呼び,{\bfテキスト評価分析}を取り巻く諸研究の現状を紹介する.この問題は,もう少し具体的には,肯定的な評価/否定的な評価の2値分類として定式化されることが多い.また,問題は,テキスト断片の粒度によって,次の3つに大別できる.\begin{itemize}\item語句レベル\item文レベル\item文書レベル\end{itemize}例えば,\tab{example1}は文レベルでの2値分類である.言うまでもなく,このテキスト断片の粒度ごとに問題の性質は大きく異なる.それぞれの詳細については,\sec{aa}で述べる.\begin{table}[t]\begin{center}\caption{評価を伴うテキスト例}\label{tab:example1}\cite{morinaga2002a}中のTable1から一部を抜粋して再録.\input{tab-example1.tex}\end{center}\end{table}\subsection{用語の整理}背景思想の違いの影響などもあり,テキスト評価分析で利用される用語は各研究者間で統一されているとは言い難い.そのため,しばしば同一概念が論文間において異なった用語で参照されている.本稿では,個人の評価に関する情報を\textbf{評価情報},評価情報の良い/悪いに関する軸を\textbf{評価極性}と呼ぶ.ある評価情報が良い評価をもつことを\textbf{肯定極性}をもつと呼び,逆に悪い評価をもつことを\textbf{否定極性}をもつと呼ぶ.また,肯定極性か否定極性をもつ評価情報がテキスト内で記述された表現を\textbf{評価表現}と呼ぶ.\tab{yougo}に,本稿での用語に対応する,紹介論文において使用される代表的な用語を示す.\tab{yougo}の\textbf{評価極性値}とは,肯定極性と否定極性の間を連続的に捉え,各評価極性の強さを数値化したものである.評価極性値は,[-1,1]の範囲の実数値として与え,正側が肯定極性,負側が否定極性に割り当てられることが多い.\begin{table}[b]\begin{center}\caption{用語の対応}\label{tab:yougo}\begin{tabular}{c|l}\hline\hline本稿での用語&紹介論文において使用される代表的な表現\\\hline{\bf評価情報}&sentiments,~~affectpartsofopinions,~~reputation,~~評判\\{\bf評価極性}&semanticorientations,~~polarity,~~sentimentpolarity\\{\bf肯定極性(肯定)}&positive,~~thumbsup,~~favorable,~~desirable,~~好評\\{\bf否定極性(否定)}&negative,~~thumbsdown,~~unfavorable,~~undesirable,~~不評\\{\bf評価極性値}&semanticorientationscore,~~SO-score\\{\bf評価表現}&sentimentexpression,~~wordwithsentimentpolarity\\\hline\end{tabular}\end{center}\end{table}\subsection{本論文の構成}本論文の構成は以下の通りである.まず,\sec{daizai}では,テキスト評価分析の題材となるテキストデータについて述べる.\sec{aa}では,テキスト評価分析を支える各要素技術に関する諸研究を紹介する.続く\sec{appl}では,テキスト評価分析の応用研究を紹介し,\sec{kanren}で,テキスト評価分析に関連するその他の話題を紹介する.最後に,\sec{kadai}で,テキスト評価分析で今後取り扱うべき課題を述べ,\sec{owarini}で本論文をまとめる.
V28N02-08
入力文を単語の系列へと変換する単語分割は自然言語処理における重要な処理である.中国語や日本語のように単語境界をスペースなどで明示しない言語を処理する場合は,一般的に入力となる自然文を単語列へと分割する必要がある.また英語のようにスペースで単語区切りを明示する言語であっても,単語よりも小さい適切な単位に再分割を行うことがタスクを解く上で重要である\cite{peng2015named,peng2016improving,sennrich2016neural,he2017f,pranav20202kenize,bollegala2020language}.従来の自然言語処理において単語分割は,モデルの学習の前に行い,学習を通して変更されることがない不可逆的な前処理として行われてきた.%%%%図\ref{fgr:core_idea}\subref{fgr:core_idea_a}に示すように,図\ref{fgr:core_idea}(a)に示すように,学習済みの単語分割モデルを用いて入力文を単語列へと変換し,これを後段タスクを解くためのモデル(後段モデル)へと入力するという処理過程が一般的である.この単語分割では,学習済みの単語分割モデルに基づいて入力文を尤もらしい単語列へと分割する.しかし,そのようにして得られた単語分割が後段タスクを解く上で有効であるかは不明であり,実際にその単語分割を用いて学習した後段モデルの性能を比較してみなければ単語分割の評価はできない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-2ia7f1.pdf}\end{center}%%%%\label{fgr:core_idea_a}%%%%\label{fgr:core_idea_b}\hangcaption{自然言語処理における(a)従来の不可逆な単語分割と,(b)本稿で提案する後段タスクに対して単語分割を最適化する手法の概要.提案手法は後段タスクの学習損失値を用いて,後段タスクの性能が向上するような単語分割が得られるように単語分割モデルを直接最適化する.}\label{fgr:core_idea}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%近年の研究では,単語分割をサンプリングし,様々な単語分割を用いて後段タスクを学習することで,後段モデルの性能が向上することが示されている\cite{kudo2018subword,hiraoka2019stochastic,provilkov2019bpe}.このような方策は未知語や表記揺れに頑健な後段モデルを作成するという点において優れているが,後段タスクそのものに単語分割を最適化するという点については考慮されていない.後段タスクに適した単語分割が獲得できれば,後段モデルの性能のさらなる向上が得られると期待される.また,複数の単語分割の候補を同時に使用することで,単語分割に起因する後段タスクの性能低下を防ぐ方法も提案されている\cite{chen2017dag,zhang2018chinese,yang2018subword}.この方法では,LSTM\cite{hochreiter1997long}をベースとした機構を用いて,入力文について可能なあらゆる単語分割を考慮しながら文ベクトルを計算する.この方法は単語分割の失敗が後段タスクへ伝搬することを防ぐことができるが,可能なあらゆる単語分割について毎回計算を行う必要があるため計算コストが大きい.これまでのアプローチとは異なり,本研究では後段タスクを学習するために適切な単語分割を,後段タスクの学習と同時に自動で獲得することを目的とする.%%%%本稿では図\ref{fgr:core_idea}\subref{fgr:core_idea_b}に示すように,本稿では図\ref{fgr:core_idea}(b)に示すように,後段タスクとそれを学習する後段モデルに基づいて単語分割モデルを最適化する新たな手法を提案する.提案手法は,入力文の複数の単語分割候補を用いて文ベクトルを作成し,後段モデルへと入力する.後段モデルの学習損失値が下がるように単語分割モデルを更新することで,単語分割モデルは後段タスクを解くために有用な単語分割候補を出力するように学習される.提案手法は,入力文を文ベクトルへと変換して利用する様々なタスクに利用することが可能である.本稿では中国語,日本語,英語における文書分類の複数タスクで実験を行い,提案手法の有効性を確認した.さらに,提案手法は大規模コーパスで事前学習を行ったエンコーダーに対しても適用可能であることを示す.様々なタスクで性能の向上が報告されている事前学習済みエンコーダーであるBERT\cite{devlin2018bert}に対して提案手法を適用し,その性能が向上することを実験により示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V04N03-03
\label{sec:intro}近年,膨大な電子化された情報の中から必要な情報を検索する技術の必要性が高まっている.インターネットの爆発的な普及に伴って,ユーザが求める情報を持つwwwサーバを検索するシステムが,実際,数多く出現してきている.しかし,これらの検索システムのほとんどは,ユーザが入力した検索キーワードそのものを含むテキスト(に対応したwwwサーバ)を検索するシステムである.検索キーワードに意味的に類似している単語まで考慮した\footnote{単に,キーワードを同義語・類義語のリストを使って展開する従来手法では,不十分であり,類似の度合に従って文書を整列させて上位のものだけユーザに提示出来なくてはならない.キーワード「画家」に対して,同義語「画伯」や類義語「イラストレーター」,「デザイナー」や上位概念である「絵描き」,「芸術家」などまでも含むものを検索し,類似度順に出力することが望まれる.}検索(以下,類似検索と呼ぶ)は出来ない.一方,シソーラスに基づく意味的類似性を使った,翻訳,解析,文書検索などの研究が行なわれてきている.ただ,これらの先行研究には(1)シソーラスの階層構造が平衡していると仮定しているという問題と(2)単語の多義性の解消を行なっていないという問題があった.本論文では,階層構造が平衡していないシソーラスにも適用できる,より一般的な単語間の意味的類似度を提案する.本提案では各単語が担う概念間の最下位共通上位概念が有する下位概念の総数が少ないほど,単語間の類似度が大きくなる.筆者らは,この意味的類似度と大規模シソーラスの一つであるEDRシソーラスを使って,類似検索システムを実装した.さらに,精度を向上させるために,単語の多義解消手法をこの検索システムに導入した.本類似検索システムは,単語間の物理的近さと単語の重要度を用いた拡張論理型の従来システムに基づいている.この従来システムとの比較実験を行ない,意味的類似性と多義解消を用いた提案の類似検索手法\footnote{本手法では,類義語を検索可能にすることによって再現率を上げ,その範囲内で,多義によるノイズを排除し適合率を上げることを目指している.さらに再現率を重視する場合には関連語まで含めて検索することが必要と考えられる.}によって再現率・適合率が向上したことを確認した.以下,\ref{sec:method}節で,提案した意味的類似度,採用した多義解消手法,それらを用いた類似検索,ベースとなる拡張論理型検索について示し,\ref{sec:experiment}節で前節で述べた類似検索手法による適合率・再現率の改善及び多義解消手法の比較について示し,\ref{sec:conclusion}節でまとめる.
V20N03-05
近年,TwitterやFacebookなどのソーシャルメディアが社会において大きな存在感を示している.特に,Twitterは情報発信の手軽さやリアルタイム性が魅力であり,有名人のニュース,スポーツなどの国際試合の勝利,災害の発生などの速報,アメリカ大統領選挙に代表される選挙活動,アラブの春(2010年,2011年)やイギリスの暴動(2011年)など,社会に大きな影響を与えるメディアになっている.2011年3月に発生した東日本大震災においても,安否確認や被災者支援のために,ソーシャルメディアが活躍した.Twitter上ではリアルタイムな情報交換が行われているが,誤った情報や噂も故意に,あるいは故意ではなくとも広まってしまうことがある.東日本大震災での有名な例としては,「コスモ石油の火災に伴い有害物質の雨が降る」や「地震で孤立している宮城県花山村に救助が来ず,赤ちゃんや老人が餓死している」などの誤情報の拡散が挙げられる.このような誤情報の拡散は無用な混乱を招くだけでなく,健康被害や風評被害などの2次的な損害をもたらす.1923年に発生した関東大震災の時も,根拠のない風説や流言が広まったと言われているが,科学技術がこれほど進歩した2011年でも,流言を防げなかった.このような反省から,Twitter上の情報の\addspan{信憑性}を判断する技術に注目が集まっている.しかしながら,情報の\addspan{信憑性}をコンピュータが自動的に判断するのは,技術面および実用面において困難が伴う.コンピュータが情報の\addspan{信憑性}を推定するには,大量の知識を使って自動推論を行う必要があるが,実用に耐えうる知識獲得や推論手法はまだ確立できていない.また,情報の\addspan{信憑性}は人間にも分からないことが多い.例えば,「ひまわりは土壌の放射性セシウムの除去に効果がある」という情報が間違いであることは,震災後に実際にひまわりを植えて実験するまで検証できなかった.さらに,我々は情報の\addspan{信憑性}と効用のトレードオフを考えて行動決定している.ある情報の\addspan{信憑性}が低くても,その情報を信じなかったことによるリスクが高ければ,その情報を信じて行動するのは妥当な選択と言える.そこで,我々はツイートの\addspan{信憑性}を直接判断するのではなく,そのツイートの情報の「裏」を取るようなツイートを提示することで,情報の価値判断を支援することを考えている.図\ref{fig:map}に「イソジンを飲めば甲状腺がんを防げる」という内容のツイート(中心)に対する,周囲の反応の例を示した.このツイートに対して,同意する意見,反対する意見などを提示することで,この情報の根拠や問題点,他人の判断などが明らかになる.例えば,図\ref{fig:map}左上のツイート「これって本当???」は,中心のツイートに対して疑問を呈しており,図\ref{fig:map}左下のツイート「これデマです.RT@ttaro:イソジンを飲めば甲状腺がんを防げるよ.」は,中心のツイートに対して反論を行っている.これらのツイート間の関係情報を用いれば,中心のツイートに対して多くの反論・疑問が寄せられているため,中心のツイートの信憑性は怪しいと判断したり,右下のツイートのURLの情報を読むことで,追加情報を得ることができる.\begin{figure}[t]\begin{center}\includegraphics{20-3ia16f1.eps}\end{center}\caption{返信・非公式リツイート,もしくは内容に基づくツイート間の論述関係}\label{fig:map}\vspace{-0.5\Cvs}\end{figure}Twitterにおいて特徴的なのは,ツイート間に返信\footnote{メールで返信を行うときに,返信元の内容を消去してから返信内容を書く状況に相当する.Twitterのメタデータ上では,どのツイートに対して返信を行ったのかという情報が残されている.}や非公式リツイート\footnote{メールで返信を行うときに,返信元の内容を引用したままにしておく状況に相当する.\addspan{元のツイートをそのままの形でフォロワーに送る(公式)リツイートとは異なりTwitterが提供している機能ではないが,サードパーティ製のクライアントでサポートされており頻繁に利用されている.}}などの\addspan{形式を取った投稿が可能な}点である.例えば,図\ref{fig:map}左上のツイートは中心のツイートに対する発言であること,図\ref{fig:map}左下と右上のツイートは中心のツイートを引用したことが記されている.これに対し,図\ref{fig:map}右下のツイートは,返信や非公式リツイートの\addspan{形式を取っていないため,中心のツイートを見て投稿されたものかは不明である.}本研究では,返信や非公式リツイートの形式を取ったツイート(返信ツイート)に着目し,ツイート間の論述的な関係を認識する手法を提案する.具体的には,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると考え,これらの態度を推定する分類器を教師有り学習で構築する.評価実験では,返信で表明される態度の推定性能を報告する.さらに,既存の含意関係認識器をこのタスクに適用し,直接的に返信関係のないツイート間の論述的な関係の推定を行い,その実験結果を報告する.
V21N02-06
ここ数年,Webなどの大量の電子化テキストに現れる他者が発信した意見情報を抽出し,集約や可視化を行うことで,世論調査や評判分析といった応用を実現する研究が進んでいる\cite{pang2008,liu2010,otsuka2007,inui2006}.これらの研究を総称して,意見分析({\itSentimentAnalysis})あるいは意見マイニング({\itOpinionMining})と呼ぶ\cite{pang2008}.対象となる文書ジャンルは,報道機関が配信するニュース,Web上のレビューサイト,個人が自身の体験や意見を記述するブログやマイクロブログなどであり,政策や選挙のための情報分析,世論調査,商品や映画やレストラン・ホテルなどのサービスの評判分析,トレンド分析,などについて実用化が進められている.現在の意見分析の研究は,技術は洗練され,応用範囲は広がりつつあるものの,ここ数年,従来のやり方を大きく変えるような提案は著者の知る限りではあまり見当たらない.その結果,意見質問応答や,ドメインを横断した意見分析といった難易度の高い応用は,技術の壁にぶつかっている印象を持っている.意見質問応答は,factoid型,すなわち従来の質問応答技術に比べて,回答が長くなる傾向があり,また,質問に対する正答は,1つだけではなく,複数の意見を集約したほうが適切である場合が多い.初期の研究\cite{stoyanov2005emnlp}では,文や節などの単位を主観性などの情報に基づきフィルタリングすることで,回答が得られる可能性が増すことが指摘されていた.その後の研究\cite{balahur2010ecai}によると,評価型会議TAC(TextAnalysisConference)で提供されたブログからの意見質問応答・要約のデータセット\cite{dang2008tac}\footnote{http://www.nist.gov/tac/data/past/2008/OpSummQA08.html}を用いた実験では,ブログを対象として,特定の事柄に対する意見を問い合わせ,回答を得るというタスクについて,質問,回答を同一の極性や話題によりフィルタリングすることが有効であり,また複数の連続する文を抽出することが効果的であるが,意味役割付与などに基づくフィルタリングは必ずしも有効な結果が得られていない.さらに,さまざまな識者や組織により表明されている意見を話題別に集約するタスク\cite{stoy2011ranlp}などの提案もある.本研究では,複数の個人的な意見や体験が含まれる情報を集約して,回答として適切に構成するためには,従来の意見の属性,主観性,極性,意見保有者などにとどまらず,意見の詳細なタイプをアノテートし,質問と回答の構造について分析を進める必要があると考える.これにより,複数の個人的な意見や体験を,詳細なタイプに基づき,適切な順序で配置することにより,文章として自然な回答を提供できると考えている.また,質問と回答を含む文書ジャンルとして,Yahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}などのコミュニティQAサイトがあり,意見質問の判別のために利用されている.具体的には,質問について主観性を判別するためには,質問と回答中の手がかりを区別して利用することが有効という研究\cite{li2008sigir}や,主観を伴う回答を求める質問を厳密に定義し,そのような質問は人間に対して回答を求めるという応用を目指している研究が存在する\cite{aikawa2011tod}.これらの研究は,主観性を判別する特徴が,質問と回答との間で明確ではないが関連があることと,意見を問う質問が判別できたとしても,適切な回答を自動的に構成することが難しいことを示唆している.一般に,質問に対する回答を検索するためには,質問に出現しやすい語彙と回答に出現しやすい語彙とのギャップを解消するために,その対応関係をコーパスから学習することにより,解決するための研究が行われている\cite{abe2011yans,berger2000sigir}.一方で,意見分析の研究は,文書ジャンル\footnote{文書ジャンルとは,文書の書き手と読み手との間で,読む行為を通じたコミュニケーションの共通パタンを想定できる文書群を指す概念と位置づけることができる\cite{bazerman2004}.}に応じて要求されるタスクが異なり,文書に現れる意見の性質も異なる.したがって,意見分析の研究にはコーパスが欠かせないが,現状では,ニュース,レビュー,ブログなどの文書ジャンルが主な対象となっている\cite{seki2013tod}.本研究では,従来の研究とは異なり,質問と回答を含む対話型の文書ジャンル,具体的には,国立国語研究所の『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{maekawa2011bccwj,yamasaki2011bccwj,bccwj2012}\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}中のYahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}を対象として,質問とそれに対する回答に詳細な意見情報のアノテーションを行うことにより,質問と回答中の意見の構造やその対応関係を明らかにするための,基盤となるコーパスの提供を目指している.ただし,一口に意見といっても,その特徴はさまざまである.意見の定義の範囲は広く,主観性などの広い概念を対象とした場合,評価,感情,意見,態度,推測などの何を対象とするかを決定することも重要である\cite{wiebe2005lre,koba2006signl}.本研究では,態度の詳細分類であるアプレイザル理論\cite{martin2005}を参考に,詳細な分類体系に基づく意見情報をアノテートすることにより,質問に対する回答として出現する意見の傾向を,意見の性質の違いから明らかにすることを目指す.一方で,従来の意見分析では,単一のドメインを対象として研究がなされてきた.それは,ドメインに応じて,主観性,極性を判別したり,意見の対象やそのアスペクトを抽出するための教師あり学習に用いる素性が異なるからである.しかし,現実社会では,複数のドメインを横断して,意見分析を行うことが求められる場面が少なくない.この課題に向けた解決のための研究として,複数のドメインを対象とした意見分析に関する研究\cite{blit2007acl,pono2012emnlp,he2011acl,bolle2011acl,li2012acl}がある.これは,複数ドメインにおいて共通に出現する意見表現や,意見表現間あるいは意見の対象間の類似性を手がかりとして,訓練データと評価データとの不整合を緩和させようという試みである.英語については,Amazonレビューを対象としたコーパス\footnote{http://www.cs.jhu.edu/$\sim$mdredze/datasets/sentiment/}が公開されており,一連の関連研究ではこのコーパスを使用した研究が行われているが,日本語で同様のコーパスは流通していない\cite{seki2013tod}.したがって,こうした研究を促進するためには,日本語で同様のコーパスを開発する必要がある.また,レビューにとどまらない広い範囲のドメインを対象とした意見の違いなども明らかにする必要がある.本研究が対象とするコミュニティQAは,ブログなどと比較して,カテゴリに対して投稿内容が適合しているという特徴がある.具体的には,コミュニティQAサービスにおいて,ユーザは,適切な回答を得る必要性から,提供している質問カテゴリ\footnote{http://list.chiebukuro.yahoo.co.jp/dir/dir\_list.php?fr=common-navi}に対して適合した投稿を行う.これは,さまざまな話題を投稿するため,必ずしも事前に設定したカテゴリにはそぐわない話題を投稿する傾向のあるブログとの大きな違いである.また,ニュースやレビューと比べると,生活に密着した多様な話題が投稿される.これらを踏まえ,Yahoo!知恵袋の複数の質問カテゴリを対象としたコーパスを開発し,詳細な分類体系に基づく意見情報を重ね合わせて分析することにより,ドメインごとの意見の傾向の違いを明らかにすることを目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:corpus}節では,コミュニティQAを対象とした意見分析のためのアノテーションの方針について述べる.\ref{sec:communityQA_annotation}節では,コミュニティQAを対象とした意見情報のアノテーション作業の特徴について議論する.\ref{sec:analysis}節では,Yahoo!知恵袋を対象として構築した意見分析コーパスを使用して,質問と回答や,ドメインあるいはコミュニケーションの目的に応じて出現する意見の性質の違いを明らかにする.最後に,\ref{sec:conclusion}節で結論をまとめる.
V06N04-02
本稿では,音声を用いて人間と機械が対話をする際の対話過程を,認知プロセスとしてとらえたモデルを提案する.対話システムをインタラクティブに動作させるためには,発話理解から応答生成までを段階的に管理する{\dg発話理解・生成機構}と,発話列をセグメント化し,焦点および意図と関連付けて構造的にとらえる{\dg対話管理機構}とが必要である.さらに,入力に音声を用いた音声対話システムでは,音声の誤認識によるエラーを扱う機構を組み込む必要がある.これらの機構は従来,比較的独立して研究されてきた.発話理解から応答生成までを通してモデル化したものに関しては,大きく分類して並列マルチエージェント(およびそれに付随する分散データベース)によるモデル\cite{peckham91}と,逐次的なモジュールの結合によるモデル\cite{jonsson91},\cite{airenti93}とが提案されている.並列マルチエージェントモデルは様々なレベルの制約を同時に発話理解・生成に用いているという人間の認知プロセスのモデル化になっているが,制御の難しさ・確実な動作保証の難しさから,対話システムの実現には逐次的なモジュール結合方式がよく用いられている.逐次的なモジュール結合方式において,音声対話システムに不可欠な発話の柔軟な解釈や次発話の予測を行うためには,個々のモジュールが常に参照できる情報を集中的に管理する対話管理機構が必要になる.対話管理機構に関して,Groszらは言語構造・意図構造・注意状態の3要素に分割してモデル化を行っている\cite{grosz86}.言語構造をとらえる方法としては,スタックによるモデル化\cite{grosz86},\cite{allen96},\cite{jonsson91}\footnote{\cite{jonsson91}ではやりとり(働き掛け+応答)単位を対話木によって管理しているが,この対話木は働き掛け+応答の2分木の中にあらたなやりとりが挿入できるという形式なので,本質的にはスタックと同機能であると考えられる.}とAND-OR木によるモデル化\cite{young89},\cite{smith94},\cite{smith95}がある.スタックによるモデル化は実現しやすく,注意状態との関係が明確であるという利点を持つ.しかし,入れ子構造をなさないような副対話が生じた場合にその管理が難しい.また,ユーザから主導権を取る発話(典型的にはユーザの誤った知識・方略を協調的に修正する発話)を生成した場合には,いくつかのスタック要素のポップを伴うことが多く,ユーザが主導権を改めて取ろうとしたときに必要な情報がスタックから消えているという状況が生じる.また,原則としてスタックからポップした情報にはアクセスできないので,音声の誤認識による誤解を(しばらく対話が進んだ後で)修正する必要のある音声対話システムに用いるには適していない.一方,AND-OR木によるモデル化は,基本的にタスクの問題構造の記述であり,Groszらの言語構造と意図構造とを混同してしまっているので,タスクの問題構造に従わない対話(例えば詳細化対話やシステムの能力に関するメタ的な質問など)は特別に扱わなければならないという欠点を持つ.これらのことを考え合わせると,音声対話に適した対話管理は,焦点とする範囲を適当に絞りながらも過去の対話履歴にアクセスする可能性を残した方法を用いて,言語構造と意図構造を区別して管理する必要があるといえる.\cite{airenti93}では言語構造と意図構造とを区別してモデル化し,これらを会話ゲームと行動ゲームと呼んでいる.しかし,それぞれのゲームがどのように表現されるかについては部分的にしか示されておらず,音声対話システムを構成するには不十分であるといえる.さらに,音声対話システムに適用する対話モデルには,音声の誤認識によるエラーに対処する機能が不可欠である.従来研究の多くは発話単位でのロバストな解析を実現することに目標が置かれ\cite{kawa95},いくつかの例外を除いては,対話システムに入力される発話または意味表現はユーザの意図したものであることが前提になっていた.しかし,ある単語が同一カテゴリーの単語と置き換わった場合や選択格に関する情報が欠落していた場合などは,ロバストな解析では対処できないので,対話レベルでの対処が必要となる.以上の議論より,我々は音声対話システムのための対話モデルとして,逐次的なモジュール結合による発話理解・生成機構,言語構造と意図構造とを区別した対話管理機構,それら相互の密接な情報のやりとりによる頑健な処理の実現が必要であると考えた.本稿で提案するモデルは,(1)\cite{airenti93}で提案された伝達行為理解のプロセスモデルを音声対話システムに適用可能なレベルまで具体化し,(2)それらと言語構造を表現した会話空間,意図構造を表現した問題解決空間とのやりとりを規定し,(3)個々のプロセスで同定可能な誤りへの対処法を網羅的に記述したものである.このモデルを実装することによって,ある程度のエラーにも対処できる協調的な音声対話システムの実現が期待できる.以後本稿では,我々のモデルに関して発話理解・生成機構,会話レベルの管理機構,問題解決レベルの管理機構について順に説明し,最後に動作例を示す.
V06N05-04
多言語話し言葉翻訳システムの処理には,文法から逸脱した表現などを含めた多様な表現を扱える頑健性,円滑なコミュニケーションのための実時間性,原言語と目的言語の様々なペアに適用できる汎用性,が必要である.多様な話し言葉表現をカバーするために詳細な構文意味規則を大量に記述する規則利用型(rule-based)処理は,多言語翻訳にとっては経済的な手法でない.一方,用例利用型(example-based)処理は,翻訳例の追加により翻訳性能を向上させていく汎用性の高い手法である.ただし,生データに近い状態の翻訳例をそのまま使うと,入力文に類似する翻訳例が存在しない場合が多くなる,翻訳例を組み合わせて翻訳結果を作り上げるには高度な処理が必要になる,などの問題が起こり,多様な表現に対して高精度の翻訳を実現することが困難になる.そこで,単純な構文構造や意味構造へ加工した用例を組み合わせて利用すれば,単純な解析を使うことによって頑健性も汎用性も高い翻訳処理が実現できる.筆者らは,パタン照合(patternmatching)による構文解析と用例利用型処理を用いた変換主導型機械翻訳(Transfer-DrivenMachineTranslation,以下,TDMTと呼ぶ)を話し言葉の翻訳手法として提案し,「国際会議に関する問い合わせ会話」を対象とする日英翻訳にTDMTを適用した~\cite{Furuse}.しかし,この時点のTDMTは,頑健性,実時間性,汎用性においてまだ問題があった.文献\cite{Furuse}では,多様な表現をカバーするために,表層パタンと品詞列パタンの使い分け,パタンを適用するための入力文の修正,などを行なっていた.例えば,名詞列について,ある場合は複合名詞を表すのに品詞列パタンを照合させ,別の場合は助詞を補完して表層パタンを照合させていた.しかし,どのようにパタンを記述すべきか,どのような場合にどのように入力文を修正すべきか,などの基準が不明瞭であった.そのため,誤った助詞を補完したり,補完の必要性を正確に判別できなかったりする場合があり,多言語翻訳へ展開するための汎用性に問題を残していた.また,限られた長さの複合名詞を品詞列パタンにより記述していたため,任意の長さの複合名詞を扱うことができないなど,頑健性にも問題があった.さらに,解析途中で構文構造候補を絞り込むことができない構文解析アルゴリズムを採用していたため,構文的な曖昧性の多い複文などに対して処理時間が増大するという実時間性の問題もあった.本論文では,これらの問題を解決するために,表層パタンのみを用いた統一的な枠組で,パタンの記述や照合,入力文の修正を行なう構成素境界解析(constituentboundaryparsing)を提案し,構成素境界解析を導入した新しいTDMTが多言語話し言葉翻訳~\cite{Furuse95,Yamamoto96}に対して有効な手法であることを評価実験結果により示す.また,構成素境界解析では,チャート法に基づくアルゴリズムで逐次的(left-to-right)に入力文の語を読み込んで,解析途中で候補を絞り込みながらボトムアップに構文構造を作り上げることにより,効率的な構文解析が行なえることも示す.現在は,「国際会議に関する問い合わせ会話」よりも場面状況が多様である「旅行会話」を翻訳対象とし,日英双方向,日韓双方向などの多言語話し言葉翻訳システムを構築している.システムは,構成素境界解析と用例利用型処理を組み合わせた新しいTDMTの枠組により,多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳することができる.パタンや用例を利用する頑健な翻訳手法として,原言語と目的言語のCFG規則を対応させたパタンを入力文に照合させる手法~\cite{Watanabe},詳細な構文意味規則を利用する翻訳を併用する手法なども提案されている~\cite{Brown,Kato,Shirai}.前者は,表層語句だけでなく細かい属性を使ってパタンを記述することがあり,パタンの記述は必ずしも容易でない.また,解析中で競合するCFG規則が多くなり処理時間が増大しやすい.後者は,入力文がパタンや用例にヒットすれば高品質の翻訳結果を得られるが,多様な入力文に対して高いヒット率を実現するのは容易ではない.また,多言語翻訳へ展開する際に,様々な言語ペアの翻訳に対して詳細な構文意味規則をそれぞれ用意するのも容易でない.これらの手法に比べて,TDMTは,表層パタンのみの照合を行なうので,実時間性の点で有利である.パタンの記述も容易であり,パタンを組み合わせることにより,他の翻訳手法を併用しなくても多様な入力文に対応でき,頑健性においても,多言語翻訳を実現する汎用性においても有利である.以下,2節で構成素境界解析と用例利用型処理を組み合わせたTDMTの枠組,3節でパタンによる構文構造の記述,4節で構成素境界解析による構文構造の導出,5節で用例利用型処理による最尤の原言語構文構造の決定法と目的言語への変換,6節で解析途中での構文構造候補の絞り込み,について説明し,7節で日英双方向と日韓双方向の話し言葉翻訳の評価実験結果により,本論文で提案するTDMTの有効性を示す.
V05N04-08
韓国において日本語は技術の分野のみではなく,経済などの他の分野においても英語に次ぐ重要な言語の一つになっている.しかし,日本語が自由に操れる人は少ない.このような背景により,機械翻訳に関する研究が韓国に紹介され始めた80年代の初めから日韓機械翻訳に対する期待はかなり高い状況であった.このような期待が実り,90年代に入り,韓国,あるいは日本で開発された使用可能な日韓機械翻訳システム5種が市販されるようになった.しかし,現在市販されている商用日韓機械翻訳システムは,日本語と韓国語の言語構造の類似点などによる一般ユーザたちの高い期待とは裏腹にその翻訳品質は低いレベルにとどまっている.このような現実を踏まえ,日韓機械翻訳システムの活性化を達成するために,現在の日韓機械翻訳システムが持っている問題点を客観的に分析,評価し,その問題点の在処を解明し,解決法を探す必要がある.そのためには,現在の機械翻訳システムに対する客観的分析と評価が前提となる.本技術資料は,四つの商用日韓機械翻訳システムを分析・評価し,技術的現象を把握,その問題点を分析することにより今後の開発作業に有効ないくつかの提言を行うのに目的がある.このような努力の一環として,筆者は\cite{choiandkim}を発表した.しかし,その後,韓国国内では\cite{choiandkim}で評価対象にした各システムのアップグレードや新しいシステムの出現という状況の変化があったのため,現時点での分析・評価と\cite{choiandkim}で明らかになった問題点とを比較することにより,解決された問題と未解決の問題がどのようなものであるかを把握,短期的解決課題と長期的解決課題の性格をより明確にする必要が出てきた.翻訳システムの評価には様々な側面からの評価が必要であり,多様な評価法方が提案されている\cite{dijk,White,Whiteandconnel,井佐原}.本技術資料では\cite{arnold}で提示されたユーザサイドからの翻訳品質の評価といえるDeclarativeEvaluation,開発側からの評価であるといえるTypologicalEvaluation,経済的立場からのシステムの効用性の評価であるといえるOperationalEvaluationの三つの立場からの評価とシステムの性能向上度評価といえるProgressEvaluationを行う.評価のための評価にならないよう,実際の生活で機械翻訳が用いられるという状況を作るため,評価対象文を市販されている98種の日本語で書かれた文庫本から直接抽出し評価を行った.今回の評価結果と\cite{choiandkim}を比較すると,開発者側からの言語学的処理範囲の評価といえるTypologicalEvaluationではシステムによっては多少改善されたものが見られるが,機械翻訳処理技術の最も重要な部分であるといえる翻訳技術そのものには大きな進展は見られない.と同時に,ユーザ側からの翻訳品質の向上も\cite{choiandkim}とあまり変わらないことが明らかになった.これは今までの日韓機械翻訳システムの開発で用いられた方法である一般の文法書と一般辞書に基づく演繹的翻訳規則および知識水準ではこれ以上の発展は期待できないことを物語るものであると考えられる.この限界を乗り越えるためには実際の人間の言語生活で用いられる日本語—韓国語間の大量の対訳用例集の構築とそれを用いた日本語と韓国語の客観的で一貫性のある翻訳モデルの確立,大量の用例に基づく帰納的翻訳規則および知識の開発と蓄積が前提となる必要がある.効用性の評価といえるOperationalEvaluationではすべてのシステムが韓国語Windows95で運用されるようになり,日本語原文入力ツールの支援,インターネット翻訳支援などというように大きく進展したといえる.
V06N06-03
複数の関連記事に対する要約手法について述べる.近年,新聞記事は機械可読の形でも提供され,容易に検索することができるようになった.その一方で,検索の対象が長期に及ぶ事件などの場合,検索結果が膨大となり,全ての記事に目を通すためには多大な時間を要する.そのため,これら複数の関連記事から要約を自動生成する手法は重要である.そこで,本研究では複数の関連記事を自動要約することを目的とする.自動要約・抄録に関する研究は古くから存在する\cite{Okumura98}が,それらの多くは単一の文書を対象としている.要約対象の文書が複数存在し,対象文書間で重複した記述がある場合,単一文書を対象とした要約を各々の文書に適用しただけでは重複した内容を持つ可能性があり,これに対処しなければならない.対象とする新聞記事は特殊な表現上の構成をもっており\cite{Hirai84},各記事の見出しを並べると一連の記事の概要をある程度把握することができる.さらに詳細な情報を得るためには,記事の本文に目を通さなければならない.ところが,新聞記事の構成から,各記事の第一段落には記事の要約が記述されていることが多い.これを並べると一連の記事の十分な要約になる可能性がある.しかし,各記事は単独で読まれることを想定して記述されているため,各記事の第一段落の羅列は,重複部分が多くなり,冗長な印象を与えるため読みにくい.そこで,複数の記事を1つの対象とし,その中で重複した部分を特定,削除し,要約を生成する必要がある.本論文で提案する手法は複数関連記事全体から判断して,重要性が低い部分を削除することによって要約を作成する.重要性が低い部分を以下に示す冗長部と重複部の2つに分けて考える.なお,本論文で述べる手法が取り扱う具体的な冗長部,重複部は\ref{要約手法}節にて説明する.\begin{description}\item[冗長部:]単一記事内で重要でないと考えられる部分.\item[重複部:]記事間で重複した内容となっている部分.\end{description}従来の単一文書を対象とした削除による要約手法は,換言すると冗長部を削除する手法であるといえる.重複部は,複数文書をまとめて要約する場合に考慮すべき部分である.本研究において目標とする要約が満たすべき要件は\begin{itemize}\itemそれぞれの単一記事において冗長部を含まないこと,\item記事全体を通して重複部を含まないこと,\item要約を読むだけで一連の記事の概要を理解できること,\itemそのために各記事の要約は時間順に並べられていること,\itemただし,各記事の要約は見出しの羅列より詳しい情報を持つこと,\end{itemize}である.本研究では,時間順に並べた各記事の第一段落に対して要約手法を適用し,記事全体の要約を生成する.したがって,本手法により生成される要約は,見出しの羅列よりも詳しいが第一段落の羅列よりは短かい要約である.以上により,事件等の出来事に関する一連の流れが読みとれると考える.具体的な要約例として付録\ref{ex_summary}を挙げる.この要約例は本論文の\ref{要約手法}節で説明する手法を適用して作成した.この要約例には重複部が多く存在し,それらが本要約手法によって削除された.重複部の削除は,それが正しく特定されている限り適切であると考えることができる.なぜならば,重複部分が既知の情報しか持たず,重要性が低いことは明らかだからである.また,実際の評価においても,要約例\ref{ex_summary}について本手法による削除が不適切とされた部分はなかった.冗長部の特定は重要性の指針を含むことであり,要約に対する視点,要求する要約率などにより変化するので,評価もゆれることが考えられる.これは従来の単一文書に対する要約評価においても同様に問題とされていることである.したがって,付録\ref{ex_summary}に挙げた要約例も重複部の削除に関しては妥当であると言えるが,冗長部の削除については,その特定が不十分であり,削除が不適切である部分が存在すると言える.しかしながら,付録\ref{ex_summary}に挙げた要約例は,実際のところ,記事の概要を把握するためには十分な要約になっている.評価においても,削除が不適切であると指摘された部分はなく,冗長であると指摘された部分を数ヶ所含んだ要約である.新聞記事検索時などにおいて,利用者が関連する一連の記事の要約を求めることは,関連記事数が多ければ多いほど頻繁に起こると想定できる.このとき,本研究が目的とする要約によって,関連記事群全体の概要を知ることができれば,次の検索への重要な情報提供が可能となる.また,見出しの羅列のみでは情報量として不十分であるが,第一段落の羅列では文書量が多すぎる場合に,適切な情報を適切な文書量で提供できると考えられる.換言すれば,段階的情報(要約)提示の一部を担うことが可能となる.したがって,本研究において目標とする要約が満たすべき要件として,重複部・冗長部を含まないのみならず,一連の記事を時間順に並べることが挙げられていることは妥当である.冗長部はどのような記事にも含まれる可能性があるが,重複部は記事の文体によっては特定することが困難となる場合がある.逆に,重複部が存在する場合,複数関連記事要約の観点からそれを削除することは妥当である.一般的に新聞記事の記述の方法から,長い時間経過を伴う一連の関連記事の場合には重複部が多く存在することが予想できる.そのような記事群は一連の事件や政治的出来事に関する場合が多い.また,このような関連記事に対する要約の需要は多く,本論文で示す重複部・冗長部の削除による要約は十分に実用性があると考える.実際に,要約例\ref{ex_summary}はある事件について述べられている一連の記事群であるが,これは既に述べた効果を持ち,おおむね本研究の目指す要約であると言える.本論文では上記の処理がヒューリスティックスにより実現可能であることを示し,そのための手法を提案する.そしてこの手法を実装し,評価実験を通して手法の有効性を確認する.以下では,\ref{関連研究}節にて本研究に関連する研究について触れ,\ref{要約手法}節では,本論文で提案する要約手法について述べる.\ref{評価実験}節では\ref{要約手法}節で述べた手法を用いて行った実験とアンケート評価について示す.そして,\ref{議論}節で評価結果について議論し,最後に本論文のまとめを示す.
V31N02-03
label{sec:intro}近年,自然言語処理やその関連分野において,GPT-3\cite{Brown-2020}をはじめとする大規模言語モデルの活用が広がっている.これらの大規模言語モデルは,巨大なニューラルネットワークを大量のテキストコーパス上で長時間訓練したものであり,プロンプトと呼ばれる入出力例を含む指示に従って様々なタスクに適応できる.このような大規模言語モデルの中でも特にChatGPT\footnote{\url{https://chat.openai.com/}}は,多くのタスクと言語において高い性能を発揮するため,2022年11月の公開当初から大きな注目を集めている.ChatGPTはGPT-3\cite{Brown-2020}およびGPT-4\cite{openai-2023}の大規模言語モデルに基づいているため,流暢な言語生成能力を持つことが知られている.英語においては,機械翻訳\cite{jiao-2023},自動要約\cite{yang-2023},テキスト平易化\cite{feng-2023}などの系列変換タスクをはじめとして,様々なタスクにおけるChatGPTの性能評価\cite{bang-2023}の結果が報告されている.ChatGPTによる言語生成は,英語だけでなく日本語においても非常に流暢であると感じられる.しかし,ChatGPTの日本語生成能力に関する定量的な調査は,現時点ではまだ充分に行われていない.本研究では,ChatGPTの日本語生成能力を自動評価および人手評価する.具体的には,英語文から日本語文への機械翻訳,日本語文章の自動要約,日本語文のテキスト平易化の3種類の系列変換タスクにおいて,ChatGPTの日本語生成能力を評価する.実験の結果,自動評価においては既存の教師ありモデルの方がChatGPTよりも高い性能を示したが,人手評価においてはChatGPTの方が高く評価される傾向があった.詳細な分析の結果,ChatGPTは全体的には高品質なテキストを生成できるものの,各タスクにおける詳細な要請に応えられていないことが明らかになった.具体的には,機械翻訳タスクにおいては固有名詞などの語彙選択の誤り,自動要約タスクにおいては冗長な出力,テキスト平易化タスクにおいては過度に積極的な編集をしている事例が見られた.そのため,比較的制約の緩い用途においてはChatGPTの活用が有望であり,細かな制御を必要とする用途では従来の教師ありモデルを用いるという,用途に合わせた使い分けが重要であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V19N03-02
自然言語処理で使われる帰納学習では,新聞データを用いて新聞用の分類器を学習するなど,ドメインAのデータを用いてドメインA用の分類器を学習することが一般的である.しかし一方,ドメインBについての分類器を学習したいのに,ドメインAのデータにしかラベルがついていないことがあり得る.このとき,ドメインA(ソースドメイン)のデータによって分類器を学習し,ドメインB(ターゲットドメイン)のデータに適応することを考える.これが領域適応であり,様々な手法が研究されている.しかし,語義曖昧性解消(WordSenseDisambiguation,WSD)について領域適応を行った場合,最も効果的な領域適応手法は,ソースドメインのデータ(ソースデータ)とターゲットドメインのデータ(ターゲットデータ)の性質により異なる.SVM等の分類器を利用してWSDを行う際にモデルを作る単位である,WSDの対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組を1ケースとして数えるとする.本稿では,このケースごとに,データの性質から,最も効果的な領域適応手法を,決定木学習を用いて自動的に選択する手法について述べるとともに,どのような性質が効果的な領域適応手法の決定に影響を与えたかについて考察する.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節で領域適応の関連研究について紹介する.\ref{Sec:領域適応手法の自動選択}節では領域適応手法をどのように自動選択するかについて述べる.\ref{Sec:データ}節では本研究で用いたデータについて説明する.\ref{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}節では決定木学習におけるラベル付きデータの作成方法と学習方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる.
V20N02-09
\label{introduction}自然言語の理解に向けて,常識的知識の獲得が重要である.特に意味カテゴリに属する固有表現のリストは,質問応答~\cite{Wang:2009:ASI:1687878.1687941},情報抽出~\cite{Mintz:2009:DSR:1690219.1690287},語義曖昧性解消~\cite{Pantel:2002:DWS:775047.775138},文書分類~\cite{Pantel:2009:WDS:1699571.1699635},クエリ補完~\cite{Cao:2008:CQS:1401890.1401995}など様々なタスクで有用である.固有表現リストを人手で構築すると多大なコストがかかるうえ,新しい実体や概念に対応できないため,固有表現リストを(半)自動的に獲得する方法が研究されてきた.集合拡張はある意味カテゴリに属する既知の固有表現の集合を入力とし,その意味カテゴリの未知の固有表現を獲得するタスクである.例えば「プリウス」,「レクサス」,「インサイト」という自動車カテゴリの固有表現から,「カローラ」,「シビック」,「フィット」のように自動車カテゴリに属する固有表現を新たに獲得する.なお本論文では,意味カテゴリに属する固有表現をその意味カテゴリの\textbf{インスタンス}と呼び,特に入力として与えるインスタンスを\textbf{シードインスタンス}と呼ぶ.集合拡張には通常,ブートストラッピング手法を用いる~\cite{Hearst:1992:AAH:992133.992154,Yarowsky95unsupervisedword,Abney:2004:UYA:1105596.1105600,pantel04,pantel-pennacchiotti:2006:COLACL}.ブートストラッピング手法とはシードインスタンスを用いて新たなインスタンスを反復的に獲得する手法である.ブートストラッピング手法では,まず,コーパス中でシードインスタンスと頻繁に共起するパターンを獲得する.例えば自動車カテゴリについて「プリウス」や「レクサス」のようなシードインスタンスから「トヨタのX」や「ハイブリッド車のX」(Xは名詞句を代入する変数)のようなパターンが得られる.次にこれらのパターンと頻繁に共起するインスタンス,すなわち,パターンの変数X部分に多く現れる名詞句を獲得する.例えば「トヨタのX」というパターンからトヨタの自動車製品を表す語が得られる.次に新たに得られたインスタンスをシードインスタンスに加え,再びパターンの獲得を行う.ブートストラッピング手法はこのようにパターンの獲得とインスタンスの獲得を繰り返し行うことにより,少数のシードインスタンスから大規模なインスタンス集合を獲得する.しかしブートストラッピング手法はシードインスタンス集合とは無関係なインスタンスを獲得してしまう場合もある.これは対象とする意味カテゴリのインスタンス以外とも共起するパターンによって引き起こされる.例えば「プリウス」や「レクサス」といったシードインスタンスから「新型のX」というパターンを獲得したとすると,このパターンを用いることにより,「iPad」や「ThinkPad」のようなシードとは無関係なインスタンスを抽出してしまう.ブートストラッピング手法において,対象とする意味カテゴリとは無関係なインスタンスを獲得してしまう現象を意味ドリフトと呼ぶ~\cite{Curran_minimisingsemantic}.意味ドリフトはブートストラッピング手法において非常に重大な問題である.ブートストラッピング手法は意味カテゴリに関する事前知識をシードインスタンスという形で受け取っている.しかしながら,シードインスタンスのみで意味カテゴリを正確に表現することは難しく,意味ドリフトが引き起こされる.一方,事前知識として,Wikipediaにおける意味カテゴリ間の上位下位・兄弟関係に見られるように,シードインスタンス以外の知識を得られる場合がある.例えば人カテゴリに属するインスタンスは男優と女優カテゴリに同時に属することはできないという知識や,自動車と自動二輪カテゴリという2つの異なったカテゴリが共通の特徴(例:乗り物,ガソリン式,陸上)と異なる特徴(例:タイヤの数,窓の有無)を持つというような知識が入手できる.近年,テキストに非明示的な情報を推論するため,\textbf{MachineReadingproject}~\cite{Etzioni:06}に見られるように大規模なテキストコーパスを利用し,ありとあらゆる種類の語彙知識を獲得しようとする研究が盛んである.意味カテゴリのインスタンスの収集においても,Carlsonら~\cite{Carlson10towardan}のように,複数のカテゴリを対象として同時に収集を行う需要が高まっている.このような場合には,シードインスタンス以外に,意味カテゴリ間の関係も事前知識として利用できると考えられる.本研究では,複数の意味カテゴリを対象とした集合拡張において,事前知識として意味カテゴリ間の兄弟関係を活用する手法を提案する.評価実験では,Wikipediaから抽出したインスタンスと兄弟関係を事前知識として集合拡張を行い,兄弟関係の知識が有用であることを示す.本論文の構成は以下の通りである.2節では本研究のベースライン手法であるEspressoアルゴリズムを概説する.また,この節では意味ドリフト問題とその対処法に関する先行研究を紹介する.3節では意味カテゴリの兄弟関係を追加の事前知識として活用する手法を提案する.4節では提案手法の効果を実験で検証し,考察を行う.最後に5節で本論文の結論を述べる.
V10N05-04
\label{sec:intro}1980年代に市販され始めた機械翻訳システムはその後改良が重ねられ,システムの翻訳品質は確実に向上してきている.しかし,現状のシステムには解決すべき課題が数多く残されており,高品質の翻訳が可能なシステムは未だ実現されていない.翻訳品質を高めるためにシステムを評価改良していく方法としては,(1)システムの新バージョンによる訳文と旧バージョンによる訳文との比較や,異なるシステム間での比較によって行なう方法\cite{Niessen00,Darwin01}と,(2)システムによる訳文と人間による訳文を比較することによって行なう方法\cite{Sugaya01,Papineni02}がある.前者の方法では,システムによる翻訳(以降,MT訳と呼ぶ)と人間による翻訳(人間訳)を比較することによって初めて明らかになる課題が見逃されてしまう恐れがある.これに対して,後者の方法では,MT訳と人間訳の間にどのような違いがあるのかを発見し,その違いを埋めていくために取り組むべき課題を明らかにすることができる.このように,MT訳と人間訳の比較によるシステムの評価改良は有用な方法である.しかしながら,MT訳と人間訳の違いを明らかにするために両者の比較分析を計量的に行なった研究は,従来あまり見られない.ところで,人間によって書かれた文章間の比較分析は,文体論研究の分野において以前から行なわれてきている\cite{Yamaguchi79}.文体論研究の目的は,比較対象の文章の個別的あるいは類型的特徴を明らかにすることにある.文体論研究は,文章に対する直観的な印象を重視する立場と,文章が持つ客観的なデータ(文長や品詞比率など)を主に扱う計量的立場\cite{Hatano65}に分けることができる.また,別の観点からは,言語表現の特徴を作家の性格や世界観に結び付けて扱う心理学的文体論と,言語表現の特徴を記述するに留める語学的文体論\cite{Kabashima63}に分けられる.計量的・語学的文体論に分類される研究のうち,同一情報源に基づく内容を伝える文章を比較対象とした研究として,文献\cite{Horikawa79,Hasumi91}などがある.堀川は,四コマ漫画の内容を説明する文章を童話作家,小説家,学者に書いてもらい,それらの違いを分析している.蓮見は,古典の源氏物語を複数の翻訳者が現代語に翻訳した文章において,文数,文長,品詞比率などを比較分析している.本研究では,英日機械翻訳システムの翻訳品質の向上を目指し,その第一歩として,英文ニュース記事に対する人間訳とMT訳を比較し,それらの違いを計量的に分析する.人間訳とMT訳の違いは多岐にわたるため様々な観点から分析を行なう必要があるが,本稿では,英文一文に対する訳文の数,訳文の長さ,文節レベルの現象について量的な傾向を明らかにする.なお,特にMT訳には誤訳の問題があるが,本研究は,訳文の意味内容ではなく訳文の表現形式について分析するものである.すなわち,翻訳の評価尺度として忠実度と理解容易性\cite{Nagao85}を考えた場合,後者について,MT訳の分かりにくさ,不自然さの原因がどこにあるのかを人間訳とMT訳を比較することによって明らかにしていくことが本研究の目的である.以下,\ref{sec:method}\,節で人間訳とMT訳の比較分析方法について述べ,\ref{sec:result}\,節で分析結果を示し,考察を加える.最後に\ref{sec:conc}\,節で今回の比較分析で明らかになった点をまとめる.
V07N03-03
形態素解析処理とは文を形態素という文字列単位に分割し品詞情報を付与する処理である.すでに成熟している技術であるが,解析精度や速度の向上のために様々な手法を試みる余地はあり,そのための技術的な拡張要求もある.他の自然言語処理処理技術と比べ形態素解析技術は実用に近い位置にあり,それゆえ,形態素解析システムに対する現場からの使い勝手の向上のための要求が多い.その要求の一つに,多言語対応がある.インターネット上で様々な言語のテキストが行き交う現代において,特定の言語に依存しない,多種多様な言語を視野に入れた自然言語処理が必要とされている.しかし,これまでの形態素解析システムは,特定の言語,または,同系統の数言語の解析のみを念頭に置いて開発されている.本研究の目的の一つは,特定の言語に依存しない形態素解析の枠組の構築である.我々は,形態素解析処理の言語に依存した部分を考察し,その部分をできるかぎり共通化した枠組を提案する.形態素解析は自然言語処理における基本的なコンポーネントであるが,ミクロな視点から見れば形態素解析処理自体も複数のコンポーネントからなりたっている.本研究では,完成した単一のシステムとして提供するだけではなく,システムを構成しているコンポーネント単位で利用できるように設計・実装を行った.コンポーネント化により,変更箇所を最小限におさえることができ,機能拡張が容易になる.また,言語非依存化などの調整や個々のコンポーネントの評価が行いやすくなる.\ref{tok}章では,形態素解析処理の言語に依存した部分をできるかぎり共通化した言語非依存の枠組について解説する.\ref{comp}章では,形態素解析システムの主要な内部処理のコンポーネント化を行い,それを基に形態素解析ツールキットの実装を行った.個別のコンポーネントについての言語非依存性と汎用性を考察し,実装の方針について解説する.
V16N02-01
\label{s:はじめに}がんの患者や家族にとって,がんに関する情報(以下,「がん情報」と呼ぶ)を知ることは非常に重要である.そのための情報源として,専門的で高価な医学書に比べて,ウェブ上で提供されているがん情報は,容易に入手可能であり,広く用いられるようになってきている\cite{c1,c2}.これらWebで公開されているがん情報は,良質で根拠に基づいたものばかりではなく,悪質な商用誘導まで存在する\cite{c3,c4}.このような多量のがんに関する文書の中からその文書が何を述べているかの情報を抽出し,良質ながん情報を選別し取得されるがん情報の質を向上させることが求められている.このように,がんに関する文章について,自然言語処理を適用することにより,がんに関して有用な結果を得るための情報処理を,本稿では,がん情報処理と呼ぶ.がん情報処理のためには,がんに関する用語(以下,がん用語と呼ぶ)の網羅的なリスト,すなわち,網羅的ながん用語集合が必要である.なぜなら,もし,網羅的ながん用語集合が存在すれば,それを利用することにより,がんに関する文書の形態素解析や情報検索等のがん情報処理の精度が向上することが期待できるからである.しかし,現状では,内科学や循環器学等の分野の用語集合は,それぞれの関連学会により作成されているが,がん用語集合は存在しない.そのため,本研究では,がん用語集合を作成するとともに,がんだけでなく,がんとは別の分野における用語集合の作成にも適用できるような,用語集合作成法を提案することを目標とする.高度ながん情報処理の例としては,「胃がん」や「肺がん」などの単純な検索語から検索エンジンを用いて得られたコンテンツが,一体,どのような意味を含んでいるのかを推定することなどが想定できる.そのような処理のためには,「胃がん」や「肺がん」などのがんの病名だけをがん用語としていたのでは不十分である.少なくとも,「肝転移」や「進行度」のようながんに限定的に用いられる語から,「レントゲン写真」や「検診」のように,がんだけに用いられるわけではないが関連すると思われる語もがん用語とする必要がある.なぜなら,「胃がん」や「肺がん」で検索した文書は,既に,「胃がん」や「肺がん」に関係することは明らかであるから,そこから更に詳細な情報を獲得するには,「胃がん」や「肺がん」よりも,もっと詳細な用語を利用する必要があるからである.このように,がん情報処理のためには,「胃がん」や「肺がん」等のがんに関する中核的な用語だけでなく,がんに関連する用語や周辺的な用語も網羅的に採用すべきである.ただし,「網羅的」といっても,がんとの関連度が低すぎる語をがん用語集合に加えるのは,望ましくない.そこで,病名などの中核的意味を示す用語から一定以内の関連の強さにある用語のみから,がん用語集合を作成し,それ以外の語に関してはがんとの関連性が低いと考える.このような関連の強さに基づくがん用語集合を作成するためには,まず,「がん」という疾患の性質を考慮する必要がある.「がん」は図\ref{f:001}のように,胃がん,肺がんをはじめとする複数の疾患群(50個以上の疾患)の総称であると同時に,他の疾患とも関わりがある.例えば,図\ref{f:001}の下部分に示したタバコは,肺がんの直接のリスク要因であることが知られているが,それだけでなく,動脈硬化を引き起こし,心筋梗塞や脳梗塞などの成人病を起こす危険因子としても知られている.ただし,タバコによって引き起こされる動脈硬化が原因で起こる心筋梗塞や脳梗塞は,直接肺がんとは関係しない.そのため,「タバコ」はがんに関連するが,「心筋梗塞」や「脳梗塞」はがんに関連しない.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f1.eps}\end{center}\caption{がんとがんに関する疾患の関係の例}\label{f:001}\vspace{-5pt}\end{figure}また,図\ref{f:001}の上部分に示した肝障害に関連する疾患と密接に関係する「肝がん(肝臓がん)」は,肝硬変やウィルス性肝炎から直接発病する場合もある.そのため,肝硬変やウィルス性肝炎は,がんではないが,がんに関連する疾患であり,これらの内容が記述されているコンテンツは,がん関連用語を含む可能性が高い.そのため,肝がんに関連する用語候補を得るためには,図\ref{f:001}の上の斜線で示した部分である「がん関連用語」を収集する必要がある.つまり,肝がんに直接関係する用語だけではなく,肝硬変やウィルス性肝炎などの関連する疾患に関係する用語であっても,肝がんに間接的に関係する用語は含める必要がある.(「がんに関係する」ということの定義については,\ref{s:がん用語候補集合(Cc)の作成}節で詳述する.)さらに,がんにおける用語の範囲は,それぞれのがんにより異なるためアプリオリな定義を行うことは困難である.そのため,内省により用語集合を作成するのではなく,実際に存在するコーパスから用語を収集することが望ましい.がん用語の一部は,例えば「リンパ節」や「転移」のように,一般用語辞書(例えばChaSen用のipadicver.2.7.0)や,医学用シソーラスであるMeSH\cite{c5}にも含まれている.しかし,これらに含まれるがん用語には,がんに関する用語であるとの説明がないため,これらの用語からがん用語を自動的に選択することはできない.また,がんに関するテキストから,専門用語抽出アルゴリズム\cite{c6,c7}を利用して,がん用語の候補を抽出することも考えられるが,我々の予備実験および\ref{s:専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}節の実験によると,このような候補には,がん用語以外のものも大量に含まれる.そのため,既存の一般用語辞書や専門用語抽出アルゴリズムを利用して用語候補を抽出したとしても,妥当な用語集合にするためには,人手によるがん用語の選別が不可欠である.この選別における問題は,選別の妥当性を確保することである.さらに,選別の対象であるがん用語の候補集合が,なるべく多くのがん用語を網羅していることを保証する必要もある.がんに限らず,ある分野の用語集合の網羅性と妥当性を保証するためには,内科学や循環器学等の医学の各分野における用語集合について\ref{s:従来研究}節で示すように,学会単位で多大な人手と時間を費やして作成することが考えられる.しかし,これには多大なコストがかかる.そこで本研究では,相対的に低コストで,網羅的で妥当ながん用語集合を作成するために,まず,国立がんセンターのWebサイト\nocite{c8}(国立がんセンターhttp://www.ncc.go.jp/index.html)のコンテンツをコーパスとして,がん用語の語感を持つ医師に候補語彙を切り出させ,がん用語候補集合(Cc:CancerTermCandidates)を網羅的に作成する.この国立がんセンターのコンテンツは,同センターががんに関するわが国の最高権威の診療機関であること,50種類以上のわが国の国民の罹患する可能性のあるほぼ全てのがんに関する記述があることから,がん用語に関する信頼性と網羅性が確保できると考える.なお,国立がんセンターのWebサイトのコンテンツの信頼性に関して\ref{s:コンテンツの選定}節,がん用語の切り出しの一貫性に関して\ref{s:がん用語候補集合の作成}節でそれぞれ検討する.このように本研究では,用語集合の切り出し元とするコーパスの医学的内容の信頼性と,記述されている内容の網羅性は十分と仮定して,用語候補集合(Cc:CancerTermCandidates)を作成する.最初の切り出しの段階では,医師の語感に基づいて,用語候補をできるだけ網羅的に広く収集することによって,初期段階における用語の漏れを防ぐ.次に,これら用語候補の特徴から,がん用語の選択基準を作成し,この基準に基づいて,Ccからがん用語集合(C:CancerTerms)を抽出する.最後に,他の医師に選択基準を説明し,評価用の用語候補を分類してもらうことにより,選択基準の妥当性を評価する.ここで,この選択基準は,上で述べたように,病名などの中核的意味を示す用語から一定以内の関連の強さにある用語のみを選ぶための基準である.なお,\ref{s:従来研究}節で示すが,わが国では医学のうち内科学や循環器学に関する用語集は存在するが,がん用語集はなく,本研究で作成するがん用語集は,それ自体が新規である.さらに,本研究では,がんだけでなく,他の分野の用語集合の作成にも適用できるような用語集合作成法を提案することを目標とする.なお,関連して,コーパスに基づいて辞書を作成したものとしてCOBUILDの辞書等があるが,医学用語をコーパスに基づいて収集し評価した例はない.
V07N03-01
本論文では,GLR法\cite{Tomita1987}に基づく痕跡処理の手法を示す.痕跡という考え方は,チョムスキーの痕跡理論で導入されたものである.痕跡とは,文の構成素がその文中の別の位置に移動することによって生じた欠落部分に残されると考えられるものである.例えば,``Achildwhohasatoysmiles.''という文では,`achild'がwhoの直後(右隣り)から現在の位置に移動することによって生じた欠落部分に痕跡が存在する.痕跡を{\itt}で表すと,この文は``Achildwho{\itt}hasatoysmiles.''となる.構文解析において,解析系が文に含まれる痕跡を検出し,その部分に対応する構成素を補完することができると,痕跡のための特別な文法規則を用意する必要がなくなり,文法規則の数が抑えられる.これによって,文法全体の見通しが良くなり,文法記述者の負担が軽減する\cite{Konno1986}.GLR法は効率の良い構文解析法として知られるが,痕跡処理については考慮されていない.本論文では,GLR法に基づいて痕跡処理を実現しようとするときに問題となる点を明らかにし,それに対する解決方法を示す.これまでに,痕跡を扱うための文法の枠組みが提案されるとともに,それらを用いた痕跡処理の手法が示されている\cite[など]{Pereira1981,Konno1986,Hayashi1988,Tokunaga1990,Haruno1992}.これらのうち痕跡の扱いに関する初期の考え方として,ATNGのHOLD機構\cite{Wanner1978},PereiraによるXGのXリスト\cite{Pereira1981}が知られている.本論文で示す手法では,XGでのXリストの考え方と基本的に同じものを用いる.
V24N03-05
法律文書や技術文書等の専門文書は,その文種に特有の表現を持っていることから,サブ言語を形成していると考えることができる.サブ言語を対象とした翻訳に関する従来の研究では,サブ言語の翻訳品質を向上させるには,対象のサブ言語に特徴的に表れる文構造を適切に捉え,対象言語の文構造に変換することが不可欠であることが指摘されている\cite{DBLP:conf/coling/BuchmannWS84,DBLP:conf/eacl/Luckhardt91,DBLP:conf/anlp/MarcuCW00}.図\ref{fig:ex-sents}は,特許抄録のサブ言語に特有な2対の対訳文である.いずれの文対でも,適切な訳文を得るためには,原言語文におけるABCという文構造を目的言語においてCBAに変換しなければならない.このようなサブ言語に特徴的な文では,文構造を適切に捉えられなければその後の処理でも良い翻訳に結びつく可能性が低いため,初期段階での正確な文構造の把握が極めて重要である.\begin{figure}[b]\begin{center}\includegraphics{24-3ia0f1.eps}\end{center}\hangcaption{大域的な並べ替えが必要な,特許抄録のサブ言語に特徴的な対訳文の例.A,B,Cは,文の大域的構造を構成する構造部品を表す.}\label{fig:ex-sents}\end{figure}\leavevmode\hboxto357pt{この課題に対して様々な研究が行われてきた.骨格構造を用いた機械翻訳}\cite{Mellebeek06asyntactic,DBLP:conf/acl/XiaoZZ14}では,構文解析器を用いて入力文から{\bf骨格構造},つまり文の大域的な構造を抽出し,従来の統計的機械翻訳を用いて大域的な構造の学習を行って翻訳文を生成する.しかしながらこの方法は,構文解析の精度の影響を受けるため,解析精度が低い場面では結果的に翻訳の精度も低くなるという問題がある.もう一つの手法としては,文構造変換のための同時文脈自由文法の規則を人手で構築し,これを用いて入力文の文構造を出力側言語の構造に変換する手法が提案されている\cite{Fuji:2015,Fuji2016claim}.こちらの手法は,新規のサブ言語に対して人手で規則を作成しなければならないという問題がある.これらの手法では,構文解析精度による制約の問題があったり,人手による規則作成の問題があるなど,新たなサブ言語に対して柔軟に適用できる翻訳を実現することができていない.本論文では,サブ言語に特有な大域的な文構造を捉えるための,大域的な並べ替え手法を提案する.提案手法は,構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並べ替えモデルを学習し,このモデルを用いて新規の入力文に対する大域的な並べ替えを行う.本手法は構文解析器を用いないため,構文解析器の解析精度の影響を受けることはなく,また新規のサブ言語にも容易に適用できる.特許抄録のサブ言語を対象にした日英および英日翻訳実験を行って本手法の評価を行ったところ,大域的な並べ替えと従来型の構文解析に基づく並べ替えを併用することによって,翻訳品質が向上することがわかった.本論文の貢献は次のとおりである.\begin{itemize}\item構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並べ替えモデルを学習できる手法を提案する.\item大域的な並べ替えと構文解析に基づく並べ替えを併用したときに翻訳品質が向上することが確認できた.\item特に特許抄録文では,サブ言語に特有な文構造を持った入力文に対して,日英・英日双方向において翻訳精度が向上した.\end{itemize}
V06N04-04
日本語の指示詞については豊富な研究史が存在するが,それは日本語が豊かな指示詞の体系を持ち,さまざまな興味深い振る舞いを見せてくれるからである.談話構造との関わりから眺めた場合にも,未だ充分解決されていない,重要な問題が多数浮かび上がってくる.本稿は,指示詞の分析から談話構造の理論的研究へと向かう一つの切り口を提示することを目指す.本稿で特に問題としたいのは,日本語の指示詞の体系における,指示の機能の上での等質性と異質性である.結論の一部を先取りして言えば,指示詞の3系列(コ・ソ・ア)の内,ソ系列はコ系列およびア系列に対して異質な性格を多く持っている.この異質性を突き詰めていく過程で,指示の構造に対する根底的な理解が要請されてくるのである.指示詞をコ・ア対ソという対立関係で捉えようとする見方は\citeA{horiguti},\citeA{kuroda}を先駆とするが,本稿ではこの見方を談話処理モデルの中に位置づけることを試みる.その要点は次の通りである.コ・アはあらゆる用法において基本的に直示の性質を保持している.狭義の直示とは,文字どおり眼前の対象を直接指し示すことであるが,本稿では特にこの直示の本質を,次のようにとらえたい\cite{takukin97}.\enums{{\bf直示の定義}:\\談話に先立って,言語外世界にあらかじめ存在すると話し手が認める対象を直接指し示し,言語的文脈に取り込むことである.}この定義から,次のような事柄が帰結として導かれる.まず,指示対象は言語的文脈とは独立に,言語外世界に存在するので,先行する言語的文脈に対しては基本的に自由である.まして,言語的文脈によって概念的に設定された対象を指し示すことはない.次に,直示に用いられた指示詞表現(例「この犬」)には,指示対象のカテゴリーを表す表現が付いていることがある(例「犬」)が,直示の場合,指示対象が(多くは眼前に)現に存在するということを示すことが意味の中心であるので,カテゴリーは副次的にしか機能しない.極端な例として,眼前にいるカラスを指さして「この犬」と言っても,指示は成立しているのである.加えて,直示における指示対象が基本的に確定的・唯一的であることも前提される.指示対象自体が変域を持ったり,未定・不定であるということはあり得ない.言葉を換えると,直示表現は使用された段階では変項ではありえない\fn{指示詞自体は,一般的に,それが用いられた文脈によって指示対象が変わるので,変項として扱われるのが普通である.ここでは,文脈の中で直示なり,照応なりによって指示詞の機能が確定したあとの機能について述べている}.コ系列が「近称」,ア系列が「遠称」と捉えられるように,話し手からの距離によってこれらの指示詞が特徴づけられることも,直示の本質にとって重要な点である.すなわち,対象があらかじめ言語外世界に存在するが故に,話し手はそれを「近い」とか「遠い」とか判定できるのである.コ系列・ア系列指示詞には非直示用法も存在するが,非直示用法においても上に述べた直示の性質が保持されることを本稿において示す.一方,ソはいわゆる直示用法を持つ一方で非直示用法も持つが,ソの非直示用法は直示とはまったく異なる性質を持っている.すなわち,ソのいわゆる照応用法は,言語外世界とは関係なく,先行文脈によって概念的に設定された対象を指し示す.その場合,指示対象の概念が検索の重要なキーとなるので,カテゴリーを変えると指示対象の同定が困難になる.また,指示対象が未定・不定・曖昧であったり,束縛変項のように,指示対象に変域が生じる場合がある.以上の点から,ソの非直示用法は,本来の直示とは全く異なるものであるということを主張する.本稿では,このようなコ・アとソの違いが,指示詞表現が指定する心的な領域の違いから生じるものと考える.本稿が依って立つ談話処理のモデルは,\citeA{fauconnier85}に始まる「メンタル・スペース」理論の流れを組み,\citeA{jcss},\citeA{sakahara96}等に受け継がれた談話管理に関する理論である.これらの理論に共通するのは,言語表現と外的世界とをつなぐ位置に中間構造としての心的表示を仮定する点である.\enums{言語表現$\longrightarrow$心的表示$\longrightarrow$外的世界}ここで言語表現は,心的表示への操作(登録,検索,マッピング等)の指令,あるいはモニター装置として機能する.このモニター機能によって聞き手は話し手の心の働きをある程度知ることができ,コミュニケーションの効率化を助けるのである.指示詞の研究は,この心的表示の構造や指示詞がモニターする操作の実態を明らかにすることを目標とする.このような見方のもとで,本稿は次のように議論を進めていく.まず次節で,指示詞表現一般の談話的な機能を概括し,以下の議論の準備とする.3節から5節では,主にいわゆる文脈照応用法を中心として,コ・アとソを対比する形で実際の用法を検討し,コ・アを用いる表現には常に直示の性質が備わっていること,逆にソを用いる表現には直示とは相容れない特徴が認められることを明らかにしていく.6節では直示用法について簡単に触れ,ソ系列の特異性を指摘する.最終節では,以上の議論をまとめ,併せて文脈照応用法と直示用法の関係についての課題を提示する.ソの非直示用法が本来の直示と異なるものであると考える場合,ソにおける直示と非直示の相関関係が問題になるが,この点については本稿では結論を出すことができないので,今後の方向性を最終節で提示するにとどめる.
V20N01-01
\label{sec:intro}近年のWebの発展は目覚ましいものがあり,Blogや掲示板のように,個人が気軽に自分の意見や感想を書き込める場が増えている.特に,商品購入サイトやオークションサイトなどでは,実際に商品を購入したり,サービス提供を受けたユーザが感想を書き込めるユーザレビュー用ページを提供している場合も多く,レビューは,商品やサービスの潜在的購入者にとって,貴重な情報源のひとつになっている.レビューの件数が増加すれば,それだけ多くの感想を読む機会を得ることになるが,商品やサービスによっては何百件から何千件もレビューが存在することもある.この場合,レビューの内容をすべて把握することは困難であるが,このような問題に対して従来からレビューを自動的に分類したり,意見を集約する研究が盛んに行われている\cite{sa2}.意見の集約に関する研究の例として,例えば,Huら\cite{hu}は,評価視点(opinionfeatures)という概念に基づいてレビュー集合内の意見を集約する手法を提案している.ここで,評価視点とは,評価対象(すなわち商品やサービス)の部分や属性のことであり,例えば,評価対象としてデジタルカメラの特定の商品(「デジタルカメラ$X$」)があったとすると,「画質」や「解像度」などがその評価視点となる.Huらは,レビュー集合からユーザ評価が肯定または否定となる評価視点を自動抽出し,\begin{itemize}\itemデジタルカメラ$X$\begin{itemize}\item画質肯定:253/否定:6\item解像度肯定:134/否定:10\item...\end{itemize}\end{itemize}のような集約結果を生成する手法を提案した.ここで,集約結果内の数値は頻度を表しており,デジタルカメラ$X$の画質に対しては253件の肯定評価を示すレビューがあったことを意味する.このような評価視点の(半)自動抽出に基づく研究は他にも,小林ら\cite{kobayashi}や,Liuら\cite{liu},Jakobら\cite{jakob}等がある.しかしながら,これらの先行研究では,基本的に評価視点を漏れなく列挙することが目的となっているため,結果として,数多くの評価視点が出力され,どの評価視点が評価対象にとって重要であるかがわからないという問題がある.また,実際に集約結果としてユーザに評価視点を提示することを考えた場合にも,重要度に応じて提示する評価視点に順序を与えたり,取捨選択できることが望ましい.本論文では,このような背景に基いて,上記の先行研究など,何らかの方法によって得られた多数ある評価視点に対し,それらをある重要度に従ってランキングする課題を新たに考え,ランキングに適した手法について検討する(\sec{uniq_aspect_ranking}).重要度の考え方にはいろいろ考えられるが,本論文では,ユーザは商品購入の際に複数の競合商品を横並びで比較することが多い事を踏まえ,次のように考える.すなわち,競合する複数の評価対象に対して,これらの中で,他の評価対象からある特定の評価対象を差別化できるような評価視点ほど重要であると考え,そのような評価視点に高い重要度を割り当てることを考える.以降,本論文では,このような評価視点のことを特徴的評価視点と呼ぶ.例えば,あるユーザが出張の際に利用する宿泊施設を探しており,幾つか探し当てたとする(宿泊施設$X$,$Y$,$Z$).しかし,どの施設も値段や立地条件が似たり寄ったりであり,どれを選ぶか悩んでいる.このような状況において,提案手法を用いて各施設のレビューから特徴的評価視点を見つけ出し,施設$X$は特に宿泊利用者の間で「朝食バイキング」が人気であり,施設$Z$だけが「まくら」にこだわっていることを自動抽出することができれば,こういった情報を優先的にユーザに提示する手段を提供することができると考えている.なお,\sec{experiment}の評価実験では,実験データとして宿泊施設予約サイトから得られた宿泊施設についてのレビューデータを用いている.そのため,以降においても提案手法の説明に例を用いる場合は宿泊施設を評価対象とする例を用いる.また,レビューはその数だけ書き手が存在することから評価視点の異表記が生じやすい.そこで,本研究では,評価視点のランキングに際して,クラスタリングによって異表記の影響を考慮したランキングの補正手法を提案し,ランキングとクラスタリングを併用することで評価視点の構造化をおこなう(\sec{cl}).本論文の貢献をまとめると,以下のようになる.\begin{itemize}\item[(1)]従来手法によって多数抽出される評価視点を構造化して提示する際,その構造化として,特定の評価対象を他から差別化できるような評価視点が重要であると考え,その重要度に従ってランキングすることを提案している点.\item[(2)]上記ランキング課題に利用できる具体的な尺度として,\sec{uniq_aspect_ranking}で説明する対数尤度比に従った尺度を適用し,その有効性を実験的に検証している点.\item[(3)]また,上記ランキング課題では異表記問題が発生するため,その解決策として評価視点をクラスタリングすることの提案,および具体的なクラスタリング手法を用いて,その有効性を実験的に検証している点.\end{itemize}本論文の構成は以下の通りである.まず,\sec{relation}で関連研究について述べ,続く,\sec{uniq_aspect_ranking}と\sec{cl}で評価視点をランキングするための提案手法について述べる.\sec{experiment}で評価実験について述べた後,\sec{owarini}で本論文をまとめる.
V16N04-05
近年の科学技術の進展にともない,工学知は幾何級数的に増大したが,その一方で,工学教育の現場においては,学生が自分の興味に合わせて講義・演習を選ぶことが非常に困難な状況になっている.例えば,東京大学工学部では約900の講義が開講されており,学科の枠を越えた講義の履修が可能であるが,講義の選択に対する十分な知識が得られる状況とは言い難い.学生にとっては,a)自分の興味がどの講義によって教授されるか(講義の検索),b)その講義を受けるために習得すべき講義は何か(講義間関連の同定),等を得ることが望ましい.また,教員も同様に,講義全体の効率化のために,講義内容の重複や講義の抜けを知る必要があり,総じて講義の全体像を俯瞰し,各講義間の関連性を知ることが非常に重要となる.こうした問題に対し,我々は先より,異なる分野における知識を効率的に抽出し,かつ得られた知識間の関連性から浮かび上がる新たな知の活用を支援する「知の構造化」に関する研究開発を進めてきた\cite{Inproc_Mima_2006a,Article_Mima_2006b,Inproc_Yoshida_2007}.「知の構造化」の主たる目的は,知識を分析し可視化技術により知の内容を明瞭にすることで,i)知識全体の構造を明らかにし,ii)知識の関連から隠れた知識や,新たな知識を発見する,iii)知識の集中と抜けを発見する,さらには,これらによる知識の活用と再利用性を促すことにある.以上のような知の構造化の工学教育分野における実践として,以下の目標を達成するために,工学知およびカリキュラムの構造化と可視化に取り組んでいる.\noindent\textgt{・セルフオリエンテーション可能なシステムの構築}カリキュラムの全体像を構造化し,可視化することによって,学生が学ぶことの相対的位置付けを理解し,進むべき道を自ら指向できるようにする.\noindent\textgt{・テーラーメイド教育の実現}様々な異なるキャリアの学生に対して,多様なコース中から,個々の目的に応じた最適なカリキュラムを効果的に提示する.これらの目標を達成するために,1)キーワード検索によるアプローチ,および,2)課題志向によるアプローチ,という二つのアプローチでこの問題に対する取り組みを進め,既に学生へのサービス提供を行っている.通常,キーワード検索によるアプローチは,有用性が高く強力な検索能力を提供可能であるが,専門的知識の乏しい初学者にとっては,適切な検索キーワードを見つけだすことが難しいという問題がある.その一方,Yahoo!等のインターネット検索サイトでのディレクトリ検索に相当する課題志向によるアプローチでは,あらかじめ「環境」,「エネルギー」等の,(学科の枠に捕らわれない)課題に即して講義を(階層的に)分類し,それらの取捨選択により最終的な講義の選別が可能となるため,個別の科目に関する知識をそれほど必要とせずに,各学生の興味のある課題にあわせて講義を検索することができるという利点がある.双方共に一長一短があるが,教養課程から専門課程に渡る学生の多様なニーズに応えるためにも,キーワード入力と課題志向の両面から,講義を構造化・可視化することが,学生へのサービス提供という点からも重要である.キーワード入力からのアプローチとして,東京大学工学部では,MIMASearchシラバス構造化システムとして既に学生に向けサービスを提供している.本システムの特徴は,講義内容(以下,シラバス)のテキストを自然言語処理技術により自動的に構造化し,可視化技術を利用することで学生との柔軟なインタフェースを提供することにある.学部学生,大学院生を対象とした過去3年に渡るアンケート調査の結果や,年々のアクセス数の伸び等を始めとし,検索の効率化等に対する良好な評価を得ている.なお,MIMASearchに関する詳細は\cite{Inproc_Mima_2006a,Web_MIMA_Search}にあるため,本稿では割愛する.一方,課題志向によるアプローチに関しても,従来,人手により課題別にシラバスを分類し,構造化,可視化を行うことで,同様のサービスを提供しており,先と同様,学生からの良好な評価を得ている.しかしながら,課題志向によるアプローチでは,従来の学科や進学コース単位での,言わば,分野内でのシラバス分類と異なり,多くの場合に分野の枠を越えたシラバスの分類が要求される.特に,近年急速に発展しつつある「バイオテクノロジー」,「ナノテクノロジー」,「環境」,「エネルギー」等の分野では,学際的,複合的,融合的な方法で研究開発が行なわれており,これらの分類に関しては,より広範囲の知識を必要とする.さらには,「地球温暖化」,「環境資源の枯渇」,「持続可能な社会」等,学科のみならず,学部の枠組みを超えた講義や知識のつながりをとらえることが必要な課題も存在する.その一方で,近年の工学知の増大と細分化により,講義を受け持つ各教員が俯瞰的な視点から自身の講義を位置付けることが困難な状況にあるといえる.例えば,東京大学工学部の2008年度シラバスにおいて,「事前履修」,「並行履修」,「事後履修」という関連講義を記述する項目があるが,入力された関連講義のうち約34\%の記述に誤りがあり,関連講義をたどることできない状態にある.これらの多くは,カリキュラムの再編によって既に開講されていない講義名を参照していたり,曖昧な記述のままとなっていることが原因と見られるが,各教員が講義の全体像を把握し,シラバス間の関連を記述することが必ずしも容易ではないことを示していると思われる.以上のように,学際的な研究が増加し課題志向別にシラバスを俯瞰する必要性が高まっている一方で,各教員は学問分野の増大・細分化により俯瞰的な視点からシラバスを記述することが困難な状況にある.したがって,客観的・俯瞰的に課題志向別にシラバスを構造化するためには,工学知を俯瞰し,分類することができる専門の人員が必要となる.そこで,東京大学大学院工学系研究科では,現在数名の専門の教員が人手によりシラバスを精査し分類作業を行っている\cite{Web_Kadaisikou}.しかし,年度毎に更新されるシラバスに対して,人手による分類を毎年続けていくことは,大きなコストと時間を要する.よって,この作業を可能な限り自動化し,効率的な手法を開発することが非常に重要な課題となる.そこで,本研究では,課題志向によるシラバス構造化のアプローチに関し,シラバス分類を(半)自動化するシステムを提案する.本システムの特徴は,従来,全ての工程を人手による手作業で行っていたシラバス分類に対し,その一部を言語処理による特徴抽出,及び機械学習による自動分類を利用することで,全体の作業工程を短縮することにある.以下,本稿では,これら課題志向によるシラバス構造化アプローチとして,我々のグループで取り組んでいる課題志向別シラバス分類,構造化システムについて,システム構成,実装,及びテストデータを利用した実験評価を交えて解説する.
V05N04-07
連続音声認識において,N-gramと呼ばれる統計的手法に基づいた言語モデルが広く使用されており(Bahl,JelinekandMercer1983),限られた探索空間上で認識精度を向上させるためには,信頼できる単語連鎖統計値を得るための大量のデ−タを用いて,大きなN値に設定されたN-gramを用いるのが効果的である.しかし,大量のデータを用意することは非現実的であり,実際には小さいN値であるbi-gramやtri-gramなどを用い,2単語や3単語など局所的な単語連鎖にのみ制約を与えて使用している.従って,単語N-gramモデルを用いた認識誤りには,N単語以上,実際には3から4単語以上からなる長い単語連鎖部分から判断すれば不自然なものが多い.音声対話や音声翻訳システムを実現するためには,上記のような認識誤りの特徴を考慮した上で,認識誤り文を解析できる手段が必要となる.従来,文脈自由文法に則って非文法的な文を解析する手法が提案されており(SaitouandTomita1988;Mellish1989),一部の音声認識誤り文の解析にも有効であることが確認されている.また,それを音声翻訳システムに導入した例も紹介されている(Lavie,Gates,Gavalda,Mayfield,WaibelandLevin1996a).これらは,入力文中に解析できない部分があったとき,その部分を削除,あるいは他の単語を挿入,置換しながら解析を続行することにより,音声認識誤り文の解析を可能にしている.しかしこの方法は,基本的には,誤認識さえなければ文全体を文法で記述することが可能であることを前提としている.実際の自然発話文に頻繁に出現すると思われる文法記述が困難な文を十分に解析できないのが問題となる.一方,文全体を文法で記述することが困難であると思われる自然発声文の解析を可能とするために,発声の際のポーズで区切られた単位を1部分として,文全体を部分毎に分け,各々の部分文を部分木で記述し,この部分木を列挙したもので文全体を記述する方法も提案されている(竹沢,森元1996b).この方法は自由発話文の解析を可能とする上で効果的な方法である.しかし,上記部分木もN-gramモデルと同様に,局所的な一部分文の範囲で解析を行なうものであり,認識処理で不足している「長い単語連鎖からなる大局的な言語的制約」を補うものではない.従って,局所的には既に制御されている認識誤り文を誤りであると判断できず,誤ったまま解析してしまうという問題がある.さらに,これら従来の解析方法は文脈自由文法による文法的制約を基本としているが,意味的な整合性を判断した解析ではないため,文の「不自然さ」を判断するには不十分であると考えられる.我々は,自由発話文の音声認識誤り文を解析するためには,文法以外の制約を積極的に用いて,認識誤り文から正しく認識された部分を特定するしくみを新たに導入し,特定された部分のみを対象として,または特定されなかった部分を修復しながら,文を解析することが必要であると考えている.そこで本論では,その第1歩として,単語N-gramのNの範囲を越えた大局的な部分を対象に,その意味的な自然性を判断することにより,認識結果文から正しく認識された部分のみを特定する方法を提案する.以下2章ではこの正解部分特定法について述べ,3章では日英翻訳システムを用いた正解部分特定法の評価結果について報告する.
V07N02-02
\label{sec:introduction}近年,WWWを通じて英字新聞記事に接する機会が増えてきたことに伴い,より正確に英文記事を日本語に翻訳する必要性が高まってきている.新聞記事は見出しと本文から構成されるが,見出しは記事の最も重要な情報を伝える表現である\footnote{テキストから重要な文を選択するテキスト抄録システムにおいて,見出しを最も重要な文であるとみなす考え方\cite{Nakao97,Yoshimi99}がある.}ため,見出しを正確に翻訳することは他の表現の翻訳に比べてより一層重要である.英字新聞記事の見出しは,できるだけ少ない文字数でできるだけ多くの情報を伝えるためや,読者の注意を引くために,通常の文の表現形式とは異なる特有の形式をしている.このため,従来の英日機械翻訳システムでは適切に翻訳できない場合が多い.その原因は主に,見出し特有表現の構文解析を適切に行なうための構文解析規則が,様々な種類や分野のテキストを扱うことを前提に開発された機械翻訳システムでは記述されていないことにあると考えられる.既存の構文解析規則で適切に扱えない表現への対応策の選択肢としては,特殊な表現形式が扱えるように構文解析規則を拡張するアプローチと,既存の構文解析規則は変更せず,既存の規則でも適切に処理できるように原言語の表現を書き換える新たなモジュールを設けるアプローチが考えられる.後者のアプローチとして,長い文の構文解析が失敗しやすいという問題に,長文を複数の短文に分割することによって対処する方法\cite{Kim94}や,書き換えを行なうべきかどうかの判定精度を高めるために,完全な構文情報が得られる構文解析終了後にまで書き換え規則の適用を遅らせる方法\footnote{この方法は,日英間の構造的な差異を調整し,より自然な翻訳を生成するために構文構造を書き換える方法\cite{Nagao85a}に近いと考えられる.}\cite{Shirai95}などがこれまでに示されている.実際に運用されている機械翻訳システムでは構文解析規則の規模は非常に大きくなっているため,既存の規則との整合性を保ちながら新たな規則を追加することは容易ではない.また,特殊な表現を扱うための規則を追加すると規則の汎用性が損なわれる恐れがある.これに対して,既存の規則には手を加えず,原言語の表現を書き換える前編集系を新たに開発する方が,書き換え結果が既存の構文解析規則で正しく解析できるかどうかを人手で判断することは比較的容易であるという点や,規則の汎用性を維持することができるという点でシステムの開発,維持上望ましい.本研究では,従来の機械翻訳システムによる新聞記事見出し翻訳の品質が低いという問題に対して自動前編集モジュールを設けるアプローチを採り,浅いレベルの手がかりに基づいて原言語の表現を書き換えることによってこの問題を解決することを目指している.自動前編集による見出し翻訳の品質改善の一例として本稿では,見出し特有表現のうち比較的高い頻度\footnote{284件の見出しを対象とした我々の調査で確認された見出し特有の表現\cite{Uenoda78}は,be動詞の省略を含むものが73件(25.7\%),等位接続詞のコンマでの代用を含むものが25件(8.8\%),``say''のコロンでの代用を含むものが4件(1.4\%)などである.ただし,現在形で過去の事象を表す表現や冠詞の省略などは今回の調査では考慮しなかった.}で見られるbe動詞の省略現象に対象を絞り,be動詞が省略されている見出しにbe動詞を正しく補うための書き換え規則を,形態素解析と粗い構文解析\footnote{具体的には,\ref{sec:preeditHeadline:cond}\,節で述べる手続きによる処理を指す.}によって得られる情報に基づいて記述し,これらの書き換え規則によって適切な書き換えが行なえることを示す.本稿の対象は英字新聞記事見出しという限定されたものであるが,英字新聞記事は英日機械翻訳システムの一般利用者が日々接することが多いテキストの一つであるため,実用的なシステムにおける見出し解析の重要性は高い.また,本稿の目的はbe動詞を補うことによって見出し解析の精度を向上させることにあり,書き換えた見出しの翻訳が日本語新聞記事の見出しの文体に照らし合わせて適切であるかどうかは本稿の対象外である.
V24N05-01
近年,情報化技術の発展により,インターネット上やデータベース上にはテキストとそのテキストに付随する実世界情報が大量に存在している.実世界情報を用いる自然言語処理の研究として,テキストを用いて画像を検索する研究\cite{NIPS2014_5281}や画像の解説文を生成する研究\cite{Socher_groundedcompositional}などが行われている.また,実世界情報を用いることで言語モデルの性能を向上させる研究\cite{icml2014c2_kiros14}も行われており,実世界情報の活用は自然言語処理の基礎技術の精度向上に有効だと考えられる.そこで本稿では実世界情報とテキスト情報を素性として入力した際の固有表現認識を提案する.本稿では,将棋の解説文に対する固有表現認識を題材として,テキスト情報に加えて実世界情報を参照する固有表現認識器を提案する.固有表現とは,文書の単語列に人名や地名など約8種類の定義\cite{TjongKimSang:2003:ICS:1119176.1119195}を行ったものが一般的であるが,近年では医療の専門用語を定義したバイオ固有表現\cite{Biomedical.Named.Entity.Recognition.Using.Conditional.Random.Fields.and.Rich.Feature.Sets}なども提案されており,本研究では将棋解説コーパス\cite{shogi-corpus}で定義される将棋固有表現を扱う.将棋解説コーパスは,将棋の解説文に対して単語分割と固有表現タグが人手で与えられた注釈つきテキストデータであり,各解説文には解説の対象となる将棋の局面情報が対応付けされている.局面は,盤面上の駒の配置と持ち駒であり,すべての可能な盤面状態がこれによって記述できる.本研究では局面情報を実世界情報として用いる.提案手法では,まず各局面の情報をディープニューラルネットワークの学習方法の1つであるstackedauto-encoder(SAE)を用いて事前学習を行う.次に,事前学習の結果をテキスト情報と組み合わせて固有表現を学習する.提案手法を評価するために,条件付き確率場による方法等との比較実験を行い,実世界情報を用いることにより固有表現認識の精度向上が可能であることを示す.将棋の固有表現認識の精度が向上すると,文書から戦型名や囲い名などを自動的に抽出でき,将棋解説文の自動生成のための基礎技術となる.また,一般の固有表現認識を高い精度で行えるようになると質問応答や文の自動生成などの高度な応用の基礎技術となる.
V16N03-01
本稿では,大量の上位下位関係をWikipediaから効率的に自動獲得する手法を提案する.ここで「単語Aが単語Bの上位語である(または,単語Bが単語Aの下位語である)」とは,Millerの定義\cite{wordnet-book_1998}に従い,「AはBの一種,あるいは一つである(Bisa(kindof)A)」とネイティブスピーカーがいえるときであると定義する.例えば,「邦画」は「映画」の,また「イチロー」は「野球選手」のそれぞれ下位語であるといえ,「映画/邦画」,「野球選手/イチロー」はそれぞれ一つの上位下位関係である.以降,「A/B」はAを上位語,Bを下位語とする上位下位関係(候補)を示す.一般的に上位下位関係獲得タスクは,上位下位関係にある表現のペアをどちらが上位語でどちらが下位語かという区別も行った上で獲得するタスクであり,本稿でもそれに従う.本稿では概念—具体物関係(ex.野球選手/イチロー)を概念間の上位下位関係(ex.スポーツ選手/野球選手)と区別せず,合わせて上位下位関係として獲得する.上位下位関係は様々な自然言語処理アプリケーションでより知的な処理を行うために利用されている\cite{Fleischman_2003,Torisawa_2008}.例えば,Fleischmanらは質問文中の語句の上位語を解答とするシステムを構築した\cite{Fleischman_2003}.また鳥澤らはキーワード想起支援を目的としたWebディレクトリを上位下位関係をもとに構築した\cite{Torisawa_2008}.しかしながら,このような知的なアプリケーションを実現するためには,人手で書き尽くすことが困難な具体物を下位語とする上位下位関係を網羅的に収集することが重要になってくる.そこで本稿では,Wikipediaの記事中の節や箇条書き表現の見出しをノードとするグラフ構造(以降,\textbf{記事構造}とよぶ)から大量の上位下位関係を効率的に獲得する手法を提案する.具体的には,まず記事構造上でノードを上位語候補,子孫関係にある全てのノードをそれぞれ下位語候補とみなし,上位下位関係候補{を}抽出する.例えば,図~\ref{fig:wiki}(b)のWikipediaの記事からは~\ref{sec:wikipedia}節で述べる手続きにより,図~\ref{fig:wiki}(c)のような記事構造が抽出できる.この記事構造上のノード「紅茶ブランド」には,その子孫ノードとして「Lipton」,「Wedgwood」,「Fauchon」,「イギリス」,「フランス」が列挙されている.提案手法をこの記事構造に適用すると,「紅茶ブランド」を上位語候補として,その子孫ノードを下位語候補群とする上位下位関係候補を獲得できる.しかしながら獲得した下位語候補には,「Wedgwood」,「Fauchon」のように下位語として適切な語が存在する一方,「イギリス」,「フランス」のような誤りも存在する.この例のように,記事構造は適切な上位下位関係を多く含む一方,誤りの関係も含むため,機械学習を用いて不適切な上位下位関係を取り除く.\begin{figure}[t]\begin{center}\includegraphics{16-3ia1f1.eps}\end{center}\caption{「紅茶」に関するWikipediaの記事の例}\label{fig:wiki}\end{figure}以下,\ref{sec:bib}節で関連研究と本研究とを比較する.\ref{sec:wikipedia}節で提案手法で入力源とするWikipediaの記事構造に触れ,\ref{sec:method}節で提案手法について詳細に述べる.\ref{sec:exp}節では提案手法を日本語版Wikpediaに適用し,獲得された上位下位関係の評価を行う.最後に\ref{sec:matome}節で本稿のまとめと今後の展望について述べる.
V07N04-03
近年の電子化テキストの増大にともない,テキスト自動要約技術の重要性が高まっている.要約を利用することで,より少ない労力や時間で,テキストの内容を把握したり,そのテキストの全文を参照する必要があるかどうかを判定できるようになるため,テキスト処理にかかる人間の負担を軽減させることができる.要約は一般に,その利用目的に応じて,元テキストの代わりとなるような要約(informativeな要約)と,テキストの全文を参照するかどうかの判定等,全文を参照する前の段階で利用する要約(indicativeな要約)に分けられることが多い\cite{Oku:99:a}.このうち,indicativeな要約については,近年情報検索システムが広く普及したことにより,検索結果を提示する際に利用することが,利用法として注目されるようになってきている.要約を利用することで,ユーザは,検索結果のテキストが検索要求に対して適合しているかどうかを,テキスト全文を見ることなく,素早く,正確に判定できるようになる.一般に情報検索システムを利用する際には,ユーザは,自分の関心を検索要求という形で表わしているため,提示される要約も,元テキストの内容のみから作成されるgenericな要約より,検索要求を反映して作成されるものの方が良いと考えられる.本稿では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法\cite{Mochizuki:99:a}が,情報検索システムでの利用を想定した,検索要求を考慮した要約作成手法として利用できることを示す.語彙的連鎖\cite{Morris:91}とは,語彙的結束性\cite{Halliday:76}を持つ語の連続のことである.語彙的連鎖はテキスト中に複数存在し,各連鎖の範囲では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.我々の手法では,この語彙的連鎖の情報を利用することで,検索要求と強く関連したテキスト中の部分を抽出できるため,情報検索システムでの利用に適した要約が作成できる.また,検索要求と関連する部分を一まとまりのパッセージとして得るため,連続性のある要約が作成できる.我々の手法によって作成される要約の有効性を確かめるために,情報検索タスクに基づいた要約の評価方法\cite{Miike:94,Hand:97,Jing:98,Mani:98:a,tombros:98:b,Oku:99:a}を採用し実験を行なう.実験では,複数の被験者に要約と検索要求を提示し,被験者は,要約を元に,各テキストが検索要求に適合するかどうかを判定する.要約は,被験者の適合性判定の精度,タスクにかかった時間および判定に迷った際に全文を参照した回数などに基づいて評価される.また,要約の読み易さに関する評価も合わせて行なう.我々の要約作成手法と,検索要求を考慮した,いくつかの従来の要約作成手法\cite{tombros:98:b,shiomi:98:a,hasui:98:a},検索要求を考慮しない,いくつかの要約作成手法および,全文,タイトルのみの,合わせて10種類の手法を比較する実験を行なう.また,タスクに基づく要約の評価は,最近になって採用され始めた新しい評価方法であり,試行錯誤の段階にある.そのため,今回の評価実験の過程で観察された,タスクに基づく評価方法に関する問題点や留意すべき点についても,いくつかのポイントから分析し,報告する.以下,\ref{sec:sumpas}節では,我々の語彙的連鎖型パッセージ抽出法に基づく要約作成について述べ,\ref{sec:examination}節では実験方法について説明し,\ref{sec:kekkakousatsu}節で結果の考察をする.最後に\ref{sec:conc}節でタスクに基づく評価方法に関する問題点や留意すべき点について述べる.
V01N01-03
従来の構文解析法は基本的に句構造文法あるいは格文法をその拠り所としてきた.前者の考え方は局所的統合の繰り返しによって文の構造を認識しようというものである.しかし,実際にそのような方法で文を解析しようとすると,規則の数が非常に多くなり,なおかつ十分な精度の解析結果を得ることが困難であった.また,格文法の場合は格要素を決定するための意味素が必ずしもうまく設定できず,またこの場合も基本的には局所的な解析であるため,十分な精度の解析結果が得られていない.これらの問題を解決するためには,これらの文法的枠組に加えて,局所的記述ではとらえきれない情報を文中の広い範囲を同時的に調べることによって取り出す必要がある.日本語文解析の困難さの原因の一つである並列構造の範囲に関する曖昧性の問題も,このような「広い範囲を同時的に調べる」ことを必要とする問題の一つである.日本語文は,特に長い文になればなるほど多くの並列構造を含んでいる.「〜し,〜し,〜する」のように,いわゆる連用中止法によって複数の文を1文にまとめることができることは日本語文の特徴でもある.それ以外にも,名詞並列,形容詞並列や,連体修飾節の並列などが頻繁に現れる.このような並列構造に対する従来の解析方法は,基本的には次のようなものであった\cite{Nagao1983,Agarwal1992}.例えば「\ldots原言語を解析する\underline{処理と}相手言語を生成する\underline{処理を}\ldots.」という文では,並列構造前部の{\bf主要語}である「\underline{処理(と)}」に対して,それよりも後ろにある名詞の中から最も類似している名詞を探すという方法により後部の主要語を決定していた(この場合「\underline{処理(を)}」が後部の主要語).しかし並列構造においては,主要語間だけではなく,構造内の他の語の間(この例の場合「原言語」と「相手言語」,「解析する」と「生成する」)にも,さらに文節列の並び(「〜を〜する〜と〜を〜する〜」)にも類似性が認められる場合が多く,これらの類似性を考慮することによってより正確に並列構造を認識することができる.そこで我々は,並列構造の存在を示す表現(名詞並列を示す助詞「と」など)の前後における最も類似度の高い文節列の対を,音声認識などで広く使われているダイナミックプログラミングのマッチング法と同様の考え方を用いて発見するという方法を考案し,このことにより並列構造の高精度な検出が可能であることを示した\cite{KurohashiAndNagao1992}.本論文では,このようにして検出した並列構造の情報を利用して構文解析を行なう手法を示す.多くの場合,いったん並列構造が発見されると文の構造は簡単化した形でとらえることができる.その結果,単純な係り受け規則を適用するだけで高精度な構文解析が可能となる.本手法は,たとえば,大規模なテキストを解析して,そこから新しい情報を取り出そうとするような場合に特に有用である.対象テキスト中の専門用語や専門的に使われている述語について,それらの相互間の関係はそこで始めて提示された概念であるかもしれない.その場合には,そのような概念の相互関係は辞書に記述されておらず,辞書中の意味記述に頼った解析は不成功となる.また,大規模なテキストを扱うのに十分であるような複雑な文法規則や詳細な格記述を用意することは,実際には非常に困難である.新しい概念は用語相互間のシンタックスによって示されるのであるから,シンタックスを尊重した解析が重要である.また,本手法でうまく扱えない問題を整理することによって,構文解析における本質的問題を明らかにすることも重要な問題である.これまでの,構文解析における曖昧性の議論では,人間にとっても曖昧であるような表現を取り上げたものが多かった.しかし,従来の構文解析法が十分でないという印象を人間に与えるのは,そのような点ではなく,人間であれば絶対にしないような部分に不必要な曖昧性を認識するためである.その原因がどこにあるかを調べるためには,本手法のように高精度でかつ決定論的に動作する道具立てが必要である.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,70)\put(5,5){\framebox(80,60){ps/examp1.new.ps1}}\end{picture}\end{center}\caption{並列構造の推定の例(例文1)}\label{fig:suitei_rei}\end{figure}}
V18N01-01
日本語非母語話者が日本語の作文をする場合,共起表現知識が不足するため,不自然な文を産出することがある.日本語に言語直観のない非母語話者にとって,共起表現の適切さの判断は難しい.\cite{杉浦}は,母語話者と非母語話者の知識の決定的な違いは,記憶しているコロケーション知識の量と質の違いではないかと考え,非母語話者の作文の不自然さを説明している.このような非母語話者の問題に対して,第二言語習得の研究では,文の産出には,例文の提示\cite{Summers}や,語の用法・共起関係の学習\cite{Granger}が重要であると考えられている.しかし,日本語学習者に対する日本語知識の情報源として,国語辞典はあまり役に立たない.国語辞典は,難しい言葉の意味を調べたり,表記を確かめたりするのに使用され,母語話者にとって自明である語の用法や例文については十分に説明されていない.このため,日本語非母語話者でも日本語—母語辞書を併用することで見出し語の主要な意味を確認することはできるが,産出しようとしている共起表現が自然であるかどうかを判断することは困難である.そこで,動詞の見出し語に対して,共起する名詞と例文が示された日本語学習者のためのコロケーション辞典が作成されている\cite{姫野}.しかし,辞書に記述できる情報は限られているため,やはり,学習者が産出しようとしている表現が自然であるかどうかを確認できるとは限らない.しかも,日本語非母語話者が作文をする場合,自分が表現したい事柄に適した日本語の表現を思いつかないことがしばしばある.名詞は母語—日本語辞書である程度選択できるが,特に,動詞は難しい.母語で思いついた動詞を母語—日本語辞書で調べる,あるいは,類語辞書を利用して単語を拡張するということも考えられるが,そうして得られた動詞$v$を用いた表現が自然な表現であるかどうかは不明である(動詞$v$を,国語辞典,あるいは(姫野2004)の辞書で調べても,$v$を用いた表現が用例として記載されている可能性は前述のように低い).また,非母語話者の不自然なコロケーションは,辞書引きによる母語からの類推が原因で生じることがある\cite{滝沢}.さらに,そもそも母語からの類推による辞書引きで得られる単語は限られており,母語—日本語辞書および類語辞書を用いても適切な単語が見つからないことさえある.一方,\cite{Nishina}や\cite{Kilgariff}で提案されているシステムは,名詞から,その名詞との共起頻度の高い動詞や結びつきが強い(Dice係数などで判定)動詞を検索することができる.しかし,名詞と出現頻度の高い動詞や結びつきが強い動詞の中に自分が意図する動詞があるとは限らないため,そのような動詞の中から自分が意図する動詞を見つけるのは難しい.本研究では,コロケーションのうち日本語文を構成する最も基本的なものの一つである名詞$n$が格助詞\footnote{本稿では,動詞に係る名詞の格を表す可能性のある助詞として,「が」「を」「に」「で」「と」「へ」「から」「まで」を扱い,これを格助詞と呼ぶことにする.}$c$を伴って動詞\footnote{機能語「(さ)せる」(使役),「(ら)れる」(受身),「できる」(可能)については,動詞とこれらの機能語を合わせて一単語として扱う.}$v$に係っている共起表現$\tupple{n,c,v}$を対象とし,学習者が入力した共起表現$\tupple{n,c,v}$に対して,それから連想される適切な共起表現(代替共起表現\footnote{代替共起表現が入力された共起表現自身である場合もある.}と呼ぶ)の候補を提示する手法を提案する.本稿ではその手始めとして,共起表現$\tupple{n,c,v}$において$n,c$が正しいという前提の下,動詞のみを置き替えた代替共起表現の候補を提示する手法を扱う.これは,予備調査において,不自然な$\langle名詞—格助詞—動詞\rangle$共起表現を収集した結果,動詞の誤用が多かったため,学習者が作文する際,名詞の選択よりも動詞の選択の方が難しいと考えたからである.なお,代替共起表現中の置き替えられた動詞を代替動詞と呼ぶ.$n$,$c$が正しいという前提の下,学習者(日本語非母語話者)が適切な共起表現$\tupple{n,c,v'}$を産出する際の困難は,前述したように,\begin{itemize}\item辞書や自身の語彙知識に基づいて,自身が意図している意味を持つ動詞(表現したい内容を表す動詞)$v'$の候補を見つけること,\item候補動詞に対して,$\tupple{n,c,v'}$が共起として自然であるかどうかを判断すること\end{itemize}である.\ref{共起の自然さ}節で述べるように,共起表現が不自然であるという判断を下すことは難しいが,母語話者コーパスを利用すれば共起表現が自然であることはかなりの精度で判定することができる.一方,\ref{誤用と正用の関係}節で述べるように,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」と考えられる.これは,予備調査において,$v$と$v'$の共通点として,別の名詞—格助詞とであればどちらも共起できるケースがあることに気付いたからである.そこで本稿では,この仮説に基づき,母語話者コーパスを用いて$\tupple{n,c}$との共起が自然と判定される代替動詞候補を,学習者が入力した共起表現の動詞との出現環境の類似度の降順に提示する手法を提案する.これは,学習者が適切な共起表現を産出する際の二つの困難を克服するための情報を提供するものであり,作文支援システムとして有用と考えられる.なお,提示される候補動詞は,共起の自然さはある程度保証されるものの,学習者が意図した意味を持つ動詞とは限らないため,国語辞典や日本語—母語辞書を調べて,意図した意味を持つ動詞を学習者自身が候補動詞の中から選択する必要がある.日本語学習者の場合でも,国語辞典や日本語—母語辞書を用いることにより,候補動詞の主要な意味は把握でき,自身が意図した意味を持つ動詞かどうかの判断はできると考えているが,実際にそのような判断が可能かどうかは学習者の日本語能力にも依存する.このため,本研究では中級学習者をシステムの利用者として想定している.また,共起表現の誤用のうち,初級学習者に多い格助詞の誤りや中級学習者に多い動詞の自他の誤りなどの文法的誤りは,係り受け解析器の文法辞書を使って指摘・訂正が可能であるため対象としない.本稿では,学習者の作文から得られる誤用共起表現と,それを自然な表現に修正したもの(正用共起表現)の対からなるデータ(誤用・正用共起表現データ)を用いて,前述の仮説を検証する.同時に,シソーラスを用いた場合との比較から,誤用動詞に対する代替動詞候補を順序付けて提示するための尺度として,出現環境の類似度の方が意味的な類似度よりも有用であることを示す.また,同誤用・正用共起表現データを用いて,提案手法に基づいた共起表現に関する作文支援システムの実用性を検討する.
V19N05-03
現在,電子メール,チャット,{\itTwitter}\footnote{http://twitter.com}に代表されるマイクロブログサービスなど,文字ベースのコミュニケーションが日常的に利用されている.これらのコミュニケーションにみられる特徴の一つとして,顔文字があげられる\cite{ptas2012}.旧来の計算機を介した電子メールなど,ある程度時間のかかることを前提としたコミュニケーションでは,直接会った際に現れる非言語的な情報,具体的には,表情や身振りから読み取ることのできる感情やニュアンスなどの手がかりが少なくなることから,フレーミングなどのリスクを避けようとすると,個人的な感情を含まない目的のはっきりした対話に用いることが適切とされる\cite{derks2007}.一方,利用者のネットワークへのアクセス時間の増加に伴い,マイクロブログや携帯メールなど,リアルタイム性の高いコミュニケーションメディアが発達するとともに,親しい友人同士の非目的志向対話への需要は増している.このようなコミュニケーションにおいては,顔文字が,対面コミュニケーションにおける非言語情報の一部を補完するとされている\cite{derks2007}.顔文字とは``(\verb|^|−\verb|^|)''のように,記号や文字を組みあわせて表情を表現したもので,テキスト中で表現された感情を強調・補足できる,という利点がある.一方,マイクロブログや携帯メールなど,リアルタイム性の高いコミュニケーションメディアの発達と時期を同じくして,その種類は増加の一途をたどっている.その中から,ユーザが文章で伝えたい感情に適切な顔文字を,ただひとつだけ選択するのは困難である.また,顔文字入力の主な方法である顔文字辞書による選択では,指定された分類カテゴリ以外の意味での使用を目的とした顔文字を入力することは難しく,予測変換機能では,単語単位を対象としてしか顔文字を提示できない.そのほかの手段として,他のテキストからのコピーアンドペーストやユーザ自身による直接入力があるが,これらは操作数が多く,効率的ではない.そこで,本研究では,ユーザによる適切な顔文字選択の支援を目的とし,{\bfユーザの入力文章から,感情カテゴリやコミュニケーションや動作を反映したカテゴリを推定}し,顔文字を推薦するシステムの構築を目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:category}節では,顔文字推薦のために本研究で定義したカテゴリについて説明する.\ref{sec:implementation}節では,顔文字推薦システムの実現について紹介し,\ref{sec:evaluation}節では,評価実験について説明する.最後に,\ref{sec:conclusion}節で結論をまとめる.
V31N04-08
デジタルプラットフォーム上での誹謗中傷は,現代社会における重大な懸念事項となっており,この問題に対処するため,誹謗中傷を自動で検出するモデルやデータセットの開発が幅広く取り組まれ始めている\cite{fortuna-2018,poletto2021resources}.既存のデータセットは,階層的な分類を採用するOLID\cite{zampieri-etal-2019-predicting}のようなアプローチ,ヘイトスピーチ\cite{Davidson_Warmsley_Macy_Weber_2017,gibert2018hate}など,サブタスクごとに問題を具体化し,判断基準を明確にするアプローチが一般的である.一方で,主観性を重視したデータ構築もあり,アノテータに常識的な判断を委ねる研究\cite{fortuna-etal-2019-hierarchically}やコメントの有害性を評価するTOXICITYスコア\cite{muralikumar2023toxity}のように一定の主観的評価が認められている.このような2つのアプローチによって,多様で客観的な定義が難しく\cite{vidgen-etal-2019-challenges},主観的な性質のある\cite{kumar2021,waseem2021disembodied,weerasooriya-etal-2023-vicarious}誹謗中傷に対して,アノテーションが行われてきた.しかし,既存研究に共通した問題がある.それは多くの研究が,大規模なデータセットを実現するために,クラウドソーシングによる非専門家のアノテーションに頼っている点である.このため,タスクの単純化,サブタスクへの分割,主観的判断への負託により,現実の誹謗中傷問題とのギャップを生み\cite{arora},検出における不公平さをもたらす恐れがある\cite{sap-etal-2022-annotators}.例えば,ある発言が誹謗中傷かどうかの判断は,人種や国籍,性別,政治思想によって変化\cite{sap-etal-2019-risk,weerasooriya-etal-2023-vicarious}するため,集合知によるアプローチを困難にしている.問題を全体的な観点から捉えつつ社会文化的な背景を理解した判断を行うために,専門家の知見を活用する重要性\cite{Vidgen2020-plosone}が指摘されている.また,海外の良質なデータセットを翻訳することも考えられるが,文化に依存する誹謗中傷は,言語固有のデータセットが重要\cite{hindi,noboundry}となる.実際上の誹謗中傷対策は,%%%%大手プラットフォームによる自主的なコンテンツモデレーションに依存している\cite{ihou2,kaushal2024automatedtransparencylegalempirical}ものの,大手プラットフォームによる自主的なコンテンツモデレーションに依存している(総務省(b);Kaushaletal.2024)\nocite{ihou2,kaushal2024automatedtransparencylegalempirical}ものの,そのような努力にも関わらず,誹謗中傷による申し立て件数は増加傾向\footnote{手続き簡略化から1年,ネット中傷の発信者開示請求が急増…対応できない事業者には制裁金も\\読売新聞\url{https://www.yomiuri.co.jp/national/20231016-OYT1T50063/}}であり,日本のオンライン空間において,自主的な対応が望めないプラットフォームの誹謗中傷に対処するためには,言論の自由を保護も考慮した,%%%%違法性に基づく法的枠組みに従う必要である\cite{ihou}.違法性に基づく法的枠組みに従う必要である(総務省(a))\nocite{ihou}.このような背景を踏まえ,違法性を根拠にした誹謗中傷検出に向けて,本研究では,日本の裁判例をもとに,法学専門家によるデータセット構築\footnote{データセットは\url{https://github.com/horshohei/japanese-offensive-language-from-court-case}で公開}を行うアプローチをとる.図\ref{overview}に例を示す.裁判例(図\ref{overview}左)は,基本的には権利の侵害の判断を述べるものであるが,誹謗中傷発言自体も引用し,その問題点について議論している.これを材料に,図\ref{overview}右のような構造化した形へ変換する.この際,オンライン上の不適切発言に対して,民法上の不法行為に対応する名誉権や名誉感情などの法的権利を裁判所の判断を利用しながらラベル付けを行う.このアプローチの利点は,裁定という法的結果と結びつけることで,主観性やバイアス,判断の不一致といった問題を解決できる点である.これには,裁判例を読解する専門知識が必要であるため,本研究では法学の専門家が作業を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-4ia7f1.eps}\end{center}\caption{本研究の概要:民事事件の裁判例から誹謗中傷検出に向けたデータセットを作成する.}\label{overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿では,このデータセット構築の方法論を述べるとともに,使用法の理解のために,データセットを用いた予備的な実験と考察を付す.本研究の結果,他言語と比較してリソースが不足しているデジタルプラットフォーム上の誹謗中傷の学術的理解に貢献し,配慮されたコンテンツモデレーションの実践に繋がることを祈念している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V05N01-07
自然言語文には動詞を省略した文が存在する.この省略された動詞を復元することは,対話システムや高品質の機械翻訳システムの実現には不可欠なことである.そこで本研究では,この省略された動詞を表層表現と用例から補完することを行なう.表層表現とは,文章の表層に現れる手がかり表現のことである.例えば,助詞の「も」で文が終っている省略文の場合,助詞の「も」という手がかり語のおかげで前文の繰り返しであろうと推測でき,前文の文末の動詞を補えばよいとわかる.この表層表現を用いる手法は,応用範囲の大きい手法であり,解析したい問題があるとき,そのための手がかりとなる言語表現がその問題の近くに存在することが多く,それを用いることでその問題が解析可能となる.用例とは,人間が実際に使用した自然言語文のことである.用例を用いた動詞の補完方法の一例を以下にあげる.例えば,「そううまくいくとは」の文に動詞を補いたいとするとき,「そううまくいくとは」を含む文(用例)を大量の文章(コーパス)から取り出し(図\ref{tab:how_to_use_corpus}),「そううまくいくとは」に続く部分(この場合,「思えない」「限らない」など)を補完するということを行なう.この用例を用いる手法も,応用範囲の大きい手法であり,解析したい問題とよく似た形の用例を探してくれば,すぐにでも用いることができるものである.\begin{figure}[t]\begin{center}\begin{tabular}[t]{lll}&{\bf一致部分}&{\bf後続部分}\\[0.2cm]こんなに&\underline{うまくいくとは}&思えない。\\いつも&\underline{うまくいくとは}&限らない。\\完全に&\underline{うまくいくとは}&いえない。\\\end{tabular}\end{center}\caption{コーパスにおける「うまくいくとは」を含む文の例}\label{tab:how_to_use_corpus}\end{figure}以上のように表層表現と用例はともに応用範囲の広い方法であり,かつ,現在の自然言語技術でも十分に用いることができる便利な手法である.本稿はこの表層表現と用例を用いて動詞の補完を試みたものである.本研究は先行研究に対し以下の点において新しさがある.\begin{itemize}\item日本語の動詞の省略の補完の研究はいままでほとんどなされていなかった.\item英語については動詞の省略を扱った研究はたくさんあるが,それらは補うべき動詞がわかっているときにどういう構文構造で補完するべきかを扱っており,補う動詞を推定する研究はほとんどなされていない\cite{Dalrymple91}\cite{Kehler93}\cite{Lappin96}.それに対し,本研究は省略された動詞を推定することを扱っている.\item補うべき動詞が文中にないことがあり,システムが知識を用いて補うべき動詞をつくり出さなければならないことがある.本研究ではこの問題に対し用例を用いる方法で対処している.\end{itemize}
V28N03-09
自然言語処理分野では,シンボルグラウンディング課題\cite{The.Symbol.Grounding.Problem}が注目を集めている.自然言語と画像や動画といった実世界を表すものを紐づけたコーパスが数多く公開され,利用可能となっている\cite{KUSK.Dataset:.Toward.a.Direct.Understanding.of.Recipe.Text.and.Human.Cooking.Activity,Flow.Graph.Corpus.from.Recipe.Texts,A.Survey.of.Current.Datasets.for.Vision.and.Language.Research}.このようなデータセットを活用したシステムの例として,画像や動画からの文生成\cite{Automatic.Sentence.Generation.from.Images,Corpus-Guided.Sentence.Generation.of.Natural.Images}などがある.我々は,チェスのような展開型ゲームへの解説文は真に知的なシステムを開発するためのテストベッドとなると考えており,特に将棋に着目している.典型的な画像キャプショニングと異なり,将棋解説文は過去や未来への言及を含む.一方で,ゲームの世界は明確に定義されており,解説文中の過去や未来への言及の多くはゲーム木の中に対応づけることができる.また,自然言語の曖昧性の一部は,その事象が実現するか否かをゲームの世界におけるゲーム木探索\cite{Tsuruoka02game-treesearch}を活用して評価することで解消が期待できる.この性質を活用し,我々はゲーム解説生成システムを機械学習ベースの手法により構築した\cite{Learning.a.Game.Commentary.Generator.with.Grounded.Move.Expressions}.本論文では,我々が構築したゲーム解説コーパスの説明を行う.我々は人間によるゲーム状態(将棋などのゲームにおいては\doubleQuote{局面}と呼ばれる)に紐づいた解説文を収集し,その一部に人手で以下の複数の層からなるアノテーションを行った.\begin{itemize}\item日本語テキストに対する単語分割アノテーション\item将棋ドメイン特有の固有表現(NamedEntity;NE)タグの定義とアノテーション\item過去・未来や非事実の事象への言及を認識する上での事象の事実性とそれを伝えるモダリティ表現を表すための3層のアノテーション\end{itemize}本コーパスに期待される活用ケースは以下の通りである.\begin{itemize}\itemゲーム世界は明確に定義されており,またこれらのゲームを解くAIプレイヤの中には人間トッププレイヤを上回る性能のものがある.これらのAIプレイヤは局面を理解したり解析するのに役立てられている.本コーパスはこれらのAIを活用したシンボルグラウンディング研究への活用が期待できる.\item解説文は現在の局面だけでなく過去や未来,あるいは仮定の局面への言及を含む.モダリティ情報を解析することは,これらの解説文を理解する上で重要である.本コーパスは,実世界を参照するモダリティ情報解析研究への活用が期待できる.\item本コーパスはNEとモダリティ表現のアノテーションの両方を含む,局面に対応する解説文からなる.これらの要素の間には強い相関がある.例として,モダリティ表現は時として局面と解説文中のNEとの関連性を表している.実世界の状態・NE・モダリティ情報の関連性を解析することは,自然言語を理解する上で非常に重要である.本コーパスは,このような解析課題におけるテストベッドとしての活用が期待できる.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V31N03-10
本論文では,小説,アニメあるいはゲームなどに登場する特定のキャラクタを発話者とした言語モデルの構築手法を提案する.小説,アニメあるいはゲームなどの登場人物は,仮想的にではあるが,ある特徴を有しており,その人物による自然な発話にはその特徴を有したものが必要である.高度化された対話システムにおいても,ディスプレイに表示される仮想的な発話者あるいは実際のロボットの発話では,その見た目から想起される発話者らしい発話が自然である.このような背景から発話者の特徴を反映した発話文を生成する研究がいくつか行われているが,それらの多くは規則ベースの手法である(\cite{miyazaki4},\cite{kishino}など).規則ベースの手法は規則の構築が手作業となるためその構築コストが高く,また対象を別の発話者に変更することが困難という問題がある.近年は対話システムに個性を持たせることを目的に学習ベースのものも提案されているが,そこでは学習のためのデータをどのように準備するかが鍵となっている(\cite{zhang-etal-2018-personalizing},\cite{kasahara-etal-2022-building}など).本論文では発話者の特徴を有した発話文を生成するために,その発話者の言語モデルを構築することを試みる.発話者の言語モデルはその発話者の発話文を大量に収集することで自動的に構築できる.ただしその発話者は,通常,仮想的な発話者であるため収集できる発話文の量は限られる.そのため本論文ではGPT-2\cite{gpt2}をベースの言語モデルに設定し,対象発話者の少量の発話文によって,そのベースの言語モデルをfine-tuningすることで目的の言語モデルを構築する.その際,対象の発話者と同一作品の別の登場人物の発話を「ドメイン」の発話文,対象発話者の発話文を「タスク」の発話文と捉え,DAPT(domainadaptivepretraining)+TAPT(taskadaptivepretraining)\cite{Suchin}の手法を利用する.更に言語モデルの性能を上げる(パープレキシティを下げる)ために本論文では,別人物の発話文を対象発話者風の発話文に変換する2種類のT5\cite{t5}モデルを構築する.この2種類のT5モデルを利用することで,2種類の対象発話者風の発話(「擬似データ(1)」と「擬似データ(2)」)を生成することができる.この生成された擬似データを,本来の対象発話者の発話文のデータに追加的に利用することで効果的なfine-tuningを行う.実験では株式会社スクウェア・エニックスのゲームであるドラゴンクエストVII内のセリフをコーパス\footnote{本コーパスは\url{https://sutton-kyouwa.com/g/}からダウンロードしたものを手作業で編集,整形したものである.本コーパスの本実験での使用に対して著作権の問題が生じないことは,AI関係の案件に精通した弁護士から確認済みである.}とし,その登場人物7名をそれぞれ対象発話者に設定した.このコーパスから取り出した対象発話者の発話文を訓練データ,検証用データ及びテストデータに分け,テストデータに対する言語モデルのパープレキシティから構築した言語モデルの評価を行った.訓練データを用いてGPT-2をfine-tuningした言語モデルの各発話者のパープレキシティの平均は27.33であったが,本論文の提案手法を用いることで21.15まで改善できた.本論文の貢献は以下である.\begin{description}\item[(1)]特定キャラクタの言語モデルを構築するために,作中の登場人物の発話をドメインのデータ,対象のキャラクタの発話をタスクのデータとしてみなして,DAPT+TAPTの手法を用いてGPT-2のfine-tuningを行う手法を提案した.\item[(2)]作中の各登場人物の発話文とそれを一般的な発話文に変換した少量のデータを手作業で作成し,一般的な発話文から対象のキャラクタ者風の発話文へ変換する\textbf{一般-対象変換モデル}を構築し,対象のキャラクタの発話文の擬似データ(擬似データ(1))を構築する手法を提案した.\item[(3)](2)と同じデータを利用し,一般-対象変換モデルとは逆向きの\textbf{対象-一般変換モデル}を構築し,それら2つのモデルを組み合わせて対象のキャラクタの発話文の擬似データ(擬似データ(2))を構築する手法を提案した.\item[(4)]擬似データ(1)と擬似データ(2)を用いて,対象のキャラクタの言語モデルの性能を高めた.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V25N04-05
\label{sec:intro}並列構造は等位接続詞などの句を連接させる働きのある語にともなって,句や文が並列して出現する構造である.並列構造は自然言語において高い頻度で現れるが,並列構造が包含する句の範囲には曖昧性があり,また並列構造によって1文が長くなるため,自然言語解析を困難にしている主な要因となっている.近年,句構造や依存構造などの構文解析の手法は顕著に発展してきているが,並列構造を高い精度で解析する決定的な手法は確立されていない.並列構造の曖昧性が解消されることで構文解析の誤りを減らすだけではなく,科学技術論文の解析や文の要約,翻訳など広い範囲のアプリケーションでの利用が期待される.並列構造の構成要素である個々の並列句には二つの特徴がある.一つは並列構造内の個々の並列句はそれぞれ類似した意味・構造となる特徴であり,もう一つはそれぞれの並列句の入れ替え・省略を行っても文法上の誤りが生じることや元の文意を損なうことがなく,文として成立するという特徴である.並列句の範囲を同定するタスクにおいて,従来の研究では並列構造を同定するための重要な手がかりのうち,並列句の候補となる句のペアの類似度に基づくモデルが提案されてきた\cite{kurohashi-nagao:1994:CL,shimbo-hara:2007:EMNLP-CoNLL,hara-EtAl:2009:ACL-IJCNLP,hanamoto-EtAl:2012:EACL}.しかしながら,並列句は必ずしも類似するとは限らず,異なる種類の句が並列した場合や動詞句や文の並列では並列句はしばしば非類似となり,類似性のみを利用した手法では非類似の並列句をとらえることができなかった.また従来手法では類似度の計算に構文情報やシソーラスを用いて人手で設計された素性を利用しており,素性設計のコストや外部リソースの調達コストの点で問題がある.これらの問題を克服するために,Ficlerら\cite{ficler-goldberg:2016:EMNLP}は,並列句の類似性のみならず可換性に着目し,ニューラルネットワークによって類似性・可換性の特徴ベクトルを計算し,並列句範囲の同定を行うモデルを提案した.Ficlerらの手法では外部の構文解析器を用いて並列句範囲の候補を抽出したのち,候補に対してスコア付けをして範囲を同定するというパイプライン処理を行っている.Ficlerらの手法はPennTreebankでの並列句範囲の同定のタスクにおいて,既存の句構造の構文解析器を上回る精度を達成し,GENIAコーパスにおいても新保ら\cite{shimbo-hara:2007:EMNLP-CoNLL},原ら\cite{hara-EtAl:2009:ACL-IJCNLP}の並列句の類似性に基づく手法より高い性能を発揮した.Ficlerらの手法は従来の手法の欠点であった非類似となる並列句の範囲をとらえられない点や人手による素性設計のコストの点をいくらか解決しているものの,外部の構文解析器の出力に強く依存しており,解析器の誤りに起因する誤り伝搬やパイプライン処理による解析速度の低下の点で課題が残っている.本研究では,単語の表層形と品詞情報のみから並列句の類似性・可換性の特徴を抽出し,並列構造の範囲を同定する手法を提案する.また句を結びつける働きを持つかどうかが曖昧である語に対して,連接する並列句が存在しない場合の取り扱いや,並列句が存在しない場合を検出する方法についても示す.提案手法では,近年自然言語の解析で広く用いられている双方向型リカレントニューラルネットワークを使用して候補となる並列句の文脈情報を考慮した類似性・可換性の特徴ベクトルを計算する.実験の結果,PennTreebankにおける並列句の範囲同定のタスクにおいて,構文情報を用いない提案手法が構文情報を利用した既存手法と同等以上のF値を得た.さらにGENIAコーパスにおいては,類似となる傾向の高い名詞句の並列,非類似となる傾向の高い文の並列の両方について,提案手法が既存手法を上回る再現率を達成したことを示す.提案手法の貢献は,Ficlerらの手法のような構文解析の結果に依存したパイプライン処理やニューラルネットワークのアーキテクチャを使用することなく,原らの手法で課題となっていた非類似となる並列句の範囲同定の再現率を向上させ,全体として既存手法と同等以上の解析精度を達成したことである.
V06N06-02
インターネット,イントラネットが急速に拡大し,情報洪水と呼ばれる程,多くの情報が氾濫している.氾濫する情報を効率良く入手する技術として,従来から,要約や抄録に関する研究が行なわれている\cite{tamura,hara,yamamoto}.これらの多くは,主に一つのドキュメントの内容を要約することに重点を置いているため,新聞やニュースのようなイベントに対して複数のドキュメントが存在する場合,時間的なイベントの変化のようなエピソード的な情報を構造化しにくいという問題がある\cite{yoshida}.情報を構造化して要約する手法としては,ドキュメントに対する重要項目をテンプレートとして準備し,テンプレートを用いて抽出した情報から要約を行なう手法がある\cite{mckeown,ando}.また,要約のためのテンプレートを,与えられた話題に関するドキュメント集合から自動的に抽出する手法も提案され,重要度を考慮したテンプレートの抽出が可能となっている\cite{yoshida}.実際のオフィス業務においては,イベントの経過情報や状況把握など分析的な情報選別のために,要約や抄録情報が求められる.この場合,ユーザの関心や意図が多岐に渡り,かつ,対象とする関連情報が大量に存在する.そのため,重要度を考慮するだけでなく,ユーザの様々な視点や観点から抄録情報をロバストに生成するフレームワークと,大量にある情報を大局的に把握するための要約が必要となる.一般に,要約(Abstract)とは,文書の中心的な話題を簡潔にまとめたものであり,抄録(Extract)とは文書から何らかの基準で文を抜き出しだしたものである.要約は,(1)indicative:読むか読まないか(2)informative:内容の要約(3)critical:要約+批評(4)comparative:サーベイというレベルに分けることができるが,内容の理解が必要となり,現在の技術では困難なものが多い\cite{paice}.抄録は,何らかの手かがりを元に重要な文を抜き出すことで,各文にスコアを付けてスコアの高いものを抜き出すことが多い.手法としては,キーワードの頻度によるもの,タイトルのキーワードを用いるもの,文の位置情報を用いるもの,構文関係を用いるもの,手がかりとなるキーワードを用いるもの,文の関係に着目するもの,などの方法が提案されている.エピソード抄録は,係り受け関係と固有名詞やパターン表現を手がかりとして,情報の要素をより詳細にインデクスして,時間的または位置的に情報をアレンジして抄録を作成する手法である.本稿では,時間表現,固有名詞,動作表現,動詞の格フレームに着目して,テキストに含まれるWho(だれが)・When(いつ)・Where(どこで)・What(なにを)・Why(なぜ)・How(どのように)・Predicate(どうした)といういわゆる5W1H情報を抽出して,時間や場所をソートキーとしたエピソード抄録,5W1H項目にシソーラスを適用して上位概念で要約する鳥瞰要約を提案する.5W1H情報は,日常の出来事を理解するためのキーとなっている概念であり,出来事の内容の核心部分を表現する.5W1H情報に着目することによって,オフィス業務における有効な抄録情報と大局情報を要約として生成することが可能となる.本報告では,まず,オフィス業務で求められる抄録と要約について説明し,次に,5W1H情報を用いたエピソード抄録と鳥瞰要約について説明する.そして,5W1H情報抽出の手法について述べ,エピソード抄録を新聞記事とセールスレポートに適用した事例と,鳥瞰要約を新聞記事情報に適用した事例を報告する.
V07N01-04
本稿では単語の羅列を意味でソートするといろいろなときに効率的でありかつ便利であるということについて記述する\footnote{筆者は過去に間接照応の際に必要となる名詞意味関係辞書の構築にこの意味ソートという考え方を利用すれば効率良く作成できるであろうことを述べている\cite{murata_indian_nlp}.}.本稿ではこの単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる.
V11N02-05
\label{sec:intro}現状の機械翻訳システムによる翻訳(以降,MT訳と呼ぶ)は,品質の点で人間による翻訳(人間訳)よりも劣り,理解しにくいことが多い.理解しやすい翻訳を出力できるようにシステムを高度化するためには,まず,MT訳と人間訳を比較分析し,両者の間にどのような違いがあるのかを把握しておく必要がある.このような認識から,文献\cite{Yoshimi03}では,英日機械翻訳システムを対象として,英文一文に対する訳文の数,訳文の長さ,訳文に含まれる連体修飾節の数,体言と用言の分布などについて人間訳とMT訳の比較分析を行なっている.また,文献\cite{Yoshimi04}では,係り先未決定文節数\footnote{文を構成するある文節における係り先未決定文節数とは,文を文頭から順に読んでいくとき,その文節を読んだ時点で係り先が決まっていない文節の数である\cite{Murata99}.}の観点から人間訳とMT訳における構文的な複雑さを比較している.しかし,文章の理解しにくさの要因は多種多様であり,また互いに複雑に絡み合っていると考えられるため,比較分析は,上記のような観点からだけでなく,様々な観点から行なう必要がある\footnote{文献\cite{Nakamura93}には,作家の文体を比較するための言語分析の着眼点として,文構成,語法,語彙,表記,修辞など多岐にわたる項目が挙げられている.}.本研究では,上記の先行研究を踏まえて,英文ニュース記事に対する人間訳とMT訳を,そこで使用されている表現の馴染みの度合いの観点から計量的に比較分析する.MT訳の理解しにくさの原因の一つとして,馴染みの薄い表現が多く使われていることがあると考えられる.このような作業仮説を設けた場合,人間訳とMT訳の間で理解しにくさに差があるかどうかを明らかにする.市販されているある機械翻訳システムで次の文(E\ref{SENT:sample})を翻訳すると,文(M\ref{SENT:sample})のような訳文が得られる.これに対して,人間による翻訳は文(H\ref{SENT:sample})のようになる.\begin{SENT2}\sentEThethrill-seekerfloatedtotheground.\sentHその冒険者は地上に舞い降りました。\sentMスリル‐捜索者は、地面に浮動した。\label{SENT:sample}\end{SENT2}文(M\ref{SENT:sample})は文(H\ref{SENT:sample})に比べて理解しにくい.その原因は次のような点にあると考えられる.\begin{enumerate}\item``thrill-seeker''の訳が文(H\ref{SENT:sample})では「冒険者」となっているが,文(M\ref{SENT:sample})では「スリル-捜索者」となっている.「スリル-捜索者」は,「冒険者」に比べて馴染みの薄い表現である.\item``float''が文(H\ref{SENT:sample})では「舞い降りる」と訳されているのに対して,文(M\ref{SENT:sample})では「浮動する」と訳されている.「浮動する」は,「舞い降りる」に比べて馴染みの薄い表現である.\end{enumerate}馴染みの薄い表現としては,文(M\ref{SENT:sample})における「スリル-捜索者」のような名詞や「浮動する」のような動詞など様々なものがあるが,本稿では動詞を対象とする.そして,人間訳で使用されている動詞の馴染み度の分布と,MT訳で使用されている動詞の馴染み度の分布を比較する.馴染み度の測定には,NTTデータベースシリーズ「日本語の語彙特性」の単語親密度データベース\cite{Amano99}を利用する.文献\cite{Takahashi91}では,(1)形容動詞化接尾辞「性」や「的」などを伴う語,(2)比較対象が省略された形容詞,(3)機械翻訳システムの辞書において「抽象物で,かつ人が作り出した知的概念」というラベルが付与されている語を抽象語句と呼び,「抽象語句密度は理解しにくさに比例する」という仮説が示されている.この仮説と本稿での仮説は関連性が高いと考えられる.ただし,本稿では,特に抽象語句という制限を設けず,単語親密度データベースを用いて表現の馴染み度を一般的に測定し,仮説の検証を行なう.なお,特にMT訳には誤訳の問題があるが,本研究は,翻訳の評価尺度として忠実度と理解容易性\cite{Nagao85}を考えた場合,後者について,MT訳が理解しにくい原因がどこにあるのかを人間訳とMT訳を比較することによって明らかにしていくものである.
V27N02-04
本稿ではニューラル関係分類モデルの中間表現中の不要な情報の除去に取り組む.関係分類とは,文書内のエンティティのペア間について,その文書内の言及に基づいた関係を識別するタスクである.本研究では特に一文中に存在するエンティティペア間の関係分類を扱う.このタスクにおいては,文の依存構造情報の利用が有用であることが知られている\cite{culotta-sorensen-2004-dependency}.特に,依存木上のエンティティペア間を繋ぐ最短経路内に存在するトークンのみを関係分類モデルの入力にするヒューリスティックを用いることで,さらなる識別性能の向上が報告されている\cite{H05-1091}.この手法は,エンティティペア間の関係についての言及は依存構造木上でそのペア間を繋ぐ最短経路上に大抵の場合存在するという観察結果に基づいている.この手法によって,入力文が非常に長い場合や,エンティティペアの間に多くのトークンが含まれるような場合であっても,そのうち構文的にエンティティペアを直接繋げる比較的少量のトークンのみを抜き出すことができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia3f1.eps}\end{center}\hangcaption{最短経路やその子ノードを含む部分木を取り出すヒューリスティックの例.注目エンティティペアをe1とe2で示した.}\label{fig:dependency_tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最短経路のヒューリスティックは,元々SupportVectorMachine(SVM)による特徴量ベースの関係分類モデルにおいて提案されていたが,ニューラルネットワークによるニューラル関係分類モデルにおいても有効であることが報告されている\cite{xu-EtAl:2015:EMNLP2,xu-etal-2016-improved,P16-1105:lstm-er}.しかしながら,関係についての言及は常に最短経路上にのみ存在するわけではなく,そのような例外のケースでは最短経路上の情報のみを入力とするのは不十分である.例えば図\ref{fig:dependency_tree}の\textit{cable}と\textit{insulation}間の関係分類を行うときを考えると,所有格の\textit{s}は最短経路上には含まれず,最短経路上のトークンのみから関係分類を行う場合,関係の向きが不明瞭になってしまう.ZhangらはGraphConvolutionalNetwork(GCN)で依存木を用いて計算を行う際,最短経路上のトークンのみではなく,最短経路上のトークンから数ステップの距離にある子トークンも含めた部分木を利用することで,木全体や最短経路上のトークンのみを利用する場合よりも性能向上を達成できる手法を提案した\cite{D18-1244:GCN-PrunedTree}.この手法で距離1までのトークンを利用する場合,図\ref{fig:dependency_tree}における所有格の\textit{s}を含めることができる.しかし,\textit{the}や\textit{ethernet}といった関係分類に不要なトークンも含めてしまうため,さらに良い選択規則が存在することを示唆している.本研究では,関係分類の識別性能の向上を目指し,ニューラルネットワークによる重要トークンの判別を行う\textit{マスク機構}と,それを用いたニューラル関係分類モデルを提案する.この提案機構では,ヒューリスティックの代わりに,学習を通じて重要トークンの判別規則を獲得する.学習は関係分類のタスク損失からEnd-to-Endに行われ,追加のアノテーションの必要はない.マスク機構の訓練ではGumbelトリックを用いたサンプリング\cite{gumbel}を行うことで,離散的なトークンの選択処理を自然に表現する.加えて,訓練中はマスク機構内にノイズを加えることで,マスクされるトークンの量をコントロールする.さらに,アテンション機構を用いることでマスクされた入力を元に計算された表現を集約する.提案モデルは再帰型/木構造ニューラルネットワークによる関係分類モデルであるLSTM-ERモデル\cite{P16-1105:lstm-er}をベースに,提案機構を導入する形で構築する.実験では提案モデルと,提案機構を導入せず代わりに依存木全体やヒューリスティックによる部分木を用いたモデルと比較することで,提案手法の有効性を確認した.本研究の貢献は以下の三つである.\begin{enumerate}\item最短経路のヒューリスティックを用いる代わりに,学習から重要なトークンの判別規則を学習するマスク機構を提案した.マスク機構はGumbelトリックを用いることで訓練可能な離散的なマスクを表現し,追加のアノテーションなしにタスク損失からEnd-to-Endに学習が可能である.\item提案機構を導入した関係分類モデルにより,最短経路のヒューリスティックを上回る性能を得た.また依存木全体を用いるベースラインモデルに対し有意な性能向上を達成した.\item提案機構により学習されたマスクと最短経路のヒューリスティックの類似度について調査した.学習されたマスクは最短経路と高い類似度となった一方,異なる学習試行ごとのマスク間の類似度はさらに高く,最短経路と一部異なる判別規則を学習していることを確認した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V31N03-15
固有表現抽出とは,文章中の固有表現の言及を検出し``人名''や``組織名''といった固有表現クラスへの分類を行う自然言語処理の基礎技術である.本技術は,質疑応答や機械翻訳といった技術への応用が期待される.固有表現抽出は近年の深層学習の発展により飛躍的な性能向上を遂げた\cite{li-etal-2020-dice,wang-etal-2021-automated}.しかし,固有表現抽出システムは人手で構築された学習データのもとに成り立っており,データ構築コストの高さが指摘されている\cite{NOTHMAN2013151}.近年では,より細かく固有表現を解析すべく,数種類の固有表現クラスに留まらず数百種類といった固有表現クラスに対して分類を行う細分類固有表現抽出の必要性が議論されている\cite{fg-ner-2018-empirical}.この場合,扱う固有表現クラスの数に伴い,学習データのラベル付けコストも高くなる.この問題を解決するため,Wikipedia記事のリンク構造を活用して学習データを自動生成することでコスト削減に取り組む研究が多く行われている\cite{richman-schone-2008-mining,nothman-etal-2008-transforming,NOTHMAN2013151,polyglot-2015,pan-etal-2017-cross,ghaddar-langlais-2017-winer,cao-etal-2019-low,strobl-etal-2020-wexea,Ling_Weld_2021,tedeschi-etal-2021-wikineural,malmasi-etal-2022-multiconer,tedeschi-navigli-2022-multinerd,strobl-etal-2022-enhanced}.WikipediaはWeb上で閲覧編集が可能な百科事典であり,膨大なエンティティの集合と,各エンティティを説明する記事からなる.記事中では出現した固有表現の言及に対して必要に応じてWikipedia内の他のエンティティを示すリンクが付与される.したがって,何らかの手段を用いて各エンティティに対して固有表現クラスを付与することで,リンク構造から固有表現抽出の学習データを自動生成することができる.先行研究では,Wikipedia記事に付与されているカテゴリーや,外部データにより各Wikipedia記事に対して付与されたカテゴリーを固有表現クラスに対応付けることで各エンティティの分類を行っている\cite{NOTHMAN2013151,polyglot-2015,ghaddar-langlais-2017-winer}.しかし,カテゴリーの定義と固有表現の定義が異なるため対応付けの際に分類誤りが発生するといった問題がある.Wikipediaのリンク構造は,リンク省略やNIL言及により固有表現抽出器の学習に用いるには不足している.\paragraph{リンク省略}Wikipediaでは,Wikipediaガイドラインにより多くのリンクが省略されている.本ガイドラインには,リンクが煩雑になることを防ぐために「同一エンティティを指す言及は初出の場合のみリンクする」といったルールが記載されている.例えば,記事中に言及「日本」が出現し,既に『日本』というエンティティにリンクしていた場合,以降の『日本』を指す言及へのリンクは省略される\footnote{例外として,記事中で重要と判断された場合,複数回リンクが付与される場合もある.}.また,「記事に紐づくエンティティの説明に重要であると判断される言及のみリンクする」といったルールも存在する.つまり,国名のように一般に認知されているエンティティに対するリンクが省略される場合がある.先行研究では,英語等の言語において固有表現の単語の先頭が大文字化されるといった表層的な言語特徴を活用したリンク検出\cite{nothman-etal-2008-transforming,richman-schone-2008-mining,NOTHMAN2013151,strobl-etal-2020-wexea,Ling_Weld_2021,tedeschi-etal-2021-wikineural,malmasi-etal-2022-multiconer}や,固有表現辞書を用いて検索を行いリンクを拡張する表層マッチ\cite{nothman-etal-2008-transforming,richman-schone-2008-mining,NOTHMAN2013151,polyglot-2015,ghaddar-langlais-2017-winer,strobl-etal-2020-wexea,Ling_Weld_2021,tedeschi-etal-2021-wikineural,tedeschi-navigli-2022-multinerd,strobl-etal-2022-enhanced}によりリンク省略に対応している.しかし,前者のような言語依存の特徴のほとんどが日本語には適用できない上,後者のような簡易的な表層マッチのみではカバー率の低下や,精度の低下といった問題が引き起こされる.\paragraph{NIL言及}固有表現の言及であるものの,紐づくエンティティがWikipediaに存在しない場合はリンクは付与されない.例えば,宮沢賢治の母親を指す言及「宮沢イチ」が出現した場合,Wikipediaには紐づく記事が存在しないため,リンクは付与されない.このような行き先のない言及を以下NIL言及と呼ぶ.NIL言及を無視してデータ構築を行った場合,本来ラベルがあるにも関わらずラベル無しと表示される偽陰性ラベルが混在してしまうため,データセットのカバー率が低下し,後続のモデル学習に悪影響を与える.先行研究では,外部辞書を用いた表層マッチ\cite{richman-schone-2008-mining,strobl-etal-2020-wexea}や深層学習による偽陰性ラベル検出\cite{pan-etal-2017-cross},言語特徴や深層学習を用いた偽陰性ラベルを含む文のフィルタリング\cite{tedeschi-navigli-2022-multinerd}等の技術を開発し,解決に取り組んでいる.しかし,他言語で使用されるような辞書や言語特徴は直接日本語に適用できない上,簡易なラベル補完はノイズを増加させる危険性があり,フィルタリングは有用な教師情報を除去してしまうといった問題がある.本研究では,これらのリンク省略とNIL言及に対処するための言語非依存な手法を提案する.提案手法とともにWikipediaから固有表現抽出器を学習する工程を図\ref{fig:train_ner}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{31-3ia14f1.pdf}\end{center}\caption{本研究におけるWikipediaからの固有表現抽出器学習工程:◎は提案手法を示す.}\label{fig:train_ner}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%リンク省略に対処するため,Wikipediaガイドラインを活用した深層学習ベースのリンク拡張手法を提案する.本手法では,ガイドラインのうち「同一エンティティに関するリンクは初出の場合のみ付与する」というルールに着目する.これはすなわち,リンク以前の文章には同一エンティティを指す言及が存在しないことを意味している.この性質を利用することで,リンクが示す言及の単語とエンティティを正のペア,リンク以前の単語とエンティティを負のペアとして扱うことができるようになる.これらのペアから単語とエンティティのペアの判定を行う二値分類器を学習し,分類器により全ての単語に対して紐づくエンティティを予測することで省略されたリンクの補完を試みる.NIL言及に対処するため,文章中の期待エンティティ率(ExpectedEntityRate;EER)を推定する手法を提案し,固有表現抽出器の学習に推定値による制約を適用する.本手法では,各エンティティのリンク頻度と頻度ごとのエンティティ数の関係を近似することで,文章に含まれる固有表現の言及の割合を示す期待エンティティ率を推定する.エンティティ率を用いて学習時に制約を課し偽陰性ラベルの影響を軽減する手法\cite{effland-collins-2021-partially}に対して本推定値を適用することで,NIL言及の影響軽減を試みる.本研究では,リンク省略とNIL言及によるリンク不足の課題を独立して扱うため,エンティティに対する固有表現クラスの割り当てには人手により作成された正解ラベルを用いる.これにより,Wikipediaのカテゴリー等と固有表現クラスの紐付けにより発生する誤りから,提案手法による誤りを切り分けて検証することが可能になる.Wikipediaの構造化を行う森羅プロジェクト\cite{Sekine2019SHINRASW}では,日本語のWikipediaのおよそ8割の記事が,拡張固有表現階層\cite{sekine-etal-2002-extended}で定義されたカテゴリーに人手で分類されており,本研究ではこちらを用いる.{拡張固有表現階層はWikipediaを階層的に分類するための定義であり,本研究では``名前''以下の約200カテゴリーを固有表現クラスとして扱う.}性能の比較に評価データが必要であるため,本研究では日本語Wikinewsから収集されたニュース記事に対して人手によりラベルを付与することで評価データを作成する.本作業は,拡張固有表現に対する深い知識が求められるので,前述のWikipedia記事分類を行った作業者に対して依頼した.本研究で,構築された固有表現抽出器はJENER(JENER:JapaneseExtendedNamedEntityRecognizer)として公開している\footnote{\url{https://github.com/k141303/JENER}}.本論文の貢献は以下の通りである.\begin{itemize}\itemWikipediaのリンク省略に対処すべく,Wikipediaガイドラインを活用した深層学習ベースのリンク拡張手法を提案した.\itemWikipedia記事中の期待エンティティ率(EER)の推定手法を提案し,EERにより固有表現抽出器の学習に制約をかける既存手法を適用することで,NIL言及によるラベル欠落の影響を軽減した.\item日本語Wikinewsから収集されたニュース記事に対して人手でラベルを付与し,評価セットとして公開した\footnote{\url{https://github.com/k141303/WikinewsENER}}.\item日本語のように固有表現に関する表層的な特徴が少ない言語において,先行研究より高品質な固有表現抽出器の学習が可能であることを示した.\item予測結果の詳細な分析によりWikipediaのリンク構造を用いて固有表現抽出器を学習する際の更なる課題を示した.\end{itemize}以下に本論文の構成を示す.\ref{sec:related_works}節では,固有表現抽出とWikipediaを活用した固有表現抽出器学習手法について関連研究を紹介する.\ref{sec:data_and_preprocess}節ではWikipediaや拡張固有表現の説明と前処理に関しての記述を行う.\ref{sec:propose_1}節では,Wikipediaのガイドラインにより省略されたリンクを拡張するための手法を提案する.\ref{sec:eer_estimation}節では,NIL言及が学習に及ぼす影響を軽減するために,期待エンティティ率の推定を行う手法を提案し,既存手法により学習制約を適用する.\ref{sec:experiments}節では,実験に用いる評価セットの構築方法や,提案手法や比較手法の実験設定について記述し,\ref{sec:experiment_results}節で実際に固有表現抽出機を学習し,評価,考察する.\ref{sec:experiment_analy}節では,拡張したリンク,推定した期待エンティティ率,固有表現抽出器の予測誤りに関する分析と,学習データにおける頻度をもとにした分析を行い,続く\ref{sec:discussion}節でWikipediaから固有表現抽出器を学習する際の課題を整理する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V27N02-09
近年,通信インフラの高度化,高性能な通信機器や携帯情報端末の普及などにより,誰もが時間や場所を意識すること無く,大量のデータを安価に送受信することが可能になった.これにより,日々大量のデータが生み出され,世界の情報流通量は加速度的に増加している.このことは,私達の日常のコミュニケーションや知的生産活動に大きな変革をもたらしつつある.例えばSNSが日常的なコミュニケーション手段となり,世界中の人々がオンラインで繋がる様になったことで,情報交換を通じて現在,世界中で何が起きているかが即座に分かるようになった.また,科学技術のコミュニティでは,査読などの出版プロセスを伴わない迅速な論文公開を実現するプレプリントサーバや,数千規模の学術誌の横断的検索・閲覧を実現するオンラインデータベースの普及などのデジタル化が急速に進んでいる.このように,情報通信技術の高度化は,様々な領域でコミュニケーションや情報流通の利便性を向上する一方で,情報爆発を加速し,様々な問題を生じている.例えばSNSでは,不確かな情報が十分検証されずに世界中に拡散するといった脆弱性により,フェイクニュースによる選挙妨害や世論操作などの問題を生じている.また科学技術のコミュニティでは,研究者の生産性が向上し,論文の発行部数が増加した結果,研究者が個人レベルで技術動向を網羅的に把握するのが困難になるといった問題を生じている.これらは個別には対策が講じられつつあるが,俯瞰的な視点に立てば,情報爆発の問題はそもそも利便性と共に生じた歪みと見ることもできる.すなわち,知的生産活動を支える現在の知識情報処理システムの多くは,その情報処理プロセスの中の高度な部分を人間が分担することを前提としている.しかし,処理系の中に人間が介在する事は,処理量や処理速度の面で計算機に劣る人間の生理的な限界が,系全体のボトルネックとなってしまう.つまり,情報処理プロセスへの人間の介在は,必然的に処理量や速度と,品質との間のトレードオフを生じてしまう.この問題を根本的に解決するには,知的処理を行う情報処理技術を高度化し,人間の介在が不要な水準にまで引き上げる必要がある.情報がテキストの場合,人の読解能力に匹敵する理解力を持つ人工的な読解能力,機械読解の実現を目指すという事になる.この機械読解は,情報処理的な立場からは,入力テキストの言語表現を正しく解釈し,計算機上で形式的処理可能な表現に変換するタスクとして定義できる.このような機械読解の高度化が進めば,これまで人間が行ってきた文書の内容確認の多くを自動化することができる.例えば,金融機関の与信判断,法律事務所の証拠収集などを始めとする様々な産業分野への適用を通じて,知的生産活動の生産性が大幅に向上することが期待できる.処理量や処理速度が格段に向上すれば,情報爆発の問題も解消することができる.しかし,このような機械読解を実社会に適用していく際には,対象領域ごとに,現場の実務レベルの知識を機械読解用に開発する必要が生じる.こうした知識を最初から完全に網羅的に開発することは難しい.したがって,実際には事前に利用可能なリソースからベースラインの知識を開発し,現場への導入後に,実用を通じて不足する知識を補完していく過程で知識の網羅性を高めていくといった漸進的なアプローチが現実的と思われる.こうした機械読解のための知識獲得のアプローチについて,DARPAの機械読解に関する研究プログラムMachineReading(Strassel,Adams,Goldberg,Herr,Keesing,Oblinger,Simpson,Schrag,andWright,2010)では,既存の知識ベースの活用,コーパスからの知識抽出,論理的推論に基づく知識候補の整合性検証を相補的に組み合わせるコンセプトを提案している.また,評価型ワークショップNISTTextAnalysisChallenge(TAC)において2009年に開始されたトラックKnowledgeBasePopulation(KBP)では,機械読解のための知識獲得技術に関する研究コミュニティを形成し,この研究領域の活動を推進する役割を果たしてきた(McNameeandDang,2009).KBPは当初,TRECの質問応答トラックQuestionAnswering(Voorhees,1999)と,NISTの研究プログラムACE(Doddington,Mitchell,Przybocki,Ramshaw,Strassel,andWeischedel,2004;Walker,Strassel,Medero,andMaeda,2006)の情報抽出を参考に,固有名抽出の結果を既存の知識ベースの見出しに対応付けるEntityLinkingと,固有名に対して事前に定義された属性値をテキストから抽出するSlotFillingの2つのタスクでスタートした.その後,何度かのマイナーなタスク変更を経て,2014年に,ACEやその後DEFTProgramで開発された仕様LightERE(Aguilar,Beller,McNamee,Durme,Strassel,Song,andEllis,2014)のイベントに関するアノテーションをベースに,予め定義された種類のイベント記述と属性情報をテキストから抽出するEventタスクが新設された.EntityLinkingタスクとEventタスクは共に機械読解のための知識構築を構成する中核的なタスクであるが,英語を対象言語として2016年と2017年の両タスクの性能水準を比較すると,EntityLinkingではF1値の最高性能が70{\%}前後に達しているのに対し,Eventタスクでは40{\%}に満たない.このことから我々は,機械読解のための知識獲得技術を実用化する上では,性能の低いイベント表現の検出がボトルネックとなる可能性が高く,まずその性能向上に取組むべきと考えた.本稿では,機械読解のための知識獲得の中で,イベント表現の検出を対象に技術課題を分析し,その解決のための技術的な提案を行う.以降,2章では,本研究が提案手法の評価に用いるEventNuggetDetectionタスクについて概説し,その定式化と技術課題について分析を行う.3章と4章では,この技術課題を解決するための提案を行う.3章では,多様なイベント表現から多面的にエンコーディングを求めるための異なるエンコーディングモデル群を導入し,4章では,このエンコーティングモデル群から,入力テキストのイベント表現に適したモデルを動的に選択する動的アンサンブル法を提案する.5章と6章では,TACKBPEventNuggetDetectionタスクの評価環境を用いて提案手法とベースライン手法の比較評価を行う.7章では,公式評価の参加システムが用いた方式やリソースなどを踏まえて比較分析を行い,提案手法の有効性や優位性について考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2
V26N02-04
語義曖昧性解消(以下,WSD)とは多義語の語義ラベルを付与するタスクである.長年,英語のみならず日本語を対象としたWSDの研究が盛んに行われてきた.しかし,その多くは教師あり学習による対象単語を頻出単語に限定したWSD(lexicalsampleWSD)であるため,実用性が高いとは言えない.これに対し,文書中のすべての単語を対象とするWSDをall-wordsWSDという.all-wordsWSDのツールがあれば,より下流の処理の入力として,例えば品詞情報のように語義を利用することが可能になり,より実用的になると期待される.all-wordsWSDは,lexicalsampleWSDと異なり,教師ありの機械学習に利用する十分な量の訓練事例を得ることが難しいため,辞書などの外部の知識を利用して,教師なしの手法で行われることが一般的である.all-wordsWSDの研究は日本語においては研究例が少ない.その理由のひとつに,all-wordsWSDを実行・評価するのに足りるサイズの語義つきコーパスがないことがあげられる.日本語の教師あり手法によるWSDでは,岩波国語辞典の語義が付与されている『現代日本語書き言葉均衡コーパス』(以下,BCCWJ)\cite{Okumura-2011}がよく用いられてきた.しかし,知識ベースの手法でall-wordsWSDを行う場合に多用される類義語の情報は岩波国語辞典のような語義列記型の辞書からは得ることができない.英語のall-wordsWSDにおいては,WordNet\footnote{https://wordnet.princeton.edu/}というシソーラスが辞書として主に利用されている.WordNetには日本語版も存在するが,基本的には英語版を和訳したものであり,日本語にしかない品詞の単語はどうするのかなどの問題点が残る.そのため,現在BCCWJに分類語彙表の意味情報がアノテーションされ,語義付きコーパスが整備されつつある.本研究では,整備されつつあるこのコーパス\cite{Kato-2018}を用いて,日本語を対象とした教師なしall-wordsWSDを行う.分類語彙表とは単語を意味によって分類したシソーラスである.レコード総数は約10万件で,各レコードは類・部門・中項目・分類項目を表す“分類番号”によって分類されている.その他にも分類語彙表では“段落番号”,“小段落番号”,“語番号”が各レコードに割り振られており,それらすべての番号によってレコードが一意に決まるようになっている.また,分類語彙表には「意味的区切り」が240箇所に存在し,分類番号による分類をさらに細かく分けている.本稿では分類語彙表から得られる類義語の情報を利用し,分類番号を語義とした日本語all-wordsWSDの手法を提案する.
V03N01-01
文の意味を効率よく適切に理解するためには語義の曖昧性を文脈によって早期に絞り込むことが必要である.通常のボトムアップな手法による意味・構文解析方法では解の探索空間の広がりにより処理の爆発の問題が生じる.また局所的制約のみでは解を絞り切れず,誤った解を出力する問題もある.例としてしばしば引用される次の文\cite{Waltz85}について考えてみる.\begin{eqnarray}`John~shot~some~bucks.'\nonumber\end{eqnarray}shotとbucksの品詞および意味の曖昧性が各々数十通りあるため,数百通りの意味の組合せがあるとされている.しかし,Hunting(狩猟)やGamble(ギャンブル)などの文脈が与えられるとそれぞれ即座に意味が求まり,前者では「ジョンは牡鹿を銃で撃った.」という解釈がなされ,また後者では「ジョンは何ドルか賭けてすってしまった.」という解釈がなされる.文脈情報がないと効率的に解が得られないばかりか,正しい意味に収束さえしない可能性が大きい.近年この文脈依存性に関する二つの問題を解決するため,談話中の前後の脈絡としての一貫性,すなわち文脈を形成する知識の重要性が着目されつつある.それは文の表層から得られる文法的知識などの言語内知識,および一般常識や世界知識などの言語外知識に分けることができる.また意味が談話内の状況により制約を受けるか,発話された環境により制約を受けるかによって文脈情報を分けることもできる.たとえば,「昨日東京で雨が降った.」という発話がなされたとする.前者の「談話内の状況」は言及されている状況すなわち「昨日東京で」を指している.しかし,この発話が正直者によってなされたか,実際にはいつどこでなされたのか,緊急事態の発生の説明なのかなど,発話された時点の外界の状況が問題になる場合もある.このような「発話された環境による制約」は談話内の状況に加わり作用するもので重要ではあるものの,今後研究される部分としここでは扱わないという立場をとる.本研究ではテキストに絞り,特に物語を解釈する場合に限り,外界の状況によらない談話内の言語外知識による文脈情報の,曖昧性解消の処理効率への効果について絞り議論を行なう.言語外の知識に基づく文脈情報に依存したテキスト解釈の手法はいくつか提案されている.それらは知識の表現とそれにともなう処理方法の違いによって,文脈を記号的な知識として明示的に与える方法と,ネットワーク上の活性伝搬に基づくパターン的相互作用により文脈を非明示的に表現し曖昧性解消を効率的に実現する方法とに大きく分けることができる.前者の代表例としては,物語の一般的構成を文法規則として表す物語文法\cite{Rumelhart75}や,Schankらの文脈理解の研究\cite{Schank77,Schank81,Schank82}などがあげられる.特にSchankらは動詞を中心とした概念依存構造によって意味を表現し,文脈として場面に関する知識を予め持つスクリプトや,意図・目的と行動に関する知識としてのゴールとプラン,そして知識構造を抽象化し階層化して効率良く持つMOPsなどの重要性を論じている.また後者に関しては文ごとにネットワークを組み活性伝搬させる方法\cite{Waltz85,Tamura87},曖昧性を要素の意味内容や要素間の関係に内在させ表現上の組合せ爆発を抑える方法\cite{Hirst88,Okumura89,Kojima91},連想記憶による解の絞り込みと記号処理に基づく矛盾検出による曖昧性解消の効率化\cite{Tsunoda93}などが手法としてあげられる.これらの研究の問題点は,実際に知識を何から獲得し与えるかが不明確であること,実際のテキストにおける評価や問題点に対する考察がなされていないこと,そして他の手法との組合せに対する問題点,限界点が未整理であることである.これに対し,コーパスを利用し,多義性のある単語の周辺語の統計情報からシソーラス上のカテゴリのBayes確率を求め,意味を決定する方法\cite{Yarowsky92}がある.この研究では百科事典の中から知識を獲得し,百科事典の文中の単語に対する評価を行なっているが,一般のさまざまな種類のテキストに対してどの程度有用であるかは調査の余地がある.またトピックの入れ子の問題などの言語の複雑な事象に対応するためには,言語現象に応じて知識を分類し,適切な知識源を明らかにすることと,このような統計的手法を同時に研究することは意味があると思われる.したがって現在必要なことは,処理する知識の性質を想定した細分化,およびそれぞれの知識を用いた際の実際の文に対する効果の調査である.本論文では談話内の言語外知識をさらに連想処理の観点から分類し,その一部として場面知識を視覚辞書から構成し利用した場合の多義性解消の効率化に対する効果の評価および検討を行なう.視覚辞書は物の名前を,出てくる場面や対象物の形から引くことを目的に出版されている辞書である.日常生活に出てくる場面を網羅的に絵に描き,その中に登場する物の名前を対応づけて欄外に列挙してある.視覚辞書は数冊出版されているが,ここではOXFORD-DUDENのPictorialEnglishDictionaryを用いる.多義性解消機構の実装に際しては構文解析と意味解析は通常の記号処理手法を用いることを想定する.その中の意味辞書から語義を取り出す順番を決める方法の一つを提案する.場面を一つに固定した場合にそのような情報を使わない場合に比べ,正しい解にたどり着くまでの語義の検索回数(試行回数と定義する)がどの程度減少するかを物語文にて評価する.すなわち,各単語に意味が複数あったり,とりうる構文木が複数ある場合には,そのすべての組合せの数だけの解が候補となりうる.これらの組合せから解が一つずつ生成され,すべての制約条件を満たすかどうかが検証される.このため構文的曖昧性も考慮する必要があるが,他の方法あるいは本手法と他の方法を組み合わせることによって解決するものとして考え,ここでは陽には扱わないこととする.ここでは語の意味の選択の部分のみに着目し,一つの単語の複数の意味の中で,人間が正解と判断する解を出力するまでに検索された語義の数をここでの試行回数と定義する.実際の機械翻訳などのシステムでは,他に解を制約する知識によってシステム内部で検証を行なう場合に,前処理として尤もらしい語義を優先づけして出力するモジュールを目的としている.通常のパーザでは文脈情報が何もない場合には,各単語の意味はランダムに,あるいは静的に割り当てられている順番で辞書からとり出され検証される.これに対し,場面情報があれば,この取り出しの仕方を変え,場面の中でありそうな意味を先に取り出し,全体の処理の効率化をはかることができる.多義性解消などで文脈,特に場面情報の効果および問題点について調べた例は見当たらないようである.ここでは背景としての役割の部分に絞った場面の知識の構成方法を提案し,実験と考察を行なう.上のような語義検索の試行回数を減少させるということに対し,場面情報がどの位有効であるかを,物語文「赤毛のアン」の英語原作の中の台所の場面の中から抽出した単語に対して評価を行なう.以下,{\bf2.}では視覚辞書とシソーラスによる場面情報の構築方法について,{\bf3.}では場面情報を利用した多義語の優先順位づけの方法について,また{\bf4.}では例題にて試行回数の計算方法を示した後に実文中の単語にて有効性の評価を行なう.{\bf5.}では成功例,失敗例の原因についての考察を行なう.
V03N02-05
近年,電子化された大規模なテキストデータベース(コーパス)が身近に存在するようになり,その中から必要とする情報のみを高速に検索することができるテキスト検索システムの重要性が改めて認識されるようになってきた.また,検索の目的としても,単にある文字列を検索してくるというだけでなく,用例ベースの翻訳支援システムなどで要求されるように,ある言い回し,ある種の意味内容について検索してくるといった高度な検索が求められるようになってきた\cite{Kishimoto1994}.このような高度な検索のためには,検索対象であるテキストデータを解析して種々の情報をあらかじめ付加しておく必要がある(タグ付きコーパス).タグ付きコーパスとしては,形態素解析を行って単語に分割し,品詞情報を付加したものが作成されているが,前述のような検索要求に対しては,これではまだ不十分であり,構文情報を付加したデータが望まれる.しかし,長文を含む一般の大量のテキストに対して,安定的に高精度の構文解析を行うことは現状ではまだ困難である.我々は以前,人手により構文解析したコーパス(約3500文)を実験的に作成し,これを対象とした用例検索システムTWIXの構築を行ったが\cite{HyodoAndIkeda1994},実用的なレベルの大規模な構文付きコーパスを作成するには人手による方法では現実的ではない.そこで我々は,必ずしも常に完全な構文木ではないが,場合によっては部分的に曖昧さを残したままの解析木を,表層的な情報のみを用いて安定的に求める骨格構造解析手法を開発し,これを用いて構文付きコーパスを構築することを試みた.さらに,この構文付きコーパスを対象として,分類語彙表の意味分類を利用した意味コード化をも加え,類似用例検索システムの構築を行った.本システムでは,構文的制約(係り受け構造)を指定して検索できるので,単語レベルの検索では検索されてしまうような多くの不適切な用例を絞り込むことが可能となる.本研究では,講談社和英辞典およびオーム社科学技術和英大辞典の用例(約8万文)について,骨格構造解析により構文付きコーパスの作成を行なった.このうち200文を取り出して解析結果を評価したところ,骨格構造解析結果中に正しい解析木を含んでいるものは約93\%,その中で,係り先が曖昧な文節は約8\%であり,高い精度が得られることを確認した.また,このコーパスを対象として類似用例検索システムによる検索実験を行い,骨格構文構造を用いることの有効性,さらに意味コード化の有用性を確認した.以下では,2章で骨格構造解析と構文付きコーパスの作成方法について述べ,3章で類似用例検索システムの実現方法,4章で検索実験とそれについての考察を行う.
V14N03-04
\label{sec:hajimeni}\subsection{背景}テキストデータからヒトの心理状態を抽出・分析する研究例は近年盛んに行われるようになっている.これは,ヒトの行動について,観測可能な形として外部に現れた行動結果だけでなく,評価・好き嫌い・満足・要求といった心理的な面を扱うニーズが高まっていることを反映している.筆者らは,交通行動,特に,経路選択行動の心理状態をことばによってモデル化することを試みている.交通行動分析の代表的な問題の捉え方の1つは,ある場所から別の場所に移動する際に経路や交通手段としていくつかの選択肢が挙がっており,その中から1つを選ぶというものであるが,交通行動分析においても同様に心理面のニーズが高まっている.従来の交通行動分析の主要な課題の1つは経済の急速な発展とともに増大する交通需要を量的に満たすという点であった.これを踏まえ,多くの場合,関心は選択の結果である行動に向けられており,行動結果が観測可能な形として現れた情報から分析を加えるというアプローチが多い.この場合,個人の行動の因果的背景は簡素化される\cite{Fujii2002}ことが多く,ヒトの心理的な側面に目が向けられることは少なかった.心理的な要素を扱うことがあっても,内部的な変数として表現されることが多かった.しかし,欧米諸国と同様に我が国も成熟社会を迎え,量的な需要を満たすだけでなく,心理的な側面や質的な側面に目を向ける必要性が高まっている.ヒトが多くの選択肢の中から1つを選択して行動に移る時には,何らかの心理的な思考過程を経ていると思われる.心理的な側面に着目することによって,なぜ選択したのかという因果関係や,ある選択肢を選択した場合でも何らかの不満を感じているかもしれないといったような,従来の方法では捉えることが難しかった未知の要素を発見するのに役立つと考えられる.選択理由に着目することの重要性は\citeA{Shafir1993}によって指摘されている.彼らは実験の結果,理由付けがなされることによって選択行動が行われる点もあることを見いだし,さらに,従来の数値的な行動モデルでは説明できない場合もあることを報告している.したがって,交通行動分析においても,選択肢の選択理由を直接捉えることが重要であると考えられる.\subsection{選択肢の選択プロセスの捉え方}いくつかの選択肢の中から1つを選ぶという行動は我々の生活の中でしばしば行われる.\pagebreakたとえば,ある商品を購入する場合には,いくつかの候補を挙げ,それぞれの特徴,評判,意見等を比較して最終的に1つを選ぶというプロセスを経ることが多い.このような,選択行動とそれに伴う心の状態を研究対象とする例はいくつか行われている.たとえば,\citeA{Tateishi2001}はある商品を購入する時の評判情報を分析しているが,評判情報を「ユーザの行動・意思決定に役立つ形式で意見をまとめたもの」と捉えている.したがって,選択行動をするに際しての,各選択肢の特徴となる情報をWeb等のテキストデータから抽出・分析することが評判情報や意見抽出等の研究例であると位置づけることができる.\begin{figure}[b]\begin{center}\begin{picture}(370,50)(0,10)\put(10,40){\framebox(70,20){交通空間}}\put(150,40){\framebox(70,20){認知結果}}\put(290,40){\framebox(70,20){選択・行動}}\put(80,50){\vector(1,0){70}}\put(220,50){\vector(1,0){70}}\put(80,25){\makebox(70,15){空間認知}}\put(80,10){\makebox(70,15){「認知する」}}\put(220,25){\makebox(70,15){意思決定}}\put(220,10){\makebox(70,15){「決める」}}\end{picture}\end{center}\caption{選択のプロセス}\label{fig:process}\end{figure}本稿で扱う交通行動分析における選択行動も同様の枠組みで捉えることができる\shortcite{Takao2004_HKSTS}.すなわち,\begin{enumerate}\item起点から終点に至る経路や交通手段が選択肢としていくつか存在するとき,\itemその中から1つを選択することである\end{enumerate}と考えられる.これに対応して,選択行動の心理的プロセスは2段階で捉えることができる(図\ref{fig:process}).第1段階は物理的な交通空間内の各選択肢の特徴や印象といった要素を意識・認識・認知するまでの段階で,いわば「認知する」段階である.認知した結果の要素を「認知結果」と呼ぶ.第2段階は,各選択肢の認知結果を評価して候補となる選択肢を取捨選択し,最終的な選択をする意思決定の段階で,いわば「決める」段階である.したがって,前述の評判情報や意見抽出等の研究は,第1段階に焦点を当てた研究であると位置づけることができる.これに対して,本研究では「決める」段階も含めて包括的に選択行動を捉えようとする点に立場の違いがある.第2段階の「決める」段階は意思決定のモデルで捉えることができる.意思決定モデルは補償型と非補償型に大別することができる\cite{Payne1976}.補償型の意思決定モデルは効用関数のようにある種の点数の足し算で選択肢の魅力を表現するモデルであり,非補償型の意思決定モデルは特定の属性によって選択肢を取捨選択するように表現するモデルである\footnote{\citeA{Shafir1993}も同様の分類を行っており,補償型は`formal,value-based',非補償型は`reason-based'に相当する.}.ヒトが選択行動を行う際は,何らかの理由を念頭に置いて選択肢の取捨選択を行うという思考プロセスを経ることが多いと考えられる.補償型モデルは行動結果を大局的に捉えようとする場合に便利であるのに対し,非補償型モデルは選択または非選択の根拠をモデルの中で明確に扱うため,選択理由を明示的に表現することができる.したがって,ヒトの論理的な思考プロセスを明らかにするには非補償型が適していると考えられるので,本研究では非補償型のモデルで分析を試みる.本研究の枠組みで選択行動を捉える場合,第2段階は\citeA{Tversky1972}のElimination-By-Aspects(EBA)の意思決定モデルで表現することができる.「アスペクト」\footnote{「アスペクト」の用語は本稿ではEBAのアスペクトを表す.}とは,ある状況を表す特徴,つまり,「遅い」「確実」のような,選択候補のいくつかの選択肢に共通して表れる認知結果を意味する.言い換えると,意思決定の段階をEBAに則って捉える場合,認知結果がEBAモデルのアスペクトに相当する\footnote{以下の文中ではEBAの処理に着目する場合は「アスペクト」,「認知する」段階の結果やデータ収集に着目する場合は「認知結果」と記す.}.EBAでは,意思決定は,着目しているアスペクトを各選択肢が持っているか否かによって候補を順に排除していくことで行われる.たとえば,「遅い」のが嫌な場合,「遅い」というアスペクトを持つ選択肢が候補から排除される.したがって,選択肢を直接選ぶのではなく,選ぶのはアスペクトであり,その結果選択肢が選択されるという捉え方である.\subsection{目的}\label{subsec:mokuteki}筆者らのこれまでの研究では,ことばとして表れた情報を,それぞれ個別に適切に捉えることができるかどうかに焦点を当ててきた.たとえば,\shortciteA{Takao2005_E,Takao2005_NLP}ではそれぞれの文に記述された認知結果を適切に抽出できるかどうか,\shortciteA{Takao2005_RON}では,「決める」段階における1回の取捨選択方略をそれぞれ個別に適切に捉えることができたかに着目した.この結果を踏まえ,本稿では,選択行動の「決める」段階の意思決定の過程を全体として捉え,「決める」プロセス全体の記述について検証し,情報処理を行う上での問題点を明確化する.すなわち,文や認知結果,取捨選択方略を個別に扱うのではなく,1選択行動を表すデータをひとまとめで扱い,提案手法の総合的な検証を行う.ただし,一般に,ヒトの心理状態は必ずしも完全な形ではことばに表れていないことに注意する必要がある.不完全な形のことばデータからは,これまでの研究で述べた手法をそのまま用いるだけでは正しい選択結果を記述できるとは限らない.したがって,不完全なことばのデータから「決める」プロセスの心理状態を扱うにはどのような課題があるのかを明確化する必要がある.そこで,できるだけ簡単な形で「決める」プロセスを表現したうえで,追加的な課題を発見し,その解決方法を考察することが本稿のもう1つの目的である.さらに,マーケティングへの利用という観点から言えば,選択肢に関する種々の評判や印象を単に抽出するだけでなく,選択や排除のきっかけとなった理由をピンポイントで抽出できれば,選択肢が選択されるための手がかりを効率的に得ることができる.そこで,単純な情報抽出だけではなく,EBAの意思決定モデルに則って問題を捉えることで,きっかけの理由が得られることを示す.本稿の構成は次の通りである.\ref{sec:kanren}章では関連研究を整理して本稿の立場を明確にする.\ref{sec:datacollect}章ではデータ収集方法について述べる.\ref{sec:ebaprocess}章では選択プロセスをEBAに則って表現する方法について述べる.\ref{sec:gyoukan}章では行間を読み取る方法について述べる.\ref{sec:kikkake}章では選択・削除されるきっかけの理由を捉える方法について述べる.最後に,\ref{sec:owarini}章で内容をまとめる.
V02N03-01
言語表現には万人に共通する対象のあり方がそのまま表現されているわけでなく,対象のあり方が話者の認識(対象の見方,捉え方,話者の感情・意志・判断などの対象に立ち向かう話者の心的状況)を通して表現されている(言語が対象−認識−表現からなる過程的構造をもつ)ことは,国語学者・時枝誠記によって提唱された言語過程説\cite{Tokieda1941,Tokieda1950}として知られている.時枝の言語過程説によれば,言語表現は以下のように主体的表現(辞)と客体的表現(詞)に分けられ,文は,辞が詞を重層的に包み込んだ入れ子型構造(図1参照)で表される.\begin{itemize}\item\underline{主体的表現}:話者の主観的な感情・要求・意志・判断などを直接的に表現したものであり,日本語では助詞・助動詞(陳述を表す零記号,すなわち図1に示すように肯定判断を表すが,表現としては省略された助動詞を含む)・感動詞・接続詞・陳述副詞で表される.\item\underline{客体的表現}:話者が対象を概念化して捉えた表現で,日本語では名詞・動詞・形容詞・副詞・連体詞・接辞で表される.主観的な感情・意志などであっても,それが話者の対象として捉えられたものであれば概念化し,客体的表現として表される.\end{itemize}時枝の言語過程説,およびそれに基づく日本語文法体系(時枝文法)を発展的に継承したのが三浦つとむである.三浦は,時枝が指摘した主体的表現と客体的表現の言語表現上の違いなどを継承しつつ,時枝が言語の意味を主体的意味作用(主体が対象を認識する仕方)として,話者の活動そのものに求めていたのを排し,意味は表現自体がもっている客観的な関係(言語規範によって表現に固定された対象と認識の関係,詳細は2章を参照のこと)であるとした関係意味論\footnote{対象,表現,話者などのような言語上の実体ではなく,それらの関係で意味を定義する考え方は状況意味論\cite{Barwise1983}と共通する点がある.しかし,状況意味論が「言語に関する社会的な約束事である言語規範に媒介された表現の意味」と「表現の置かれた(発話された)場の意味」とを区別せず,むしろ「場の表現」の側から意味を説明しているのに対して,三浦文法は両者を分けている.}\cite{Miura1977,Ikehara1991}を提唱し,それに基づく新しい日本語文法,三浦文法\cite{Miura1967a,Miura1967b,Miura1972,Miura1975,Miura1976}を提案している.三浦文法は,細部についての分析が及んでいない部分も多々ある未完成な文法であるが,従来の自然言語処理の研究では見逃されていた人間の認識機構を組み込んだより高度な自然言語処理系を実現するための新しい視点を与えてくれるものと期待される\cite{Ikehara1987,Ikehara1992,Miyazaki1992a,Miyazaki1992b}.そこで,上記のようなより高度な自然言語処理系を実現するための第一歩として,三浦文法に基づく日本語形態素処理系を実現することを目指し,三浦文法をベースに日本語の品詞の体系化を行い,規則の追加・修正が容易で拡張性に富む形態素処理用文法を構築した.本論文では,まず三浦文法の基本的な考え方について述べ,次にそれに基づき作成した日本語の品詞体系,および品詞分類基準を示すと共に,形態素処理用の新しい文法記述形式を提案する.さらにそれらの有効性を論じる.\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=63.5mm}\end{center}\vspace*{-0.2mm}\caption{時枝の入れ子型構造}\label{fig:tokieda}\end{figure}\begin{figure}\vspace*{-0.2mm}\begin{center}\epsfile{file=fig2.eps,width=56.0mm}\end{center}\vspace*{-0.2mm}\caption{言語過程説(三浦)の言語モデル}\label{fig:miura}\end{figure}
V25N01-01
人工知能分野の手法や技術を,金融市場における様々な場面に応用することが期待されており,例えば,膨大な金融情報を分析して投資判断の支援を行う技術が注目されている.その一例として,日本銀行が毎月発行している「金融経済月報」や企業の決算短信,経済新聞記事をテキストマイニングの技術を用いて,経済市場を分析する研究などが盛んに行われている\cite{izumi,kitamori,Peramunetilleke,sakai1,sakaji}.日経リサーチでは,各種データを収集し,様々なデータベースを構築している.データ処理にあたっては,たとえばXBRL形式のように値に付与されたタグ等の付加情報を利用し,自動分類によるデータベース化を行っている.しかしデータ分類用付加情報が付与されているデータはまだ少数で,データベース構築の多くは自動分類化がすすんでおらず,人手をかけた作業による分類が大半を占めている.手作業で必要な情報を抽出するには,専門的知識や経験が必要となる.そのような環境の中,「株主招集通知の議案別開始ページの推定」を研究課題として設定した\footnote{株主招集通知から推定するべき情報は人事案件など他にもあり,そのような他テーマへの応用も可能である.}.企業が株主総会を開催する場合,企業は招集の手続きが必要になる.会社法では公開会社である株式会社が株主総会を招集する場合,株主総会の日の二週間前までに,株主に対してその通知を発しなければならないと定めている(会社法第二百九十九条).また,株式会社が取締役会設置会社である場合,その通知は書面で行わなければならない(会社法第二百九十九条第二項).この株主総会に関する書面通知が株主招集通知である.取締役会設置会社においては,定時株主総会の招集の通知に際し,取締役会の承認を受けた計算書類及び事業報告を提供しなければならない,株主総会の目的が役員等の選任,役員等の報酬等,定款の変更等に係る場合,当該事項に係る議案の概要を通知する必要がある等,会社法および株主招集通知にて通知する事項は会社法および会社法施行規則で定められている(会社法第二百九十八条,会社法施行規則第六十三条).一般的な株式公開会社の株主招集通知は,株主総会の日時・場所・目的事項(報告事項・決議事項)が記載される他,参考書類・添付書類として決議事項の議案概要,事業内容等の株式会社の現況に関する事項,株式に関する事項,会社役員に関する事項,会計監査人の状況,計算書類,監査報告書等が記載される.記載内容が法令で定められている株主招集通知だが,有価証券報告書等のように様式が定められておらず,その形式は記載順序や表現方法を含め各社で異なっており,ページ数も数ページのものから100ページを超えるものもある.今回の研究の対象は,株主招集通知に記載されている決議事項に関する議案である.議案については,その記載がどのページにあるか,何の事項の前後に記載されるかは各社各様であり,多様なパターンを識別するには株主招集通知を読み解く経験を積む必要があった.従来は抽出したい議案(「取締役選任」「剰余金処分」などの項目)が報告書のどのページに記載されているか人手により確認し,データを作成していたが,各社で報告書のページ数や議案数が異なるため,確認に時間を要していた.現状は,株主招集通知を紙で印刷するとともに,PDFファイルで取得,人手にてデータベースに収録,校正リストの出力,チェックという流れで収録業務を行っている.ここで,抽出したい議案がその報告書にあるのか,どのページに記載されているのかが自動で推定できれば,時間の短縮やペーパーレス化などの業務の効率化につながる.したがって本研究の目標は,株主招集通知の各ページが議案の開始ページであるかそうでないかを判別し,さらに,開始ページであると判断されたページに記述されている議案が,どのような内容の議案であるかを自動的に分類することである\footnote{上記のようなアプローチを採用した理由は,最初に議案の開始ページを推定することで,議案分類に使用する文書を絞り込むためである.}.株主招集通知の開示集中時期には,短時間に大量の処理を進めるため,臨時的に収録作業者を配置し,データ入力を行う.臨時作業者には,株主招集通知の理解から始まり,収録定義に関する教育時間や練習時間が2日程度必要となる.この教育時間を経て,実際のデータ入力を始めると,慣れるまでは1社あたりのデータベース化に1時間半〜2時間を要し,本研究で対象としている議案分類のみの作業でも,慣れた作業者さえ数分かかる.特に議案など必要なページにたどりつくまでに株主招集通知を一枚一枚めくって探すこと,議案分類について議案タイトルやその詳細から対応する語を見つけ出すことに時間を要している.処理・判断が早くなるには,各社で異なる株主招集通知の構成を見極め,構造の特徴をつかむことが必要になる.しかし,これらの勘をつかむには,およそ1週間程度かかっている.さらに,信頼性の高いデータ収録ができるようになるには,3ヶ月以上を要している.本研究によるシステムによって,これらの構造理解と勘の習得が不要になると共に,議案の開始ページの推定や議案内容が分類されることにより,当該部分の1社あたりにかかる処理時間の短縮が期待される.さらに,理解の十分でない作業者の判断ミスや判断の揺れが減少し,信頼度の高いデータ生成を支えることとなる.その結果,データベース収録に係る人件費の削減と,データベース化に伴うデータ収録の早期化をはかることが可能となる.一般的に株主は,株主招集通知に掲載されている議案を確認し,「この議案に賛成もしくは反対」の判断をしている.多数の企業の株式を保有している株主は,これに時間がかかることが推測される.株主招集通知に載っている議案が分類されれば,議案の内容をより早く把握することができ,判断に集中できるようになると考える.ここで,本論文で提案するシステムの全体像について述べる.本論文で提案するシステムは,株主招集通知を入力として,表\ref{sc_miss}に示すような結果を返すシステムである.この結果を得るためには,まず議案が何ページから記載されているのかを推定する必要がある.そして推定したページに対して,議案がいくつ存在し,どの議案分類に分類されるかを自動で行う.\begin{table}[t]\caption{出力結果}\label{sc_miss}\input{01table01.tex}\end{table}本論文の第2章では議案がある開始ページの推定について述べる.第3章から第5章では各議案分類の手法について詳細な内容について述べる.第6章では各手法の評価を適合率,再現率,F値を用いて述べる.第7章では第6章の評価結果を踏まえて考察を述べる.第8章では応用システムについて述べる.第9章では関連研究について述べ,関連研究と本研究の違いについて述べる.\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f1.eps}\end{center}\caption{株主招集通知のテキストデータ変換の例1}\label{expdf1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f2.eps}\end{center}\caption{株主招集通知のテキストデータ変換の例2}\label{expdf2}\end{figure}
V30N03-08
label{sec:introduction}予測は人間が生来備えている能力である.我々は日常生活において,様々な予測を行い,それを基に行動を行っている.例えば,調理においては,手順や調理動作によって得られる目標の状態を先に予測し,それを手掛かりに動作を実行しているといえる.これには動作や対象の物体に関する知識が必要であり,同時に作業全体のワークフローについても理解する必要がある.したがって,調理レシピを基に人間と同様に調理を行う自律エージェントを確立するためには,これらの能力の実現が必須であるといえる.\figref{fig:introduction-example}に例を示す.この例では,エージェントは二つ目の調理動作に必要な食材を特定しつつ動作後に得られる観測を予測している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-3ia7f1.pdf}\end{center}\hangcaption{調理エージェントによる調理動作結果の予測の例.ここでは,2つ目の調理動作(入れる)の結果を予測している.}\label{fig:introduction-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この方向の先行研究として,調理手順に視覚的なアノテーションを施したものが存在する\cite{nishimura2020visual,pan2020multimodal}.ここで,\citeA{nishimura2020visual}は各調理手順に対応する1枚の画像に対して,動作や食材の表現に対応する箇所に矩形領域のアノテーションを行った.また,\citeA{pan2020multimodal}は調理手順を文レベルに分割した後,各文に対応するフレーム列を,レシピに紐づく調理動画から抽出してアノテーションを行った.これらは調理手順に視覚的な情報を結びつけているが,調理動作の結果を予測したい場合には,まだアノテーションが不十分である.例えば,“トマトを切ってボウルに入れる.”には,1文に「切る」と「入れる」の二つの調理動作が含まれているが,上記の先行研究のアノテーションでは,これらを個別に扱うことが出来ない.従って,調理動作結果を予測するためには,調理動作レベルのアノテーションが必要であり,率直な解決策としてはより密なアノテーションを用意することが考えられる.本稿では,レシピにおける調理動作後の物体\footnote{本稿では,物体は食材か道具のいずれかを指すものとする.}の状態の予測を目指し,新たにVisualRecipeFlow(VRF)データセットを提案する.\figref{fig:dataset-example}に示す通り,VRFデータセットは(i)調理動作による物体の視覚的な状態の遷移と(ii)レシピ全体のワークフローに対するアノテーションから成る.視覚的な状態遷移は動作前後に対応する観測の組として表現し,ワークフローは先行研究のレシピフローグラフ(Recipeflowgraph;r-FG)\cite{mori2014flow}を用いて表現する.ここで,観測の組はr-FG中の調理動作と紐づいており,これによって実世界とテキストのクロスモーダルな関係を考慮することが可能となる.また,ウェブサイトにてデータセット作成に用いたレシピのURLリストとダウンロードしたデータを基にデータセットを構築するスクリプトを公開している\footnote{\url{https://github.com/kskshr/Visual-Recipe-Flow}.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-3ia7f2.pdf}\end{center}\hangcaption{アノテーションの例.画像の組は物体毎の動作前後の観測を表しており,これらは手順リスト内の調理動作に紐づけられている.手順リスト内では,r-FGを用いて調理動作を含む表現間の依存関係を表現している.}\label{fig:dataset-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,本研究と関わりの深い研究として,手順書上での物体の状態遷移の追跡を行うものが存在する\cite{dalvi2018tracking,bosselut2018simulating,tandon2020dataset}.これは,各手順による実世界における影響を考慮することで,手順書の理解を目指したものである.本研究はこれらの流れを汲んだものでもあり,大きな違いは状態遷移をテキストでなく画像で表現している点にある.画像は物体の外観に関する情報を与えるため\cite{isola2015discovering,zhang2021mirecipe},先行研究と比較して実世界に関するより豊富な情報を提供することが期待される.また,調理の持つ逐次的な性質を活かし,大規模言語モデルの文書理解能力の評価\cite{srivastava2022beyond}や,vision-languageモデルのfew-shot設定における学習能力の評価\cite{alayrac2022flamingo}に用いることも考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V07N04-10
近年の音声認識,および機械翻訳の性能向上に伴い,これらの統合である音声翻訳システムの実現を目指した研究活動が活発に行われている\cite{Waibel1996}\cite{Stede1997}\cite{Carter1997}\cite{Sumita1999}\cite{NEC2000}.音声認識,機械翻訳などの各要素技術の性能向上だけでは,システム全体の性能の向上に限界がある.特に,音声認識結果は誤りを含む可能性が依然として高く,このような誤り含みの認識結果を適切に翻訳することは重要な研究課題の一つである.音声認識と文字認識を用いる言語処理には,認識誤りに対する頑健性の確保という共通の課題がある.文字認識の分野では,認識結果に対するポストプロセス的な誤り訂正の方式が研究されている\cite{Takeuchi1999}\cite{Shinnou1999}\cite{Nagata1998}\cite{Kukich1992}.一方,音声認識においては,正解を含めるのに必要な認識(訂正)候補の空間は文字認識の場合に比べて巨大であり,さらに音声認識では多くの場合,実時間での処理が求められるため,同様なアプローチによって有効な結果を得ることは難しいと考えられる.大語彙連続音声認識においては,音響モデル,言語モデルの精度向上と,デコーディングの効率化をバランスよく統合するアプローチとして,第1パスで簡易なモデルによる探索を行ない,第2パスでより詳細なモデルを用いて再探索・再評価を行なうような2パス探索による方法が良く知られている\cite{Kawahara2000}.さらに,統語的制約の適用によって誤り部分に対する品詞列の訂正結果を得る手法\cite{Tsukada1998}や,ConfusionMatrixとLexiconTreeに基づいて語彙の訂正結果を得る手法\cite{Coletti1999}が提案されている.音声認識結果に対するポストプロセス的な誤り訂正のアプローチとして,文字N-gramと誤りパターンに基づく誤り訂正を行なう手法\cite{Kaki1998}があるが,このような誤り訂正のアプローチは文字認識と比べるとあまり一般的ではない.困難な誤り訂正を行なわず,認識結果の妥当性判断によってシステムの頑健性を高める手法も検討されている.例えば,認識結果に対するConfidenceMeasureに基づいて,認識結果の出力を判断する手法\cite{Moreau1999}や,構成素境界解析から計算される意味的距離に基づいて,認識結果の正しい部分のみを翻訳する手法\cite{Wakita1998}が提案され,頑健性を向上することが確認されている.我々は,人間が会話において,発話の聞き取りがうまくいかなかった場合でも,話題に関する知識などを元にその内容を推測して聞き誤りを回復するように,コーパス中の用例から,誤りを含んだ認識結果と類似した表現を探し,誤り部分の訂正に生かすアプローチを検討してきた\cite{Ishikawa1998}\cite{Ishikawa1999}.我々の手法は,訂正候補の妥当性を音韻と意味の両方の観点から判断するもので,評価実験によってその有効性が確認された.
V23N03-02
\textbf{仮説推論}(Abduction)は,与えられた観測に対する最良の説明を見つける,論理推論の枠組みのひとつである.仮説推論は,自然言語処理や故障診断システムなどを含む,人工知能分野の様々なタスクにおいて古くから用いられてきた(NgandMooney1992;Blythe,Hobbs,Domingos,Kate,andMooney2011;Ovchinnikova,Hobbs,Montazeri,McCord,Alexandrov,andMulkar-Mehta2011;井之上,乾,Ovchinnikova,Hobbs2012;杉浦,井之上,乾2012).\nocite{Ng92,Blythe11,Ovch11,Inoue12,Sugiura12}自然言語処理への応用のうち,代表的な先行研究の一つにHobbsら\cite{Hobbs93}の\textit{InterpretationasAbduction}(IA)がある.Hobbsらは,語義曖昧性解消,比喩の意味理解,照応解析や談話関係認識などの,様々な自然言語処理のタスクを,一階述語論理に基づく仮説推論により統合的にモデル化できることを示した.詳しくは\ref{sec:abduction}節で述べるが,IAの基本的なアイデアは,\textbf{談話解析}(文章に対する自然言語処理)の問題を「観測された文章(入力文)に対し,世界知識(言語の知識や常識的知識など)を用いて,最良の説明を生成する問題」として定式化することである.最良の説明の中には,観測された情報の背後で起きていた非明示的な事象,共参照関係や単語の語義などの情報が含まれる.例文``{\itJohnwenttothebank.Hegotaloan.}''に対して,IAによる談話解析を行う様子を図\ref{fig:ia}に示す.まず,入力文の論理式表現が観測として,世界知識の論理式表現が背景知識として与えられ,背景知識に基づいて説明が生成される.例えば,$\mathit{go}(x_1,x_2)$(\textit{John}が\textit{bank}に行った)という観測に対して,$\mathit{issue}(x,l,y)\Rightarrowgo(y,x)$($x$が$y$に対して$l$を発行するには,$y$は$x$の所に行かなければならない)という因果関係(行為の前提条件)の知識を用いて,$\mathit{issue}(x_2,u_1,x_1)$(\textit{bank}が\textit{John}に対して何か($u_1$)を発行した)という説明を生成している.これは,非明示的な情報の推定に相当する.また,この非明示的な情報を根拠の一つとして生成された説明$x_1=y_1$(\textit{John}と\textit{He}は同一人物)は,共参照関係の推定に相当する.以上のようにIAでは,談話解析の様々なタスクが,説明生成という統一的な問題に帰着される.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f1.eps}\end{center}\hangcaption{仮説推論による談話解析の例.点線の四角は観測を,実線の四角は背景知識を表す.変数対を繋ぐ点線はそれらがその仮説において同一の変数であることを表す.青い吹き出しは推論中で用いられている背景知識の元となった世界知識を表し,赤い吹き出しは得られた仮説に対する解釈を表す.}\label{fig:ia}\end{figure}仮説推論は,以下の様な点で談話解析の枠組みとして適していると考えられる:\begin{enumerate}\item入力から出力が導かれるまでの過程が,解釈可能な形で得られる.すなわち,どのような仮説を立てて,どのような知識を用いて観測を説明しているかが,図\ref{fig:ia}のような証明木という形で陽に得られる.\item様々な種類の世界知識を統一的,かつ宣言的に記述し利用することができる.すなわち,どのような種類の知識であっても,その知識を解析にどう利用するかの手続きを定義する必要がなく,論理式として宣言的に記述するだけで談話解析に利用できる.\item語義曖昧性解消や照応解析,プラン認識など,談話理解の様々なサブタスクを一つのモデルに集約して解くことにより,サブタスク間の相互依存性を自然な形で考慮できる.図\ref{fig:ia}においても,照応解析と語義曖昧性の解消が同時に起こっていることが確認できる.\end{enumerate}IAを始めとした仮説推論に基づく談話解析の研究は,1990年代が全盛期であったが,近年になって再び注目を浴びつつある\cite{Blythe11,Ovch11,Inoue12,Sugiura12}.これには,大きく2つの背景があると考えられる.ひとつめに,仮説推論を実用規模の問題に適用できる程度の,大規模な世界知識を取り揃える技術が昔に比べて大幅に成熟してきたことが挙げられる\cite{fellbaum98,framenetII,Chambers09,Scho10}.例えば文献\cite{Ovch11}では,WordNet\cite{fellbaum98}とFrameNet\cite{framenetII}を用いて約数十万の推論規則からなる背景知識を構築し,含意関係認識のタスクにIAを適用している.ふたつめの背景には,計算機性能の向上や効率的な仮説推論エンジンが提案された\cite{Mulkar07,Blythe11,Inoue11,Inoue12,Yamamoto15,Schuller15}ことにより,大規模知識を用いた論理推論が計算量の面で実現可能になってきたことが挙げられる.例えば\cite{Inoue12}では,約数十万の推論規則からなる背景知識を用いて含意関係認識のデータセットに対して推論を行い,先行研究より大幅に高速な推論を行えたことが報告されている.しかしながら,仮説推論における計算コストの問題は未だ完全に解決されたとはいえないのが実情である.詳しくは\ref{sec:prob}~節で詳述するが,とりわけ,主格関係や目的格関係などの単語間の統語的依存関係を表すためのリテラル(便宜的に「機能リテラル」と呼ぶ.形式的な定義は\ref{sec:prob:mr}節で与える)が知識表現に含まれる場合(例えば,$\mathit{john}(j)\land\mathit{get}(e)\land\mathit{dobj}(e,l)\land\mathit{loan}(l)$における\textit{get}と\textit{loan}の目的格関係を表す$\mathit{dobj}(e,l)$),推論時間が増大するという問題がある.最新の仮説推論エンジンである\cite{Yamamoto15}では,A*アルゴリズムに基づいて説明の構成要素(\textbf{潜在仮説集合})を列挙し,仮説推論の問題を「説明の構成要素の組み合わせ最適化問題」へ変換したのち,整数線形計画ソルバにより最良の説明を求める.しかし,機能リテラルが知識表現に含まれる場合,(1)機能リテラルをもとにした推論により,潜在仮説集合の中に,最良の説明になりえない構成要素が多く入り込んでしまい(例えば,$\mathit{foolish}(e_1)\land\mathit{smart}(e_2)\land\mathit{nsubj}(e_1,x)\land\mathit{nsubj}(e_2,y)$から,$e_1=e_2$を導く),組み合わせ最適化問題のサイズが無用に肥大化し,推論時間が増大する,(2)潜在仮説集合の生成をガイドするヒューリスティック関数の精度低下が起きてしまい,潜在仮説集合の生成における計算効率が低下する,という問題が起こる.このように,実タスクへの適用は未だ困難な状況であり,前述のような利点が本当にあるかどうか,検証する環境が完全に整っていない状況である.以上のような背景を踏まえ,本論文では,知識表現に機能リテラルを含む仮説推論において,機能リテラルの性質を利用して潜在仮説集合の生成手続きを改良し,効率的に最適解を求め,かつヒューリスティック関数の精度低下を抑制する手法を提案する.より具体的には,一つ目の問題に対しては,潜在仮説集合の生成を行う際に,最良の説明になりえない説明を事前チェックするように潜在仮説集合の手続きを拡張する.例えば,矛盾する二つの事象を等価とみなす説明の構成要素を生成する推論(前述の$e_1=e_2$など)を禁止することで,潜在仮説集合の肥大化を防ぐ.また,二つ目の問題に対しては,ヒューリスティック関数の中で,より良い説明の構成要素を優先的に探索するために用いられる\textbf{述語グラフ}の生成手法を工夫することにより対処する.問題の原因は,背景知識に頻出する機能リテラルがハブとなり,あらゆる説明の構成要素の候補が最良の説明の生成に寄与すると誤って判断されてしまうことにある.これに対し,述語グラフにおいて機能リテラルに繋がる一部の枝を適切に排除することにより,解の最適性を保持しながらヒューリスティック関数の精度を上げる手法を提案する.本論文における具体的な貢献は次の3点である.一つ目に,仮説推論の最新の実装であるA*-basedAbduction\cite{Yamamoto15}の手法に前述の枝刈りを導入する方法を示し,機能リテラルを知識表現に含む場合でも推論の規模耐性を維持する方法を示す.二つ目に,機能リテラルの性質に基づく探索空間の枝刈りが,ある条件のもとでは本来の解を損なわないことを示す.三つ目に,大規模な知識ベースと実在の言語処理の問題を用いて,A*-basedAbduction\cite{Yamamoto15}のシステムとの推論時間の比較を行い,提案手法を評価する.本論文での実験においては,提案手法が\cite{Yamamoto15}のシステムと比べ数十〜数百倍ほど効率的に解仮説が得られていることが確かめられた.仮説推論に基づく談話解析の枠組みを実タスクへ適用する上で,効率的な推論アルゴリズムの確立は必須の要件である.本研究の成果により,仮説推論に基づく談話解析の研究を進めるための環境整備が大きく前進すると考えられる.以降の節では,まず仮説推論とその実装に関する先行研究について述べたあと(2節),本論文で取り組む問題について述べ(3節),提案手法について説明する(4節,5節).次に,提案手法と既存手法の比較実験の結果について報告し(6節),最後に今後の展望を述べる.
V25N04-01
文節係り受け解析は情報抽出・機械翻訳などの言語処理の実応用の前処理として用いられている.文節係り受け解析器の構成手法として,規則に基づく手法とともに,アノテーションを正解ラベルとしたコーパスに基づく機械学習に基づく手法が数多く提案されている\cite{Uchimoto-1999,Kudo-2002,Sassano-2004,Iwatate-2008,Yoshinaga-2010,Yoshinaga-2014}.文節係り受け情報は,新聞記事\cite{KC}・話し言葉\cite{CSJ}・ブログ\cite{KNBC}などにアノテーションされているが,使用域(register)横断的にアノテーションされたデータは存在しない.我々は『現代日本語書き言葉均衡コーパス』(以下BCCWJ)に対する文節係り受け・並列構造アノテーションを整備した.\modified{対象はBCCWJのコアデータ}で新聞・書籍・雑誌・白書・ウェブデータ(Yahoo!知恵袋・Yahoo!ブログ)の6種類からの使用域からなる.\modified{これらに対して係り受け・並列構造を付与したものをBCCWJ-DepParaとして公開した.}本稿では,アノテーション作業における既存の基準上と工程上の問題について議論し,どのように問題を解決したかについて解説する.既存の基準上の問題については,主に二つの問題を扱う.一つ目は,並列構造・同格構造の問題である.係り受け構造と並列構造は親和性が悪い.本研究では,アノテーションの抽象化としてセグメントとそのグループ(同値類)を新たに定義し,係り受け構造と独立して並列構造と同格構造を付与する基準を示し,アノテーションを行った.二つ目は,節間の関係である.\modified{我々は,}節境界を越える係り受け関係に対する判断基準を示し,アノテーションを行った.工程上の問題においては,文節係り受けアノテーションのために必要な先行工程との関係について述べ,作業順と基準により解決を行ったことを示す.本論文の貢献は以下のとおりである.\begin{itemize}\item使用域横断的に130万語規模のコーパスにアノテーションを行い,アノテーションデータを公開した.\item係り受けと並列・同格構造の分離したアノテーション基準を策定した.\item節境界を越える係り受け関係に対する判断基準を明示した.\item実アノテーション問題における工程上の問題を示した.\end{itemize}\modified{2節では『現代日本語書き言葉均衡コーパス』の概要について述べる.3節ではアノテーション作業で扱った問題について紹介する.4節では先行研究である京都大学テキストコーパスのアノテーション基準\cite{KC}や日本語話し言葉コーパス\cite{CSJ}のアノテーション基準と対比しながら基準を示す.5節では基準の各論について示す.6節ではまとめと今後の課題について述べる.}また,以下では二文節間に係り受け関係を付与することを便宜上「かける」と表現する.
V09N03-05
計算機による要約の試みでは,文章中の重要と思われる部分を抽出することを中心に研究されてきた.しかし,要約は人間の高度に知的な作業であるため,計算機により重要と認定された部分を列挙するだけではなく,要約文章の結束性,構成などの点で課題があることが認識されてきている\cite{Namba00,Mani99revise}.人間が作成するような要約は,結束性,構成などが適切で,要点を適正に網羅しているといった高度な要件を満たしていると考えられるが,このような要件を計算機で満たすためにはどのような要素技術が必要であるかが明らかになっているとはいえない.我々は,このような現状に対し,どのような要約文章なら読みやすく適切であるかを,人間が実際にどのような要約を作成するかを調査した上で,計算機でも実現が可能なレベルの要約操作に細分化し,整理することが必要であると考える.しかし,人間が行う要約の操作はそれほど単純ではなく,表層的な表現の言い換え,構文的言い換えといった様々なレベルの操作が考えられる.このような多様なレベルの言い換えを考慮した上で,要約文が生成される元になった文を,要約元文章から選びだす作業は,人手により対応づけするしかないようにもみえるが,人手による対応付けは,客観的な対応基準や作業コストの両面からみて問題がある.このような流れの中で,例えば,Marcu\cite{MarcuPair}は論文とそのアブストラクトのように,要約とその元文章が組になっている文章集合から,要約の各文が要約元文章のどの文から生成されたかを,コサイン類似度を用いて自動的に対応付ける手法を提案している.また,日本語の自動要約の研究では加藤らがDPマッチングの手法を用いて,局所的な要約知識を自動的に抽出する研究を行っている\cite{kato99}.彼らの研究では,放送原稿とその要約を使用しているため,要約文書は元文原文の残存率が高く,語や文節レベルの言い換えといった局所的な要約知識の獲得に限定して効果をあげているが,人間が行う,より一般的な要約作成に必要な知識獲得を行うためには,その手法の拡張が必要となってくる.本研究では,このような背景から,要約元文章中における文の統語的な依存関係を手がかりに要約文との文・文節対応付けを行い,その結果に基づいて要約操作に関連する言い換え事例を収集し,要約で行われている文再構成操作がどのようなものであるかを調査した.
V27N01-02
\label{intro}近年,文書情報に対する情報要求は複雑化,高度化しており,そのような要求を満たすアクセス技術として質問応答が注目されている.質問応答とは,利用者の自然言語による質問に対して情報源となる文書集合から解答そのものを抽出する技術であり,複雑高度な情報要求を自然言語で表現できる点に特徴がある.しかしながら,従来の質問応答に関する研究では,「アメリカの大統領は誰ですか?」といった比較的簡単な形式の質問を扱うものが多く,質問の確信に至るまでの背景や経緯を複数文にわたって説明したりする現実世界の質問状況とは異なる場合がある.そのような現実世界における質問に対する質問応答を目的とした取り組みは,TRECのLiveQA~\cite{trec}やNTCIRのQALab~\cite{shibuki2014,shibuki2016,shibuki2017},「ロボットは東大に入れるか」プロジェクト(以下,「東ロボプロジェクト」)\cite{torobo}などで盛んに行われている.現実世界における質問のように,質問の背景を複数文にわたって説明する記述や,解答が複数文を含む文章となるような質問の例として,大学入試問題が挙げられる.大学入試問題には大学入試センター試験と二次試験があり,二次試験の世界史分野には数十字から数百字以内で解答を記述する論述問題が含まれていることがある.QALabでは,世界史の大学入試問題を対象としており,特に二次試験の論述問題への自動解答が挑戦的な課題として設定されている.先行研究\cite{sakamoto-system}では,情報要求の存在する抽出型の複数文書要約としてこの課題を位置づけ,教科書や用語集等の知識源から句点区切りの単位でテキストを抽出・整列して論述問題に解答する質問応答システムを提案している.知識源に使用される用語集は見出し語と語釈部に分かれて構成されており,語釈部には見出し語が明示されていないため,語釈部を句点で区切った文(以下,「語釈文」という)だけをそのまま解答文に含めてしまうと,何について述べているかわからない文になってしまう.また,論述問題において解答に含めなければならない指定語句が見出し語となっている場合,語釈文だけから解答を構成すると大きく減点されてしまう.このような背景から,上述の既存システムでは,用語集の語釈文を解答の材料として抽出した際には,見出し語を文頭に主題として付け加えた文を生成し,これを解答の一部とする手法を提案している.しかしながら,この手法によって生成された文は,文法的に誤りがある場合や,解答文に適していない場合がある\footnote{\ref{problem}節に後述する.}.これらの問題を解消するためには,\begin{enumerate}\renewcommand{\theenumi}{(\roman{enumi})}\renewcommand{\labelenumi}{(\roman{enumi})}\item見出し語を語釈文に埋め込むことができるか,否か,すなわち,語釈文の述語の省略された項をゼロ代名詞とみなした場合,見出し語がその先行詞となるか,否かを判定する.見出し語を埋め込むことができる,すなわち,見出し語が先行詞となるのであれば,見出し語の表層格を推定する.\label{enum:one-0}\item問題文ならびに論述文章の前後の文等から何を主題にするかを決定し,それに応じて格交替などを行い論述問題の解答の一部とする.\label{enum:two-0}\end{enumerate}ことが必要である.本稿では,\ref{enum:one-0}に掲げた課題を解決するために,語釈文中の各動詞に着目し,それが見出し語に照応するゼロ代名詞を持つか否かを判定するとともに,持つ場合にはその表層格を推定する手法を検討する.\ref{enum:two-0}については,今後の課題とする.また,提案手法は,教師あり学習に基づく手法となっているため,訓練事例を必要とするが,用語集の形式をした事例は数に限りがあり,特定の表層格で埋め込む場合の事例が限られていることが観察された.そのため,訓練事例数が少ないという問題を解消するために,擬似訓練事例の自動生成を行う.本稿の以降の章では次の内容を述べる.2章では既存の世界史論述解答システムの概要とその問題点を述べ,本研究で提案する解決策を述べる.3章では世界史用語集に関して予備調査を行った結果について述べる.4章では本研究の関連研究について述べる.5章では見出し語に照応するゼロ代名詞とその表層格を推定する手法を提案する.6章では実験結果を報告し,7章で考察,8章でまとめとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{27-1ia2f1.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1}\label{fg:2008question}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f2.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1に対する解答例}\label{fg:2008answer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第2章%%%%%%%%%%
V30N04-04
一貫した個性を持つチャットボットの研究が注目されている\cite{li16a,zhang18,qian18,zhou20}.このようなチャットボットを構築するためは,特定の個性を持った人物の対話データを多量に用意し,生成ベースのモデルを学習する手法が一般的に考えられる.しかしながら,対象人物の対話データを多量に集めることは容易ではない.この問題に対して,我々は先行研究において,多くの作業者が対象人物(データ収集の対象とする特定の人物)になりきって質問に回答する枠組み({\bfなりきり質問応答})を提案している\cite{higashinaka13}.さらに,提案手法を用いて,有名な人物(例えば,YouTuberやアニメの登場人物)への質問,および,その回答のペア(QAペア)をファンから大規模に収集し,対象人物のように振る舞うチャットボットである{\bfなりきりAI}を構築する手法を提案してきた\cite{higashinaka18,kodama20,mizukami23}.一方で,近年,自然言語処理において言語モデルが高度化している\cite{vaswani17,devlin19,raffel19,brown20}.特にTransformer\cite{vaswani17}に基づく大規模言語モデルであるMeena\cite{adiwardana20},BlenderBot\cite{roller20},ChatGPT\cite{ouyang22}は,従来のものと比較してより自然な対話が可能である.なりきりAIの研究においても,対象人物に対して収集したQAペアを大規模言語モデルと組み合わせることで,自然な対話のみならず,その人物らしい対話が実現できる可能性が考えられる.本研究では,単一の人物に関するなりきり質問応答のデータを大規模言語モデルと組み合わせることでなりきりAIを構築した.さらに,インターネットを通じて公開実験を行うことで,対象人物を再現するチャットボットにおける現状の到達点と今後解決すべき課題を調査した.その結果,なりきりAIの構築を通じて,収集された45KのQAペアを用いて大規模言語モデルをfine-tuningすることで,チャットボットが高い自然さとキャラクタらしさを持つことがわかった.さらに,公開実験で収集された対話を用いて,対象人物を再現するチャットボットのエラー(以降,{\bf\PSE}と呼ぶ)を分析した.その結果,{\PSE}は属性に関するエラーと関係に関するエラーの二種類に分けることができ,また,自己に関するエラーと他者に関するエラーという二つのレベルに分けられることがわかった.本研究の貢献は下記の二点である.\begin{enumerate}\itemなりきり質問応答を通じて収集した対象人物に関する多量のQAペアを用いて,大規模言語モデルをfine-tuningすることで,高い自然さおよびキャラクタらしさを持ったチャットボットが構築可能なことを示した.\item対象人物を再現したチャットボットの公開実験を行うことで,多数のユーザとの対話データを収集し\mark{た.公開対象のチャットボットとして,なりきり質問応答,および,なりきり質問応答のデータを拡張した対話データを用いて学習されたモデルを利用した.公開実験を通じて収集された対話データにおいて,}不自然なシステム発話に対するアノテーションとエラー分析を行うことで,対象人物を再現するチャットボットにおけるエラー類型を明らかにした.\end{enumerate}なお,本研究では大規模なデータ収集や公開実験を行っており,高いコストがかかることから,単一の人物(後述の「アマデウス紅莉栖」)を対象に評価や調査を行った.以降,本稿では,まず\sec{rel}で関連研究について概観する.\sec{data}でなりきり質問応答を通じたデータ収集について述べ,\sec{model}で発話生成モデルの構築について説明する.次に,\sec{eval}で評価実験,\sec{open}で公開実験について述べる.その後,\sec{annotation}で{\PSE}の分析について説明する.最後に\sec{summary}で本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V32N01-06
label{sec:introduction}ニューラル機械翻訳(NeuralMachineTranslation,NMT)は従来の統計的機械翻訳(StatisticalMachineTranslation,SMT)を短期間で凌駕し,現在の機械翻訳技術の主流となった.SMTでは,句単位の翻訳仮説を組み合わせながら複数の独立したモデルを統合して探索を行っていてしばしば流暢性に難があったのに対し,NMTは単一の大規模ニューラルネットワークを用いて,入出力の文内コンテキストを柔軟に参照しながら入力文を出力文に直接変換することで,自然で流暢な翻訳を実現している.一方で,NMTにも様々な課題があることが議論されており\cite{koehn-knowles-2017-six},その1つとして長文の入力に対する訳抜けや誤訳が発生が挙げられている.注意機構\cite{bahdanau2016neural,luong-etal-2015-effective}はその軽減に一定の役割を果たしたが,非常に長い文や複雑な構造を持つ文に対しては十分でなく,NMTのためのモデルの主流であるTransformer\cite{attention}でもこの問題は十分に解決できていないことが報告されている\cite{neishi-yoshinaga-2019-relation}.長文の翻訳精度低下の課題に対して,統計的機械翻訳では,長文を統語構造上の節に分割して翻訳し,並べ替えて結合する分割統治的手法が提案されている\cite{sudoh-etal-2010-divide}.また,\citeA{kano2022improving}はNMTにおける長文のための分割統治的手法を提案している.\citeA{kano2022improving}の手法による翻訳プロセスは大きく(1)節単位の翻訳と(2)節単位の翻訳結果の連結と書き換えの2つに分かれており,各プロセスはそれぞれ別のseq2seqモデルで実施される.しかしその性能向上は限定的であり,その理由として(1)節分割の方法,(2)節分割後の節の翻訳精度の2つの課題が挙げられている.(1)は,\citeA{sudoh-etal-2010-divide}によるプレースホルダを使った階層的な分割ではなくフラットな構造のまま分割を行ったことで埋め込み従属節を含む節が分断されてしまうことに起因している.また(2)は,(1)による節の分断に加え,NMTの利点である文内コンテキストの参照が節単位の翻訳で活用できないことが理由に挙げられる.本研究では,この2つの課題に注目し,英日翻訳における長文の翻訳精度の向上を試みる.具体的には,以下の2つを提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item等位接続詞の前後に限定した節分割\item文内コンテキストを参照可能な節単位翻訳\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらにより,以下の効果が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item埋め込み従属節による節の分断を避け,節としてほぼ完全な状態での翻訳\item各節を翻訳する際に,同一文内の他の節の情報を参照できることによる節翻訳の精度向上\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法は,多言語BARTモデル\cite{mbart}を利用しASPECを対象にした英日機械翻訳実験において,41単語以上の長い入力文に対してベースラインを上回るBLEUを達成した.また,提案手法が適用された文のみに限れば,より短い入力文に対してもベースラインを上回る翻訳精度が得られることが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V25N01-02
言語に関する能力を,客観的かつ自動的に把握する需要が高まっている.言語能力把握の需要がある場面の一つに,認知症スクリーニングがある.日本は世界に先駆けて超高齢社会に突入した.2013年の高齢化率は25.1\%にのぼり\footnote{内閣府平成26年5月「選択する未来」委員会.\\http://www5.cao.go.jp/keizai-shimon/kaigi/special/future/chuukanseiri/04.pdf},世界でも例を見ないスピードで高齢化が進行している.高齢化の進行に伴い,認知症高齢者の増加も見込まれる.2012年8月の厚生労働省発表によると,2010年における日常生活自立度II\footnote{「日常生活に支障を来すような症状・行動や意志疎通の困難さが多少みられても,誰かが注意していれば自立できる状態」を指す.}以上の認知高齢者数\footnote{65歳以上を指す.}は280万人にのぼり,将来推計として2025年には323万人,65歳以上の人口比率にして9.3\%にまで上昇するだろうと予測されている\footnote{認知症高齢者数について,http://www.mhlw.go.jp/stf/houdou/2r9852000002iau1.html}.また,日本における人口10万人当たりの若年性認知症者数(18〜64歳)は,47.6人にものぼるとされている\footnote{若年性認知症の実態等に関する調査結果の概要および厚生労働省の若年性認知症対策について.\\http://www.mhlw.go.jp/houdou/2009/03/h0319-2.html}.今や,認知症は我々にとって非常に身近なものとなっている.厚生労働省の調査によると\footnote{厚生労働省の認知症施策等の概要について.\\http://www.mhlw.go.jp/file/05-Shingikai-12301000-Roukenkyoku-Soumuka/0000031337.pdf},最初に認知症に気づくきっかけとなる症状の一つとして,言語障害がある.言語能力は長期にわたる学習や経験によって発達するものであり,一定レベルまで発達した後は,加齢によっても衰えにくいとされる\cite{Hampshire}.一方で,構文をあやつる能力は,70代後半を境に低下しはじめるという報告もある\cite{Kemper}.Kemperによると,英文における認知症の進行度は語彙能力,構文能力ともに相関関係にあり,症状が進行するにつれ,構文能力の顕著な低下がみられるという.つまり,認知症は言語能力,とりわけ語彙能力に,加齢の影響ではない何らかの特徴が表出する可能性をもつものである.もし言語能力を測り,その兆候を捉えることができれば,早期発見や療養に役立つのではないかと考えた.また,留学生の日本語能力評価においても,言語能力の自動測定への期待が高まっている.現在,多くの留学生が日本語教育機関において日本語を学んでいる.学習者の習熟度に対し,適切な評価を与えることが各教育機関に求められているが,言語能力の評価は,一概に容易とは言えない.具体的には,作文課題やスピーチテストなどの,「書く能力」「話す能力」の評価は,評価者の主観によって行われることが一般的であるが\cite{Kimura,Torii,Kanakubo},このような評価は評価者の能力や判断に大きく依存してしまうという問題を孕む.機械による客観的かつ自動的な評価が実現できれば,評価者による判断の揺れという問題を排除した尺度として活用できる可能性がある.近年,大規模なコホート研究によって,数十年の言語能力の経過を観察する試みが行われている.その結果,老化や認知症などと加齢によるさまざまな能力との関係は徐々に明らかになりつつある\cite{Kubo,Snowdon}.しかし,これらの取り組みには,人手でのテキストデータの作成・収集,テキストの分類,各評価スコアの算出などが必要であり,時間・金銭的コストが高い.また,テキストの分類には訓練をつんだ専門家が必要であるなど,言語能力測定のハードルが高い.そこで本研究では,言語能力測定システム「言秤(コトバカリ)」を提案する.言語能力測定における大きな課題の一つとして,分析対象となるテキストデータの作成がある.従来は,音声データの書き起こしなど,人手でのテキスト化が必要であり,多大な時間を要していた.提案システムでは,音声認識システムにより,言語能力の被測定者の発話データを自動的にテキスト変換することで,コストの大幅な軽減を行う.ただし,音声認識システムの認識精度には限界があり,常に正しい認識結果が得られるとは限らない.我々はこれまでに,テキストデータに基づいて定量的に言語能力を測定する指標(以降,言語能力指標と表記する)を提案してきた\cite{Aramaki2}.また,提案指標を用いたテキスト分析の結果,一部の指標(TTR(Type・Token割合)およびJEL(日本語学習語彙レベル))によって認知症者の特徴的な傾向などを観察できる可能性を示した\cite{Shikata,Aramaki2}.このうち,TTRは,Type(異なり語数)とToken(延べ語数)の比率(Type/Token)であるため,TTRスコアは語の内容ではなく,出現回数のみに基づいて算出される指標であり,発話されたのがどのような語であるかという点については関与しない.そのため,TTRを用いた場合,たとえ語の内容の認識結果が誤っていたとしても,算出されるスコアに問題は生じにくいと考えられる.よって,提案システムでは,先行研究における提案指標を採用し,特にTTRスコアに着目することで,音声認識による認識誤りの影響を受けにくく,さらに人手作業を排除した定量的なスコア算出を実現する.本提案のポイントを以下に整理する.\begin{description}\item[分析テキスト作成コストの軽減]音声認識システムを組み込むことにより,音声を録音/入力するだけで,言語能力の測定を可能にする.\item[スコアリングコストの軽減]定量的に算出可能な言語能力指標を採用することにより,認識誤りを許容し,さらにスコア算出のための人間の介在を省略可能にする.\end{description}本論文では,採用する言語能力測定指標と提案システムについて概説した後,低コストな言語能力測定の要となる音声認識システムの利用可能性について,検証実験の結果から議論する.
V27N04-05
label{sec:intro}%=====================================================近年,言語学習者\cite{petersen-2007}や子ども\cite{belder-2010}を対象に,テキストを平易に書き換えるテキスト平易化\cite{shardlow-2014,alva-2020}の研究が注目を集めており,特に難解な語句を平易な語句に言い換える語彙平易化\cite{paetzold-2017b}が英語を中心に研究されている.語彙平易化では,入力文の文法構造を保持したまま,難解な語句を文脈に応じて平易な語句に言い換える.この技術は,言語学習者や子どもの文章読解支援に応用されるだけでなく,機械翻訳\cite{stajner-2016}をはじめとする他の自然言語処理応用タスクの前処理としても有用である.本タスクは,平易に書かれたコーパス(SimpleEnglishWikipedia\footnote{http://simple.wikipedia.org/}),難解な文と平易な文のパラレルコーパス\cite{zhu-2010},難解な語句から平易な語句への言い換え辞書\cite{pavlick-2016},評価用データセット\cite{specia-2012}やツールキット\cite{paetzold-2015}など,言語資源が豊富な英語を中心に研究されてきた.しかし,日本語ではこれらの語彙平易化のための言語資源が充分に整備されていない.語彙平易化は,以下の4つのサブタスク\cite{shardlow-2014}を通して実現される.\begin{itemize}\item難解語の検出:入力文中のどの単語が難解かを判定し,語彙平易化の対象単語を決定する.\item言い換え候補の生成:対象単語の同義語を文脈を考慮せずに広く収集する.\item言い換え候補の選択:文脈を考慮して,対象単語の言い換えを選択する.\item難易度に基づく並び替え:候補を平易な順に並び替え,最も平易な言い換えを出力する.\end{itemize}\figref{fig:pipeline}に示すように,これらは単語の難易度推定に関するタスクと語彙的換言に関するタスクに大別できる.本研究では,単語の難易度推定に関する「難解語の検出」および「難易度に基づく並び替え」のサブタスクに焦点を当て,日本語の語彙平易化のための言語資源\footnote{https://sites.google.com/site/moguranosenshi/projects/lexical-simplification}を構築する.本研究の貢献は次の3つである.\begin{itemize}\item日本語の語彙平易化のための評価用データセットを改良した.\item大規模な日本語の単語難易度辞書および難解→平易の言い換え辞書を構築した.\item日本語の語彙平易化システムを構築するためのツールキットを公開した.\end{itemize}本稿の構成を示す.2\hl{章}では,言語資源を中心に語彙平易化の関連研究を紹介する.3\hl{章}では,先行研究\cite{kajiwara-2015}で構築した日本語の語彙平易化のための評価用データセットを改良する.4\hl{章}では,単語の難易度を推定する分類器を訓練し,大規模な日本語の単語難易度辞書を構築する.また,この分類器をもとに,難解な単語と平易な単語の言い換え辞書も構築する.5\hl{章}では,3\hl{章}で構築した評価用データセットの上で,4\hl{章}で構築した辞書に基づく語彙平易化システムの性能を評価する.最後に6\hl{章}で,本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-4ia4f1.eps}\end{center}\caption{語彙平易化の流れ}\label{fig:pipeline}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%=====================================================
V14N04-02
技術のグローバル化が進み,特許情報とその翻訳の重要性が広く認識されてきている.日米欧の特許庁では,情報共有,審査の迅速化の観点から,特許文書の相互利用を目指して三極間の協力が推し進められている.国内においても,人手による翻訳で公開特許公報の英文抄録(PAJ:PatentAbstractsofJapan)が作成されているほか,高度産業財産ネットワーク(AIPN:AdvancedIndustrialPropertyNetwork)が開発され,海外の特許庁において包袋書類(出願人が日本国特許庁に提出した明細書等の書類,及び,拒絶理由通知書等の特許出願の審査に係る書類等)が機械翻訳で英訳された形で提供されるようになった.特許は高度に専門的な文書で,新語や専門用語が多く含まれ,かつ,その内容が多岐にわたっている.「翻訳」という観点から見た場合,特許の文章には以下のような特徴がある.\begin{itemize}\item文が長い\\一般に特許文は,文章が長くなる傾向がある.例えば,遺伝子分野(IPC:C12N)の2004年出願の全データ11,781件から抄録部分の形態素数を集計したところ,日本語では一文が平均57形態素(105文字),英語では平均44形態素であった.日本語における読みやすい文の長さの目安がおよそ50文字以内といわれていることからも,特許の文が長くて理解しにくいものであることが分かる.文の長さとも関連して,特許文では並列構造が多く,係り受け関係が複雑であるという特徴もある.\item専門用語が多い\\特許では分野が細分化されており,分野ごとに多くの新語や専門用語が出現する.これらの語は,分野によって概念が違っていたり,単語の組み合わせで個々の単語とはまったく異なる概念を表したりすることがある.また,専門性の高い用語の中には用語辞書や対訳辞書に登録されていないものも多い.\end{itemize}このような特徴を持つ文書を翻訳するには,人手であれ,機械であれ,分野に特化した専門用語の対訳辞書が不可欠である.特に,機械翻訳などの言語処理においては,未知語や専門用語を正確に認識することが,翻訳品質だけでなく,構文解析の曖昧性解消や翻訳速度の向上にも大きく寄与することがわかっている\cite{Shimohata05}.しかしながら,専門性が高くなればなるほど,市販の辞書を入手することは困難になる.また,人手で辞書を構築する場合にも膨大な時間とコストがかかってしまう.一方で,特許にはIPC(InternationalPatentClassification)と呼ばれる体系的な分類コードが付与された大量な文書の蓄積がある.またその一部には,PAJや外国出願特許のように,翻訳されたテキストが存在する.そこで我々は,特許コーパスを用いて,専門用語およびその対訳を自動的に抽出することが可能であると考えた.ここで,本論文で用いる言葉の定義をする.本論文では,言語学的な単位として,1つの形態素からなる語を単語,複数の形態素からなる語を単語列と呼ぶ.また,術語学的な単位として,特定の分野においてある概念を表す単語及び単語列を専門用語,あるいは単に用語と呼ぶ.
V28N01-08
\label{sec:introduction}文法誤り訂正(GrammaticalErrorCorrection,GEC)は,テキスト中に含まれる様々な種類の誤りを自動的に訂正するタスクである.文法誤り訂正技術は作文支援や言語学習者支援など幅広い応用が期待されることから,自然言語処理における主要な応用タスクの一つとなっている.特に,英語を対象とした文法誤り訂正タスクでは,CoNLL-2014データセット(以下,CoNLL-2014)\shortcite{Ng:14:CoNLLST}を用いて文法誤り訂正モデルの評価を行うことで盛んに研究開発が進んできた\shortcite{Junczys-Dowmunt:16:EMNLP,Chollampatt:18:AAAI,lichtarge2019corpora,zhao2019improving,kiyono-etal-2019-empirical}.一方で,文法誤り訂正モデルの性能評価に関してはタスクの性質上不十分な可能性が高い.文法誤り訂正タスクの入力には書き手の習熟度・母語・エッセイトピックなどの条件によって様々なバリエーションのある文が想定され,タスクの難易度は各条件下によって異なる.しかし,既存研究の多くは1つまたは2つのコーパスを用いた限定的な条件でのみ評価を行う傾向がある\shortcite{mizumoto-matsumoto-2016-discriminative,ji:2017:nested,junczys:2018:NAACL,lichtarge2019corpora}.実際,Grammarly\footnote{\url{https://www.grammarly.com/}}やGinger\footnote{\url{http://www.getginger.jp/}}など文法誤り訂正技術の実サービスでは,特定の条件ではなく任意の条件を入力として想定する場合が多い.仮に,難易度に依存して異なるコーパス間でモデルの評価にばらつきが生じた場合,単一コーパスによる評価ではある特定の条件でのみ成立する限定的な議論しか行うことができないため,評価の方法論として不十分である.そこで本研究では,文法誤り訂正の評価の方法論として,既存の単一コーパスによる評価は不十分であるという仮説に基づき,コーパス横断評価の必要性について調査する.ここでコーパス横断評価とは,単一の評価尺度と複数のコーパスを用いて,モデルを多角的に評価することと本研究では定義する.上記仮説を検証するにあたり,4種類の手法(LSTM,CNN,Transformer,SMT)を6種類のコーパス(CoNLL-2014,CoNLL-2013,FCE,JFLEG,KJ,BEA-2019)を用いて評価実験を行った結果,コーパス毎にモデル順位が大幅に変動した.そのため,タスクの性質上,文法誤り訂正モデルは複数のコーパスを用いて横断的に評価を行うことが重要である.また,横断評価は実応用を見据えた場合においても有用であると考えられる.そこで,横断評価の有用性を検証するために,文法誤り訂正の入力に想定される代表的な条件の一つである書き手の習熟度を評価セグメントとした場合の横断評価を行った.その結果,書き手の習熟度が初中級レベルと上級レベル間ではモデルの性能評価に関して大きな乖離があることがわかった.本研究の貢献は次の3点である.\vspace{0.5\Cvs}\begin{itemize}%%%%\vspace{3mm}%%%%\setlength{\itemsep}{1mm}\item初めて文法誤り訂正モデルのコーパス横断評価の必要性について調査した.\item既存の単一コーパス評価では文法誤り訂正モデルの評価として信頼性に欠ける可能性があることを示した.\item書き手の習熟度が初中級レベルと上級レベル間ではモデルの性能評価に関して大きな乖離があることを示した.%%%%\vspace{3mm}\end{itemize}%%%%%%%%%%%%%%Section2%%%%%%%%%%%%%%%%%%%%%%%%%%
V19N03-01
\label{sec:introduction}検索エンジンの主な目的は,ユーザの情報要求に適合する文書をランキング形式でユーザに提供することである.しかし,情報要求に見合うランキングを実現するのは容易ではない.これは,ユーザが入力するクエリが一般的に,短く,曖昧であり\cite{Jansen2000},ユーザの情報要求を推定するのが困難であることに起因する.例えば「マック\textvisiblespace\hspace{0.1zw}価格」というクエリは,「Mac(コンピュータ)」の価格とも,「マクドナルド」の価格とも,もしくは他の「マック」の価格とも解釈できる.そのため,どの「マック」に関する文書が求められているのか分からなければ,ユーザの情報要求に見合うランキングを実現するのは難しい.このような問題を解決する方法の一つとして,適合性フィードバック\cite{Rocchio1971}がある.適合性フィードバックでは,ユーザから明示的(もしくは擬似的)に得られるフィードバックを利用することで,検索結果のランキングを修正する.具体的には,次のような手続きに従ってランキングの修正を行う.\begin{enumerate}\itemクエリに対する初期検索結果をユーザに提示する.\item初期検索結果中から,情報要求に適合する文書をユーザに選択させる.\item選択された文書(フィードバック)を利用して,初期検索結果のランキングを修正する.\end{enumerate}例えば,「Mac(コンピュータ)」の価格に関する文書がフィードバックとして得られれば,ユーザがこの話題に関心を持っていると推測できる.そして,この情報を基に検索結果のランキングを修正することができる.適合性フィードバックには,ベースとするランキングアルゴリズムに応じて,様々な手法がある.Rocchioの手法\cite{Rocchio1971}やIdeの手法\cite{Ide1971}は,ベクトル空間モデルに基づくランキングアルゴリズム\cite{Salton1975}に対する適合性フィードバックの手法として有名である.確率モデルに基づくランキングアルゴリズム\cite{SparckJones2000}においては,フィードバックを用いて,クエリ中の単語の重みを修正したり,クエリを拡張することができる.言語モデルに基づくランキングアルゴリズム\cite{Ponte1998}に対しては,Zhaiらの手法\cite{Zhai2001}が代表的である.このように適合性フィードバックには様々な手法があるが,それらの根底にあるアイディアは同じである.すなわち,適合性フィードバックでは,フィードバックと類似する文書を検索結果の上位にリランキングする.ここで,既存の手法の多くは,テキスト(フィードバック及び検索結果中の各文書)に表層的に出現する単語の情報だけを用いて類似度を算出している.すなわち,テキストに含まれていない単語の情報は利用していない.しかし,表層的には出現していなくても,そのテキストに潜在的に現れうる単語の情報は,リランキングに役に立ちうると考えられる.上の「マック」の例であれば,仮にフィードバック(この例では「Mac(コンピュータ)」の価格に関する文書)に「CPU」や「ハードディスク」などの単語が含まれていなくても,これらの単語はフィードバックとよく関連しており,潜在的にはフィードバックに現れうる.検索結果中の適合文書(i.e.,「Mac(コンピュータ)」の価格に関する文書)についても同様のことが言える.仮にある適合文書にこれらの単語が含まれていなくても,これらの単語は適合文書によく関連しており,潜在的にはその文書に現れうる.このように,テキストに現れうる単語の情報があれば,フィードバックと検索結果中の各文書との類似度を算出する際に有用であると考えられる.そこで,本稿では,テキストに表層的に存在する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用する適合性フィードバックの手法を提案する.提案手法では,まずLatentDirichletAllocation(LDA)\cite{Blei2003}を用いて,テキストに潜在するトピックの分布を推定する.次に,推定された潜在トピックの分布を基に,各テキストに潜在的に現れうる単語の分布を推定する.そして,推定された潜在的な単語の分布とテキストの表層的な単語の分布の両方を用いて,フィードバックと検索結果中の各文書との類似度を算出し,これを基に検索結果をリランキングする.実験の結果,$2$文書(合計$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のPrecisionat$10$(P@10)を$27.6\%$改善することが示された.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことが示された(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).以降,本稿では,次の構成に従って議論を進める.\ref{sec:lm_approaches}章では,提案手法の基礎をなす,言語モデルに基づくランキングアルゴリズムについて概説する.\ref{sec:lda}章では,提案手法で使用するLDAについて解説する.\ref{sec:proposed_method}章では,提案手法について説明する.\ref{sec:experiments}章では,提案手法の有効性を調査するために行った実験と,その結果について報告する.最後に,\ref{sec:conclusion}章で,本稿の結論を述べる.
V23N01-04
最新の機械翻訳システムは,年々精度が向上している反面,システムの内部は複雑化しており,翻訳システムの傾向は必ずしも事前に把握できるわけではない.このため,システムによってある文章が翻訳された結果に目を通すことで,そのシステムに含まれる問題点を間接的に把握し,システム同士を比較することが広く行われている.このように,単一システムによって発生する誤りの分析や,各システムを比較することは,各システムの利点や欠点を客観的に把握し,システム改善の手段を検討することに役立つ.ところが,翻訳システムの出力結果を分析しようとした際,機械翻訳の専門家である分析者は,システムが出力した膨大な結果に目を通す必要があり,その作業は労力がかかるものである.この問題を解決するために,機械翻訳の誤り分析を効率化する手法が提案されている\cite{popovic2011towards,kirchhoff2007semi,fishel2011automatic,elkholy11morphologicallyrich}.この手法の具体的な手続きとして,機械翻訳結果を人手により翻訳された参照訳と比較し,機械翻訳結果のどの箇所がどのように誤っているかを自動的にラベル付けする.さらに,発見した誤りを既存の誤り体系\cite{flanagan1994error,vilar2006error}に従って「挿入・削除・置換・活用・並べ替え」のように分類することで,機械翻訳システムの誤り傾向を自動的に捉えることができる.\textcolor{black}{しかし,このような自動分析で誤りのおおよその傾向をつかめたとしても,機械翻訳システムを改善する上で,詳細な翻訳誤り現象を把握するためには,人手による誤り分析が欠かせない.}\textcolor{black}{ところが,先行研究と同じように,参照文と機械翻訳結果を比較して差分に基づいて誤りを集計する手法で詳細な誤り分析を行おうとした際に,問題が発生する.具体的には,機械翻訳結果と参照訳の文字列の不一致箇所を単純な方法でラベル付けすると,人間の評価と一致しなくなる場合がある.つまり,機械翻訳結果が参照訳と同様の意味でありながら表層的な文字列が異なる換言の場合,先行研究では不一致箇所を誤り箇所として捉えてしまう.このような誤った判断は,誤り分析を効率化する上で支障となる.}\textcolor{black}{本研究では,前述の問題点を克服し,機械翻訳システムの誤りと判断されたものの内,より誤りの可能性が高い箇所を優先的に捉える手法を提案する.}図\ref{fig:scoring-ex}に本研究の概略を示す.まず,対訳コーパスに対して翻訳結果を生成し,翻訳結果と参照訳を利用して誤り分析を優先的に行うべき箇所を選択する.次に,重点的に選択された箇所を中心に人手により分析を行う.誤りの可能性が高い箇所を特定するために,機械翻訳結果に含まれる$n$-gramを,誤りの可能性の高い順にスコア付けする手法を提案する(\ref{sec:scoring}節).また,誤りかどうかの判断を単純な一致不一致より頑健にするために,与えられた機械翻訳結果と正解訳のリストから,機械翻訳文中の各$n$-gramに対して誤りらしさと関係のあるスコア関数を設計する.設計されたスコア関数を用いることで,誤り$n$-gramを誤りらしさに基づいて並べ替えることができ,より誤りらしい箇所を重点的に分析することが可能となる.単純にスコアに基づいて選択を行った場合,正解訳と一致するような明らかに正しいと考えられる箇所を選択してしまう恐れがある.この問題に対処するため,正解訳を利用して誤りとして提示された箇所をフィルタリングする手法を提案し,選択精度の向上を図る(\ref{sec:filtering}節).\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f1.eps}\end{center}\caption{本研究の流れ図}\label{fig:scoring-ex}\vspace{-0.5\Cvs}\end{figure}実験では,まず\ref{sec:manual-analysis-result}節〜\ref{sec:auto-analysis-result}節で提案法の誤り箇所選択精度の測定を行い,単一システムの分析,及びシステム間比較における有効性の検証を行う.実験の後半では,提案法の課題を分析し(\ref{sec:selection-error-analysis}節),提案法を機械翻訳システムの改善に使用した場合の効果について検討を行う(\ref{sec:act-error-analysis}節).
V06N06-07
近年テキストを自動的に要約する技術に関する研究が国内外で盛んになって来ている(HovyandMarcu1998;奥村,難波1998).自動要約に関する研究の歴史は,古く1950年代後半から研究されているが,対象のテキストから重要な部分を抜き出して要約とする重要部分特定の手法が中心であった.テキストの内容を理解しての自動要約は,難しくまだ現実的なシステムを作成するに至っていないのが現状である.また,最近,テキストの重要部分に注目するのではなく,不要部分を特定し,言い換え及び削除により,要約を行う研究も出てきている.本研究の目的は,長い文を短い文に分割する処理(今後「短文分割」と呼ぶ)を行ない,その短文分割の自動要約手法への影響を調査することである.短文分割に関する研究は,機械翻訳の研究で見られる.機械翻訳においては,長文は,文の係り受け構造の複雑さが増え,翻訳精度低下の原因の一つとされている.このため,短文分割を翻訳の前処理として行い,翻訳の精度を高めることを目的とした研究が行われている.金ら(金,江原1993)は,長文に現れる連用中止表現,引用,連体節,接続節などを分割点と認定している.また,木村ら(木村,野村,平川1993)は,単語数の多い文で,特定の言語表現を持つ場合に分割を行っている.特定の言語表現としては,動詞と助動詞の連用中止表現,接続助詞の「ので」などがある.本論文で用いる短文分割手法は,これらの手法と同様のものである.一方,関連研究としてはMarcuの研究がある(Marcu1997).Marcuは,手がかりとなる語句を使って要約の基本となる単位を決定し,談話構造を解析してその結果を自動要約に用いている.手がかり語としては,becauseなどの接続詞などを使っているため,節が基本単位となる場合があり,文より小さな単位を用いての要約を実現している.手がかり語がない場合は,文全体が1つの単位となる.Marcuの手法は,文より小さな単位を扱っているが,短文分割は行っていない.もう1つの関連研究として,簡易な文構造解析を行い,自動要約に役立てるものがある.構文解析の結果を利用して重要・不要部分を特定し,要約を作成するものである.日本語では三上らが,TVニュース原稿を題材として,構文解析を行い,文中の要素に重要度を与えて,重要要素や,削除すると文を壊してしまう恐れのある要素を重要として抽出している(三上,山崎,増山,中川1998).英語では,Grefestetteの研究があり,自身の開発したparserを使い,構文解析を行い,主節は従属節より重要であり,否定の表現も重要であるなどとして,重要部分を特定して文書の単純化を行っている(Grefenstette1998).これらの研究は簡易構文解析処理を行っているのに対し,本研究では,構文解析を行わずに,文字列や品詞の情報のみを利用して短文分割を行っている.上記の短文分割に関係した研究と比べて,本研究は,短文分割の手法は既存の手法と同様のものを用いており,その短文分割が自動要約の基本的手法にどれだけ効果があるのかに焦点を置いている.本研究は,聴覚障害者向けにサービスしようとしている字幕付きテレビニュースでの自動要約技術に関する研究の一環であり,自動的にテレビニュース原稿を要約する手法について,重要文抽出,文字数圧縮などをテーマに研究を進めて来ている(Wakao,Ehara,Sawamura,Abe,Shirai1997;Wakao,Ehara,Shirai1998).本稿で題材としているのは,TVニュース番組の電子化原稿である.ニュース番組原稿は,新聞記事と似ているが,両者を比較した場合,ニュース原稿のほうが1記事中の文数が少なく,且つ一文当たりの文字数が多いことが分かっている(江原,沢村,若尾,阿部,白井1997).ここで重要文を自動的に抽出することにより要約を作成すると,文数が少なく,一文が長いため,どうしても粗い要約となってしまう.この欠点を補正するために,短文分割を行い,その自動要約における基本的技術への効果を評価した.評価には,文の重要度における順位付けと文字数圧縮を取り上げた.文の順位付けでの評価では,まず,各文を人手及びシステムによりその文の重要度に応じて順位付けを行い,人手により重要と判定された文が,短文分割により分割された場合,分割された文の順位がどうなるかを調査した.次に,記事中の重要な文だけではなく,全部の文を対象として,文の順位付けにおける短文分割の自動要約への影響を調べるために,人手とシステムにより順位付けされた結果の類似度を算出し,短文分割の前後での変化を調べた.この類似度には,スペアマンの順位相関関係係数を用いた.また,文の不要部分を特定して,それを短い表現への言い換えや,削除により,文字数を削減する「文字数圧縮」においても短文分割の前後での圧縮率の違いを算出することにより,短文分割の効果を評価した.以下に,まず,本研究の対象とした原稿を紹介し,短文分割の条件,短文分割の自動要約の基本的技術への影響について記述する.
V29N01-07
\label{sec:intro}ニューラルネットワークを利用したSequence-to-sequenceモデルの発展により,生成型自動要約の性能は飛躍的に向上した.Sequence-to-sequence要約モデルの学習においては,新聞記事\cite{nallapati-etal-2016-abstractive}であれば見出し,ソーシャルメディア\cite{kim-etal-2019-abstractive}やレビュー\cite{DBLP:conf/aaai/LiLZ19}であればタイトル,メール\cite{zhang-tetreault-2019-email}であれば件名を要約とみなして使用する.これらの要約は本文に書かれた内容の重要な箇所を適切かつ簡潔に記述していることが望ましい.しかしながら,過去の多くの研究が要約モデルの学習データセットには不適切な本文−要約ペアが多く含まれることを報告している\cite{zhang-tetreault-2019-email,DBLP:conf/aaai/LiLZ19,kryscinski-etal-2019-neural,matsumaru-etal-2020-improving}.具体例を表\ref{tab:inappropriate_example}に示す.例はRedditTitleデータ\cite{kim-etal-2019-abstractive},EnronSubjectデータ\cite{zhang-tetreault-2019-email}から引用したものである.表の上段の例では本文にはタイトルの続きが書かれており,タイトルは本文に書かれている内容を反映していない.下段の例では,件名は簡潔すぎて情報不足であり,要約としての体裁を成していない.こうしたノイズを含むデータセットに対処する方法が求められている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[h]\input{06table01.tex}\caption{タイトル,件名が本文の要約として不適切な例}\label{tab:inappropriate_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\newpageノイズを含むデータから効率的にモデルを学習させる方法の1つとしてカリキュラムラーニング\cite{10.1145/1553374.1553380}が用いられている.カリキュラムラーニングは元来,学習データの順序を変えることで,収束速度やモデルの性能を上げる手法であるが,ノイズを含むデータでモデルを学習させる際にも有効性が示されている\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}.しかしながら,これまでカリキュラムラーニングは要約タスクに応用されてこなかった.本研究の目的の1つはカリキュラムラーニングの要約タスクへの有効性を検証することである.カリキュラムラーニングにおける学習データの順序の変更には,ノイズの量や難易度を表す指標が通常用いられる.学習はノイズの多いデータ群あるいは難易度の低いデータ群から始まり,徐々にノイズの少ないものあるいは難易度の高いものに移行する.ソートの際に使用する指標として,文生成タスク\cite{Cirik2016VisualizingAU}や翻訳タスク\cite{kocmi-bojar-2017-curriculum,platanios-etal-2019-competence,zhou-etal-2020-uncertainty}においては,出力文の長さが難易度の指標として用いられている.ノイズを表す指標として,翻訳タスクにおいて2つの生成モデルの尤度差を用いて,カリキュラムラーニングに適用した研究がある\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}.2つの生成モデルはノイズの少ないコーパスとノイズの多いコーパスでそれぞれ学習したSequence-to-sequenceモデルである.ここではノイズは翻訳元の文章と翻訳先の文章で対応の取れない情報を指している.要約分野においては,新聞記事などのデータセットはソーシャルメディアやメールのデータセットに比べてノイズが少ないと考えられる.しかし,要約データは要約の長さ,Density(要約箇所が本文の全体か,一部分かを示す指標),圧縮率,抽出率(要約の単語が本文に含まれる割合)などの性質がデータセットによって大きく異なる\cite{zhong-etal-2019-closer}.異なるデータセットで学習したモデルは,ノイズのみでなく,こうした性質を考慮したモデルになってしまう問題がある.そのため,先行研究\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}を要約モデルに適用する場合,同じドメインでノイズの多寡のみが異なるデータセットが必要になるが,こうしたデータセットは存在しない.そこで本研究のもう1つの目的として,ノイズを含む単一コーパスからノイズを定量化してカリキュラムラーニングに適用する手法を提案する.本研究では,ノイズを含む単一コーパスからノイズを定量化できるモデルAppropriatenessEstimatorを提案する.本モデルは本文−要約の正しいペアと,ランダムに組み合わせたペアを分類する.ランダムに組み合わせたペアの要約は本文の内容を反映していない不適切なものである.不適切なペアと実際のペアを分類するように学習することで,AppropriatenessEstimatorは本文−要約ペアの“適切性”が判別可能になる.この適切性をカリキュラムラーニングに適用する.すなわち,適切性をデータのソートに使用し,要約モデルの学習時,学習データを不適切なペアから適切なペアへと徐々に変化させる.本研究ではノイズを多く含む要約のデータセットとして,2つのデータセットで実験を行った.EnronSubjectデータセット\cite{zhang-tetreault-2019-email}とRedditTitleデータセット\cite{kim-etal-2019-abstractive}である.両者とも学習データにはノイズが多く含まれるが,EnronSubjectデータセットの開発データセットと評価データセットは,人手により整理されたものである.一方RedditTitleデータセットの開発データセット,評価データセットはノイズを含む生のデータセットである.本研究では,要約タスクに対するカリキュラムラーニングの有効性と,提案手法の効果を検証するため,3つの要約モデルと3つのカリキュラムで実験を行う.要約モデルには,事前学習要約モデルと非事前学習要約モデルを用いる.事前学習モデルとしてBART\cite{lewis-etal-2020-bart},非事前学習モデルとしてTransformer\cite{NIPS2017_7181}とSeq2seqWithAttention\cite{DBLP:journals/corr/BahdanauCB14}を採用する.実験において,カリキュラムラーニングおよび提案手法であるAppropriatenessEstimatorは事前学習モデル,および非事前学習モデル両方の性能を改善した.カリキュラムラーニングに用いられるカリキュラムにはいくつかの種類が存在する.学習データを徐々に変更するもの,学習データを徐々に増やしていくもの,学習データを徐々に減らしていくものなどがある.実験結果から,事前学習モデルに有効なカリキュラムと非事前学習モデルに有効なカリキュラムが異なることが判明した.事前学習モデルにとっては,終盤に少数のデータでFine-tuningを行うカリキュラムが有効であり,非事前学習モデルにとっては序盤に多数のデータで汎化を行うことが有効であった.また,人手による評価を行い,提案手法であるAppropriatenessEstimatorをカリキュラムラーニングに適用した方法が要約モデルの性能を向上させることを示した.要約のデータの性質の評価に,抽出率(要約の単語が本文に含まれる割合)\cite{kim-etal-2019-abstractive}や,含意判定確率\cite{matsumaru-etal-2020-improving}がこれまで用いられてきた.本研究で提案した適切性をこれらの性質や入力長,出力長などの統計量と比較し,適切性の性質を議論する.加えてこれまでカリキュラムラーニングに用いられてこなかった上記抽出率や含意判定確率が要約タスクにおけるカリキュラムラーニングに対して有効であることを示す.本論文の貢献は以下である.\begin{itemize}\item3つの要約モデルでカリキュラムラーニングの実験を行い,カリキュラムラーニングの要約タスクに対する有効性を示した.\item単一のノイズを含む学習データから学習可能な,入力文と出力文の適切性を計算するモデル\textit{AppropriatenessEstimator}を提案し,実験により要約モデルの性能を向上させることを確認した.\item異なるカリキュラムが事前学習モデル,非事前学習モデルの性能にどのような影響を与えるかを分析した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V11N05-07
言い換えに関する研究\cite{sato_ronbun_iikae,murata_paraphrase_true,inui_iikae_tutorial,murata_paraphrase_nlp2004}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであり,近年,その重要性は多くの研究者の認めるところとなっている.また,これと同時に,言い換え表現の自動獲得の研究も重要視されつつある.本稿では言い換え表現の一種である同義表現を自動獲得する研究について述べる.本稿では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することで,同義表現を抽出する.例えば,「あべこべ」という語の定義文を考えてみる.大辞林では,\begin{quote}「順序・位置などの関係がさかさまに入れかわっていること。」\end{quote}となっており,岩波国語辞典では,\begin{quote}「順序・位置・関係がひっくり返っていること。」\end{quote}となっている.これらの定義文は同じ「あべこべ」という語の定義文であるため,同義な内容を記述した文であり同義なテキスト対と見ることができる.これを照合すれば,\begin{quote}「さかさまに入れかわっている」\hspace*{1cm}$\Updownarrow$「ひっくり返っている」\end{quote}といった同義な表現対が得られる.本稿の手法は大雑把には以上のとおりで,このように同義な内容を記述する複数の辞書の定義文を照合することで同義表現を獲得するのである.本研究の価値をあらかじめ整理すると以下のようになる.\begin{itemize}\item同義なテキスト対から同義表現を抽出する研究はいくつかあるが,複数の辞書の定義文を同義なテキスト対として,そこから同義表現を獲得する先行研究はない.本稿は,複数の辞書の定義文からどのくらいの同義表現を抽出できるかの目安を与えるものとなる.\item本稿では,同義表現の抽出に役に立つ,新しい尺度を提案する.本稿の実験で,この尺度がいくつかの比較手法よりも有効であることを確認する.この尺度は,他の同義表現の抽出の研究にも利用できる有用なものである.\end{itemize}
V14N03-07
授業改善は現在多くの大学において極めて重要な課題となっている.大学がこれまで以上に多くの学生の興味を引き出しながら,教育の水準を高めなければならないからである.このためこれまでにも様々な授業改善の研究が試みられた(たとえば赤堀侃司1997;伊藤秀子ら1999,田中毎実ら2000など).また授業改善は教育技法の問題だけでなく,大学のカリキュラムの構成や教師資質の改善(FacultyDevelopment)の問題でもある.大学では自己点検自己評価あるいは外部評価などが行われ,中でも学生による授業評価は大学改革の中核として注目されている.しかし多くの大学で行われる学生による授業評価は,学生にマークシートを記入させる方式で行われることが多く,選択枝にない学生の自由な意見が反映され難い.そこで学生の自由な意見を収集することになるが,たとえば授業について学生に自由な意見を書かせた場合,何らかの方法でその内容を分析し授業改善に反映させなければならない.本研究では,学生に携帯メールを使って授業の自由な感想文を送らせ,その文章を感情評価基準を使って分類する方法で授業を評価し,授業改善に対する考察を行った.
V18N01-02
\label{sec:mylabel1}自然言語処理の研究分野において,1文を対象にした研究は盛んに行われてきた.特に,形態素解析や構文解析は実用レベルに達しており,様々な自然言語を対象とした応用研究において,基礎処理として使用されている.しかし,高度な文章処理を目的としている応用研究,例えば文章要約や照応解析,質問応答,評判分析などは,当然ながら1文を対象にしているわけではなく,高い精度を実現するためには,文章中の話題のまとまりや文間の接続関係といった談話構造の理解が必要になる.このような談話構造解析を用いれば,文章要約(田中,面来,野口,矢後,韓,原田2006)では話題のまとまりを考慮した自然な要約が可能になり,照応解析(南,原田2002)では先行詞候補を探索する範囲を談話構造木の照応詞と根を結ぶ経路上へと高い精度で絞り込むことができ,質問応答システム(加藤,古川,蒲生,韓,原田2005)では理由や原因の回答抽出が容易になることが期待される.談話構造解析の従来研究では様々なモデルが提案されてきた.何を基本単位とするか,単位間の関係,談話構造のモデルなど研究者により様々である.談話構造のモデルとしては文を基本単位とした木構造モデルが一般的である.黒橋ら(黒橋,長尾1994)は文間に11種類の結束関係(並列,対比,主題連鎖,焦点—主題連鎖,詳細化,理由,原因—結果,変化,例提示,例説明,質問—応答)を定義し,手掛かり表現・主題連鎖・文間の類似性に着目し判定している.横山ら(横山,難波,奥村2003)は8種類(因果,背景,呼応,並列,対比,転換,補足,例示)の係り受け関係をSVMを用いた機械学習により判定している.Marcu(Marcu2002)は木構造モデルではなく,連続する2文に限り,4種類の接続関係(CONTRAST,CAUSE-EXPLANATION-EVIDENCE,CONDITION,ELABORATION)を大量のテキストデータを用いた用例利用型の手法で判定している.山本ら(山本,斉藤2008)は,同様の手法で,6種類の接続関係(累加,逆接,因果,並列,転換,例示)を判定している.以上のように談話構造解析の従来研究では様々な解析方法が提案されているが,大きく2つの問題がある.1つ目は,文の話題の中心である焦点の推移を詳細に分析できていないという問題である.焦点はその文を象徴する最も重要な手掛かりであり,談話構造解析には欠かせない要素である.2つ目は,基本的に接続詞や文末表現,同一語の出現など,表層的な情報に基づいているという問題である.特に,接続詞が文中に現れる頻度はあまり高くない.シソーラスを用いて類義情報を取り入れている研究もあるが,そもそも利用されている意味解析の精度が低く類義判定が信頼性に欠けること,また談話では主題の属性や部分などへの話題の変化が多く見られ,類義情報のみでは文間のつながりを適切に把握できないなどの問題点がある.本研究では精度の高い談話構造解析を実現するため,談話の結束性を評価するセンタリング理論を談話構造解析に導入することで,談話の焦点の推移を詳細に捉えることを可能にする.そして部分/属性関係など2語が表す概念間の意味的関係を定めるにあたって,原田らが開発した意味解析システムSage(語意精度95{\%},深層格精度90{\%})(原田,尾見,岩田志,水野1999;原田,水野2001;原田,田淵,大野2002)を用いて各語の意味(概念)を高精度に定め,さらにEDR電子辞書(1995)から抽出した概念間の部分/属性関係を対象知識として,話題の部分/属性への展開などの検出に用いる手法を提案する.