id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V03N03-01
自然言語処理技術は,単一文の解析等に関しては一定の水準に到達し,文の生成技術を統合して幾つかの機械翻訳システムが商用化されて久しい.このような段階に達した現在においては,従来,問題とされてきた形態素解析や構文解析とは異なる以下のような課題が現れてきている.自然言語処理システムは求められる分析性能が向上するにつれて,そのシステムで用いる言語知識ベース(文法規則や辞書データ)も次第に複雑化,巨大化してきた.ひとたび実働したシステムも,利用者が使い込むことによって既存の分析性能では扱えない言語現象への対応に迫られる.利用者が増えるに従って新たな分析性能が要求される.一方,自然言語処理システムを用いる応用分野はますます多様化することが予想され,応用分野ごとにも新たな分析性能が要求される.言語知識ベースにおいても機能の更新が求められ,追加と修正の作業が発生する.しかし,一般に言語知識ベースの開発には多数の人員と多くの時間を必要とするため,その再構築にも手間を要する.応用分野に適合するシステムを効率的に開発するためには,融通性を持ち容易に修正できる文法規則や辞書データの作成技法と,作成された言語知識ベースの保守性の向上を図る必要がある.この課題は,応用分野の多様化に伴う需要と規模が増大する中でますます重要となっている.言語知識をコンピュータへ実装する過程での技術的な課題を論じた研究~\cite{吉村,神岡,奥}がある.しかし,文法規則の記述の方法やノウハウの開示が見られない.どのようにして規則が見つけだされたのかという言語知識の構成過程の研究は少なかった.前述のように,適用分野の多様化に応じて,文法規則の追加や修正を整然と実現するには,文法規則の開発手続きを整理することから取り組むべきである.具体的には個々の文法規則がどのような言語現象に着目して作成されたのか,そして,その記述の手段,すなわちどのような手続きで規則化されたのかのノウハウを方法論的に明らかにすることである.本稿では,この課題への一解決策として,文法規則の系統だった記述の方法を提案する.さらに,我々が提案した方法に従って作成した文法規則について説明する.まず,形態素と表層形態の概念区分をした上で,日本語の持つ階層構造に注目した.形態素の述部階層位置との関係から,表層での形態の現れ方を構文構造に結び付ける形態構文論的な文法作成のアプローチを採用し,文法規則の開発手続きを確立した.この文法規則は機械処理に適合した文法体系の一つとなっている.その特徴は,(1)系統だった記述法に則り作成されたものであること,(2)そのため,工学上,文法規則の開発作業手順に一般性が備わり,誰がどのように文法規則を作成するにせよ,ある条件を満たすだけの言語の分析能力を持った文法規則を記述することができる.なお,もう一方の言語知識である辞書データについても,その知識構成過程の把握が必要であるが,本稿では,特に文法規則についてのみ着目する.以下の第\ref{文法規則の体系だった記述法}章では,文法体系と文法規則の具体化の方法について述べ,文法規則を体系的に記述してゆくための記述指針を提案する.第\ref{文法規則の記述の手順}章では,提案した手続きに従って記述した文法規則例を示す.新聞テキストを用いた分析実験を通して,文法規則の記述の手続きの一貫性を評価した.第\ref{記述手続きの評価}章では,その詳細を報告する.
V14N03-11
テキスト対話における対話者の情緒\footnote{心理学ではemotionの訳語に「情緒」や「情動」を用いる.emotionは,feeling(訳語は「感情」)より狭い意味である.本稿では,機械処理の立場から\cite{徳久&岡田98}にならい,「情緒」という用語を用いる.}を分析する上で,情緒タグ付きテキスト対話コーパスが必要とされている.通常,言語表現と話者の情緒との間には,必ずしも直接的な対応関係が存在するとは限らず,多義が存在する場合が多いため,対話文に内包された情緒を言語表現のみによって正しく判定することは難しい.したがって,音声や表情などの言語外情報が欠けているテキスト対話に対して,情緒のタグを付与しようとすると,付与するタグの種類やタイミングが付与作業者によって異なってしまうという「タグ付与の不安定さ」が問題となる.そのため,情緒タグの付与には可能な限り言語外情報の付随する対話を対象とすることが望まれる.音声の持つ言語外情報を活用する方法は,既に多くの研究で試みられており,音声対話においては安定性の高いタグ付与が可能であることが示されている.たとえばLitmanらは,チュータリングの対話における感情予測を実現する際に,音声対話コーパスにPositive,Neutral,Negativeの3分類の感情タグを付与したところ,2人の付与者間の感情タグの一致率は81.75\%($\kappa=0.624$)であったと報告している\cite{Litman03}.音声以外の言語外情報として表情に注目すると,漫画における対話シーンの利用可能性が考えられる.漫画は漫画家により創作された対話であるので,人間同士の対話を直接記録した対話データではない.しかし,研究目的に依っては漫画の対話が研究対象として受け入れられる場合がある.漫画家は人間同士の対話,表情,心境などについての観察能力に秀でており,読者に自然に受け入れられるように漫画に描き込むことができるので,漫画内での出来事は空想ではあるがそれ以外の部分,すなわち,登場人物の口調,人物間の交渉などの談話展開は常識的であるし,その間の人物の喜怒哀楽といった心境は読者にとって納得のいくように描かれている.口調や談話展開,心境については,現実の対話を日記として記述した場合と同じような現実味があるといえるだろう\footnote{ただし,漫画の表情は読者に登場人物の心境を伝えるために誇張して描かれている可能性があるので,表情そのものを研究の対象とする場合は注意が必要である.なお,口調も特殊な表現が使われるが,登場人物の個性を表すものの場合,その人物について区別すれば,分析全体への影響は大きくならない.}.ゆえに,漫画は,情緒と言語表現の関係を分析する上で有効な言語資源となりうる可能性がある.漫画の表現や理解に関する研究として,中澤は,幼児から中学生までが漫画における「人物絵」,「表情」,「形喩」,「吹き出し表現」,「音喩」,「コマの感情」についてを読み取る能力を調査したところ,表情理解とコマの感情理解に関して,相対的に複雑な「心配,不安」については正答率は低いが,相対的に明確な「嬉しさ,怒り,悲しさ,悔しさ,楽しさ,寂しさ」については正答率が70\%を超えていたと報告している\cite{中澤05}.また,遠藤らは,漫画の修辞的技法について認知科学的な立場からの分析の枠組みを示すために,「時間」,「叙法」,「態」,「描写の焦点」,「コマの言説」に着目し,ハイパーコミックを構築した\cite{遠藤&小方03}.中澤により漫画から安定して感情を読み取ることの可能性は示された.しかし,資源の構築という面からは,遠藤らのような全般的な資源としての蓄積例はあるものの,感情に特化した言語資源として構築した例はなく,漫画を対象に構築した言語資源にどれだけの信頼性があるのかは明確ではない.そこで,本稿では,漫画を対象とした情緒タグ付きテキスト対話コーパスを構築し,その信頼性を評価することを目的とする.コーパスの信頼性として,本稿で注目する点は次の通りである.\begin{itemize}\item{\bf安定性:}主観的な判断で付与されるタグであるが,作業者に依存する揺らぎが抑えられているか.\begin{description}\item{\bf(1)一致率:}コーパス構築の途中段階で一時的に付与される情緒タグにおける作業者間の一致の割合\item{\bf(2)同意率:}コーパス構築の最終段階で決定される情緒タグについて,作業者以外の者から得られる同意の割合\end{description}\item{\bf有効性:}構築したコーパスは言語分析に使用する価値があるか.\end{itemize}これらを評価することを念頭に,本稿は次のことを行う.1)漫画の表情を参照しながら,1話につき2人の作業者が一時的な情緒タグを付与する.その結果より一致率を評価する.その結果は関連研究と比較し,そして,表情を参照しない場合と比較する.2)一時的な情緒タグを作業者の協議により選別・修正し,正解とする情緒タグを決定する.その結果を別の者が検査して,同意率を評価する.3)台詞と情緒タグの共起に基づき「情緒表現性のある文末表現」をコーパスから抽出するという試行的な実験を行う.漫画を対象としたコーパスであっても,自然で情緒的な文末表現が得られるかどうかによって,有効性を判断する.これらの評価を通じて,漫画に登場する人物の表情を情緒の判定に用いることの可能性と,それを利用した情緒タグ付与方法の信頼性を確認する.
V23N01-05
\begin{table}[b]\caption{2014年度代ゼミセンター模試(第1回)に対する得点と偏差値}\label{tab:intro:2014}\input{05table01.txt}\end{table}「ロボットは東大に入れるか」(以下,「東ロボ」)は国立情報学研究所を中心とする長期プロジェクトである.同プロジェクトは,AI技術の総合的ベンチマークとして大学入試試験問題に挑戦することを通じ,自然言語処理を含む種々の知的情報処理技術の再統合および新たな課題の発見と解決を目指している.プロジェクトの公式目標は2016年度に大学入試センター試験において高得点を挙げ,2021年度に東大2次試験合格レベルに達することである.プロジェクトでは,2016年度のセンター試験「受験」に至るまでの中間評価の一つとして,2013年度,2014年度の2回に渡り代々木ゼミナール主催の全国センター模試(以下,代ゼミセンター模試)を用いた各科目の解答システムの評価を行い,その結果を公表した.\TABREF{tab:intro:2014}に2014年度の各科目の得点と偏差値を示す\footnote{数学・物理に関しては他の科目と異なり付加情報を含む入力に対する結果である.詳細はそれぞれに関する節を参照のこと.国語は,未着手の漢文を除いた現代文・古文の計150点に関する偏差値を示す.}.2013年度の結果については文献\cite{arai}を参照されたい.大学入試試験問題は志願者の知的能力を客観的に測定することを目的として設計されたデータであり,通常ただ1回の試験によって,かつ,受験者間での公平性を担保しながら測定を行うために入念な検討が加えられている.この点で,入試試験問題は言語処理を含む知的情報処理技術の総合的ベンチマークとして恰好の素材であるといえる.特に,その大部分が選択式問題からなるセンター試験形式のテストは,ごく単純な表層的手がかりのみでは正解できないように設計されていると考えられ,現在70\%から90\%の精度に留まっている種々の言語処理技術をより信頼性高く頑健なものへと導くためのガイドラインとして好適である.さらに,模試・入試によるシステムの性能測定結果は人間の受験生の正答率や誤りの傾向と直接比較することが可能である.センター試験は毎年約50万人が受験し,予備校によるセンター試験模試も数千から数万人規模の参加者を集める.このような大規模なサンプルから得られた「普通の人」「典型的な人」の像とシステムとの比較は,人によるアノテーションに対する再現率に基づく通常の性能測定とは異なる達成度の指標となっている.代ゼミセンター模試による2014年度の評価では,英語・国語・世界史Bで受験者平均を上回る得点を獲得するなど,大きな成果があった一方で,その得点に端的に現れているように,残された課題も大きい.本稿では,代ゼミセンター模試およびその過去問を主たる評価データとして各科目の解答システムのエラーを分析し,各科目における今後の課題を明らかにするとともに,「普通の人」と比較した際の各科目・問題タイプにおける達成度に関してひとつの見取り図を与えることを目指す.「東ロボ」プロジェクトのひとつの特徴は,多様な科目・課題に並行的に取り組むことであり,様々な課題に対する結果を通じて,現在のNLP/AI諸技術の達成度を可能な限り通覧することはプロジェクト全体の目的でもある.このため,本稿では問題タイプ毎のエラーに対する分析は主として解決への糸口となる傾向の分析までにとどめ,多数の科目・問題タイプについてそのエラー傾向と今後の課題を示すことを主眼とした.以下では,まず知的情報処理課題としてのセンター模試タスクの概要をまとめたのち,英語,国語,数学,物理,日本史・世界史の各科目について分析結果を述べる.
V06N01-01
日本語対話文における格要素の省略補完について述べる。主語や目的語などの表示が義務的でない日本語の言語処理においては、これら省略される\footnote{そもそも省略ではなく非存在とする解釈もあるが、ここでは格要素が明示されていないものすべてを「省略」と呼び、本論文の研究対象とする。}格要素を補う処理が重要である。格要素の省略は日本語に特有の現象ではなく、例えば韓国語、中国語などにも認められる。これら省略のある言語から英語やドイツ語など必須格を持つ言語への翻訳処理を行なう際には、補完処理(省略内容の推定処理)は重要な処理となる。また情報検索など、自然言語処理に関係する他の問題においても、省略補完処理は必要となる。省略された内容は、言語内、つまり省略位置以前のテキスト中に存在する場合と言語外に存在する場合に大きく分かれる。本論文では前者を文脈省略(endophoricellipsis)、後者を外界省略(exophoricellipsis)と呼ぶ。日本語の文脈省略補完に関しては従来から様々な研究がなされてきている。センタリング理論(centeringtheory)と呼ばれる一連の手法はこの一つである(最近の論文としては、例えば\cite{Strube}、\cite{Byron}、\cite{Walker}などを参照)。この理論では、`center'(談話のある時点において最も顕著な談話要素)という概念を導入することによって照応や省略の解決を行なう。また{}\cite{Dohsaka}は、日本語において発話から語用論的制約を抽出し、制約充足プロセスに基づいて文脈の下で解釈することによる文脈省略の補完手法を提案している。一方、外界省略も含めた補完手法に対しては、ヒューリスティックスなどによる経験的な解決手法を中心にいくつか提案されている。このうち日本語を対象にしたものとしては、村田ら\cite{村田}、江原ら\cite{江原}、Nakaiwaetal.\cite{Nakaiwa}の研究などがある。\cite{村田}は補完に関係する表層的な言語現象をヒューリスティックスで得点を付与し、それらの合計によって最尤の省略内容を補完している。この手法は多くの言語情報を利用した省略補完手法であるが、対話文に対しては十分な考慮がされておらず(\ref{節:比較}節を参照)、また得点の調整には困難を伴うことが予想される。また\cite{江原}は複文を単文に分割した際に生じる省略主語を補完するという問題に対して、経験的に8項目の特徴パラメータを設定して、確率モデルによる手法を提案している。一般の省略に対して有効であるか現時点では不明であり、少なくとも本研究の対象とは問題が異なるために確率モデルや特徴パラメータを再検討する必要がある。{}\cite{Nakaiwa}では用言意味属性と語用論的、意味論的制約を用いて外界省略の解消を行なっている。必要とする知識量が膨大であり、保守コストや他言語への適用を考えた場合に課題が残る。本論文の目的は、(1)対話における省略という現象の分析、問題設定(2)決定木と決定木学習による問題解決手法の提案(3)提案手法の特性の議論、の三点である。後述するように、対話においては外界省略の割合が高いが、このような状況下で我々はすべての省略を同一の枠組みで補完することは現実的でないと考える。また対話においてどのような問題設定が適当かはこれまで十分に議論されていない。そこでまず、対話における現象を分析し本論文における問題設定を{}\ref{節:現象}節において行なう。次に、{}\ref{節:手法}節で提案手法の説明を行なう。本論文では、省略補完知識の決定木(decisiontree)による表現、及び省略情報の正解付きコーパスから言語現象と補完すべき省略の関係を帰納的に機械学習し、これによって日本語対話文の格省略を補完する手法を提案する。本研究は機械学習手法の提案が目的ではないので一般的に知られている機械学習手法を利用し、どのような情報をどのように使用し、いかに機械学習させるべきかを提案する。論文の後半では、提案手法の特性を議論する。{}\ref{節:実験}節においては、提案手法の有効性を議論するために行なった実験について述べる。\ref{節:議論}節では決定木を観察することによって使用属性などに対する議論を行なう。両節での議論によって、提案手法がどのような特徴を持ち、またどのような限界があるのかを明確にする。最後に本論文の結論を{}\ref{節:結論}節で述べる。近年多くのテキストやシソーラスが機械可読化されてきており、多くの場合これらの言語資源は入手が可能となっている。本研究では、他の話題への適用性を考慮して、形態素分割されて品詞と省略情報が付与されたコーパス、及びシソーラスのみを用いて行なう手法を試みる。提案手法は、特定のコーパス、品詞体系、シソーラスをいずれも仮定しないため、大量の知識を作成、保守する必要性がなく、手作業による補完規則やパラメータの調整を行なう必要もない。また本手法では、構文解析も仮定しないため、構文解析の手法や精度とは独立である。本論文は、日本語対話文を英語やドイツ語に翻訳する際に必要となる処理を想定しており、省略内容の人称と数を補完するという問題設定を行なっている。また、省略の検出処理は他の処理部によって格要素の省略が正しく検出されると仮定する。なお、本論文は以前報告した文献\cite{NLPRS97}及び文献{}\cite{Coling-ACL98}の内容を基本にして議論、検討を行ない、新たにまとめたものである。
V24N01-04
インターネットを通じたサービス利用はスマートフォンの普及を背景に近年ますます増加している\cite{ictbook2014}.スマートフォンでの各種サービスの利用はこれまでのPCを経由して利用するインターネットサービスに比べて,画面の大きさや操作性という面で大きく制限されており,サービス提供者はスマートフォンに合わせたユーザ体験を新たに構築する必要に迫られている.このような背景の中で推薦システムに注目が集まっている.推薦システムはユーザの興味関心に合わせて商品などを提示することを目的としたシステムであり,Amazon\footnote{http://www.amazon.com/}での商品推薦や,Facebook\footnote{https://www.facebook.com/}での友人推薦をはじめとして幅広く利用されている.画面の大きさや操作性が制限されているスマートフォンにおいて,推薦システムを用いてユーザに合わせて最適な選択肢を提示することでユーザ体験を大きく改善することが期待されており,今後様々な場面での利用が進んでいくと考えられる.このような背景から推薦システムのユーザ体験に関する研究が近年注目を集めており,その中で重要だと言われている指標の1つに多様性(Diversity)がある.推薦システムが悪いとそのサービスが悪いとみなされると指摘されており\cite{cosley2003},推薦システムのユーザ体験を考慮することはそのサービス設計のためにも重要である.多様性がユーザにもたらす影響についてはZieglerらの研究がよく知られており\cite{ziegler2005},多様性を含んだリストをユーザに提示するとユーザは自分に最適化されていないものが含まれていることは認識するが,多様性が含まれたものを好むという結果が報告されている.また推薦システムについてはFilterBubbleという問題が指摘されているが,その問題への対応のためにも推薦リストの多様性が重要であると言われている\cite{Pariser2011}.ジャーナリストであるイーライ・パリサーは検索エンジンやSNS(SocialNetworkService)が推薦システムの技術を用いてパーソナライズ化されていくことに対して,情報のタコツボ化が起こることを懸念し,人々が正しい意思決定をすることを阻害していると警鐘を鳴らした.その動きに対応して推薦システムに関する国際会議であるRecsys\footnote{https://recsys.acm.org/}では,2011年にFilterBubbleに関するワークショップを開催し,FilterBubble問題に関する見解を示した\cite{filterbubble}.その中でFilterBubbleとパーソナライズはトレードオフであること,すべての情報を人が網羅することは不可能なのでフィルタリング技術は必要であることを指摘した上で,推薦システムを作る過程において,そのシステムの説明性,透明性を担保すること,推薦される個々のアイテムだけでなくリスト全体を評価し,多様性も考慮して設計することが必要であるとした.このような背景から近年推薦システムを構築する上で多様性を考慮することは一般的になったが,推薦結果の多様性がユーザやサービスにどのような影響をあたえるかについては分かっていない点が多い.多様性に関する研究の多くは多様性がユーザ体験を向上させるという前提に立っているが,その根拠はユーザへのアンケートによるものであり,サービスにどのような形で利益をもたらすかについては明らかになっていない.これは推薦システム研究の多くが過去のデータを用いたオフラインテストで行われており,実際にサービス上でシステムを提供して比較した例が少ないことが要因である.本研究の目的は推薦システムを用いて提供されているサービスに対して多様性を導入し,推薦結果の多様性がユーザに与える影響について明らかにすることである.本研究ではウェブページ推薦システムを提供しているグノシー\footnote{http://gunosy.com}というサービスにおいて,推薦システムに多様性を導入しそのユーザ行動への影響について報告する.まず多様性がない既存システムにおけるユーザの行動を分析し,どのような特性をもったシステムであるかを示した.その上で多様性を導入したユーザ減衰モデルを構築した上で実際にサービス上でユーザに対して提供し,既存システムとの比較を行った.その結果多様性がサービスの継続率の改善や利用日数の増加という形でユーザの満足度を高めていることを示した.これはユーザは多様性を含むリストの方を好むという従来研究で指摘されていた点がサービス上においても有用に働くことを示したといえる.また利用日数が浅い段階ではユーザがクリックするウェブページの数は既存システムと同程度であるが,利用日数が増えるにしたがって多様性をもったユーザ減衰モデルのほうがクリックするウェブページの数が増えていくことを明らかにした.そして多様性のない既存システムでは,利用日数が増えるに従って推薦リスト下部のクリック率が下がっていくのに対して,多様性を取り入れたユーザ減衰モデルでは,推薦リスト下部のクリック率が向上していくことを示した.これは従来研究は確認できなかった多様性の中長期における影響を示したものである.本研究では実際に事業として開発・運用されているウェブサービスを利用しているため,ビジネス上の制約により用いている手法をすべて公開することはできない.既存システムのユーザ行動の分析によって推薦システムとして有効に作用していることを示すことによってその代わりとしたい.本研究の目的は多様性がユーザ体験にどのような影響を与えるかについて論じることであり,手法が非公開であることが本研究の結果に与える影響は軽微であると考える.以下に本論文の構成を示す.\ref{sec:related}章に関連研究と本研究の位置付けを示す.\ref{sec:gunosy}章において本研究で利用するグノシーというサービスと,そこで用いられている推薦システムについて紹介し,そのシステムのユーザ行動とその課題について分析する.\ref{sec:purpose}章で前章で述べた課題を元に推薦システムに多様性を導入する方法について述べる.\ref{sec:experience}章で既存システムと比較手法の比較実験を行い,推薦システムの多様性がサービスにもたらす影響について考察し,\ref{sec:conclusion}章で本研究のまとめを行う.
V23N02-01
\textbf{系列アラインメント}とは,2つの系列が与えられたときに,その構成要素間の対応関係を求めることをいう.系列アラインメントは特にバイオインフォマティクスにおいてDNAやRNAの解析のために広く用いられているが,自然言語処理においてもさまざまな課題が系列アラインメントに帰着することで解かれている.代表的な課題として\textbf{対訳文アラインメント}\cite{moore02:_fast,braune10:_improv,quan-kit-song:2013:ACL2013}があげられる.対訳文アラインメントは対訳関係にある文書対が与えられたときに,文書対の中から対訳関係にある文のペアをすべて見つけるタスクである.統計的機械翻訳においては,対訳コーパスにおいてどの文がどの文と対訳関係にあるかという文対文での対応関係が与えられているという前提のもとで学習処理が実行されるが,実際の対訳コーパスでは文書対文書での対応付けは得られていても文対文の対応付けは不明なものも多い.そのため,対訳文書間での正しい対訳文アラインメントを求めることは精度のよいモデルを推定するための重要な前処理として位置づけられる.統計的機械翻訳以外の,例えば言語横断的な情報検索~\cite{nie1999cross}などの課題においても対訳文書間の正しい文アラインメントを求めることは重要な前処理として位置づけられる.また,対訳文アラインメントのほかにも,対訳文書に限定されない文書間の対応付けタスクも系列アラインメントとして解かれている~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}.自然言語処理のタスクにおける系列アラインメント問題を解く手法は,対応付けの\textbf{単調性}を仮定する方法とそうでない方法とに大別される.単調性を仮定する系列アラインメント法は特に対訳文アラインメントにおいて広く用いられる方法であり,対訳関係にある二つの文章における対応する文の出現順序が大きく違わないことを前提として対応付けを行う.すなわち,対訳関係にある文書のペア$F$,$E$に対し,$F$の$i$番目の文$f_i$に$E$の$j$番目の文$e_j$が対応するとしたら,$F$の$i+1$番目の文に対応する$E$の文は,(存在するならば)$j+1$番目以降であるという前提のもとで対応付けを行っていた.この前提は,例えば小説のように文の順序が大きく変動すると内容が損なわれてしまうような文書に対しては妥当なものである.一方で単調性を仮定しない方法は~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}などで用いられており,文間の対応付けの順序に特に制約を課さずに系列アラインメントを求める.図~\ref{fig:prevwork}は,それぞれ単調性を仮定した系列アラインメント,仮定しない系列アラインメントの例を表している.白丸が系列中のある要素を表現しており,要素の列として系列が表現されている.図では2つの系列の要素間で対応付けがとられていることを線で示している.単調性を仮定した対応付け手法では,対応関係を表す線は交差しない.一方で仮定しない手法では交差することが分かる.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f1.eps}\end{center}\caption{既存の系列アラインメント法によるアラインメント例}\label{fig:prevwork}\end{figure}系列アラインメントにおいて単調性を仮定することは,可能なアラインメントの種類数を大きく減少させる一方で,動的計画法による効率的な対応付けを可能とする.先述したように,対訳文アラインメントを行う際に単調性を仮定することは多くの対訳文書に対しては妥当な仮定である.しかし,単調性を仮定することが妥当でない対訳文書も存在する.例えば文献~\cite{quan-kit-song:2013:ACL2013}では,単調性が成り立たない文書の例として法令文書を挙げている.そのほかにも例えば百科事典やWikipediaの記事のように一つの文書が独立な複数の文のまとまりからなる場合には,文のまとまりの出現順序が大きく変動しても内容が損なわれないことがある.このような文書においては,文の順序が大きく変動しないという前提は必ずしも正しいものではないため,既存の単調性を仮定した系列アラインメント法では正しい対訳文アラインメントが行えない可能性が高い.一方で,単調性を仮定しない既存のアラインメント法では非単調な対応付けを実現できるものの,対応付けの\textbf{連続性}を考慮することが難しいという問題がある.対応付けの連続性とは,$f_i$が$e_j$と対応付けられているならば,$f_{i+1}$は$e_j$の近傍の要素と対応付けられる可能性が高いとする性質のことである\footnote{\ref{sec:setpart}節以降の提案手法の説明では,説明を簡単にするために,対応付けに順方向の連続性がある場合,すなわち$f_i$と$e_j$が対応付けられているならば$f_{i+1}$は$e_{j}$より後ろにある近傍の要素と対応付けられやすい場合のみを扱っている.しかし,実際には提案法は順方向に連続性がある場合と同様に逆方向の連続性がある場合の対応付けを行うこともできる.逆方向の連続性とは,$f_i$と$e_j$が対応付けられているならば,$f_{i+1}$は$e_{j}$以前の近傍の要素と対応付けられる可能性が高いとする性質のことである.}.もし対応付けにおいて連続性を考慮しないとすると,系列$F$中のある要素$f_i$とそれに隣接する要素$f_{i+1}$とが,それぞれ$E$中で離れた要素と対応付けられてもよいとすることに相当する.対応付けの単調性を仮定できるような対訳文書の対訳文アラインメントについては,明らかに対応付けの連続性を考慮する必要がある.さらに,単調性が仮定できないような文書のペアに対する対訳文アラインメントにおいても,ある文とその近傍の文が常に無関係であるとは考えにくい.以上より,文アラインメントにおいては連続性を考慮することが不可欠である.また,対訳文アラインメント以外の系列アラインメントを用いるタスクにおいても,対応付けの対象となる系列は時系列に並んだ文書等,何らかの前後のつながりを仮定できるものが多いことから,連続性を考慮する必要がある.単調性を仮定できない文アラインメントの例を示す.図\ref{fig:hourei}は,文献~\cite{quan-kit-song:2013:ACL2013}の検証で用いられているBilingualLawsInformationSystem(BLIS)\footnote{http://www.legistlation.gov.hk}コーパスに含まれる対訳文書における文アラインメントの例である.BLISは香港の法令文書の電子データベースであり,対訳関係にある英語・中国語の文書を保持している.図に示す対訳文は用語の定義を行っている箇所である.両言語の文を比べると,定義する用語の順番が英語と中国語とで異なっており,結果として,局所的には連続なアラインメントが非単調に出現する対訳文書となっている.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f2.eps}\end{center}\caption{法令文書における非単調な対訳文アラインメントの例}\label{fig:hourei}\end{figure}本論文では系列の連続性を考慮しつつ,かつ非単調な系列アラインメントを求めるための手法を提案する.このような系列アラインメント法は,単調性を仮定できない文書対の対訳文アラインメントを求める際に特に有効であると考える.仮に文書$F$の文が$E$の任意の文と対応してもよいとすれば,ある文のペアの良さを評価するスコアを適切に設定することによって,問題を二部グラフにおける最大重みマッチング問題\cite{korte08:_combin_optim}として定式化して解くことができる.しかし,$F$のある文が$E$の任意の文と対応してもよいという前提では,近傍の文間のつながりを無視して対応付けを行うことになる.実際の文書ではすべての文がその近傍の文と無関係であるとは考えにくいため,正しい対応付けが行えない可能性が高い.そこで,提案手法では対訳文アラインメントを組合せ最適化の問題の一つである\textbf{集合分割問題}として定式化して解く.集合分割問題は,ある集合$S$とその部分集合族$S_1,\ldots,S_N$が与えられたときに,スコアの和が最大となるような$S$の分割$\mathcal{D}\subseteq\{S_1,\ldots,S_N\}$を見つける問題である.ここで$\mathcal{D}$が$S$の分割であるとは,$S=\cup_{S_i\in\mathcal{D}}S_i$かつ$i\neqj$ならば任意の$S_i,S_j\in\mathcal{D}$について$S_i\capS_j=\emptyset$となることをいう.2つの系列$F$,$E$のある部分列に対する単調な系列アラインメントの集合を$S_1,\ldots,S_N$として表現することで,部分列に対するアラインメントの集合$S_1,\ldots,S_N$から系列全体の分割となるような部分集合を選択する問題として$F$,$E$全体に対する系列アラインメントを求めることができる.また,本論文では集合分割問題としての系列アラインメントの定式化とともに,その高速な求解法も同時に示す.提案する集合分割問題に基づく定式化を用いると,系列$F$,$E$に含まれる要素の数が増加するに伴い,急激に厳密解の求解に時間がかかるようになるという課題がある.これは,それぞれの系列に含まれる要素の総数を$|F|$,$|E|$とすると,集合分割問題に出現する変数の数\footnote{集合分割問題における変数の数は,可能な$F$,$E$の部分系列のペアの総数と等しい.詳細は\ref{sec:setpart}章を参照.}が$O(|F|^{2}|E|^{2})$となるためである.集合分割問題はNP困難であり,変数の数が増加すると各変数に対応する重みの計算および整数線形計画法ソルバを用いた求解に時間がかかるようになる.本論文ではこの課題に対処するために,多くの変数が問題中に出現する大規模な線形計画問題を解く際に用いられる,\textbf{列生成法}\cite{lubbecke05:_selec_topic_colum_gener}を用いることで高速な系列アラインメントを実現する近似解法も同時に提案する.列生成法は大規模な問題の解を,出現する変数の個数を制限した小さな問題を繰り返し解くことによって求める手法である.列生成法を用いることによって,そのままでは変数の数が膨大となり解くことができなかった問題を解くことができる.なお,列生成法を用いることで線形計画問題の最適解を得られることは保証されているが,整数線形計画問題については解を得られることは必ずしも保証されていない.そこで本論文では列生成法で得られた近似解を実験によって最適解と比較し,よい近似解が得られていることを確認する.なお,以下では説明を簡単にするために特に対訳文書の対訳文アラインメントに話題を限定して説明を進める.ただし,系列の要素間のスコアさえ定まれば提案法を用いて任意の系列のペアに対する系列アラインメントを行うことが可能である.
V21N02-01
\label{sec:Introduction}近年,コーパスアノテーションはますます多様化し,多層アノテーションを統合的に利用する仕組みが欠かせない.たとえば,話し言葉の言語学的・工学的研究で広く用いられている『日本語話し言葉コーパス』\cite{前川_2004_日本語}のコアデータでは,音韻・単語・韻律単位・文節・節を含む10種類あまりの単位に関してさまざまなアノテーションがなされている.また,最近では視線・頷きやジェスチャーなどの非言語情報を含むマルチモーダルコーパスの開発が進んでおり\cite<たとえば>{Carletta_2007_UTK,Chen_2006_VMM,Den_2007_SAT,角_2011_マルチ,Waibel_2009_CIT},これらのコーパスでは複数のモダリティに関して多種のアノテーションがなされている.コーパスアノテーションに基づく研究では,このような多層的なアノテーションを統合し,「文末形式を持つ節の先頭の文節の末尾の語が係助詞「は」であるものを抽出し,その語の継続長を算出する」といった,複数の単位を組み合わせた複雑な検索を可能にする必要がある.これまで,多層アノテーションを表現するさまざまなスキーマが提案され,それらに基づくアノテーションツールやコーパス検索ツールが開発されている\cite{Bird_2000_FFF,Bird_2001_FFF,Calhoun_2010_NSC,Carletta_2005_NXT,Kaplan_2012_STF,Kaplan_2010_APM,Matsumoto_2006_ACM,Muller_2001_MTF,Muller_2006_MAO,Noguchi_2008_MPA}.しかし,これらのツールは開発主体内部での利用にとどまっている場合がほとんどであり,外部にはあまり普及していない.これらの統合開発環境では提案スキーマに基づいて種々のツール群を提供することを目指しているが,実際に提供されているのは一部のツールのみであり,個別のアノテーションツールのほうが広く使われている場合が多い.とくに話し言葉においては,Praat\cite{Boersma_2013_PDP}やELAN\cite{Brugman_2004_AMM}といった音声や映像を扱う高機能なアノテーションツールが広く普及しており,これらのツールと同等の機能を持つツールを自前で開発するのはコストが高くつくうえ,コーパス開発者の側でも使い慣れたツールにとどまって新たなツールに乗り換えたくないという者が多い.本研究の目的は,話し言葉で広く使われている既存のアノテーションツールを有効に利用しつつ,種々のアノテーションを統合利用できる環境を構築することである(図\ref{fig:overview}).具体的には以下のことを行なう.\begin{enumerate}\itemマルチチャネル・マルチモーダルの話し言葉コーパスを表現できる汎用的なデータベーススキーマを設計する.\item以下の入出力を持つデータベース構築ツールを開発する.\begin{description}\item[入力]既存のアノテーションツールで作成された,種々の書式を持つアノテーション\item[出力]設定ファイルを基にして,汎用的なデータベーススキーマから具現化されたデータベース\end{description}\itemサーバを必要としないスタンドアロンのデータベースソフトとして広く用いられているSQLiteによって実装し,既存のコーパス検索ツールと接続可能にする.\end{enumerate}本研究は,既存のアノテーションツールやコーパス検索ツールと結合したコーパス利用環境を構築することに主眼があり,アノテーションツールやコーパス検索ツールの開発そのものを目的とするものではない.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f1.eps}\end{center}\caption{本研究の枠組み}\label{fig:overview}\end{figure}以下,\ref{sec:DB}節では話し言葉を表現できる汎用的なデータベーススキーマの設計について述べ,\ref{sec:Tools}節ではデータベース構築ツールの開発について述べる.\ref{sec:CaseStudies}節では提案するコーパス利用環境を用いて実際に運用している2つの事例について述べる.\ref{sec:Discussion}節では関連研究やアノテーション管理・実用性に関する議論を行ない,\ref{sec:Conclusion}節ではまとめと今後の課題について述べる.
V31N04-12
BERT\cite{devlin-etal-2019-bert}に代表される\emph{事前学習済みモデル(Pre-trainedModels)}の躍進は,自然言語処理領域に大規模なコーパスでの事前学習と下流タスクでのファインチューニングからなる新しい枠組みをもたらしている\cite{Zhou2023-en,Zhao2023-hy}.BERTの後続として,異なるアーキテクチャ(GPT-2\cite{Radford2019LanguageMA}やT5\cite{JMLR:v21:20-074})や事前学習手法の改善({RoBERTa}\cite{Liu2019-vu}や{DeBERTa}\cite{he2021deberta})などが次々と提案された.{GPT-3}\cite{NEURIPS2020_1457c0d6}など,より大規模に事前学習された言語モデルは大規模言語モデル(LargeLanguageModels;LLMs)とも呼ばれ,パラメータ更新なしでも多種多様なタスクに対応できると報告されている.ChatGPT\footnote{\url{https://openai.com/blog/chatgpt}}の登場を一つの契機に,社会的な認知や実応用の拡大も急速に進んでいる.事前学習済みモデルの重要性にもかかわらず,産業応用で重要となる個別ドメインへの特化に関する議論は未成熟である.既存の文献\cite{araci2019finbert,kim-etal-2021-changes,Wu2023-mb,SUZUKI2023103194}では,ドメイン特化事前学習済みモデルの構築方法と,時に大規模な一般モデルを凌駕する固有タスクでの性能向上が報告されている.しかしこれらの研究は,実際の産業応用の事例を十分に提示しておらず,ドメイン特化事前学習済みモデルに対する研究者・実務家の見積もりや期待を曖昧にしてしまう.本稿ではドメイン特化事前学習済みモデルの産業応用として,日本語金融ニュース記事を要約する編集支援システムの開発事例を報告する.ここでは日本語金融ニュース記事をドメインとして定義した.日本語金融ニュース記事の要約の自動生成は,ニュースメディアにおける編集者の労働負荷の軽減に寄与する.ニュースメディアには独自の表記規定が数多く存在するため,汎用的なモデルによる出力では不十分な場合がある.ドメイン特化事前学習済みモデルを構築し利用することで,より用途に適したシステムを実現できる可能性があると考えた.この編集支援システムは日本語の文章(記事の本文)を入力とし,20文字程度の\emph{見出し}と,3文からなる\textbf{3行まとめ}の2種類の要約を出力する.要約を生成するのは日本語金融ニュース記事で事前学習されたT5で,2種類の要約それぞれに対してファインチューニングされている.事前学習とファインチューニングには,日本語金融ニュース記事が掲載されている「日経電子版」\footnote{\url{https://www.nikkei.com/}}のデータセットを用いた.表\ref{tab:example}に示す通り,このデータセットの一部の記事には本文・見出し・3行まとめが含まれている\footnote{\ref{tab:example}に示す例は\url{https://www.nikkei.com/article/DGXMZO55567600T10C20A2TL1000/}から引用した.}.編集支援システムでは,入力に忠実ではない出力が生成される\emph{幻覚}\cite{10.1145/3571730}への対応として,編集者による選択や後処理を想定している\cite{Ishihara2021-tw}.複数候補の生成も可能で,それぞれの生成結果のクリック率を予測する機能を備えている.クリック率予測のためには,日経電子版のデータセットで事前学習・ファインチューニングされたBERTを構築した\cite{ishihara2022ctr}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{21table01.tex}%\caption{日本語金融ニュース記事の例.本文から,見出しと3行まとめの2種類の要約を生成する.}\label{tab:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{21table02.tex}%\caption{本研究におけるシステム要件,実装と有用性を評価するための検証項目,検証方法の対応表.}\label{tab:implementation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿の主要な貢献の一つは,日本語金融ニュース記事の要約に焦点を当て,ドメイン特化事前学習済みモデルが優れた価値を発揮する具体的な事例を提示することである.最初に,実際の編集現場の要請に基づくシステム要件を整理した上で,既存技術を組み合わせて開発した編集支援システムの全体像と4つの検証項目を示す(\ref{sec:implementation}節).続く4~6節では,表\ref{tab:implementation}に示す通り,システム要件に紐づく検証項目を調査する.第1に,日本語金融ニュース記事で事前学習・ファインチューニングされたT5が,事前学習コーパスのサイズが小さいにもかかわらず,2種類の要約で一般的な日本語T5より優れた性能を発揮すると報告する(\ref{sec:experiments}節).第2に,3行まとめ生成にファインチューニングしたT5の出力を定性・定量的に分析し,発生する幻覚の特徴を明らかにする(\ref{sec:discussion}節).第3に,開発した編集支援システム全体の有用性の一端を示すため,クリック率予測の定量評価と,後編集を含む機能への定性評価について述べる(\ref{sec:overall}節).なおクリック率予測に向けたBERTの開発については\cite{石原2022,ishihara2022ctr}の内容を含んでいる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V06N02-07
\vspace{-2mm}テキスト音声合成システムの言語処理部における重要な課題の一つに,ポーズ挿入処理が挙げられる.ポーズ挿入処理は,音声化され,出力されたテキストの内容を人間が感覚的,意味的に捉えやすくするために,テキスト中の適当な位置に適当な長さのポーズを与える,テキスト音声合成に必須の技術であり,入力テキストの書き手が意識して挿入した句読点以外にも構文構造とポーズ挿入位置の関係が研究されてきた.従来の研究から,ポーズは構文的区切りと一致する\cite{杉藤1988},また特定の句構造\mbox{において}ポーズが挿入され易い\cite{海木1996}という知見が得られている.この他にも,文節間の係り受け距離と文節の長さが,ポーズ挿入の有効な手がかりになるという知見\cite{箱田1980},さらに,係り受け関係,句読点,文中における位置情報を加えることで精度が高まると期待できるとの報告\cite{箱田1989}もある.しかし,これらは係り受け距離や係り受け関係\mbox{などのテキ}スト情報が既に得られているとの前提に立った報告であり,実際にそれらのテキスト情報を求めるためには構文解析処理が別途必要となる.一般に構文解析処理は,大量の言語知識データを要する,テキストから精度の高い統語構造の自動抽出が困難,処理が重くなる,などといった問題から,実働するシステムにおいては,簡易なテキスト解析で得られる単語の品詞やモーラ数など,形態素解析レベルで得られる情報や,局所的な数文節に着目した簡易な係り受け解析が広く用いられている\cite[など]{宮崎1986,浅野1995,鈴木1995,澗潟1996,塚田1996,Tsukada1996,海木1996}.係り受けの範囲については,隣接する数文節の範囲内に限定できるとの報告\cite{箱田1989,鈴木1995},実際の文章において,隣り合う2文節の係り受けが\mbox{連続する場合が多いという}\mbox{報告\cite{丸山1992,張1997}があり},隣接2文節,もしくは局所的\mbox{な数文節間の係り受}け解析結果を用いた方法でかなり高精度のポーズ挿入が実現できることが明らかになっている.しかしながら,人間が聞いて理解しやすい構文的まとまりは,複数の文節によって様々なパタンで構成されており,上記方法でも限界はある.例えば,小説や随筆など,一文がある程度長く,文の構造が複雑なものになると,係り受けが3文節以上に跨る文の存在は少なくない.予め係り受けの範囲を3文節に限定してしまうことで,構文的まとまりの一節中にポーズが挿入されるなど不自然な読み上げを頻出する場合がある.一方,別のアプローチの一つに,コーパスを利用した統計的なポーズ挿入位置の予測方法が報告されている.文献\cite{Iwata1990}では,隣接2単語の接続のしやすさを\mbox{コーパスを用い}てスコア化し,それを用いたポーズ挿入方法を提案している.また,文献\cite{Doi1994}では,副助詞や接続助詞などの文法的役割に着目し,コーパスを用いてそれらの語彙の後に来るポーズの長さをレベル化し,それを用いたポーズ挿入方法を提案している.さらに文献\cite{藤尾1997}では係り受け情報付きコーパスの学習とポーズ情報付きコーパスの再学習によりフレーズ境界前後の形態情報とポーズ長の関係を統計的に得る方法を提案している.しかし,これらの方法は予め大量の学習用データを要し,さらにデータの分野依存が大きいと考えられる.本稿では,大量の学習用データに頼らず,長距離の係り受け解析をする,軽量・高速な構文解析処理を用いたポーズ挿入手法について報告する.本手法では,解析の範囲を文の長さや文節数で限定せず,一文を単位とした係り受け解析の情報を利用する.また,本手法をPC上で実動するレベルのテキスト音声合成システムに実装して,その効果を確認した.
V17N04-06
近年の音声合成技術の進歩により合成音声によるカーナビのガイダンスやパソコンによるテキストの読み上げなど様々な場面で合成音声が聞かれるようになった.また,Webを読み上げるための取り組みが進められており,Webコンテンツを音声に変換するための議論がなされている\cite{SOUMU,Guidance,Dialogue}.音声合成の分野においては従来からTTS(Text-to-Speech)\cite{MITalk,TTS}により電子化されたテキストを音声に変換する試みがなされてきた.メール,電子図書,Webページに至るまで様々なテキストを合成音声によって流暢に朗読する仕組みが検討されている.そして近年では,テキストに制御タグを挿入して音声合成の韻律パラメータを制御するアプローチ(VoiceXML;RamanandGries1997;SSML)がなされている.\nocite{VoiceXML,Raman,SSML}韻律パラメータの制御により,従来の朗読調をベースとした合成音声をより表情豊かな音声に変えられることが分かっている.合成音声を音声対話など様々な分野で利用するためには音声に含まれる表現力を高めることが重要であり,そのために韻律パラメータの制御を行うための仕組みづくりが重要になってきている.我々は,韻律パラメータの制御を行うための記述言語MSCL(Multi-layeredSpeech/SoundSynthesisControlLanguage)\cite{MSCL}を開発し,記述による柔軟な韻律制御を実現した.読み上げ用の電子テキストに直接韻律制御コマンドを記述することで韻律制御が可能となった.本研究では,MSCLをより効果的に利用するための韻律制御コマンドの作成方法について述べ,専門的な知識がなくとも新たな韻律制御規則を作成可能にするアプローチについて1つの方向性を提案する.\subsection{記述言語による韻律制御}PML\cite{Ramming}から発展したVoiceXML\citeauthor{VoiceXML}は記述というスタイルにより,音声対話システムの制御を行うフレームワークであり,音声合成から音声認識に至るまでの制御を一元的に行うことで,電話の音声ガイダンスや自動応答を可能にしている.VoiceXMLのように制御タグにより音声合成の制御を行うことの利点は,テキスト処理の範疇で編集作業や情報の伝送が可能になることである.また,Webコンテンツなどの豊富な電子テキスト情報に制御コマンドを付与し読み上げを行うことが容易になる.インターネット上の豊富なテキスト情報を取り込み,テキスト処理と制御タグの挿入により柔軟な音声ガイダンスシステムが可能になる.しかし,従来の音声合成の記述言語では音声合成で用いる韻律パラメータの制御(以下,韻律制御)をするための制御タグを新たに定義することはできず,利用できるタグの数も限られている.例えば,SSMLなどでは\begin{verbatim}<voicegender="female">天気は晴れです</voice><prosodyrate="-10\end{verbatim}のように,声質の変更(gender)や話速(rate)などのパラメータの変更を行うことは可能であるが,複数のパラメータを同時に変更する場合は,タグの記述が膨大になり可読性が損なわれる可能性もある.韻律パラメータを直接指定する制御タグが主体であるためにタグの名称から韻律制御によって期待しうる効果(印象)を予測することができない.このように,従来法ではきめ細かな韻律制御や直感的な制御ができないといった問題があった.MSCLはきめ細かな韻律制御を行うコマンド群の層と直感的な韻律制御が可能になるコマンド群の層に分離し,韻律制御の自由度や使いやすさを高めている.次節においてMSCLについて述べる.\subsection{MSCLによるアプローチ}利用者が簡単に制作を行えるインタフェースの原則として以下の3点\cite{Stgif}にまとめられている.\begin{itemize}\item[ア.]初心者保護の原則:レポートとは何か\item[イ.]熟練者優遇の原則:レポートの必要十分条件\item[ウ.]上級利用移行支援の原則:利用者に対して特化手段を用意し利用を促進する枠組み\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{17-4ia7f1.eps}\end{center}\caption{MSCLの階層構造}\end{figure}MSCLは,音声合成で必要となるピッチやパワーなどの韻律パラメータ群であるP層と,その韻律パラメータを制御するためのコマンド群であるI層と韻律パラメータに1つの解釈を与えるコマンド群であるS層の3つの階層(図1)がある.I層のコマンドは韻律パラメータを直接指定可能であるため,熟練者はより詳細な音声合成の韻律制御が可能になる.S層のコマンドは効果を直感的に理解した上での韻律制御が可能になり,初学者でも利用可能になる.MSCLの利点をまとめると以下の通りである.\begin{itemize}\item記述というスタイルで合成音声に様々な表現力を与える\item階層構造の記述体系を持つことで,初学者から専門的知識を持つ利用者までの様々なレベルへの対応が可能になる\item新たなコマンドを定義し,利用者独自の韻律制御方法を生み出せる\end{itemize}図1中の韻律制御のための記述がそのまま制御コマンド名になっている.特にS層コマンドであれば直感的な利用が可能となり,I層のコマンドの組み合わせにより利用者が定義した新たな制御コマンドを作成することが可能になる.例えば,以下のように記述できる.\begin{verbatim}[duration](0.8){[〜\](20Hz){はい}}@define:相槌=duration,〜\(0.8,20Hz){}@相槌{はい}\end{verbatim}1行目は,I層コマンド“〜\”により最終母音「い」のピッチを20~Hz降下させており,さらに,``duration''より継続時間長を0.8倍して話速を上げている.この韻律制御をまとめて,「相槌」というS層のコマンド名に置き換えているのが2行目である.そして,3行目からは「相槌」というコマンド名を使うことで韻律制御可能となる.これらの利点により,MSCLはロボットを使った対話システム\cite{Yamato},メール読み上げシステム\cite{Nakayama},など多種多様な音声表現が必要な場面で利用されている.\subsection{MSCLにおける課題}これらの利点に対しMSCLの課題は,新たな韻律制御コマンドの作成が容易ではないことにある.韻律制御という営みは,Sesign\cite{Sesign}が示すように韻律パラメータの操作により合成音声の音程を上げたり,継続時間長を伸縮させたりすることである.例えば“疑問”であれば,最終母音のイントネーションを上昇パターンにさせることは良く知られている.また,文中のある単語について“目立たせる”合成音声を生成するためには,対象となる単語のピッチパターンのダイナミックレンジを広くすることが1つの方法\cite{Iwata}とされる.このようにSesignでは合成音声から目的とする印象を想起できるようになるまで韻律パラメータの操作を繰り返した後に韻律制御方法が決定されるため,利用者が効率的に編集作業を行うには韻律制御による効果を習熟する必要がある.MSCLにおいても韻律制御を行うには,韻律パラメータをどのように制御すれば良いか予め知る必要がある.韻律制御と印象の変化に関する知識を容易に獲得できれば編集の時間を短縮することが可能になる.特に制御コマンド名として効果が表現されていれば便利である.これまで韻律制御と印象の関連性については,感情音声と呼ばれる喜怒哀楽をイメージしながらサンプルテキストを読み上げた音声と平常時に読み上げた音声との韻律パラメータの違いを比較するものが多い\cite{Hirose,Arimoto}.しかし,韻律制御を行った合成音声に対しどのような印象が得られるかを検討した報告はあまりない.そこで,合成音声の韻律制御によって音声の印象がどのように変化するかを調べ,MSCLのS層のコマンドとして利用者に提供する.本研究では,韻律制御方法の提案と韻律制御と印象との関係を明らかにするとともに,効果的に韻律制御を行うための方法について述べる.\subsection{本研究のアプローチ}本研究は,韻律制御と印象との関係について明らかにすることで,音声学的な知識をあまり有さない利用者でもMSCLのコマンド作成が可能になるための1つの方向性を与えるものである.音声合成のための韻律制御という観点で言えば,大きく2つのアプローチが考えられる.\begin{itemize}\item[ア.]コーパスベースのアプローチ:コーパス毎に韻律パターンを保持し,適切なパターンを選択する\cite{Corpus}\item[イ.]韻律生成規則ベースのアプローチ:朗読調の韻律生成規則をベースに,新たな規則を加えることで物理パラメータを制御する\end{itemize}ア.はプリミティブな韻律制御規則を組み合わせて新たな制御コマンドを作るというMSCLのアプローチに適用することが困難である.イ.は物理パラメータの制御規則を制御コマンドとして置き換えることで,値の変更や組み合わせが可能になる.従って,ここではイ.のアプローチで進めていくことにする.まず,従来の音声合成の韻律生成規則によって生成された韻律パラメータに対し,一定の変化を与える制御規則を規定することで新たな韻律制御規則を作成する.次に韻律制御と印象の関係について聴取実験を行う.韻律パラメータを変化させることによって,聴取者が合成音声に対しどのような印象を持つかを連想法により分析する.また,韻律制御と言葉の意味の影響により印象がどのように変化するかを調べる.
V29N02-05
\label{sec:intro}日本語文は,通常,漢字や平仮名,片仮名,算用数字などの文字種により構成されるが,幼児向け書籍や外国人日本語初学者による作文などにおいて,平仮名のみで書かれる文も多々存在する.本論文では,平仮名のみで書かれた日本語文(以下,平仮名文)に対する形態素解析について述べる.これまでに,日本語形態素解析器として,JUMAN\cite{juman},ChaSen\cite{chasen},MeCab\footnote{\url{https://taku910.github.io/mecab/}}\cite{kudo-etal-2004-applying},KyTea\footnote{\url{http://www.phontron.com/kytea/}}\cite{neubig-etal-2011-pointwise}などが開発されており,新聞記事文など,様々な文字種で書かれた漢字仮名まじり文に対して高い解析精度が達成されている.しかし,平仮名文は,漢字仮名まじり文と比べて,考えられる単語候補が増大するなど,はるかに曖昧性が多いため\cite{nagao-nlp},例え,これら従来の解析器を平仮名文だけからなるコーパスで学習し直したとしても,これらによる平仮名文の解析精度は大きく低下することが報告されている\cite{moriyama-2018}.一方,平仮名を主な対象とした形態素解析に関する研究もいくつか存在する\cite{kudo-etal-hiragana-2018,picturebook,moriyama-2018,izutsu-komiya-2021}.その一つとして,我々の先行研究\cite{moriyama-2018}では,Kudoらの日本語形態素解析\cite{kudo-etal-2004-applying}を拡張し,RNNLM(ReccurentNeuralNetworkLanguageModel)との統合を行うことにより,平仮名文に対して高い解析精度を実現しており,その精度は従来の形態素解析器が漢字仮名まじり文に対して達成している精度に匹敵している.しかし,この手法の解析時間は一般的な計算機において平均7秒/文を超えており,前述した従来の著名な形態素解析器と比べて桁違いに遅い.応用システムに依存して必要な解析速度は決まるため一概には言えないが,外国人日本語初学者の独習支援システムなどにおいて,1文ごとに処理結果を出力することが想定される場合,我々の先行研究の手法には解析速度に関して実用上の問題が存在しているといえる.この手法では,Kudoらの手法\cite{kudo-etal-2004-applying}の枠組みを採用しており,ラティス上の最適経路を推定する必要があるが,各ノードに対してRNNLMが与えるスコアは,どの経路を通ったかによって異なるため,ビタビアルゴリズムを単純に適用することはできない.すなわち,経路ごとにRNNLMによるスコアを繰り返し計算する必要があり,漢字仮名まじり文よりも一般に長くなる平仮名文では特に,多くの解析時間がかかると考えられる.また,その多くが平仮名で構成されている絵本のテキストを対象とした研究\cite{picturebook}では,対象ドメインのデータでNeubigらの点予測による形態素解析手法(KyTea)\cite{neubig-etal-2011-pointwise}を学習し直すことの有効性が報告されている.Neubigらの手法\cite{neubig-etal-2011-pointwise}は,形態素解析を単語分割と品詞推定に分けて段階的に処理し,各処理において,文字境界あるいは単語ごとに点予測を文頭から順に繰り返すため,1文の文字数や単語数に対する線形時間で処理できると考えられる.実際,我々の先行研究\cite{moriyama-2018}において,Neubigらの手法の平仮名文に対する解析時間は一般的な計算機上で平均4.30ミリ秒/文であることを確認しており,従来の形態素解析器の漢字仮名まじり文に対する解析時間と同程度である.また,我々の先行研究において,Neubigらの手法の平仮名文に対する解析精度は,我々の先行研究における提案手法に次いで高いことを確認しており\cite{moriyama-2018},平仮名文に対する形態素解析手法としてNeubigらの手法は有力視できる.しかし,Neubigらの手法による平仮名文の形態素解析精度は,単語境界のみの判定基準で95.62\%,すべての形態素情報が一致するという判定基準で93.28\%であったのに対して,我々の先行研究の手法はそれぞれ順に98.68\%,95.52\%であり,大きな差がある\cite{moriyama-2018}.Neubigらの手法(KyTea)は,推定箇所の前後の情報を用いて線形SVMあるいはロジスティック回帰により推定するが,ある一定の窓幅内に存在する局所的な情報しか利用できていない.Neubigらの手法は,漢字仮名まじり文に対しては高精度で解析できるのに対して,平仮名文に対してはその解析精度が大きく減少していた\cite{moriyama-2018}.それに対し,我々の先行研究の手法\cite{moriyama-2018}では,RNNLMから得られるスコアを取り入れることにより,大域的な情報を活用することができており,平仮名文に対する解析精度の向上に寄与したものと考えられる.このことは,平仮名文の曖昧性解消には大域的な情報が効果的であることを示唆している.そこで本論文では,平仮名文に対する高精度かつ実用的な速度での解析を目指し,RNN(ReccurentNeuralNetwork)とロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案する.提案手法では,平仮名文に対する形態素解析の高速化を図るため,Neubigらの手法\cite{neubig-etal-2011-pointwise}の枠組みを採用し,単語境界の推定は文字境界ごとに,形態素情報の推定は単語ごとに,文頭から逐次的に実行する.また,平仮名文に対する逐次的な形態素解析の高精度化を図るため,Neubigらの手法\cite{neubig-etal-2011-pointwise}の枠組みにおいて,局所的な情報だけでなく,大域的な情報を加味し,平仮名文独特の高い曖昧性の解消を試みる.具体例には,各時点において,Neubigらの手法においてロジスティック回帰が局所的な情報のみを用いて推定した結果と,RNNが大域的な情報を考慮して推定した結果とを組み合わせることが,平仮名文の逐次的な形態素解析の高精度化において有効であることを示す.さらに,漢字仮名まじり文の形態素解析と比べて,平仮名文の形態素解析では特に,大域的な情報を考慮することが効果的であることを示す.RNNを日本語形態素解析に用いた関連研究として,KitagawaとKomachiの日本語単語分割\cite{kitagawa-komachi-2018-long}がある.KitagawaとKomachiの手法は,RNNを用いて逐次的に単語境界か否かを判定するものであり,Neubigらの手法に比肩する解析精度を達成している.しかし,解析対象は漢字仮名まじり文であり,平仮名文ではない.また,単語分割のみを行っており,品詞などの形態素情報の推定には取り組んでいない.それに対し,Tolmachevらは,単語分割と形態素情報推定をRNNを用いて逐次的に行う手法を提案している\cite{tolmachev-etal-2019-shrinking}.しかし,この手法の解析対象も漢字仮名まじり文であり,平仮名文ではない.その他,Moritaらは,RNNLMを用いたラティスに基づく日本語形態素解析手法を提案している\cite{morita-etal-2015-morphological}.この手法(JUMAN++ver.~1)は,我々の先行研究の手法と同様に,多くの解析時間がかかるという問題があったが,Tolmachevらによって新たなビームサーチ法が施され,JUMAN++ver.~2では解析時間の短縮化が図られている\cite{tolmachev-etal-2018-juman}.しかしながら,この研究の解析対象も漢字仮名まじり文であり平仮名文ではない.また,公開中のJUMAN++では,ユーザが形態素定義を変更し平仮名文で学習し直すことは容易ではないと考えられる.一方,平仮名文の形態素解析にRNNを用いた研究として,井筒らはBi-LSTMCRFに基づく手法を提案しているが,その解析精度は,MeCabと比べて低く,改善の余地が残されている\cite{izutsu-komiya-2021}.なお,日本語以外の言語として中国語に対しても,RNNなどの深層学習を用いた形態素解析手法が様々提案されており,その有効性が報告されているが\cite{chen-etal-2015-long,ma-hovy-2016-end,ma-etal-2018},日本語に対する有効性は明らかではない.以下,2章では提案手法の詳細を紹介する.3章では,平仮名文を対象とした形態素解析実験を実施し,提案手法の有効性を示す.4章では,3章の実験結果の分析や,漢字仮名まじり文に対する形態素解析実験に基づいて,提案手法の特徴を考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V22N05-04
述語項構造は,文章内の述語とその項の間の関係を規定する構造である.例えば次の文,\eenumsentence{\item[][太郎]は[手紙]を{書い}た。}では,「書く」という表現が述語であり,「太郎」と「手紙」という表現がこの述語の項である.述語と項の間の関係は,それぞれの項に,述語に対する役割を表すラベルを付与することで表現される.役割のラベルは解析に用いる意味論に応じて異なるが,例えば表層格を用いた解析では,上記の「太郎」には「ガ格」,「手紙」には「ヲ格」のラベルが与えられる.このように,文章中の要素を述語との関係によって構造的に整理する事で,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解に重要な情報を抽出することができる.このため,述語項構造の解析は機械翻訳,情報抽出,言い換え,含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている\cite{shen2007using,liu2010semantic}.\begin{table}[b]\caption{NAISTテキストコーパス1.4b上での精度比較(F値)}\label{tb:system-accracy-comparison}\input{04table01.txt}\par\vspace{4pt}\smallただし,既存研究のデータセットはそれぞれ訓練,評価に用いた事例数が異なっており,厳密な比較を行うことは難しい.\end{table}述語項構造解析の研究は,英語に関するコーパス主導の研究に追随する形で,日本語においても2005年以降に統計的機械学習を用いた手法が盛んに研究され,これまでに様々な解析モデルが提案されてきた.表\ref{tb:system-accracy-comparison}は,今日までの日本語の述語項構造解析に関する研究報告における主要な解析器の精度をまとめたものである.表には,新聞記事に対する解析精度(F値)を,(1)述語(もしくはイベント性名詞.以下,これらを併せて述語と呼ぶ)の項となる文字列が述語と同一文節内にある事例(文節内事例と呼ぶ),(2)述語の項となる文字列と述語の間に直接的な統語係り受け関係が認められる事例(係り有り事例と呼ぶ),(3)述語の項となる文字列が文内に現れるものの,述語との間に直接的な統語係り受け関係が認められない事例(文内ゼロ照応事例と呼ぶ),(4)述語の項となる文字列が文の外に現れている事例(文間ゼロ照応事例と呼ぶ)の別に記した.なお,「文節単位」は項として適切な文字列表現の最右の形態素が含まれる文節を正解の範囲として評価したものであり,「形態素単位」はその最右の形態素を正解の範囲として評価したものである.既存の解析器では直接係り受け関係がある比較的容易な事例においては$90\%$弱と高い精度が得られているものの,統語的な手がかりがより希薄となるゼロ照応の事例においては,文内ゼロ照応で$50\%$弱,文間ゼロ照応で$20\%$前後\footnote{いずれも正解の述語位置と統語係り受け構造を与えた場合}と精度が低い水準にとどまっており,解析の質に大きな開きがあることが認められる.この結果は,日本語ゼロ照応解析の高い難易度を物語っているが,一方で,ゼロ照応の問題がタスク全体に占める割合は十分に大きく無視できない.表~\ref{tbl:instances-ntc1.5}には,標準的な訓練・評価用コーパスであるNAISTテキストコーパス(NTC)1.5版における項の数\footnote{言語処理学会第21回年次大会ワークショップ「自然言語処理におけるエラー分析」\cite{eaws-2015}の述語項構造解析班報告~\cite{eaws-pas-2015}において提案された評価手法と同様の前処理を施した後の数.外界照応は,何らかの要素を指していることは明らかだが,その要素が文章中に出てきていない事例を表す.}を示したが,ここから項構造解析全体の約$40\%$はゼロ照応に関わる問題であることが分かる.したがって,述語項構造解析の研究ではこれら省略された項の解析精度をいかに向上させるかが課題となる.\begin{table}[b]\caption{NAISTテキストコーパス1.5内の各ラベルの事例数}\label{tbl:instances-ntc1.5}\input{04table02.txt}\end{table}しかし,「ゼロ照応の問題」と一括りに言っても,並列構造や制御動詞構文など比較的統語的な現象として説明可能なものから,文脈や談話構造を読み解かなければならないもの,基本的な世界知識を手がかりに推論しなければならないものなど様々であるにもかかわらず,現状では既存のシステムがどのような種類の問題を解くことができ,あるいは解くことができないのかについて明確な知見が得られていないばかりでなく,現象の分布すら知られていない.そこで,我々はこの難解な項の省略解析へ適切にアプローチするために,現象の特徴を出来る限り詳細に分析し把握することを試みる.本稿では,ゼロ照応に関する事例のうち,手始めに探索のスコープが比較的短く,様々な統語的パターンが観測できる文内ゼロ照応の問題に的を絞り,各事例が持つ特徴を構文構造分析と人手による手がかり分析という二つの観点から類型化し,カテゴリごとの分布と最先端システムによる解析精度を示す.具体的には以下の二つの方法で分析を進め,今後の研究で注力すべき課題を考慮する際の参考となるべく努めた.本研究の成果は次のとおりである.(1)文内ゼロ照応の事例において,既存の解析モデルがモデル化している述語間の項の共有関係・機能動詞構文・並列構造といった特徴が,実際の問題にどの程度影響があるかを確かめるために,NTCや京都大学テキストコーパス(KTC)の正解アノテーション情報を利用してこれらの特徴を持つ事例を機械的に分類し,各カテゴリの事例数や現状の解析精度,各カテゴリが理想的に正答できた場合の精度上昇幅等を示した.結果として,特に,対象述語Pと,項と直接係り受け関係にある述語Oとの間で項を共有している事例の割合が文内ゼロ照応全体の$58\%$存在することが分かったほか,これらの中には,PとOが直接的な並列構造や機能動詞構文の形になっているものばかりでなく,局所的な構造の組み合わせによって解が導かれる事例が一定数存在することが分かった.(2)同様に,文内ゼロ照応の事例についてコーパスより抽出した少量のサンプルを用いて,人間が正解を導き出す場合にどのような手がかりを用いるかについてアノテータの内省をもとに分析し,考えられうる手がかりの種類を列挙するとともに,その分布を示した.手がかりの種類を幅広く調査するため,従来より解析器の学習・評価に用いられているNTCに加えて,多様なジャンルの文章を含む日本語書き言葉均衡コーパス(BCCWJ)に対する述語項構造アノテーションデータからもサンプルを収集した.この結果,手がかりの種類とその組み合わせに関する分布が大きな広がりを持っていることが明らかとなった.また,手がかりの組み合わせに関する性質として,それぞれの手がかりが独立に項候補の確信度を上げるように働くものに加えて,(1)の分析で得られた知見と同様に,機能動詞や述語間の意味的なつながりを考慮すべきものなど,局所的な解析結果を順を追って重ねていくことで初めて項候補の推定に寄与する種類の事例も多く存在することが明らかとなった.加えて,それぞれの手がかりを用いる事例に対する既存システムの解析精度より,既存のモデルは統語構造や選択選好を用いる事例に関しては相対的に高い解析精度を示すものの,世界知識や文脈を読み解く必要がある事例や,その他未だ一般化されていない雑多な手がかりを用いる事例に関しては低い精度にとどまっていることが分かり,これらの現象に対する解析の糸口を模索していく必要があることを明らかにした.
V16N01-01
label{sec:first}係り受け解析は日本語解析の重要な基本技術の一つとして認識されており,これまでに様々な手法が提案されてきた\cite{Kurohashi:94,SShirai:95,fujio_97,haruno,uchimoto_99,uchimoto_2000,kudo_2000,Kudo:2002,matsubara,Kudo:2004,Kawahara:naacl2006,Ohno:coling-acl2006}.しかし,そのほとんどは書き言葉を対象としたものであった.これに対し,本研究では,話し言葉,特に『日本語話し言葉コーパス(CSJ)\cite{furui}』のような長い独話を対象とする.ここでCSJとは,主に学会講演や模擬講演などの独話を対象に,約660時間(約750万語)の自発音声を収録した世界最大規模の話し言葉コーパスのことである.このコーパスには音声データだけでなく書き起こしも含まれており,コアと呼ばれる一部の書き起こしには,人手により形態素・係り受け・節境界・引用節・挿入節・談話構造など様々な情報が付与されている.一般に,話し言葉には特有の現象が見られるため,書き言葉と比べて話し言葉の係り受け解析は難しい.例えば,CSJを用いた実験によると,話し言葉特有の現象の影響をなくした場合とそうでない場合で,係り受け解析精度に大きな差があることが報告されている\cite{Uchimoto:lrec2006a}.特に,引用節・挿入節などの境界が認識されていない場合に係り受け解析精度の低下が著しい.そこで本論文では,引用節・挿入節を自動認定する方法,および,自動認定した引用節・挿入節の情報を係り受け解析に利用する方法を提案し,提案手法により係り受け解析精度が有意に向上することを定量的に示す.
V31N03-16
\label{sec:introduction}日本語敬語は,同じ内容を人物関係や場面に応じて表現形式を使い分ける待遇表現の一種であり,具体的には敬意や配慮を表現するための上向きの待遇表現であるとされる\cite{kijutsu2009japanese}.敬語の使用には,適切な文法規則の適用と背景にある人物間の関係への理解の両方が求められる\cite{harada1976honorifics}.日本語敬語のうち,文脈情報に応じて名詞・動詞・形容詞を規則に応じて変化させる尊敬語や謙譲語が存在する.ここで,文脈情報としては,次の例が示すように,話者,聞き手,会話に登場する人々の間の社会的な関係についての情報がある.\begin{exe}\ex文脈情報:話者から見て佐藤先生は目上である.\begin{xlist}\ex佐藤先生がお読みになる.\label{keigo_correct1}\ex佐藤先生がいらっしゃった.\label{keigo_correct2}\ex[*]{佐藤先生がお読みする.}\label{keigo_wrong1}\end{xlist}\end{exe}\begin{exe}\ex文脈情報:話者と佐藤先生は同僚である.\begin{xlist}\ex佐藤先生が来なかった.\label{keigo_correct3}\ex[\#?]{佐藤先生がいらっしゃらなかった.}\label{keigo_wrong2}\end{xlist}\end{exe}自然言語処理のさまざまなタスクにおいて高い性能を持つ事前学習済み大規模言語モデルにも,文脈情報と文法知識の両方を活用して敬語を理解する能力が期待される.しかし,大規模言語モデルがこれらの情報や知識をどの程度適切に扱うことができるかは明らかでない.これまでに,日本語敬語を扱うデータセットは複数提案されている\cite{matsumoto2022conversion,liu2022construction,someya2023jcola}.これらの先行研究におけるタスク設定は,文法的な情報のみを用いたタスクで言語モデルの敬語理解における性能を評価することを目的としており,敬体文の背景にある情報を考慮した上での分析は行われていない.本研究では,複数のタスクとデータセットを用いて大規模言語モデルが文脈として文脈情報を考慮して敬語理解ができているかを分析する.まず,発言文に関連する人物間の社会的立場や社会的関係についての文脈情報を入力に含めるような敬語理解タスクを導入する.具体的には,敬語が関わる文の容認性判断タスクと,敬語使用が適切に考慮された文に変換する敬語変換タスクという2種類のタスクを設定する.そして,導入したタスクを想定したデータセットを構築する.一つ目のアプローチとして,文の構造や社会的関係といった設定の制御がしやすいテンプレート手法を用いて,新規に日本語敬語データセットを構築する.また,より自然な文を用いたデータセットを用意するために,既存の日本語敬語コーパスからデータをサンプリングし,文脈情報や異なる敬語の種類を用いた文をアノテーションすることで拡張を行う.最終的に,用意したこれらのデータセットを用いて,大規模言語モデルが社会的関係を考慮して敬語に関する容認性判断や敬語変換ができるかについて評価を行う.本研究で構築および拡張を行ったデータセットは,研究利用可能な形でGitHub上で公開している\footnote{\url{https://github.com/ynklab/japanese_honorifics}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{15table01.tex}%\hangcaption{\protect\citeA{kijutsu2009japanese}による日本語敬語の分類.本研究では素材敬語(太字部分)を分析対象としている.}\label{table:honorifics_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\setcounter{exx}{0}
V24N01-03
\label{sec:introduction}機械翻訳システムの性能向上や大量のコーパスを伴なう翻訳メモリなどの導入により,機械支援翻訳(CAT)が広く行われるようになってきている.その一方で,翻訳の対象となる文書の内容が専門的である場合,その分野特有の専門用語や定型表現に関する対訳辞書が必要となる.そうした辞書を人手で作成することはコストが高いため,あらかじめ翻訳された対訳コーパスから専門用語や定型表現の対訳を自動抽出する研究が盛んである\cite{Matsumoto00}.しかし,自動抽出の結果は必ずしも正確ではなく,間違った対訳表現を抽出したり,対訳表現の一部だけを抽出する場合がある.また,一つの語に対して複数の対訳表現を抽出した場合には,訳し分けに関する知見が必要となる.そこで,対訳表現を抽出するだけでなく,対訳表現の各候補を,それが出現した文脈と一緒に表示することによって,ユーザによる対訳表現の選定を支援し,対訳辞書構築を支援するシステムBilingualKWIC\textsuperscript{\textregistered}を開発した.BilingualKWICは,対訳抽出の技術とKWIC(KeyWordInContext)表示\cite{luhn1960}を統合し,文単位で対応付けされたパラレル・コーパスから,与えられたキーワードとその対訳表現の候補をそれぞれ文脈付きで表示する.BilingualKWICの開発過程については\ref{sec:history}章において詳しく述べるが,最初は法律分野の対訳辞書構築を支援する目的で開発した.しかし,このシステムは対訳辞書構築だけでなく,翻訳支援にも有用であるため,その後に開発された法務省・日本法令外国語訳データベース・システム(JLT){\footnote{http://www.japaneselawtranslation.go.jp/}\cite{Toyama12}}においても採用されるに至った.JLTは,日本の主要法令とその英訳,法令用語日英標準対訳辞書,および日本法令の英訳に関する関連情報をインターネット上において無償で提供するウェブサイトである.また,BilingualKWICは名古屋大学が開発した学内情報翻訳データベースNUTRIAD\footnote{http://nutriad.provost.nagoya-u.ac.jp/}\cite{Fukuda}でも採用され,学内文書の英文化を支援し,大学の国際化に寄与している.NUTRIADのシステムは,九州大学・熊本大学・東北大学でも導入され,BilingualKWICも同様に利用されている.BilingualKWICの現在の目的は,対訳辞書のようにあらかじめ登録された訳語と少数の用例を提示するのではなく,任意の入力キーワードに対して対訳表現を計算し,豊富なパラレル・コーパスからの情報を一緒に提示することにより,従来の対訳辞書や翻訳メモリとは異なるアプローチでの翻訳支援を実現することである.以下に本論文の構成を示す.まず\ref{sec:summary}章においてBilingualKWICの概要について述べ,\ref{sec:character}章においてその特徴を紹介する.\ref{sec:spec}章において,BilingualKWICの技術的詳細を,\ref{sec:history}章においてその開発過程をそれぞれ述べる.\ref{sec:evaluation}章ではユーザによるBilingualKWICの評価について述べ,\ref{sec:compare}章では類似するシステムとの比較を行う.\ref{sec:conclusion}章は本論文のまとめである.
V31N03-11
社会の少子高齢化進行に伴い不足する労働人口を補うため,産業界だけでなく,介護といった家庭における支援においてもロボットの活用が進められている\cite{Toyota-ARSO2013}.このような家庭における汎用生活支援ロボットは,あらかじめ決められた作業を行う産業用ロボットとは異なり,人間と対話などの言語を用いたインタラクションにより協働する能力が求められる\cite{taniguchi-2019-survey}.人間との共同作業を伴う対話においては物体への参照表現が頻出する.例えば他人に料理を手伝ってもらう場面では,「まな板の上の人参を切っておいて」や「お皿を運んで」など,材料や食器が頻繁に参照される.ロボットがこのような参照表現を理解し適切な行動を選択するためには,材料や食器のテキスト上の意味を理解するだけでは不十分であり,実世界において参照している「人参」や「お皿」の実体を知る必要がある.テキスト中のメンション(mention,参照表現)が参照している実体を視覚情報,特に画像中の物体矩形の形で特定するタスクはフレーズグラウンディング\cite{kamath2021mdetr,gupta2020contrastive}として知られる.対話テキストにおけるフレーズグラウンディングを扱ったデータセットとしては,SIMMC2.1\cite{kottur-etal-2021-simmc,kottur-moon-2023-overview}が挙げられる.SIMMC2.1は,ユーザとアシスタントを想定した2者の対話形式のテキストと,対話場面に対応するCG画像からなるデータセットである.テキスト中のメンションには,対応する画像中の物体矩形が付与されている.SIMMC2.1はCG画像を利用することで大規模なデータ作成を可能とした.しかし一方で,実世界での活動における物体の移動や操作およびそれに伴う視覚的変化が表現されておらず,実世界への適用には限界がある.例えば,コップに入っている液体が水かスポーツドリンクかを判断するためには1枚の画像だけでは不十分であり,その液体がどのように注がれたかといった物体操作を含む視覚的文脈が必要である.加えて,SIMMC2.1には直接的な参照関係しか含まれていない.直接的な参照関係とは,テキスト中に出現するメンションとそれが直接指し示す物体の関係である.例えば,「テーブル」というメンションとそれが指す物体としてのテーブルの関係である.一方で,テキストの中には「テーブル」という表現が現れず,代わりに「置いといて」といったメンションが間接的にテーブルを参照する場合がある.本研究ではこれをテキスト間におけるゼロ照応\cite{sasano-etal-2008-fully}になぞらえてゼロ参照とよぶ.特に日本語では,主語や目的語が省略されることが多いため,テキストと物体間にこのようなゼロ参照の関係が頻出する.実世界参照解析のデータセットでは,こうしたゼロ参照が起こるケースの考慮も欠かせない.こうした課題を踏まえ,本研究では実世界での物体操作を伴う対話においてゼロ参照も総合的に扱うマルチモーダル参照解析を提案し,そのためのデータセットJ-CRe3\footnote{JapaneseConversationDatasetforReal-worldReferenceResolution}を構築する.本データセットは,2者の実世界における対話シーンにおいて1人称視点動画と対話音声を収録し,音声の書き起こしテキストと動画フレームに対して種々の参照関係を付与したものである.家庭における支援ロボットへの応用を考え,対話参与者として主人とそのお手伝いロボット役2者の対話が収録されている.1人称視点動画はロボット役の話者のものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-3ia10f1.pdf}\end{center}\hangcaption{\oursの例.\oursには動画フレームと発話書き起こしテキストに対して,物体矩形,テキスト間照応関係,テキスト・物体間参照関係が付与されている.物体矩形には物体のクラス名とインスタンスIDが付随する.テキスト・物体間参照関係は,メンションが物体を直接指し示す直接的参照関係(図中「=」と表記)と,メンションと物体が述語とその項といった関係で間接的に結びつく間接的参照関係(図中「ガ」「ヲ」「ニ」と表記)に分類される.例えば,「スポーツドリンク」は物体矩形「bottle\_1」と直接的参照関係を持ち,「置いといて」は物体矩形「table\_2」とニ格の間接的参照関係を持つ.}\label{fig:dataset-overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%構築したデータセットの具体例を図~\ref{fig:dataset-overview}に示す.1人称視点動画から抽出した画像系列には発話中に参照された物体の物体矩形が付与されている(図~\ref{fig:dataset-overview}左).物体矩形には物体のクラス名とインスタンスIDが付与されている.対話に含まれるそれぞれの発話はテキストとして書き起こされ,メンション間の種々の意味的関係(\ref{sec:textual-reference-resolution}節,\ref{sec:textual-reference-annotation}節参照)が付与されている(図~\ref{fig:dataset-overview}右).最後に,発話書き起こしテキスト中の各メンションと動画フレーム中の物体矩形の間に,直接的(図中「=」の関係)および間接的(図中「ガ」「ヲ」「ニ」の関係)参照関係が付与されている.タスクの提案とデータセットの構築に合わせて,提案タスクがこれまでに行われてきたアプローチを統合することでどの程度解ける問題であるかを評価するための実験的なモデルを構築した.既存のモデルやデータセットを効果的に活用するため,提案タスクをテキスト間照応解析,物体検出,テキスト・物体間参照解析の3つのサブタスクに分割した.実験結果から,テキスト間照応解析は既存のモノローグデータセットと同程度の精度(F値約0.7)を達成できることが示された.一方で,物体検出およびテキスト・物体間参照解析は非常に困難であり(Recall@1約0.5),大きな改善の余地があることが示された.本研究で構築したデータセットは\url{https://github.com/riken-grp/J-CRe3}に公開した.実験に使用したソースコードやモデルの重みは\url{https://github.com/riken-grp/multimodal-reference}に公開した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{10table01.tex}%\hangcaption{メンションと物体間の関係が付与されたデータセットの比較.いずれのデータセットにおいても,物体は画像あるいは一人称動画中の物体矩形として与えられる.}\label{tab:dataset-comparison}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V26N02-06
登場人物(キャラクタ)は小説,コミック,アニメ,ドラマ,映画などの物語世界における重要な構成要素の一つであり,ライトノベルのように「キャラクタ中心の物語」(メイナード2012)\nocite{maynard:2012}すら存在する.近年は,ユーザの命令に従ってタスクを実行したり,会話をしたりする対話エージェントにおいても,エージェントのキャラクタが重視されるようになり,マイクロソフトの「りんな」\footnote{https://www.rinna.jp/}をはじめとして,特定のキャラクタを冠した対話エージェントが数多く作られている\footnote{https://www.nttdocomo.co.jp/service/shabette\_concier/shabette\_chara/}$^{,}$\footnote{http://line.froma.com/}$^{,}$\footnote{http://mezamane.com/}$^{,}$\footnote{https://narikiri-qa.jp/oreimo-ayase/login.html}.物語でも対話エージェントでも,それぞれのキャラクタの発話には,それぞれのキャラクタらしさが表れる.特定の人物像(キャラクタ)と結びついた話し方の類型は役割語\cite{kinsui:2011:nihongo}と呼ばれ,「老人語」「幼児語」「お嬢様言葉」など,どのようなキャラクタがどのような表現を使うのか,文法的な特徴はあるか\cite{kinsui:2011}などについて,様々な研究が行われてきた.我々が目指しているのは,キャラクタらしさを表す言語的特徴をうまく捉えて,その特徴を備えた発話テキストを自動生成する仕組みを実現すること,そして,その仕組みを対話エージェントの発話の自動生成や,小説の自動生成\cite{sato:2015}に適用することである.我々はこれまで,文末表現をはじめとする機能語の語彙選択に着目し,例えば,「これはひどい\underline{な}」という発話を「これはひどい\underline{わね}」のように変換する手法\cite{miyazaki:paclic29,miyazaki:jsai2016}を提案してきた.しかしながら,機能語の語彙選択による表現力には限界がある.具体的な課題としては,性別や年代といった大まかなキャラクタらしさを表現することはできても,それ以上に細かなキャラクタらしさを表現することが難しい点が挙げられる.例えば,「これはひどいな」の文末表現「な」を「や」に置き換えて「これはひどいや」とすると,「どちらかというと男性らしい」「それほど高齢ではなさそう」という程度のキャラクタらしさは表現できても,これに加えて「もう少し粗野な感じにしたい」といった細かな調整は難しい.そこで,キャラクタらしさの表現力を高める方策として新たに着目したのが,「こりゃひでえや」(元の形:「これはひどいや」)のような,発話テキストに文字として現れる{\em音変化}である.音変化を任意の発話テキストに対して人為的に施す仕組みを作れば,これを利用してキャラクタらしさの表現力を高めることができると考えられる.この仕組み作りに向け,本研究では,テキストに文字として現れる音変化を{\em音変化表現}と名付け,日本語のキャラクタの発話に現れる音変化表現にどのような種類が存在するのかを調査する.具体的には,音変化表現と呼ぶべき事例を収集し,どのような環境下でどのような音変化が起きるかを示すパターンとして整理する.音変化表現のパターンを分類する目的は2つある.1つ目は,音変化表現の生成のためである.具体的には,どのような環境下でどのような音変化が起きるかを示すパターンを作成すれば,「ひどい」から「ひでえ」や「ひどーい」を生成するなど,音変化のない表現から音変化のある表現を人為的に生成することができると考えている.人為的に生成された音変化表現は,形態素解析用の辞書に登録して利用するなどの用途も考えられる.2つ目は,発話テキストに表れるキャラクタらしさの分析,および,発話テキストへのキャラクタらしさの付与のためである.一口に音変化表現と言っても,「ひでえ」と「ひどーい」とでは,その言葉を発する人物として想像されるキャラクタが大きく違ってくる.音変化表現をパターンとして分類することは,この違いを捉えるうえで非常に意味がある.小説やコミックの発話テキストの分析においては,発話に現れる音変化表現のパターンを調べることで個々のキャラクタの特徴を捉えることができ,対話エージェントの発話や小説のセリフの自動生成においては,特定のパターンの音変化表現を使用することで,生成する発話やセリフにキャラクタらしさを付与できるようになると考えている.音変化は従来より音声学や音韻論の観点から分析されており,『現代言語学入門2日本語の音声』\cite{kubozono:1999}で取り上げられているように,「早う」のようなウ音便が子音+母音の連続から子音が消えて母音が残る現象(e.g.,haya+ku→hayau→hayoo)であること(p.~40),幼児が「何ですか」を「何でちゅか」と言うのは発音器官が未発達なためにサ行の子音を破擦音の[t{\kern0em}\UTF{0283}{\kern-0.5em}]で代用する現象であること(p.~44),「すごい」と「すげえ」のような丁寧な発音とぞんざいな発音の間に見られる音変化は母音融合とそれに伴う代償延長で構成される現象であること(pp.~182--183),「書いておこう」が「書いとこう」に変化するのは母音で始まる音節を避けようとする現象であること(p.~218),「めえ(目)」のように近畿方言の1モーラ語が2モーラの長さに発音されるのは1モーラの長さの語を避けようとする制約による現象であること(p.~224)など,様々な現象について既に知られている.これに対し,本研究で行いたいのはテキスト処理の観点からの分析であり,テキストに文字として現れる音変化をテキスト処理で利用しやすい知識として整理するのが本研究の目的である.本研究では,音変化表現のパターンを提案するとともに,小説やコミックのキャラクタの発話を対象とした検証実験を通して,本研究で提案するパターンの網羅性を確認する.さらに,発話文の話者(キャラクタ)を推定する実験を通して,音変化表現のパターンが,発話のキャラクタらしさを特徴付けるための有効な手段となることを示す.
V22N05-03
\label{sec_intro}近年,ブログ等の個人が自由に情報を発信できる環境の爆発的な普及に伴い,膨大なテキスト情報がWeb上に加速度的に蓄積され,利用できるようになってきている.これらの情報を整理し,そこから有益な情報を得るためには,「誰が」「いつ」「どこで」「何を」といった情報を認識するだけでなく,文に記述されている事象が,実際に起こったことなのかそうでないことなのかという情報を解析する必要がある.我々はこのような,文中の事象に対する,著者や文中の登場人物による成否の判断を表す情報を事実性と呼ぶ.\eenumsentence{\item[a.]\underline{\mbox{商品Aを使い}}始めた。\item[b.]\underline{\mbox{商品Aを使う}}のは簡単ではなかった。\item[c.]\underline{\mbox{商品Aを使っ}}てみたい。\item[d.]\underline{\mbox{商品Aを使っ}}ているわけではない。\item[e.]\underline{\mbox{商品Aを使っ}}ているはずだ。}\label{ex_ie}(\ref{ex_ie})に示す例は,いずれも「商品Aを使う」という事象が含まれるが,その事実性は異なる.(\ref{ex_ie}a)と(\ref{ex_ie}b)は,事象が成立していると解釈できる一方で,(\ref{ex_ie}c)と(\ref{ex_ie}d)は,事象は成立していないと解釈できる.さらに(\ref{ex_ie}e)は,事象の成立を推量していると解釈できる.評判分析などの文脈で,商品Aを使っているユーザの情報のみを抽出したい場合,(\ref{ex_ie})に示した全ての文に対して,「商品Aを使う」と照合するだけでは,(\ref{ex_ie}c)や(\ref{ex_ie}d)といった,商品Aを実際には使っていないユーザの情報まで抽出されてしまう.そこで事実性解析を用いると,(\ref{ex_ie}a)や(\ref{ex_ie}b)が実際に商品Aを使っており,(\ref{ex_ie}c)や(\ref{ex_ie}d)が使っていない,(\ref{ex_ie}e)は使っていない可能性がある,ということを区別することができる.事実性解析は,評判分析だけでなく,含意関係認識や知識獲得といった課題に対しても重要な技術である~\cite{Karttunen2005,Sauri2007,Hickl2008}.事実性解析は,事象が実際に起こったかを解析する技術ではあるが,真に起こったかどうかを与えられた文のみから判断することは不可能である.例えば,「太郎は先に帰ったはずです。」という文に対して,「太郎は帰った」という事象が真に事実か否かは,「太郎」にしか分からない.そこで本研究では,事実性を,文中の事象の成否について,著者の判断を表す情報と定義する.ただし,実際には著者の判断も真にはわからないため,著者の判断を読者がどう解釈できるかによって事実性を表す.前述の例では,著者は事象「太郎は帰った」の成立を推量していると読者は解釈できる.事実性の付与対象となる事象は,\citeA{Matsuyoshi2010}と同様に,行為,出来事,状態の総称であると定義する.\eenumsentence{\item[a.]雨が\event{降っ}$_{\mathrm{出来事}}$たら、バスで\event{行き}$_{\mathrm{行為}}$ます。\item[b.]\event{混雑}$_{\mathrm{状態}}$していたら、別のところに\event{行き}$_{\mathrm{行為}}$ます。}\label{ex:event}(\ref{ex:event})に示す例では,「(雨が)降る」,「(バスで)行く」,「混雑する」,「(別のところに)行く」が全て事象である.\event{}で囲まれた述語は,それぞれの事象の中心となる語であり,事象参照表現(あるいは単に事象表現)と呼ぶ.アノテーションや解析において,事実性のラベルは事象表現に付与する.先行研究では,事実性だけでなく,時制などの関連情報についても,付与基準が議論されるとともに,コーパス構築が進められてきた~\cite{Sauri2009,Matsuyoshi2010,Kawazoe2011,Kawazoe2011_report}.日本語を対象とした事実性解析の研究は少なく,述部(本研究の事象表現に相当)に続く表現形式によるルールベースの解析~\cite{Umezawa2008SAGE}や,機械学習に基づく解析器~\cite{Eguchi2010_nlp}がある.前者はその性能は報告されていないが,後者の解析性能は,9種類の事実性ラベルの分類性能がマクロF値で48\%であり,実用上十分とはいえない.事実性解析の性能向上が困難である理由の一つは,事象表現に続く機能表現の多様性にある.詳しくは\ref{sec_factvalue}節で述べるが,例えば「\event{使わ}\underline{ない}」「\event{使う}\underline{わけない}」「\event{使わ}\underline{ねぇ}」「\event{使う}\underline{もんか}」のように,事象が成立しないことを示す機能表現(下線部)が多々ある.機能表現以外に,「\event{使う}のを\underline{やめた}」のように,文節境界を越えて事象の不成立を示唆する述語(下線部)の存在もあり,さらにこれらの要素の組み合わせが,事実性解析の性能向上を阻んでいる.本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533文に含まれる3,734事象に適用した結果の誤りを分析する.このとき全ての事象表現に続く機能表現に対して意味ラベルを人手で付与する.要素の組み合わせを解きほぐすために,3,734事象を,最も文末に近い主事象1,533事象と,それ以外の従属事象2,201事象に分割し,それぞれについて誤り分析を行う.誤り分析の結果,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.また,機能表現解析の問題を除けば,誤りの半数は副詞に起因するものであった.一方で,従属事象の事実性解析は,主事象に比べて考慮すべき要素が多いため,性能も低いことがわかった.従属事象でのみ考慮すべき要素は大きく二つあり,文節境界を越えて事実性に影響を与える述語と,従属事象に直接付随しない機能表現の影響である.前者は,既存の辞書のカバレッジを調査した結果,これを利用することで誤りの一部を解消できるものの,さらなる拡充が必要であることが分かった.後者は,問題となるケースは多様ではないことと,隣接する事象の機能表現が及ぼす範囲(スコープ)を精緻に判定することで概ね解決できることを確認した.
V07N03-04
日本語とウイグル語は言語学上の区分において,共に膠着語に分類され,両言語の間には語順がほぼ同じであるなどの様々な構文的類似点が見られる.そのため,日本語--ウイグル語機械翻訳では,形態素解析が終了した段階で各単語を対応するウイグル語に置き換える,いわゆる逐語翻訳によって,ある程度の翻訳が可能となる\cite{MUHTAR}.ところで,学校文法をはじめとする多くの日本語文法では,文の中心的役割を果たす動詞が活用することを前提としている.しかし,ウイグル語の動詞は活用しないと考えられてきたため,両言語間の翻訳の際には,活用の有無の違いを考慮する必要があった.それに対して,\cite{MUHTAR}は推移グラフの利用を提案したが,実際の処理の際には扱いにくいという問題がある.一方,Bloch\cite{BLOCH}を源流とする音韻論に基づく文法は,活用を用いることなく日本語の動詞の語形変化を表現することが可能である.本論文では,それらの中でも,動詞の語形変化を体系的に記述することに成功している派生文法\cite{KIYOSE1}\cite{KIYOSE2}を使用する.派生文法は,日本語の膠着語としての性質に着目した文法であり,動詞の語形変化を語幹への接尾辞の接続として表現する.さらに,ウイグル語も同じ膠着語であるので,その語形変化も派生文法で記述可能であると考えられる.原言語である日本語と目標言語であるウイグル語の双方を共に派生文法で記述することができれば,その結果,両言語間の形態論的類似性がより明確になり,単純でかつ精度の高い機械翻訳の実現が期待できる.特に,本論文で扱う動詞句の翻訳においては,複雑な活用処理をすることなく,語幹と接尾辞をそれぞれ対応する訳語に置き換えることにより,翻訳が可能になると考えられる.そこで,本論文ではウイグル語の動詞句も派生文法に基づいて記述することにより,活用処理を行うことなく,簡潔にかつ体系的に日本語からウイグル語への動詞句の機械翻訳を実現する手法を提案する.膠着語間の機械翻訳に関する研究としては,日本語と韓国語との間の研究\cite{H_LEE1990}\cite{S_LEE1992}\cite{J_KIM1996_2}\cite{J_KIM1998}が多くなされている.それらでは,日本語および韓国語の動詞がともに活用することを前提に翻訳が行われているが,両言語において活用変化の仕方が異なる点が問題とされている.例えば,日本語の学校文法においては,活用形が未然形,連用形,終止形,連体形,仮定形,命令形の6つに分類されるが,これは日本語独自の分類であり,韓国語の活用形の分類とは一致しない.そのため,両言語の活用形の間で対応をとる必要があるが,日本語の連用形は文中における機能が多岐に渡るため,韓国語の活用形と1対1に対応させることは困難である.また,日本語の学校文法が用言の活用を五段活用および上下一段活用の2種類の規則活用とカ変およびサ変の不規則活用に分類しているのに対して,韓国語には種々の不規則動詞が存在し,その変化の仕方は日本語と異なる.そうした日本語と韓国語の比較については,文献\cite{J_KIM1996_2}が詳しい.そのため,これまでの日本語--韓国語機械翻訳の研究においては,日本語の語形変化の処理と韓国語の語形変化の処理を別々に行っている.それに対して本研究では,日本語およびウイグル語の動詞は共に活用しないとしているため,活用形の不一致は問題とならない.また,動詞句の形成には派生文法に基づく同一の規則を用いるため,日本語とウイグル語の語形生成を同じ規則で扱うことが可能である.また,日本語と韓国語との間の翻訳においては,もう一つの問題として様相表現の違いが指摘されてきた.これは,様相表現を表わす接尾辞の接続順序が日本語と韓国語で異なるために生じる問題であり,この問題を解決するために,意味接続関係によって記述された翻訳テーブルを使用する方式\cite{J_KIM1996_2}や,様相情報の意味をテーブル化し,PIVOTとして用いる方式\cite{J_KIM1998}などが提案されている.日本語とウイグル語では,様相表現を表す接尾辞の接続順序は同じであるため,そうした点も問題とはならない.しかし,日本語とウイグル語には,同じ意味役割を果していても,互いに品詞の異なる単語が存在する.そのため,それらの単語の翻訳においては,単純に置き換えただけでは不自然な翻訳文が生成される.本論文では,この問題はウイグル語の語形成の性質を利用することによって解決できることを示す.具体的には,日本語形態素解析の結果を逐語翻訳した後,ウイグル語単語の接続情報を用い,不自然な並びとなる単語列を他の訳語に置き換えることによって,より自然なウイグル語文を生成する.さらに,本研究では形態素解析システムMAJO\cite{OGAWA1999}を利用して日本語--ウイグル語機械翻訳システムを作成した.MAJOは派生文法に基づいて日本語の形態素解析を行うシステムである.MAJOの辞書は,本来,日本語単語とその品詞および意味情報の3項組で構成されているが,この機械翻訳システムでは,意味情報の代わりにウイグル語訳語を与え,日本語--ウイグル語対訳辞書として利用した.その結果,MAJOの出力結果は,そのまま日本語からウイグル語への逐語翻訳となっている.さらに,このMAJOの出力結果に前述の訳語置換を適用するモジュール,および,ウイグル語特有の性質に合わせて,最終的な出力文を整形するモジュールをそれぞれ作成した.このように,機械翻訳システムを独立のモジュールから構成する設計としたが,これにより派生文法で記述された他の膠着語との間の機械翻訳システムの実現にも応用可能であると考えられる.なお,本論文で使用する派生文法は音韻論的手法の一種であり,入力文を音素単位で解析するため,日本語の表記の一部にローマ字を用いる.また,ウイグル語の表記においても,計算機上で扱うときの簡便さから,本来のウイグル文字ではなく,そのローマ字表記を用いる.そこで,日本語とウイグル語との混同を避けるため,以下では,日本語の単語は「」,ウイグル語の単語は``''で囲んで区別する.本論文の構成は以下の通りである.まず2章では,学校文法に基づく日本語--ウイグル語逐語翻訳の例とその問題点を指摘する.3章と4章では,派生文法に基づいて日本語とウイグル語の動詞句をそれぞれ記述し,5章で派生文法に基づく日本語--ウイグル語逐語翻訳手法を示す.6章では,単純な逐語翻訳だけでは不自然な翻訳文が生成される問題を取り上げ,7章で,その問題に対する解決法である訳語置換表を提示する.また,8章で日本語--ウイグル語機械翻訳システムの実現について述べ,9章では,実験によるそのシステムの性能評価について述べる.10章は本論文のまとめである.
V02N03-04
自然言語には定型表現と呼ばれる単語間の共起性が強い表現が数多く存在する.定型表現を収集,整理しておくことは言語学的な観点からも機械処理の観点からも有益である.例えば「目を盗む」や「かたずを飲む」などの慣用表現は,その表現の意味が個々の構成語の意味からは作り出すことができない\cite{miyaji}.このために,機械処理ではそれら表現に例外的な処理を施す必要がある.また言語学的にも語の持つ意味の標準的用法と非標準的用法の境界を考察する上で,このような表現を網羅的に収集することが望まれる.また慣用表現ではなくとも,「に関して」「も少なくない」「て欲しい」などの定型表現では個々の構成語に分割して処理するよりも予め一語として捉えていた方が機械処理の面では実用的な場合が多い.また外国語習得の面でも,共起性の強い表現を単語のように,1つの概念に対応する固定した文字列として捉え,それらを記憶しておくことが効果的である.その他,音声認識,OCRにも,共起性の強い表現を記憶しておくことが,そこでの曖昧性の解消に役立つことが知られている\cite{church,kita}.定型表現は付属語的なものと,そうでないもののに大きく分けられ,後者の中に述語型定型表現が存在する.述語型定型表現とは「目を盗む」のように\begin{center}名詞+格助詞+動詞\end{center}のパターンになっている定型表現である.これら表現は定型表現の大きな部分を占め,また,通常の名詞動詞間の共起による解析との整合性が必要となる\cite{oku,suzuki}.さらに「将棋を指す」「碁を打つ」のように,同じの意味の動詞(play)でも名詞によって異なる表現を用いるコロケーションの問題を考察する上でも,述語型定型表現の収集が望まれる.このような理由から定型表現の中でも特に述語型定型表現を収集することは重要である.述語型定型表現を収集することは有益であるが,その収集は困難である.なぜなら,それら表現の客観的な定義は困難なため,個々の表現に対して人間の判断が必要となり,その収集には膨大な時間と手間がかかるからである\cite{syudo}.また人手による収集では,その網羅性,一貫性などの問題点もある.これらの点から定型表現や慣用表現の自動抽出の試みがなされているが\cite{smadja,shinnou},それら研究の多くは相互情報量を用いて共起の強さを測ることを基本としている\cite{church}.相互情報量は2つの単語がそれぞれ独立に現れる確率と同時に現れる確率との比を基に共起の強さを測る.基本的に相互情報量では2単語間が引き合う強さを総合して判断し,共起の強さを定めている.しかし言語的に考えれば,一方の単語がもう一方を引っぱるような片方向だけの強さを持っている場合でも,その表現に定型性があると考えることは自然である.本論文では上記の点を考察し,述語型の表現における名詞動詞間の共起性を測る新たな基準を提案する.概略述べると,まず,名詞あるいは動詞を固定して,共起している単語の集合を作り,その集合内で特異な高頻度の単語を取り出す.これによって,片方向から引っ張る強さの条件だけで抽出を行なうことができる.特異な高頻度の単語の判定法は,基本的に集合内の頻度の割合と,集合内の単語の種類数から判定する.判定の際に共起の強さを表す数値を与える.最終的にこの数値の上位部分を抽出とする.実験として,本論文で提案する基準を用いて,朝日新聞1か月分のコーパス(テキスト部分約9Mbyte)から「AをBする」の形の述語型定型表現の抽出実験を行ない,本手法の有効性を確認した.その結果,名詞を固定した場合に抽出できる表現と動詞を固定した場合に抽出できる表現には,ほとんど共通のものがなかった.また抽出の正解率はどちらの場合も相互情報量による抽出と同程度であった.一方,相互情報量による抽出の正解率は抽出数を増やしてゆけば当然下がる.このことから,同数の抽出を行なうことを考えると,本手法の場合,その半数の抽出の場合の正解率を保つことができ,相互情報量を用いた手法よりも広い範囲の定型表現を抽出できることがわかる.
V18N03-03
\label{sec:intro}SemEval-2010において,日本語の語義曖昧性解消タスクが行われた\cite{SemEval2:JWSD}.本タスクは,コーパス中に出現する対象語に対し,辞書で定義された語義のうち適切な語義を推定することが課題である.日本語を対象とした類似のタスクとしては,2001年に開催されたSENSEVAL-2の日本語辞書タスクがあげられる.ただし,SENSEVAL-2における日本語辞書タスクとは,2つの点で大きく異なっている.すなわち,対象コーパスの分野が多岐にわたる点,および,辞書に定義されていない語義が出現することもあるという点で異なっている.語義曖昧性解消は,非常に古くから取り組まれてきている課題であり,さまざまな手法が提案されてきている\cite{Navigli:2009}.教師なし学習法も,クラスタリングに基づく手法\cite{Pedersen:2006}や,辞書定義文を利用した手法\cite{Lesk:1986,Baldwin:Kim:Bond:Fujita:Martinez:Tanaka:2010}などが提案されているが,一般に訓練データが存在する場合には,教師あり学習法による精度の方が高い\cite{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}.SENSEVAL-2,および,SemEval-2010での日本語語義曖昧性解消タスクでも,教師あり学習法による手法が最も高い精度を出している\cite{SemEval2:JWSD,Murata:Utiyama:Uchimoto:Ma:Isahara:2003j}.そこで,本稿でも,教師あり学習法をベースとした実験を行った.しかし,本タスクにおいて,訓練データとして与えられたのは,各対象語につき50例ずつであり,十分な量とはいい難い.実際,評価データにしか出現しない語義(未知語義)も存在する.そのような未知語義は,訓練データのみを用いた学習では推測できない.また,コンテストに参加したチームで,ドメイン適合性に着目した実験を行ったチームもあるが,ドメイン適合性はいずれのチームでもあまり有効に機能していない\cite{Shirai:Nakamura:2010,Fujita:Duh:Fujino:Taira:Shindo:2010}.我々は,その原因が,訓練データの少なさにあると考え,訓練データの自動獲得による精度向上を試みた.本稿ではその報告を行う.訓練データを自動的に増やす方法としては,まず,Bootstrapping法があげられる.Bootstrapping法では,まずラベル(語義)の付与された訓練データで学習し,ラベルなしデータのラベルを推定し,ある基準において最も信頼できるものをラベルありデータに追加する\cite{Mihalcea:2002,Mihalcea:2004}.ここで,ラベルなしデータのラベル推定を決定木で行う研究もある\cite{Yarowsky:1995}.しかしこれらの方法の場合,ラベルなしデータから,いくら訓練データを追加したところで,もともとの訓練データに出現しないような語義を推測することはできない,という問題がある.そのため,この方法でも未知語義には対応できない.また,訓練データを自動的に増やす他の方法として,単義の同義語を利用する方法も提案されている\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}.彼らは,WordNetの同義語(synset)のうち,単義語(例えば,\eng{``$remember_1$''}に対して\eng{``recollect''}など)や,定義文(gloss)の中のユニークな表現(例えば,\eng{``$produce_5$''}に対して,glossの一部である\eng{``bringontothemarket''}など)を検索語としてWeb検索を行い,獲得したスニペット中の対象語に語義を付与し,訓練データに追加している.この方法であれば,未知語義の訓練データを得て,推定できる可能性がある.そこで,本稿では,基本的に後者の方法に近い方法を導入する.ただし,\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}らは,WordNetから同義語等を得ることができたが,本タスクの語義は岩波国語辞典によるため,WordNetのsynsetのような同義語を直接獲得することは難しい.そこで,定義文中から比較的抽出しやすい例文に着目し,例文を利用した訓練データの獲得を行う.また,本稿では,既存のコーパスの利用も考える.本稿では,まず\ref{sec:data}章で,本タスクで配布されたデータ,および,それ以外に本稿で利用したデータについて紹介する.次に\ref{sec:system}章では,本稿で利用する素性,学習方法について述べる.\ref{sec:result}章では実験の結果とそれに基づく議論,\ref{sec:eva-addex}章では自動獲得した訓練データの評価について,\ref{sec:conclusion}章では結論を述べる.
V10N01-06
自然言語処理を進める上で,形態素解析器をはじめとする言語解析器は,コーパスなどの言語資源と同様に最も重要な道具である.近年では,この重要性は研究者間でほぼ認識されており,英語や日本語に対する形態素解析器と構文解析器はいずれも複数のものが作成,そして公開または市販され,我々研究者はその恩恵に預かっている.ところが,中国語に関しては以上の状況は同じではない.我々の知る限り,日本国内はもちろん,中国においても誰もが手軽に使える中国語解析器が研究者の間で広範に知られている,という状況にはなく,まだ十分に解析器が整備されているとは言えない.この背景の一つは,中国語解析の困難性であると考える.中国語は英語のように概ね単語ごとに分かち書きされてはおらず,単語分割が必要である.また,文字種が単語分割のための大きな情報を持つ日本語とは異なり,ほぼ単一文字種(漢字)である.さらに,複数品詞を持つ語が多いため品詞付与も容易ではない.たとえば,中国語の介詞(前置詞)のほとんどは動詞からの転成であるため日本語や英語にはほとんど存在しない内容語と機能語との間で品詞付与の曖昧性が生じる.たとえば``\lower.25ex\hbox{\underline{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/le.eps}}''(北京に着いた)の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''は動詞(到着する)であるが``\underline{\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}}\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/qu.eps}}''(北京に行く)の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''は介詞($\cdots$に)であり,すなわち``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}}''だけでは``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''の品詞は決定できない.また日本語における「−する」(動詞)「−い」(形容詞)などの明確な文法標識を持たないため,内容語間の曖昧性も比較的多い.たとえば中国語の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dan.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/xin.eps}}''は日本語の「心配(名詞)/心配する(動詞)/心配だ(形容詞)」のすべてに相当する.我々は現在,中日翻訳,並びに中国語換言処理の研究を行っている\cite{張2002}.これらの処理は中国語が入力であるため,表層処理を行わない限り中国語解析器が必要である.このため我々は,現在入手可能な解析器や言語資源を組み合わせて中国語解析を行うことを試みた.ここで,中国語構文木コーパスとしては,現在一般的なPennChineseTreebank(以下,CTBとする)を使用した.一方,解析器としてはサポートベクトルマシン(SupportVectorMachine,以下,SVM)に基づくYamChaを使用した.SVMならびにYamChaについては\ref{節:YamCha}節でその概要を述べる.本報告では,形態素解析と基本句同定解析(basephrasechunking)の2種類を行った.\ref{節:形態素解析}節で形態素解析について,\ref{節:基本句同定解析}節で基本句同定解析について述べる.それぞれの解析で,学習文テストと未知文テストの2種類の解析精度を測定し,考察を行った.形態素解析実験では,連接コスト最小法に基づく形態素解析器MOZを使用して,解析精度の比較を行った.さらに,日本語と比較してどの程度中国語の形態素解析が難しいのかを調べるために京都大学テキストコーパスを用いて実験した.また,品詞タグ付けに限定すれば,CTBよりも大きなコーパスが入手可能であることから,CTBの約11倍の大きさを持つ人民日報タグ付きコーパスを用いての形態素解析実験も行った.本報告の主な目的は,上記の解析器と言語資源を用いて中国語解析器を構築した場合,どの程度の解析精度が得られるのかを報告することにある.すなわち,この解析器にどのような問題がありどのような改善が可能かを提案するという提供者の視点ではなく,使用者の視点,すなわち中国語処理に携わる研究者にとってこの解析器がどの程度有用であり,使用の際にはどのような点に注意が必要か,などを報告することに主眼がある.いずれも容易に得られるツールと言語資源を組み合わせた場合にどのような精度が得られるかを測定,報告することは誰にでもできる作業である.しかし,研究者が研究の必要性のためできるだけ高精度の解析器を求める状況にある場合,本報告のような報告によって解析の期待精度を予め知った上で同一の解析器を構築できる.あるいは,研究上より高精度の解析器が必要な場合は最初から別の選択肢を考えることもできる.このように,我々は中国語処理を行う研究者への有益性を考え,我々で測定した解析精度を技術資料として報告することにした.
V17N01-03
形態素解析は,文を形態素列に分割し,各形態素に品詞をタグ付けするタスクである.形態素解析は自然言語処理における基盤技術であり,構文解析や情報検索といった応用を実現するうえで高い精度の達成が不可欠となる.日本語の形態素解析では,あらかじめ定義された辞書を用いる手法が高い精度を達成している~\cite{Kurohashi1994full,浅原正幸:2002,Kudo2004full}.この手法では,入力文は辞書引きにより得られた形態素のラティスに展開され,ラティス中の最適なパスが出力として選択される.しかし,辞書に基づく形態素解析には,辞書にない形態素({\bf未知語})の解析を誤りやすいという問題がある.例えば,形態素解析器JUMAN\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}は,デフォルトの辞書を用いると,未知の動詞「ググる」を誤って「ググ」と「る」に分割する.この未知語問題は,未知語を解析用の辞書に追加することで解決する.しかし,人手による辞書登録はコストがかかるため,計算機による自動化が望まれる.人手によらない未知語問題への解決策として,2通りの手法が提案されている.ひとつ目の手法では,形態素解析における未知語モデルを改良する~\cite{Nagata1999full,内元清貴:2001,Asahara2004full,東藍:2006}.日本語の形態素解析で広く用いられる未知語モデルは,字種に基づく簡単なヒューリスティクスだが,代わりに統計や機械学習に基づく未知語モデルを導入すると未知語同定の精度が向上する.二つ目の手法では,テキストから未知語を自動獲得し,形態素解析用の辞書を拡張する~\cite{Mori1996full}.二つの手法を比べると,前者は入力文中の個々の未知語を同定しようとするのに対し,後者は同じ未知語のテキスト中での複数の使われ方を比較できるという点で異なる.複数の使われ方の比較は未知語の同定に効果的と考えられる.例えば「ようつべ」(YouTubeのスラング)という形態素を知らないまま,「ようつべって…」という文を解釈したいとする.このとき,「ようつべ」は,未知の名詞以外にも,未知の動詞「ようつべる」とも解釈でき,いずれが正しいか判断しがたい.同様に,別の文「ようつべとは,…」について,名詞「ようつべ」の他に,動詞「ようつぶ」の命令形とも解釈できる.しかし,両者を見比べると,2文とも名詞「ようつべ」で解釈できることから,名詞という解釈がより自然だと推測できる.従って,本論文では後者の手法を採用する.ただし,両者は対立するものではなく,組み合わせることで,より高い解析精度が得られるようになると期待できる.未知語獲得の従来手法はバッチ処理であり,コーパスをソートしてすべての部分文字列を調べる~\cite{Mori1996full}.しかし,この手法は効率が悪い.なぜなら高頻度の形態素のほとんどが解析用の辞書に登録済みであり,一般に出現頻度でコーパスの90\%以上を網羅している.こうした既知の形態素を改めて獲得しても無駄になる.これに対し,提案手法では,辞書に登録されていない形態素のみを獲得対象とする.従来研究は,資源の制約から,主に小規模な新聞記事を対象に行われてきたが,近年,ウェブの出現により大規模なテキストが入手可能となっている.それに伴い,自然言語処理の様々な分野でデータの大規模化による性能向上が報告されている\cite{Banko2001full,Brants2007full}.しかし,未知語獲得は,データの大規模化が単純に解決する性質の問題ではない.未知語の中には,「ブログ」のように高頻度ながら登録が漏れているものもあるが,大部分がいわゆるロングテールに属す低頻度の形態素である.こうした形態素の出現するテキストには偏りがあるだけでなく,データを増やすだけでは,次々と新たな未知語が出現してきりがない.従って,とにかくデータを与えてそこから未知語を獲得するよりも,個々の未知語候補に着目し,それが獲得されるまでデータを読み込む方が自然である.そもそも,未知語の同定のために,何千,何万もの使われ方を調べる必要はなく,直観的には,ほとんどの場合,10件程度を見比べればほぼ明らかではないかと思われる.本論文では,オンライン未知語獲得という枠組みと,その具体的な実現手法を提案する.オンライン未知語獲得では,バッチ処理ではなく,逐次的に入力されるテキストから未知語を獲得する.形態素解析器自体は,通常通りテキストを文単位で解析し,形態素列を出力する.異なる点は,解析の裏で未知語獲得器が動作することである.具体的には,解析された文から未知語を抽出し,適当な時点で形態素解析器の辞書を更新する.これにより獲得された未知語が形態素解析に反映される.オンライン未知語獲得では,獲得開始時に対象コーパスを決める必要がない.そのため,例えば,クローラが毎日新たなページを取得するという設定でも,この差分のみから未知語が獲得できる.オンライン未知語獲得は,検出,列挙,選択のサブタスクにより実現される.このうち,列挙は日本語の持つ形態論的制約を利用し,選択は蓄積した複数用例の比較による.実験により比較的少数の用例から高精度に未知語が獲得され,その結果形態素解析の精度が改善することが示された.本論文の構成は次の通りである.\ref{sec:acquisition-task}章で未知語獲得タスクを整理し,\ref{sec:online-acquisition}章でオンライン未知語獲得の枠組みを提案する.\ref{sec:enumeration-and-selection}章では,オンライン未知語獲得の実現手法のうち,列挙と選択を説明する.\ref{sec:experiments}章で実験結果を報告し,\ref{sec:related-work}章で関連研究,\ref{sec:conclusion}章で結論を述べる.
V21N02-09
label{intro}近年,言語研究において,言語現象を統計的に捉えるため,コーパスを用いた研究が盛んに行われている.コーパスを用いた研究は,語法,文法,文体に関する研究\cite{oishi2009,koiso2009},語彙に関する研究\cite{tanomura2010},時代ごとの言語変化を調査する通時的な研究\cite{kondo2012},外国語教育へ適用する研究\cite{nakajo2006}など多岐にわたる.コーパスを用いる研究では,新しい言語現象を調査するには新しいコーパスの構築が必要となる.大規模なコーパスを構築する場合,人手でのアノテーションには限界があるため,自動でアノテーションをする必要がある.既存の言語単位や品詞体系を利用できる場合は,既存のコーパスや解析器を利用することにより,他分野のコーパスに対するアノテーション作業を軽減できる\cite{kazama2004}.また,対象分野のアノテーション済みコーパスがある程度必要なものの,分野適応により,解析器の統計モデルを対象分野に適合するように調整することで,他分野のコーパスに対しても既存のコーパスに対するものと同程度の性能でアノテーションが可能となる\cite{jing2007,neubig2011}.しかし,研究目的によっては適切な言語単位や品詞体系が異なるため,既存の言語単位や品詞体系が利用できないこともある.例えば,国立国語研究所の語彙調査では,雑誌の語彙調査には$\beta$単位,教科書の語彙調査にはM単位というように,どちらも形態素相当の単位ではあるが,調査目的に応じて設計し用いている.これらの単位の概略は\cite{hayashi1982,nakano1998}に基づいている.また,言語現象に応じて異なる場合もあり,日本語話し言葉コーパス\cite{csj}(以下,CSJ)と現代日本語書き言葉均衡コーパス\cite{bccwj}(以下,BCCWJ)では異なる言語単位や品詞体系が定義されている.新しい言語単位や品詞体系を用いる場合,分野適応の利用は難しく,辞書やコーパス,解析器を再構築する必要がある.これらのうち,辞書とコーパスは再利用できることが少なく,新たに構築する必要がある.解析器に関しては,既存のものを改良することで対応できることが多いものの,どのような改良が必要かは明らかではない.本論文では,言語単位や品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,品詞体系の異なるCSJとBCCWJを利用して長単位解析器を改良する.CSJとBCCWJには,いずれも短単位と長単位という2種類の言語単位がアノテーションされている.本論文ではこのうち長単位解析特有の誤りに着目して改善点を明らかにする.そのため,短単位情報は適切にアノテーションされているものと仮定し,その上で長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べる.評価実験により提案手法の有効性を示し,提案手法の異なる品詞体系への適用可能性について考察する.本論文の構成は以下の通りである.まず,\ref{csj_bccwj_diff}章で長単位解析器を改良するために重要となるCSJとBCCWJの形態論情報における相違点について述べ,\ref{luw_analysis}章ではCSJに基づいた長単位解析手法を説明し,CSJとBCCWJの形態論情報における相違点に基づいた長単位解析手法の改良点について述べる.\ref{exp}章では,長単位解析手法の改良点の妥当性を検証し,改良した長単位解析手法を評価する.\ref{comainu}章では,\ref{luw_analysis}章で述べた長単位解析手法を実装した長単位解析システムComainuについて述べ,\ref{conclusion}章で本論文をまとめる.
V14N01-05
label{sec:Introduction}参照表現の生成は自然言語処理の重要なタスクの1つであり~\cite{BD2003},多くの研究者により様々な手法が提案されてきた~\cite{DA1985,RD1991,RD1992,RD1995,EK2002,EK2003}.参照表現生成に関する従来の研究は,主に対象物体固有の属性と他の物体との関係を扱ってきた.ただし,他の物体との関係は2項関係のみである.そのため従来の手法では,指示すべき物体とその他の物体との間に外見的特徴の差異が少なく,他の物体との2項関係も弁別の用を成さない状況において,適切な参照表現を生成することができない.ここで適切な参照表現とは,自然で過度な冗長性のない表現のことを言う.\begin{figure}[b]\begin{center}\includegraphics{14-1ia5f1.eps}\end{center}\caption{従来手法で表現生成が困難な例}\label{fig:Problem}\end{figure}例として,図~\ref{fig:Problem}において対象物体$c$を人物$P$に示すことを考える.対象物体$c$は,外見からは物体$a$や物体$b$から区別することができない.そこで次の方策として,対象物体$c$とテーブルとの間の関係を用いることが考えられる(例えば,「テーブルの右の玉」).しかし,物体$a$も物体$b$もテーブルの右にあるため,この状況においては「$X$の右の$Y$」という関係に弁別能力はない.テーブルの代わりに物体$a$や物体$b$を参照物として使うことも意味がない.なぜなら物体$a$および物体$b$は物体$c$が一意に特定できないのと同じ理由によって一意に特定することができないからである.このように,物体の属性と2項関係のみを用いる従来の手法では参照表現の生成に失敗する.手法によっては「玉の前の玉の前の玉」のような論理的には誤りでない表現を生成できるが,適切な参照表現ではない.このような状況は今まで注目されてこなかったが,物体配置の様な状況(例えば\cite{TH2004})では頻繁に起こりうる.この場合,「一番手前の玉」という表現が自然かつ簡潔であると考えられる.このような参照表現を生成するためには,話し手は知覚的に特徴のある物体群を認識し,群に含まれる物体の間の$n$項関係を用いる必要がある.この問題に対し,我々は知覚的群化~\cite{KT1994}を用いて物体群を認識し,物体群の間の関係を用いて参照表現を生成する手法を提案した~\cite{KF2006}.知覚的群化(perceptualgrouping)とは外見的に類似した物体や相互に近接した物体を1つの群として認識することである.我々の提案した手法によって物体の$n$項関係を利用した参照表現の生成が可能となったが,この手法の想定する状況は同形同色同大の物体を複数配置した2次元空間という非常に限られたものであったため,一般的な状況には対応できなかった.本論文では,我々が提案した手法を拡張し,従来より利用されてきた色,形,大きさ等の属性や2項関係も利用できる,知覚的群化に基づく参照表現の生成手法を提案する.\cite{KF2006}では,知覚的群化を利用して参照表現を生成するために,参照表現と参照する空間の状況とを結びつけるSOG(SequenceofGroups)という中間表現形式を提案した.本論文では,SOGを包含関係以外の関係や物体の属性も表現できるように拡張する.そして拡張したSOGを用いた生成手法を提案し,大学生18人に対する心理実験によって実装システムが生成した参照表現を評価する.本論文の構成は以下の通りである.まず\ref{sec:SOG}節では\cite{KF2006}で提案したSOGについて説明し,その拡張を行なう.\ref{sec:Generation}節では拡張したSOGを用いて知覚的群化に基づく参照表現生成手法を提案する.そして提案手法の評価と考察を\ref{sec:EvalAndDiscussion}節に示す.最後に\ref{sec:Conclusion}節で本論文の結論と今後の課題を述べる.
V30N02-13
label{1}自治体による政策の改善には,都市で暮らす市民の意見を収集し,反映させることが重要となる.また,接客業のサービスの質を向上させるためにも,店員の接客に対する批評や,提供している商品の評価等の意見を反映させることが重要となる.これらの背景から,著者らの先行研究\cite{Ishida2022}では,特定の都市の市民によるTwitter\footnote{\url{https://twitter.com}}のつぶやきから,分析対象の市民意見を自動抽出するためのフレームワークを提案した.このフレームワークでは,人手で作成した市民意見分析コーパスを教師データとして,BERT\cite{bert}を用いたマルチタスク学習モデルをファインチューニングすることで,つぶやきの意見タイプや極性等の複数の属性を推定した.Twitterでは多くのユーザが日頃感じたことを気軽に述べており,市民が生活している都市の自治体による政策や,日頃利用している接客業のサービスに関する多様な市民意見を収集することができる.一方で,市民ユーザが感じたことが,分析対象の都市の市民に特有の意見であるのか,それとも他都市の市民も同様に感じている意見であるのかといった判断には,他都市の市民意見との比較が重要となる.しかし,都市によって自治体の政策やその都市の店舗の接客業のサービスは異なる.そのため,別の都市を対象として市民意見を抽出するには,その都市のつぶやきを対象として,市民意見抽出モデルを訓練するための新たな教師データを作成する必要がある.一方で,すべての都市を対象とした教師データの作成にかかるコストは大きく,こうした実装方法は現実的とはいえない.そこで本研究では,教師データを構築済みの都市(以降,ソース都市と呼ぶ)のデータと,評価対象の別の都市(以降,ターゲット都市と呼ぶ)の比較的少量のデータを活用して,ターゲット都市の市民意見を抽出する手法を提案する.本手法により,これまでに市民意見を抽出していた都市とは異なる都市で新たに市民意見を抽出する際の,教師データ作成にかかるコストを削減することを目的とする.また,ソース都市のデータでファインチューニングを行ったモデルによるターゲット都市のデータへの予測の確信度の情報を活用し,ターゲット都市の教師データを効果的に選定する手法について検証を行う.実験では,政令指定都市である横浜市と札幌市に暮らす市民のつぶやきを対象として構築した市民意見分析コーパスを用いて,都市を横断した市民意見抽出手法の有効性について検証する.また,横浜市と札幌市と比較して人口が少ない仙台市に暮らす市民のつぶやきを対象として,ソース都市と比較して十分なつぶやきが得られない都市をターゲット都市にする際の市民意見抽出手法の有効性について検証する.本研究の貢献は以下の通りである.\begin{enumerate}\item都市を横断した市民意見抽出手法の有効性の検証のため,横浜市民と札幌市民のつぶやきからなる市民意見分析コーパスを作成した.\itemソース都市のデータとターゲット都市の比較的少量のデータを用いて2段階のファインチューニングを行う手法を提案し,各属性の推定における有効性を検証した.\itemターゲット都市の教師データは,ソース都市の教師データでファインチューニングしたモデルによる予測の確信度が高いものを選定して構築することで,アノテーションコストを効果的に削減できることを示した.\end{enumerate}本論文の構成を以下に示す.\ref{2}節では,関連研究について述べる.\ref{3}節では,提案手法の複数の都市を横断した市民意見抽出について述べる.\ref{4}節では,都市を横断した市民意見抽出の実験に使用するコーパスの構築について述べる.\ref{5}節では,都市を横断した各属性のラベル分類の分類精度について,単一都市の訓練データを利用した際の分類精度や,ソース都市のみで訓練した際の分類精度との比較を行い,有効性について検証する.\ref{6}節では,提案手法である都市を横断した市民意見抽出手法を用いて,実際に市民意見を抽出した際の結果と,エラー分析について述べる.最後に\ref{7}節において,本論文のまとめを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V20N05-02
\label{sec:intro}情報抽出や文書要約の分野において情報の可視化を目的として,テキスト中に出現する事象表現の表す事象が発生した時区間\modified{(TimeInterval)}を時間軸\modified{(Timeline)}上に写像することが行われている.このため\modified{には},テキスト中に出現する時間情報表現の正規化(時間軸への写像)のみならず,対象となる「文書作成日時と事象表現」や「時間情報表現と事象表現」,「二つの事象表現」間の時間的順序関係を付与することが必要になる.\modified{英語においては哲学者・言語学者・人工知能研究者・言語処理研究者が協力して時間情報を含む言語資源の整備を進めている\cite{TimeBank}.哲学者・言語学者は言語科学として(a)テキスト中の事象表現とその時間構造を形式的にどのように記述するかを探究することを研究目的とする.人工知能研究者・言語処理研究者は工学研究として(b)テキスト中の事象表現や時間的順序表現を同定し抽出する機械的なモデルの開発や評価を研究目的とする.前者にとって(b)は手段でしかなく,逆に後者にとって(a)は手段でしかない.しかしながら,共通の目標として時間情報の可視化\footnote{ここで「情報の可視化」とは,工学的な自動処理によるもののみならず,言語科学における形式意味論研究も含む.}を掲げ,前段落にあげたリサーチクエスチョンに対して,「アノテーション」と呼ばれる研究手法により共有言語資源を構築する試みが行われている.}\modified{一方,日本語においては時間情報を含む言語資源の整備は,人工知能研究者・言語処理研究者によるものが多く,研究目的も(b)の手段としてのものが多い.機械的なモデルの開発や評価を目的とすることが多く,計算機上に実現しやすい時間情報表現の切り出しや正規化レベルのアノテーションにとどまっている\cite{IREX,小西-2013}.時間的順序関係のアノテーションを行うためには,アノテーション対象となる事象構造の意味論的な形式的な記述の作業が必要となる.人工知能研究者・言語処理研究者にとっての手段とされる研究目的(a)が重要になる.}\modified{時間情報のアノテーションについては,英語のアノテーション基準TimeML\cite{TimeML}を元に国際標準化作業が行われてきた.成果物のISO-TimeMLは策定時に多言語に対してアノテーションすることを想定し,各言語の研究者がそれぞれ適応\footnote{ここで「適応」とは生物学における``種の環境に対応する形質の有無''の意味ではなく,工学における``対象の特性に対応する仕様やパラメータなどの変更''の意味である.}作業を実施してきた.}\modified{本研究では,研究目的として哲学者・言語学者の(a)の立場を取り,}『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下``BCCWJ'')\cite{BCCWJ}の一部に対し時間情報表現と事象表現の時間的順序関係を付与するために,事象表現の切り出しと分類を行った.\modified{時間情報表現アノテーションの形式的な基準である国際標準ISO-TimeMLの日本語適応作業をMAMAサイクル\cite{Pustejovsky-2012}(Model-Annotate-Model-Annotateサイクル.詳しくは\ref{subsec:anno}節で説明)を通して実施し,時間的順序関係付与に適した事象表現分類を行った.}さらに,\modified{複数人の時区間の時間的順序関係の認識の差異を評価することを目的として,}Allenの時区間論理\cite{allen-1983}(詳しくは\ref{subsec:timerel}節で説明)に基づ\modified{いた}テキストに出現する時間情報表現と事象表現の時間的順序関係\modified{のアノテーション}を\modified{複数人で実施した.MAMAサイクルを最小にし被験者実験的な設定でアノテーションを行い,得られたデータの傾向を分析し,複数人の作業者間の心的空間における時間構造の差異を評価した.}\modified{意味論レベルのアノテーションにおいて,多くの研究が形式意味論的な記述を目標とする.生成された言語を直接何らかの記号的な意味表現に写像するための方法論を確立するためにアノテーションのMAMAサイクルを実施するが,唯一無二の意味表現に写像することを目的とするためにアノテーション一致率という指標を良くする方向に最適化するきらいがある.一方,認知意味論の考え方においては,生成された言語表現を受容する人間の認知活動という要素を考慮し,人間の空間認知能力やカテゴリー化などの認知能力を評価する目的で,被験者実験などの研究手法が用いられている.テキストを刺激として与え,意味表現を記述させる被験者実験も広義のアノテーションと呼ぶことができる.}\modified{本研究では人間の時間的順序関係の認知能力の差異の評価を目的として,教示であるMAMAサイクルを必要十分レベルに極小化した,被験者実験としてのアノテーションを行う.結果,時区間の境界の一致が困難である一方,時区間の前後関係については69.5\%の一致率でアノテーションできることがわかった.}\modified{以下本論文の構成について述べる.\ref{sec:related}節では関連研究について述べる.\ref{sec:standard}節では策定した基準について述べる.\ref{sec:analysis}節でBCCWJにアノテーションした順序関係ラベルの分析を行い,結果を報告する.\ref{sec:conclusion}節で本論文のまとめを行う.}
V31N02-11
自然言語処理において単語同士の上位下位関係や同義関係,類義関係等の意味知識を獲得することは機械翻訳や質問応答等の技術を開発する上で重要な課題である\cite{Article_01}.意味知識を獲得するのにあたり,膨大な語が存在する中から手動で知識を獲得するのは困難であり知識獲得の自動化が行われてきた.日本語ではこれまでにWikipediaの構造情報,他言語記事の情報(呉他2011;山田他2011)\nocite{Article_02,Article_03}やWWW上に存在するHTML文書の構造情報\cite{Article_04}から上位下位関係を獲得する手法や,航空といった特定分野\cite{Article_05}やシステムの要求仕様書\cite{Article_06}における同義語辞書を自動作成する手法が研究されてきた.また機械学習が発展してきた近年では,特に文章中の多義語に対して適切な意味を識別するタスクである語義曖昧性解消(WSD)において学習データとなるシソーラスの利用価値が高まっている.近年までWSDは教師あり学習による手法が主流であったため,学習データに利用するデータのアノテーションが必要であった.そのためコーパス内に存在するすべての単語を対象としたall-wordsWSDの様な大規模なアノテーションが必要なタスクは困難であった.この課題に対してKumarら\cite{Inproc_07}が提案するEWISEは,WordNetというシソーラスから単語の上位下位関係を学習データとして学習することでアノテーションのコストを削減し教師あり学習をしたモデルに匹敵する精度を出すことに成功した.また翌年にはEWISEをベースにしたEWISER\cite{Inproc_08}が発表され,言語資源であるシソーラスを活用した知識ベースの学習手法の有用性が示されてきた.しかし,類義語などの語彙知識獲得を行う研究では単語同士の関係に着目するのみであり,語義同士の関係は考慮されていない.単語同士の類義関係だと,多義語のどの意味で類義関係なのかが分からない.しかし,どの語義で類義なのかが分かると語義識別や言い換えに役立つ.語義レベルの関係の例として以下の「うまい」と「じょうず」という単語を例として挙げる.今までの研究では単語間の類似性や分布仮説\cite{Article_09,Article_10}を用いて「うまい」と「じょうず」という単語ペアを同義語であるとして獲得することを行ってきた.語義レベルとは単語の語義に注目し,どの語義が類義であるかという語義間の関係を獲得することである.本研究は,岩波国語辞典第五版\cite{Book_11}において意味区分された語義を対象に以下の例において「うまい」の語義2と「じょうず」の語義1が類義であると判定することを目指す.\begin{itemize}\itemうまい【甘い・旨い】\mbox{}\\語義1:“味がよい。「―汁を吸う」(転じて、骨を折らずに自分だけいい目をみる)▽「美味い」とも書く。”\\\textbf{語義2:“よい。すぐれている。旨「―考えだ」。じょうずだ。「話し方が―」▽「上手い」「巧い」とも書く。”}\\語義3:“自分にとって都合がよい。もうけになる。「自分だけ―事をする」▽まずい。派生\textbarさ\textbarげ\textbarみ\textbarがる”\\\itemじょうず【上手】\mbox{}\\\textbf{語義1:“ある物事をする技術がすぐれていること。巧みなこと。そういう人。「名人―」「―の手から水が漏る」(じょうずな人も時に失敗することがある)。また一般に、てぎわがよいこと。うまいこと。「―に立ち回る」▽下手(へた)。”}\\語義2:“《多く「お―」の形で》世辞。世辞を言うこと。派生\textbarさ関連うまい・すぐれる・ひいでる・巧み・得手・器用・巧緻(こうち)・巧妙・熟練・絶妙・達者・堪能(たんのう)・得意・優秀・老巧・老練”\end{itemize}\rightline{(岩波国語辞典第五版より引用)}\vskip\baselineskip\noindentまた日本語においては英語WordNetを翻訳した日本語WordNet\cite{Inproc_12}が存在するが,英語WordNetに存在しない類義関係をどう追加するのかといった課題があり,実用可能な完成度に至っていない.本研究では入力した2単語に対して語義レベルで類義判定することを目的とする.目的の実現のため語義定義文の変更とSentence-BERTによる深層距離学習を利用した類義判定手法を提案する.語義定義文に対して語義を表す記述以外の削除や不足する内容の追加等の変更を行うことで,変更前の語義定義文に比べて適切な語義の特徴を捉えた埋め込みベクトルが得られることが期待できる.また深層距離学習とは,埋め込み空間上において同じラベルが付与されたデータ同士の距離を小さくし,異なるラベルが付与されたデータ同士の距離を大きくする手法であり,これを利用することで本研究の目的とする語義レベルの類義判定用に埋め込み空間の調節がなされ,類義判定精度の向上が期待できる.上記の「うまい」と「じょうず」の語義の類義判定を行う際には,まず2単語の語義定義文の変更を行う.本文中の3.4節の変更方法を適用した結果下記の定義文が得られる.\vskip\baselineskip\begin{itemize}\itemうまい【甘い・旨い】\mbox{}\\語義1:味がよい。「うまい汁を吸う」\\\textbf{語義2:よい。すぐれている。旨「うまい考えだ」。じょうずだ。「話し方がうまい」}\\語義3:自分にとって都合がよい。もうけになる。「自分だけうまい事をする」\\\itemじょうず【上手】\mbox{}\\\textbf{語義1:ある物事をする技術がすぐれていること。巧みなこと。そういう人。「名人上手」「上手の手から水が漏る」。また一般に、てぎわがよいこと。うまいこと。「上手に立ち回る」}\\語義2:世辞。世辞を言うこと。\end{itemize}\vskip\baselineskip\noindent次に上記の変更を施した語義定義文から埋め込みベクトルを得て深層距離学習を行う.埋め込み空間上で「うまい」の語義2と「じょうず」の語義1の距離を小さくし,その他の語義のペアの距離を大きくすることで埋め込み空間を調節し,得られた学習モデルによって語義のペアが類義かどうかを適切に判定した結果を出力することを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V03N02-02
インターネット上の電子ニュース(以下,ネットニュースと記す)は,誰もが自由に記事を投稿することができ,それがそのまま広く配布されるという特徴を持った,新しいマスメディアである.情報発信者が限られている従来のマスメディア(新聞,ラジオ,テレビ)と比べ,情報発信の機会を広くに解放した点で,ネットニュースはマスメディアの新しい可能性を開いたが,逆に,情報発信者の拡大による情報の洪水と情報(テキスト)品質の多様化という新しい現象を引き起こしつつある.このため,求める情報を簡単に見つけることができなくなりつつある.我々は,この問題を解決する方策として,ダイジェストに注目している\cite{Madoka-master-94,Madoka-ipsj-conf-94,Madoka-ipsj95}.ダイジェストとは,元となる情報の特質をコンパクトにまとめて情報の種類別に整理したものであり,我々が大量の情報に接する際に効果的なナビゲーション機能を果たす.既存のダイジェストは,人手で編集されたものがほとんどであるが,はじめからオンラインテキストとして存在するネットニュースでは,このダイジェスト作成を完全に自動化することが可能である.我々は,既に,ネットニュースのダイジェスト自動生成の1つのプロトタイプとして,fj.meetingsのダイジェスト自動生成システムを作成し,実際に運用している\footnote{\verb+http://www.jaist.ac.jp/\~{}sato/nnad/home-j.html+}.本研究では,その次のステップとして,fj.wantedのダイジェスト自動生成について検討した.fj.wantedは,fj.meetingsとは異なり,かなり多様な投稿者が,多様なテキスト品質の記事を投稿しており,fj.meetingsのダイジェスト自動生成で用いた手法とは異なった手法が必要となる.
V07N04-09
人と人,または人と計算機が音声を介してコミュニケーションを行なう際に必要となる音声対話処理における頑健性を議論する.例えば,音声を入力としてこれを翻訳し音声出力する音声翻訳などが本論文の想定する対象である.音声対話処理においては,不明瞭な発声や雑音,音声認識処理部の誤りに起因する誤りによって,言語処理部に対して誤りのない正確な入力が得られない場合があり,この結果従来の自然言語処理では問題とならなかった入力の不正確性が生じる.これに対し,従来行なわれてきた言語処理研究の主眼は,\vspace*{\baselineskip}\begin{itemize}\item如何にして入力の不正確性を除去するか\end{itemize}\vspace*{\baselineskip}\noindentという一点に集中していた.すなわち,言語処理として如何に音声認識の誤りを発見し,また訂正するか,という捉え方をしてきた.あるいはそもそも入力の不正確性は音声認識器に起因する問題であるので,理想の音声認識器を考えることで入力の不正確性に伴う問題を回避してきた.これに対し本研究では,現実的な環境を考えた場合に,音声認識誤りのない状況を仮定して言語処理を行なうことは今後しばらく賢明でないという立場を取る.あるいは音声認識の誤り訂正技術の進歩によっても,音声言語処理において誤入力のない状況を想定することは現実的な仮定でないと考える.よって,音声認識後の各処理部がこれら不正確な入力に対して性能を劣化させないという頑健性の考慮,すなわち,\vspace*{\baselineskip}\begin{itemize}\item如何にして不正確な入力に対して言語処理を行なうか\end{itemize}\vspace*{\baselineskip}\noindentが,音声言語処理においては重要である.ところで,対話においては相手と互いにコミュニケーションを取りながら進行していく.このため発話によって伝達される情報は自己完結的でなく,その結果発話の様々な要素の省略がより頻繁に起こりやすい.特に,本論文の対象である日本語対話では,その言語的性質から多くの場合に文の主語が省略される.日本語における主語の省略は,主語が必須格である英語やドイツ語などへの翻訳の際には大きな問題となり,主語の補完処理は必須の処理となる.以上のように,音声対話処理における入力誤りへの頑健性を考慮した主語補完処理は音声対話処理の実現のための重要な処理の一つである.これは田中の分類による言語表現の多様性分類\cite{田中穂積}に従えば,音響レベルにおけるエラー\footnote{田中の分類は言語表現の分類であるため音声認識誤りは考慮されていないが,処理の観点では誤発声や言い淀みと同様に考えてよいであろう.}を考慮しながら統語レベルの情報不足(省略)の問題解決をしなければならないことを意味している.実際の音声言語システムにおいてはこのように異なるレベルの多様性を同時に考慮する必要があるにもかかわらず,このような研究は従来行なわれていない.主語の補完手法に関しては,次節で述べるようにこれまで様々な手法が提案されてきた.ところが従来の主語補完手法は,誤りのない文に対して形態素解析,構文解析が成功した後に処理されることを仮定していた.このため誤りを含む可能性のある文に対する処理は考慮外であった.これに対し本論文では,入力の一部に誤りがある状況において,性能劣化を如何に最小限に抑えるかについて議論する.誤り部分が入力のどこなのかは明らかでなく,入力に誤りがないかもしれない.ただし,本研究では述語に誤りはなく,また省略の検出は正しく行なわれることを仮定する\footnote{述語が誤っている場合,及び入力文に省略があるという認識がない場合はそもそも省略補完問題として成立しないためである.}.また,属性として使用している言語外情報も,音声認識結果とは無関係の情報であるので,これも誤りはないと仮定する.本論文ではまず,本問題に関係する文献の紹介を行なった後,既提案の決定木学習に基づく主語補完手法\cite{主語補完}\footnote{文献\cite{主語補完}では主語以外の格要素に関しても考察を行なっているが,本論文では議論を主語に限定する.ただし,本論文において行なう議論はそのまま他の格要素についても同様に有効である.}を概観し,この頑健性について考察する.次に,より頑健性を持ったモデルを提案し,実験結果からこの有効性を議論する{}\cite{NLPRS99}.最後に,人工的な問題によるシミュレーションを行ない,モデルの問題依存性と属性組み合わせに関して議論する\cite{ICSLP2000}.
V10N02-04
\label{sec:hajime}実際に使用された文例を集めたコーパスは,コンピュータによって検索できる形で準備されることにより,自然言語の研究者にとって便利で重要な資料として利用価値が高まっている.コーパスの種類としては,文例のみを集めた生コーパス(新聞記事など多数がある),文例を単語分けして品詞情報などを付加したタグ付きコーパス(ここでは{\bf品詞タグ付きコーパス}と呼ぶ),さらに文の構文情報を付加した解析済みコーパス\cite{EDR2001}\cite{KyouDai1997}の三種類に分類される.付加情報を持つコーパスは,特にコンピュータによる自然語情報処理において重視されている.しかし,その作成には,対象言語の知識を持つ専門家を含む作成者の多大の時間と手間を要し,作成を容易にして量を揃えることが一つの課題である.最近,日本語の古典をCD-ROMなどに収容する「電子化」の動きが盛んである.これらの提供する古典テキストは生コーパスとして利用できる.さらに単語や品詞の条件による対話検索機能を含むものがあるが,通常は,品詞タグ付きコーパスとして利用することができない.つまり,古典文の品詞タグ付きコーパスはほとんど公開されていない.日本の古典の研究者が従来使用してきた研究補助手段として索引資料がある.特に,いわゆる{\bf総索引}は,「ある文献に出てくるすべての事項・字句とその所在箇所を示す索引」\cite{Nikkoku2001}であり,多数の古典に対して作成され利用されている\cite{Kobayashi2000}.総索引の多くは,単語とその品詞の組からそれを含む文を参照できるなど,言語の研究に必要な情報を含み,その情報内容は品詞タグ付きコーパスに匹敵する.しかし,品詞タグ付きコーパスは,単語・品詞などによる検索機能\cite{Oota1997}\cite{EDR1999}\cite{Suzuki1999}の実現が可能なほかに,単語の列,品詞の列,単語と品詞の対応などを網羅的に調べて統計的に処理する統計的(確率的)言語処理\cite{Kita1996}に利用することができることが重要である.総索引は単語と品詞からその本文での出現箇所を与えるが,単語や品詞の系列に関する情報を与えることはできない.そこで,古典の総索引を変換し品詞タグ付きコーパスを作成する方法を実現し,実際に,平安時代の歌物語三篇\cite{UTA1994}と日記五篇\cite{NIKKI1996}について実験した.品詞タグ付きコーパスの形式は,基本的には,{\bfEDR電子化辞書}の{\bf日本語コーパス}\cite{EDR2001}の形式に従った.使用した総索引資料は,本文編と索引編とから成り,後者は,単語の仮名表記・漢字表記・品詞情報を見出しとして,その単語の本文での出現位置の全てを行番号のリストとして与えている.索引語は,自立語・付属語を問わず全単語である.変換処理の条件と考慮事項は次の通りである.総索引の活用語の見出し表記は終止形で与えられ,その品詞情報として活用型と活用形の名称(ここでは,未然形などを「活用形の名称」と呼び,「活用形」は活用語が活用した具体的な文字列を示すものとする)が与えられるので,変換機能には活用表の知識を保持した.しかし,処理を簡単にするため,単語辞書や単語間の接続可能性などの文法知識は保持しないこととした.総索引は単語の出現位置情報を本文の行番号で与えるが,品詞タグ付きコーパスでは行内の単語位置にタグを付ける必要がある.そこで,ある単語の部分文字列が他の単語の文字列と一致することがあり,これらが同一行に出現する場合の行内の位置決めの問題が生ずる.これに対処するため一種の最長一致法を用いた.総索引の見出しの漢字表記が,まさに漢字のみの表現であり,送り仮名等の単語を構成する仮名文字部分を含んでいないため,本文との照合が完全には行なえないという問題に対しては,照合条件を緩める一種の先読み処理法を用いた.これらの対処によっても照合が完全でない部分については,変換途中に人手によるチェックと修正を行なうこととした.この作業を容易にするため,照合の不完全の部分を示す中間結果を出力した.総索引情報自体に誤りが皆無ではなく,そのための照合失敗もあり得るが,これも人手修正の対象である.この人手作業の結果を取入れて,最終的なコーパス形式の出力を行なう.タグ付きの日本語コーパスの作成例には,EDR電子化辞書の日本語コーパス\cite{EDR2001}や京大コーパス\cite{KyouDai1997}がある.これらは品詞タグの他に構文情報を含む.総索引からの品詞タグ付きコーパスの作成については発表を見ない.欧州では,{\bfコンコーダンス}(concordance)と呼ばれる索引資料が聖書や古典作品に対して作成されており,KWIC(KeyWordInContext)形式で単語の使用例と所在を示している.ただし,単語の品詞などの文法情報は与えられていない\cite{Witten1999}.そのため品詞タグ付きコーパスの変換には用いられないと考えられる.以下,まず\ref{sec:Conc&Corpus}節で総索引と品詞タグ付きコーパスの概要を記し,\ref{sec:trans}節で,実験に用いた総索引と品詞タグ付きコーパスの内容・形式と前者から後者への変換方法を示し,\ref{sec:result&}節で変換実験の結果とその検討を記す.最後に\ref{sec:musubi}節で,まとめと課題を記す.
V06N06-04
\label{section:intro}日本のテレビ番組における字幕付き放送の割合は10\%程度と低く,近年,字幕放送率向上を目指し,自然言語処理技術を応用した効率的な字幕生成が切望されている\cite{EharaAndSawamuraAndWakaoAndAbeAndShirai1997}.番組の音声情報を字幕化するには,文章を適度な長さに要約する必要があるため,本研究では,ニュース原稿(テキスト)を入力とした,字幕生成のための自動要約を試みた.本要約手法では,ニュース文の特徴を利用し,1文ごとの要約を行っている.テキスト自動要約研究の多くは,テキスト中の文もしくは文のまとまりを1単位とし,何らかの情報に基づき重要度を決定,抽出することで要約を行う.このような要約手法は,文献検索において原文の大意を把握するための補助などに用いられ,成果を上げている\cite{SumitaAndChinoAndOnoAndMiike1995}.ニュース番組における字幕生成では,ニュース原稿の第1文(全体の概要を述べる場合が多い)を抽出することによる要約が考えられるが,画面に表示されるVTRなどとの対応を考慮に入れると,必ずしも十分でない.文単位の抽出においては,照応や文の結束性を保つため,採用文の前文も採用するなどの対策が講じられているが\cite{ChrisD.Paice1990},不要な文まで芋蔓式に採用してしまう場合もあり,結束性と首尾一貫性をより高めるには後編集を行う必要があるなど,その困難さも同時に報告されている\cite{YamamotoAndMasuyamaAndNaito1995}.また,与えられたテキストから必要な情報を抜き出す手法として,情報抽出研究が注目されている\cite{JimCowieAndWendyLehnert1996}.この手法は,領域が限定された記事に対しては有効である.しかし,与えられたニュース原稿には「事件」,「政治」といった領域を限定する情報が与えられておらず,字幕文生成への情報抽出手法の適用は難しいと考えられる.ニュース文は新聞記事に比べ,1文中の文字数が多く,1記事あたりの文数が少ないという特徴を持つ\cite{WakaoAndEharaAndMurakiAndShirai1997}.このため,字幕用の要約文を生成するために,文を単位とした抽出を行うと,採用される情報に大きな偏りが生ずるという問題がある.若尾ら\cite{WakaoAndEharaAndShirai1998_7}は,自動短文分割後,重要文を抽出することによるニュース文の自動要約を行っている.これに対し,本手法は,ニュース原稿における各文はそれぞれ同様に重要であり,画面との対応や記事全体での結束性を重視するという立場から,ニュース文の構文構造を利用し,文中の修飾語句等を削除することによる,1文ごとの要約を行っている.1文の一部を抜き出すことで,より自然な文章を生成するには,残存部に係る部分の削除を避けなければならない.本手法では,ニュース文の各文における最後尾の動詞は重要であると仮定し,これに係ると考えられる部分を残すことにより,不自然な要約文の生成を防いでいる.また,本研究は,言い替えによる要約\cite{YamasakiAndMikamiAndMasuyamaAndNakagawa98}を後処理に適用し,最終的な字幕文を生成することを想定しているが,本論文では両手法を併用せず,本要約手法の分析に焦点を絞った.本要約手法についての背景,目的等は,\ref{section:news}節でも詳述する.自動要約研究においては,正しい要約を唯一に定義することが困難なことから,その評価についても様々な手法が用いられる.その一つに,人間の被験者の生成した要約文と,システムが生成した要約文を比較する評価法があるが,複数の被験者の要約が高い割合で一致することは難しいと考え\cite{OkumuraAndNanba1998},システムによる要約文を被験者に数値で評価させる手法をとった.同様の手法による評価を山本ら\cite{YamamotoAndMasuyamaAndNaito1995}が行っているが,数値のみで評価した場合,被験者が不適切と判断した箇所を特定するのが難しいという問題がある.山本らは被験者に対し,質問項目以外に感想を求めており,それを分析することで要約の不適切さの原因やその改善を検討している.本論文においては,要約が不適切な箇所をより特定し,分析を行うことを考え,実施したアンケートでは数値による評価に加え,要約が不適切と思われる箇所を被験者に指摘させた.自動要約の評価法に関しては,他に,要約を利用したタスクの達成率を見ることにより,間接的に要約文の評価を行うものがある.住田ら\cite{SumitaAndChinoAndOnoAndMiike1995}は,抄録文の文書集合から,設問に対応する文書を選択するというタスクを被験者に与え,選択された文書数と正解の文書数から再現率を求めている.しかし,本論文では字幕文生成の要約のため,適切なサブタスクを設定することが難しく,また,被験者の持つ知識の差を考慮した場合,その評価が難しいと予想されるため,用いなかった.以下,\ref{section:news}節でニュース文要約の目的,手法およびニュース原稿の特徴等について述べ,\ref{section:shuhokousei}節から\ref{section:sakujobunsetusentaku}節で,提案する1文ごとの自動要約手法について述べる.\ref{section:evaluation}節では,アンケート調査に基づき,本手法を評価する.\ref{section:observation}節では,自動要約実験およびアンケート調査によって明らかになった,本要約手法の問題点等を考察する.なお,入力コーパスとして,NHK放送技術研究所との共同研究のため提供された,NHK汎用原稿データベースを使用した.
V27N01-05
辞書は言葉に関するさまざまな特徴を集積したものである.発音・形態論情報・品詞・単語分類・統語情報・意味情報・位相・語源・語釈などにより整理される.単語の使用実態に基づく言葉の特徴として{\bf単語親密度}がある.単語親密度は,人々がどのくらいその単語を知っているのか・使うのかといった,人の主観的な評価に基づく指標である.NTTコミュニーケーション科学基礎研究所による『日本語の語彙特性』\cite{Amano-1999}は,単語親密度を含む情報を『新明解国語辞典第四版』の見出し項目約80,000語について付与した.また同データは朝日新聞の1985年から1998年の14年分の記事データにおける頻度情報も含む.しかしながら,評定情報の収集や頻度情報が20年以上前のものである.本研究では,最近の単語親密度を評定することを試みる.日本語のシソーラスである『分類語彙表増補改訂版』\cite{WLSP-2004}の電子化データ『分類語彙表増補改訂版データベース』(以下「分類語彙表DB」と呼ぶ)の語彙項目94,838語を対象に,単語親密度付与を行った.評定値の収集にあたっては,「知っている」の観点のほか,生産過程$\Leftrightarrow$受容過程や書記言語$\Leftrightarrow$音声言語の位相情報を含めるために,「書く」「読む」「話す」「聞く」の4つの位相情報についても質問事項に含めた.安価に,そして,継続的に調査を行うためにクラウドソーシングにより評定値の収集を行った.しかしながら,「日本語の語彙特性」の調査のように{研究協力者}に対する統制などに制約があり,研究協力者の個体差の影響を受ける問題がある.この問題を緩和するために,収集されたデータをベイジアン線形混合モデル(BayesianLinearMixedModel:BLMM)\cite{Sorensen-2016}によりモデル化を行う.またシソーラスに単語親密度を付与することにより,統語分類・意味分類に基づく親密度・位相情報の評価もできるようになった.本研究の貢献は以下の通りである:\begin{itemize}\item日本語の大規模シソーラスに対する単語親密度情報の網羅的収集を行った.\item単語親密度の評定にクラウドソーシングを用いた.\item単語親密度の観点において「知っている」だけでなく,「書く」「読む」「話す」「聞く」の4つの位相情報についても検討し,単語の位相情報も評価した.これにより,生産過程$\Leftrightarrow$受容過程や書記言語$\Leftrightarrow$音声言語の対照比較ができる.\item単語親密度の統計処理にベイジアン線形混合モデルを導入し,研究協力者の個体差の影響の軽減を行った.\item語彙項目は分類語彙表DBの見出し語を用いた.分類語彙表の統語・意味分類に対して親密度が推定できるほか,UniDicと分類語彙表の対応表\cite{Kondo-2018}と形態素解析器を用いて親密度を自動付与できる.さらに,『岩波国語辞典第五版』の語釈文と分類語彙表の対応表\cite{呉-2019}の整備も進んでおり,語釈文との対照できる.\end{itemize}本稿の構成は以下の通りである.2節では関連研究について示す.3節ではクラウドソーシングに基づく単語親密度推定手法について示す.4節で結果を示し,5節にまとめと今後の展開について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V28N02-07
ニューラル機械翻訳(NeuralMachineTranslation,NMT)の発展\shortcite{luong:2015:emnlp,vaswani:2017:nips}により,ニュース記事のような文体の整った入力に対する翻訳品質は著しく向上し,一部の言語対においては既に人間の翻訳に匹敵するレベルにまで到達したと言われている\shortcite{hassan:2018,barrault:2019:wmt}.しかし,そのめざましい発展をもってしても,ソーシャルメディアに見られるようなユーザ生成コンテンツ(User-GeneratedContents,UGC)に対するNMTの適用可能性は依然として極めて限られている\shortcite{michel:2018:emnlp}.一方で,ソーシャルメディアなどの普及に伴い,UGCが我々の日常生活に与える影響は非常に大きなものとなっている.例えば,それらのサービスへの投稿はユーザの購買行動の決定にも重大な影響を及ぼすことが報告されている\footnote{\url{https://stackla.com/resources/reports/the-consumer-content-report-influence-in-the-digital-age/}}.そのような背景において,\citeA{berard:2019:wngt}はFoursquare\footnote{\url{https://foursquare.com/}}に寄稿されたレストランのレビューに着目し,異文化交流の促進に向けて実応用を見据えた翻訳タスクを設計した.近年ではUGCに対して頑健な翻訳システム構築への関心の高まりと共に,ソーシャルメディア上のテキストの翻訳精度を競うコンペティションも開催されている\shortcite{li:2019:wmt}.当該コンペティションにおいて,翻訳の評価は従来の機械翻訳出力に対する評価と同様に,あるひとつの包括的なデータセットに対してひとつの全体スコアを付与する手法で行われている(図\ref{fig:overview}a).しかし,我々はこの評価における改善は必ずしもモデルの頑健性を説明していないと考える.例えば,訓練データ規模の異なる2つのモデル出力に対してBLEUスコアの比較を行い,スコアの改善をもってあらゆる事象に対する頑健性を結論付けることは危険である.UGCにおける機械翻訳システムの性能向上への端緒を見出すためには,翻訳品質の低下を招く要因を明らかにし,実際にそれらが改善されていることを示すことのできる確かな基盤が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-2ia6f1.pdf}\end{center}\caption{一般的な機械翻訳評価の手法と我々のデータセットによる現象毎評価の比較.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで本研究では,機械翻訳システムの精緻な評価に向けた第一歩として日英機械翻訳に焦点を当て,日本語ユーザコンテンツに含まれる特定の言語現象が出力に及ぼす影響を調査する.具体的には,既存の評価データセットに対して,新たに固有名詞,名詞の省略,口語表現,異表記の4つの言語現象に着目したアノテーションを付与することで,言語現象毎評価データセット\textbf{PheMT}(\textbf{Phe}nomenon-wiseDatasetfor\textbf{M}achine\textbf{T}ranslationRobustness)を構築した(図\ref{fig:overview}b).文中の特定の表現に注目することにより,ある言語現象を正しく扱えるかどうかを翻訳正解率を用いてより直接的に測定することを可能にした.また,ある現象がモデルに及ぼす影響は,その現象の存在を取り除いた場合との差分により評価できるというアイデアのもと,人手による当該表現の正規化を行った.原文と正規化後の文を入力した際の評価指標の差異の測定により,個々のモデルが元来有する表現能力の違いに起因する影響を取り除き,当該表現が翻訳文全体の品質に与える影響を測定する.構築したデータセットを用いた評価と分析を通して,UGCという限定されたドメインにおいても依然として十分に翻訳することのできない対処すべき現象が存在することを明らかにする.本論文の貢献は以下の2点である.\begin{enumerate}\item{日英機械翻訳における詳細なエラー分析のための第一歩として,日本語ユーザコンテンツに頻繁に現れる言語現象に着目した評価データセットを構築した.}\item{構築したデータセットを用いた評価と分析により,広く商用に利用される機械翻訳システムを含む最先端のNMTモデルにおいても,依然として多くの課題が残されていることを明らかにし,今後の機械翻訳評価における一つの方向性として言語現象毎評価の可能性を示した.}\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V31N03-04
人間は,小説を読む際,そこに出てくるセリフが誰のセリフなのかを理解しながら読み進めることができる.これは,テキスト中に,話者を特定する手がかりが十分に与えられているからである.代表的な手がかりとして,次のものがある.\begin{enumerate}\itemセリフの前後の地の文において,『Aは言った』のような形式で,話者が明記される\item連続するセリフでは,話者が交替する(話者交替)\itemセリフの口調や発話内容から,話者が特定できる\end{enumerate}これらの手がかりのうち,どの手がかりが多く与えられるかは,個々の小説によって異なる.たとえば,英語の小説\textit{PrideandPrejudice}では,前後の地の文で話者が明記されるセリフが,全体の約25\%を占めると報告されており\cite{He},コンピュータによる話者の自動推定の研究でも,話者の明記や話者交替を主な手がかりとして利用する方法が主流である\cite{He,Muzny}.一方,日本語のライトノベル\cite{Ohmori2004,Ishii2022}では,話者が明記されるセリフは比較的少ない.さらに,話者候補が明記されていても話者を特定できない場合もある.次の例におけるセリフ$U_3$と$U_4$が,その一例である\footnote{$N_i$は地の文を,$U_j$はセリフを表す.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{screen}$N_1$:そう即答したステフに。\\$N_2$:しかし兄妹は、対照的にうつむく。\\$U_3$:「……いい、な……」\\$U_4$:「……ああ、そう言い切れるのは、ホントに羨ましいよ」\\$N_5$:だが------兄は静かな声で、しかし問答無用に。\\$N_6$:ステファニー・ドーラの、その希望を切り捨てる。\\$U_7$:「だがその願いは叶わない」\\\rightline{『ノーゲーム・ノーライフ』\cite{ノーゲーム・ノーライフ}pp.~143--144より}\end{screen}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この例のセリフ$U_3$と$U_4$は,兄妹のいずれかのセリフであることが文$N_2$から推測できる.しかし,どちらが兄で,どちらが妹のセリフであるかは,周辺の地の文だけからでは判定できない.この2つのセリフの話者を推定する主要な手がかりは,セリフの口調にある.読者は,この場面に至るまでに,兄妹がそれぞれどのような口調を使うかを無意識に学習しており,それに基づいてセリフの話者を同定する.ライトノベルではこのようなセリフが多いため,ライトノベルを対象とした話者の自動推定では,セリフの口調に基づいて話者を推定することが必要になると考えられる.なお,本研究では,口調を,セリフの表記に現れるスタイル的特徴を包括する概念と定義する.すなわち,口調とは文末表現などの特定の要素を指し示すものではなく,文末表現や一人称,語彙,セリフの長さなど多様な特徴の複合体と捉える.与えられたセリフの話者を推定する方法としてすぐに思い付くのが,話者をクラスとして,セリフを話者クラスに分類する分類器を実現する方法である.しかし,登場人物は個々の小説で異なるため,このような分類器の学習には,対象小説の登場人物のセリフを集め,それに話者ラベルを付与した学習データが必要となる.話者の明記などの手がかりを用いて話者が確定するセリフを自動収集することは可能であるが,分類器の学習に十分な量の学習データを集めるのは難しい.そこで本研究では,多くの小説に横断的に見られる口調に着目し,セリフと話者を直接結びつけるのではなく,口調を介してセリフと話者を結びつける方法を採用する.具体的には,対象小説以外の小説のセリフデータを利用して,セリフを口調の特徴を埋め込んだベクトルに変換する\textbf{口調エンコーダ}を実現する.そして,口調エンコーダによってもたらされるベクトル(口調ベクトル)を用いて,少量のラベル付きセリフデータから話者を推定する方法を実現する.本研究の目的は,このような,口調を手がかりに利用した話者推定システムを実現し,日本語のライトノベルの話者推定に対する口調の有効性を確かめることである.話者の自動推定とは,セリフに対する話者ラベルの自動付与を意味する.つまり,話者の自動推定が実現できれば,各セリフに話者ラベルを付与した小説テキストデータの作成が容易となる.このようなテキストは,発話の理解や小説の理解を目指す研究のための基礎資料となる.同時に,特定のキャラクターを模した対話システム\cite{なりきりAI,なりきりAI2,なりきり対話}の実現のために必要な,対象のキャラクターのセリフの収集を容易にする.本論文の貢献は次の通りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\itemセリフの口調をベクトル化する方法として,文エンコーダと分類器を組み合わせた口調エンコーダの基本構成を提案した.さらに,口調エンコーダの実装として80種類の構成を検討し,どのような構成が優れているかを実験的に明らかにした.\item口調ベクトルを利用した話者推定法として,\textbf{口調に基づく話者同定}を提案した.この手法では,セリフ実例から話者の口調を表すベクトル(代表口調ベクトル)を算出し,話者を同定したいセリフの口調ベクトルと各話者候補の代表口調ベクトルの距離に基づき,話者を同定する.この手法が必要とするセリフ実例の数は,各話者に対して10件程度であり,大量のセリフ実例を必要としない点に特徴がある.さらに,口調に基づく話者同定では,あらかじめ話者候補を絞り込んでおくことが効果的であることを確かめた.\item日本語のライトノベルを対象とした話者推定システムとして,口調に基づく話者同定の前段に,話者候補生成モジュールを配置したシステムを提案した.このシステムでは,前段のモジュールで話者が確定したセリフを代表口調ベクトルの算出に使用するため,あらかじめセリフ実例を準備する必要がない.\item上記の話者推定システムを5つの作品に実際に適用し,口調エンコーダで生成した口調ベクトルが,話者推定に活用できることを実験的に明らかにした.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V27N04-08
我々は文章を読解する際,単語や句,節,文などを単独の表現として読解するのではなく,周辺の表現との意味的なつながりを理解しながら読み進めている.このようなつながりを談話関係と呼び,談話関係を解析するタスクを談話関係解析と呼ぶ.具体例を示す.\ex.\label{ex:sample}\begin{enumerate}\renewcommand{\labelenumi}{(\roman{enumi})}\item恐ろしいほど雨が降っていたせいで,\item昨日は外出できなかった.\item一昨日の天気予報では降らないと言ってたんだけどなぁ.\end{enumerate}例\ref{ex:sample}の(i)と(ii)は「雨が降っていたのが原因で外出できなかった」という意味的なつながりを持つので,「(i)が原因,(ii)が結果」という談話関係を持つ.同様に,(i)と(iii)は「一昨日は降らないと言っていたのに,雨が降った」という意味的なつながりを持つので,逆接の談話関係を持つ.一方,(ii)と(iii)は(i)と(ii)や,(i)と(iii)のような強い意味的なつながりを持たないと解釈できる.談話関係解析は自然言語処理の基盤的な解析の一つであり,英語ではPennDiscourseTreeBank(PDTB)\cite{Prasad:LREC2008}やRSTDiscourseTreebank(RST-DT)\cite{Carlson2001}と呼ばれるコーパスを使って様々な研究が行われている.しかし,日本語では因果関係抽出など談話関係の一部を取り扱った研究\cite{takahashi:nlp2016}や形態素・構文・意味解析結果をもとに文書全体の談話関係を解析する研究\cite{umesawa:jnlp2001}はあるが,コーパスベースの談話関係解析の研究はほとんどない.本研究では日本語の談話関係解析を実用化するため,日本語の談話関係解析タスクを定義し,談話関係タグ付きコーパスを高速な手法で構築する.本研究ではPDTB2.0\cite{Prasad:LREC2008}を参考にして日本語の談話関係タグ付きコーパスを構築する.PDTBを参考にする理由は,RST-DTは文書全体の談話関係を1つの木構造で表現するためアノテーションが非常に困難であることと,隣接する談話単位間に談話関係タグを付与するPDTBの設計思想が世界的に広がっているからである.PDTBでは談話単位,談話標識,談話関係タグの3項目のアノテーションが実施されている.談話単位とは談話関係を付与する単位であり,PDTBでは談話単位ができる限り短くなるようにアノテーションされている.談話標識とは「なので」や「しかし」といった談話関係を直接示す表現を指す.談話標識を持つ談話関係(以降,明示的と呼ぶ)は談話標識が大きな手がかりとなるため解析精度は非常に高い一方,談話標識を持たない談話関係(以降,非明示的と呼ぶ)の解析は非常に難しいことが知られている\cite{sharedtask:conll2016}.前述の例\ref{ex:sample}では,(i)と(ii)の関係は「~せいで」という談話標識を持つので明示的な談話関係,(i)と(iii)の関係は談話標識を持たないので非明示的な談話関係に分類される.談話関係タグは談話単位間に存在する談話関係を表すタグであり,PDTB2.0は3階層,下位30種類からなる談話関係タグセットを定義している.PDTBは談話単位について具体的な認定基準を定めておらず,アノテータの判断で様々な長さのまとまりが談話単位としてアノテートされており,自動認識が容易ではない.近年は,大規模ラベルなしコーパスからの事前学習の有効性が認識されている\cite{BERT:NACCL2019}が,PDTBに基づく談話単位の自動認識の難しさは,大規模ラベルなしコーパスを効果的に活用する上で障害となっている.また,高度なテキスト理解の実現のためには,談話関係解析を述語項構造解析などの他の自然言語処理タスクと連携させることが有望な方策だが,談話単位の独自性が,やはりタスク間連携の妨げとなっている.また一部の談話関係タグの出現頻度が非常に低いため,これまでの研究では一部のタグが無視されている.本研究では,談話関係タグ付きコーパスを高速に構築する手法を提案する.本手法のポイントは以下の4点である.\begin{itemize}\itemWebページの冒頭3文を収集したコーパスにタグ付けを実施する.\itemルールベースの解析器を構築し,談話単位の自動認識を行う.\item談話標識を自動認識する高精度な解析器を整備する.\itemタグセットをPDTB2.0よりも簡潔な2階層,下位7種類とする.\end{itemize}談話関係タグのアノテーションは,熟練のアノテータによる小規模だが高品質なものとクラウドソーシングを用いた大規模なものの2種類を構築する.クラウドソーシングを用いた場合,安価かつ高速に大規模なアノテーションを行うことができるが,一般的に専門家に比べて品質が劣ると言われている.そこで,コーパスの品質向上を目指して,タスクを分割する,クラウドワーカーに言語テストを提示するなどの工夫を用いる.本研究では,500文書からなる高品質なコーパスと6,445文書からなる高速かつ大規模なコーパスが構築された.分析の結果,クラウドソーシングを用いた大規模コーパスは熟練のアノテータによるものに比べて低品質であることがわかった.これは,様々な工夫をしたものの談話関係タグ付けタスク本来の困難さが依然として残っていたことや,注意深く・真面目に取り組んでいるワーカーとそうでないワーカーの差が激しかったことが原因だと考えられる.そのため,タスクをさらなる分割や談話標識の自動認識の活用を通して,クラウドワーカーに提示するタスクをより簡潔にする必要がある.本研究で構築した談話関係解析タグ付きコーパスを用いて談話関係解析器を訓練する.実験の結果,クラウドソーシングのアノテーションはニューラルネットワークベースの談話関係解析器を学習する際に一定の効果があることが分かった.また,本研究で整備した談話標識の自動認識は明示的な談話関係のみに焦点を絞った解析とみなすことができる.そこで談話標識の自動認識について評価したところ,高精度であることが分かった.このことから,談話標識の自動認識は精度が高い談話関係解析結果のみを抽出して別のタスクに応用するという用途において利用可能だと考えられる.したがって,今回整備した自動認識は因果関係抽出\cite{takahashi:nlp2016}や言論マップ\cite{Murakami2009},商品レビューを整理する応用システム\cite{kiyomaru:nlp2020}など,談話関係解析を応用した研究に適用可能である.本研究は,日本語のコーパスベースの談話関係解析の研究はほとんどないという現状を打破するために行った研究である.そのため,タグセットの簡単化や短い文章を対象してアノテーションを行うなど,問題を限定して設計を行っている.現状の規模でも日本語のコーパスベースの談話関係解析の研究に貢献できると考えているが,さらなる発展のためにはコーパスの拡張が必要である.本研究で構築した日本語談話関係タグ付きコーパスを公開している\footnote{http://nlp.ist.i.kyoto-u.ac.jp/?日本語談話関係解析}.また,節と談話標識の自動認識ルールは日本語構文・格解析器KNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/?KNP}に実装されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V15N05-02
\label{sec:intro}言語横断情報検索や言語横断質問応答,機械翻訳などの2つの言語に関わる処理を実現するには,その言語対に対する大規模対訳辞書などの言語横断言語資源が必要である.情報流通技術の発達に伴って,様々な言語で記述された情報を活用することが可能となりつつあり,複数言語を対象とする自然言語処理技術はますます重要な課題となることが予想される.しかし,世界には数多くの言語が存在するため,あらゆる言語対を対象として豊富な言語資源を整備することは,非現実的である.現実には,需要の大きい一部の言語対については大規模な言語資源が利用できるが,それ以外の多くの言語対については,小規模な対訳辞書しか利用できない場合が多い.もし,新規の言語対に対して対訳辞書を自動的に構築することができれば,このような状況を改善するのに非常に役立つと考えられるが,広く知られている通り,完全に自動的に高精度の対訳辞書を構築することはかなり困難である.そのため,本論文では,新規対訳辞書の自動構築というタスクに代わって,既存の小規模な対訳辞書を拡充するというタスクに着目する.まず,入力言語,中間言語,出力言語という3つの言語を考えた時,入力言語から出力言語への小規模な対訳辞書(以後,{\bfseries種辞書}と呼ぶ)と,入力言語から中間言語への大規模な辞書および,中間言語から出力言語への大規模な辞書という3つの辞書が利用できる状況を考える.この時,種辞書を拡充するというタスクは,以下の2つの条件を満たす語の訳語を推定するというタスクとして定義される.第1に,その語は,種辞書には登録されていない未知語である.第2に,入力言語から中間言語への対訳辞書と中間言語から出力言語への対訳辞書の両方を参照することにより,その語の出力言語上での訳語候補が得られる.タスクの設定から明らかに,種辞書の拡充というタスクは,2つの仮定に依存している.まず,(a)小規模な種辞書が存在しなければならず,次に,(b)先に述べた条件を満たす適切な中間言語が存在しなければならない.最初の仮定(a)から,完全に新規の言語対に対しては,このタスク設定は適用できないという制限が発生する.しかし,最近のネットワークとコンピュータの発達にともない,そのような完全に新規の言語対は少なくなりつつあり,非常に小規模な対訳辞書でも良ければ,多くの言語対について対訳辞書が利用できるようになってきている.また,英語を中間言語として考えると,多くの言語対について,後の仮定(b)が成り立つことは経験的に知られている.したがって,種辞書の拡充というタスクは,対訳辞書の自動構築よりも多くの仮定に依存していることは事実であるが,この仮定は多くの場合に問題にならないと考えられ,かつ,これらの仮定を導入することによって利用可能となる知識を用いれば,より簡単に訳語推定が可能になると期待される.種辞書の拡充というタスクは,新規対訳辞書の自動構築や,既存辞書に登録されていない新規な未知語に対する訳語の推定といった関連研究とは,2つの点で異なっている.\cite{日仏対訳辞書}は,英語を中間言語として利用し,和英辞書と英和辞書および英仏辞書と仏英辞書という4種類の辞書を利用して,新規の和仏対訳辞書を作成する方法を提案している.このような新規対訳辞書の自動構築というタスクでは,対象とする言語対についてはまったく対訳辞書が存在しない状況を想定しており,入力言語—出力言語の対訳辞書から得られる情報を考慮することは行われていない.それに対して,本論文で提案する辞書拡充というタスクは,小規模な種辞書から得られる情報をなるべく有効に利用しようとしている点で,先行研究とは異なる.\cite{ウェブから対訳を推定}は,既存の対訳辞書に登録されていない新規な未知語を対象として,大規模なコンパラブルコーパスなどを用いて訳語の推定を行っている.このような研究は,既存の対訳辞書から得られる情報を用いているという点では,辞書拡充というタスクと類似している.しかし,このような新規な未知語の多くは名詞であるため,多くの先行研究では,未知の名詞の訳語推定に特化した検討がされている.それに対して,非常に小規模な種辞書の拡充を行うには,名詞のみの訳語推定では不十分であり,動詞・形容詞などについても訳語の推定を行う必要が生じる.この問題については,\ref{subsec:辞書の分析}節で再び議論する.以下,\ref{sec:expansion}節では,中間言語を用いて対訳辞書を拡充する方法を提案する.\ref{sec:experiment}節では,入力言語をインドネシア語,中間言語を英語,出力言語を日本語として,対訳辞書の拡充を行った実験について報告する.特に,拡充された辞書を,実際の言語横断情報検索システムに組み込んで,評価した結果について報告する.\ref{sec:related_works}節では関連研究について述べ,最後に結論を述べる.
V15N03-03
質問応答技術は自然言語によって表現された質問に文書でなく情報そのもので回答する事を可能とするもので,情報アクセスの新しい形として期待されている\cite{Voorhees00}.事実に関する独立した質問に一問一答形式で回答するものを中心に研究が始められたが,近年は様々な面で研究の展開が見られ,そのひとつに対話性の重視があげられる.質問応答技術を牽引してきたといってよいTREC\cite{Voorhees05,TREC}では,TREC2001において対話的な利用を前提とした文脈処理の能力を評価する試みがなされている\cite{Voorhees01}.その後,TREC2004から,相互に独立した質問ではなく,あるトピックに関する一連の質問の集まりという形で課題を与えるようになっている\cite{Voorhees04}.文脈処理の能力を評価するものでないとはいえ,あるトピックに関して一連の質問を行うという利用場面が自然であると考えられている点が注目される.また,あるトピックに関する複数の質問にどの程度回答できるかを,複数文書要約の評価指標とすることが試みられており\cite{Mani98},ここでも,あるトピックに関する一連の質問に回答できることが重視されている.一連の質問に回答するという利用形態は質問応答システムの進むべき方向のひとつとしても議論されており,例えば,新人レポータがある事件の記事を執筆するために,彼の記事で答えられるべき大きな質問をより簡単な質問の集まりに言い換えてシステムに訊ねるという形で,アナリストやレポータが利用しうる質問応答システムへの発展が提案されている\cite{Burger01}.また,ARDAのAQUAINTprogram\cite{AQUAINT}ではアナリストが分析的に用いる質問応答システムの構築がその目的とされており,より積極的に対話的な質問応答の研究が進められている.質問の分解を含めて,分析的説明的な質問にどう答えるか,明確化等の利用者とのやりとりはどうするか等が研究の関心となっている\cite{Hickl04,Small03}.本稿では,あるトピックに関して対話的に行われる一連の情報アクセスを質問応答システムが支援する能力,情報アクセス対話の対話相手として情報を提供するために質問応答システムが持つべき能力を定量的に評価するためのタスク,IADタスク\footnote{IADは情報アクセス対話(InformationAccessDialogue)の頭文字からとった.}を提案する.質問応答システムが情報アクセス対話に参加するために必要となる様々な能力\cite{Burger01}の中で,IADタスクでは,そもそも情報アクセス対話を扱うためにはどのような質問に答えられる必要があるのか,そして,対話の実現の基本となる対話文脈を考慮した質問の解釈,つまり照応解消や省略処理等のいわゆる文脈処理はどの程度必要なのかに着目し,その能力を評価する.IADタスクは,情報アクセス技術に関する一連の評価ワークショップNTCIRWorkshop\cite{NTCIR}において,NTCIR-4のQAC2Subtask3\cite{Kato04,Kato05a},NTCIR-5のQAC3\cite{Kato05b,KatoJ06}として実施されたものに基づいている.対話的な質問応答というそもそものアイディアはNTCIR-3のQAC1Subtask3\cite{Fukumoto03}に遡るが,NTCIR-4のQAC2Subtask3での実施においてタスクの抜本的な改変を行い本稿で述べる形態を固め,同時にタスクの裏付けについての実験を行った.その後,そこでの経験を基に幾つかの洗練を行って,NTCIR-5のQAC3として実施している.ここで,評価タスクの提案という本稿の特殊性について一言述べておく.研究や技術の進展や加速のために共通の評価が必要であり.それを得るための評価タスクが重要であることは,議論の余地がまったくないとはいえないまでも\cite{Sekine05},大概の合意を得ていると思われる\cite{Ogawa02}.一方で個々の評価タスクについて考えると,ある評価タスクが価値あるものであるためには,それが評価する研究や技術が評価されるに値するものであり,かつ,その評価のために適切に設計されている必要がある.前者は研究や技術の価値の議論であり,後者も何をもって適切とするかが絡んで必ずしも明快な議論とはならない.本稿では,ここで提案するIADタスクにおいて高い評価を得たシステムあるいは技術が可能とする利用場面を示し,前者の根拠とする.加えて,後者については,少なくとも2回の実施を通じて明らかとなった問題について一定を解決を与えていることを根拠とする.設計ということで一部に恣意的な決定を含んでいるし,この評価タスクであらゆるデータが収集できるわけではない.実施できなければならないという現実性との妥協もある.そのような一連の留保を前提にしているとはいえ,本提案が,課題設定の独自性,評価に関する様々な配慮,情報収集のための仕組み等の点で,新規かつ有益なものであることを主張する.本稿の構成は以下の通り.\ref{Sec2}節でIADタスクの枠組みを説明する.タスク設計の中心となる質問シリーズを説明し,それがトピック推移の観点から収集型とブラウジング型に分類されることを述べる.加えて,IADタスクの枠組みの根拠となった実験結果を示し,このタスクによって評価される技術が可能とする質問応答技術の利用場面を示唆する.\ref{Sec3}節では,評価の枠組みとして,回答の列挙に複数の体系を許し回答の2種類の質を考慮した多段階評価手法を提案する.そして,なぜそのような枠組みが必要であるかを実例に基づいて説明する.\ref{Sec4}節ではより多くの情報を得るための補助的な仕組みとしての参照用テストセットについて説明し,それがシステムの文脈処理能力をある程度まで切り離した評価を可能とすることを示す.\ref{Sec5}節では関連する取り組みを述べ,それとの比較を通じて本提案の有効性を示し,特に収集型とブラウジング型への分類を含む質問シリーズの構成方法が重要であることを述べる.\ref{Sec6}節で全体をまとめる.また,IADタスクに対して,最先端のシステムがどのような結果を示すのかを付録にまとめた.
V12N03-05
label{intro}照応現象に関する理論のうち,最も広く論じられているのは中心化理論(centeringtheory)である.中心化理論は,注意の中心,照応,結束性の間の相互作用を説明している.しかし,照応現象等の背後にある基本原理を明らかにするものではない.もし中心化理論の背後に何らかの基本原理が存在するならば,それは談話における発話者と受話者の行動決定を説明する原理であろう.その基本原理は,客観的に計量可能な尺度に基づいて述べられるべきである.しかし,中心化理論において重要な役割を担っている顕現性(salience)という概念は,客観的に計量可能な尺度として定式化されていない.顕現性とは,人間の注意状態に関連する何らかの尺度であるが,従来研究ではCfランキングというヒューリスティクスで近似される.本稿では,参照確率という計量可能な尺度として顕現性を定式化し,その計測手法を示す.一方,中心化理論の背後にある基本原理の説明として,Hasidaら\citeyear{hasida1995,hasida1996}が提唱する意味ゲーム(meaninggame)がある\footnote{Hasidaらのアプローチを最適性理論の上で発展させる試みも行われている\cite{rooy2003,kibble2003}}.意味ゲームとは,ゲーム理論に基づいて意図的なコミュニケーションを説明するモデルであり,発話者と受話者をプレイヤーとする2人ゲームである.Hasidaらは,顕現性を上記のように参照確率とみなし,照応詞の単純さをプレイヤーの利得の一部とみなすと,この意味ゲームモデルから中心化理論が導けることを示した.彼らはコミュニケーションの一例として特に照応を取り上げて,照応現象の説明はゲーム理論に帰着できると主張している.しかし,この主張の根拠は特定の事例に関する思考実験であり,実言語データに基づいて検証されていない.本稿では日本語の新聞記事コーパスを用いて照応の意味ゲームモデルを検証し,この主張が正しいことを示す.
V13N04-03
\label{sec:intro}我々の物の理解の仕方に関する知識は多くの自然言語処理タスクにおいて重要である.物をどのような観点から理解するかということを述べる{\bf属性}の知識はその一つである.例えば,「車」の属性は「重量」,「エンジン」,「ハンドル」,「操作感」,「製造会社」などである.言い換えれば,属性とは,我々があるものについて知りたいときにそれに対する値(本論文の言い方では,「答え」)が知りたくなるような項目である.従って,属性知識の応用としては,情報の要約\cite{yoshida_wda,yoshida_ai2004_en},質問応答\cite{Fleischman_2003,takahashi_2004}などが考えられる.また,最近では機械学習や単語クラスタリングの際の素性として有用であることも示されている\cite{almuhareb-poesio:2004:EMNLP}.このような属性知識は,WordNet\cite{WordNet}のように人手で作成することも可能であるが,作成コストとカバレッジが問題となる.本研究では,これらの問題を解決するため,与えられた概念クラスの{\bf属性語}\footnote{本研究では,属性が実際に言語で表現される時の文字列を属性語と呼ぶ.テキストからの自動獲得では,実際に獲得できるのは属性語であり,複数の属性語が同じ属性を表すことがあり得るが,これらの認識は本研究の対象外とする.}をWebから自動獲得する手法を提案する.属性語の自動獲得を目指した研究はそれほど多くはない.既存研究には,質問応答を念頭において〈対象,属性,値〉という事実の集合を獲得しようとするもの\cite{Fleischman_2003,takahashi_2004}や,情報要約の際に副産物的に属性的な単語を生成するもの\cite{yoshida_wda,yoshida_ai2004_en}などがあるが,概念クラスの属性語を明示的に獲得し,その精度を詳しく評価したものはなかった.我々は,属性知識の段階での問題の性質を明らかにし,属性語をあらかじめ高精度で獲得しておくことが,最終的には質問応答などのために値まで獲得する場合などでも大きく役に立つという考えから,属性語の獲得に焦点をしぼる.属性語は語彙知識の一つと言える.これまで語彙知識の自動獲得としては,上位下位関係の獲得\cite{Hearst_1992,Shinzato_2004_NAACL04_eng},全体部分関係の獲得\cite{Barland_ACL1999},言い換え関係の獲得\cite{Barzilay01}などが試みられてきた.上位下位関係や全体部分関係など名詞間の関係の獲得に関しては,目的の関係を特異的に示す言語的あるいは書式的なパターン,その他の統計的な手がかりを相補的に用いて獲得するアプローチがある程度の成功をおさめている\cite{Hearst_1992,Barland_ACL1999,Shinzato_2004_NAACL04_eng}.以下で概要を述べるが,本研究で提案する獲得手法もこの範疇に入る.本研究で提案する獲得手法では,クラス$C$(例えば,「車」)の属性語を獲得するために,まず,$C$を含む文書をWebから検索エンジンを用いて発見し,収集する\footnote{本論文では,混乱が無いと思われる場合には,クラスとクラスを表す語(クラス語)の両方を$C$と表記する.}.収集された文書から属性語の候補を抽出し,それらを言語的パターン・HTMLタグ・単語の出現に関する統計値を利用したスコアに従って順位付けし,スコアの高い候補を属性語として出力する.このスコアは,属性語に関する我々の観察が反映されるように設計されている.前述したように,言語的パターンは他の語彙知識獲得手法でも用いられてきた\cite{Fleischman_2003,almuhareb-poesio:2004:EMNLP,Hearst_1992,Barland_ACL1999,takahashi_2004}.特に,本研究で用いる言語的パターンは,「$C$の$A$」という助詞「の」を介したパターンである(ただし,$A$は属性語候補).このパターンは,直感的に有用と考えられ,関連研究である\cite{takahashi_2004}でも同様のパターンが用いられている.また,属性知識の特殊な場合である全体部分関係を英語を対象として獲得した\cite{Barland_ACL1999}でも「$A$of$C$」という類似したパターンが用いられている.この獲得手法の新規性は,広範なクラスに対して属性語を獲得することを目的としてWebを情報源として用いること,その際,クラスと関連の高い文書に注目するためWeb検索を用いること,それにともない,HTMLタグといったWeb特有の手がかりを利用できることにある.ただし,手法はできるだけ簡素になるようにした.標準的な言語パターンを用い,頻度やdf・idfなどの単純な積をスコアとして用いる.また,正解データの作成はコストがかかることから,\cite{Fleischman_2003}のような教師付き学習を用いるアプローチではなく,教師無しで獲得することを目指した.実験では,この提案手法で各クラスに対して上位20個の属性語を出力した時に,約73\%の適合率で厳密な属性語が獲得でき,約85\%の適合率で緩い属性語が獲得できることを示す\footnote{厳密な属性語・緩い属性語の違いについては本文で詳細を述べる.}.属性語獲得の研究では,属性語の定義,言い換えれば,獲得された属性語に対する評価基準が確立されていないことも問題になる.本研究では,質問解答可能性という考えに基づいた言語テストによる評価手順を示すことで,この問題の解決を目指す.属性語を定義するには,例えば「もし$A$が,$o$をクラス$C$に属するインスタンスとした場合に$v=A(o)$のように関数的に働き,$v$が$o$をクラス$C$の他のインスタンスから区別するのに重要であるならば,$A$は$C$の属性語である」のように分析的に定義することも可能であるが,このような分析的な定義は人手の評価で直接用いるには複雑で難しく,評価結果の信頼性も低くなると予測される.そこで,本研究では,いくつかの簡単な言語テストを用いた評価方法を提案する.言語テストは,評価者の直感を利用したYES-NOテストであり,評価者の負担が軽減され評価結果の信頼性も向上すると考えられる.提案する評価方法は「属性とは答えが知りたくなるような項目である」という我々の元々の直感を反映したもので,「その値を問うような質問文を生成でき,それに対して答えが存在するならば属性語である」という考え(質問解答可能性)に基づく.本研究ではこの考えに基づいた評価手順を設計する.属性語の判定のための言語テストはこれまでにも提案されている.例えば,Woodsは「the$A$of$o$is$v$」という表現が可能かどうかで判定できることを述べている\cite{Woods_1975}.しかし,この言語テストを自動獲得された属性語の評価に実際に適用した研究はこれまで行われていない.また,本文で詳しく述べる通り,この基準だけでは,特に日本語に置き換えたときに,重要でない語が属性語と判定されてしまうなどの誤判定が発生する可能性がある.本研究で提案する判定方法は,質問解答可能性の考え方に基づいた言語テストによって,より重要な属性語に焦点をあてるとともに,いくつかの補足的な言語テストを組み合わせることで,より正確な判定を目指したものである.最後に,いくつかの文献が指摘する通り,属性には「重さ」などの性質,「エンジン」などの部分,「操作感」などのtelic的属性,「製造会社」などのagent的属性など多くのサブタイプがある\cite{Guarino1992,GenerativeLexicon}.しかし,これらの区別が無いとしても,属性は前述した応用で有用であり,また,区別のための評価基準は複雑で安定した評価が困難になるということから,本研究ではこれらの区別は無視することにした.本論文の構成は以下の通りである.節\ref{sec:method}\,で,属性語獲得のための提案手法の詳細を述べる.次に,節\ref{sec:criteria}\,で属性語の評価基準とそれに基づく評価手順を示す.節\ref{sec:experiment}\,で,提案手法を提案評価手順で評価した実験の結果を示し,節\ref{sec:discussion}\,でいくつかの考察と今後の課題を述べる.
V08N03-02
label{hajime}一般に,手話言語は視覚言語としての側面を持つ.この視覚言語としての特性の一つは,音声言語が単語を線条的に配列し.文を構成するのに対して,単語を空間的かつ同時的に配列することで文を構成できる点である\cite{Baker1980}.また,単語の語構成においても,例えば,右手で「男」を示し,左手で「女」を同時的に空間に配置し,両手を左右から近付けることで「結婚」を,逆に「結婚」の手話表現を示し,両手を左右に引き離すことで「離婚」を表現している.すなわち,音声言語に比べて,単語を造語する際の{\gt写像性}({\iticonicity})が高い言語であると捉えることができる.また,手話単語の造語法の特徴には,この事物,事象の仕草(ジェスチャ)という写像性を持つと同時に,ある手話単語の構成要素(手の形,手の位置,手の動き)のパラメータの一部を変更したり,他の手話単語との複合表現により,別の意味を担う単語見出しに対応できる点が挙げられる\cite{Ichida1994}.例えば,日本語の単語見出し「破産」に対する日本手話の手話表現は,破産との因果関係「家が潰れる」を比喩的に表象し,「家」の手話表現,すなわち,屋根の形を構成する両手を中央で付け合わせる仕草で表現している.また,「家族」は左手で「家」の手話を構成しながら,右手で「人々」の手話を同時に提示することで表現される.さらに,「学校」は,「教える」と「家」の複合語表現として定義されている\cite{Honna1994}.このように,手話単語を構成する手指動作特徴の各パラメータは,手話単語の構造を記述する表記法として重要である\cite{Yonekawa1984}と同時に,単語の表す概念の一部を写像的に表現していると捉えることができる.これは,単語間の手指動作特徴の類似性を調べることで,その類似の特徴パラメータが示す概念特徴とは何か,すなわち,概念特徴が表現するどの部分を特徴素として抽出しているのかを解明する一つの手がかりとなると考える.さて,一般に,単語見出しは単語が担う複数の概念を表す総称的なラベルの一つである.また,意味特徴モデル\cite{Smith1974}では,概念は幾つかの特徴素の集合として表現されるとしている.この概念の特徴素には二つの種類があり,その一つは,ある概念を定義し,かつ不可欠な要素を列挙する{\gt定義的特徴}であり,他方は{\gt性格的特徴}である.例えば,日本語の単語見出し「ウグイス」の定義的特徴としては,``翼がある,飛べる,ホーホケキョと鳴く''などである.これに対して,性格的特徴は,``早春に飛来する,梅に止まる''などである.このように,性格的特徴は,ウグイスらしさを記述しているが,概念の定義として不可欠な特徴素ではない\cite{Ohsima1986}.ここで,先に示した「家」の手話表現は建物としての概念の定義的特徴を視覚的に写像しているのに対して,「破産」は,性格的特徴による表現と捉えることができる.本研究では,市販の辞書に収録されている日本手話の手話単語を対象に,複数の手話単語間に存在するであろう手指動作特徴の類似性と,その類似の手指動作特徴を含む単語間に共有される概念の特徴素とは何かを明らかにするため,手指動作特徴間の類似性による単語の部分集合(クラスタ)を求める方法について検討を行った.この類似の動作特徴を含む手話単語のクラスタの獲得は,言語学分野における,手話単語の構造や造語法を解明する手がかりとして,重要であるばかりでなく,手話言語を対象とする計算機処理にも有益な知識データの一つとなると考える.例えば,日本語と手話の橋渡しとなる手話通訳システムや電子化辞書システムでは,単語の登録や検索が重要な要素技術の一つであり,手指動作特徴からの日本語単語見出しの効率の良い検索方法の実現は重要である.このように,手指動作特徴の類似性に基づく分類方法は,検索辞書の構築に有効利用できると考える.例えば,ニュース原稿を手話通訳する現場から,新たに手話単語を造語する必要性が報告\cite{Shigaki1991}されており,造語する場合の観点として,ある動作特徴の果たしている意味は何か,あるいは,類似の動作特徴を含む他の単語との整合性があるか(既に定義されている単語との競合はないか)が重要であり,これらを効率よく調べる手段を提供できる可能性がある.このような背景から,本論文では,与えられた手話単語の有限集合を手指動作特徴間の類似性に基づき,単語のクラスタ(部分集合)を求めるための一つの分類方法を提案し,その有効性を検証するために行った実験結果について述べる.本提案手法の特徴は,市販の手話辞典に記述されている日本語の手指動作記述文を手指動作パターンの特徴系列と捉え,手指動作記述文間の類似関係から同値関係を導出し,与えられた単語集合を同値類に分割する点にある.なお,関連する研究として,従来,手話単語の構造を記述する表記法に焦点を当てた研究が言語学と工学の分野から幾つか報告されている.例えば,\cite{Stokoe1976}は,ASL(Americansignlanguage)の手話単語を対象に手の形,手の位置,手の動きを手指動作特徴の特徴素とする表記法を提案し,\cite{Kanda1984,Kanda1985}は日本手話の表記法についての検討結果を報告している.また,手話の画像処理\cite{Kamata1991}や画像通信\cite{JunXU1993}の観点からの表記法も提案されている.これらの表記法は,手話の表現を厳密に再現することを目的としているため,\cite{Naitou1996}が指摘しているように,複雑なコード体系を用いている.一方,\cite{Adachi2000}は複雑なコード体系により記号化された表現ではなく,市販の辞書中に記述されており,初学者にも親しみやすい(扱いやすい)自然言語文として表現されている手指動作記述文間の類似関係を手話単語間の類似関係とみなし,手指動作記述文間の類似度を計算することで,類似の動作特徴を含む手話単語対の抽出方法を提案している.この手法の利点の一つは,データ収集の容易さと同時に対象単語数の大規模化が容易に行える可能性がある点である.本研究では,同様に単語間の類似性を手指動作記述文間の類似性とみなす考え方を採り入れ,さらに,「単語と単語」との直接的な類似関係による単語間の関係に,推移律を満たす関係式を新たに導入することで,集合の同値関係を規定し,間接的な類似関係をも考慮した「単語対と単語対」との類似関係に焦点をあて,与えられた単語集合から同値類を抽出し分類することを特徴としている.以下,2章で,手指動作記述文間の類似度の計算方法を概説し,3章で,類似関係を表す類似行列の推移行列への変換手続きによる分類方法について述べ,4章で,本提案手法の妥当性を検証するために行った実験結果を示し,5章で考察を行う.
V09N02-03
本論文では,コーパスから事象間の関係を抽出する問題において,事象間の一対多関係を推定する問題を取り上げた.コーパスから事象間の関係を推定する場合,それらの事象は共起出現することに基づく推定を行うことが多い.しかし,そこで用いられている手法は暗黙のうちに,推定する関係が一対一関係であると想定しているものがほとんどである.しかし抽出すべき事象間の関係は一対一関係であるとは限らず,あらかじめ関係が一対多関係であることがわかっている場合もある.このような場合,これまでの一対一関係を前提とした手法が有効であるかどうかは明らかではない.一方,データベースにおいて連想規則を抽出する問題において,その規則が表す事象間の関係が一対多関係であることを考慮した手法が用いられている\cite{Agrawal96}.しかし,この手法がコーパスから事象間の関係を推定する問題に効果的であるかどうかは明らかではない.ここで,事象間の関係が一対多関係である場合,それらの事象が持つ出現パターン間の関係は一致ではなく,包含関係であることが観測される.そこで,本論文では,出現パターンの包含関係に強いとされる類似尺度を探し,この条件にあてはまる類似尺度として,文字認識の分野で提案されている補完類似度\cite{Hagita95}に着目した.そして,この類似尺度をコーパスから事象間の一対多関係を抽出する問題に適用し,その有効性を評価する.さらに,評価実験を通して,これまでにコーパスから事象間の関係を推定することに用いられている類似度やデータベースにおいて連想規則を発見することに用いられる尺度と,補完類似度との間で性能の比較を行う.これまでに用いられている類似尺度として,平均相互情報量,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数を選んだ.これらは関係の抽出に用いられる代表的な類似尺度である.また,一対多関係を推定する問題において,非対称性を持つ尺度と対称性を持つ尺度との性能差を測るために,平均相互情報量を改良し,非対称性を持たせた非対称平均相互情報量を定義し,比較対象とする尺度に加えた.実験対象となる事象としては地名(都道府県市郡名)を選んだ.地名は実世界において一対多関係を持つ事象である.実験は,人工的に生成したデータ集合と実データに対して行った.人工的に生成したデータ集合は実在する地名の一対多関係から擬似的に関係を取り出し,それをデータとして生成したデータ集合である.このデータ集合において,現存する一対多関係を再現する能力を測定した.実データを用いた実験では,実際の新聞記事における地名の出現パターンから現存する一対多関係を推定する能力を測定した.これらの実験の結果において,補完類似度はこれまでのコーパスからの関係抽出に用いられてきた類似尺度よりも優れ,連想規則の抽出に用いられる類似尺度よりもよい特性を示した.この論文は以下のような構成になっている.まず2節に,一対多関係を推定する問題を定義するために必要な要素を定義する.次に3節では,評価対象とする類似尺度の概要と,補完類似度,これと比較対象となる尺度,平均相互情報量,自己相互情報量,非対称平均相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度を示す.4節では,実験の概要と,モデルに従って生成された人工的なデータにおける実験,実データを用いた実験を示す.5節で考察し,6節で関連研究を示す.最後に7節でまとめる.
V17N01-07
\label{sec:introduction}形態素解析や構文解析など自然言語処理の要素技術は成熟しつつあり,言語理解のために意味解析・談話解析といった,より高次な言語処理の研究が盛んになりつつある.特に文の意味理解のためには「誰が」「何を」「誰に」「どうした」といった要素を同定することが重要である.「誰が」「何を」「誰に」といった名詞は\textbf{項}と呼ばれ,「どうした」のような動詞を中心とした\textbf{述語}によって結びつけられる.動詞や形容詞といった述語を対象とした項構造解析は\textbf{述語項構造解析}と呼ばれ,FrameNetやPropBankといった述語項構造解析に対する資源の整備や\cite{gildea:2002:CL}による機械学習を用いた解析手法が登場し,近年盛んに研究されている.述語項構造解析に関する自然言語処理の評価型ワークショップCoNLL2004,2005の開催に伴い,述語項構造解析研究はある程度の水準に達したが,深い言語理解をするためには,述語のみを対象とした事態性解析は十分でない.特に,文中の事態を指しうる表現としては,動詞や形容詞の他に名詞もあることが知られている\cite{grimshaw:1990}.たとえば「彼は上司の推薦で抜擢された」という文で,名詞「推薦」は「上司ガ彼ヲ推薦(する)」といった事態を指す.事態とは行為や状態,出来事を指し,述語項構造と同様の項構造を考えることができる.そこで,本稿では事態を指す用法で使われていて項を持つ名詞のクラスを\emph{事態性名詞}と呼び,事態を指す用法で使われているとき\emph{事態性}があると定義する.本研究は,事態性名詞における項構造を抽出することを目標にしている.事態性名詞の項構造解析とは,名詞に事態性があるとき項構造を決定し,項を同定する解析を指す.事態性とは文脈中で名詞がコト(事態\footnote{ここで事態性というのは名詞が特定の出来事を指している場合だけではなく,総称的に使う場合も区別せず解析の対象に含める.})を指すかモノ(物体)を指すかという意味的な違いに対応する.事態性名詞の中には「レポート」のようにレポートする行為を指すのかレポートされた結果物を表すのかといった,文脈によって事態性の有無が変化する名詞がある.そこで,文脈に応じて事態性名詞に事態性があるか否か判別する処理を\emph{事態性判別},項構造を決定して項を同定する処理のことを\emph{項同定}と呼ぶ.事態性名詞の項構造解析は,述語項構造解析と同様,文中の述語の項構造を決定し,項を同定する作業の延長と位置づけることができる.英語における動詞の名詞化や日本語におけるサ変名詞など,動詞と強いつながりを持つ名詞は数多くあり,述語項構造解析の研究成果を援用して解析を行うことが期待されている.NAISTテキストコーパス\cite{iida:2007:NL}によると,述語と名詞を含めた全事態中21.1\%が事態性名詞であり,述語項構造解析技術の次の発展方向として注目されている.事態性名詞の項構造解析は,情報抽出や自動要約,質問応答システム,言い換えや機械翻訳など,自然言語処理のさまざまな分野に応用できる要素技術の一つである.本研究の主な貢献は以下の2点である.\paragraph{(1)事態性判別の問題設定:}事態性判別,つまり事態を指しているかどうか曖昧性を判別する問題を設定し,事態性に関して曖昧性のない事例を用いた事態性名詞の語彙統語パターンのマイニング手法を提案した.\paragraph{(2)事態性名詞の項同定に有効な素性の提案:}事態性名詞の項構造と述語の項構造の関連性に着目し,2つの種類の素性を新たに提案した.特に動詞と格要素の共起が事態性名詞の項構造解析に有効かどうか検証し,項同定\footnote{本論文では項同定の問題のうち,項構造決定の問題は扱わない.以下,項同定は項構造が決定されたあとの項同定の問題を指す.}の正解率向上に役立つことを示した.動詞と格要素の共起を用いて項同定の正解率が向上したという報告はこれまでにない.また,支援動詞構文のとき事態性名詞と述語が同じ項を共有する現象に着目し,項の対応をつけた辞書を作成して,事態性名詞の項同定に有効かどうか検証した.先行研究では明示的に支援動詞構文に関する資源を作成していないが,支援動詞辞書の整備が事態性名詞の項同定に有効であることを示した.本論文の構成は以下のようになっている.まず\ref{sec:relatedwork}節で事態性名詞の項構造解析の先行研究について紹介する.本研究では事態性名詞の項構造解析を(1)事態性判別(2)項同定の2つの処理に分けて解く.\ref{sec:method}節でこの問題を解決するための方針について議論し,\ref{sec:eventhood}節で事態性の曖昧性のない事例を用いた事態性名詞の語彙統語パターンのマイニング手法を提案する.\ref{sec:syntax}節で項同定のための動詞と格要素の共起の活用と支援動詞構文の利用について述べる.
V14N01-06
\label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\kern0pt\uline{にあたって},荷物をチェックした\label{ex:niatatte-F}\itemボールは,壁\kern0pt\uline{にあたって}跳ね返った\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,文~(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現の数については,いくつかの先行研究が存在する.\cite{日本語表現文型}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{階層構造による日本語機能表現の分類}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.土屋らは,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,52種類である.本論文では,この52種類の表現を当面の検討対象として,機能表現の取り扱い状況を検討する.まず,既存の解析系について,この52種類の表現に対する取り扱い状況を調査したところ,52種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照}.52種類の表現の内,形態素解析器JUMAN~\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は31種類である.また,形態素解析器ChaSen~\cite{chasen-2.3.3}と構文解析器CaboCha~\cite{cabocha}の組合わせを用いた場合には,識別される可能性がある表現は26種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器が必要である.そのような検出器を実現する方法として,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは非現実的である.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出する方法を提案する.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha~\cite{yamcha}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた52表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.本論文の構成は以下の通りである.最初に,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べた上で,機能表現検出をチャンク同定問題として定式化する(\ref{sec:detection}章).次に,SVMを用いて機能表現検出器を実装するための詳細を説明する(\ref{sec:chunking_using_svm}章).\ref{sec:human_rule}章では,人手で判定規則を作成して機能表現を検出する手法について説明する.\ref{sec:実験と考察}章では,作成した機能表現検出器の検出性能を評価し,この検出器は,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.加えて,機械学習時に必要となる訓練データを削減する方法を検討する.\ref{sec:関連研究}章では,関連研究について述べ,最後に結論を述べる(\ref{sec:おわりに}章).
V08N04-01
本論文では,{\bf了解}の語用論的な分析を行う.語用論的な分析を可能にするために言語行為論の拡張を行い,それに基づいて{\bf了解}の分析を行う.了解の類義語として理解・納得などがある.理解は比較的浅い了解,納得は比較的深い了解を指すものであり,これらは了解の一形態である.本論文では,\begin{enumerate}\item一般に使われている了解\item理解\item納得\end{enumerate}\noindentのすべてを包含する用語として,{\bf了解}を用いることとする.了解は,様々な形態で顕現しうる.我々は,了解の顕現形態を図\ref{response}のように分類・定義する.すなわち,主として言語一文節による了解の顕現形態(例えば「はい」)を「あいづち」と呼び,「あいづち」および,「あいづち」以外の言語による了解の顕現形態(例えば「私もそう思います」)の双方を総括して「了解応答言語表現」と呼び,「了解応答言語表現」および言語によらない了解の顕現形態(例えば,うなずき)の双方を総括して「了解応答」と呼ぶ.図\ref{response}における実線矢印は包含関係を,破線矢印は例をそれぞれ示している.\begin{figure}[htbp]\begin{center}\atari(92,67)\caption{了解の顕現形態(Figure\ref{response}TheRepresentationofthe``Uptake'')}\label{response}\end{center}\end{figure}なお,あいづちの具体例としては,「はい」以外にも以下のものがある.\begin{quote}はーい,ええ,はあ,はー,そう,そうですね,そうですよね,そうそう,そうだね,そうよねー,なるほどね,うん,うーん,ふん,ふーん,ああ\end{quote}\noindentこれらは,実際の会話で具体的に観察されたものであり,頻繁に出現したものである.島津ら\cite{shimazu}は,会話における了解の顕現形態として「はい」を典型とする「間投詞的応答表現」を挙げている.彼らの研究では,非対面的会話を対象にしており,了解の顕現形態を図\ref{response}の「あいづち」(彼らの言うところの「間投詞的応答表現」)に限定している.しかし,対面的会話を対象にすると,了解の顕現形態は「間投詞的応答表現」を含む図\ref{response}のようになる.本論文では,了解応答の分析を通じて,了解の程度と過程を明らかにすることを目的とする.その際,分析対象とする了解応答は,あいづちである「はい」に限定する.従来,あいづちの分析では,国語学的あるいは文法的な分析が行われていた(例えば島津ら\cite{shimazu}による).本論文では,拡張言語行為論を用いて語用論的な分析を行う.ここでいう拡張言語行為論は,Searle\cite{searle}の言語行為論にいくつかの概念要素を追加し,既存の概念要素のいくつかを詳細化したものである.また,語用論の分野で周知の間接発話行為を詳細化したものでもある.まず第2節では,関連研究の概要を述べる.第3節ではSearleの言語行為論を概説し,第4節では拡張言語行為論の枠組みを与える.第5節では,拡張言語行為論の枠組みを用いて,あいづち「はい」による了解応答を分析し,さらに「はい」による了解の程度と過程を明らかにする.第6節では,本論文のまとめと発展的研究の可能性について述べる.
V26N01-03
近年,ソーシャルニュースサイトや討論ポータルの発展に伴い,様々な話題がオンライン上で議論されるようになった.これら議論は世の中の貴重な意見を含んでいるが,分析には関連する複数の投稿・発言の内容を理解する必要がある.これまでも対話行為の分析\cite{Stolcke2000,Bunt2010}を発展させ,議論を談話行為に基づいて分析するアプローチが提案されてきた.議論における談話行為の自動的な分類は,情報アクセスや要約の改善に寄与できると考えられている.このため,電子メール\cite{Cohen2004,Carvalho2005,Carvalho2006,Hu2009,Omuya2013},ニュースグループ\cite{Wang2007},技術電子掲示板\cite{Kim2010b,Wang2011,Bhatia2012,Liu2017},ソーシャルニュース\cite{Zhang2017}等の談話行為・対話行為が既存の研究で対象とされてきた.議論において談話行為・対話行為を分類する際には,議論のパターンを取り入れることの重要性がたびたび指摘されてきた.投稿間の関係・リンク\cite{Carvalho2005,Hu2009},投稿の位置・深さ\cite{Wang2007,Kim2010a,Kim2010b,Wang2011,Bhatia2012,Zhang2017,Liu2017}等のパターン情報は,確率的なグラフィカルモデル,構造学習モデル,系列学習モデル等と組み合わせて利用されてきた.これらアプローチは談話行為の分類において有効性を示したが,分類モデルにパターン情報を取り入れるためにタスク依存のパターン素性を設計する必要があった.本稿では議論のパターンをニューラルネットワークを用いて取り入れるモデルを提案する.近年,ニューラルネットワークを用いて木構造\cite{Socher2011,Socher2014,Tai2015}やグラフ構造\cite{Defferrard2016,Kipf2017}を学習する有効性が示されている.提案モデルではパターン素性を設計せずに,木構造学習層とグラフ構造学習層を用いて議論のパターンを学習する.既存の研究では様々な対象の談話行為・対話行為が分類されてきたが,本稿ではReddit\footnote{https://www.reddit.com/}の談話行為の分類に提案モデルを適用する.Redditは大規模なソーシャルニュースサイトであり,数多くのトピックについて日々議論が行われている.議論はスレッド単位で行われ,トピックを提供する最初の投稿および投稿に対する返信の連鎖で構成される.提案モデルの評価では\citeA{Zhang2017}の$9$種類の談話行為を対象にする.$9$種類の談話行為は{\itAnswer},{\itElaboration},{\itQuestion},{\itAppreciation},{\itAgreement},{\itDisagreement},{\itHumor},{\itAnnouncement},{\itNegativeReaction}であり,図\ref{fig:example}にこれら談話行為の例を示す.本稿では次の二つの理由でRedditを対象とした.第一に,Reddit上での議論は投稿をノード,返信関係をエッジとした木構造およびグラフ構造として表すことができる.第二に,公開されているRedditの談話行為が付与されたコーパスは大規模であり,ニューラルネットワークを用いて木構造やグラフ構造を学習するのに適している.本稿の貢献には以下の三点が挙げられる:\begin{enumerate}\item投稿間の構造に対応した,木構造学習層とグラフ構造学習層を含むモデルを提案する.\item談話行為の分類性能において,提案モデルが従来のパターン素性と系列学習を組み合わせたモデルを上回ることを示す.\item提案モデルの中間層を注意機構を通じて分析し,談話行為の分類に有効な構造を確認する.\end{enumerate}本稿の以降の章では次の内容を述べる.\ref{sec:related}章で提案モデルの関連研究を紹介し,モデルの詳細を\ref{sec:model}章で述べる.\ref{sec:exp}章で提案モデルを用いた評価実験を報告し,結果を\ref{sec:discuss}章で考察する.最後に\ref{sec:conc}章では本稿をまとめ,さらに今後の展望を述べる.\begin{figure}[t]\begin{center}\includegraphics{26-1ia3f1.eps}\end{center}\hangcaption{Redditを対象とした談話行為の例.各丸はスレッド中の投稿,赤色は最初の投稿,青色は返信の投稿,矢印は返信を表している.最初の質問({\itQuestion})が答え({\itAnswer})とユーモア({\itHumor})の返信を受けており,答えの一つはさらに謝辞({\itAppreciation})と追加情報({\itElaboration})の返信を受けている.}\label{fig:example}\end{figure}
V26N02-07
\label{sect:introduction}日本語の構文解析は,標準的に文節間の依存関係により構成される構造「文節依存構造」(あるいは,文節係り受け構造)に基づいて行われてきた.特に,CaboCha~\cite{Kudo:2002:CoNLL}やKNP~\cite{Kawahara:2006:HLTNAACL}に代表される文節依存構造に基づく解析器は高い解析精度を実現して広範に利用され,日本語の自然言語処理全般の発展に大きく寄与してきた.しかしながら,文節依存構造による構文構造の表現には,2つの問題点があることが指摘されている~\cite{Butler:2012:ANLP,Tanaka:2013:SPMRL}.一つは依存構造の単位が構文の構成素(constituent)\footnote{本論文では,名詞句,動詞句などの「句」の単位を指す.}と整合しないこと,もう一つは格関係\footnote{「誰が」「何を」「何に」と動詞などで表される名詞と述語の関係.}や連体修飾節の種別\footnote{名詞を修飾する節と名詞との関係の種類を示す.例えば「昨日見た-夢」では,「夢」は「見る」の対象になっているが,「月に行った-夢」では,「月に行った」は「夢」の内容になっている,など関係の違いを表す.}などの統語情報(以下,文法機能情報と呼ぶ)を依存構造の中に埋め込むことが困難なことである.これらの問題点は,述語項構造解析などの構文構造と密接な関係を持つ処理や,機械翻訳における事前並べ替え~\cite{Hoshino:2019:IPSJ}や多言語間の質問応答など他の言語との対応付けが必要な処理で,不都合を生じる要因となる.本論文では,構文の構成素と整合する単位に基づき,文法機能情報を埋め込むことが可能なことを特徴とする単語依存構造解析に基づく構文解析を提案する.以下では,文節依存構造解析の2つの問題点を,述語項構造解析との関係を例に具体的に説明し,我々の解決手段の概要について述べる.一つ目の依存構造の単位と構文の構成素との不整合は,構文解析結果の部分構造(一つ以上の文節が結合した単位)が,名詞句や動詞句などの構文の構成素と必ずしも一致しないということである.例えば,次の文(\ref{ex-coordination-ja1})のように文節を単位として表現された文から述語項構造を抽出することを考える.\begin{exe}\ex\label{ex-coordination-ja1}\gll$_{b1}$彼が$\mid_{b2}$飲んだ$\mid_{b3}$ワインと$\mid_{b4}$酒の$\mid_{b5}$リスト\\{}\textit{he}{\scriptsizeNOM}{}\textit{drink}{\scriptsizePAST}{}\textit{wine}{\scriptsizeCONJ}{}\textit{sake}{\scriptsizeGEN}{}\textit{list}\\\end{exe}\begin{exe}\ex\label{ex-coordination-ja1-const}\lb{NP}\lb{NP}彼が飲んだ\lb{NP}ワインと酒\rb{}\rb{}のリスト\rb{}\\\end{exe}文(\ref{ex-coordination-ja1})の文節依存構造には,4つの依存構造(係り受け構造)—並列構造を含む依存構造$b3$--$b4$と,並列構造を含まない依存構造$b1$--$b2$,$b2$--$b4$と$b4$--$b5$—が存在している.また,文(\ref{ex-coordination-ja1})には,文(\ref{ex-coordination-ja1-const})で表されるように,「ワインと酒」「彼が飲んだワインと酒」「彼が飲んだワインと酒のリスト」の3つの名詞句が階層的に含まれている.しかし,文(\ref{ex-coordination-ja1})の文節を結合してできる単位は,最初の2つの名詞句のどちらとも一致しない.この結果として,文(\ref{ex-coordination-ja1})の文節依存構造から,述語項構造を抽出しようとしたとき,述語「飲んだ」の項として並列構造を含む名詞句である「ワインと酒」を,直接的に取り出すことができない.この不一致は,他の言語との対応付けを行うときにも同様の問題を生じる.例えば,文(\ref{ex-coordination-ja1})と対訳関係にある文(\ref{ex-coordination-en})において,並列構造を含む名詞句``wineandsake''に対応付けるべき名詞句「ワインと酒」を,直接取り出すことができない.\begin{exe}\ex\label{ex-coordination-en}\lb{NP}alistof\lb{NP}\lb{NP}wineandsake\rb{}hedrank\rb{}\rb{}\\\end{exe}もう一つの問題点は,文節依存構造では,統語的に異なる構造を区別するための情報を付加することが困難な点である.その典型的な例として,内の関係の連体修飾節(関係節)と外の関係の連体修飾節(内容節や補充節)の区別がある.文(\ref{ex-coordination-ja1})は主名詞句(被修飾名詞句)となる「ワインと酒」が述語「飲む」の対格の格関係を持つ関係節\footnote{「ワインや酒」-を-「飲む」という関係を持つ.}を含み,文(\ref{ex-gapless})は主名詞句「理由と事情」が述語との格関係がない外の関係の連体修飾節(内容節)\footnote{「飲む」-という-「理由や事情」という関係を持つ.}を含んでいる.\begin{exe}\ex\label{ex-gapless}\glln$_{b1}$彼が$\mid_{b2}$飲んだ$\mid_{b3}$理由と$\mid_{b4}$事情の$\mid_{b5}$説明\\{}he{\scriptsizeNOM}{}drink{\scriptsizePAST}{}reason{\scriptsizeCONJ}{}situation{\scriptsizeGEN}{}explanation\\\end{exe}述語項構造を抽出する観点では,文(\ref{ex-coordination-ja1})の名詞句「ワインと酒」は,述語「飲む」の項として抽出するが,文(\ref{ex-gapless})の名詞句「理由と事情」は項として抽出しない.このような連体修飾節の違いを区別するためには,依存構造に文法機能情報を付加してそれぞれの統語的な機能を表示することが考えられる.しかし,文節依存構造の場合,主名詞句と文節の結合単位が一致しないため,文(\ref{ex-coordination-ja1}),文(\ref{ex-gapless})それぞれの文節$b2$と$b4$の間の依存構造に文法機能情報を付加しても,述語と主名詞句の間の関係を適切に表示しているとは言い難い.我々は,以上のような従来の文節依存構造における問題点を解決することを目的として,日本語において,構文の構成素を適切に扱い文法機能情報を明示的に扱うことのできる単語単位の依存構造による構文解析を提案する.単語依存構造では,あらかじめ文節のような固定したチャンクを依存構造の単位として設定するのではなく,全ての関係を単語単位の結合した構造として表現することにより,構文構造を柔軟に表現することを可能にする.構文の構成素との整合性を考慮するには,句構造による構文解析が有力な選択肢と考えられるが,日本語の柔軟な語順への対応のしやすさや,文節依存構造のアノテーションからの移行のしやすさの点から,依存構造を採用した.ただし,依存構造の設計は,構文の構成素に基づいた構造および文法機能情報を表している句のラベル(非終端記号)を持つことを特徴とする句構造を規範として,句構造の構造・情報を依存構造に変換する形で行った.本論文で提案する単語依存構造では,文(\ref{ex-coordination-ja1})に含まれる「ワインと酒」という並列構造は,\Fig{fig:ex-coordination-conjunction}の上の例のように表現する\footnote{本論文では,UniversalDependencies\cite{McDonald:2013:ACL,Nivre:2015:CICLing}やStanfordtypeddependencies\cite{DeMarneffe:2014:LREC}と同様に,主辞を起点として従属部に向かう方向の矢印により依存構造を表す.}$^{,}$\footnote{後述するように6種類の依存構造の構成の仕方(スキーマ)を提案する.}.すなわち,「ワイン」と「酒」という単語からなる依存構造に対して文法機能情報を表すラベル(以下,文法機能タイプ)「並列」を付加することにより,それぞれの単語を主辞とする構文要素からなる並列構造が存在することを示している.また,「ワインと酒」という名詞句は,「ワイン」「と」「酒」の3語から構成される依存構造の塊と対応付けることができる.また,文(\ref{ex-coordination-ja1})と文(\ref{ex-gapless})の区別は,\Fig{fig:ex-coordination-conjunction}のように,主名詞の主辞となる単語と連体修飾節の主辞となる述語の間の関係に,「関係節」や「内容節」のような文法機能タイプを付加することで実現できる.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f1.eps}\end{center}\hangcaption{単語単位の依存構造による構文構造の表示例.上:並列の名詞句と内の関係の連体修飾節(関係節)を含む文(\ref{ex-coordination-ja1}),下:並列の名詞句と外の関係の連体修飾節(内容節)を含む文(\ref{ex-gapless}).}\label{fig:ex-coordination-conjunction}\end{figure}日本語の単語依存構造には他に,多言語間で共通の構文構造表示を目指したUniversalDependencies\footnote{http://universaldependencies.github.io/docs/}(以下,UD)\cite{McDonald:2013:ACL,DeMarneffe:2014:LREC,Nivre:2015:CICLing}の日本語仕様\cite{Kanayama:2015:ANLP,Tanaka:2016:LREC,Asahara:2019:JNLP}がある.UDの主目的は多言語間での仕様の共通化であるため,各言語の特徴的な言語現象に対するアノテーションは捨象される傾向があり,例に挙げた関係節と内容節の区別も行わない.本研究は,UDへの対応は視野に入れつつも,主眼は日本語において重要と考えられる文法機能情報を表示可能な単語依存構造を実現することである.単語依存構造による構文解析は文節依存構造の課題を解決できる一方,構文解析器により自動解析を行う観点で見ると,文節依存構造と比較して依存関係を結ぶ組合せの数が増大するため,解析精度への影響が懸念される.また,日本語の単語依存構造としてどのような構造が適切であるか,すなわち依存構造の主辞をどのように決定すれば良いのかは自明ではない.森らは,単語間に依存構造を付与した大規模なコーパスを構築して,構文解析器の学習データとして適用した結果として,90\%以上の精度が得られたことを報告している~\cite{Mori:2014:LREC}.森らの依存構造は,文節依存構造と同様に後方の語が主辞となる単一方向の依存構造から構成されるが,本論文で提案する単語依存構造のように,両方向の依存構造が含まれる場合の解析精度への影響を検証する必要がある.また,依存構造に付与された文法機能タイプが解析器によりどの程度再現可能であるのかも確認する必要がある.以下,\Sect{sect:relatedwork}で関連する研究について述べ,\Sect{sect:design-of-typed-dependencies}で日本語の文法機能タイプ付き単語依存構造の設計について説明し,\Sect{sect:corpus}で実際に行ったコーパスの構築について述べる.\Sect{sect:evaluation}では依存構造の単位や構造の異なる単語依存構造データから構文解析モデルを構築し,それらの違いが構文解析の精度に与える影響や,文法機能タイプから得られる述語項構造情報の精度について評価実験を行った結果について述べる.\Sect{sect:problems}で単語依存構造において検討すべき課題について述べる.
V17N01-02
\label{sec:introduction}現在では,ウェブ上の文書をはじめとして,多種多様な文書に簡単にアクセスすることができる.ニュースやブログの記事にはさまざまな出来事が記述され,その中には数多くの地名が含まれている.地名等の固有名詞は辞書未登録語であることが多く,文書の自動処理における未知語処理の問題の主因の一つとなっている.地名は,人名や組織名等の他の固有名詞と比べてその要素に変動が少なく,詳細な辞書の作成が可能という特徴がある.地名については,地図作成や郵便業務等のため,どの国でも詳細な辞書が存在するため,これを利用することでその地名に付随する国や場所等の属性を得ることが可能である.しかし,文書中に出現する地名はその文書の記述言語を母語とする国の地名であるとは限らず,ニュース文書等にあっては理論上全世界のどの地名でも現れ得る.そのため,地名の特定にはすべての国の詳細な地名辞書を確認する必要があることとなり,これは,効率の面からも,辞書の記述方式や記述粒度の不統一の面からも,現実的であるとはいえない.外国も含めたエリア推定を行うには,(1)地名文字列の認識,(2)地名文字列の国推定,(3)地名文字列と場所との対応付け,の三段階の処理が必要である.例を挙げれば,(1)で``Sparta''という語を地名と認識し,(2)で所属国がギリシャかアメリカである可能性が高いと推定し,(3)でその文書中での``Sparta''がアメリカのウィスコンシン州の地名を指していることを示すとの手順である.このうち(1)の地名文字列の認識については固有名詞認識処理の研究が盛んに行われており,また(3)の地名文字列と場所との対応付けについては,前述の例のように複数の国に出現する可能性のある曖昧な地名を対象として,地名の辞書引きを行い文脈情報と照らし合わせて地名を特定する手法が主に研究されている.それに対して,(2)の地名文字列の国推定処理についてはほとんど研究されておらず,国がわからないため辞書引き対象とする辞書が特定できない場合には対応できていない.そこで本稿では,(3)の処理の前処理として,地名に対してその所属する国を十分に絞り込む手法を提案する.ここでの十分な絞込みとは,可能性のある国を三個以下に抑えることを意味する.``Sparta''という地名がギリシャとアメリカの両方にあるように,複数の国に同一の地名が存在する可能性があるなど,すべての地名について国を一意に絞り込むことは必ずしも正しいとはいえない.所属国候補の数を三個以下まで絞り込むことができれば,最終的な地名の判別は辞書ベースで行う等,他の手法との組合せによる精度の向上の実現が期待できる.本稿では,辞書を利用できない状況を想定しているため,地名の持つ表層情報のみを処理に用いる.これは,言語識別タスクの一つと位置づけることが可能であるが,地名は一般に二単語程度の短い単語列であり,利用できる情報が極端に少ないことが,通常の文章を対象とした言語識別と大きく異なる点である.
V15N02-04
\label{sec:intro}言い換えとは,ある言語表現を意味が等価な別の言語表現に変換する処理のことである.自然言語処理においては,言い換えはさまざまな応用をもっており,例えば,情報検索,機械翻訳,文章作成支援,文章読解支援などに応用されることが期待されている.\begin{table}[b]\caption{日本語表現の分類}\label{tab:classWord}\input{04table01.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{15-2ia4f1.eps}\caption{内容表現の言い換えと機能表現の言い換えを組み合わせた幅広い言い換え}\label{fig:phrasal}\end{center}\end{figure}日本語表現の言い換えは,これまで多くの研究者によって研究されてきた\shortcite{Inui2004}.これらの研究のほとんどは,内容語や複合語に関するものであり,例えば,複合名詞の言い換えに関する研究\shortcite{Sato1999,Kimura2002}や動詞句の言い換えに関する研究\shortcite{Kaji2004,Furihata2004}などがある.日本語の表現は,内容的・機能的という観点から,おおきく2つに分類できる.さらに,「表現を構成する語の数」という観点を加えると,表~\ref{tab:classWord}のように分類できる.ここで,{\bf複合辞}とは,「にたいして」や「なければならない」のように,複数の語から構成されているが,全体として1つの機能語のように働く表現のことである.われわれは,機能的というカテゴリーに属する機能語と複合辞を合わせて{\bf機能表現}と呼ぶ.内容表現の言い換えに関する研究に比べて,機能表現の言い換えに関する研究は著しく少ない.ほとんどすべての文および文節には,1つ以上の機能表現が含まれているのであるから,日本語表現を幅広く言い換えるためには,図~\ref{fig:phrasal}に示されるように,内容表現だけでなく,機能表現も言い換えることが重要である.このような理由により,本論文では,機能表現の言い換えに焦点をあてる.日本語の機能表現が持つ主な特徴は,各々の機能表現が多くの形態的異形を持っているということである.それぞれの異形は,常体,敬体,口語体,堅い文体という4つの文体のいずれかをとる.例えば,「なければならない」の異形には,「なくてはならない」,「なければなりません」,「なけりゃならない」,「ねばならん」などがあり,これら4つの表現の文体はすべて異なっている.これらの表現の文体は,順に,常体,敬体,口語体,堅い文体である.機能表現を言い換えるシステムは,言い換え先の機能表現の文体を制御できることが求められる.なぜならば,1つの文章においては,原則として,一貫して1つの文体を使い続けなければならないからである.例えば,文体が常体である文章においては,「なければなりません」や「にたいしまして」などの敬体の表現や,「なけりゃならない」や「とは言ったって」などの口語体の表現を使うことはできない.しかしながら,先行研究において提案されているいずれの機能表現言い換えシステムも,言い換え先の機能表現の文体を制御できる機構を持っていない.機能表現言い換えシステムが機能表現$f$を異なる機能表現$f^\prime$に言い換える場合,潜在的には$f^\prime$のすべての異形を生成できることが望まれる.なぜならば,この要請を満たすシステムは,文章作成支援などの応用において,多数のさまざまな言い換え候補を利用者に提示することができるからである.このようなシステムは,例えば,「見てくれるか」という入力に対して,「てもらえる」を含む言い換え候補として「見てもらえるか」だけでなく,「見てもらえないか」,「見てもらえませんか」,「見てはもらえないでしょうか」など,多くの興味深い言い換え候補を出力することができる.しかしながら,先行研究における機能表現言い換えシステムは,体系的に異形を扱っていないため,上記の要請を満たしていない.文章読解支援や文章作成支援などの応用においては,機能表現を言い換えるときに,言い換え先の機能表現の難易度(理解しやすさ)を制御できることが求められる.なぜならば,機能表現は,文の構造や意味を決定する重要な要素であるからである.文中に知らない機能表現が用いられていた場合,おそらく,読者は,その文の意味を正確に理解することができないだろう.難しい機能表現をやさしい機能表現へ言い換えることができれば,読者がその機能表現を知っており,文の意味を正しく理解することができることが期待される.先行研究において,機能表現の難易度を考慮したものは,土屋らの研究\shortcite{Tsuchiya2004}と本田らの研究\shortcite{Honda2007}のみである.土屋らは,機能表現をやさしく言い換えるための規則を半自動的に生成する手法と,その規則に基づいて機能表現を言い換えるシステムを提案している.本田らは,意味的に等価な機能表現の各々のクラスに対して,それぞれ1つの代表表現を定義することにより,機能表現を分かりやすい表現に言い換える手法を提案している.機能表現をやさしく言い換える場合,読者にふさわしい難易度の表現に言い換えることが望ましい.なぜならば,よりやさしい機能表現(典型的には,助詞)は,複数の意味を持っている傾向があるからである.必要以上にやさしく言い換えた場合,生成されたテキストが意味的に曖昧になってしまうおそれがある.これらの先行研究において提案されている言い換えシステムは,例えば,日本語初級者用や日本語中級者用などといった,難易度指定に応じて言い換えを行なうことはできない.機能表現を,文体指定や難易度指定を満たす,意味的に等価な機能表現に言い換える処理は,次の2つの変換の組み合わせによって実現することができる.\begin{enumerate}\item機能表現を意味的に等価な機能表現に変換する\item機能表現をその異形に変換する\end{enumerate}前者において,難易度指定を満たす機能表現のみを言い換え候補に採用し,後者において,文体指定を満たす異形のみを言い換え候補に採用すれば,目的の言い換えを達成することができる.本論文では,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,日本語機能表現を言い換える手法を提案する.前者の階層構造は,各々の機能表現に対して,すべての異形のリストを提供する.それぞれの異形には,文体の情報が記述されている.このリストは,上記の(2)の変換に必要である.後者の階層構造は,機能表現の意味的等価クラスを提供する.クラス内のそれぞれの機能表現には,難易度が付与されている.この意味的等価クラスは,上記の(1)の変換に必要である.本論文は,以下のように構成される.まず,第2章で,形態階層構造と意味階層構造を持つ機能表現辞書について説明する.次に,第3章で,本論文で提案する機能表現の言い換え手法を述べる.第4章で,実装した機能表現言い換えシステムについて説明し,続く第5章において,その評価を行なう.第6章で,関連研究について述べ,最後に,第7章でまとめを述べる.
V09N03-07
近年,テキスト自動要約の研究が活発化するとともに,要約の評価方法が研究分野内の重要な検討課題の一つとして認識されてきている.これまで提案されてきた要約の評価方法は,内的な(intrinsic)評価と外的な(extrinsic)評価の2種類に分けることができる\cite{Sparck-Jones:1996}.内的な評価とは,システムの出力した要約そのものを,主に内容と読みやすさの2つの側面から評価する方法である.一方,外的な評価とは,要約を利用して人間がタスクを行う場合の,タスクの達成率が間接的に要約の評価となるという考え方に基づいて評価を行う方法である.本研究では,近年活発にその評価方法が議論され,改良が試みられている内的な評価,特に内容に関する評価方法に焦点を当てる.これまでの要約の内容に関する評価は,人手で作成した抜粋と要約システムの出力との一致の度合を,F-measure等の尺度を用いて測るのが典型的な方法であった.しかし,Jingら\cite{jing:98:a}は,要約のF-measureによる評価と外的な評価を分析し,F-measureには「テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価は大きく変化する」という問題があることを指摘している.この問題点を解決する方法がこれまでにいくつか提案されている.Radevら\cite{radev:00:a}は,文のutilityという概念を用いた評価方法を示している.文のutilityとは,そのテキストの話題に対する各文の適合度(重要度)を10段階で表したものであり,正解の文のutilityにどのくらい近いutilityの文を選択できるかで評価を行なう.しかし,このような適合性の評価は被験者への作業負荷が大きいという問題がある.Donawayら\cite{Donaway:2000}は,人間の作成した正解要約の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間のコサイン距離で評価するcontent-basedな評価を提案している.content-basedな評価では,指定された要約率の正解要約を一つだけ用意すれば評価可能であるため,utilityに基づく評価に比べ,被験者への負荷が少ない.しかし,この評価方法で2つの要約を比較する場合,どの程度意味があるのかについては,これまで十分な議論がなされていない.そこで,本研究では,まず,utilityに基づく評価の問題点を改良する新しい評価方法を提案する.一般に低い要約率の抜粋に含まれる文は高い要約率の抜粋中の文よりも重要であると考えられる.このような考えに基づけば,あるテキストに関して複数の要約率のデータが存在する場合,テキスト中の各文に重要度を割り振ることが可能であるため,utilityに基づく評価を疑似的に実現することができる.これまでの要約研究において,1テキストにつき複数の要約率で正解要約が作成されたデータは数多く存在する(例えば,\cite{jing:98:a})ことから,提案する評価方法に用いるデータの作成にかかる負荷は決して非現実的なものではなく,utilityを直接被験者が付与するより負荷は小さいと考えられる.本研究では,評価型ワークショップNTCIR2の要約サブタスクTSC(TextSummarizationChallenge)\cite{Fukushima:2001a,Fukushima:2001b}で作成された10\%,30\%,50\%の3種類の要約率の正解データを用いて,提案方法により評価を行う.この評価結果をF-measureによる結果と比較し,提案方法がF-measureによる評価を改善できることを示す.次に,本研究では,content-basedな評価を取り上げる.同様にTSCのデータを用いて,人間の主観評価の結果と比較し,これまで十分議論されていないその有用性に関する議論を行う.本論文の構成は以下のとおりである.次節では,まず,これまで提案されてきた内的な評価方法,特にF-measureの問題点の解消方法について述べる.3節では,本研究で提案する評価方法について説明する.4節では,F-measureと提案する評価方法を比較し,結果を報告する.また,content-basedな評価に関する調査についても述べる.最後に結論と今後の課題について述べる.
V29N03-07
修辞構造理論\cite{mann-etal-1987-rhetorical}は文書中のテキストスパン(後述するEDUの系列)間の関係を木構造で表現する理論である.\blfootnote{本稿はConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL2021)での発表ImprovingNeuralRSTParsingModelwithSilverAgreementSubtrees\cite{kobayashi-etal-2021-improving}に加筆を行ったものである.}修辞構造理論によると,文書は,木の最小構成単位となる節相当のユニット,ElementallyDiscourseUnit(EDU)へと分割され,EDUを終端ノードとした構成素木である修辞構造木として表現される.非終端ノードはそれが支配するテキストスパン(連続したEDU)の核性ラベル,核(N:Nucleus),衛星(S:Satellite)をあらわす.核と衛星は対の関係にあり,テキストスパンの中心的役割を担う核を衛星が修飾する.よって,任意の非終端ノードは基本的には単核,つまりN-S,S-Nの組み合わせの子供を持つ.ただし例外的に並列構造をあらわす場合,多核,N-Nという組み合わせの子供を持つ場合がある.そして,木のエッジは隣接する2つのテキストスパンの間の修辞関係をあらわす.修辞関係ラベルは,ドメインによって異なるが一般的に用いられるベンチマークデータセットであるRSTDiscourseTreebank:RST-DT\cite{carlson-etal-2001-building}ではElaboration,Attributionなど18種類が定義されている.図\ref{fig:rst_tree}に例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-3ia6f1.pdf}\end{center}\caption{修辞構造木の例.(wsj\_0699)}\label{fig:rst_tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一般的に修辞構造解析器(以下,解析器)は以下の3つの分類器から構成され,その学習には教師あり学習が用いられる.\begin{enumerate}\item木構造を推定するためにテキストスパンの分割または結合を決定する分類器\item2つの隣接するテキストスパン間の核性ラベル(S-N,N-S,N-Nのいずれか)を推定する分類器\item2つの隣接するテキストスパン間の修辞関係ラベル(RST-DTの場合,18種のラベルのいずれか)を推定する分類器\end{enumerate}教師あり学習には,文書に対して修辞構造木のアノテーションを与えたデータが大量に必要となるが,アノテーションには専門知識を必要とするため,大規模なコーパスを構築することが難しい.修辞構造解析の研究において最も一般的,かつ最大のデータセットであるRST-DTでさえ385文書しかない.データ不足はいわゆる教師あり学習を用いた手法にとって大きな問題であり,近年のニューラルネットワークを用いた修辞解析法においても例外ではない.しかし,ニューラルネットを用いた自然言語処理では,大規模な疑似正解データを活用する手法\cite{Nguyen-etal-2020-data,vania-etal-2019-systematic}が提案され,こうしたデータ不足が克服されつつある.たとえば,ニューラル機械翻訳(NMT)では,Back-translationにより自動的に生成した大量の疑似正解データ(疑似対訳データ)を利用する枠組み\cite{sennrich-etal-2016-improving,Nguyen-etal-2020-data}が翻訳性能の大幅な向上を示した.本稿では,先述したNMTにおける疑似対訳データの活用にヒントを得て,修辞構造解析におけるデータ不足の問題を解決するための大規模な疑似正解データセットの自動構築方法とそれを利用した事前学習,追加学習の枠組みを提案する.具体的には大量のラベルなしデータに対し,複数の解析器を適用した結果から一致する部分木を擬似正解データセットとする.そして,それを\citeA{kobayashi-etal-2020-top}らの手法(Span-BasedParer:SBP)の事前学習に用い,正解データセットであるRST-DTにより追加学習する.また,複数の解析器の間で一致する部分木を効率的に抽出するためのアルゴリズムも提案する.RST-DTを用いた実験では,疑似正解データを用いることにより,SBPに対して性能が向上することを確認した.特に,修辞関係ラベル推定の性能向上が顕著であり5ポイント程度のゲインを得た.正解のEDU分割を用いて木構造のみを評価するとF1スコアが74.1,核性ラベルも含めると64.7,関係ラベルも含めると54.1,すべてを含めると52.7であり,現在の最高性能の解析器である\citeA{zhang-etal-2021-adversarial}に匹敵する性能を達成した.一方,自動推定したEDU分割を用いた場合には,それぞれ68.1,57.4,47.6,45.9であり,関係ラベルを含めた場合の性能は,現在の最高性能の解析器である\citeA{nguyen-etal-2021-rst}に匹敵する性能を達成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V10N04-06
\label{sec:intro}\thispagestyle{empty}機械翻訳,言語横断的な検索や要約など複数の言語を同時に扱うシステムにおいて対訳辞書は必要不可欠であり,その品質がシステム全体の性能を左右する.これらに用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には限界があり,品質を向上するためには膨大な労力が必要であること,辞書の記述の一貫性を保つことが困難であることが問題となる.このことからコーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている~\cite{tanaka_96,kitamura_97,melamed_97,yamamoto_01,kaji_01}.しかし,これらの研究の多くは対訳表現の対応度の計算に単語の共起関係を利用しているためにデータスパースネスに陥りやすく,そのため小規模なコーパスから対訳表現を抽出することは難しい.対訳コーパス自体があまり多くない現状では,小規模な対訳コーパスからでも対訳表現を抽出できることが望ましい.本論文では,サポートベクタマシン~\cite{vapnik_book_99}を用いて文対応付き対訳コーパスから対訳表現を抽出する手法を提案する.サポートベクタマシンは訓練事例と分割境界の距離(マージン)を最大化する戦略に基づく手法であり,従来からある学習モデルに比べて汎化能力が高く過学習しにくいために,データスパースネスに対して頑健であるという特徴を持つ.さらにカーネル関数を用いることによって非線形な分割境界を学習したり,素性同士の依存関係を自動的に学習することが可能である.このため,自然言語処理の分野でもテキスト分類~\cite{joachims_98,taira_99},Chunk同定~\cite{kudo_00b},構文解析~\cite{kudo_00a}などに応用されている.我々の手法は,訓練コーパスによって対訳モデルをあらかじめ学習する必要があるが,一旦モデルを学習してしまえば,訓練コーパスにおいて出現回数が少ない対訳表現あるいは訓練コーパスにおいて出現しなかった対訳表現でさえも抽出することができる.したがってある程度大規模な対訳コーパスから優れた対訳モデルを学習しておけば,サポートベクタマシンの高い汎化能力によって低頻度の対訳表現でも抽出が可能であるという特徴を持つ.本論文の構成は以下の通りである.\ref{sec:svm}~節ではサポートベクタマシンについて説明し,\ref{sec:SVMdict}~節ではサポートベクタマシンを用いて対訳表現を抽出する手法を述べる.\ref{sec:experiment_discussion}~節では我々が提案した手法の有効性を示すために行った実験の結果とそれに対する考察を述べる.\ref{sec:related_works}~節において関連研究との比較を行う.最後に\ref{sec:conclusion}~節で本論文のまとめを述べる.
V17N02-02
\label{sec:first}情報抽出や機械翻訳などのNLPの応用処理への需要が高まる中で,その技術を実現するための中核的な要素技術となる照応・共参照と述語項構造の解析に関して多くの研究者が解析技術を向上させてきた.それらの技術の多くは各情報が付与されたコーパス(以後,タグ付与コーパス)を訓練用データとして教師あり手法を用いるやり方が一般的であり,解析の対象となるコーパス作成の方法論についても議論がなされてきた\cite{Hirschman:97,Kingsbury:02,Doddington:04}.照応・共参照解析については,主に英語を対象にいくつかのタグ付与のスキーマが提案されており,実際にそのスキーマに従ったコーパスが作成されている\cite{Hirschman:97,Kawahara:02,Hasida:05,Poesio:04,Doddington:04}.例えば,MessageUnderstandingConference(MUC)のCoreference(CO)タスク\cite{Hirschman:97}や,その後継にあたるAutomaticContentExtraction(ACE)programのEntityDetectionandTracking(EDT)タスクでは,数年に渡って主に英語を対象に詳細な仕様が設計されてきた.また,述語項構造解析に関しては,CoNLLのsharedtask\footnote{http://www.lsi.upc.edu/\~{}srlconll/}で評価データとして利用されているPropBank~\cite{Palmer:05}を対象に仕様が模索されてきた.日本語を対象に述語項構造と照応・共参照の研究をするにあたり,分析,学習,評価のための大規模なタグ付きコーパスが必要となるが,現状で利用可能なGlobalDocumentAnnotation(GDA)~\cite{Hasida:05}タグ付与コーパス(以後,GDAコーパス)や京都テキストコーパス第4.0版(以後,京都コーパス4.0)は,述語項構造や共参照の解析のための十分な規模の評価データとはいえない.日本語を対象に述語項構造を照応・共参照の研究を進めるためには,英語の場合と同様にタグ付きコーパスを構築する必要があるが,日本語では述語の格要素が省略される\textbf{ゼロ照応}の現象が頻出するため,後述するように述語項構造の記述の中で照応現象も同時に扱う必要がある.そのため,英語では独立に扱われている述語項構造と(ゼロ)照応の関係の両方のタグ付与の仕様を把握し,2つの関係横断的にどのようにタグ付与の仕様を設計するかについて考える.タグ付与の仕様は最初から完成したものを目指すのではなく,作業仕様を経験的に定め,人手によるタグ付与の作業を行い,作業結果を検討することで洗練していくことを想定している.本論文ではこれまでに行った仕様に関する比較検討の内容と現在採用している我々の作業仕様について説明する.この際,MUCやACEの英語を対象に設計されたタグ付与の仕様に加え,日本語を対象に作成された既存の共参照・述語項構造のタグ付きコーパスであるGlobalDocumentAnnotation(GDA)~\cite{Hasida:05}タグ付与コーパス(以後,GDAコーパス)や京都テキストコーパス第4.0版(以後,京都コーパス4.0)\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}との比較も行う.本論文ではまず\sec{second}で照応と共参照の関係について確認し,\sec{third}では述語項構造と照応・共参照のタグ付与に関する先行研究を紹介する.次に,\sec{fourth}で先行研究を踏まえた上の我々のタグ付与の基準を示し,その基準に従った作業結果についても報告する.さらに,\sec{fifth}で今回作業を行った際に問題となった点について説明し,\sec{fifth}でその改善案とその案にしたがって作業をやり直した結果について報告し,最後に\sec{seventh}でまとめる.また,今回の作業の結果作成された述語項構造と照応・共参照タグ付与コーパスをNAISTテキストコーパスとして公開している.詳細は{http://cl.naist.jp/nldata/corpus/}を参照されたい.
V25N02-01
\label{s:introduction}機械翻訳システムでより多くの文を対象に翻訳精度を維持したい場合,その量に応じた大きさの語彙をシステムが取り扱う必要がある.語彙サイズは様々な機械翻訳手法の性能や効率に影響を及ぼすが,特に近年活発に研究されているニューラル翻訳モデル\cite{encdec}では,語彙サイズの増加に伴う影響が顕著である.図\ref{fig:nmt}はエンコーダ(Encoder:符号化器),デコーダ(Decoder:復号器)および注意機構(Attention)と呼ばれる個々のネットワーク構造からなる翻訳モデル\cite{bahdanau14,luong15}であり,ニューラル翻訳モデルとして典型的に使用される構造である.エンコーダは入力シンボル列を連続空間上のベクトル集合に変換し,この情報をもとにデコーダが出力シンボルを1個ずつ順に決定する.エンコーダとデコーダの内部構造はモデルによって様々であり,典型的には複数のリカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)を用いて構成される.注意機構はエンコーダが生成したベクトルに関する重み付き和を与えるモデルで,デコーダが次回のシンボル推定に使用する文脈情報を生成する.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f1.eps}\end{center}\hangcaption{エンコーダ・デコーダモデルに注意機構を導入した典型的なニューラル翻訳モデルの概観.このうち,出力層における内部ベクトルから単語への変換が大きな計算負荷となる.}\label{fig:nmt}\end{figure}ここで,ニューラルネットワークで単語等の離散的なシンボルを扱う場合,モデルの入出力層でシンボルと内部ベクトルとの相互変換を行う必要がある.この特徴は特に出力層側で問題となる.入力層側は毎回特定の単語が与えられるため,無関係な単語に関する計算は行われないのに対し,出力層側はあらゆる候補の中から妥当な出力単語を選択する必要があるためである.単語選択のアルゴリズムとして語彙サイズに対する時間・空間計算量の大きな手法を選択した場合,実質的な計算コストが語彙サイズに依存することとなり,翻訳モデルを構築・運用する上での問題となる.実際,ニューラルネットワークによる単語推定で最も単純かつ標準的な手法であるソフトマックス演算は,語彙に含まれる全単語のスコアを隠れ層の一次結合として愚直に計算するため,計算量は語彙サイズに比例する.このため,出力層の計算をいかにして軽量化するかが重要な課題であると言える.この問題はよく認識されており,\ref{sec:prior}で紹介するように,従来様々な解決手法が提案されてきた.出力層を改良するにあたっての着眼点は様々であり,従来手法が何を重点的に解決しようとしているかはそれぞれ異なる.この中で,特に重要と考えられる4つの観点を以下に示す.\begin{description}\item[翻訳精度]手法を適用した際,平均的な翻訳精度が大幅に低下してはならない.特に,単純なソフトマックスと比較して同等程度の性能が維持可能,あるいは,可能であればより高い性能を達成可能である手法が望ましい.\item[空間効率(使用メモリ量)]膨大なメモリを必要とする手法を実行するためには大規模かつシステムが専有可能な計算資源が必要であり,携帯デバイス等の計算資源の制約の強い機器での直接実行には適さない.多くの環境に搭載可能なシステムを構築するためには,手法自体が可能な限り少ないメモリ消費の下で動作可能である必要がある.\item[時間効率(実行速度)]可能な限り高速に動作する手法が望ましい.高速にパラメータを学習可能であればシステムをチューニングする利便性が向上し,また運用時に高速なシステムは計算資源やユーザへの負担を減少させることとなる.空間効率と同様に,運用時に強力な計算資源が使用可能とは限らず,このため非力なCPUでも効率的に動作可能な手法がより望ましい.\item[並列計算との親和性]運用時とは対照的に,パラメータの学習時にはGPU等の強い並列性を持つ計算資源を使用することができる場合がある.並列化の容易な手法であれば,学習時にこれらの強力な計算資源の恩恵に与ることが可能である.\end{description}これらの観点のうち,いずれの項目を特に重視するかが手法自体の特徴となる.提案手法では特に空間効率と時間効率に関して,モデルの定式化段階での計算量を削減することに主眼を置き,翻訳精度は既存手法で最も表現力の高いソフトマックスモデルと同等程度の実現を目標とした.提案手法による出力層はソフトマックスとは異なり,語彙中の単語に対して直接スコアを計算することは行わない.その代わり,各単語に一意な二値符号を割り当て,そのビット列を単語の表現として出力層で学習することで,間接的に単語の推定を行う.この手法を用いることで,最も理想的な場合で$2^n$種類の単語を$n$ビットのみを使用して表現することが可能となるため,その推定に必要な時間・空間計算量を語彙サイズ$V$に対して$O(\logV)$まで減少させることが可能となる.提案手法の基本的なアイデアはこのように単純だが,実験で示すように,単に二値符号のみを用いる手法では翻訳精度が従来手法と比べて大幅に低下してしまうという問題がある.本論文では更に,この問題に対して2種類の観点から提案手法を改良する手法を導入する.まず,従来のソフトマックスモデルを部分的に導入することで,高頻度語と低頻度語を分離して学習可能とする手法を提案する.また,二値符号そのものの頑健性を向上させるために,誤り訂正符号,特に畳込み符号\cite{convcode}による冗長化を施す.実験では,二値符号予測とこれらの改善手法について,難易度の異なる2種類の英日・日英翻訳タスクを用いて翻訳精度の比較を行った.この結果より,提案手法が従来のソフトマックスと遜色ない翻訳精度を達成可能であるとともに,出力層の動作に必要なパラメータ数,および計算時間の両面においてソフトマックスよりも優れていることを示す.
V07N05-05
\label{sec:introduction}我々は,1998年10月から自然言語解析用ツール「MSLRパーザ・ツールキット」を公開している~\footnote{{\tthttp://tanaka-www.cs.titech.ac.jp/pub/mslr/}}.MSLRパーザ(MorphologicalandSyntacticLRparser)は,一般化LR法の解析アルゴリズムを拡張し,単語区切りのない言語(日本語など)を主に対象とし,形態素解析と構文解析を同時に行うパーザである\footnote{MSLRパーザは,分かち書きされた文(英語文など)を解析する機能も持っているが,もともとは単語区切りのない文を解析することを目的に作られた.}.本論文では,MSLRパーザ・ツールキットの特徴と機能について述べる.MSLRパーザを用いて文を解析する場合には,以下の3つが必要になる.\begin{quote}\begin{description}\item[文法]品詞を終端記号とする文脈自由文法.主に構文解析に用いる.\item[辞書]単語とそれに対応した品詞を列挙したデータで,形態素解析の基本単位を集めたものである.辞書の品詞体系は文法の品詞体系と一致していなければならない.\item[接続表]品詞間の接続制約を記述した表.品詞間の接続制約とは,ある2つの品詞が隣接できるか否かに関する制約である.\end{description}\end{quote}本ツールキットでは,文法・辞書・接続表を自由に入れ換えることができる.すなわち,ユーザが独自に開発した文法や辞書を用いて,MSLRパーザによって文の解析を行うことが可能である.また,MSLRパーザ・ツールキットには日本語解析用の文法,辞書,接続表が含まれている.したがって,文法等を持っていないユーザでも,ツールキットに付属のものを用いて日本語文の形態素・構文解析を行うことができる.MSLRパーザはC言語で実装され,動作するOSはunixのみである.具体的には,以下のOSで動作することが確認されている.\begin{itemize}\itemSunOS5.6\itemDigitalUnix4.0\itemIRIX6.5\itemFreeBSD3.3\itemLinux2.2.11,LinuxPPC(PC-Mind1.0.4)\end{itemize}MSLRパーザを動作させるために必要なメモリ使用量・ディスク使用量は,使用する文法や辞書の規模に大きく依存する.例えば,ツールキットに付属の日本語解析用文法(規則数1,408)と辞書(登録単語数241,113)を用いる場合,50Mbyteのメモリと10Mbyteのディスク容量を必要とする.本ツールキットを用いた形態素・構文解析の流れを図~\ref{fig:overview}に示す.MSLRパーザの解析アルゴリズムは一般化LR法に基づいているため,まず最初にLR表作成器を用いて,文法と接続表からLR表を作成する.MSLRパーザは,作成されたLR表と辞書を参照しながら入力文の形態素・構文解析を行い,解析結果(構文木)を出力する.\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=overview.eps,width=0.9\textwidth}\end{epsf}\begin{draft}\atari(127,36)\end{draft}\caption{MSLRパーザを用いた形態素・構文解析の流れ}\label{fig:overview}\end{center}\end{figure}本ツールキットの主な特徴と機能は以下の通りである.\begin{itemize}\itemMSLRパーザは,形態素解析と構文解析を同時に行う.まず最初に形態素解析を行い,その出力をもとに構文解析を行う逐次的な方法では,形態素解析の段階では文法などの構文的な制約を考慮しない場合が多く,その後の構文解析の段階で不適当と判断されるような無駄な解析結果も出力される.これに対し,MSLRパーザは形態的な情報(辞書,接続表)と構文的な情報(文法)を同時に用いて解析を行うため,このような無駄な解析結果を生成することはない.\itemLR表作成器は,接続表に記述された品詞間の接続制約を組み込んだLR表を作成する.すなわち,LR表を作成する段階で品詞間の接続制約を考慮し,接続制約に違反する構文木を受理しないLR表を作る.さらに,品詞間の接続制約を組み込んだ場合,接続制約を組み込まない場合と比べてLR表の状態数・動作数を減らすことができ,メモリ使用量も小さくすることができるという利点がある.\item品詞間の接続制約は,接続表という形式で記述する代わりに,文法に組み込むことも可能である.しかしながら,接続制約を文法に組み込んだ場合,規則数が組み合わせ的に増大する.このため,文法作成者の負担が大きくなり,また作成されるLR表の大きさも大きくなるために望ましくない.このような理由から,本ツールキットでは,接続表と文法を独立に記述する枠組を採用している.\item平文を入力とした解析の他に,係り受けに関する部分的な制約を加えた文を入力とした解析を行うことができる.例えば,「太郎が渋谷で買った本を借りた」という文を解析する際に,次のような括弧付けによる制約を付けた文が入力されたときには,括弧付けと矛盾した解析結果は出力しない.\begin{displaymath}\tt[太郎が渋谷で買った]本を借りた\end{displaymath}すなわち,「太郎が」が「借りた」に係る以下のような解析結果は,Aの括弧付けが入力の括弧付けと矛盾(交差)しているために出力しない.\begin{displaymath}\tt[[太郎が][_A\;[[渋谷で][買った]][[本を][借りた]]]\;{}_A]\end{displaymath}この機能は,例えば前編集により係り受けに関する部分的な制約をあらかじめ文に付加してから解析を行い,構文的曖昧性を抑制する場合などに利用できる.\item確率一般化LRモデル~\cite{inui:98:a,sornlertlamvanich:99:a}(ProbabilisticGeneralizedLRModel,以下PGLRモデル)を取り扱うことができる.PGLRモデルとは,一般化LR法の枠組において構文木の生成確率を与える確率モデルである.PGLRモデルに基づく構文木の生成確率は,統計的な意味での正しさの尺度を構文木に与えることができるので,構文的な曖昧性の解消に利用することができる.\end{itemize}以下では,ここに挙げた本ツールキットの特徴と機能について詳しく説明する.\ref{sec:tablegenerator}節では品詞間の接続制約を組み込むLR表作成器について述べ,\ref{sec:parser}節ではMSLRパーザの概略について述べる.最後に\ref{sec:conclusion}節で本論文のまとめとMSLRパーザ・ツールキットの今後の開発方針について述べる.
V29N02-02
固有表現抽出(NER)は,人名,組織名,化学物質名,日付や時間といった固有名詞や数値表現を抽出するタスクであり,関係抽出\cite{zhou-etal-2016-attention,DBLP:journals/corr/abs-1905-08284,shen-huang-2016-attention,wang-etal-2016-relation}やエンティティリンキング\cite{ganea-hofmann-2017-deep,le-titov-2018-improving,radhakrishnan-etal-2018-elden,DBLP:journals/corr/abs-1802-01021,DBLP:journals/corr/abs-2006-01969,DBLP:journals/corr/abs-1808-07699}といった技術に用いられる要素技術の一つである.たとえば,2つの固有表現(NE)間の関係を識別する関係抽出タスクでは,文中のNEを特定するためNERが利用され,エンティティリンキングでは,実体判別の候補抽出に利用される.固有表現技術の適用先は,新聞記事といった一般的な文書に留まらず,化学や医学分野などの専門分野の特許や論文に広がりを見せている.化学分野であれば,新材料や新薬の開発,材料を用いた製品開発などにおいて,化合物に関する知識が必要不可欠であり,論文や特許で日々報告される化合物間の相互関係や物性値といった情報を構造化し知識として蓄積することが行われている.しかしながら,2015年の時点で2分30秒に1件のペースで新たな物質がCAS(ChemicalAbstractsService)に追加されているという報告が示すように\footnote{\url{https://www.jaici.or.jp/annai/img/20150709_CAS_PressRelase.pdf}},刻々と増え続ける化合物に対して,専門的な知識を必要とする人手による知識構築作業が課題となっている.そこで,知識構築に必要な化合物名を抽出するためにNERが化学分野でも注目を集めている\cite{Leaman2015,Lu2015,att-chemd}.近年では,LSTM-CRFモデルといった,longshort-termmemory(LSTM)に条件付確率場(CRF)を組み合わせたモデル\cite{N16-1030,P16-1101}や,Transformer\cite{DBLP:journals/corr/VaswaniSPUJGKP17}を用いたモデル\cite{devlin-etal-2019-bert,yamada-etal-2020-luke}が高い精度を示している.また,大規模なラベルなしコーパスから事前学習したニューラル言語モデル\cite{C18-1139,N18-1202,devlin-etal-2019-bert,yamada-etal-2020-luke,Lee2020BioBERTAP,beltagy-etal-2019-scibert}を用いた手法がCoNLL2003sharedtaskデータセット\cite{tjongkimsang2003conll}や化学分野のNER\cite{Lu2015}などにおいて,高い精度を示している.しかし,化合物には多様な表記があることが,化学分野のNERを難しくしている.図\ref{fig:paraphrase_example}にあるように,\textit{Acrylicacid4-tert-butylphenylester}は\textit{Acrylicacid4-(1,1-dimethylethyl)phenylester}のように異表記で表現される.ここでは,\textit{tert-butyl}を表す構造が\textit{methyl}と\textit{ethyl}から構成されることから,\textit{1,1-dimethylethyl}とも言い換え可能となっている.このように同じ化合物が複数の異表記で記述される状況から,学習データには含まれない表記が多数存在しており,学習データ中の表記に基づき学習する従来のNERモデルでは,新規の化合物名抽出において精度低下につながると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-2ia1f1.pdf}\end{center}\hangcaption{化合物の異表記の例.\textit{Acrylicacid4-tert-butylphenylester}とその{\paraphrase}である\textit{Acrylicacid4-(1,1-dimethylethyl)phenylester}について示している.ここでは,\textit{tert-butyl}を表す構造が\textit{1,1-dimethylethyl}に言い換えられている.}\label{fig:paraphrase_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%たとえば,登録数が1億を超えているPubChem\cite{10.1093/nar/gkaa971}上の化合物の異表記の平均数は3.88個\footnote{2019年5月時点での調査結果.}である.このように既に存在する大規模な化合物の言い換えに加えて,今後増え続ける化合物に対応するために従来のNER用の教師データだけから異表記パタンを学習するアプローチは困難な状況にある.そこで,本研究では,化合物名抽出と{\parasent}をマルチタスク学習により同時に学習することで,表現の同一性を学習し化合物名抽出を行う手法,HandlingParaphraseinNER({\proposed})を提案する.{\proposed}では,同一化合物の異なる表記を考量するために,既存のDBに登録されている化合物の言い換えパタンを用いて自動生成される言い換え用の学習データから,attention-basedneuralmachinetranslation(ANMT)\cite{luong-pham-manning:2015:EMNLP,bahdanau2015}を基に言い換え生成モデルを学習する際に,NERモデルと{\paraphrase}モデルのEncoderのパラメータを共有することで,言い換えパタンをNERで考慮する.提案手法を,BioCreativeIVCHEMDNER\cite{Krallinger2015}とPubChemから得られる言い換えパタンを用いて,評価を行った.その結果,従来の辞書を使った教師データの自動拡張\cite{DBLP:conf/ijcnlp/YiLSP04}を超える精度が得られ,化合物名抽出におけるNERと言い換え生成のマルチタスク学習の有効性を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V11N02-03
音声認識研究の対象は、読み上げ音声から講演や会議などの話し言葉に移行している。このような話し言葉は日本語では特に、文章に用いる書き言葉と大きく異なり可読性がよくない。そのため、書き起こしや音声認識結果を講演録や議事録などのアーカイブとして二次利用する際には、文章として適切な形態に整形する必要がある。実際に講演録や議事録の作成の際には、人手によりそのような整形が行われている。これまでに、放送ニュースなどを対象とした自動要約の研究が行われている\cite{98-NL-126-10,98-NL-126-9,SP96-28,99-SLP-29-18,SP2000-116}。これらは主に、頻出区間や重要語句の抽出といった処理、つまり発話された表現をそのまま用いることによって要約を作成している。しかし、話し言葉表現が多く含まれる場合には、要約を作成する際にまず話し言葉から書き言葉へ変換する必要がある。実際に人間が要約を作成する際には、このような書き言葉表現への変換に加えて、不必要な部分の削除や必要な語の挿入、さらに1つの文書内での「ですます」調/「である」調などの文体の統一といった処理も行っている。本研究では講演の書き起こしに対してこのような整形を自動的に行うことを考える。現在、文章を整形するソフトウェアも存在しているが、これらはパターンマッチング的に規則ベースで変換を行っており、言語的な妥当性や前後との整合性はあまり考慮されていない。また、基本的に1対1の変換を行っているので、変換の候補が複数ある場合への対処が容易ではない。学会講演とその予稿集との差分をとることで書き言葉と話し言葉の変換規則を自動抽出する研究が村田らにより行われている\cite{murata_nl2002_diff,murata_nl2001_henkei}が、変換の際の枠組みは本質的に同じと考えられ、また実際に変換を行い文章を整形する処理は実現されていない。これに対して本研究では、規則に基づいて1対1の変換を行うのではなく、話し言葉と書き言葉を別の言語とみなした上で統計的な機械翻訳の手法を適用し、確率モデルによりもっともらしい表現に変換し実際に文章を整形することをめざす。
V15N01-04
近年,コンピュータを含め,機械は我々の生活・社会と密接に関与し,必要不可欠な存在となっている.そのため,機械の目指すべき姿は「人と共存する機械(ロボット)」だと言えるだろう.この夢は,二足歩行ができる,走ることができる,踊ることができるなど,身体能力に長けたロボット\cite{HumanRobot1999}\cite{RoBolution2001}が数多く開発されたことにより,その一部が実現されつつある.今後,機械が真に「人と共存」するためには,優れた身体能力を持った機械に「知能」を持たせ,人間と自然な会話を行う能力が必要になる.機械が人間を主体としたスマートな会話を行うことにより,人と機械の円滑なコミュニケーションが可能となる.そこで,自然な会話を行うための自然言語処理の研究が注目を浴びている.しかしながら,従来の自然言語処理では,文の表層的な形式を重視し,ある限定された目的や特定の状況下での会話処理(タスク処理型会話)に重点を置いた研究が主流となっている.コンピュータ技術の進展に伴って,応答事例を大量に収集し知識ベース化する傾向が強い.このような方法はユーザの発した言葉の理解が,構築した知識ベースの大きさやシステム設計者の取得したデータに束縛されてしまうため,パターンに一致する会話事例が随時必要とされたり,限定された応答となってしまう.このような理由により,コンピュータとの人間らしい会話のためには,ただ応答事例や知識を大量に集めるだけでは対応しきれないと考えられる.そこで,コンピュータ自身によって会話文を生成する必要がある.人間は,基本的な文章の言い回し(応答事例)を元に,臨機応変に文章の可変部を変化させ,組み合わせることで文章を生成している.このように,コンピュータにおいても,基本的な応答事例を知識として与え,文章の可変部を連想によって変化させることができれば,より柔軟で多種多様な会話ができると考えられる.この考えに基づき,コンピュータによる会話文生成\cite{Yoshimura2006}が研究された.しかし,\cite{Yoshimura2006}は機械的な語の組み合わせに起因する一般的に見て不自然な語の組み合わせの応答を生成する恐れがある.例として次の会話を挙げる.A「休暇にサハラ砂漠へ行ってきました.」B「砂漠はさぞ暑かったでしょう.」\noindentこの応答を生成する場合,「雪国はさぞ寒かったでしょう」という文章事例(知識)より,[雪国]と[寒い]という可変部を連想によって変化させることで,「砂漠はさぞ暑かったでしょう」という文章を生成することができる.しかし,機械的に語を組み合わせることにより,「砂漠はさぞ寒かったでしょう」や「砂漠はさぞ涼しかったでしょう」のような人間が不自然と感じる組み合わせの応答をも生成する.そこで,このような違和感のある組み合わせの語の検出能力が必要となる.このため,本稿では,この違和感のある組み合わせの語の検出方式について論じる.本稿における「違和感表現」とは,聞き手が何らかの違和感を覚えたり,不自然さを感じる表現として用いる.違和感表現には以下のような表現が挙げられる.\begin{enumerate}\item\label{item:bunpo}文法的知識が必要な違和感表現\\「水が飲む」「本が読む」\item\label{item:joshiki}意味に関する常識的知識が必要な違和感表現\\「黒い林檎を食べた」「7月にスキーに行った」「歯医者へ散髪に行く」\end{enumerate}(\ref{item:bunpo})の表現を理解するには,助詞の使い方や動詞の語尾変化に関する文法的知識が必要である.コンピュータに文法的な知識を与えることで.「水が飲む」という表現を「水を飲む」,「本が読む」という表現を「本を読む」の誤りであると検出し,訂正することが可能になる.これは,文法的な知識や大規模コーパス等\cite{Kawahara2006}を用いることにより,検出可能と考えられる.本稿では,この範囲については扱わないものとする.これに対し,(\ref{item:joshiki})のような表現は,文法的な知識や事例を集めたコーパスだけでは対応できない.文法的にも,助詞の使い方や動詞の語尾変化に関しても誤りではないからである.しかし,人間は「黒い林檎を食べる」と聞けば,「林檎」が「黒い」ことに違和感を覚える.また,「7月にスキーに行った」という表現では,「スキー」を「夏」である「7月」に行ったということに違和感を覚え,「歯医者に散髪に行く」と聞けば,「散髪に行く」ためには「美容院」等に行くはずなのに歯を治療する場所である「歯医者」に行ったことに不自然さを感じる.これらの文章を理解するには,文法的な知識だけでなく,我々が経験上蓄積してきた,語に対する常識を必要とする.このような違和感表現を検出することができれば,応答合成だけでなく,人間が表現する違和感のある会話に柔軟に応答できると期待される.何故ならば,人間はこれらの文章に違和感を覚え,その違和感について話題を展開することで,会話を進めていくことができる.「7月にスキーに行った」のは,南半球の国や年中雪のある北国かもしれない.また,単なる言い間違いや聞き間違いかもしれない.人間は違和感のある表現を検出したとき,この疑問を具体的に相手に尋ねるような応答をする.これが人間らしい会話の一因となる.しかし,従来の機械との会話は質問応答が基本であり,違和感は考慮されていない.人間ならばどこがどのように不自然かをすぐに判別できる.これは人間が語の意味を知り,語に関する常識を持っているからである.しかし,機械は人間の持つ「常識」を持たず,理解していない.そこで,機械が「不自然だ」「一般的でない表現だ」と気づくためには,機械にも,一般的で矛盾のない表現を識別できる機能が必要だと考えられる.自然な応答を返すことは,機械が意味を理解し,常識を持って会話を行っていることを利用者に示すことになる.つまり,このような文章に対応できるシステムは聞き返すことで,話し相手としての存在感を強調し,人間らしい柔軟な会話ができると期待される.そこで,違和感表現を検出する手法の開発が必要となる.違和感表現には時間,場所,量,感覚などの様々な観点が存在する.\begin{itemize}\item\label{item:time}時間に関する違和感表現\\「7月にスキーに行った」\item\label{item:basyo}場所に関する違和感表現\\「歯医者へ散髪に行った」\item\label{item:ryo}量に関する違和感表現\\「机に家を入れました」\item\label{item:kankaku}感覚に関する違和感表現\\「黒い林檎を食べました」\end{itemize}このような違和感表現を検出するにはそれぞれの観点での常識に着目することが必要となるが,本稿では,その中でも,感覚に着目した違和感表現検出手法について述べる.これは,ある名詞に対する一般的な感覚を必要とする形容語に関する矛盾を判断する.つまり,「黒い」「林檎」などのように,名詞とそれを形容する語(以降,形容語)との関係の適切さを判断する.形容語とはある名詞を形容する形容詞・形容動詞・名詞(例:黒い,大きな,緑の)を指す.
V14N04-03
\label{はじめに}言語処理技術を利用した文章の推敲や校正の支援に関する研究が行われている.この研究分野を次の5段階に分けて考える.\begin{description}\item[表記レベル]誤字の検出と修正,表記揺れの指摘など.\item[統語レベル]統語構造の複雑さに起因する読みづらさの指摘など.\item[意味レベル1]欠落した格要素の推定や,照応先の特定が困難な場合の指摘.\item[意味レベル2]情報不足(論理の飛躍や説明が不足しているもの),情報過多(表現が冗長)の指摘.\item[文脈・構成レベル]文間のつながりに関する理解しづらさの指摘.文の構成による論旨の展開についての指摘など.\end{description}まず,「表記レベル」に関しては,自然言語処理の教科書\cite{tanaka}に詳しく解説されているように,研究開発が完成段階に達し\cite{ibuki},コンピュータのアプリケーションソフトとして実装されている\cite{kasahara}.次の「統語レベル」に関しても,係り受けの複雑さに起因する読みづらさを指摘し,書き換え候補を生成する研究が行われ,応用段階に到達している\cite{yokobayashi}\cite{suganuma2006}.以上の「表記レベル」と「統語レベル」の課題に対しては,文を言語解析し,その際の解析困難性の程度を誤りや読みづらさの指標にするという手法が広く用いられている.この手法が使われる理由は,表記レベルと統語レベルに対応した言語解析である形態素解析および係り受け解析の現状の解析精度が十分に高いためであると考えられる.それに対し,次の「意味レベル1」では欠落した格要素の推定や照応詞の照応先の特定の困難さを算出する必要がある.しかしながら,それに対応した格解析や照応解析といった意味解析技術の精度が現状では不十分なため,解析困難の理由が,解析技術の精度不足に起因するのか,原文側の問題に起因するのか区別がつかず,指摘の要否判定ができない.さらに,「意味レベル2」に含まれる情報不足や情報過多の指摘に関しては,対応する言語解析技術も定まっておらず,今後の技術と考えられている.このように,「意味レベル1,2」やその先の「文脈・構成レベル」の検出・支援の技術は研究が進展していないのが現状である.本論文は,「意味レベル2」に含まれる情報不足と情報過多の指摘のうち情報不足の指摘を扱う.以下,文章作成の理論の中で,この課題の位置付けを考える.言語表現とそれを用いる使用者や文脈との関係を研究する分野である語用論\cite{Green}と会話における意志疎通の原理を扱ったGriceの理論\cite{Grice}がある.これはコミュニケーションが成り立つための原理と条件を与える協調の原理についての内容であり,仕事文(仕事に用いる文を仕事文と称する\footnote{本論文では,岩波新書「仕事文の書き方」\cite{高橋昭男}にならい,仕事の場面で用いる文を仕事文と呼ぶ.これに近い概念の「論説文」は,仕事目的以外の,例えば教育用の論説文もあるため,仕事文と完全には一致しない.}.)が満たすべき条件を与える基礎理論である.協調の原理に従うために,いくつかの特定の条件(格率という)に従わなければならない.格率は量,質,関係,様態の4カテゴリにまとめられる.そのうちの量に関して,次の2つの格率に従う必要がある.\begin{enumerate}\item要求に見合うだけの情報を与える発言を行う.\item要求されている以上の情報を与えるような発言を行ってはならない.\end{enumerate}(1)の格率を満たさなければ,情報不足の問題が生じ,(2)の格率を満たさなければ,情報過多の問題を生じる.このうち,本論文で扱う課題は,量に関する1つ目の格率を満たさないために生じる情報不足の課題である.文章講座に関する一般書籍にも情報不足に関する解説が見られる.例えば書籍「仕事文の書き方」\cite{高橋昭男}では,仕事文において正確な文章を書くために,情報不足に注意することを述べている.この書籍では情報不足による論理の飛躍の例として,次に示す入学用ランドセルの広告文を取り上げている.\vspace{10.5pt}\begin{center}\fbox{\parbox{38zw}{ここ数年,児童の数が急激に減っています.そのため,品不足になる恐れがありますので,お早めにお求めください.}}\end{center}\vspace{10.5pt}\noindent第1文と第2文の間に論理の飛躍があって読みづらいため,間に言葉を補い,次のように修正すべきと述べている.\vspace{10.5pt}\begin{center}\fbox{\parbox{38zw}{ここ数年,児童の数が急激に減っており,{\bfそれに対応して,メーカーでは,製造数を大幅に減らしています.このような事情から,人気商品については,}品不足になる恐れがありますので,お早めにお求めください.(文字強調筆者)}}\\\end{center}\vspace{10.5pt}量の格率の2条件を満足しないために生じる情報不足と情報過多の問題の中で,本研究では情報不足の問題のみを扱い,情報過多の問題は扱わない.その理由について述べる.本研究では,ビジネス分野の文章作成支援を目指して,仕事文を対象とする.そのため,情報不足の場合には,文が難解になることに加え,論理の飛躍によって誤解を生じさせると言う深刻な事態を招くのに対し,情報過多の場合には,冗長な情報を無視するのに読解の負担がかかるものの,誤解を生じる可能性は低いため,深刻さの程度は低い.したがって,コンピュータによる文章推敲支援の課題として,情報不足の検出と指摘の課題を扱うことが有用であると考える.本研究では,この課題を情報不足が読者に受容されるかどうかを判定する問題として扱い,コーパスベースの統計的言語処理に基づくアプローチを用いた手法を開発する.
V10N02-06
近年,情報化社会の進展と共に大量の電子化された文書情報の中から,自分が必要とする文書情報を効率良く検索することの必要性が高まり,従来のKW検索に加えて,全文検索,ベクトル空間法による検索,内容検索,意味的類似性検索など,さまざまな文書検索技術の研究が盛んである.その中で,文書中の単語を基底とする特性ベクトルによって文書の意味的類似性を表現するベクトル空間法は,利用者が検索要求を例文で与える方法であり,KW検索方式に比べて検索条件が具体的に表現されるため,検索精度が良い方法として注目されている.しかし,従来のベクトル空間法は,多数の単語を基底に用いるため,類似度計算にコストがかかることや,検索要求文に含まれる単語数が少ないとベクトルがスパースになり,検索漏れが多発する恐れのあることなどが問題とされている.これらの問題を解決するため,さまざまな研究が行われてきた.例えば,簡単な方法としては,$tf\cdotidf$法\cite{Salton}などによって,文書データベース中での各単語の重要度を判定し,重要と判定された語のみをベクトルの基底に使用する方法が提案されている.また,ベクトル空間法では,ベクトルの基底に使用される単語は,互いに意味的に独立であることが仮定されているのに対して,現実の言語では,この仮定は成り立たない.そこで,基底の一次結合によって,新たに独立性の高い基底を作成すると同時に,基底数を減少させる方法として,KL法\cite{Borko}やLSI法\cite{Golub},\cite{Faloutsos},\cite{Deerwester}が提案されている.KL法は,単語間の意味的類似性を評価する方法で,クラスタリングの結果得られた各クラスターの代表ベクトルを基底に使用する試みなどが行われている.これに対して,LSI法は,複数の単語の背後に潜在的に存在する意味を発見しようとする方法で,具体的には,データベース内の記事の特性ベクトル全体からなるマトリックスに対して,特異値分解(SVD)の方法\cite{Golub}を応用して,互いに独立性の高い基底を求めるものである.この方法は,検索精度をあまり低下させることなく基底数の削減が可能な方法として着目され,数値データベースへの適用\cite{Jiang}も試みられている.しかし,ベクトルの基底軸を変換するための計算コストが大きいことが問題で,規模の大きいデータベースでは,あらかじめ,サンプリングによって得られた一定数の記事のみからベクトルの基底を作成する方法\cite{Deerwester}などが提案されている.このほか,単語の共起情報のスパース性の問題を避ける方法としては,擬似的なフィードバック法(2段階検索法とも呼ばれる)\cite{Burkley},\cite{Kwok}なども試みられている.また,ベクトルの基底とする単語の意味的関係を学習する方法としては,従来から,MiningTermAssociationと呼ばれる方法があり,最近,インターネット文書から体系的な知識を抽出するのに応用されている\cite{Lin}.しかし,現実には,単語間の意味的関係を自動的に精度良く決定することは容易でない.これに対して,本論文では,ベクトル空間法において,検索精度をあまり低下させることなく,基底数を容易に削減できることを期待して,単語の意味属性をベクトルの基底として使用する方法を提案する.この方法は,従来の特性ベクトルにおいて基底に使用されている単語を,その意味属性に置き換えるものである.単語意味属性としては,日本語語彙大系\cite{池原}に定義された意味属性体系を使用する.この意味属性体系は,日本語の名詞の意味的用法を約2,710種類に分類したもので,属性間の意味的関係(is-a関係とhas-a関係)が12段の木構造によって表現されている.また,日本語の単語30万語に対して,どの意味属性(1つ以上)に属す単語であるかが指定されている.従って,本方式では,意味属性相互の意味的上下関係を利用すれば,検索精度をあまり落とさずにベクトルの基底数を削減できる.同時に基底として使用すべき必要最低限の意味属性の組を容易に決定できることが期待される.また,本方式では,検索要求文に使用された単語とデータベース内の記事中の単語の意味的な類似性が,単語意味属性を介して評価されるため,再現率の向上が期待できる.すなわち,従来の単語を基底とした文書ベクトル空間法では,ベクトルの基底として使用された単語間のみでの一致性が評価されるのに対して,本方式では,すべての単語(30万語)が検索に寄与するため,検索漏れの防止に役立つと期待される.本論文では,TRECに登録された情報検索テストコレクションBMIR-J2\cite{木谷}を検索対象とした検索実験によって,従来の単語を用いた文書ベクトル空間法と比較し,本方式の有効性を評価する.
V06N02-03
近年,連続音声認識において,N-gram言語モデルによる言語制約を用いた手法が幅広く用いられている.N-gramは,大規模なテキストデータを統計的に解析し,直前の{\itN-1}個の単語から次の単語への遷移を確率的に与える非常に単純な言語モデルである.しかし,その構築・実装の容易さ,統計的音響モデルとの相性の良さ,認識率向上や計算時間の短縮の効果が大きい等の理由から,連続音声認識にはでは盛んに用いられている\cite{Bahl}\cite{Woodland}.N-gramは当初,英語の連続音声認識に対して適用され,その有効性が示された.英語の文章は,単語がスペースで区切られており,テキストデータから単語を単位としたN-gramが容易に構築できる.しかし,日本語の文章は文字が連続しており単語の境界が明らかではなく,テキストデータのみでは単語N-gramを構築することはできない.このため,我々は日本語の連続音声認識の認識単位として形態素を用いているが,その有効性について2章で明らかにしている.形態素を単位としたN-gramを構築する場合,テキストデータに形態素を付与する,いわゆる形態素解析を行う必要がある.しかし,N-gramを構築するのに必要な,大量のテキストデータを全て人手で形態素解析を行うには多大な労力と時間が必要であり,また,かなりの経験がある人が作業を行わなければ,付与された形態素の揺れも大きくなると考えられる.従って,大量のデータをより正確に形態素解析を行うためには,自動的に形態素解析する手法が望ましい.自動形態素解析は,従来人手で作成したルールにより解析を行う方法が主流であったが,ルールの作成の作業は相当の知識・経験が必要であり,また,話し言葉等のより自然な文を全てカバーできかつ矛盾のないルールを作成するのは困難であると考えられる.これに対し,本論文ではN-gram統計に基づく形態素解析手法を考える.N-gramを構築するためには,事前に形態素体系の構築や定義を行う必要はあるが,従来の形態素解析で必要であった形態素間の接続ルールの作成・重みの変更等の作業に代わり,ある程度の量の形態素データを収集するという比較的単純な作業で構築できる利点がある.また,より自然な発話文に対しても,データさえ収集できれば容易に適用可能である.3章では,N-gramを用いた形態素解析の原理を説明する.統計的モデルにより形態素解析を行うためには,通常は統計モデルの学習用として形態素解析済みの言語コーパスが整備されていることが前提となる.このため,山本らは\cite{Yamamoto}辞書と接続コストのみを用いて文コーパスから形態素ネットワークを生成し,生成された形態素ネットワークから隠れマルコフモデルを学習し形態素解析を行うことにより,形態素解析された言語コーパスが存在しない場合でも形態素解析が可能な手法を提案している.しかしこの方法では,形態素解析にかかるコストは非常に小さいという長所はあるが,形態素解析の結果はモデル化能力の低いとされる品詞Bigramと大きくは変わらず,形態素解析の正解率の適合率が93.5\%程度と報告されており,正しい形態素データを学習しない方法には精度に限度があると考えられる.形態素解析の精度は連続音声認識の精度にも大きく影響すると考えられるため,我々は高い精度でかつできるだけコストを抑えた形態素解析の手法を考える.このため,本論文では,形態素解析のためのN-gram言語モデルとして,より少ない量の形態素解析された言語コーパスから精度の高い予測精度の言語モデルを得るため,品詞と可変長形態素列の複合N-gram\cite{Masataki}を用いることを提案する.複合N-gramは,基本的には品詞を単位としたN-gramであるが,言語モデルとしての精度を高めるため,特定の形態素は品詞クラスから分離させ独立して扱い,さらに特定の形態素列を結合させて新たな単位として扱うモデルである.このため,品詞という単位では表現できない形態素独自の特徴を表現でき,かつ長い範囲の形態素間の連接関係を効率良く表現することができるモデルである.4章では,品詞と可変長形態素列の複合N-gramについて解説する.通常連続音声認識では,辞書に登録されている語いを対象とした認識が行われている.しかし形態素解析では,大量のテキストデータをまとめて処理するため,辞書に登録されていない未知語が含まれている場合も多く存在する.このため,形態素解析においては,未知語を含む文に対しても正確に処理が行えることが重要であると考える.本論文では,品詞から未知語が出現確率する確率を考えることにより,未知語の形態素解析も行えるよう,5章で定式化を行った.本論文で使用した複合N-gramは,品詞を基本単位としたN-gramであるため,このような未知語処理が容易である.第6章では,形態素解析実験により,形態素N-gramや品詞N-gramに対する複合N-gramの有効性を示し,最後の7章で本論文の結論を述べる.
V30N01-04
\label{sec:intro}高性能な言語理解モデルを開発するためには,言語理解の能力を様々な観点から評価し分析するためのベンチマーク(データセット群)が必要である.英語においては,GLUE(GeneralLanguageUnderstandingEvaluation)\cite{wang-etal-2018-glue}が構築,公開されている.GLUEである程度の高スコアを達成できる言語理解モデルが開発されると,より難易度の高いベンチマークとしてSuperGLUE\cite{NEURIPS2019_4496bf24}などが構築され,ベンチマーク構築と言語理解モデル開発の好循環が生まれている.このような英語における言語理解研究活性化の潮流に乗じて,中国語版のCLUE\cite{xu-etal-2020-clue},フランス語版のFLUE\cite{le-etal-2020-flaubert-unsupervised},韓国語版のKLUE\cite{park2021klue}など,各言語におけるベンチマーク構築が進んでいる.しかし,日本語にはGLUEのようなベンチマークが存在せず,日本語自然言語処理にとって大きな問題となっている.日本語は英語や他の言語とは以下の点で異なることから,英語データセットにおける研究の知見は必ずしも日本語に適用できるとは限らない.\begin{itemize}\itemひらがな,カタカナ,漢字,アルファベットが使われる.\item単語間に空白区切りが無い.\item語順が比較的自由である.\end{itemize}以上の背景より,日本語の言語理解ベンチマークの構築は急務となっている.JSNLI\cite{jsnli:ipsj}やJSICK\cite{谷中瞳2021}など,個々の日本語データセットは構築されているが,それらの主な構築手法は英語のデータセットからの機械翻訳あるいは人手翻訳である.いずれの翻訳手法でも,翻訳文の不自然さや,翻訳元の言語(多くの場合英語)と翻訳後の言語(本研究では日本語)との間での文化・社会差が大きな問題となることが\citeA{clark-etal-2020-tydi}や\citeA{park2021klue}らに指摘されている.また,特定ドメインの日本語のデータセットとして,ホテルレビューを対象としたJRTEコーパス\cite{hayashibe-2020-japanese}や,運転行動を対象とした運転ドメインQA\cite{takahashi-etal-2019-machine}が構築されているが,いずれも一般的なドメインの言語理解能力を測るのには向かない.本研究では,一般的な日本語言語理解能力を測ることを目的として,翻訳を介することなく,日本語で一から言語理解ベンチマークJGLUEを構築する.JGLUEは,表\ref{tbl:jglue_overview}に示すように文章分類,文ペア分類,QAの3種類のタスクから構成し,GLUEおよびSuperGLUEのタスクを幅広くカバーするように設計した.また,構築したJGLUEを用いて種々の事前学習モデルを評価し,現状のモデルやデータセットの分析を行った.JGLUEは2022年6月より\url{https://github.com/yahoojapan/JGLUE}にて公開している.本ベンチマークによって日本語における言語理解研究が活性化することを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{03table01.tex}\caption{JGLUEの構成}\label{tbl:jglue_overview}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V30N02-15
\label{sec:intro}複数の言語のテキストで学習したマルチリンガル事前学習モデルは,\pagebreak言語横断転移学習のタスクなどで高い性能を発揮しており\cite{conneau-etal-2020-unsupervised},これはモデルが異なる言語にわたって共有できる知識を学習していることを示している.タスクを解くために役立つ言語の知識には,単語などの語彙に関する知識もあれば,文法に関する知識もある.ここで言う文法とは,外国語学習に見られるような具体的な文法事項というよりは,ニューラルネットワークが,トークンの系列から情報を集約して,タスクを解くために必要な「意味」を導き出す内部処理のことを指す.このニューラルネットワークの「文法」に,異なる言語にわたって共有できる部分が存在することが示唆されている.\citeA{artetxe-etal-2020-cross}は,英語のデータのみで重みを学習したTransformerエンコーダを,異なる言語にも転用できることを示した.つまり,英語のデータから学習した「文法」に言語非依存なものが存在するということである.言語間で共有できる文法事項のうち,マルチリンガル事前学習モデルが実際に捉えているものとして,UniversalDependencies\footnote{\url{https://universaldependencies.org/}}で定義されている係り受け関係\cite{chi-etal-2020-finding}や,主格の概念\cite{papadimitriou-etal-2021-deep}が存在することが今まで示されている.これらは,我々にとっても直感的な文法であるが,ニューラルネットワークはより抽象度が高い概念や処理を,異なる言語にわたって共有できることが示唆されている.たとえば\citeA{papadimitriou-jurafsky-2020-learning}は,楽譜やプログラミングコードといった非自然言語データでLSTM言語モデルを訓練し,そのモデルが自然言語の言語モデリングのタスクに転用できることを示した.つまり,自然言語間に限らず,外見の全く異なる系列データ間にも共通の構造があり,それに関して学習した知識をモデルが転用できることを示している.しかしながら,具体的にどのような構造的知識が転用されるのかに関しては,十分に明らかになっていない.この点について理解を深めることは,ニューラルネットワークの言語処理に関する洞察を与え,かつ,言語共通の知識を効率的に捉えるモデルの考案にも役立つ.本研究は,転移可能な知識を人工言語からの転移学習(\cref{fig:artificial_pretraining})により分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia14f1.pdf}\end{center}\hangcaption{人工言語を用いた事前学習の概要.人工言語は何かしらの構造的特徴を持ち,そのデータから学習した知識が,自然言語のタスクへ転用できるかどうかを調べる.}\label{fig:artificial_pretraining}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本実験手法はTestforInductiveBiasviaLanguageModelTransfer\cite{papadimitriou-jurafsky-2020-learning}の実験手法から着想を得ており,転移元データで学習したモジュールを,異なる種類のデータへと転用した場合のタスク性能を評価することによって,転移元と転移先データで共有可能な知識が存在するかどうかを調べる.本研究では,系列データの持つ抽象的な構造に関する知識の転移可能性を調べるために,転移元データとして抽象的な構造以外の要素を捨象した人工言語を設計する.人工言語が持つ構造の転移可能性の評価として,事前学習した\Transformer{}を自然言語の言語モデリングへの転移した際の性能を測定した.本研究で着目する自然言語の構造的な性質は,単語の分布,単語の係り受け関係,ランダム性である.これらの構造について,自然言語に近いものを持つ人工言語,自然言語とは異なるものを持つ人工言語を設計し,比較実験を行った.得られた知見を以下にまとめる.\begin{itemize}\itemコーパス全体における単語分布そのものは転移可能な有用な知識になり得ず,自然言語へ転移できる\Transformer{}のパラメータを学習するためには,事前学習データの系列内の統計的依存関係が必要となる.この統計的依存関係から,\Transformer{}は入力中の文脈情報を集約するような学習をし,自然言語タスクに有用なものとなる.\item事前学習データとして,係り受け構造を持った人工言語を設計し,係り受け関係が入れ子状になる制約を持った言語と,そうでない言語を比較すると,入れ子制約を持っている方が高い自然言語への転移性能を示した.これは,トークン予測のタスクにおいて,入れ子構造が,自然言語の文法に見られるような,一貫した位置に依存する規則性を持っているからだと考えられる.\item人工言語にランダム性がなく,生成されたデータの系列の並びが決定的であったとしても,事前学習された\Transformer{}は自然言語に転移可能なものとなる.また,転移元の人工言語と転移先の自然言語の語彙サイズが近しいことそのものの有効性は確認されなかった.これら実験結果を踏まえると,転移学習の性能に影響を与える主たる要因は,系列データの統計的依存性であると考えられる.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V32N01-03
\label{section:intro}メタファー(隠喩)とは「のような」といった直接的な例えの表現を伴わない比喩表現である.メタファーは日常のテキストにおいて頻繁に出現することから,多くの研究が行われている.例えば,認知言語学の分野ではLakoffとJohnsonによる研究\cite{mwlb}が代表的である.そこでは,メタファーは単なる言葉の綾でなく人間の認知を大きく反映する重要な機能である,と指摘されている.具体例として以下の2つの例を挙げる.\begin{exe}\exHe\textit{attacked}weakpointsinmyargument.\label{ex:attack}\exYoucan't\textit{win}thisargument.\label{ex:win}\end{exe}これらの例では,『議論(argument)』の概念を記述する際に\textit{attack}や\textit{win}などの『戦い』の概念に属する用語が使われている.このようなメタファーが使われるのは,『議論』には勝ち負けがあり,何らかの戦術を用いて攻めたり守ったりするなどの『戦い』と共有する性質があるためと考えられ,メタファーを使うことによって『議論』という概念を『戦い』というより具体的な概念を通じて理解することが可能となる.LakoffとJohnsonはメタファーの本質とは上の例のように,ある概念を別の概念を通じて理解することであり,そのメタファー的理解が人間の認知を形作っていると主張した.彼らはこのような認知の構造を概念メタファーと呼び,この考え方は言語学において大きな影響を及ぼした.その結果,メタファーは認知言語学において重要なテーマとなり,数多くのメタファーに関する仮説\cite{japmet,roleofmet}が生み出されてきた.しかし,そのような研究の多くは仮説の検証を,比較的少数の用例に対する内省に基づき行っており,大規模なコーパスに基づいた検証を行っている研究は少ない.そこで本研究では大規模言語モデルを用いたメタファー判別モデルと大規模なコーパスを用い,人手による分析では不可能な規模でメタファーに関する仮説の検証に取り組む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V14N01-04
キーワード抽出は情報検索に不可欠な技術の一つであり,現在,多様なキーワード抽出法が提案されている.その手法では,辞書を用いて形態素解析を行う方法\cite{Nakagawa1997}が一般的であるが,辞書を全く用いない方法\cite{TakedaAndUmemura2001}もある.辞書を用いて形態素解析を行う方法は,辞書に登録されていない語(未知語)の処理を考えなければならない.これは,未知語の存在がキーワード抽出の性能に悪い影響を与えるからである.したがって,日々増え続ける新しい未知語に対して,対処法を講じる必要がある.一方,辞書を一切用いずに,コーパスにおける文字列の統計量を元にキーワードを獲得する手法がある.文献\cite{TakedaAndUmemura2001}では,adaptation(反復度)を用いたキーワード抽出法を提案している.この手法では,文書数に上限があるとき複合語が分割されて抽出され,長いキーワードとして抽出できないという問題がある.この原因について我々は,文書中での文字列の反復出現が少ないことにより,反復度をうまく推定できていないと分析した.つまり,反復度は文書数をたくさん必要とする指標である.そこで本論文では,類似する文書への出現を考えた.情報検索における検索質問拡張では,新しい索引語を検索質問に付け加えることで検索質問の不足を補う.我々はこの手法を,コーパスの文書を拡張することに応用して,長い文字列の反復出現をうまく捕らえることができないかと考えた.ここで,文書拡張したコーパスを拡張文書集合と呼ぶことにする.本論文では,反復度を用いたキーワード抽出システムを利用する.そしてこのシステムにおいて,従来法と拡張文書集合を使用する提案法との比較実験を行う.結果として,文書拡張によるキーワード抽出法は,長いキーワードの反復出現をうまく捕らえるということを確かめる.また,これまでに取れなかった分野に特化したキーワード及びフレーズ的キーワードが抽出できるという新たな性質を報告する.結論として,キーワード抽出における文書拡張の有用性を報告する.本論文では,はじめに2節でキーワードの定義を行う.次に3節で反復度を用いたキーワード抽出法と文書拡張によるキーワード抽出法について,その手法及び手順と,文書拡張の妥当性について述べる.4節では従来法と提案法において反復度の振る舞いを調査する.そして5節で実際にキーワード抽出を行い,従来法と比較及び考察する.6節で先行研究と比較する.最後に7節で本論文の調査をまとめ,結論とする.
V13N04-02
確率的言語モデルは,文字列を出力とする言語処理において幅広く用いられている.音声認識システム\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}の多くが,解選択において,音響モデルとともに確率的言語モデルを参照する.文字誤り訂正\cite{Context-Based.Spelling.Correction.for.Japanese.OCR}や仮名漢字変換\cite{確率的モデルによる仮名漢字変換}においても,確率的言語モデルを用いる方法が提案されている.さらに,機械翻訳\cite{A.Statistical.Approach.to.Machine.Translation}や文書の整形\cite{講演の書き起こしに対する統計的手法を用いた文体の整形}などにも応用されている.多くの確率的言語モデルは単語や単語列の頻度に基づいており,これは正しく単語に分割された例文(単語分割済みコーパス)に対して計数される.この単語分割済みコーパスは,一般的と考えられる分野においては既に利用可能となっているが,新たに確率的言語モデルを用いる分野(医療現場やコールセンターでの音声認識など)の言語資源としては,単語に分割されていない例文(生コーパス)やその分野の単語リストのみが利用可能であることが多い.このような状況の下での一般的な対処は,単語リストを語彙に加えた自動単語分割システム\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}により生コーパスの各文を単語に分割し,可能な限り多くの文の分割結果を人手で修正し,自動解析の結果と合わせて単語分割済みコーパスとすることである.単語分割の修正量は,多ければ多いほど統計結果の信頼性が増し,確率的言語モデルの能力は高くなる.しかしながら,単語分割の修正作業にはコストや時間がかかるので,コーパスの一部分を修正の対象とし,残りの部分に関しては自動分割の結果をそのまま用いるということがしばしば行なわれる.文単位で修正する場合には,文法の専門家でさえも正確な単語分割が容易でない機能語列などの箇所が必然的に含まれることになるが,このようなの箇所での分割方針を作業者に徹底することは非常に困難であり,作業効率の著しい低下を招く.加えて,文単位で順に修正していくことが,限られた作業量を割り当てる最良の方法であるかということも疑問である\cite{Unsupervised.and.Active.Learning.in.Automatic.Speech.Recognition.For.Call.Classification}.本論文では,コーパスの修正を一文単位ではなく単語単位とし,修正箇所を単語リストなどで与えられる適応分野に特有の単語の周辺に集中することを提案する.これにより,上述のような困難を回避することが可能となり,さらに,適応分野に特有の単語の統計的な振る舞いを捕捉するという,適応分野のコーパスを利用する本来の目的にコーパス修正の作業を集中することが可能となる.このようにして得られるコーパスは一部分の単語境界情報のみが正確である文を含む.このようなコーパスから有限の語彙に対して確率的言語モデルを推定するために,本論文では,生コーパスから無限の語彙に対して確率的言語モデルを推定する方法\cite{Word.N-gram.Probability.Estimation.From.A.Japanese.Raw.Corpus}を語彙が有限の場合に応用する方法について述べる.実験では,生コーパスの単語境界の人手による修正の程度や方法を複数用意し,その結果得られるコーパスから推定される確率的言語モデルの予測力やそれに基づく仮名漢字変換の精度を計算した.実験の結果,単語リストの各単語に対して2箇所の出現のみを人手でマークする方法では,単語数の割合にして生コーパス全体の5.22\%の修正により,単語数の割合にして生コーパス全体の45.00\%の文を文単位で修正した場合と同程度の仮名漢字変換の精度を達成することができた.また,単語リストの各単語に対して全ての出現箇所を人手でチェックすることで,コーパス全体に対して自動分割の結果を人手で修正するのと同程度の予測力と変換精度を達成できた.この結果から,適応分野に特有の語彙の出現箇所に修正のコストを集中することにより,少ない作業量で効率良く確率的言語モデルを分野適応できるといえる.
V13N03-10
敬語は日本語の重要な特徴の一つとされており,日本語の敬語は単に依頼,要求あるいは人を示す代名詞において見られるだけでなく,言語体系,及び言語行動のほぼ全般にわたって発達している.このような特徴を持つ言語は日本語以外では,韓国語,チベット語,及びジャワ語等世界中に少数しか見られない\cite{Hayashi1974}.ところが現代の日本社会において,日本語の敬語に関する様々な誤用が指摘されてきている\cite{Kikuchi1997,Ishino1986}.日本社会における敬語の誤用は,言語によるコミュニケーションを通じた社会的人間関係の構築を妨げる場合がある.特にビジネスの場面における敬語の誤用は,時として円滑なビジネスを進める上での障害にもなり得る.このため,一般的には敬語の誤用はできるだけ避けることが望ましい.敬語の誤用を避けるには,敬語の規範に関する正しい知識の習得が不可欠である.このような知識習得を効率的に行うため,敬語学習を支援する計算機システムの実現が期待される.以上の背景の下,我々は日本語発話文に含まれる語形上の誤用,及び運用上の誤用を指摘するシステムを開発した.本システムは,日本語発話文,及び発話内容に関係する人物間の上下関係を表すラベルを入力とし,入力された日本語発話文における誤用の有無,誤用の箇所,及び誤用の種類(後者二つは誤用有りの場合のみ)を出力する.最近ではこれに類似した機能を搭載した日本語入力支援ツール等が開発されてきてはいるが,既存のシステムは主に語形上の誤用の一部のみを対象としており,運用上の誤用についても極めて限られた表現しか扱うことができなかった.本システムのように,発話文に含まれる敬語の誤用を指摘するシステムの構築にあたっては,(1)敬語の規範を何処に求めるか?及び(2)発話状況をどう取り扱うか?が問題になる.本研究では,以下の考え方に基づきこれらの問題に対処している.(1)敬語の規範敬語(正確には,敬語を含む言語一般)は時代の経過と共に変化する.例えば,``お話になられる''(二重敬語)等は伝統的な日本語学においては誤用とされてきたが,近年では必ずしも誤用としては認識しない人が少なからずいることが報告されている\cite{Bunkacho1999}.このため,現代の日本において幅広く社会のコンセンサスが得られている敬語の体系的規範はないと考えられる.この問題に対し本研究では,日本語学に関する様々な文献において共通して明示的あるいは暗示的に述べられていると解釈できる規範にできるだけ厳密に準拠する,という立場を取る.このため,現代の日本社会において敬語として概して許容されている表現であっても,本システムではその表現を規範的な敬語として見なさない可能性がある.しかしこのことは,少しでも誤用の可能性のある表現をできるだけ漏らさずピックアップできる,という利点として考えることもできる.(2)発話状況の取り扱い従来の敬語研究で指摘されているように,発話状況に応じた適切な敬語(即ち,運用上正しい敬語)を選択する際に考慮すべき主な要因には,発話に関わる人物間の上下関係(年齢差や社会的地位の違いに基づき話者が判断した上下関係,以下では``主観的上下関係''と呼ぶ),人物間の親疎,人物間のウチソト,及び各人物の体面に対して発話意図が及ぼすリスク,等がある.中でも人物間の主観的上下関係は,敬語が誤用である否かを判断する際の最も重要な要因であることが,日本語の敬語に関する多くの文献において明記あるいは暗示的に述べられている\cite[等]{Kikuchi1996,Kikuchi1997,Kabaya1998,Kokugoken1990,Kokugoken1992,Minami1987}.一方,このような判断の際に,人物間の親疎,人物間のウチソト,あるいは各人物の体面に対して発話意図が及ぼすリスクが,主観的上下関係より重要な要因であることを指摘した文献は殆どない.このことは,敬語の運用の規範に関わる要因としては,主観的上下関係が最も重要な要因であることを示唆する.従って本研究においては,敬語の運用上の規範を発話に関わる人物間の主観的上下関係のみに基づいて定義する.尚,実際の場面では人物間の主観的上下関係が殆ど同じ状況も想定されるため,実用的なシステムのためにはこのような状況も扱えることが望ましいが,今回は誤用指摘システム開発の最初のステップとして,明確な主観的上下関係の下での規範に焦点を当てることとし,上下関係が殆ど同じ状況の取り扱いは今後の課題としている.\bigskip以下では,本研究における``敬語の誤用''の定義を述べた後,それに基づいた誤用指摘システムについて述べる.更に,様々なテストデータを用いたシステムの妥当性の検証,及びシステムの今後の改善点等について述べる.
V29N04-04
\label{sec:introduction}科学は再現性の危機に瀕している.生化学や生命科学などの薬品を用いた化学実験を行う研究分野においては,75\%から80\%以上の研究者が他の研究者の実験結果を再現することができなかった経験があると報告している\cite{baker2016nature}.化学実験で再現性を担保する上で鍵となるのがプロトコルである.プロトコルは人がある実験を再現するために必要な操作を時系列順に記述した文書である(\figref{fig:overview}).プロトコルには,試薬や装置などの操作対象の物体名と,対応する操作方法が動詞で,実験を再現するのに必要十分な記述がされている\footnote{自明である物体名に関しては省略されることもある.例えば,\figref{fig:overview}の手順2では手順1の成果物を指しているが,明示的に記述してはいない.}.加えて,必要であれば物体の量や,操作する時間,あるいは操作の様態が副詞で記述されていることもある.例えば,\figref{fig:overview}の手順3の``Thoroughlyresuspendpelletwith250$\mu$LofCellResuspensionSolution''では,pellet,CellResuspensionSolutionという物体名の記述があり,resuspendという操作方法が動詞で記述されている.加えて,Thoroughlyという副詞や250$\mu$Lという量に関する記述もある.こうしたプロトコルに従って実行することで,理想的には実験を再現することができるはずだが,操作に抜け漏れがあったり,操作の詳細が記述されていなかったりといった問題があると,他の研究者が実験を再現することが困難になる.こうした再現性の危機に関する問題に対する有望な解決となりうるのが,視覚と言語の融合研究である.例えば,撮影した実験映像とプロトコルの組から,映像の操作シーンとプロトコルの各手順の対応関係を推定できれば,手順ごとに視覚的に操作を確認できる.あるいは,作業映像を入力としてプロトコルを自動生成できれば研究者がプロトコルを書く負担を軽減することができる.このように,化学実験を対象とした視覚と言語の融合研究は実験プロトコルの参照時と作成時の両方の負担を軽減し,実験再現性の向上に資するであろう.こうした有用性はあるものの,実験映像を対象とした視覚と言語の融合研究の数は多くない\cite{naim2014aaai,naim2015naacl}.その原因の1つに,実験映像を撮影し公開することが困難な点にある.現に,Naimらの研究で利用しているデータセットは公開されていない.そのため,我々はこの目標に向けた第一歩として,生化学分野を対象として実験映像を収集し,言語アノテーションを付与したBioVL2データセットを構築し研究コミュニティに公開する(\figref{fig:overview}).具体的には以下の2種類のアノテーションを作業映像に付与する.\begin{enumerate}\item\textbf{視覚と言語の対応関係のアノテーション.}プロトコルを動詞ごとに分割した文のそれぞれに対して(本論文ではこれを特に\textbf{手順}と呼ぶ),映像の中で手順が実施されている区間(以下,\textbf{イベント}と呼ぶ)を付与する.このアノテーションは従来の視覚と言語の融合研究\cite{zhou2018aaai,krishna2017iccv}と同様であり,映像キャプショニング\cite{xu2016cvpr,nishimura2021acmmm}や映像と視覚の対応関係の推定\cite{naim2014aaai,naim2015naacl}などの応用研究に活用できる.\item\textbf{プロトコル内に現れる物体の矩形アノテーション.}映像中の各フレームごとに,プロトコル中の物体が写っていて,かつ実験者の手と接触があった場合に物体の矩形情報を付与する.これにより,映像中の空間的な分析(例:何が写っているか,どういう状態か)や実験者の動作分析が可能になる.また,前述のアノテーションと合わせてプロトコル中の物体名と映像中の物体との対応関係の推定\cite{zhou2018bmvc}などの応用研究にも利用できる.\end{enumerate}これらのアノテーションの付与を行うことで,映像からのプロトコル生成や手順を入力としたシーン検索が可能となる.こうした検索が行えると,初学者に対する教育効果や作業補助が期待でき,実験の再現性の向上につながる.また,データがさらに集まるようになれば,最終的にはプロトコルからのロボット操作などのより挑戦的,かつ有用性が高い課題にも取り組むことが可能になる.本研究で提案するBioVL2データセットはこうした生化学実験を対象とした言語と視覚の融合研究への第一歩である.BioVL2データセットの収集において意識した設計は,一人称視点のカメラを用いることで,研究者への撮影の負担を最小限にしたことである.実験の度に大掛かりな撮影環境を構築していては,日々実験を行う研究者らは撮影に負担を感じ,結果データセットのサイズはスケールしない.研究者らが自ら撮影に取り組めるように,できるだけ研究者への負担が少ない設計を考える必要がある.この点で,三人称カメラは撮影の度に広範な実験空間をカバーするのに複数台の設置が必要で,故障のリスクが高くなる他,同時撮影などの手間が発生する.一人称カメラは広範な実験空間をカバーしつつも,生化学分野の研究者が手軽に撮影可能である.これが一人称カメラを用いた理由である.こうして撮影を行った結果,全32の実験映像とそのアノテーションからなるデータセットを構築した.得られたBioVL2データセットを用いて,その応用として本論文では実験映像からプロトコルを生成する課題に取り組む.実験映像の数は他の映像キャプショニングのデータセット\cite{krishna2017iccv,zhou2018aaai,xu2016cvpr}と比較すると少なく,こうした課題で提案されているEnd-to-endな深層学習モデルを本課題に直接適用することは困難である.そのため,本研究では,Ushikuら\cite{ushiku2017ijcnlp}によって提案された手順書生成モデルを活用する.このモデルは本研究と同様,少量の料理映像(20映像)に対して適用できるように外部リソースを活用しながら学習できるよう設計されている.このモデルにいくつかの改良を施し,BioVL2データセットの実験映像からプロトコル生成を生成する課題に取り組む.定量的,定性的評価の結果,モデルは弱いベースラインと比較して,適切なプロトコルを生成できることを確認する.本論文で述べるBioVL2データセットは\cite{nishimura2021iccvw}にて発表したBioVLデータセットの拡張である.具体的には,(1)映像の数を16から倍の32へ増加させたこと,(2)映像への矩形アノテーションを追加で行ったことの2点の拡張を行った.さらに,\cite{nishimura2021iccvw}では行わなかった,実験映像からプロトコルを生成する課題に取り組んだことも本研究の追加の貢献である.BioVLデータセットと同様,BioVL2データセットは研究用途に限り公開する予定である\footnote{\url{https://github.com/misogil0116/BioVL2}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V10N05-02
\label{one}近年,音声認識技術や言語処理技術,計算機の処理能力の向上により,情報検索をはじめとする各種タスクを音声認識を介して実現する音声対話インタフェースへの期待が急速に高まっている\cite{NielsenAndBaekgaard1992,Godden1994,Zue1994,ZeiglerAndMazor1995,Godden1996,FergusonAndAllen1998,Nakano1999}.同時に,音声対話インタフェース実現のための対話制御方式も数多く提案されている\cite{Niimi1995a,Niimi1995b,Niimi1997,Niimi1998,KikuchiAndShirai2000,Chu-Carroll2000}.音声による入力は,操作に熟練を必要としないため利用者にとっては使い勝手が良く,入力速度はキー入力に比べ3〜4倍,手書き文字入力に比べ8〜10倍速いと言われている\cite{Hurui1998}.更に,他の器官を同時に使っての並行作業が可能であるという利点を有する.また,サービス提供者にとってはオペレータコストの削減に繋がる.実用サービスのフロントエンドとして音声認識を適用するためには,不特定多数の話者の入力に対して,迅速かつ正確に応答する必要がある.音声認識の性能は,発話様式によって大きな影響を受けることが指摘されている\cite{MurakamiAndSagayama1991}.最も単純なシステム主導,一問一答形式の単語認識でも,対象単語数が増えるほど誤認識は避けられず処理時間を要する.更に,音声認識は利用される環境や発話状況により誤認識を生じる場合も多く,公衆電話網は帯域が狭いため認識精度が落ちる.我々は,顧客が入力する住所や姓名の確定をタスクとする音声対話インタフェースの実現に向け,検討を進めている.音声認識技術においてエンジンの出力結果が正しいか否かを判断するには,発話者本人に正誤を確認するしか方法はない.特に,不特定多数の話者が入力する住所や姓名などの大語彙を認識対象とする場合,正確な応答を返すことは困難である.音声対話インタフェースの現状は,(1)~個々の質問において利用者が予期しない対象への誤認識が多い~(2)~正誤確認と誤認識を修正するための再入力要求が繰り返される,という2つの要因から利用者満足度が獲得できていない.従って,音声対話インタフェースの実用化のためには,上記2つの要因解決が必須となる.本稿は,上記要因~(1)~の解決に焦点を当て,人間が発話を聞き取る際の傾向に着目し「思い込み応答」という聞き取り結果の確認手法を提案する.そして思い込みによる認識結果の確認が,入力対象が大語彙であっても利用者にストレスを与えないことを検証する.この思い込み応答は音声入力の応答に特化したものではないが,本稿では音声入力を例として以下議論を進める.その他への適用については\ref{six}\,章の今後の課題で述べる.以下\ref{two}\,章では,大語彙を対象とした音声対話インタフェースの現状の課題について述べる.\ref{three}\,章では人間の対話における思い込み戦略を検証し,\ref{four}\,章では,市販の認識エンジンを用いて思い込み対象の選択方法について分析する.\ref{five}\,章では,思い込み戦略を取り入れた聞き取り確認手法を提案し,実装及び評価を通してその有効性を検証する.最後に\ref{six}\,章にて,まとめ及び今後の課題について述べる.
V24N01-05
製品やサービスを提供する多くの企業は顧客の問い合わせに対応するために,コールセンターを運営している.コールセンターでは,オペレータが電話やメールによる顧客問い合わせに対応する際や,顧客自身が答えを探す際の支援のために,FrequentlyAskedQuestion(FAQ)の整備および,FAQ検索システムを導入していることが多い.FAQ検索の利用者は,自然文や単語の集合を検索クエリとして,検索を実施するのが一般的である.しかし,FAQは過去の問い合わせ履歴の中から,同様の質問をまとめ,それらを代表するような抽象的な表現で作成されることが多いため,類義語や同義語,表記の揺れといった問題により,正しく検索できない場合がある.たとえば,以下の例のように入力の問い合わせと対応するFAQで語彙が一致しないことがある.\begin{itemize}\item問い合わせ:○○カードの再度発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.\item正解のFAQの質問部分:○○カードを紛失・盗難・破損した場合の手続き方法\item不正解のFAQの質問部分:○○カードを新規発行する方法\end{itemize}\noindentこの例では,正解のFAQへの語彙の一致は「○○カード」のみである.一方,不正解のFAQには,「○○カード」に加え,「発行」も一致するため,不正解のFAQが上位にランクされてしまう.このような問題に対して,たとえば,Yahoo!知恵袋などのコミュニティ型質問応答サイトにおける類似質問検索では,統計的機械翻訳で用いられるアライメントモデルを適用する方法が提案されている\cite{riezler:07,soricut:04,xue:08}.また,Web検索においては,ユーザのクエリに対して得られた検索結果の上位の文書集合を適合文書とみなしてクエリを拡張するpseudo-relevancefeedbackといった手法も用いられている.しかし,アライメントモデルが学習しているのは,単語と単語の対応確率であり,FAQを特定するために有効な語を学習しているとは言えない.また,Webやコミュニティ型質問応答サイトなど複数の適合文書が得られる可能性がある場合に用いられるpseudo-relevancefeedbackは,適合するFAQが複数存在することがWeb検索ほど期待できないFAQ検索では十分な効果が得られない可能性がある.本論文では,問い合わせを対応するFAQに分類する文書分類器を利用したFAQ検索システムを提案する.本システムでは,機械学習を基に各FAQに関連のある単語を学習することで,問い合わせ中の単語が検索対象のFAQに一致していなくてもFAQを精度良く検索することを目指す.しかし,FAQだけを文書分類器のための学習データとして用いる場合は,FAQに出現する単語だけの判別しかできないという問題が残る.そこで,文書分類器を学習するために,コールセンターにて蓄積されている顧客からの問い合わせとオペレータの対応内容である問い合わせ履歴から自動生成した学習データを用いる.問い合わせ履歴には,問い合わせに対するオペレータの対応内容は記入されているものの,明示的にどのFAQが対応するという情報は付与されていない場合がある.そのため,本論文では,Jeonらの\cite{jeon:05}「似た意味の質問には似た回答がされる」という仮定に基づき,FAQの回答部分と問い合わせ履歴の対応内容の表層的類似度を計算し,閾値以上となった対応内容と対になっている問い合わせをそのFAQに対応するものとみなして学習データとする方法を用いる.さらに,本論文では,文書分類器の判別結果に加え,問い合わせと検索対象のコサイン類似度といった多くの手法で用いられている特徴を考慮するために,教師有り学習に基づくランキングモデルの適用を提案する.素性には,問い合わせとFAQの単語ベクトル間のコサイン類似度などに加えて,文書分類器が出力するスコアを用いる.ある企業のコールセンターのFAQおよび問い合わせ履歴を用いて提案手法を評価をした.提案手法は,pseudo-relevancefeedbackおよび統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較して,高いランキング性能を示した.
V08N02-03
人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.本研究の前提とする「常識的判断」とは,「女性−婦人」,「山−丘」などは同義・類義の関係,「山−川」,「夕焼け−赤い」などは密な関係,「山−机」,「電車−空」などは疎な関係であると判断するなど,語と語の意味的関係について,コンピュータにも人間の常識的な感覚に近い判断をさせることをねらうものである.このような常識的判断を可能とするメカニズムは,利用者の意図を汲み取ることのできる人間的な情報処理システムの開発基盤として役立つと考えている.我々が開発を進めている常識的判断システム全体は,日常的な事項,すなわち,大きさ,重さ,速さ,時間,場所等に関する基本的な知識\cite{Kikuyama,Obata}と感覚や感情に関する知識\cite{Baba,Hanada,Tsutiya}で構成する判断知識ベースサブシステムと本論文で対象とする語概念間の関連度を評価する概念連鎖メカニズムで構成している.判断知識ベースを構成する知識は少数(約5千語)の代表的な語(代表語)の間の常識的な関係(事物の大小関係,夕焼け−赤いなど)を定義したものである.常識的判断システムに入力される多くの語は代表語ではなく,知識ベースには陽に表現されていない未知語となるため概念連鎖メカニズムは,これらの未知語について,意味的関係やその強さの度合いを評価し,最も関連の強い代表語を決定する.本稿では,この概念連鎖メカニズムの基盤となる概念ベースの構造,すなわち,語とその意味を表す属性(関連の強い語)の集合の構成とそれを用いた概念間の関連度の定量化方式について提案している.従来は一般に,概念間の類似性に重点が置かれ類似度として評価されているが,本稿では類似性のみならず「山と川」,「電車と駅」,「川と水」など概念間の幅広い関係の評価を対象とするため関連度として評価している.例えば,類似性の評価において「車と馬」は乗り物という観点において類似しているという考え方がとられているが,本稿の関連度評価では,両者の概念は乗り物という共通の属性をもっているに過ぎないと考え,全体としての関連度はかなり低いものとなる.当然,観点として乗り物が設定された場合の関連度は高くなる.観点となる概念のもつ属性の範囲に限定した関連度を評価する\cite{Irie2}ことにより,類似や相対,反意などにも対応可能である.概念間の類似度に関するテーマについては,幾つかの研究成果が報告されているが\cite{okada,oosuga,suzuki},多くは,連想に関する理論,あるいは,自然言語処理における類似語の処理などの研究であり,本研究で対象とするような常識的判断のための概念ベースや概念関連度とは異なる.概念ベースの構造や必要とされる正確さは目的により異なったものとなる.我々の対象とする常識的判断システムの概念ベースは自動学習や利用者の教示による継続的な改善(成長)が前提となる.常識的判断の適切さは概念ベースの内容と関連度計算方式に左右されるため,利用を通じた概念ベースの恒常的な成長の容易性は極めて重要な評価要因となる.\cite{kasahara4}では,概念構造の定義と概念ベースの機械構築および概念類似度の計算方式について興味深い報告がなされている.そこでは,一つの概念を,「意味特徴を表す属性」と「概念と属性の関連の深さを表す重み」で表現された$m$次元ベクトルとして取り扱い,2つの概念間の類似度は正規化された2ベクトルの内積として計算している.このベクトル空間モデルでは,約4万の概念を約3千の独立性の高い属性で表現することによりベクトル表現のための直交性の問題に対処しているが,必ずしも直交性が保証されているとは言えない.また,属性の重みの問題として,出現頻度に基づき重みが付与されているが,属性の追加/修正が発生した時,新しい属性の重みをどのように決定するのか,既に存在する属性の重みはどのように変更するのか,という問題が生じ,概念ベースの継続的な成長を前提とすることは難しい.本稿では,これらの問題を考慮した上で,継続的な成長を容易とするような新たな概念ベースを構築し,常識的判断として適切な関連度を計算できるような関連度評価方式を提案し,実験により評価する.以下,2章で,まず,概念連鎖メカニズムの実現に必要となる概念ベースの構造について述べ,より単純な構造の概念ベースを提案する.3章では,本稿の主題である概念関連度の定量化の問題を定式化し,概念の$n$次属性までの論理関係を考慮する新方式の提案を行う.4章では,2,3章で提案した概念ベースと概念関連度計算方式の各組合わせについて評価実験を行い,人間の常識的判断により近いかという観点と,概念ベースの継続的な成長の容易性の観点において従来法との比較検討を行う.
V24N01-01
日本は,2007年に高齢化率が21.5\%となり「超高齢社会」になった\cite{no1}.世界的に見ても,高齢者人口は今後も増加すると予想されており,認知症治療や独居高齢者の孤独死が大きな問題となっている.また,若い世代においても,学校でのいじめや会社でのストレスなどにより精神状態を崩すといった問題が起きている.このような問題を防ぐ手段として,カウンセリングや傾聴が有効であると言われている\cite{no2}.しかし,高齢者の介護職は人手不足であり,また,家庭内においても,身近に,かつ,気軽に傾聴してもらえる人がいるとは限らない.このような背景のもと,本論文では,音声対話ロボットのための傾聴対話システムを提案する.我々は,介護施設や病院,あるいは,家庭に存在する音声対話ロボットが傾聴機能を有することにより,上記の問題の解決に貢献できると考えている.傾聴とは,話を聴いていることを伝え,相手の気持ちになって共感を示しつつ,より多くのことを話せるように支援する行為であり,聴き手は,表1に挙げる話し方をすることが重要であるとされる\cite{no3,no4,no5}.また,傾聴行為の一つとして回想法が普及している.回想法とは,アメリカの精神科医Butlerによって1963年に提唱されたものであり\cite{no6},過去の思い出に,受容的共感的に聞き入ることで高齢者が自分自身の人生を再評価し,心理的な安定や記憶力の改善をはかるための心理療法である\cite{no7}.本論文は,この回想法による傾聴を行う音声対話システムの実現を目指す.\begin{table}[b]\caption{傾聴において重要とされる話し方}\label{table:1}\input{01table01.txt}\end{table}音声対話システムとして,音声認識率の向上やスマートフォンの普及などを背景に,AppleのSiri\cite{no8}やYahoo!の音声アシスト\cite{no9},NTTドコモのしゃべってコンシェル\cite{no10}といった様々な音声アプリケーションが登場し,一般のユーザにも身近なものになってきた.単語単位の音声入力や一問一答型の音声対話によって情報検索を行うタスク指向型対話システムに関しては,ある一定の性能に達したと考えられる\cite{no11}.しかしながら,これらの音声対話システムは,音声認識率を高く保つために,ユーザが話す内容や発声の仕方(単語に区切るなど)を制限している.一方で,雑談対話のような達成すべきタスクを設定しない非タスク指向型対話システムも多く提案されており(Tokuhisa,Inui,andMatsumoto2008;BanchsandLi2012;Higashinaka,\linebreakImamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,andMatsuo2014;\linebreakHigashinaka,Funakoshi,Araki,Tsukahara,Kobayashi,andMizukami2015)\nocite{no12,no13,no14,no15},傾聴対話システムも提案されている.傾聴対話システムの先行研究として,Hanらの研究\cite{no16,no17},および,大竹らの研究がある\cite{no18,no19}.これらの研究は,いずれも対話システムによる傾聴の実現を目的としており,5W1H型の疑問文による問い返し(e.g.,Usr:とっても美味しかったよ.⇒Sys:何が美味しかったの?)や,固有名詞に関する知識ベースに基づく問い返し(e.g.,Usr:ILikeMessi.⇒Sys:WhatisMessi'sPosition?),あるいは,評価表現辞書を用いた印象推定法による共感応答(e.g.,Usr:寒いしあまり炬燵から出たくないね.⇒Sys:炬燵は暖かいよね.)などの生成手法が提案されている.Hanら,大竹らの研究は傾聴対話システムの実現を目的としている点において,我々と同様である.しかしながら,これらの研究はテキスト入力を前提としているため,音声入力による対話システムへ適用する際には,音声認識誤りへの対応という課題が残る.傾聴のような聞き役対話システムの先行研究としては,目黒らの研究がある\cite{no20,no21,no22}.この研究では,人同士の聞き役対話と雑談を収集し,それぞれの対話における対話行為の頻度を比較・分析し,さらに,聞き役対話の流れをユーザ満足度に基づいて制御する手法を提案している.ただし,この研究の目的は,人と同様の対話制御の実現であり,また,カウンセリングの側面を持つ傾聴ではなく,日常会話においてユーザが話しやすいシステムの実現を目指している点で,我々と異なる.また,山本,横山,小林らの研究\cite{no23,no24,no25,no26,no27}は,対話相手の画像や音声から会話への関心度を推定し,関心度が低い場合は話題提示に,関心度が高い場合は傾聴に切り替えることで雑談を継続させる.発話間の共起性を用いて,音声の誤認識による不適切な応答を低減する工夫も導入している.さらに,病院のスタッフと患者間の対話から対話モデル(隣接ペア)を用いた病院での実証実験を行っており,ロボットとの対話の一定の有効性を示している.しかしながら,傾聴時において生成される応答は「単純相槌」「反復相槌」「質問」の3種類であり,ユーザ発話中のキーワードを抽出して生成されるため,ユーザ発話中に感情表現がない場合に(e.g.,Usr:混雑していたよ),傾聴において重要とされる「共感応答」(e.g.,Sys:それは残念でしたね)は扱っていない.同様に,戦場の兵士らの心のケアを目的とした傾聴対話システムSimCoachや,意思決定のサポートをするSimSenseiという対話システムも構築されている\cite{no28,no29}.SimCoachやSimSenseiはCGによるAgent対話システムで,発話内容に合わせた豊かな表情や頷きを表現することで,人間とのより自然な対話を実現している点も特徴である.我々は,対話システムの機能を,回想法をベースとした傾聴に特化することにより,音声認識や応答生成のアルゴリズムをシンプル化し,対話が破綻することなく継続し,高齢者から若者まで満足感を感じさせるシステムの実現を目指す.Yamaguchiら,Kawaharaらは,傾聴対話システムがユーザ発話に対して傾聴に適した相槌を生成する手法とその有効性について報告している\cite{no30,no34}.具体的には,人同士の傾聴時の対話で生じる相槌を対象として相槌が持つ先行発話との関係を分析し,それに基づいて相槌生成の形態,韻律を決定する手法を検討した.結果として,先行発話の境界のタイプや構文の複雑さに応じて相槌を変えることや,先行発話の韻律的特徴と同調するように韻律的特徴を制御することの有効性を述べている.相槌の生成ではタイミング,形態,韻律が重要であるが,今回のシステムでは,適切な内容の応答生成による対話の継続と満足感の評価を目的としている.本論文の貢献は,音声認識誤りを考慮した上で,傾聴時に重要な応答の生成を可能にする手法の提案,および,提案手法が実装されたシステムの有効性を,応答正解率の観点と,100人規模の被験者実験による対話継続時間と主観評価による満足度の観点で評価した点である.本論文の構成は,次のようになっている.第2章で本傾聴対話システムの概要を述べる.第3,4,5章は,本対話システムの機能である音声認識,および,認識信頼度判定部,問い返し応答生成部,共感応答生成部に関する実装に関して,第6章で評価実験と結果について説明し,第7章でまとめる.
V24N04-04
\label{sec-introduction}さまざまな種類のテキストや,音声認識結果が機械翻訳されるようになってきている.しかし,すべてのドメインのデータにおいて,適切に翻訳できる機械翻訳器の実現はいまだ困難であり,翻訳対象ドメインを絞りこむ必要がある.対象ドメインの翻訳品質を向上させるには,学習データ(対訳文)を大量に収集し,翻訳器を訓練するのが確実である.しかし,多数のドメインについて,対訳文を大量に収集することはコスト的に困難であるため,他のドメインの学習データを用いて対象ドメインの翻訳品質を向上させるドメイン適応技術が研究されている\cite{foster-kuhn:2007:WMT,foster-goutte-kuhn:2010:EMNLP,axelrod-he-gao:2011:EMNLP,Bisazza:SMTAdaptation2011,sennrich:2012:EACL2012,sennrich-schwenk-aransa:2013:ACL2013}.このドメイン適応は,機械翻訳を実用に供するときには非常に重要な技術である.本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案する.本稿の提案方式は,複数のモデルを対数線形補間で組み合わせる方法である.シンプルな方法であるが,機械学習分野のドメイン適応方法である素性空間拡張法\cite{daumeiii:2007:ACLMain}の考え方を流用することで,複数ドメインの利点を活かす.具体的には,以下の2方式の提案を行う.\begin{enumerate}\item複数ドメインの同時最適化を行う方法.この場合,拡張された素性空間に対して,マルチドメイン対応に変更した最適化器で同時最適化を行う.\item複数ドメインを一つ一つ個別に最適化する方法.この場合,素性空間を制限し,通常の対数線形モデルとして扱う.既存の翻訳システムへの改造が少なくても実現できる.\end{enumerate}いずれの方法も,さまざまなドメインで未知語が少ないコーパス結合モデルと,ドメインを限定した際に翻訳品質がよい単独ドメインモデルを併用する.さらに,複数モデル組み合わせ時のハイパーパラメータをチューニングする.素性空間拡張法を機械翻訳に適用した例には,\citeA{Clark:SMTAdaptation2012}がある.これは,翻訳文の尤度の算出に用いられる素性ベクトルの重みだけを適応させていて,素性関数は適応させていない.本稿の新規性は,コーパス結合モデルと単独ドメインモデルを使って,素性関数を適応させていること,および,複数モデル組み合わせ時のハイパーパラメータを適切に設定することの2点である.モデルの選択と設定を適切に行うことによって,最先端のドメイン適応と同等以上の精度が出せることを示す.なお,本稿では,事前並べ替えを使ったフレーズベース統計翻訳方式(PBSMT)\cite{koehn-och-marcu:2003:HLTNAACL,koehn-EtAl:2007:PosterDemo}を対象とする.以下,第\ref{sec-related-work}節では,統計翻訳のドメイン適応に関する関連研究を述べる.第\ref{sec-proposed-method}節では,提案方式を詳細に説明する.第\ref{sec-experiments}節では,実験を通じて本方式の特徴を議論し,第\ref{sec-conclusion}節でまとめる.
V30N04-03
\label{sec:intro}近年,深層学習に基づく言語モデルは左右の文脈から単語の穴埋めをしたり\cite{devlin-etal-2019-bert},テキストからテキストを生成したり\cite{Raffel2020t5},次に続く単語を予測したり\cite{BrownGPT3NEURIPS2020_1457c0d6}して訓練することで,多くの自然言語処理タスクにおいて高性能を出せるような汎用的な表現を得ることができる.また,このようなモデルを元にファインチューニングを行うことで,数量推論のような複雑な処理が必要だと思われる問題においてもある程度高い性能を出せることが知られている\cite{geva-etal-2020-injecting}.数量推論の例を以下に示す.\begin{quote}Q.ジョンは5本ペンを持っていて、そのうち3本をマリーにあげた。ジョンは今ペンを何本持っている?A.2本\end{quote}このような問題に答えるためには,モデル内で「5」や「3」といった数や「あげる」という行為の意味を理解し,$5-3=2$という処理を行う必要がある.「数」は実社会の至る所に存在しているため数を用いて推論することは世界理解や経済的な知的活動のためにも必要不可欠であり,このようなモデルは実用的にも有用である\cite{thawani-etal-2021-representing,chen-etal-2019-numeracy}.では,そもそも言語モデルはどの程度数値計算ができるのだろうか.先ほどの例を以下のように単純化すると,純粋な数値計算能力を問う問題となる.\begin{quote}Q.$5-3=?$A.2\end{quote}複数の先行研究では線形代数や初等数学のような数値計算のタスクを通じて言語モデルが持つ潜在的な能力を測っており\cite{saxton2018analysing,Francois:2021},現在のモデルによって解ける問題や解けない問題の性質が分かりつつある.言語モデルの数学的な能力を調査することは数量推論時に必要な数値計算能力を調査できるという意味で実用上役立つだけでなく,ニューラルネットワークの記号処理能力を理解するという科学的な興味にも繋がる.一方で,モデルがこのような問題を解く際,その内部で何が行われているかについての研究はほとんど行われていない.しかし,モデルの能力をよりよく理解するためには,入出力の結果だけでなくその内部での処理を分析することも非常に重要だと考えられる.内部処理を明らかにすることはモデルの解釈可能性を向上させ,実用的にはエンジニアやユーザが数量推論モデルをより信頼できるようにすることができる.また,科学的視点からは,ニューラルネットワークの記号処理能力を入出力を分析するだけでは判断できない部分まで詳細に理解することが可能になる.例えば,モデルはヒューリスティックではなく本当に数学的能力を獲得できているのか,すなわち汎化できているのかという議論\cite{Razeghi-etal-2022,patel-etal-2021-nlp}に対して新しい角度から証拠を提示することができる.モデル内部での処理を分析するため,本研究では数式とその\textbf{途中結果}に着目する.我々人間が$54-((258+314)-(143-96))$のような数式を解く時,まず$258+314=572,143-96=47$を計算して,次は$572-47=525$を計算して,というような\textbf{途中結果}を介した複数ステップに及ぶ推論を行っている.途中結果は任意の長さの数式を徐々に簡単化し,最終的な答えを出すための非常に重要な要素である.では,モデルはこのような途中結果を介した推論を行っているのだろうか?これを検証するためには,(a)モデル内部に途中結果が保存されていること(b)保存されているだけでなく,途中結果がモデルに使用されていることを示せば良いと考えられる.これを調べるため,本研究では数式が解けるモデル(これをニューラル数式ソルバーと呼ぶ)中の内部表現と数式の途中結果の相関関係,そして因果関係を分析する手法を提案する.本手法の概要を図~\ref{fig:overview}に示す.まず四則演算を学習したTransformer\cite{NIPS2017_3f5ee243}の内部状態から主成分分析を用いて途中結果と相関の高い,すなわち途中結果を符号化しているような方向を抽出したのち,その部分のアクティベーションを連続的に操作してモデルの予測結果が意図したように変化するかを観察する\footnote{先行研究にならい,本研究における``アクティベーション''は隠れ層のベクトルの要素の値だと定義する.}.これによって,途中結果を符号化している部分がモデルの推論に与える因果的な影響を調査する.その結果,途中結果を符号化しているような方向の中には実際にモデルの推論時にも途中結果としてはたらくものがあることを発見し,モデルが途中結果を介した推論を行っている因果的な証拠を示した.また,相関が高くてもモデルの推論には使用されていない方向も確認されたため,モデルの内部を分析する際に因果的な関係を調査することの重要性を示唆する結果となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{30-4ia2f1.pdf}\end{center}\hangcaption{途中結果の追跡(Tracing)と操作(Manipulation)の概要.Tracing(上部)ではPCAを用いて,数式中の途中結果と相関が高いモデル内の方向を追跡する.Manipulation(下部)では,Tracingで追跡された方向に沿ってアクティベーションの操作が行われたモデル(操作済みモデル)のモデル予測の変化を観察する.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文の貢献は,言語モデルが数学的な問題を途中結果を保存,使用しながら解いていることを明らかにした点である.また,数学的な問題を解く際のモデルの内部処理を詳細に分析できる手法を提案した,ということ自体も貢献である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V08N03-05
\label{sec:introduction}よく知られているように,人間が英語を日本語に翻訳するとき,英語の代名詞を日本語の代名詞としては表現せず,ゼロ代名詞化したり他の表現に置き換えたりすることが多い.これに対して,従来の英日機械翻訳システムでは,多くの場合,英語の代名詞はそのまま日本語の代名詞に訳される.このように代名詞を直訳すると,英文が伝えている意味と異なる意味を伝える訳文が生成されたり,文意は同じでも不自然で読みにくい訳文が生成されてしまうという問題が生じる.従って,品質の高い英日機械翻訳システムを実現するためには,ゼロ代名詞化する必要のある代名詞や他の表現に置き換えるべき代名詞を直訳しないようにすることが重要な課題となる.直訳すべきでない代名詞を認識することは一見単純であるように思えるが,ゼロ代名詞化や他の表現への書き換えには様々な要因が絡んでいるため,代名詞を直訳してもよい場合とそうでない場合をどのように区別すればよいかはそれほど自明なことではない.なお,本稿では,紛れない限り,人称代名詞と限定的機能を持つ所有代名詞\cite{Quirk85}を単に代名詞と呼ぶ.ゼロ代名詞化に関する工学的な研究は,滑川ら\cite{Namekawa99}や宮ら\cite{Miya00}による報告がある程度で,これまであまり行なわれていない.宮らの方法では,機械翻訳システムの出力文から代名詞を消すかそのまま残すかの二値の判定が,代名詞とそれに付属する助詞の表記に着目して人手で記述した規則に基づいて行なわれる.しかし,二値の判定では次の文(J\ref{SENT:scold})のような場合に適切に対処できない.文(J\ref{SENT:scold})には,``she''が``Mary''を指しているという文(E\ref{SENT:scold})の文意を伝えないという問題がある\cite{Kanzaki94}.この問題に対処するために,文(J\ref{SENT:scold})から「彼女」を消すと「家を出る」の主語が「メアリー」であるのか「ジョン」であるのかが曖昧になるという問題が新たに生じる.主語の曖昧さが生じるのを抑え,かつ文(E\ref{SENT:scold})と同じ文意を伝えるためには,文(J\ref{SENT:scold}'')のように「彼女」を「自分」に置き換える必要がある.\begin{SENT3}\sentEMaryscoldedJohnbefore{\itshe}lefthome.\sentJ彼女が家を出る前に,メアリーはジョンを叱った.\NewsentJ$\phi_{she}$家を出る前に,メアリーはジョンを叱った.\YAJ自分が家を出る前に,メアリーはジョンを叱った.\label{SENT:scold}\end{SENT3}また,代名詞をどのように書き換えるかは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,統計的帰納学習法を利用して事例集から規則を自動的に作成するほうが適切であると考えられる.このようなことから本稿では,1)代名詞を消すか残すかの二値の判定ではなく,消すか残すかあるいは他の表現に置き換えるかの多値の判定を行ない,2)規則の記述を人手で行なうのではなく,決定木学習アルゴリズムを利用して事例集から規則を自動的に作成する方法を示す.以下,代名詞を直訳するとどのような問題が生じるかを\ref{sec:problems}\,節で整理する.次に\ref{sec:decision_tree}\,節で決定木学習に簡単に触れる.\ref{sec:corpus}\,節では決定木学習に必要な正解付きコーパスの作成について述べ,\ref{sec:feats}\,節で決定木学習に使用した属性について説明する.\ref{sec:experiment}\,節では,提案手法の有効性を検証するために行なった実験の結果について考察する.
V26N01-01
\label{sec:intro}Universal\Dependencies\(UD)\\cite{mcdonald:2013}は,言語間で共通のアノテーション方式を用いて多言語の構文構造コーパス(ツリーバンク)を開発する国際プロジェクトである.多言語の構文構造コーパスを構築する試みはこれまでにも行われているが,言語ごとに独自のアノテーション方式(アノテーション対象,タグ,ラベルなど)が定義されていた\cite{hajivc-EtAl:2009:CoNLL-2009-ST}.UDは全ての言語で共通のアノテーション方式を用いるため,異なる言語間の構文的対応関係が明示的に記述される.したがって,多言語構文解析器の開発,構文解析器を用いた多言語アプリケーションの処理の共通化\cite{udpipe:2017},コーパスを用いた言語間比較\cite{noji:2015}などさまざまな研究開発に利用されており,さらに2017年と2018年には国際会議において構文解析のsharedtaskが行われた\cite{zeman2017conll,udst2018:overview}.2018年6月現在,約60の言語で100以上のコーパスが開発・公開されており,国際的には構文解析研究においてもっとも重要なプロジェクトの一つと認識されている.日本語構文解析やその応用の研究を国際的な研究の俎上に載せ,国際的な研究の流れに取り残されないようにするためには,UDに基づく日本語コーパスの整備が必須である.UDでは,品詞(UniversalPOSTags;以降はUPOSと表記する)\cite{petrov:2012:lrec}や依存関係ラベル(UniversalTypedDependencyRelation)があらかじめ定義されており,全ての言語のコーパスはこれに従ったアノテーションを行うことが求められる.しかし,\ref{sec:japanese}節以降で示すように,UDの仕様を各言語に適用する際にタグやラベルが一意に決定できない事象が多数存在し,UPOSや依存関係ラベルで各言語の実際のテキストデータをどのようにアノテートすべきかは自明でない.日本語も例外ではなく,現在のUDの定義を適用するためには,日本語の構文構造の特性や他の言語との対応関係を考慮しながら,日本語用のアノテーション仕様を定義する必要がある.著者らは,UDにおいて日本語コーパスを開発することを目指して,品詞および依存関係ラベルの仕様を策定し,UDへの自動変換に必要な言語資源を整備し,既存の日本語コーパスをUDに準拠したコーパスに変換するプログラムの開発を進め,UDとしての正解データの構築に努めてきた.このような努力にもかかわらず,現在までに開発してきたデータは,仕様の策定・変換元の言語資源の整備・変換プログラムのいずれかに問題があるために,UDの仕様に完全に則したものに至っていない.残された問題については定量的に評価することは困難であるが,発見次第,仕様の変更・必要な言語資源の整備・変換プログラムの修正を行いながら,随時改善を行っている.本稿では,これまでに策定した日本語UDの定義と,それに至るまでの主要な論点を紹介し,特に問題となる並列構造の扱いについて議論しながら,今後の日本語UDあるいはUD全体の改善について展望を述べる.まず,\ref{sec:ud}節でUDの概要について解説する.\ref{sec:japanese}節では,UDに基づいた日本語の構文アノテーションを行うための,語の単位,品詞体系,依存構造ラベルの定義について述べる.しかしながら,UD本体の仕様が言語横断的に必ずしも整合していないために,日本語に適応する上で様々な問題がある.本稿で述べる定義に至るまでに主として議論されてきた点を\ref{sec:discussion}節にて列挙しながら,既存の言語資源やツールに情報が足りないものや,UDの基準を日本語に適用する際に問題が起きる事象について定義を与えていく.なお,未解決の問題について網羅的に言及することは困難であるため,コーパスにおける頻度が大きい代表的な問題についてのみ触れる.\ref{sec:coord}節では,依存構造木で本質的にそのスコープを表現できない並列構造の扱いについて議論する.以上の定義に従って開発されたUD日本語版の言語リソースや,その構築の手順や公開の状況を\ref{sec:resources}節にて紹介する.\ref{sec:related}節で本稿に散在する先行研究をまとめる.\ref{sec:summary}節で今後の展望について述べる.
V31N03-08
\label{section:introduction}近年,ニューラルネットワークをベースとした対話システム(以下,ニューラル対話システム)の発話生成の性能は著しく向上している\cite{brown2020language,ouyang2022training,glaese2022improving}.しかし,ユーザと対話をすること自体が目的である「非タスク指向型対話(雑談)」に関する研究では,ニューラル対話システムが受動的な発話を生成する傾向があるという問題が指摘されているなど\cite{akasaki:naacl2019:conversation-initiation,wu2019proactiveGuideTargetKG,Liao2023ProactiveAgentLLM,Yuan2020passiveMultiHop},話題や話題に関する情報,感想を積極的に提示する能力に欠けていることが知られている.一方で,人同士の雑談では感想を述べる発話が対話の盛り上がりに寄与すること\cite{tokuhisa:jsai2006:moriagari},また人がシステムと話すとき相手に人と同様の振る舞いを期待する傾向がある\cite{Nass2000MachinesAM}ことを踏まえると,対話システムが積極的に感想を述べる発話を生成することは,雑談を盛り上げユーザの満足度を高める上で重要と考えられる.こうした背景を踏まえ,感情を表現する対話システムの開発も行われてきた\cite{meguro:collling2010:marcov-dicision}.しかし,話題や相手発話に対して自然かつ共感を得られるような感想の表現は,話題や相手発話の理解に加え,それらから妥当な感想を推測するための常識的知識などの活用が求められる非常に挑戦的な課題と考えられる.実際に,対話システムが適切でない感情発話を生成することにより倫理面や安全性の観点で問題が起きる危険性について指摘されている\cite{Dian/DBLP/exposingProblems,Xu:DBLP:saftyChatbots}.そこで我々は,倫理面や安全性の問題に配慮しながら自然な感想を発話するシステムの実現方法のひとつとして,雑談において扱う話題に対して実際に人によって書かれた適切な意見や感想を外部情報として利用することを試みる.特に,SNSに集まった投稿を人々の感想として利用する具体的な例題として,ニュース記事を引用しているツイートを利用して,そのニュース記事の内容を話題とする雑談をすることを考える.図~\ref{fig:ideal-dialog-type}に,この例題において我々が目標とする対話システムの出力例を示す.図~\ref{fig:ideal-dialog-type}の左側はニュース記事とそれに対する\tweetを,右側はこれらを活用した対話例を示している.図~\ref{fig:ideal-dialog-type}に示すように,\tweetに含まれる感想を対話に取り入れて話題を提供することで,より魅力的で対話の盛り上がりに寄与する発話が生成できると期待している.このような発話生成の実現のためには,発話と発話に関連する外部情報として感想が付与された対話コーパスが有用となるが,現時点では存在しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-3ia7f1.pdf}\end{center}\caption{対話システムの全体像.}\label{fig:ideal-dialog-type}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文では,図~\ref{fig:ideal-dialog-type}に示すような対話システムの構築に有用な対話コーパスとして「感想付きニュース雑談コーパス」を構築する.本コーパスの特徴として,話者の一方はシステム役として,発話時に積極的に第三者の感想(ニュースに対する\tweet)を使って発話をし,もう一方の話者はユーザ役として,システム役が提示する話題に興味を持ち,その話題を深く理解しながら対話をしている.さらに,構築した「感想付きニュース雑談コーパス」を用いて,対話文脈に基づいた引用すべき第三者の感想の選択や,選択した感想を組み込んだ発話生成を対話システムに学習させ,生成発話を感想の表現に対する積極性や雑談の盛り上がりの観点で評価する.本論文における我々の貢献は以下の$2$点である.\begin{enumerate}\item「感想付きニュース雑談コーパス」を構築した\footnote{本論文で構築したコーパスは,\url{https://github.com/fukanarita/newschat-with-impression}で公開している.}.具体的には,$47$件のニュース記事に対して,$11,256$発話を含む$1,005$対話を収録したコーパスを構築した.\item\label{generation}構築した「感想付きニュース雑談コーパス」を用いて学習済の対話システムを\finetuningし,\tweetや文脈を入力して生成した発話を,感想の表現に対する積極性や雑談の盛り上がりの観点で評価した.評価の結果,従来法に比べて文脈に対して自然な発話を生成でき,かつ感想を含む発話を多く生成できることが分かった.加えて,これらのシステムにより生成された発話は,雑談を盛り上げるような発話となっていることが明らかとなった.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V21N02-03
\label{sc:introduction}近年,Webを情報源として,人間の情報分析や情報信憑性判断などの支援を目的としたシステム開発に関する研究が行われている\cite{Akamine2009,Akamine2010,Ennals2010,Finn2001,Kaneko2009,Miyazaki2009,Murakami2010,Shibuki2010,Shibuki2013,Kato2010,Kawai2011,Matsumoto2009,Nakano2011,Fujii2008,Yamamoto2010}.このようなシステムの開発においては,そもそも,どのような情報を提示することが効果的な支援につながるか,また,そのためにどのような処理を行う必要があるか,といった点から検討しなくてはならないことが多く,そういった検討に必要な情報が付与されたコーパスが必要となる.加えて,開発されたシステムの性能を評価するための正解情報が付与されたコーパスも必要となる.そういった情報が付与されたコーパスは,一般に利用可能でないことが多いため,開発の基礎となるコーパスを構築する研究が行われている\cite{Nakano2010,Ptaszynski2012,Radev2000,Wiebe2005,Shibuki2009,Shibuki2011b,Matsuyoshi2010,Nakano2008,Iida2010,Hashimoto2011}.我々は,これまで,「ディーゼル車は環境に良い」といった,利用者が信憑性を判断したい言明\footnote{本論文では,主観的な意見や評価だけでなく,疑問の表明や客観的事実の記述を含めたテキスト情報を広く言明と呼ぶこととする.}({\bf着目言明})に対して,その信憑性判断を支援するために有用なテキスト群をWeb文書から探し,要約・整理して提示する研究を行ってきており,その基礎となるコーパスを3年間で延べ4回\footnote{初年度で2回,次年度以降は年1回のペースで構築した.}構築している.研究当初,我々は,情報信憑性判断支援のための要約として,言明間の論理的関係の全体像を把握するのに有用な,論理的関係の要所に位置する言明を重要言明とみなし,それらを優先的に提示することによって情報量を抑える,サーベイレポート的な要約を考えて{いた.}この考え方の下で,着目言明に関連する重要言明をWeb文書集合から網羅するようなアノテーションを第1回と第2回のコーパス構築において行った.こうして構築されたコーパスを分析した結果,一見すると互いに対立しているようにみえる二つの言明の組が,実際には対立しておらず,ある条件や状況の下で両立可能となっている場合({\bf疑似対立})があることが分かった.また,疑似対立の場合に両立可能となる状況を第三者視点から簡潔に説明している記述が少数ではあるがWeb文書中に存在していることも分かり,そのような記述を利用者に提示することができれば,利用者の信憑性判断支援に役立つと考えた.以上の経緯から,我々は,二つの言明の組が疑似対立である場合に,第三者視点から両立可能となる状況を簡潔に説明している記述をWeb文書から見つける要約を{\bf調停要約}として提案した.以後,調停要約を信憑性判断支援のための要約の中心に位置付けて,第3回と第4回のコーパス構築を行い,調停要約を自動生成する手法を開発した.{我々は},サーベイレポート要約と調停要約を,それぞれ情報信憑性判断支援のための要約の一つとして位置づけている.情報信憑性判断支援のための要約といった比較的ユニークな研究課題に新しく取り組むに当たって,構築されるコーパスには,手法のアルゴリズム等を検討するための分析用コーパスとしての役割と,手法の性能を測るための評価用コーパスとしての役割の両方が要求される.したがって,本論文では,この要求に応えるタグセットとタグ付与の方法について述べる.また,要約対象は,Web検索等により得られた任意のWeb文書集合であるため,アノテーションの対象となる文書集合をどのように決定するかという問題が生じる.この問題に対して,我々が採った方法についても述べる.また,情報信憑性判断のための要約といった同一の研究課題で,作業内容の改良を重ねながら4回のコーパス構築を行った事例は少なく,そういった希少な事例としても報告したい.本論文では,4回にわたって構築したコーパスを,着目言明に関連する重要言明を網羅することを目的として構築された,第1回と第2回の{\bfサーベイレポートコーパス}と,調停要約に焦点を当てて構築された,第3回と第4回の{\bf調停要約コーパス}に大きく分けて説明する.また,それぞれのコーパスを構築する際に直面した課題について,我々がどのように対応したかを述べ,コーパス構築を通して得られた知見を報告する.本論文の構成は以下の通りである.\ref{sc:summary4ic}節では,コーパス構築の目的である,情報信憑性判断支援のための要約における我々の基本的な考えを述べる.\ref{sc:survey_report}節では,サーベイレポートコーパスの構築における背景を述べた後,どのような課題が存在し,我々がどのように対応しようとしたかを述べる.また,実際のコーパス構築手順とアノテーションに用いたタグセットを述べ,構築されたサーベイレポートコーパスを分析した結果について報告し,考察を行う.\ref{sc:mediatory_summary}節では,調停要約コーパスについて\ref{sc:survey_report}節と同様の記述をする.\ref{sc:related_work}節では,コーパス構築の関連研究について述べ,情報信憑性判断支援のための要約に関するコーパス構築の位置付けを明確にする.\ref{sc:conclusion}節はまとめである.
V16N04-02
近年,コロケーションの研究は自然言語処理及びコーパス言語学において盛んになっている.このコロケーションの一種である遠隔共起\footnote{本稿では,あるテクストにおいて,語と他の言語的要素が同時に出現する現象を「共起」と呼ぶ.情報処理およびコーパス言語学において,同じような意味で「コロケーション」という用語も利用される.文末モダリティ形式との共起は語と文法範疇の共起とも考えられ,そのような語と文法範疇の共起は「コリゲーション」という用語を使用することがある.それに対して,語と語の共起は「コロケーション」と呼ばれる\cite{IshikawaBook}.本章では,両方の現象を「共起」という用語で扱う.「遠隔共起」というのは離れた位置に出現する共起である.}は,頻繁に現れる言語現象であるにも関わらず,研究としては取り上げられていない.日本語における遠隔共起の一つとして推量副詞と文末モダリティ形式\footnote{たとえば,「\textgt{\underline{たぶん}}最初は発表のスタイルもばらばらで声もあまり出ない\textgt{\underline{だろう}}」の例には,「たぶん」は推量副詞,「だろう」は文末モダリティ形式である.推量副詞および文末モダリティは,両方とも,話し手の確信の度合いを表している.}との共起関係があげられ,日本語教育においても重要な問題の一つである.このような共起はモダリティを二重に表現していることにより,テクストにおける重要な語用論的な指標となっている\cite{Bekes}.\shortciteA{Srdanovic2008a}では,工藤\citeyear{Kudou}が示した確率論的性格を有する推量副詞と文末モダリティの「共起」の振る舞いが,複数のコーパスの分析の結果においても確認された.さらに,推量副詞と文末モダリティ形式の共起はテクストの種類によって著しく異なっていることが示され,日本語コーパス資料の分類の可能性が明らかにされた.日本語においてモダリティ形式とそのバリエーションが非常に多いにもかかわらず,そのリストが存在しないため,現在の形態素解析ツールにおいては複数の形態素の連なりからなる様々なモダリティ形式の認識が不可能である.このことから,本研究ではコーパス検索ツールSketchEngine(SkE)\shortcite{Srdanovic2008b,Srdanovic2008d}において日本語の推量副詞とモダリティ形式の遠隔共起が検索可能になるように機能の拡張を試みる.実現方法としては,複数のコーパス分析の結果に基づいて,モダリティ形式とそのバリエーションのリストを作成し,ChaSenで認識できるようにした上で,語の文法・共起情報を提示するために推量副詞と文末モダリティ形式との遠隔共起が容易に抽出できるようにする.この抽出結果によって,日本語の学習者,研究者,教師が推量副詞と文末モダリティ形式の共起表現を簡単に調べられ,学習辞書や教科書などの作成に効率的に応用できるようになると考えられる.
V31N02-16
label{sec:introduction}近年,BERT\cite{devlin-2019-bert}をはじめとする,Transformer\cite{vaswani-2017-transformer}に基づく事前学習済み言語モデルが,様々なダウンストリームタスクにおいて優れた性能を発揮している.これらのモデルのタスクにおける性能をより高める主な手法として,事前学習における大規模なコーパスの使用や学習ステップ数の増加,およびドメイン適応の研究が行われている.一般的に,事前学習における大規模なコーパスの使用や学習ステップ数の増加によって,モデルの性能は向上する.Liuら\cite{liu-2019-roberta}は,RoBERTaを提案する際,事前学習に用いるコーパスのサイズを,16GBから160GBへと大きくすることによって,モデルの性能が向上することを示した.また,学習ステップ数を,100Kステップから500Kステップへと増やすことによっても,モデルの性能が向上することを示した.この研究は,以降に提案されるモデルに大きな影響を与えた.特に,大規模なコーパスの使用に関しては,Kaplanら\cite{kaplan-2020-scaling}により観測されたスケーリング則やGPT-3\cite{brown-2020-gpt3}の登場により,さらに裏付けられた.その結果として,昨今のモデルは,Wikipediaのような小規模なテキストデータのみをコーパスとして用いるものから,CC-100\cite{wenzek-2020-ccnet,conneau-2020-unsupervised},mC4\cite{raffel-2020-t5},OSCAR\cite{ortiz-2019-asynchronous,ortiz-2020-monolingual}など,Webに基づく大規模なテキストデータもコーパスとして用いるものへと移り変わりつつある.なお,本稿では,BERT\cite{devlin-2019-bert}の構築に用いられたWikipediaやBooksCorpusと同程度のデータサイズ(十数GB)のコーパスを小規模,Baevskiらのモデル\cite{baevski2019-cloze}やRoBERTa\cite{liu-2019-roberta}の構築に用いられたような,BERTのコーパスよりも大きなデータサイズ(数十GB以上)のコーパスを大規模と呼称する.また,タスクのドメインが専門的なものである場合,モデルのドメイン適応が有効である.代表的な研究として,生物医学ドメインの論文から構築したコーパスを用いて,汎用的なモデルのさらなる事前学習を行うことにより構築したBioBERT\cite{lee-2019-biobert}や,科学ドメインの論文から構築したコーパスを用いて,一からモデルの事前学習を行うことにより構築したSciBERT\cite{beltagy-2019-scibert}が知られており,どちらのモデルも適応ドメインのタスクにおいて,汎用的なモデルを上回る性能を示した.日本語を対象とした研究においても,医療・科学・金融・法律などのドメインに適応したモデルが提案されており,それぞれのドメインのタスクにおいて優れた性能を示している\cite{kawazoe-2021-uthbert,yamauchi-2022-academicroberta,suzuki-2023-finbert,miyazaki-2022-jlbert}.また,BioBERTのように,汎用的なモデルのさらなる事前学習を行う手法と,SciBERTのように,一からモデルの事前学習を行う手法のどちらが適しているかについても,議論がなされている.日本語を対象とした研究において,金融ドメインに焦点を当てたSuzukiら\cite{suzuki-2023-finbert}や法律ドメインに焦点を当てたMiyazakiら\cite{miyazaki-2022-jlbert}は,汎用的なモデルのさらなる事前学習を行う手法の方が優れた性能を発揮することを示した.しかし,従来の日本語を対象としたモデルのドメイン適応に関する研究には,下記の4つの課題があった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item一般的なドメインにおける大規模なコーパスの重要性と,ドメイン適応の重要性はそれぞれ独立には示されているものの,それらを組み合わせることによる有効性を評価する研究は行われておらず,大規模な適応ドメインのコーパスの構築も行われていない.既存のドメイン適応の研究では,ドメインの制限により,データの収集が困難であることから,いずれの研究も適応ドメインのコーパスが10GBを下回る小規模なものである.50GBを超えるような大規模な適応ドメインのコーパスの構築や,それを用いたモデルの構築は提案されていない.\item日本語のドメイン適応に関する研究は,医療,科学,金融,法律などの分野では行われているものの,政治ドメインを対象とした研究が行われていない.英語を対象とした研究では,政治に関するテキストを処理することを目的に提案されたPoliBERTweet\cite{kawintiranon-2022-polibertweet}や,ConfliBERT\cite{hu-2022-conflibert}がある.一方,日本語を対象とした研究は,筆者らの先行研究\cite{nagafuchi-2023-nlc}で構築したものを除いて,公開されているモデルは存在しない.日本語の政治ドメインのテキストを対象とした研究\cite{poliinfo-2019-overview,poliinfo-2020-overview,poliinfo-2022-overview}が進められていることから,政治ドメインに特化したモデルの提案が望まれる.\item一からモデルの事前学習を行う手法よりも,汎用的なモデルのさらなる事前学習を行う手法の方が優れていることは示されているが\cite{suzuki-2023-finbert,miyazaki-2022-jlbert},大規模なコーパスを用いた事前学習を行った場合に,どちらの手法が優れた結果を示すかは明らかにされていない.また,2つの手法の間に学習ステップ数の差が生じているため,コーパスによる影響なのか,学習ステップ数の増加による影響なのか,明確ではない.したがって,学習ステップの差を公平にしたモデルも構築し,比較検証する必要がある.\item非適応ドメインのタスクによる検証が不十分である.ドメインの定義は明確にできるものではない.例えば,議会だよりのような一般に向けた文書を正しく処理したい場合に,政治ドメインについて会議録などで事前学習したモデルを用いるべきか,一般的なWikipediaなどで事前学習したモデルを用いるべきか,明確ではない.したがって,ドメイン適応による非適応ドメインへの悪影響がないことの保証や,悪影響を軽減する手法の提案が必要である.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで,本研究では,上記の4つの課題それぞれの解決のため,日本語の政治ドメインに着目し,国会および地方議会の会議録に基づく大規模なコーパスの構築と,それを用いた事前学習済み言語モデルの構築を行い,政治ドメインと汎用ドメイン\footnote{本稿では,WebやWikipedia等に存在するテキストを広く収集したコーパスを,特に政治・医療・法律・金融等のドメインでフィルタリングすることなく用いるものを汎用ドメインと呼称する.}のタスクにおける実験を行った.本研究の貢献は,以下のとおりである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item日本の国会および地方議会の会議録を収集し,データサイズが約70GBに及ぶ大規模なドメインコーパスを構築した.\item日本語の政治ドメインに適応したモデルを構築した.構築したモデルが,政治ドメインのタスクにおいて,汎用的なモデルを上回る性能を示すことを明らかにした.さらに,構築したコーパスとモデルを一般に公開した\footnote{\url{http://local-politics.jp/local-politics-bert/}}.\item大規模なコーパスを用いて事前学習を行った場合でも,一からモデルの事前学習を行う手法よりも,汎用的なモデルのさらなる事前学習を行う手法の方が優れていることを示した.また,従来の研究で指摘されていた汎用的なモデルのさらなる事前学習による性能向上は,学習ステップ数の増加による影響が大きく,コーパスのドメインだけに起因してはいないことを明らかにした.\itemドメイン依存のコーパスから構築したモデルが,汎用ドメインのタスクにおいて,汎用的なモデルに匹敵する性能を示したことから,従来使われていたWikipediaなどのコーパスによる学習は必ずしも重要ではないことを明らかにした.また,汎用的なモデルのさらなる事前学習を行う場合,最初の事前学習で用いたコーパスも併用してさらなる事前学習を行うことで,非適応ドメインにおける性能を維持しつつ,適応ドメインにおける性能を向上させることが可能であることを明らかにした.このことから,ダウンストリームタスクのドメインが明確に判断できないようなケースにおいても,ドメイン依存のコーパスによる学習をすべきであることを示した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿の残りの部分は,以下のように構成される.\ref{sec:related_work}章では,事前学習済み言語モデルのドメイン適応や,政治ドメインのテキストを対象とした関連研究について述べる.\ref{sec:building_corpus}章では,国会および地方議会の会議録の特徴やコーパスとしての利用について,従来のコーパスとの比較を交えて考察し,データの収集およびコーパスの構築を行ったことについて述べる.\ref{sec:building_model}章では,\ref{sec:building_corpus}章にて構築したコーパスを用いて,コーパスの組み合わせや事前学習の手法の違いがある合計7つのモデルを構築したことについて述べる.\ref{sec:experiment_political_domain}章では,政治ドメインのタスクによる構築したモデルと従来のモデルの比較検証について述べる.その結果,日本の国会および地方議会の会議録に基づくコーパスによる事前学習が,政治ドメインのタスクにおけるモデルの性能向上に寄与することを明らかにした.このとき,大規模なコーパスを使用した場合においても,従来研究と同様に,一から事前学習を行ったモデルよりも汎用的なモデルにさらなる事前学習を行ったモデルの方が高い性能を示すことがわかった.また,汎用的なモデルのさらなる事前学習による性能向上は,コーパスが効果的なだけではなく,学習ステップ数の増加による影響が大きいことを明らかにした.\ref{sec:experiment_general_domain}章では,汎用ドメインのタスクによる,構築したモデルと従来のモデルの比較検証について述べる.その結果,汎用ドメインのタスクにおいて,日本の国会および地方議会の会議録に基づくコーパスによる事前学習が,汎用的なコーパスによる事前学習に匹敵する性能をもたらすことを明らかにした.また,汎用的なモデルのさらなる事前学習を行う場合,最初の事前学習で用いたコーパスも併用してさらなる事前学習行うことで,非適応ドメインにおける性能を維持しつつ,適応ドメインにおける性能を向上させることが可能であることを明らかにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%sec2
V09N01-06
自然言語処理の最大の問題点は,言語表現の構造と意味の多様性にある.機械翻訳の品質に関する分析結果(麻野間ほか1999)によれば,従来の機械翻訳において,期待されるほどの翻訳品質が得られない最大の原因は,第1に,動詞や名詞に対する訳語選択が適切でないこと,第2に,文の構造が正しく解析できないことであると言われている.ところで,日本語表現で,訳語選択と文の構造解析を共に難しくしている問題の一つとして,「もの」,「こと」,「の」などの抽象名詞の意味と用法の問題がある.抽象名詞は,高度に抽象化された実体概念を表す言葉で,話者が,対象を具体的な名詞で表現できないような場合や明確にしたくないような場合にも使用される傾向を持ち,その意味と用法は多彩である.そのため,従来の機械翻訳において,これらの抽象名詞が適切に訳される例は,むしろ少ない.学校文法では,これらの語の一部を形式名詞と呼んでいるが,これは,それらの語が,実体概念を表すという名詞本来の機能を越えて,対象に対して話者の抱いた微妙なニュアンスを伝えるような機能を持ち,文法上,他の名詞とは異なる用法を有することを意味している.訳語選択の観点から見ると,従来,動詞の訳し分けでは,結合価文法が有効であることが知られており,大規模な結合価パターン辞書(池原ほか1997)が開発されたことによって,その翻訳精度は大幅に向上した.これに対して,名詞の訳し分けの研究としては,結合価文法で定義された名詞の意味属性を用いることの有効性を検証した研究(桐澤ほか1997)や形容詞に修飾された名詞についての訳し分けなどがあるが,動詞の場合に比べて得られる効果は小さい.名詞は動詞に比べてその種類も多く意味が多彩である(笠原ほか1997).なかでも,抽象名詞は本来の名詞としての機能のほか,文法的にも多彩な機能を持つため,個別に検討する必要があると考えられる.従来の抽象名詞の研究としては,形式名詞「もの」の語彙的意味と文法的意味の連続性を明らかにする目的で,これを他の抽象名詞「こと」と「ところ」を対比した研究(佐々ほか1997)がある.また,抽象名詞「こと」が,「名詞+の+こと」の形式で使用された場合を対象に,「こと」が意味的に省略可能であるか否かを述語の種類によって判定する研究(笹栗,金城1998)等もある.しかし,これらの研究では,文中での意味的役割については検討されておらず,従って,また,英語表現との対応関係も明らかでない.そこで,本検討では,抽象度の高い6種類の名詞「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文法的,意味的用法を分類し,英語表現との対応関係を調べる.このうち,名詞「の」は,多くの場合,その意味を変えることなくより抽象度の低い名詞「こと」,「もの」,「ところ」,「とき」,「わけ」,「ひと」に置き換えられることが知られている.これに着目して,本稿では,以下の2段階に分けて検討を行う.まず,単語「の」を対象に,それが,抽象名詞であるか否かを判定するための条件を示し,抽象名詞である場合について,他のどの抽象名詞に交替可能であるかを判定する方法を検討する.次に,5種類の抽象名詞「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文中での役割に着目して,用法を「語彙的意味の用法」と「文法的意味の用法」に分け,「文法的意味の用法」をさらに,「補助動詞的用法」と「非補助動詞的用法」に分類する.その後,表現形式と意味の違いに着目して,文法的,意味的用法と英語表現形式との対応表を作成する.また,得られた対応表を新聞記事の標本データに適用し,その適用範囲と適用精度を評価する.
V14N04-01
\label{intro}近年,自然言語処理の分野では,大規模な言語資源を利用した統計的手法が研究の中心となっている.特に,構文木付きコーパスは,統計的手法に基づく言語処理の高性能化のためだけでなく,言語学や言語処理研究の基本データとしても貴重な資源である.そのため,大規模な構文木付きコーパスの作成が必要となっている.しかし,大規模な構文木付きコーパスを全て人手により作成することは,多大なコストを必要とするため困難である.一方,現在の構文解析の精度では,構文木の付与を完全に自動化することが難しい.現実的には,構文解析器の出力から人手によって正しい構文木を選択し,それを文に付与することが望ましい.コーパス作成中には,文法や品詞体系の変更など,コーパス作成方針の変更により,コーパスへの修正が必要になることもあり,継続的な修正作業や不整合の除去などの機能を持った構文木付きコーパスの作成を支援するシステムが必要になる\cite{cunningham:2003:a}\cite{plaehn:2000:a}.このようなシステムの多くは,GUIツールを用いて,構文木付けをするコーパスのファイル形式や品詞ラベルの不整合を防ぐことにより,コーパス作成者を支援するのが主な機能である.しかし,それだけでは,正しい構文木付きコーパスの作成には,不十分であり,構文木の一貫性を保つための支援が必要となる.構文木の一貫性を保つための支援として,過去の事例を参照することは有効である.複数の構文木候補のうち,正しい木の選択を迷った場合に,すでに構文木を付与されたコーパス中から,作業中の構文木と類似した部分を持つ構文木を参照できれば,正しい構文木付けが容易になり,一貫性を保つための支援ができる.このためには,構文木付きコーパスを検索対象とし,木構造の検索が可能な構文木付きコーパス検索システムが必要となる.構文木付きコーパス検索システムは,木構造検索を行うことになるため,UNIXの文字列検索コマンド$grep$などの文字列検索よりも検索に時間を要することが多い.既存の構文木付きコーパス検索システム\cite{randall:2000:a,rohde:2001:a,konig:2003:a,bird:2004:a}においても,主な課題として,検索時間の高速化が挙げられているが,検索時間を高速化する優れた手法はまだ提案されていない.今後,コーパスの規模が更に大きくなると,検索時間の高速化は不可欠な技術となる.本論文では,高速な構文木付きコーパス検索手法を提案する.本論文で提案する検索手法は,構文木付きコーパスを関係データベースに格納し,検索にはSQLを用いる.部分木を検索のクエリとして与え,クエリと同じ構造を含む構文木を検索結果として出力する.クエリの節点数が多い場合,クエリを分割し,それぞれのクエリを別のSQL文で漸進的に検索する.クエリを分割すべきかどうか,分割するクエリの大きさや検索順序は,構文木付きコーパス中の規則の出現頻度を用いて自動的に決定する.6言語,7種類のコーパスを用いて評価実験を行い,4種類のコーパスにおいて,漸進的に検索を行う本手法により検索時間が短縮され,本手法の有効性を確認した.また,残りの3種類のコーパスにおいては,漸進的に検索を行わなくても多大な検索時間を要しないことを本手法で判定することができた.そして,クエリの分割が検索時間の短縮に効果があった4種類のコーパスと分割の効果がなかった3種類のコーパスの違いについて,コーパスに含まれる文数,ラベルの頻度,節点の平均分岐数の観点から考察を行い,節点の平均分岐数がその一因であることを確認した.
V16N02-02
英語教育の現場でもICT(InformationandCommunicationTechnology)の活用により様々な取り組みがなされている.近年ではE-learningのように学習者が教科書ではなく,まずはコンピュータ端末に向かうような形態での学習環境も一部で行われている.しかし大学を含め,CALL教室などが未整備となっている教育機関は少なくない.またE-learningのための教材作成が英語教育に直接関係する教師自身によって行われることは現実的にはほとんどなく,先進的な取り組みを行っている教育機関などにおいても既存のコースウェアが利用される場合が多い.教室で接する学習者のために教員自らがオーサリングソフトなどを利用して積極的に教材を作成するという事例は,英語教員全体の人数からすると極めて少数であると思われる.近年,パソコンは爆発的に普及してきており,現在ではほぼ全ての英語教員が日常の業務や教材作成でパソコンを利用することが当たり前のこととなった.しかし大多数の英語教員のパソコン利用スキルは基礎的なワープロ操作に限られると言っても過言ではない.結果,ワープロソフトによる教材作成と,E-learningやCALL環境のための教材作成の間にある溝はなかなか埋まりそうにないというのが現状である.一方,計算機科学の発展に伴い,言語処理技術に関する研究も急速に増加しつつある.そしてこれらの知見を教育や学習に生かすことを目標とする研究も盛んに行われている.しかしここで一つの疑問が浮かぶ.言語処理技術と教育・学習の連携は,いわゆる文系の一般の教員が,極端に言えば翌日の授業からでも応用可能な形で提供されていると言えるのだろうか.言語処理技術の教育・学習への応用を試みる際,まずはその方法論が優先される.そしてその実装は簡易なプロトタイプにとどまり,実際の使用に耐えうるシステムの構築は別途行わなければならない場合も多い.しかし,たとえどんなに軽微なものであったとしてもCUIベースの処理やプログラミング言語の知識を必要とする手法を一般の英語教員に求めることはほぼ絶望的である.例えばPerl言語を用いたテキスト処理などでさえも,その実行環境をインストールするといった時点で一般の英語教員のコンピュータ利用スキルからすれば十分にハードルが高いことは間違いない.また「UNIX環境」といった文言でさえ,一般の英語教員を遠ざけるには十分な材料となる.これらのアプリケーションがCGIなどを介してWeb上で提供される場合も同様である.通常これらは教育工学などの分野に関心がある一部の英語教員が,データ分析などの研究目的で利用することが多く,授業に生かすという用途からは残念ながらほど遠いという印象がある.それでは,仮に言語処理技術を教材作成に簡便に応用できるような仕組みが提供されていればどうなるであろうか.例えば教科書に準拠した補助プリントなどを作る場合など,少しでも教員の負担を減らすことができればきっと喜ばれるに違いない.そして草の根的であったとしても,言語処理技術と教育・学習の連携がこれまで以上に有機的に行われていくことが予想される.本研究では一般の英語教員でも簡単に使えることを念頭に,様々な状況での実際の英語授業や自習環境で利用できるプリント教材およびE-learning教材の作成支援を行う2種類のツールを開発した.これらのツールは無料で公開しており,GUI環境での簡単な操作で,任意の英文から様々な教材を短時間で作成することができる.利用者である一般の英語教員はこれらをダウンロード,解凍し,フォルダ内に含まれている実行ファイルを起動するだけでよい.つまり別途ソフトウェアを購入する必要もなく,プログラミング言語の実行環境をインストールするというような負担もない.また,これらのツールでは言語処理技術によるデータ処理結果をデータベース・ソフトウェアによって教材に加工するが,内部設計はツール利用者である一般の英語教員には見せない形になっている\footnote{ソースファイル相当以上の内容を知ることができるデータベースデザインレポートも公開している.FileMakerでの開発に通じている者であれば内部設計の把握や改変も可能.}.言語処理のアルゴリズムやデータベース・ソフトウェアについての知識は一切必要としない.以下,2節では,データベース・ソフトウェアの基本的な特徴を確認し,本研究で使用したFileMakerについて概観する.3節では連携事例Iとして,言語処理技術を活用したPhraseReading教材作成支援システムを紹介し,これを応用したプリント教材の自動作成について述べる.4節では連携事例IIとして,任意の英文テキストに対して語彙レベルタグや品詞タグを付与するプログラムを紹介し,この処理結果を用いたE-learning教材作成について述べる.
V31N02-09
ソーシャルメディアでの感情分析\cite{poria2019emotion}や感情的かつ共感的な対話システムの構築\cite{majumder2020mime}を目的として対話における発話の感情認識(ERC:EmotionRecognitioninConversations)が注目を集めている.先行研究として,再帰型ニューラルネットワークを用いて発話の内容を利用する手法\cite{abdul-mageed-ungar-2017-emonet}や,事前学習済みBERT(BidirectionalEncoderRepresentationsfromTransformers)モデル\cite{devlin2018bert}を用いて発話の内容を利用する手法\cite{luo2019emotionx}が提案されている.ERCでは,発話の内容だけでなく発話間の関係が話者の感情に大きな影響を与えることが知られているため\cite{poria2019emotion},近年では,発話間の関係も考慮する手法が提案されている\cite{ghosal2019dialoguegcn,shen2021directed}.特に,Shenらの手法\cite{shen2021directed}は,各発話の内容だけでなく,自身の発話からの影響と他者の発話からの影響を考慮する手法を提案し,高い認識性能を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{08table01.tex}%\caption{負の感情を示す発話``Yes''の例}\label{tab:dataset_neg}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%しかしながら,これらの従来手法は,先行文脈を考慮していないという課題がある.たとえば,表~\ref{tab:dataset_neg}の$7$番目の発話``Yes''は,それまでの発話の内容(文脈)から負の感情を示すが,表~\ref{tab:dataset_pos}の$5$番目の発話``Yes''は正の感情を示す.このように,同じ発話であっても,先行文脈に応じて異なる感情を示すことがある.従来手法の中で,発話の内容を利用する手法\cite{abdul-mageed-ungar-2017-emonet,luo2019emotionx}は,1つの発話を入力しその発話の感情ラベルを識別するため,文脈を把握することは困難である.また,発話間の関係を考慮する従来手法\cite{ghosal2019dialoguegcn,shen2021directed}は,特定の過去の発話と現在の発話の間の相互作用を考慮することは可能だが,文脈を把握することは難しい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{08table02.tex}%\caption{正の感情を示す発話``Yes''の例}\label{tab:dataset_pos}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%対話における文脈を把握する代表的な方法として,連続した複数の発話を連結し,事前学習済みBERTモデルに入力する方法\cite{yang2019emotionx}がある.また,Huらの手法\cite{hu-etal-2021-dialoguecrn}は,LSTM(LongShort-TermMemory)\cite{hochreiter1997long}を用いて文脈を表現する特徴量ベクトルを作成するため,文脈を考慮した識別が可能である.これらの従来手法は,\rev{識別対象の発話とその先行文脈(対話)を入力し,識別モデル単体で対象の発話の感情ラベルを予測する特徴を持つ.}本研究は,\rev{モデル外部のデータベースを活用して,従来の識別モデルを補強}する方法を提案する.具体的には,まず識別対象の発話とその先行文脈をクエリーとして,意味的に近い発話を訓練データセットからk近傍法を用いて検索する.検索した発話(近傍事例)に付与された感情ラベルと,識別対象の発話との距離を基に感情ラベルの確率分布を作成し,従来の識別モデルの確率分布と重み付き線形和によって組み合わせる.提案手法を用いることで,識別対象の発話とその先行文脈だけでなく,意味的に近い過去の発話\rev{の文脈と,その発話}に付与された感情ラベルも利用することができる.さらに本論文は,定数による重み付き線形和で2つの確率分布を組み合わせるだけでなく,識別対象の発話ごとに動的に重み係数を変更する方法を提案する.定数による重み係数は,常に一定の割合で近傍事例による確率分布を利用するため,近傍事例に適切な事例が存在するか否かに応じて重み係数を調整することができない.そこで本論文は,識別対象の発話に応じて,動的に重み係数を変更する方法を提案する.具体的には,従来の識別モデルから得られる識別対象発話の特徴量と近傍事例の特徴量を入力し,重み係数を導出するニューラルネットワークを構築する.重み係数のネットワークを学習するために,従来の識別モデルによる確率分布と近傍事例による確率分布のそれぞれが示す感情ラベルが,教師ラベルと一致する場合に重み係数を高め,そうでない場合に重み係数を低くする損失関数(係数損失)を導入する.評価実験において,ERCにおける3つのベンチマークデータセットで,動的に重み係数を変更する提案手法が,従来手法を上回る最高水準の認識性能を示した.加えて,重み係数の頻度分布を検証する実験を通して,適切な重み係数を学習するためには,係数損失が必要であることを確認した.本論文の貢献を以下に示す.(1)対話の感情認識タスクに,近傍事例を活用する手法を初めて適用した.(2)識別対象の発話に応じて動的に変わる重み係数を用いて,従来の識別モデルによる確率分布と近傍事例による確率分布を組み合わせる手法を提案した.(3)従来手法との比較実験を通して,重み係数を動的に変更する提案手法の有効性を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V30N02-07
日本語では数量表現が多様な形で現れる.例えば,以下の3つの文は,形式は異なるが,いずれも同じ真理条件を持つ.\begin{exe}\ex\label{ex:1}学生が3人いる.\ex\label{ex:2}3人の学生がいる.\ex\label{ex:3}3名の学生がいる.\end{exe}(\ref{ex:1})と(\ref{ex:2})では,文中において数量表現が現れる位置が異なっており,(\ref{ex:2})と(\ref{ex:3})では助数辞が異なっている.こうした数量表現の出現形式や助数辞の多様性は,日本語の重要な特徴の一つであり,後述するように言語学での記述的・理論的研究が近年進んでいる.しかし,これまでのところ,これらの特徴に着目したコーパスの構築や,言語学的な知見をふまえて日本語の数量表現の理解を問うようなデータセットの構築は,管見の限り行われていない.自然言語理解の基礎をなすタスクの一つとして,自然言語推論(NaturalLanguageInference,NLI)がある\cite{cooper1994fracas,bowman-etal-2015-large}.自然言語推論は,含意関係認識(RecognizingTextualEntailment,RTE)とも呼ばれ,前提文が真であるとき,\todo{仮説文が必ず真なら含意(\entailment{}),必ず偽なら矛盾(\contradiction{}),どちらでもないなら中立(\neutral{})であることを判定する}タスクである.\todo{自然言語推論では一般に意味論的推論の判定が想定されているが,}自然言語処理分野では近年,意味論的推論だけでなく,語用論的推論も研究の対象となっている\cite{jeretic-etal-2020-natural}.この2種類の推論は,言語学の文献で議論されてきた含意(entailment)と推意(implicature)に対応する\cite{levinson1983,Horn1989,levinson2000presumptive}.例として,以下のような数量表現を含む前提文\textit{P}と仮説文\textit{H}のペアについて考えよう.\begin{exe}\ex\begin{xlist}\exi{\textit{P}:}\label{ex:4}男性が道端に4人座っていた.\exi{\textit{H}:}\label{ex:5}男性が道端に5人座っていた.\end{xlist}\end{exe}\todo{この\textit{P}に現れる数量表現「4人」の解釈には,「少なくとも4人座っていた」という解釈と,「ちょうど4人座っていた」という2種類の解釈が存在する.\textit{H}に現れる数量表現「5人」についても同様である.2種類の解釈のうち,前者は文の真理条件,後者は協調の原理に基づく解釈であり,ここではそれぞれ意味論的解釈,語用論的解釈\footnote{語用論的解釈は,標準的な説明では,いわゆるGriceの会話の格率\cite{Grice89,levinson1983},特に「必要十分な量の情報を与えよ」という格率(量の格率)に基づいて,文脈や発話者の意図を考慮して,発話の真理条件には含まれない情報も考慮して導出される.}と呼ぶ.\textit{P}から\textit{H}への推論は,意味論的解釈のもとでは中立(\neutral{})であるのに対し,語用論的解釈のもとでは矛盾(\contradiction{})となる.このように数量表現を含む前提文と仮説文のペアが与えられたとき,数量表現の解釈の仕方によって判定が異なることがあるため,意味論的解釈と語用論的解釈を区別して考える必要がある.意味論的解釈に基づく推論を意味論的推論といい,語用論的解釈に基づく推論を語用論的推論という.「\elabel{}」は意味論的推論の判定,「\ilabel{}」は語用論的推論の判定を表し,それぞれ含意(\entailment{}),矛盾(\contradiction{}),中立(\neutral{})の3値をとる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{06table01.tex}%\caption{否定文における含意ラベルの反転の例}\label{table:201}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,数量表現が否定文や条件節に現れる場合,通常の文脈に数量表現が現れる場合とは異なり,含意ラベルが変化することがある.表\ref{table:201}の例では,$P$から\hminusへの推論の含意ラベルは\entailment{},$P$から\hplusへの推論の含意ラベルは\neutral{}である.つまり,「学生が4人以上いる(=少なくとも4人いる)」は,「学生が3人以上いる」を含意するが,「学生が5人以上いる」を含意しない.一方,数量表現が否定文脈に現れる場合,$P$から\hminusへの推論の含意ラベルは\neutral{}であるのに対し,$P$から\hplusへの推論の含意ラベルは\entailment{}である.つまり,「学生が4人以上はいない」は「学生が5人以上はいない」を含意するが,「学生が3人以上はいない」を含意しない.このように,数量表現が否定文や条件節といった文脈に現れる場合(このような文脈は下方含意と呼ばれており,\ref{section:monotonicity}節で詳細を述べる),推論の判定に影響を与えることがある.本研究では,\todo{助数辞の種類,数量表現の出現形式,用法}をアノテーションした日本語の数量表現アノテーションコーパスを構築する.数量表現を含む文は,NPCMJ\cite{NPCMJ}から抽出する.NPCMJは,現代日本語の書き言葉と話し言葉に対して文の統語・意味解析情報が付与されているデータセットである.さらに,\todo{作成した日本語数量表現アノテーションコーパスをもとに,}\elabelと\ilabelを付与した数量表現の推論データセットを構築する.本稿では,数量表現コーパスおよび推論データセットの構築と,\todo{それを用いて現在の標準的な事前学習済み言語モデルの一つである日本語BERTモデル\cite{devlin-etal-2019-bert}が数量表現の理解を必要とする推論をどの程度扱えるかを調査する実験を行う.}構築した数量表現コーパスおよび推論データセットは研究利用可能な形式で公開している\footnote{\url{https://github.com/KanaKoyano/numeral-expressions-corpus}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V02N01-01
\label{sec:hajime}機械翻訳システムを使用する時,利用者はシステム辞書に登録されていない単語や,登録されているが,訳語が不適切な単語に対して,利用者辞書を作成して使用することが多い\cite{Carbonell:1992}.しかし,辞書に新しく単語を登録する際は,登録する語の見出し語,訳語の他に,文法的,意味的な種々の情報を付与する必要がある.高い翻訳品質を狙ったシステムほど,利用者辞書にも詳細で正確な情報を必要としており\cite{Ikehara:1993,Utsuro:1992},素人の利用者がそれらの情報を正しく付与するのは簡単でない\footnote{単語意味属性を付与するには,通常のシステムの意味属性を理解していることが必要であるが,一般の利用者には簡単でない.}.例えば,日英機械翻訳システムALT-J/Eでは,意味解析のため約3,000種の精密な意味属性体系\footnote{単語の意味的用法を分類したもので,各要素となる名詞に着目した動詞の訳し分けにおいて,ほぼ必要十分といえる意味属性分解能が約2,000種類であることを示し,実際に名詞の意味属性を3,000種に分類している.詳細は\cite{Ikehara:1993}を参照のこと.}を持っており,利用者辞書の単語を登録する際は,各単語にこの意味属性体系に従って意味的用法(一般に複数)を指定する必要がある\cite{Ikehara:1989b,Ikehara:1989a}.この作業は熟練を要し,一般の利用者には困難であるため,従来から自動化への期待が大きかった.そこで本論文では,利用者登録語の特性に着目し,利用者が登録したい見出し語(単一名詞または複合名詞)に対して英語訳語を与えるだけで,システムがシステム辞書の知識を応用して,名詞種別を自動的に判定し,名詞種別に応じた単語の意味属性を推定して付与する方法を提案する.また,自動推定した利用者辞書を使用した翻訳実験によって,方式の効果を確認する.具体的には,名詞を対象に,与えられた見出し語と訳語から主名詞と名詞種別(一般名詞,固有名詞)を判定し,それぞれの場合に必要な単語意味属性を自動推定する方法を示す.また,適用実験では,まず,本方式を,新聞記事102文とソフトウエア設計書105文の翻訳に必要な利用者辞書の作成に適用して,自動推定した単語意味属性と辞書専門家の付与した単語意味属性を比較し,精度の比較を行う.次に,これらの意味属性が翻訳結果に与える影響を調べるため,(1)意味属性のない利用者辞書を使用する場合,(2)自動推定した意味属性を使用する場合,(3)専門家が利用者登録語の見出し語と訳語を見て付与した意味属性を使用する場合,(4)正しい意味属性(専門家が翻訳実験により適切性を最終的に確認した意味属性)を使用した場合,の4つの場合について翻訳実験を行う.\vspace{-0.2mm}
V10N03-06
\label{sec:introduction}単語の多義性解消は自然言語処理の重要な基本技術のひとつとして認識されている.単語の多義性というのは,例えば,「買う」という単語について「本を買う」と「反感を買う」とでは意味が違うというように,同じ単語でも文脈によって意味の違いがあるという性質のことを言う.そして,その意味の違いのことを単語の多義と言う.単語の多義は細かく定義すればきりがない.したがって,多義をどこまで区別するべきかはタスクの目的に依存して決めることになる.機械翻訳の問題では,適切な翻訳(訳語/訳句)が選択できればよく,単語の多義はその翻訳の異なりとして定義できる.機械翻訳における単語の多義性解消の方法,つまり,訳語選択の方法は,これまでにも数多く提案されてきた.それらの方法を,利用している言語資源という観点から分類すると,対訳コーパスを用いるもの\cite{Nagao81,Sato90,Brown:90,Brown:93,berger:cl96,Sumita:2000,Baldwin:2001},対訳単語辞書と目的言語の単言語コーパスを用いるもの\cite{Dagan:cl94,Kikui:98},対訳単語辞書と,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いるもの\cite{Kikui:99,Koehn:2000},原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いるもの\cite{Tanaka:96}に大別できる.我々は,多様な情報を用いれば用いるほど良い結果が得られると考え,対訳単語辞書,対訳コーパス,および,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いる.対訳コーパスには大きくパラレルコーパスとコンパラブルコーパスの二種類があり,我々はそのうちパラレルコーパスを用いる.さらに,文対応をとる際の誤りを軽減するために,パラレルコーパスとして,対訳用例(句/文)集合(翻訳メモリ,トランスレーション・メモリー,以下TM)を用いる.我々のシステムは,入力文と対象単語が与えられると,その対象単語に関して入力文と対訳用例集合との類似度を求め,類似度が最大となる用例集合を用いて対象単語の訳語選択を行なう.類似度は,用例に基づく手法と機械学習モデルを用いて計算される.類似度の計算には,文字列の類似性,入力文における対象単語の前後の数単語,入力文中の内容語とその訳語候補のコーパスにおける出現頻度などを考慮する.このシステムで用いた訳語選択のためのモデルは次のような特徴を持つ.\begin{itemize}\item各対訳用例内の単語対応をとり,同じ対訳単語ペアを持つ対訳用例をまとめてひとつの用例集合とする.そして,そのペアの原言語(対象単語と同じ言語)の単語が同じである用例集合をまとめ,そのまとまりごとにモデルを作成する.以降で,各用例集合内で共通する対訳単語ペアを見出し語と呼ぶ.そして,そのペアの各単語をそれぞれ原言語見出し語,目的言語見出し語と呼ぶ(原言語が日本語,目的言語が英語の場合,それぞれ日本語見出し語,英語見出し語と呼ぶ).\item対象単語に関して入力文と表層的にほぼ同じ用例が用例に基づく手法により見つかった場合にはその用例を優先的に翻訳に使う.見つからなかった場合には,機械学習モデルに基づく手法により対象単語に関して入力文と最も類似した用例集合を選択して翻訳に使う.\item言語資源としては,対訳単語辞書,対訳コーパス,および,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いる.\end{itemize}2001年の春,単語の多義性解消のコンテスト第2回{\scSenseval}が開催された\cite{senseval2:homepage}.このコンテストは1998年に,英語と二つのヨーロッパ言語(イタリア語とフランス語)を対象として始まったものである.2001年には新たに他のいくつかの言語に関するタスクが追加された.我々はそのうち日本語に関して追加された翻訳タスクに参加した.本論文では,そのコンテストでの結果をもとに,我々が本論文で提案する手法の有効性および精度向上にどのような情報が有効であったかについて述べる.
V29N01-04
\label{sec:introduction}人間と日常会話などの雑談をおこなう雑談対話応答生成システムは,医療や教育をはじめとした様々な分野で注目され\cite{Litman2016:UsingConversations,Addlesee2019:CurrentChallenges},研究開発が活発におこなわれている.特に近年,深層学習技術の発展を背景に急速に研究が進行した深層学習ベースの雑談対話応答生成システムは,対話履歴に対して流暢な応答を生成できることが知られている\cite{Zhang2020:DIALOGPT,Adiwardana2020:Humanlike,Roller2021:Recipes}.しかし,人間と自然な雑談が可能なシステムの実現に向けては,さらなる改良の余地がある.たとえば,近年の雑談対話応答生成システムが生成する応答でさえ自身の直前の発話とは矛盾する主張をするなど,人間同士の会話では生じないような誤りを含むことがある\cite{Adiwardana2020:Humanlike,Roller2021:Recipes}.システムの改良に取り組むうえで,その性能を費用や時間をかけず低コストで評価する指標の存在は大きい.たとえば機械翻訳の研究では,システムが生成した翻訳文と参照訳の間の$n$-gramの一致を評価するBLEU\cite{Papineni2002:BLEU}という指標がシステム性能の自動評価に用いられる\cite{Sutskever2014:SequenceToSequence,Bahdanau2015:Jointly,Luong2015:Effective,Vaswani2017:Attention}.機械翻訳の研究において,BLEUは人間による評価に代わるほどの信頼性を持つ評価指標ではない\cite{Stent2005:EvaluatingEvaluation,Callison2006:Reevaluating,Smith2016:Climbing}ものの,人手評価と一定の相関を持つ評価が可能であることが知られている\cite{Reiter2018:Structured}.そこで機械翻訳の研究では,BLEUを用いて一定の精度でコストをかけず評価しながらシステムの改良を繰り返すという効率的な開発プロセスが分野に定着することで,技術が飛躍的に発展した.一方,雑談対話応答生成の研究では,機械翻訳研究でのBLEUに相当するような分野全体に共有されている評価指標が存在しているとは現状言い難い.たとえば,雑談対話応答生成システムの自動評価においてもBLEUはしばしば用いられる\cite{Sordoni2015:ContextSensitive,Wen2015:SemanticallyConditioned,Li2016:DiversityPromoting,Zhang2020:DIALOGPT}が,人手評価との間には相関がまったく認められないことが報告されている\cite{Liu2016:HowNotEvaluate}.この原因として,対話には一つの対話履歴に対し妥当な応答が複数存在するという性質が存在することが挙げられる.この性質により,用意した有限個の参照応答との$n$-gramの一致を評価するBLEUでは,参照応答には類似しないが適切な応答が低く評価される可能性があり,信頼性の高い評価をおこなうことは難しい.たとえば「好きな果物は?」という対話履歴に対しては「リンゴが好きです。」という応答も「メロンかな」という応答も妥当だが,参照応答が「リンゴが好きなんです。」だった場合,共通した$n$-gramを含まない後者の応答はスコア$0$として扱われる.雑談対話応答生成システムの自動評価方法の設計にあたっては,この性質への対処が重要となる.本論文では,この性質の影響を受けにくい雑談対話応答生成システムの自動評価方法として,対話応答選択と呼ばれる選択問題を用いた評価に着目する.対話応答選択は,与えられた対話履歴に続く適切な応答(以下,正例と呼ぶ)を選択肢(以下,応答候補と呼ぶ)から選択するタスクである.雑談対話応答生成システムは応答を生成するためのシステムだが,応答候補中の各発話の生成確率を計算し,最も生成確率が高い候補をシステムの選択とみなすことで選択問題を解くことができる.対話応答選択を用いた評価は,次の二つの特長から,分野全体が共有する雑談対話応答生成システムの自動評価指標に適していると考えられる.一つめは,適切な応答が複数存在するという対話の性質の影響を回避したシステム評価が可能となる点である.対話応答選択ではシステムの選択する応答が候補内のものに限られるため,適切ではあるが正例と類似しない応答が出力され低く評価されるといった事態を回避できる.二つめは,システムの性能を正解率という統一的な指標で測ることができる点である.BLEUなどのシステム応答自体を評価する指標では,単語分割処理などの違いが評価結果に影響を与える可能性があるため,先行研究での報告値にもとづいたシステム間の比較が難しい場合がある.一方で,対話応答選択による評価ではシステムの性能を正解率で測るため,先行研究の報告値をもとにシステム性能を比較することが容易である.対話応答選択では,応答生成システムが実際に生成する応答の質自体を評価することはできないため,人手評価に代わる評価の枠組みとはなりえない.しかし,少なくとも適切な応答を生成可能なシステムであれば適切な応答を選択することが可能であると仮定すると,システムが適切な応答を生成しうるかを確認することができるため,対話応答選択は日々のシステム改良の成果を確認するための継続的な評価への利用に適した枠組みといえる.ただし,従来の対話応答選択の枠組みは負例の獲得方法において改善の余地がある.一般的に,対話応答選択の応答候補のうち不正解となる候補(以下,負例と呼ぶ)には,対話履歴や正例とは無関係な対話データから無作為に抽出してきた発話を用いる\cite{Lowe2015:Ubuntu,Gunasekara2019:DSTC7Noetic}.このとき,無作為抽出により収集された負例には,(a)正例とかけ離れすぎていて容易に負例と判別できる発話や,(b)応答として誤りとはいえない発話が含まれる可能性がある.まず(a)について,たとえば「好きな果物は?」という対話履歴に対し「体調が悪いです。」という発話が負例として抽出されたとする.この発話は対話履歴中の「果物」という単語と明らかに無関係な「体調」という単語を含む.そのため,単語を比較していくだけで対話履歴との関連性が低い候補であることがわかり,負例であると推測できてしまう.このような負例の混入によって,システムが対話の内容を理解していなくとも正解できる選択問題が構築されうる.次に(b)について,対話ではある発話が無数の対話履歴に対する応答として成立することもあるため,対話履歴や正例と無関係な対話データから負例として無作為抽出した発話が必ずしも応答として不適切であるとは限らない.とりわけ「わかりません」など,さまざまな対話履歴に対して応答として成立し対話データセット中に頻出する発話が,負例として無作為抽出されることが考えられる.このような発話が負例となっている問題については,妥当であるにも関わらず選択すると不正解と見なされる候補が存在することになり,システムの性能が不当に低く見積もられるという事態につながる可能性がある.負例を無作為抽出で取得した場合,(a)や(b)のような発話により対話応答選択によるシステム評価の有効性は低下するおそれがある.本論文では,雑談対話応答生成システムの自動評価の枠組みとして分野全体で共有される指標の実現に向け,前述した不適切な負例を応答候補から除いた対話応答選択による評価を考える.具体的には,各問題の正例に類似する発話のうち応答として成立しないものだけを厳選して負例として用いることで,(a)や(b)のような応答候補の混入を抑制した対話応答選択テストセットの構築方法を提案する.提案する構築方法に従って実際にテストセットを構築し,雑談対話応答生成システムを対話応答選択で評価したところ,既存の広く用いられている自動評価指標と比べて人手評価と強く相関することを実験により確認した.本論文の主要な貢献は以下の三点である.\begin{itemize}\item雑談対話応答生成システムの評価に適した対話応答選択テストセットの構築方法を提案した.\item提案する方法に従い,実際に対話応答選択テストセットを構築し公開した\footnote{\url{https://github.com/cl-tohoku/eval-via-selection}}.\item提案する方法で構築したテストセットを用いた対話応答選択による雑談対話応答生成システムの評価結果が,既存の広く用いられている自動評価指標と比べて,人間による評価結果と強く相関することを実験により確認した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V06N06-01
電子化されたテキストが世の中に満ち溢れ,情報洪水という言葉が使われるようになってからかなりの歳月を経ている.しかし,残念ながら,我々の情報処理能力は,たとえ処理しなければならない情報が増えたとしても,それほど向上はしない.そのため,自動要約技術などにより,読み手が読むテキストの量を制御できることが求められている.また,近年情報検索システムを利用する機会も増えているが,システムの精度の現状を考慮すると,ユーザは,システムの提示した候補が適切なものであるかどうかをテキストを見て判断せざるを得ない.このような場合,要約をユーザに提示し,それを見て判断を求めるようにすると,ユーザの負荷を減らす支援が行なえる.自然言語処理の分野では,近年頑健な解析手法の開発が進み,これと,上に述べたような,自動要約技術の必要性の増大が重なり,自動要約に関連した研究は,90年代の中頃になって,再び脚光を集め始めている.市販ソフトウェアも続々と発売されており,アメリカではDARPA支援のTipsterプロジェクトで要約が新しい研究課題とされたり\cite{hand:97:a},また,ACL,AAAIなどで要約に関するワークショップ,シンポジウムが相次いで開催され,盛況で活発な議論が交わされた.日本でも,98年3月の言語処理学会年次大会に併設して,要約に関するワークショップが開催され,それを機会に本特集号の編集が企画された.本稿では,このような現状を鑑み,これまでの(主に領域に依存しない)テキスト自動要約手法を概観する.また,これまでの手法の問題点を上げるとともに,最近自動要約に関する研究で注目を集めつつある,いくつかのトピックについてもふれる.本特集号の各論文が,テキスト自動要約研究として,どのような位置付けにあるかを知る上で,本稿が参考になれば幸いである\footnote{各論文の個別の紹介は,増山氏の編集後記を参照して頂きたい.}.要約研究は時に,情報抽出(InformationExtraction)研究と対で(あるいは,対比して)述べられることがある.どちらも,テキスト中の重要な情報を抜き出すという点では共通するが,情報抽出は,あらかじめ決められた「枠」を埋める形で必要な情報を抜き出す.そのため,領域に依存してあらかじめ枠を用意する必要があったり,また,領域に依存したテキストの特徴を利用した抽出手法を用いたりするため,領域を限定することが不可欠となる\footnote{情報抽出研究に関する解説としては,\cite{cowie:96:a,sekine:99:a}を参照されたい.また,DARPAが支援する情報抽出のプロジェクトであるMUC(MessageUnderstandingConference)に関しては,若尾の解説\cite{wakao:96:a}を参照して頂きたい.}.要約は,原文の大意を保持したまま,テキストの長さ,複雑さを減らす処理とも言えるが,その過程は,大きく次の3つのステップに分けられるとされる:テキストの解釈(文の解析とテキストの解析結果の生成),テキスト解析結果の,要約の内部表現への変形(解析結果中の重要部分の抽出),要約の内部表現の要約文としての生成.しかし,これまでの研究では,これらのステップは,テキスト中の重要箇所(段落,文,節,など)の抽出およびその連結による生成として実現されることが多かった.そのため,本稿では以後重要箇所の抽出を中心に解説する.2節では,まず重要箇所抽出に基づく要約手法について述べる.2.1節で重要箇所抽出に用いられてきた,さまざまな情報を取り上げ,それぞれを用いた要約手法について述べる.2.2節では,それらの情報を統合して用いることで,重要箇所を抽出する研究について概観する.2.3節では,重要箇所抽出に基づく要約手法の問題点について述べる.このようなテキスト要約手法が伝統的に研究されてきた一方で,近年要約を研究するに当たって考慮するべき要因として,以下の3つが提示されている\cite{sparck:98:a}.\begin{enumerate}\item入力の性質--テキストの長さ,ジャンル,分野,単一/複数テキストのどちらであるか,など\item要約の目的--どういう人が(ユーザはどういう人か),どういう風に(要約の利用目的は何か)\footnote{要約は一般に,その利用目的に応じて,次の2つのタイプに分けられることが多い\cite{hand:97:a}.\begin{description}\item[indicative:]原文の適切性を判断するなど,原文を参照する前の段階で用いる\item[informative:]原文の代わりとして用いる\end{description}},など\item出力の仕方\end{enumerate}たとえば,入力テキストのジャンルによっては,重要箇所抽出による要約が難しいものも考えられるし,また,要約というもの自体が考えにくいものもあり得る.ユーザの持つ予備知識の程度に応じて,要約に含める情報量は変えるべきであると考えられるし,また,利用目的が異なれば,その目的に応じた適切な要約が必要と考えられる.これまでの伝統的な要約研究は,このような要因に関して十分な考慮をしたものとは必ずしも言えない.しかし,これらの要因を考慮して,入力の性質,要約の目的に応じた適切な要約手法を開発する動きが活発になってきている.このような,自動要約に関する研究で最近注目を集めつつある,いくつかのトピックについても本稿ではふれる.3,4,5節ではそれぞれ,抽象化,言い換えによる要約,ユーザに適応した要約,複数テキストを対象にした要約に言及する.6,7節ではそれぞれ,文中の重要箇所抽出による要約,要約の表示方法について述べる.8節では,要約の評価方法について説明する.
V08N03-07
日本語とウイグル語は共に膠着語である.膠着語には,概念などを表し単独で文節を構成することが可能な自立語と,単独で文節になることはなく,自立語に接続して,その自立語の文中での役割を示したり,自立語に新たな意味を付加する付属語の区分がある.膠着語では,付属語がよく発達しており,言語構造上重要な役割を果たす.これらの特徴は,日本語とウイグル語だけでなく,韓国語,トルコ語,モンゴル語などのアルタイ語系に属する言語に共通するものと考えられている\cite{JPORG}.このグループに属する言語間の機械翻訳については,グローバル化の流れの中で多言語間機械翻訳の重要性が高いにもかかわらず,これまでほとんど行われておらず,日本語と韓国語との翻訳について研究されているのが目立つに過ぎない.そのような状況の中で,ムフタル,小川らは,日本語--ウイグル語機械翻訳の研究を開始した.ムフタル,小川らは,これらの言語に共通する特徴を有効に利用した日本語--ウイグル語機械翻訳の研究を進めている\cite{SHURON}\cite{OGAWA2000}.その特徴の一つは語順の自由度である.日本語は語順が比較的自由であると言われ,例えば,(1)「私が本を買った」と(2)「本を私が買った」は,いずれも日本語として正しい表現である.これは,日本語では文節の役割が付属語によって示されるためである.この性質は同じ膠着語であるウイグル語にも見られ,(1)の直訳となる``m!enkitapnisetiwaldim''という表現も,``m!en''(私)と``kitap''(本)を入れ替えて(2)の直訳とする``kitapnim!ensetiwaldim''という表現も,いずれもウイグル語として可能である.そのため,日本語文をウイグル語へ翻訳する場合,日本語の語順そのままに翻訳が可能である.そこで,ムフタルらは,日本語文の形態素解析結果を逐語訳することを基本とした日本語--ウイグル語機械翻訳システムを開発している.特に\cite{OGAWA2000}では,動詞句の翻訳に焦点を当て,派生文法\cite{KIYOSE1991}を利用することで動詞付属語を含めた動詞句に対して自然なウイグル語訳を与えることを可能としている.ところで,日本語からウイグル語へ語順そのままでの翻訳が可能なのは,名詞付属語,特に格助詞によって文節の役割が明示されているからである.これも,日本語とウイグル語に共通する特徴の一つである.しかし,このことは,格助詞を正しく翻訳できなかった場合は翻訳文が意味不明なものになることを意味する.そこで,本論文では,日本語--ウイグル語機械翻訳の中での格助詞の取り扱いを検討する.格助詞は日本語だけでなくウイグル語にも存在し,例えば\cite{TAKEUTI}では,格語尾と呼ばれている.日本語の格助詞とウイグル語の格助詞には対応関係が見られるが,いわゆる多義性の問題が存在し,日本語の格助詞に複数のウイグル語格助詞が対応する場合がある.本論文では,単に格助詞を翻訳するだけでなく,こうした格助詞の多義性も考慮して適切な格助詞の翻訳を行う手法を提案する.日本語と他の膠着語との間の機械翻訳に関する研究では,日韓機械翻訳が盛んである\cite{KMT4,H_LEE1989,J_KIM1996_2,C_PARK1997}.これらの研究の多くは,日本語と韓国語の語順の類似性や,格形式の類似性を利用し,逐語訳を基本とする翻訳が進められており,比較的品質の良い翻訳を実現しているが,その一方で,語彙の多義性の解消が重要な課題であることが指摘されている\cite{KMT4}.多義性に関する研究については,\cite{H_LEE1989,J_KIM1996_2,C_PARK1997}などがあり,動詞の格パターンと意味解析を利用する手法\cite{H_LEE1989},入力文の前後に出現する単語との接続関係を利用する手法\cite{J_KIM1996_2},連語パターンを用いる手法\cite{C_PARK1997}などが提案されている.本論文では,品質の高い日本語--ウイグル語機械翻訳システムの構築を目指して,動詞の格パターンを利用した,格助詞の翻訳手法を提案する.まず,計算機用日本語基本動詞辞書IPAL\cite{IPAL}を用いて両言語の格助詞間の対応関係について詳細な調査を行うとともに,動詞の格パターンを獲得する.さらに,それを利用した格助詞の変換処理を実現し,評価実験を行った.評価実験に使用する日本語--ウイグル語機械翻訳システムは\cite{OGAWA2000}で提案されたシステムに,本論文で提案する格助詞変換処理のモジュールを加えたものである.この方法では,あらかじめ獲得した格パターンと格助詞の対訳の情報を,必要に応じて日本語--ウイグル語の対訳辞書のウイグル語動詞に付加する.実際の翻訳の過程は,まず,翻訳対象である日本語入力文を形態素解析し,それぞれの形態素をウイグル語に逐語訳する.この段階で,すべての単語にデフォルトのウイグル語訳が与えられる.次に,ウイグル語動詞に付加された格パターンと,入力文中に出現した格パターンとを比較し,デフォルト訳では不自然な訳語となる格助詞を適切な他の訳語に置き換える.最後に,訳出のウイグル語形態素を接続してウイグル語文を生成する.本論文では,ウイグル語における同じ格助詞の音便形を,すべて一つに統合して議論する.例えば,格助詞``g!e''は,音便変化により``!ga'',``k!e'',``!ka''などの形もとるが,本論文中では,すべて``g!e''と表記する.なお,実際の翻訳システムでは,最後のウイグル語文生成の段階で音便形に従って変化させる.また,ウイグル語には,日本語には存在しない人称接尾辞がある.例えば,同じ「買う」でも,「私が買う」``m!ensetiwali\underline{m!en}''と「彼が買う」``usetiwali\underline{du}''では,下線部に示すように,それぞれ別々の人称接尾辞が接続する.しかし,本論文中では,いくつかの例文を除いて三人称に統一して議論する.ウイグル語には,アラビア文字に似た32の文字があり,文は右から左へと書かれる.それとは別に,ローマ字表記を用いる場合もあり,本論文では,便宜上,ローマ字表記を用いることにする.不足する文字の代わりに,!c,!e,!g,!h,!k,!o,!s,!u,!zを用いる.ウイグル文字とローマ字表記の対応に関しては,付録Aを参照されたい.本論文の構成は以下の通りである.まず2章では,日本語--ウイグル語機械翻訳における格助詞の重要性とその問題点について指摘する.3章では,計算機用日本語基本動詞辞書IPAL\cite{IPAL}における格助詞の使用状況と,対応するウイグル語訳語の分布に関する調査結果を示す.4章では,本論文で提案する日本語--ウイグル語機械翻訳における格助詞の変換処理について述べ,5章で本手法に基づく実験結果を示す.6章は本論文のまとめである.
V24N04-01
近年,対話の内容を特定のタスクに限定しない自由対話システムの研究が盛んに行われている\cite{Libin:04:a,Higashinaka:14:a}.対話システムの重要な要素技術の1つにユーザの発話の対話行為の自動推定がある.対話行為の推定は自由対話システムにおいて重要な役割を果たす.例えば,対話行為が「質問」の発話に対しては知識ベースから質問の回答を探して答えたり,映画の感想を述べているような「詳述」の発話に対しては意見を述べたり単にあいづちを返すなど,対話システムは相手の発話の対話行為に応じて適切な応答を返す必要がある.対話行為の推定手法として機械学習を用いた手法が既に提案されている\cite{milajevs:14:a,isomura:09:a,sekino:10:a,kim:10:a,Meguro:13:a}.しかし,機械学習に用いる特徴\footnote{本稿では,機械学習による識別のために用いる情報の種類(タイプ)のことを「特徴」,その具体的な情報のことを「特徴量」と呼ぶ.例えば,「単語3-gram」は特徴,「思い+ます+か」はその特徴量である.}を設定する際,個々の対話行為の特質が十分に考慮されていないという問題点がある.既存研究の多くは,対話行為の自動推定を多値分類問題と捉え,対話行為の分類に有効と思われる特徴のセットを1つ設定する.しかし,機械学習の特徴の中には,ある特定の対話行為の分類にしか有効に働かないものもある.例えば,ユーザの発話の対話行為が(質問に対する)「応答」であるかを判定するためには,発話者が交替したかという特徴は重要だが,対話行為が「質問」であるかを判定するためには,相手の発話の後に質問することもあれば自身の発話に続けて質問することもあるので,話者交替は重要な特徴とは考え難い.本論文では,上記の問題に対し,対話行為毎に適切な特徴のセットを設定することで個々の対話行為の推定精度を改善し,それによって全体の対話行為推定の正解率を向上させる手法を提案する.
V08N03-03
統計情報に基づく自然言語処理では,訓練データとしてのコーパスの影響は非常に大きい.形態素情報や品詞情報等の情報を付加したコーパスを利用することで処理の精度の向上や処理の簡略化等が期待できるが,情報を付加する段階での労力が大きく,その精度に結果が大きく左右されるという問題がある.生コーパスをそのまま利用する場合には,コーパスの取得が容易であるため,目的に合ったドメインのコーパスを大量に入手できるという利点がある.しかし,生コーパスは未登録語や未知の言い回し,非文とされるような文の出現等を多く含むことがほとんどであり,これらが処理の精度の低下を招くという問題がある.コーパスから得た情報を利用するようなシステムの場合,処理の基本は意味のある言語単位であるから,まずこれを正しく認識することが先の処理の精度の向上に必要である.日本語のように意味のある言語単位ごとの区切り目が明らかでない言語では,まずこれを認識することが処理の第一段階であると言っても過言ではない.そこで,本稿では,生コーパス中の意味のある文字列を推測し認識することで結果的にコーパス中の未登録語を推定するシステムを提案する.本システムは,対象となるドメインの訓練用コーパスから取得した文字間共起情報を利用して,入力コーパス中の意味のある文字列を認識しこれを出力する.訓練用コーパス,テストコーパスともに事前のタグ付けは必要としない.
V30N02-18
本論文では,自然言語処理システムの実社会応用の具体例として,筆者が行った2020東京オリンピック参加者名簿の翻訳支援の経験を報告する.実社会応用では,「ことば」が社会的存在であることを考慮したシステム設計・運用が重要となる.オリンピック参加者名簿の翻訳とは,国際オリンピック委員会(InternationalOlympicCommittee,IOC)から提供される名簿に含まれる,ほぼすべての参加者の氏名(アルファベット表記)に,カタカナ表記の訳を付与することである\footnote{氏名を漢字で表記する国・地域の参加者を除く.具体的には,日本,中国,韓国,香港,台湾.}.このタスクは,技術的にはトランスリタレーション(transliteration)の問題とみなされる.しかしながら,客観的な正解は存在しないため,システムが出力すべきものは,システムの利用者,あるいは,社会が納得するカタカナ訳となる.この点については,次章以降で詳しく議論する.本論文では,まず,第2章で,オリンピック参加者名簿翻訳というタスクを説明し,人名翻訳の本質について議論する.第3章では,翻訳支援に使用したシステム\textbf{綴2021}と,実際の翻訳支援作業の経過を示す.続く第4章と第5章では,綴2021とそれを支えるシステム\textbf{袷2019}の技術的詳細を示す.これらのシステムは,準備段階で作成したシステム\cite{Yasue2016a,Yasue2016b,Sato2017}に,改良を加えたものである.第6章では,システムの翻訳結果が実際にどの程度採用されたかを示すとともに,これらの一連の経験を通して得られた知見をまとめる.最後の第7章では関連研究について述べる.本研究の新規性は,オリンピック参加者名簿の翻訳という現実のタスクを実行するためのシステムを設計・実装し,そのタスクをどの程度うまく遂行したかを翻訳結果の採用率という形で示した点にある.なお,本論文では,姓と名の組を表す用語として「氏名」を,姓または名を表す用語として「名前」を用い,「氏名」と「名前」を総称する用語として「人名」を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V12N03-04
label{sec:introduction}\smpt{結合価辞書の重要性}用言の下位範疇化構造や選択制限などの詳細な情報は、自然言語処理の様々な分野で利用されている。本稿では、これらの詳細な情報を結合価情報と呼び、結合価情報を持つ辞書を結合価辞書と呼ぶ。また、結合価辞書のエントリを結合価エントリ、あるいは単にエントリと呼ぶ。結合価辞書を用いたシステムには、機械翻訳システム(\altje\citep{Ikehara:1991}、PIVOT\citep{Nomura:2002j})や自動要約システム(CBsummarizer\citep{Nomura:2002j})、言い換えシステム(蔵\citep{Takahashi:01})、ゼロ代名詞照応システム(ZeroChecker\citep{Yamura-Takei:Fujiwara:Yoshie:Aizawa:2002})、質問応答システム(SAIQA-II\citep{Sasaki:2004})などがあり、多岐に渡っている。また、近年では、結合価辞書等の詳細な辞書情報とコーパスなどを利用した統計的手法を融合させる研究も行なわれている\citep{Uszkoreit:2002,Copestake:Flickinger:Pollard:Sag:1999}。例えば、\citet{Carroll:Minnen:Briscoe:1998}は、統計的統語解析器に下位範疇化構造の情報を持つ辞書を利用することで、解析精度をあげられることを示している。\smpt{言語現象を調べることに利用できる}このように、詳細な情報を持つ結合価辞書は非常に有用なため、様々な自然言語処理システムで利用されている。また、交替などの言語現象の量的な調査にも利用できる。ここで交替関係とは、異なる表層的構造によって、ほぼ同じ意味関係を表すことができるような関係である。例えば、「(店の)製品が\ul{完売する}」と「(店が)製品を\ul{完売する}」は表層的構造は異なるが、ほぼ同じ意味関係を持ち、交替している。このような交替は、英語では、\citet{Levin:1993}によって80種類以上提示されている。日本語では、\citet{Bond:Baldwin:Fujita:2002j}によって大規模に調査が行なわれている。\citet{Bond:Baldwin:Fujita:2002j}によると、最も多い交替タイプは「砂糖が\ul{溶ける}」\tot「私が砂糖を\ul{溶く}」などのように、自動詞の主語(\sbj)が他動詞の目的語(\obj)となる交替(以降、\soaltと呼ぶ)であると報告されている。\soaltは全交替の34\%を占めており、最も一般的な交替タイプであるといえる。本稿では、この、最も一般的な交替タイプである\soaltを対象とし、既存の結合価辞書を用いて交替の選択制限の対応関係等の調査を量的に行なう。また、その調査結果に基づき、交替情報を用いて新たな結合価エントリを獲得する方法を提案する。\smpt{結合価辞書の構築方法の先行研究}結合価辞書の構築方法は多く提案されており、これらの構築方法は大別して3種類に分類できる。第一に人手で作成する方法がある\citep{Shirai:1999zj}。人手で作成する方法の利点は、質の高い言語資源が獲得できるという点である。しかし、その作成にはコストと時間がかかるという問題や、作成するエントリが網羅性に欠けるという問題がある。また、内省による作成の場合、作成者や作成時期の異なりによる判断の揺れが起こり、辞書の一貫性を保つことが難しいという問題もある。第二に、コーパスから情報を学習する方法が提案されている\citep{Li:Abe:1998,Manning:1993,Utsuro:1997,Kawahara:Kurohashi:2001}。しかし、\citet{Korhonen:2002}は、コーパスからの単言語の下位範疇化構造を自動的に獲得する場合、精度は約80\%が上限である事を示している。また、\citet{Utsuro:1997}や\citet{Korhonen:2002}は、下位範疇化構造を自動的に獲得する場合でも、人手による修正が必要であると述べている。このように、自動学習では、必然的にエラーが含まれ精度が保証できないため、完全に自動構築された結合価辞書はほとんどない。第三に、言語資源を統合する方法が提案されている。例えば、既存の結合価辞書を半自動的に拡張する方法\citep{Fujita:Bond:2002a,Bond:Fujita:2003,Hong:Kim:Park:Lee:2004}、コーパスからの学習データを用いて拡張する方法\citep{Korhonen:2002}、多言語辞書を用いて単言語データを豊かにする方法\citep{Probst:2003}が提案されている。このように、言語資源を統合する方法は多様であるが、全般に人手で全て作成するよりコストが安く、コーパスから自動的に獲得するより信頼性が高いという利点がある。また、こうした方法では、様々な研究者や組織により構築されている言語資源を有効利用できるという利点もある。\smpt{提案手法}本稿で提案する結合価エントリの獲得方法は、第三の言語資源を統合する方法に分類できる。本提案手法では、交替を起こす動詞に対し、交替の片側に対応する結合価エントリが不足している場合、不足しているエントリを自動的に獲得する手法を提案する。本提案手法では、見出し語レベルでの交替情報、すなわち、「溶ける」と「溶く」は交替する、という情報と、交替の片側に対応する既存の結合価エントリを種として用いる。これらから、交替のもう一方に対応する新たな結合価エントリを獲得し、両エントリ間の対応関係を辞書に付与する。すなわち、本提案手法は、交替を起こす動詞で不足している結合価エントリを補うと共に、結合価エントリ間の交替関係の情報を付与することで結合価辞書をより豊かにすることができる。また、既存の結合価辞書が2言語の結合価情報を持つ場合、両方の言語の結合価情報も同時に獲得できる。そのため、本提案手法は特に機械翻訳において利用価値が高い。以下、\ref{sec:resource}章では、本稿で利用する言語資源を紹介する。\ref{sec:exam}章では、\soaltの調査を行なう。\ref{sec:create-method}章では、\ref{sec:exam}章の調査に基づき、交替情報を用いた結合価エントリの作成方法を提案する。\ref{sec:eva}章では本提案手法で作成した結合価エントリの評価について報告する。\ref{sec:discuss}章では、本提案手法の改良や展開について議論し、\ref{sec:conclusion}章はまとめである。
V15N02-01
label{sec:hajime}自然言語処理においては,タグ付けや文書分類をはじめとするさまざまな分類タスクにおいて,分類器が出力するクラスに確信度すなわちクラス所属確率を付与することは有用である.例えば,自動分類システムがより大きなシステムの一部を構成し,自動分類結果が別のシステムに自動入力されるような場合に,クラス所属確率は重要な役割を果たす.この例として,ブログ記事に対してさまざまな観点から付けられたタグ(複数)をユーザに表示するシステムにおいて,タグを自動的に付与する際に,クラス所属確率が閾値より低いタグについては排除することが有効な場合がある~\cite{Ohkura06}.同様に,手書き文字認識システムによる分類結果が,言語モデルのようなドメイン知識を組み込んだシステムの入力である場合も,クラス所属確率が用いられている~\cite{Zadrozny02}.また,自動的にタグ付けされた事例のうち誤分類されたものを人手により訂正したい場合に,すべての事例をチェックするのは大きなコストがかかるが,クラス所属確率が低いものほど不正解である可能性が高いと仮定し,クラス所属確率が閾値を下回る事例のみを訂正することにすれば,効率的な作業が行える.さらに,自動分類結果が人間の意思決定を支援する場合においては,クラス所属確率は判断の根拠を与える.例えば,高橋らは,社会調査において自由回答で収集される職業データを該当する職業コードに自動分類し~\cite{Takahashi05a,Takahashi05c},上位5位までに予測されたクラスを候補として画面に提示するシステム(NANACOシステム)を開発した~\cite{Takahashi05b}.NANACOシステムは,我が国の主要な社会調査であるJGSS(JapaneseGeneralSocialSurveys;日本版総合的社会調査)\kern-0.5zw\footnote{\texttt{http://jgss.daishodai.ac.jp/}.JGSSプロジェクトは,シカゴ大学NORC(theNationalOpinionResearchCenter)におけるGSSプロジェクトの日本版であり,国際比較分析を可能にするために,日本の社会や態度,行動に関する調査項目を有する.}や,SSM調査(SocialStratificationandSocialMobilitySurvey;社会階層と社会移動調査)\kern-0.5zw\footnote{\texttt{http://www.sal.tohoku.ac.jp/coe/ssm/index.html}.1995年から10年ごとに実施されている「仕事と暮らしに関する」全国調査である.}などに利用されているが,システムを利用したコーダから,提示された各クラスについてどの程度確からしいかを示すクラス所属確率を付与してほしいという要望が出されている\footnote{NANACOシステムが適用されるたびに,コーダによるシステム評価を行っている.}.最後に,クラス所属確率はEMアルゴリズムにおいても有用である.例えば,語の曖昧性解消において,あるドメインで訓練された分類器を,別のドメインのコーパス用に調整するために用いられたEMアルゴリズムにおいて,クラス所属確率は精度の向上に役立つことが報告されている~\cite{Chan06}.事例$x$があるクラス$c$に所属するクラス所属確率$P$は,2値分類,多値分類のいずれにおいても$P(x\in{c}|x)$で表される\footnote{クラス所属確率$P$の別の定義として,$P(\overrightarrow{\rmX}_{i},X_{i}\in{C_{j}}|\overrightarrow{\rmV}_{j},T_{j},S,I)$で表される場合もある.ただし,$\overrightarrow{\rmX}_{i}$は事例$X_{i}$を記述する属性のベクトル,$C_{j}$はクラス$j$,$\overrightarrow{\rmV}_{j}$は確率密度関数を具体化するパラメータ集合,$T_{j}$は確率密度関数の数式,$S$は許容される確率密度関数$\overrightarrow{\rmV}_{j}$,$T$の空間,$I$は明確には表現されない暗黙の情報を表す~\cite{Cheeseman96}.}.このようなクラス所属確率の意味からは,1つの事例が複数のクラスに所属するマルチラベル分類の可能性があってもよく~\cite{erosheva05},またある事例の全クラスに対するクラス所属確率の推定値の総和が$1$である必要もない~\cite{Canters02}\footnote{さらに,Carreiras(2005)らにおいては,$n$個の分類器のバギングにより生成された分類器において,クラス所属確率の推定値として,それぞれのクラスごとに各分類器におけるクラス所属確率の推定値の平均をそのまま用いている~\cite{Carreiras05}.}.しかし,もし,シングルラベル分類で,全クラスに対するクラス所属確率の推定値を求めることができれば,その総和が$1$になるように正規化することが可能である.このようなクラス所属確率は「正規化されたクラス所属確率」とよばれ~\cite{Cheeseman96},事後確率と考えることができる.対象とする分類問題をシングルラベルとして扱う場合,本来は正規化されたクラス所属確率を用いる必要があると考えられる.しかし,本稿においては,事例が注目するクラスに所属するか否かという問題に対する関心により,それぞれのクラスを独立に扱うため,一部の実験を除き基本的には正規化されたクラス所属確率を用いない.実際には,今回の実験では,正規化を行わないクラス所属確率の推定値の総和の平均はほぼ1に等しく,また限定された実験の結果ではあるが\footnote{3.2.2節および4.2.2節において報告を行う.},本稿における提案手法に関しては,正規化を行わない場合は正規化された場合とほぼ同様かやや劣る結果であるため,本稿における結論は,正規化されたクラス所属確率を用いた場合には,さらなる説得性をもつと考えられる\footnote{この理由は,既存の方法に関しては,正規化を行う場合の方が正規化を行わない場合より結果が悪いためである.ただし,一般化するにはさらなる実験が必要である.}.クラス所属確率の推定は,分類器が出力するスコア(分類スコア)に基づいて行われる.非常に単純には,例えばナイーブベイズ分類器や決定木では分類スコアが$[0,1]$の値をとるために,分類スコアをそのまま用いることができる.また,サポートベクターマシン(SVM)のように分類スコアが$[0,1]$の値をとらない場合でも,最大値や最小値を利用して確率値に変換することは容易である\footnote{例えば分類スコアが$f$の場合,$(f-min)/(max-min)$~\cite{Mizil05}または$(f+max)/2*max$~\cite{Zadrozny02}により$[0,1]$の値に変換することが可能である.ここで,$max$,$min$はそれぞれ分類スコアの最大値,最小値を表す.}.しかし,このようにして得られた推定値は実際の値から乖離することが多い.この理由は,例えば,ナイーブベイズ分類器が出力する確率値は,0または1に近い極端な値をとることが多いために,この値をそのままクラス所属確率とすると不正確になるためである\footnote{Zadroznyらによれば,ナイーブベイズ分類器が出力する確率は,その大小関係を用いた事例のランキングをうまく行うことはできる.}~\cite{Zadrozny02}.また,決定木においては,少なくとも,ナイーブベイズ分類器の場合と同様の確率値の偏りおよび,リーフに関連する訓練事例数が少ない場合に分散が大きいという2つの問題\footnote{度数が少ないことによる信頼性の低さが原因である.}があるが,刈り込みによっても確率値の改善は期待できないため,クラス所属確率の推定値としては使えない~\cite{Zadrozny01b}.SVMにおいても,分類スコアとして用いられる分離平面からの距離が,事例がクラスに所属する程度に正確には比例しない~\cite{Zadrozny02}ために,単純な変換では正確な値を推定しにくい.したがって,クラス所属確率の正確な値を推定する方法についての研究が必要である.\begin{table}[b]\begin{center}\caption{ビニングによる方法において参照される正解率の例}\raisebox{1zw}[0pt][0pt]{(ナイーブベイズ分類器を利用しビンが3個の場合)}\par\label{bining1}\input{01table01.txt}\end{center}\end{table}これまでにいくつかの方法が提案されているが,代表的なものに,Plattの方法~\cite{Platt99}やZadroznyらにより提案された方法~\cite{Zadrozny01a,Zadrozny01b,Zadrozny02,Zadrozny05}がある.Plattの方法では,SVMにおける分離平面からの距離を分類スコアとし,この値をシグモイド関数を利用して$[0,1]$区間の値に変換してクラス所属確率値の推定値とする(図~\ref{Platt}における実線).例えば,訓練事例により図~\ref{Platt}の実線で表されるような変換式が得られている場合に,ある事例の分類スコアが1.5であれば,この事例のクラス所属確率は0.9であると計算される.しかし,Plattの方法では分類器やデータセットによってはうまく推定できない場合があるとして~\cite{Bennett00,Zadrozny01b},Zadroznyらは決定木やナイーブベイズ分類器に対していくつかの方法を提案した~\cite{Zadrozny01a,Zadrozny01b}.このうち,ナイーブベイズ分類器に適用した「ビニングによる方法」は注目に値する.ビニングによる方法は,訓練事例を分類スコアの順にソートして等サンプルごとに「ビン」にまとめ,各ビンごとに正解率を計算しておいたものをクラス所属確率として利用する(表~\ref{bining1}を参照のこと.表の上段の数値(斜体)は各ビンにおける分類スコアの範囲,下段の数値は各ビンの正解率を表す).すなわち,評価事例の分類スコアから該当するビンを参照し,そのビンの正解率を評価事例のクラス所属確率の推定値とする.例えば,訓練事例により表~\ref{bining1}が作成されている場合に,未知の事例の分類スコアが0.6であれば,この事例のクラス所属確率は0.46であると推定される.Zadroznyらは,ビニングによる方法には最適なビンの個数を決定するのが困難であるという問題があるとして,次にIsotonic回帰による方法を提案した~\cite{Zadrozny02}.Isotonic回帰による方法もビニングによる方法と同様に,訓練事例を分類スコアの順にソートすることが前提条件であるが,ビンとしてまとめずに事例ごとに確率(正解の場合1,不正解の場合0)を付ける点が異なる.確率値は初期値1または0で開始されるが,分類スコアと単調関係を保つようになるまで修正が繰り返され,最終的に定まった値を正解率とする(表~\ref{Isotonic1}を参照のこと.表の上段の数値(斜体)は各事例の分類スコア,下段の数値は各事例の正解率を表す).評価事例のクラス所属確率は,評価事例の分類スコアと等しい分類スコアをもつ事例の正解率を参照し,この値を推定値とする.例えば,訓練事例により表~\ref{Isotonic1}が作成されている場合に,未知の事例の分類スコアが0.8であれば,この事例のクラス所属確率は0.5であると推定される.\begin{table}[b]\begin{center}\caption{Isotonic回帰による方法において参照される正解率の例(SVMを利用し事例数が10の場合)}\label{Isotonic1}\input{01table02.txt}\end{center}\end{table}これまでに提案された方法\footnote{これらの方法についての詳しい解説はこの後2節で行う.}はいずれも2値分類を想定しているために,クラス所属確率の推定には推定したいクラスの分類スコアのみを用いる.したがって,文書分類でしばしば用いられる多値分類に対しても,分類スコアを単独に用いて推定する2値分類に分解する方法が検討された~\cite{Zadrozny02,Zadrozny05}.すなわち,多値分類をいったん2値分類の組に分解し,それぞれの組で2値分類として推定したクラス所属確率の値を最後に統合(調整)する.多値分類を2値分類に分解するには,all-pairs(one-versus-one)およびone-against-all(one-versus-rest)の2つの方法があるが,Zadroznyらは,分解する方法そのものに精度の違いがないことを実験により示した上で,実験においてはいずれの場合もone-against-allを用いた.各組の2値分類における推定値を統合する方法としては,one-against-allにより分解した各組(クラスの数と等しい)において推定した値の合計が1になるようにそれぞれの推定値を正規化する方法がよい結果を示したことを報告した\footnote{Zadroznyらが推定値を統合する方法として提案した他の方法については,2.3節で述べる.}~\cite{Zadrozny02}.また,Zadroznyらによる最新の統合方法はさらに単純で,one-against-allにより分解した2値分類の各組において推定したクラス所属確率をそのままそのクラスについての推定値とする\footnote{ただし,この推定は($\text{分類クラスの数}-{1}$)個に対して行い,残りの1クラスについては,これらの推定値を合計したものを1から引いた値を推定値とする.}~\cite{Zadrozny05}.多値分類についての推定方法についてはZadroznyらの研究以外になく,例えば,Caruanaらによるクラス所属確率の推定方法の比較~\cite{Mizil05}においても,2値分類を対象としており,多値分類に対しては,Zadroznyらの文献~\cite{Zadrozny02}の紹介にとどまっている.しかし,多値分類は2値分類の場合と異なり,予測されるクラスは分類スコアの絶対的な大きさではなく相対的な大きさにより決定されるために,クラス所属確率は推定したいクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられる.したがって,多値分類においては,推定したいクラス以外のクラスの分類スコアも用いることが有効であると思われる.本稿は,多値分類における任意のクラスについてのクラス所属確率を,複数の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いて,ロジスティック回帰により高精度に推定する方法を提案する.本稿ではまた,複数の分類スコアを用いてクラス所属確率を推定する別の方法として,「正解率表」(表~\ref{accuracy_table1}を参照のこと.表の最左列と最上段の数値(斜体)はそれぞれ第1位と第2位に予測されたクラスに対する分類スコアの範囲,それ以外の数値は、第1位のクラスについての正解率を表す.)を利用する方法も提案する.正解率表を利用する方法とは,各分類スコアのなす空間を等区間(例えば0.5)に区切って「セル」\footnote{正解率表は多次元を想定するために,ビンではなくセルの語を用いることにする.}を作成し,各セルについて正解率を計算した表を用意して参照する方法である.例えば,「正解率表」を利用する方法において,訓練事例により表~\ref{accuracy_table1}が作成されている場合,未知の事例において第1位に予測されたクラスの分類スコアが0.8,第2位に予測されたクラスの分類スコアが$-0.6$であれば,この事例の第1位のクラスに対するクラス所属確率は0.67であると推定される.しかし,もし第2位に予測されたクラスの分類スコアが$-0.2$または0.3であれば,第1位のクラスについてのクラス所属確率の推定値は,それぞれ0.53または0.38のようにより小さな値になる.このように,提案手法は既存の方法と異なり,推定したいクラス所属確率に関連すると思われる別のクラス(例えば第2位のクラス)の分類スコアを直接利用することで,より正確な推定を行うことが可能になる.\begin{table}[b]\begin{center}\hangcaption{複数の分類スコアを用いた正解率表の例(SVMを利用し,第1位と第2位のクラスの分類スコアを用いた場合)}\label{accuracy_table1}\input{01table03.txt}\end{center}\end{table}以下,次節で関連研究について述べた後,3節では,まず第1位に予測されたクラスのクラス所属確率を複数の分類スコアを用いて推定する方法を提案し,実験を行う.4節では3節で得られた結論を第2位以下の任意のクラスに対して拡張する方法を提案し,実験を行う.最後にまとめと今後の課題について述べる.
V30N02-04
文法誤り訂正とは,与えられた文章中の文法誤りを文法的に正しい表現に訂正するタスクである.主に語学学習者が書いた文章を対象とし,自然言語処理の教育応用における主要タスクのひとつとなっている.これまでルールに基づく手法\cite{schneider-mccoy-1998-recognizing-syntactic}や言語モデルに基づく手法\cite{gamon-etal-2008-using},分類器に基づく手法\cite{dahlmeier-ng-2011-grammatical}などが開発されてきた.近年では機械翻訳に基づく手法\cite{brockett-etal-2006-correcting}が盛んに研究されている\cite{chollampatt-ng-2018-multilayer,junczys-dowmunt-etal-2018-approaching,zhao-etal-2019-improving,lichtarge-etal-2019-corpora,kiyono-etal-2020-massive,kaneko-etal-2020-encoder,rothe-etal-2021-simple,yuan-etal-2021-multi,stahlberg-etal-2022-uncertainty,sun-wang-2022-adjusting}.分類器に基づく手法などが対象とする誤りを限定していたのに対し,機械翻訳に基づく手法は様々な誤りを訂正できるためモデルの性能は飛躍的に向上した.文法誤り訂正が発展する要因のひとつに一般利用可能な評価コーパスの存在がある.例えば英語文法誤り訂正では2012年頃まで各研究が独自の評価コーパスでモデルを評価していたため,異なる研究間でモデルの性能が比較しづらいという問題があった.しかしCoNLL-2013及びCoNLL-2014sharedtask\cite{ng-etal-2013-conll,ng-etal-2014-conll}で評価コーパスが一般公開されたことにより,各研究が同じ評価コーパスでモデルを評価するようになった.その結果,英語文法誤り訂正ではモデル間の性能差を比較しやすくなり迅速に研究を進めることが可能になった.現在ではCoNLL-2014sharedtask評価コーパスでモデルを評価することが一般的である.また英語文法誤り訂正では,単一の評価コーパスに過度に依存することの危険性が指摘されており\cite{mita-etal-2019-cross},様々な評価コーパスを用いた多面的な評価が進んでいる\cite{grundkiewicz-etal-2019-neural,kiyono-etal-2020-massive,kaneko-etal-2020-encoder,yasunaga-etal-2021-lm,lai-etal-2022-type}.具体的にはCoNLL-2014sharedtask評価コーパスに加え,FCE\cite{yannakoudakis-etal-2011-new}やJFLEG\cite{napoles-etal-2017-jfleg},W\&I+LOCNESS\cite{granger-1998-computerized,yannakoudakis-etal-2018-developing},GMEG\cite{napoles-etal-2019-enabling}といった評価コーパスが利用されている.一方日本語文法誤り訂正では利用可能な評価コーパスが限られており\cite{oyama-etal-2016-nihongo,kiyama-etal-2022-nihongo},研究間でのモデルの比較・多面的評価のためには評価コーパスをいま以上に増やす必要がある.そこで本研究では,日本語文法誤り訂正のための評価コーパスを構築し,一般利用可能な形で公開する.我々は文法誤り訂正において代表的な多言語学習者コーパスLang-8コーパス\cite{mizumoto-etal-2013-nihongo}の日本語学習者文を本評価コーパスの学習者文に利用する.また文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスとするため,本評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せる.具体的には(1)対象とする誤りの範囲を学習者コーパスNUCLE\cite{dahlmeier-etal-2013-building}に合わせ,(2)誤用タグを自動誤用タグ付けツールERRANT\cite{felice-etal-2016-automatic,bryant-etal-2017-automatic}の誤用タグを一部改変し設計する.(1)について,現在の文法誤り訂正では綴り誤りや語彙選択誤りといった狭義の文法誤り以外も訂正対象に含めることが一般的である.したがって本評価コーパスでも綴り誤りや語彙選択誤りも訂正対象に含める.(2)について,英語文法誤り訂正ではモデルの誤りタイプ別評価を$\mathrm{F_{0.5}}$で行うため,ERRANTが盛んに使用されている.本研究では日本語用の自動誤用タグ付けツール(日本語版ERRANT)を今後開発しやすくするため,ERRANTの誤用タグを一部改変し誤用タグを設計する.最後に作成した評価コーパス及び既存評価コーパスで6種類の代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてベースラインとなるスコアを報告する.本研究の主な貢献は以下の通りである.\begin{itemize}\item日本語文法誤り訂正のための誤用タグ付き評価コーパスを構築し公開した\footnote{TMUEvaluationCorpusforJapaneseLearners(TEC-JL).\url{https://github.com/koyama-aomi/TEC-JL}}.また誤用タグを利用し,日本語文法誤り訂正モデルの誤りタイプ別の性能を調査した.\item作成した評価コーパス及び既存評価コーパスで6種類の代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてベースラインとなるスコアを示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V28N01-04
本稿では『分類語彙表』\cite{WLSP-2004}に対する反対語・対義語情報付与について論じる.分類語彙表は単語の意味をその語義に基づいて分類している.分類語彙表の初版の書籍は1964年に出版され,増補改訂版の書籍が2004年に出版された.この増補改訂版をもとにしたCSV形式のデータベース,分類語彙表増補改訂版データベース(以下『分類語彙表DB』)が公開されている.同データは区切り記号を含めて101,070エントリからなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{03table01.tex}\caption{分類語彙表の構造}\label{tbl:ex-wlsp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\begin{center}\input{03table02.tex}\caption{分類語彙表の項目「最大」}\label{tbl:wlsp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:ex-wlsp}に分類語彙表の構造を示す.分類語彙表の単語・語義は,分類番号・段落番号・小段落番号・語番号が割り当てられている.これらの番号が,語の階層的なクラスタを構成している.分類番号は,語の統語分類を表す類と,意味分類を表す部門・中項目・分類項目により構成されている.分類語彙表のピリオドより前の数字が類を,ピリオドの後1ケタの数字が部門を,2ケタが中項目を,4ケタが分類項目を表す.表\ref{tbl:wlsp}に「最大」(分類番号1.1920)の例を示す.ここで最初の1は統語分類の類「体」を表す.ピリオドより後の.1920が意味分類を表し,最初の.1が部門「関係」,.19が中項目「量」,.1920が分類項目「程度・限度」を表す.分類語彙表の意味の階層構造は反対語(opposites)・反義語(antonyms)も含めた類義語(synonyms)\footnote{本稿では類義語(synonyms)$\supset$反対語・対義語(opposites)$\supset$反義語(antonyms)とする.反対語・対義語の定義については\ref{subsec:related:ling}節で論じる.以降,反対語・対義語を含めて「反対語」と呼ぶ.}に対して同じラベルを割り当てる.例えば,表\ref{tbl:ex-wlsp}の小段落番号1.1920-01-01には,「最大」$\Leftrightarrow$「最小」と「最多」$\Leftrightarrow$「最少」といった単語対が反対語だと考えられる.反対語は基本的には二項対立の単語対に対して認めるものであるが,三項対立のものに対して認めるものもある.本研究では,分類語彙表の類義語に対する反対語情報を大規模に付与する.まず,反対語と少しでも考えられる単語対を人手で分類語彙表から抽出した.次に,展開した反対語対候補とランダムに抽出した単語対を文字刺激として,反対語らしさの評定値をクラウドソーシングにより収集した.さらに,クラウドソーシングにより,\modified{正順呈示・逆順呈示のいずれかで}50\%以上の方が反対語であると認識した語対について,反対語の分類情報を付与した.これらのデータベースについて,反対語の分類ごとの評定値情報・コーパス頻度・単語ベクトルの傾向について調査した.\ref{sec:related}節では,言語学における反対語の関連研究と,言語処理における極性分析などについて示す.\ref{sec:method}節に反対語情報の付与方法を示し,\ref{sec:analysis}節に分析結果を示す.\ref{sec:summary}節にまとめと今後の課題について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V31N02-12
やさしい日本語とは,語彙や文法に制限を加えた,外国人や高齢者など多くの人にとってわかりやすい日本語のことである.現在の日本では,多様な国籍の在留外国人約300万人\footnote{\url{https://www.moj.go.jp/isa/content/001381744.pdf}}が生活しており,このような日本語非母語話者に対する情報伝達の手段として,やさしい日本語の活用およびやさしい日本語へのテキスト平易化の技術\cite{alva-manchego-etal-2020-data}が期待されている.テキスト平易化とは,文の意味を保持しつつ,難解な文を平易に言い換えるタスクのことである.テキスト平易化は,非母語話者\cite{wreo15332}や子ども\cite{belder-2010,kajiwara-2013},失語症などの言語障害を持つ人々\cite{1998Practical,Dyslexia,autism}の文章読解を支援し,他の自然言語処理タスク\cite{chandrasekar-etal-1996-motivations,Silveira2012EnhancingMS,stajner-popovic-2016-text}の性能を改善する.近年の研究では,テキスト平易化を同一言語内の機械翻訳の問題として扱い\cite{alva-manchego-etal-2020-data},難解な文と平易な文からなるパラレルコーパスを用いて,系列変換モデル\cite{vaswani-2017}を訓練する.本研究では,日本語を対象に,テキスト平易化モデルを訓練および評価するためのパラレルコーパスを構築する.パラレルコーパスに基づくデータ駆動のテキスト平易化は,英語を中心にドイツ語\cite{klaper-etal-2013-building,sauberli-etal-2020-benchmarking}やイタリア語\cite{brunato-etal-2016-paccss}など多くの言語で研究されている.英語では,非母語話者向けのSimpleWikipediaや専門家によって子供向けに書かれたニュース記事から,文アライメントによって自動構築されたパラレルコーパス\cite{coster-kauchak-2011-simple,xu-etal-2015-problems,jiang-etal-2020-neural}が公開されている.日本語では,学生やクラウドワーカにより平易化されたSNOW\footnote{\url{https://www.jnlp.org/GengoHouse/snow/t15}}\cite{maruyama-yamamoto-2018-simplified,katsuta-yamamoto-2018-crowdsourced}や,テキスト平易化の専門家によって平易化されたJADES\footnote{\url{https://github.com/naist-nlp/jades}}\cite{hayakawa-etal-2022-jades}がある.SNOWは,教科書などの日本語文\footnote{\url{http://www.edrdg.org/wiki/index.php/Tanaka_Corpus}}を,非専門家が文単位で平易化した大規模なパラレルコーパスである.SNOWの平易化は,作者らによって定義された基礎語彙2,000語\footnote{\url{https://www.jnlp.org/GengoHouse/list/語彙}}に基づくため,この語彙で網羅できない表現については,却ってわかりにくい言い回しが見られる.そのため,SNOWに含まれる低品質な文対を除外するパラレルコーパスフィルタリング\cite{hatagaki-etal-2022-parallel}が研究されている.JADESは,WMT20\cite{barrault-etal-2020-findings}日英ニュース翻訳タスクの検証・評価用サブセットを,専門家が文単位で平易化した小規模なパラレルコーパスである.表~\ref{tab:corpus_kind}に示すように,既存の日本語テキスト平易化パラレルコーパスには,高品質かつ大規模なコーパスは存在しない.本研究では,高品質かつ大規模な日本語のテキスト平易化パラレルコーパスを構築するために,日本語のWeb記事とその専門家による平易化版の記事対から人手で文アライメントをとる.我々が構築したテキスト平易化パラレルコーパスの1.6万文対について分析したところ,本コーパスは既存の大規模コーパスであるSNOWよりも多様な平易化操作を含み,専門家が構築したJADESよりも解釈性と正確性の高い平易化が行われていることを確認できた.また,MATCHAで訓練したテキスト平易化モデルは,SNOWで訓練したモデルに比べて,解釈性と正確性の高い平易化ができることを確認した.本研究で構築した日本語のテキスト平易化パラレルコーパスMATCHAはGitHub\footnote{\url{https://github.com/EhimeNLP/matcha}}で公開した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{11table01.tex}%\caption{日本語テキスト平易化コーパスの特徴}\label{tab:corpus_kind}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V20N03-04
2011年3月11日に発生した東日本大震災の被災範囲の広大さは記憶に新しい.この震災では,既存マスメディア(放送・新聞・雑誌等)だけでなく,Twitterなどのソーシャルメディアによる情報発信が盛んに行われた\cite{Shimbun,Endo2}.しかしながら,大手既存メディアは被災報道を重視していた.実際,被災者にとって有用な報道として,災害時でも乾電池で駆動可能なラジオ,並びに,無料で避難所等へ配布された地元地方紙が役に立ったことが,\cite{Fukuda}の被災者アンケートで調査報告されている.この様な震災初期の状況の理由として,阿部正樹(IBC岩手放送社長)は,震災発生当時の被災地において,テレビは「テレビ報道は系列間競争の中でどうしても全国へ向かって放送せざるを得ない.(中略)被災者に面と向き合う放送がなかなか出来ない,被災者のためだけの放送に徹し切れない.」というジレンマがあったとする一方,「しかしラジオは違う.地域情報に徹することが出来る.(中略)テレビではどこそこの誰が無事だという情報はニュースになりづらい.しかし,ラジオでは大切な情報なのだ.いつしかラジオが安全情報,安否情報へと流れていったのは自然なことだったと思う.」と述懐している\cite{IBC}.震災初期から,ソーシャルメディアの一つであるTwitterには,救助要請ハッシュタグ{\tt\#j\_j\_helpme}\cite{Twitter_tags}が付与された大量の救助の声が寄せられていた.(被災地マスメディアの一つであるラジオ福島は,当時生きていた3~G回線を用いて,Twitterによる情報収集・発信を行っている\cite{rfc}.)ただし,これら救助要請の多くには「【拡散希望】」という文字列が含まれていたため,それを見た「善意の第三者」は,Twitterのリツィート機能(全文引用機能)を用いる傾向が高かった\cite{Ogiue,Tachiiri}.結果として,リツィートによって救助要請の類似情報がTwitterへ膨大に流れたものの,「実際に救助要請情報が警察など関係機関へ適切に通報されたかどうか」という最も重要な情報のトレースは,著しく困難なものになった.この様な状況を解消するために,我々は2011年3月15日,Twitter上の救助要請情報をテキストフィルタリングで抽出し,類似文を一つにまとめて一覧表示するWebサイトを開発し,翌16日に公開した\cite{Aida0,extraction,Aida1}.本論文では,本サイトの技術のみならず,救助要請の情報支援活動プロジェクト{\tt\#99japan}と本サイトとの具体的な連携・活用事例について述べる.ここで{\tt\#99japan}とは,救助状況の進捗・完了報告を重視するTwitterを用いたプロジェクトであると共に,発災2時間後,2ちゃんねる臨時地震板ボランティアらによって立ち上げられたスレッド「【私にも】三陸沖地震災害の情報支援【できる】」\cite{2ch}を由来する.このスレッドは,「震災初期におけるネット上のアウトリーチ活動記録」として,特筆に値する.
V09N05-03
ある文字列を$k$回以上含むドキュメント数には,文字列の意味に関連する性質がある.この論文では,このドキュメント数を重複度$k$のドキュメント頻度と呼び,特に$k$を指定しない場合には,重複条件付きドキュメント頻度と呼ぶことにする.図\ref{dfn-sample}は,332,918個の日本語アブストラクトの本文を対象に,様々な文字列に対し,$k$を変化させて,重複度$k$のドキュメント頻度を計測したものである.文字列が意味のある単語の部分である場合には,$k$の増加にしたがっても,文書数の減少は緩やかである.たとえば,「メ」「メデ」「メディ」「メディア」などについては,$k$が一つ増加するごとに,ドキュメントの数が半減する傾向が観察される.一方,単語の切れ目を含む文字列の場合,$k$が増えるにしたがって文章数が1/4以下になることが観測できる.この性質を使って,文書中のキーワードを辞書を使わないで検出するということが可能であるという報告\cite{Keyword}がある.重複条件付きドキュメント頻度を単語の境界の検出に使用するには,任意の文字列について,その重複度付ドキュメント頻度を求めることが必要である.たとえば,文献\cite{Keyword}の文書分析では,頻度3を越える文字列について重複条件付きドキュメント頻度を計算しており,平均440バイト程度の1ドキュメントについて,1400個程度の文字列が調査の対象となっている.単純な方法で重複度付ドキュメント頻度を求めると,文字列ごとにコーパス長に比例する計算時間がかかることになり,後述するように一つのドキュメントを処理するのも大変である.さらに,キーワードをドキュメントの全体にわたって調査すると,この処理を332,918回繰り返すことになり,単純な方法では計算時間がかかりすぎるという問題がある.\begin{figure}[htbp]\begin{center}\begin{verbatim}k=1k=2k=3k=4k=5文字列52424223241111761563419メ463222001221707392メデ458021781211699388メディ443421311195692382メディア560881540メディアを8312000メディアを用8312000メディアを用い646000メディアを用いた\end{verbatim}\caption{重複条件付きドキュメント頻度の例}\label{dfn-sample}\end{center}\end{figure}ここで,重複度を考慮しないドキュメント頻度(単純ドキュメント頻度)については,ドキュメント頻度が同じ文字列をクラス分けができ,そのクラスごとに頻度を計測することが可能であるという報告\cite{DF1}がある.例中の「メディアを用」と「メディアを用い」の二つの文字が同じドキュメント頻度を持っているが,このような文字列が一つのクラスに属する文字列の例である.報告\cite{DF1}によると,コーパスの文字数を$N$とした場合に,クラス数は最大で$2N-1$である.よって,$O(N)$の大きさの表に,任意の文字列の単純ドキュメント頻度を保持することができる.しかし,重複度を考慮した場合に同じクラス分けが使えるかどうか明らかではないという問題が残る.また,クラス分けをして,表を作成するならば,重複条件付きのドキュメント頻度は,クラスごと,つまりそのクラスを代表する一つの文字列についてのみ求めればよいが,単純な方法では,代表の文字列の個数が$O(N)$,それぞれの計算に$O(N)$かかることになり,全体で$O(N^2)$の処理となる.$N$がおよそ$10^8$程度のコーパスでは,実際に前処理が終わらないという問題が残る.文献\cite{DF1}は単純ドキュメント頻度について,この問題の解決方法を示している.この方法は,文字出現頻度から重複を除いて単純ドキュメント頻度を求めている.しかし,重複の構造が複雑な重複条件付きドキュメント頻度の計測には,重複を除くという考え方が使用できない.この論文では,重複条件付きドキュメント頻度の計測についても,クラス分けが使用できることを示し,その前処理として重複度の上限を与えた場合に,$O(N\logN)$で,クラスごとの重複条件付きドキュメント頻度の表を作ることができることを示す.そのときに,重複条件付き文字列頻度という概念を提案し,重複条件付き文字列頻度の関数として重複条件付きドキュメント頻度が求まることを示す.最後に,実際に動作するシステムを作成し,332,918個のドキュメントで,69,312,280文字からなるコーパスで計測した計算時間を示す.ここで示すアルゴリズムは,$k$を固定したとき,ある文字列が$k$回以上出現するドキュメントの数を数え上げる問題について,ドキュメントの全文字数を$N$とすると,前処理は計算時間$O(N\logN)$,メモリ使用量$O(N)$であり,その後に値を求めるときには計算時間$O(\logN)$,メモリ使用量$O(N)$である.