id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V18N02-03
本稿は,文書,あるいはある観点で集められた文書群が与えられたとき,それについて文書量に依存しない定数—これを本稿では文書定数と定義する—を計算する方式に関する報告である.文書定数は,古くは文書の著者判定を主たる目的として探究された.最も古い代表的なものとして,1940年代に提案されたYuleの$K$がある.現在では,著者判定に対しては,言語モデルや機械学習に基づく方法など,代替となる手法が数多く提案されている.このため,何も文書や文書群をあえて定数という一つの数値に還元して判定を行う必要はない.しかし,文書あるいは文書群がある一貫した特質を持つのであれば,その特質を定数に還元しようとすること自体は,工学上の個別の応用を超えて,より広く計算言語学上の興味深いテーマであると筆者らは考える.文書あるいは文書群に通底する一貫性の種類には,内容や,難易度などさまざまなものが考えられ,言語処理分野では文書分類や,難易度判定としてそれを捉える工学的方法が考案されてきた.文書定数の場合には,もともとの研究の発端が著者判定にあったために著者の語彙量,語彙の偏り度合,あるいは個別文書の複雑さなど,語彙の複雑さを計測し数値化する問題として考えられてきた.一般に,文書の大きさが増すほど,文書の複雑さは増大するが,一方で,漱石の「坊っちゃん」の一部分にはその全体にも通底する固有の特質があると捉えることもできよう.これを定数として表そうとすることは,記号列としての文書に一貫する複雑さのある側面を考えることにつながると考えられる.そして,対象としうる文書は個別作品だけではない.特定の内容の文書群や,特定の言語の文書群でこれらの定数を考えることは,自然言語の記号列の有する特質に光を当てることにはならないか.文書定数を考えることは,本稿でも報告するように,易しい問題ではない.その一つの理由は,自然言語の文書においてhapaxlegomena—頻度が1回きりの単語—が語彙に対して占める割合が比較的大きいことにあろう.たとえば,サイコロであれば,各目の出る確率を推定するのに必要な施行回数は推定することができる.一方で,文書の場合には,さまざまな統計的推定には文書量が常に不十分な状態のままである~\cite{kyo,Baayen}.すなわち,文書定数を考えることは,確かな言語モデルが不在のまま,量が常に足りていない状態のままで定数を考える,という問題として位置付けられよう.次節でまとめるが,文書定数に関する研究は,すでにさまざまなものがあり,単語に注目するものと文字列に注目するものに大別される.近年の研究では,それらのほとんどが文書長に応じて単調変化してしまうことが報告され,その中で,文書定数となる指標は,筆者らの知る範囲では,現在のところ2つしかない.この現状の中で,本稿の意義は以下の4点にまとめることができる.第一に,過去の研究で定数とされているものうちの一つが定数ではないと実験的に示したことである.第二に,過去の提案に加え,近年研究されている言語の大域的特性を捉える複雑系ネットワークや言語エントロピーといった数理的枠組みから,文書の特性を大域的に捉える指標を新たに吟味し,これらがやはり文書定数とならないことを示すことである.以上の意味で,本稿では,新しい文書定数を提案するものではなく,文書定数としては依然として,既に提案されていたもののうち2つのみである,という結論となる.第三に,文書定数に関する研究は,英語を中心として展開し,やや広くても印欧語族についてのみの報告しかない.本稿では,日本語や中国語に関しても実験を行い,過去に提案されてきた文書定数が非印欧語族に対しても定数として成り立つかどうかを論じる.第四に,過去の研究の大半では,短い個別文書に関して定数となるかどうかが調べられてきた.本稿では,数百MBにわたる文書群での実験結果も報告する.
V14N03-08
音声言語処理の研究・開発は,コンピュータの高性能化を背景にし,ここ数年の間に飛躍的な発展を遂げ,特に大量のデータに基づく,確率・統計的なモデル化のアプローチは,音響処理面および言語処理面の双方において大きな成功を収めた.これらの技術的進展により,音声合成・音声認識技術は一気に実用レベルに達し,人間とコンピュータとのインタフェースとして広範囲に応用されるに至った.一方,応用範囲が広範になるにつれ,その精度・品質に対して,より高いレベルのものが要求されるようになっている.例えば,音声合成においては,テキストを単に読み上げるだけのものから,パラ言語情報や感情などを表現する柔軟な合成音声が望まれる.このような合成音声には,音声機能障害者を対象とした対話支援システム\cite{Ii2}や,癒し系ロボットへの応用など様々なものが提案されている.言語情報だけでは伝わらないこのような表現豊かな音声での感情や意図の表現には,韻律的特徴が大きく寄与することは明らかである\cite{Rai},\cite{Fuji},\cite{Nikku}.そのため,従来から,感情音声の韻律的特徴に関する研究が行われており,基本周波数パターン(以下,$F_0$パターンと呼ぶ)の統計的な傾向を音声心理学的な観点からとらえた研究\cite{Naga},\cite{As},\cite{Sige}や,音声言語コーパスに基づく工学的な観点からの研究\cite{Koba},\cite{Sagi}がある.日本語音声における感情表現に関する研究は,感情の種類に着目して,特徴付けや識別を試みている例が多い\cite{ITI},\cite{Ii},\cite{Kita}.一方,表現豊かな音声合成のために,特定の感情について,その程度を数段階に分けた研究も行われるようになってきている.\cite{Hasi},\cite{kw2},\cite{Nsima}.また,韻律的特徴が,文の統語構造と関連を持つことも明らかとなっており\cite{Hir},\cite{Ume},韻律的特徴であるイントネーションやアクセントの生起タイミングにおいては,言語的情報を的確に利用することで,よりよい決定が行われると考えられる.筆者らは,表現豊かな音声合成の実現を目的として,特に感情に着目し,複数の程度の感情情報を含む典型的な発話に対する韻律制御指令の生成について検討を行っている.本論文は,感情の種類として「喜び」「悲しみ」の2つの感情を取り上げ,それぞれの感情を3段階の程度で表現した音声に対し,発話の言語的情報と$F_0$パターン制御指令のパラメータとの関係について検討することによって,感情を表現する音声合成への応用を目指すものである.すなわち,本論文の主な目的は,感情の種類の判別・差異に着目することではなく,同一感情の程度に対する影響について明らかにするものである.そのための足がかりとして,R.Plutchikが提案した心理学上の感情の立体モデル\cite{PLU}の基本8感情のうち「喜び」「悲しみ」のみを対象として取り上げるにとどめた.「喜び」「悲しみ」の2感情をその程度まで考慮し分析した先行研究\cite{MD}では,4〜6モーラの単語を発声した際の感情音声を対象として,韻律的特徴が分析されている.この先行研究では,韻律的特徴のうち,時間構造に関するパラメータと$F_0$パターンに関するパラメータを取り扱っている.しかし,孤立に発声された特定の単語発話に対する詳細な検討であり,任意の文章を対象とした音声合成に直接応用することは困難であると考えられる.一方,模擬対話を行って数段階の程度で感情音声を収集した先行研究\cite{Kawana}では,非常に限られた種類の文を対象として文発話を収録している.収録音声の$F_0$パターンとモーラ持続時間短縮率について分析を行い,感情の程度と韻律的特徴との間に一定の傾向を見い出しているが,それは話者や感情の種類によって大きく異なるものと結論づけるにとどまり,一般化には及んでいない.本論文では,任意の文章への感情音声合成への応用を目指して,感情ごとに異なる10文を用意して分析対象とした.ここで,言語的要因の1つである係り受け関係を網羅するため,対象を4文節からなる文に限定した.また,韻律的特徴には,$F_0$パターン・発話速度・発話強度・声質など様々あるが,日本語音声の場合,高さに関する特徴である$F_0$パターンが韻律情報を支配する直接的要因であると考えられているため,本論文では特に$F_0$パターンに着目することとする.$F_0$パターンについては,その生成過程モデル\cite{Fuji3}に基づいた分析を行い,韻律的特徴の定量化を行う.これは$F_0$パターン生成過程モデルが,音声を生成する人間の生理的・物理的な特性を捉えたものであり,また,言語的内容とも整合した制御指令が得られることが確認されているためである.このモデルの$F_0$パターン制御指令の変化傾向をとらえることで,テキスト音声合成時の$F_0$パターン生成に直接に結びつけることが可能であると期待できる.以下,\ref{mt}.では,発話内容の言語的情報と音声資料の収録方法について述べる.\ref{ln}.において,$F_0$パターンの分析手法について述べ,\ref{ex}.で言語的情報に基づき$F_0$パターン制御指令のパラメータとの関係について検討した結果について述べる.\ref{sa}.で本論文をまとめる.
V20N02-09
\label{introduction}自然言語の理解に向けて,常識的知識の獲得が重要である.特に意味カテゴリに属する固有表現のリストは,質問応答~\cite{Wang:2009:ASI:1687878.1687941},情報抽出~\cite{Mintz:2009:DSR:1690219.1690287},語義曖昧性解消~\cite{Pantel:2002:DWS:775047.775138},文書分類~\cite{Pantel:2009:WDS:1699571.1699635},クエリ補完~\cite{Cao:2008:CQS:1401890.1401995}など様々なタスクで有用である.固有表現リストを人手で構築すると多大なコストがかかるうえ,新しい実体や概念に対応できないため,固有表現リストを(半)自動的に獲得する方法が研究されてきた.集合拡張はある意味カテゴリに属する既知の固有表現の集合を入力とし,その意味カテゴリの未知の固有表現を獲得するタスクである.例えば「プリウス」,「レクサス」,「インサイト」という自動車カテゴリの固有表現から,「カローラ」,「シビック」,「フィット」のように自動車カテゴリに属する固有表現を新たに獲得する.なお本論文では,意味カテゴリに属する固有表現をその意味カテゴリの\textbf{インスタンス}と呼び,特に入力として与えるインスタンスを\textbf{シードインスタンス}と呼ぶ.集合拡張には通常,ブートストラッピング手法を用いる~\cite{Hearst:1992:AAH:992133.992154,Yarowsky95unsupervisedword,Abney:2004:UYA:1105596.1105600,pantel04,pantel-pennacchiotti:2006:COLACL}.ブートストラッピング手法とはシードインスタンスを用いて新たなインスタンスを反復的に獲得する手法である.ブートストラッピング手法では,まず,コーパス中でシードインスタンスと頻繁に共起するパターンを獲得する.例えば自動車カテゴリについて「プリウス」や「レクサス」のようなシードインスタンスから「トヨタのX」や「ハイブリッド車のX」(Xは名詞句を代入する変数)のようなパターンが得られる.次にこれらのパターンと頻繁に共起するインスタンス,すなわち,パターンの変数X部分に多く現れる名詞句を獲得する.例えば「トヨタのX」というパターンからトヨタの自動車製品を表す語が得られる.次に新たに得られたインスタンスをシードインスタンスに加え,再びパターンの獲得を行う.ブートストラッピング手法はこのようにパターンの獲得とインスタンスの獲得を繰り返し行うことにより,少数のシードインスタンスから大規模なインスタンス集合を獲得する.しかしブートストラッピング手法はシードインスタンス集合とは無関係なインスタンスを獲得してしまう場合もある.これは対象とする意味カテゴリのインスタンス以外とも共起するパターンによって引き起こされる.例えば「プリウス」や「レクサス」といったシードインスタンスから「新型のX」というパターンを獲得したとすると,このパターンを用いることにより,「iPad」や「ThinkPad」のようなシードとは無関係なインスタンスを抽出してしまう.ブートストラッピング手法において,対象とする意味カテゴリとは無関係なインスタンスを獲得してしまう現象を意味ドリフトと呼ぶ~\cite{Curran_minimisingsemantic}.意味ドリフトはブートストラッピング手法において非常に重大な問題である.ブートストラッピング手法は意味カテゴリに関する事前知識をシードインスタンスという形で受け取っている.しかしながら,シードインスタンスのみで意味カテゴリを正確に表現することは難しく,意味ドリフトが引き起こされる.一方,事前知識として,Wikipediaにおける意味カテゴリ間の上位下位・兄弟関係に見られるように,シードインスタンス以外の知識を得られる場合がある.例えば人カテゴリに属するインスタンスは男優と女優カテゴリに同時に属することはできないという知識や,自動車と自動二輪カテゴリという2つの異なったカテゴリが共通の特徴(例:乗り物,ガソリン式,陸上)と異なる特徴(例:タイヤの数,窓の有無)を持つというような知識が入手できる.近年,テキストに非明示的な情報を推論するため,\textbf{MachineReadingproject}~\cite{Etzioni:06}に見られるように大規模なテキストコーパスを利用し,ありとあらゆる種類の語彙知識を獲得しようとする研究が盛んである.意味カテゴリのインスタンスの収集においても,Carlsonら~\cite{Carlson10towardan}のように,複数のカテゴリを対象として同時に収集を行う需要が高まっている.このような場合には,シードインスタンス以外に,意味カテゴリ間の関係も事前知識として利用できると考えられる.本研究では,複数の意味カテゴリを対象とした集合拡張において,事前知識として意味カテゴリ間の兄弟関係を活用する手法を提案する.評価実験では,Wikipediaから抽出したインスタンスと兄弟関係を事前知識として集合拡張を行い,兄弟関係の知識が有用であることを示す.本論文の構成は以下の通りである.2節では本研究のベースライン手法であるEspressoアルゴリズムを概説する.また,この節では意味ドリフト問題とその対処法に関する先行研究を紹介する.3節では意味カテゴリの兄弟関係を追加の事前知識として活用する手法を提案する.4節では提案手法の効果を実験で検証し,考察を行う.最後に5節で本論文の結論を述べる.
V23N01-03
近年Twitterによる人間同士の短文のやりとりを始めとしたインターネット上の大量の会話データから自動知識獲得\cite{Inaba2014}が可能になったことや,高性能な音声認識機能が利用可能なスマートフォン端末を多くの利用者が所有するようになったことで,雑談対話システムへの関心が,研究者・開発者側からも利用者側からも高まっている.対話システムが扱う対話は大きく課題指向対話と非課題指向対話に分けられるが,雑談は非課題指向対話に分類される.課題指向対話との違いについていえば,課題指向対話では対話によって達成する(比較的)明確な達成目標がユーザ側にあり,一般に食事・天気など特定の閉じたドメインの中で対話が完結するのに対し,雑談では,対話をすること自体が目的となり,明確な達成目標がないなかで多様な話題を扱う必要がある.また,課題指向対話では基本的に対話時間(目標達成までの時間)が短い方が望ましいのに対し,雑談ではユーザが望む限り対話を長く楽しめることが望まれる.そのため,適切な応答を返すという点において,雑談対話システムは,課題指向対話とは異なる側面で,様々な技術的困難さを抱える.これまで,雑談対話システムの構築における最も大きな技術的障壁の1つは,多様な話題に対応する知識(応答パターン)を揃えるコストであった.上記のように,この問題はインターネットからの自動獲得によって解消されつつある.また,ユーザを楽しませる目的\cite{Wallace2004,Banchs2012,Wilcock2013}だけであれば,システムがおかしな発言をしてしまうことを逆手にとって,適切な応答を返しつづける技術的な困難さを(ある程度)回避してしまうことも可能である.その一方で,雑談対話には,ユーザを楽しませるという娯楽的な価値だけでなく,ユーザとシステムの間の信頼関係の構築\cite{Bickmore2001}や,ユーザに関する情報(ユーザの好みやユーザの知識の範囲)をシステムが取得することでユーザによりよいサービスを提供することを可能にする\cite{bang2015},遠隔地にいる老齢ユーザの認知・健康状態を測定したり認知症の進行を予防する\cite{Kobayashi2011},グループ内のコミュニケーションを活性化し人間関係を良好にする\cite{Matsuyama2013},といった工学的・社会的価値が存在する.このため,情報爆発,少子高齢化,生活様式の多様化と急激な変化による人間関係の複雑化といった諸問題を抱える現代社会において,雑談対話技術の更なる高精度化,すなわち適切な応答を返しつづける能力の向上が今まで以上に求められている.雑談対話の高精度化のためには,現状の技術の課題をエラー分析によって特定することが必要である.しかしながら,課題指向対話,特に音声対話システムにおける,主に音声誤認識に起因するエラーに関しては一定量の先行研究が存在するが,テキストのレベルでの雑談対話に関するエラーの研究はまだ少なく,エラー分析の根本となる人・機械間の雑談対話データの蓄積もなければ,そのデータに含まれるエラーを分析するための方法論・分類体系も十分でない.雑談対話システムがその内部でエラーを起こせば対話の破綻が起こり,ユーザが円滑に対話を継続することできなくなる.しかし,対話システムは,形態素解析,構文解析,意味解析,談話解析,表現生成など多くの自然言語処理技術の組み合わせによって実現され,かつシステム毎に採用している方式・構成も異なるため,システム内部のエラーを直接分析することは困難であるし,システム間で比較したり,知見を共有することも容易ではない.そこで我々はまず雑談対話の表層に注目し,破綻の類型化に取り組んだ.本論文では,対話破綻研究を目的とした雑談対話コーパスの構築,すなわち人・機械間の雑談対話データの収集と対話破綻のアノテーションについて報告する.そして,構築したコーパスを用いた分析によって得た破綻の分類体系の草案を示し,草案に認められる課題について議論する.以降,\ref{sec:data}節で対話データの収集について説明する.今回,新たに対話データ収集用の雑談対話システムを1つ用意し,1,146対話の雑談対話データを収集した.\ref{sec:annotation1}節及び\ref{sec:annotation2}節では,上記の雑談対話データに対するアノテーションについて述べる.24名のアノテータによる100対話への初期アノテーションについて\ref{sec:annotation1}節で説明し,その結果を踏まえて,残りの1,046対話について,異なりで計22名,各対話約2名のアノテータが行ったアノテーションについて\ref{sec:annotation2}節で説明する.\ref{sec:categorization}節では,\ref{sec:annotation2}節で説明した1,046対話に対するアノテーション結果の分析に基づく,雑談対話における破綻の類型について議論する.\ref{sec:relatedwork}節で関連研究について述べ,\ref{sec:summary}節でまとめ,今後の課題と展開を述べる.
V24N01-04
インターネットを通じたサービス利用はスマートフォンの普及を背景に近年ますます増加している\cite{ictbook2014}.スマートフォンでの各種サービスの利用はこれまでのPCを経由して利用するインターネットサービスに比べて,画面の大きさや操作性という面で大きく制限されており,サービス提供者はスマートフォンに合わせたユーザ体験を新たに構築する必要に迫られている.このような背景の中で推薦システムに注目が集まっている.推薦システムはユーザの興味関心に合わせて商品などを提示することを目的としたシステムであり,Amazon\footnote{http://www.amazon.com/}での商品推薦や,Facebook\footnote{https://www.facebook.com/}での友人推薦をはじめとして幅広く利用されている.画面の大きさや操作性が制限されているスマートフォンにおいて,推薦システムを用いてユーザに合わせて最適な選択肢を提示することでユーザ体験を大きく改善することが期待されており,今後様々な場面での利用が進んでいくと考えられる.このような背景から推薦システムのユーザ体験に関する研究が近年注目を集めており,その中で重要だと言われている指標の1つに多様性(Diversity)がある.推薦システムが悪いとそのサービスが悪いとみなされると指摘されており\cite{cosley2003},推薦システムのユーザ体験を考慮することはそのサービス設計のためにも重要である.多様性がユーザにもたらす影響についてはZieglerらの研究がよく知られており\cite{ziegler2005},多様性を含んだリストをユーザに提示するとユーザは自分に最適化されていないものが含まれていることは認識するが,多様性が含まれたものを好むという結果が報告されている.また推薦システムについてはFilterBubbleという問題が指摘されているが,その問題への対応のためにも推薦リストの多様性が重要であると言われている\cite{Pariser2011}.ジャーナリストであるイーライ・パリサーは検索エンジンやSNS(SocialNetworkService)が推薦システムの技術を用いてパーソナライズ化されていくことに対して,情報のタコツボ化が起こることを懸念し,人々が正しい意思決定をすることを阻害していると警鐘を鳴らした.その動きに対応して推薦システムに関する国際会議であるRecsys\footnote{https://recsys.acm.org/}では,2011年にFilterBubbleに関するワークショップを開催し,FilterBubble問題に関する見解を示した\cite{filterbubble}.その中でFilterBubbleとパーソナライズはトレードオフであること,すべての情報を人が網羅することは不可能なのでフィルタリング技術は必要であることを指摘した上で,推薦システムを作る過程において,そのシステムの説明性,透明性を担保すること,推薦される個々のアイテムだけでなくリスト全体を評価し,多様性も考慮して設計することが必要であるとした.このような背景から近年推薦システムを構築する上で多様性を考慮することは一般的になったが,推薦結果の多様性がユーザやサービスにどのような影響をあたえるかについては分かっていない点が多い.多様性に関する研究の多くは多様性がユーザ体験を向上させるという前提に立っているが,その根拠はユーザへのアンケートによるものであり,サービスにどのような形で利益をもたらすかについては明らかになっていない.これは推薦システム研究の多くが過去のデータを用いたオフラインテストで行われており,実際にサービス上でシステムを提供して比較した例が少ないことが要因である.本研究の目的は推薦システムを用いて提供されているサービスに対して多様性を導入し,推薦結果の多様性がユーザに与える影響について明らかにすることである.本研究ではウェブページ推薦システムを提供しているグノシー\footnote{http://gunosy.com}というサービスにおいて,推薦システムに多様性を導入しそのユーザ行動への影響について報告する.まず多様性がない既存システムにおけるユーザの行動を分析し,どのような特性をもったシステムであるかを示した.その上で多様性を導入したユーザ減衰モデルを構築した上で実際にサービス上でユーザに対して提供し,既存システムとの比較を行った.その結果多様性がサービスの継続率の改善や利用日数の増加という形でユーザの満足度を高めていることを示した.これはユーザは多様性を含むリストの方を好むという従来研究で指摘されていた点がサービス上においても有用に働くことを示したといえる.また利用日数が浅い段階ではユーザがクリックするウェブページの数は既存システムと同程度であるが,利用日数が増えるにしたがって多様性をもったユーザ減衰モデルのほうがクリックするウェブページの数が増えていくことを明らかにした.そして多様性のない既存システムでは,利用日数が増えるに従って推薦リスト下部のクリック率が下がっていくのに対して,多様性を取り入れたユーザ減衰モデルでは,推薦リスト下部のクリック率が向上していくことを示した.これは従来研究は確認できなかった多様性の中長期における影響を示したものである.本研究では実際に事業として開発・運用されているウェブサービスを利用しているため,ビジネス上の制約により用いている手法をすべて公開することはできない.既存システムのユーザ行動の分析によって推薦システムとして有効に作用していることを示すことによってその代わりとしたい.本研究の目的は多様性がユーザ体験にどのような影響を与えるかについて論じることであり,手法が非公開であることが本研究の結果に与える影響は軽微であると考える.以下に本論文の構成を示す.\ref{sec:related}章に関連研究と本研究の位置付けを示す.\ref{sec:gunosy}章において本研究で利用するグノシーというサービスと,そこで用いられている推薦システムについて紹介し,そのシステムのユーザ行動とその課題について分析する.\ref{sec:purpose}章で前章で述べた課題を元に推薦システムに多様性を導入する方法について述べる.\ref{sec:experience}章で既存システムと比較手法の比較実験を行い,推薦システムの多様性がサービスにもたらす影響について考察し,\ref{sec:conclusion}章で本研究のまとめを行う.
V07N04-06
\label{hajimeni}近年,テキストの自動要約の研究が盛んに行われている\cite{okumura99}.要約は,その利用目的により,原文の代わりとして用いる報知的(informative)要約と,原文を参照する前の段階で原文の適切性の判断などに用いる指示的(indicative)要約とに分類される\cite{Hand97}.報知的要約には,TVニュース番組への字幕生成(例えば,\cite{shirai99}参照)などのように,情報を落とすべきではない要約も含まれる.このような要約文の生成に,文や段落を単位とした重要文抽出の手法を利用すると,採用されなかった文に含まれる情報が欠落する可能性が高い.情報欠落の可能性が低い要約手法として,言い換えによる要約\cite{wakao97,yamasaki98}があるが,要約率に限界があることから(例えば,\cite{yamasaki98}参照),他の要約手法との併用が必要となる.情報欠落の可能性を減少させた手法として,これまでいくつかの手法が提案されている.福島ら\cite{fukushima99}は,長文を短文に分割した後に重要文抽出を行うことで,情報欠落の可能性の減少を試みている.しかし,重要文として採用されなかった文に含まれる情報には,欠落の可能性が残っていると言える.三上ら\cite{mikami99}は,文ごとに冗長な部分を削除することにより,文単位での抽出による情報の偏りを回避している.この手法では,連体修飾部や例示の部分を削除しても,文の中心内容は影響を受けないとして,これらの部分を削除対象としている.しかし,削除された部分が,読み手にとって重要と判断される場合もあることが三上らのアンケート調査の結果より明らかになっている.さらに,三上らは,連体修飾部等の意味に立ち入らず,構文構造のみから削除部分を認定しており,また,ある文を要約する際には,他の文の情報を使用していない.そのため,例1の下線部のように,意味が同じ修飾部であっても,一方が冗長であると認定されて削除されるならば,もう一方も同様に削除され,これらの情報は欠落する.逆に,冗長であると認定されなければ,両方とも残されるので,読み手にとって既知の情報を再度伝えることになる.\newpage\begin{quote}\label{rei:rei1}\hspace*{-1em}{\bf例1:}\\\hspace*{1em}\underline{薬害エイズの真相究明につながる}新たなファイルがあることが明らかになった問題で、$\cdots\cdots$\hspace*{1em}この問題は、\underline{薬害エイズの真相究明につながる}厚生省のファイルがこれまでに見つかった九冊の他にさらに七冊あることがわかったもので、$\cdots$\end{quote}\vspace{4mm}そこで本論文では,このような,意味の重複部分を削除する要約手法について議論する.テキスト内で,既出の部分と同一の意味を表している部分のみを削除することにより,情報欠落の可能性を極力回避し,冗長度を減少させることが可能であると考えられる.意味が同一であるかを判定するためには意味を理解する必要があるが,現状の技術で機械による意味理解は困難である.よって,意味の重複のうち,表現の重複で認定可能な事象\footnote{本論文では,語の集まりによって表現される対象物や現象,動作などを事象と呼ぶ.}を対象とする.例1の下線部のように,テキスト内に同じ事象を表す部分が再び現われたならば,その修飾部(第2文の下線部)を削除しても,人間は理解が可能である.本論文では,事象の重複部分の削除による要約を,事象の重複部を認定する「重複部の認定」と,重複部のうち削除可能な部分を決定する「重複部の削除」とに分けて議論する.「重複部の認定」では,2語の係り受け関係を用いて重複部の認定を行う.係り受け関係のある2つの語が,一つの事象を表していると仮定し,それを比較することで事象の重複を認定する.\ref{nintei}~節では,この2語の係り受け関係を用いた重複部の認定について述べる.一方,認定された重複部がすべて削除可能であるとは限らない.たとえ重複していたとしても,削除すると読み手の理解が困難になることや,不自然な要約文が生成されることがある.よって,「重複部の削除」では,全ての重複部を削除するのではなく,削除可能な部分を決定する必要がある.\ref{sakujo}~節では,決定の際に考慮すべき情報について述べる.以下,\ref{jitsugen}~節では,\ref{nintei}~節で述べる重複部の認定と,\ref{sakujo}~節で示す情報のうち実現可能なものとを用いた要約手法の計算機上での実現について述べる.\ref{hyouka}~節では,本手法の評価を行う.記事内に重複の多いニュース原稿を入力テキストとして要約を行い,どの程度重複部分を削除可能か,また,削除箇所が妥当であるかの評価実験を行った.ニュース原稿は,NHK放送技術研究所との共同研究のため提供された,NHK汎用原稿データベースを使用した.\ref{kousatsu}~節では,評価実験の結果より,人間(筆者)は削除したが本手法では削除されなかった重複部,および,妥当でない削除箇所について考察する.さらに,本手法の妥当性と有効性等について考察する.また,\ref{kanren}~節では関連研究について論じる.テキスト自動要約においては,一般的に単独の手法のみでは必ずしも十分な要約率が達成できるとは限らない.むしろ,複数の要約手法を併用することで望ましい要約が得られることが多い.本論文で提唱する手法は,要約を行なう応用において要素技術の一つとして用いることができるが,要約率を向上させるには文間の重複表現以外を用いた他の要約技術との併用を前提とする.
V17N02-01
科学技術や文化の発展に伴い,新しい用語が次々と作られインターネットによって世界中に発信される.外国の技術や文化を取り入れるために,これらの用語を迅速に母国語へ翻訳する必要性が高まっている.外国語を翻訳する方法には「意味訳」と「翻字」がある.意味訳は原言語の意味を翻訳先の言語で表記し,翻字は原言語の発音を翻訳先の言語における音韻体系で表記する.専門用語や固有名詞は翻字されることが多い.日本語や韓国語はカタカナやハングルなどの表音文字を用いて外国語を翻字する.それに対して,中国語は漢字を用いて翻字する.しかし,漢字は表意文字であるため,同じ発音に複数の文字が対応し,文字によって意味や印象が異なる.その結果,同音異義の問題が発生する.すなわち,翻字に使用する漢字によって,翻字された用語に対する意味や印象が変わってしまう.例えば,飲料水の名称である「コカコーラ(Coca-Cola)」に対して様々な漢字列で発音を表記することができる.公式の表記は「\UTFC{53EF}\UTFC{53E3}\UTFC{53EF}\UTFC{4E50}/ke--ko--ke--le/」であり,原言語と発音が近い.さらに,「\UTFC{53EF}\UTFC{53E3}」には「美味しい」,「\UTFC{53EF}\UTFC{4E50}」には「楽しい」という意味があり,飲料水として良い印象を与える.「Coca-Cola」の発音に近い漢字列として「\UTFC{53E3}\UTFC{5361}\UTFC{53E3}\UTFC{62C9}/ko--ka--ko--la/」もある.しかし,「\UTFC{53E3}\UTFC{5361}」には「喉に詰まる」という意味があり,飲料水の名称として不適切である.また,「人名」や「地名」といった翻字対象の種別によっても使用される漢字の傾向が異なる.例えば,「\UTFC{5B9D}」と「\UTFC{5821}」の発音はどちらも/bao/である.「\UTFC{5B9D}」には「貴重」や「宝物」などの意味があり中国語で人名や商品名によく使われるのに対して,「\UTFC{5821}」には「砦」や「小さい城」などの意味があり中国語で地名によく使われる.以上の例より,中国語への翻字においては,発音だけではなく,漢字が持つ意味や印象,さらに翻字対象の種別も考慮して漢字を選択する必要がある.この点は,企業名や商品名を中国に普及させてブランドイメージを高めたい企業にとって特に重要である.翻字に関する既存の手法は,「狭義の翻字」と「逆翻字」に大別することができる.「狭義の翻字」は,外国語を移入して新しい用語を生成する処理である\cite{Article_10,Article_11,Article_16,Article_18}.「逆翻字」は既に翻字された用語に対する元の用語を特定する処理である\cite{Article_01,Article_02,Article_04,Article_05,Article_06,Article_07,Article_08,Article_09,Article_12,Article_14}.逆翻字は主に言語横断検索や機械翻訳に応用されている.どちらの翻字も発音をモデル化して音訳を行う点は共通している.しかし,逆翻字は新しい用語を生成しないため,本研究とは目的が異なる.本研究の目的は狭義の翻字であり,以降,本論文では「翻字」を「狭義の翻字」の意味で使う.中国語を対象とした翻字の研究において,\cite{Article_10,Article_16,Article_18}は人名や地名などの外来語に対して,発音モデルと言語モデルを単独または組み合わせて使用した.それに対して,\cite{Article_11,Article_19,Article_21}は翻字対象語の意味や印象も使用した.\cite{Article_11}は,外国人名を翻字する際に,対象人名の言語(日本語や韓国語など),性別,姓名を考慮した.しかし,この手法は人名のみを対象としているので企業名や商品名などには利用できない.\cite{Article_19}は翻字対象語の発音と印象を考慮し,\cite{Article_21}は翻字対象語の種別も考慮した.\cite{Article_19}と\cite{Article_21}では,翻字対象の印象を表す「印象キーワード」に基づいて,翻字に使用する漢字を選択する.しかし,印象キーワードはユーザが中国語で与える必要がある.本研究は,\cite{Article_19}と\cite{Article_21}の手法に基づいて,さらに印象キーワードを人手で与える代わりにWorldWideWebから自動的に抽出して中国語への翻字に使用する手法を提案する.以下,\ref{sec:method}で本研究で提案する手法について説明し,\ref{sec:exp}で提案手法を評価する.
V16N01-02
本論文では,ベイズ識別と仮説検定に基づいて,英文書の作成者の母語話者/非母語話者の判別(母語話者性の判別)を高精度で行う手法を提案する.WWW上の英文書を英語教育や英文書作成支援に利用する研究が盛んに行われている\cite{大鹿,佐野,大武}.WWW上にはオーサライズされた言語コーパスとは比べものにならないくらいの大量の英文書が存在するため,これを言語データとして活用することで,必要な言語データの量の問題をかなり克服できる.しかし,WWW上の英文書の質は様々であり,英語を母語とする者あるいはそれと同等の英語運用能力を有する者が書いた英文書(本論文では母語話者文書と呼ぶ)と英語を母語としない者が書いた誤りや不自然な表現を含む英文書(本論文では非母語話者文書と呼ぶ)とが混在している.WWW上の英文書を英語学習教材として使用する場合,あるいは,英語表現の用例集として使用する場合は,使用する英文書を母語話者文書に制限するのが望ましい.また,非母語話者に特有の文法的特徴や使用語彙の傾向を調査したり,非母語話者が犯しがちな不自然な表現を収集するには,大量の母語話者文書および非母語話者文書を必要とする.したがって,英語教育や英文書作成支援を目的としてWWW上の英文書を使用する場合,英文書の母語話者性判別を行う技術は非常に重要である.本論文で提案する英文書の母語話者性判別手法では,品詞$n$-gramモデルを言語モデルとし,判別対象の文書の品詞列(文書中の単語をその品詞で置き換えた列)の母語話者言語モデルによる生起確率と非母語話者言語モデルによる生起確率との比に基づいて判別を行う.$n=5,6,7$といった比較的大きな$n$-gramモデルを言語モデルとすることで,母語話者/非母語話者固有の特徴をより良く扱うことが可能となり,判別精度の向上が期待できる.しかしその反面,両言語モデルのパラメタ($n$-gram確率)を最尤推定した場合,母語話者/非母語話者文書間で品詞$n$-gramモデルのパラメタ値に大きな違いがあるのか,学習データの統計的な揺らぎに起因するものなのかが区別できない.$n=3$という条件部が短い$n$-gramモデルを用いて判別を行う場合でさえ,ゼロ頻度問題およびスパースネスの問題に対処するために,通常なんらかのスムージングを行う.これに対し,提案手法では,仮説検定に基づいた方法で両言語モデルにおける文書の生起確率の比を推定する.
V10N04-05
著者らは,実用に近い日本語--ウイグル語機械翻訳システムの実現を目指して一連の研究をしてきた\cite{NLC93,MSTHESIS,MUHPARAM,PRICAI94,MUH_OGA2001,OGAWA2000,MT_SUMMIT2001,MUH_NLT_2002}.その過程で,一定の語彙数を持つ日本語--ウイグル語電子辞書の開発が不可欠であると考え,その開発に着手した.その時点では,日本語--ウイグル語に関する通常の辞書さえない状況であった.最初は,日本語--ウイグル語機械翻訳実験用の基本的な辞書の開発を考えて,IPAの計算機用日本語基本動詞辞書IPAL\cite{IPAL}をベースに,名詞や形容詞などを含め,約1,200語の日本語--ウイグル語電子辞書を作成した\cite{NLC93,MSTHESIS}.IPAL動詞辞書には,日本語の動詞のうちで語彙体系上ならびに使用頻度上重要であると考えられる基本的な和語動詞861語が含まれている.両言語のなかで特に格助詞を含む名詞接尾辞と動詞接尾辞が動詞と密接な関係にあり,日本語--ウイグル語機械翻訳においても,動詞が重要であるため,IPAL動詞辞書を選んだ.しかし,1,200語前後の辞書では不十分であり,実用に近い機械翻訳システムの実現には,少なくとも日常使われる最低限の語彙を含む日本語--ウイグル語電子辞書の開発が必要であるとの考えに至った.そこで,我々はまずウイグル語--日本語辞書であるウイグル語辞典\cite{UJDIC}を電子化して機械可読にし,その逆辞書を自動的に生成するという方針で本格的な日本語--ウイグル語電子辞書の開発に着手した\cite{UJDICE,JUDICGEN}.辞書開発は,著者らが行なったが,その内の一人は十分な日本語能力を有するウイグル語ネイティブ話者である.日本語--ウイグル語電子辞書の開発作業は次のような段階に分けて行なった.\\\begin{enumerate}\itemウイグル語--日本語電子辞書の作成\begin{itemize}\item[1-1.]ウイグル語辞典\cite{UJDIC}のデータの電子化と項目タグの付与\item[1-2.]各項目の修正および品詞の付与\end{itemize}\item日本語--ウイグル語電子辞書の作成\begin{itemize}\item[2-1.]ウイグル語--日本語辞書から日本語--ウイグル語辞書を自動生成\item[2-2.]各見出し語の検査および修正\item[2-3.]機械翻訳システムで利用できる形式への変換\end{itemize}\end{enumerate}各作業の詳細については,2章以降で順次説明する.こうした一連の作業を行なった結果,語彙数約20,000語の日本語--ウイグル語電子辞書を作成することができた.著者らは,この辞書が日常よく使われる語彙をどの程度見出し語として採録しているかを調べるために,\\\begin{itemize}\item[a.]国立国語研究所の教育用基本語彙\cite{KOKKEN}6,104語中のより基本的とされている2,071語に対する収録率,\item[b.]EDRコーパス\cite{EDRCORPUS}の日本語テキスト文に含まれる単語の上位頻度2,056語に対する収録率\end{itemize}\mbox{}\\の2点に関して調査した.a.は,日本語基本語彙に対する調査で,b.は,新聞記事などからのテキストを対象とした調査であり,それぞれの特徴はあるが,全体として見ると,a.,b.ともに約80\,\%の収録率であった.さらに,a.とb.それぞれについて収録されていない単語一つ一つに関して,収録されなかった,すなわち見出し語として採録されなかった理由について詳細な分析を行ない,その理由を大きくA〜Eの5つに分類し,それぞれをさらに細分類して検討した.この結果は,本論文と同様の手法で辞書作成をする際,収録率を上げるために注意すべき点について,いくつかの知見を与えている.本論文は,次のような構成になっている.\ref{section:denshika}章では,ウイグル語辞典\cite{UJDIC}を機械可読にし,それに対して一連の編集作業を行なってウイグル語--日本語電子辞書を作成した過程について述べる.\ref{section:jidoseisei}章では,ウイグル語--日本語電子辞書からその逆辞書である日本語--ウイグル語辞書の自動生成について述べる.\ref{section:for_majo}章では,自動生成で得られた日本語--ウイグル語辞書の機械翻訳用辞書への変換について述べる.\ref{section:hyoka}章では,以上のようにして著者らが作成した日本語--ウイグル語辞書の収録率,および,収録されていない単語の調査とその結果について述べ,著者らが作成した日本語--ウイグル語辞書の評価とする.\ref{section:owari}章は本論文のまとめである.
V03N04-02
label{intro}機械翻訳システムには,少し微妙だが重要な問題として冠詞の問題がある.例えば,\vspace*{5mm}\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称的な使われ方で,英語では``abook''にも``books''にも``thebook''にも訳される.これに対して,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は英語では``thebook''と訳される.冠詞の問題は,多くの場合,名詞句の{\bf指示性}と{\bf数}を明らかにすることによって解決できる.文(\ref{eqn:book_hito})の「本」は総称名詞句で数は未定であり,``abook''にも``books''にも``thebook''にも訳される.また,文(\ref{eqn:book_boku})の「本」は定名詞句でほとんどの場合単数と解釈してよい.よって,英語では``thebook''となる.名詞句の指示性と数は日本語の表層表現から得られることが多い.例えば,文(\ref{eqn:book_hito})では「\.と\.い\.う\.の\.は」という表現から「本」が総称名詞句とわかる.文(\ref{eqn:book_boku})では修飾節「昨日僕が貸した」が限定していることから「本」が定名詞句とわかる.そこで,本研究では名詞句の指示性と数を日本語文中にあるこのような表層表現を手がかりとして推定することを試みた.名詞句の指示性と数の推定は文脈依存性の高い問題であり,本来文脈処理などを行なって解決すべき問題である.しかし,現時点での自然言語処理の技術では文脈処理を他の解析に役立てるところまでは来ていない.また,近年コーパスベースの研究が盛んであるが,指示性と数の正解の情報が付与されているコーパスがなく,タグなしコーパスから指示性と数の問題を解決することはほとんど不可能であるので,コーパスベースでこの問題を解決することはできない.そういう状況の中で,本論文は表層の手がかりを利用するだけでも指示性や数の問題をかなりの程度解決することができることを示すものである.本論文は文献\cite{Murata1993B}を詳しくしたものである.近年,本研究は,文献\cite{Bond1994,Murata1995}などにおいて引用され,具体的に重要性が明らかになりつつある.\cite{Bond1994}においては,日本語から英語への翻訳における数の決定に利用され,また,\cite{Murata1995}においては,同一名詞の指示対象の推定に利用されている.そこで,本論文は本研究を論文としてまとめることにしたものである.以前の文献ではあげられなかった規則も若干付け加えている.
V05N01-06
\label{sec:introduction}文書検索では,検索対象の文書集合が大きくなるにつれ,高速/高精度な検索が困難になる.例えば,AltaVista~\footnote{{\tthttp://altavista.digital.com}}に代表されるインターネット上のキーワード検索エンジンでは,検索時に入力されるキーワード数が極端に少ないため~\footnote{AltaVistaでは平均2個弱のキーワードしか入力されない},1)望んた文書が検索されない(再現率の問題),2)望まない文書が大量に検索される(適合率の問題),といった問題が生じている.そのため,要求拡張(queryexpansion)~\cite{smeaton:83:a,peat:91:a,schatz:96:a,niwa:97:a},関連度フィードバック(relevancefeedback)~\cite{salton:83:a,salton:90:a}などの手法が提案されてきた.これらの手法はいずれも,要求となるキーワード集合を拡張したり洗練したりすることで,ユーザの検索意図を明確かつ正確なものに導いていく.これに対し,検索時にキーワード集合ではなく文書それ自身を入力し,入力文書と類似する文書を検索する方法が考えられる~\cite{wilbur:94:a}.この検索方法を{\gt文書連想検索}と呼ぶ.文書連想検索が有効なのは,検索要求と関連する文書を我々が既に持っているという状況や,キーワード検索の途中で関連する文書を一つでも見つけたという状況である.また,論文,特許など,我々自身が書いた文書もそのまま検索入力として利用できる.文書連想検索を使うことにより,適切なキーワード集合を選択することなしに,関連する文書を見つけることができる.文書連想検索を実現する際の問題点は,類似文書の検索に時間がかかることである.単純な網羅検索では,検索対象の大きさ$N$に比例した$O(N)$の時間を要する.そこで本論文では,{\gtクラスタ検索}~\cite{salton:83:a}と呼ばれる検索方法を用いる.クラスタ検索では,通常,クラスタリングによりクラスタの二分木をあらかじめ構築しておき~\footnote{クラスタリングにも,対象データ集合を平坦なクラスタ集合に分割する方法(非階層的クラスタリング)もあるが~\cite{anderberg:73:a},本論文では,クラスタの階層的な木構造を構築する方法(階層的クラスタリング)に限る.また,クラスタ木も相互背反な二分木に限る.},その上でトップダウンに二分木検索を行う.よって,検索時間は平均$O(\log_2N)$に抑えられる.ところが,クラスタ検索に関する従来の研究~\cite{croft:80:a,willett:88:a}では,単純な二分木検索では十分な検索精度が得られないという問題があった.その理由の一つは,クラスタリング時と検索時に異なる距離尺度を用いていたことである.ほとんどの研究では,クラスタリングの手法として単一リンク法,Ward法などを用いていたが,これらの手法は,後の検索で使われる尺度(例えば,TF$\cdot$IDF法や確率)とは直接関係のない尺度でクラスタの二分木を構築していく.これに対し本論文では,クラスタリングの対象文書それぞれを自己検索した際の精度を最大化していく確率的クラスタリングを提案する.よって本クラスタリング法は,検索に適した手法であると言える.実際に,クラスタ検索に本クラスタリング法を用いた場合,単純な二分木検索でも十分な検索精度を得ることができる.検索速度が速い点に加え,クラスタ検索には幾つかの利点がある.クラスタ検索が提案されたそもそもの理由は,「密接に関連した文書群は,同じ検索要求に対する関連性も同等に高い」という{\gtクラスタ仮説}~\cite{van-rijsbergen:74:a}である.通常のキーワード検索では,検索要求と単一文書を厳密なキーワード符合に基づいて比較するため,キーワードの表記の異なりにより関連する文書をとり逃すこともあるが,クラスタ検索では,検索要求を意味的にまとまった文書集合(クラスタ仮説で言うところの「密接に関連した文書群」)と比較するため,この問題も起りにくくなる.クラスタ仮説は,特に検索精度の向上という点において実験的に検証されていない仮説であったが,近年,Hearst等により,キーワード検索で検索した文書集合を絞りこむという状況で,その有効性が実証されている~\cite{hearst:96:a}.本論文では,クラスタ検索が検索対象に含まれているノイズの影響を受けにくいこと(ノイズ頑健性)に注目し,本論文で提案するクラスタ検索が網羅検索に比べ優れていることを実証する.以下,\ref{sec:cluster_based_search}~節では,クラスタ検索について説明する.\ref{sec:hbc}~節では,本論文で提案する確率的クラスタリングについて説明する.\ref{sec:experiment}~節では,本論文で提案したクラスタ検索の有効性を調べるために行なった幾つかの実験について述べる.
V19N03-02
自然言語処理で使われる帰納学習では,新聞データを用いて新聞用の分類器を学習するなど,ドメインAのデータを用いてドメインA用の分類器を学習することが一般的である.しかし一方,ドメインBについての分類器を学習したいのに,ドメインAのデータにしかラベルがついていないことがあり得る.このとき,ドメインA(ソースドメイン)のデータによって分類器を学習し,ドメインB(ターゲットドメイン)のデータに適応することを考える.これが領域適応であり,様々な手法が研究されている.しかし,語義曖昧性解消(WordSenseDisambiguation,WSD)について領域適応を行った場合,最も効果的な領域適応手法は,ソースドメインのデータ(ソースデータ)とターゲットドメインのデータ(ターゲットデータ)の性質により異なる.SVM等の分類器を利用してWSDを行う際にモデルを作る単位である,WSDの対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組を1ケースとして数えるとする.本稿では,このケースごとに,データの性質から,最も効果的な領域適応手法を,決定木学習を用いて自動的に選択する手法について述べるとともに,どのような性質が効果的な領域適応手法の決定に影響を与えたかについて考察する.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節で領域適応の関連研究について紹介する.\ref{Sec:領域適応手法の自動選択}節では領域適応手法をどのように自動選択するかについて述べる.\ref{Sec:データ}節では本研究で用いたデータについて説明する.\ref{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}節では決定木学習におけるラベル付きデータの作成方法と学習方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる.
V05N01-05
コロケーション(Collocation)の知識は,単語間の共起情報を与える言語学的に重要な知識源であり,機械翻訳をはじめとする自然言語処理において,重要な意味をもっている.コロケーションとは,テキスト中に頻繁に出現する単語の組み合わせであり,言語的あるいは慣用的な表現であることから,様々な形態が考えられる.その例として,``{\itThankyouverymuch}''や``{\itIwouldliketo}''のような単語が連続している表現と,``{\itnotonly〜but(also)〜}''や``{\itnotsomuch〜as〜}''のように単語間にギャップを持つ不連続な表現が存在する.これらの表現はそれを一つのまとまった単位として処理する必要があり,その知識は機械翻訳への適用をはじめとして,音声・文字認識における認識結果の誤り訂正\cite{Omoto96}や,第二外国語を学習する際の手助けとするような言語学習や言語教育の分野にも適用できる\cite{Kita94a,Kita97}.以上のように,コロケーションの収集・整理は言語学的にも機械処理の面からも有益であるため,その収集の仕方は自然言語処理における重要な課題である.しかし,人手による収集では膨大な時間と手間が必要となり,かつコロケーションの定義が曖昧であるためにその網羅性・一貫性にも問題が生じる.これらの点から,コロケーションを自動的に抽出・収集する方法として,相互情報量を用いた方法\cite{Church90},仕事量基準を用いた方法\cite{Kita93,Kita94b},$n$-gramを用いた方法\cite{Nagao94},2つの単語の位置関係の分布を考慮する方法\cite{Smadja93}をはじめとして様々な方法が提案されている\cite{Shinnou94,Shinnou95a,Shinnou95b}.しかし,従来の方法の多くは連続したコロケーションを抽出の対象としており,不連続なコロケーションの抽出に関する研究はごく少数であった\cite{Omoto96,Ikehara95}.本論文では,単語の位置情報に基づき,連続型および不連続型の二種類のコロケーションをコーパスから自動的に抽出する方法を提案する.提案する手法は,コーパス全体からコロケーションを抽出するだけではなく,指定された任意の範囲(たとえば,何番目の文,または何番目から何番目の文の中)にあるコロケーションを同定することができる.また,提案する手法は,言語に依存しない(言語独立の)方法であり,機械翻訳等への様々な活用が期待できる.以下,本論文の第\ref{Sec:extract_abstract}節では,提案する手法の基本的な考え方とその特徴について述べる.本手法では,単語の位置情報をとらえるために,コーパス・データを受理する有限オートマトンを用いるが,第\ref{Sec:alergia_algorithm}節では,我々の用いたオートマトン学習アルゴリズムであるALERGIAアルゴリズムについて概略を述べる.第\ref{Sec:extract_algorithm}節では,第\ref{Sec:extract_abstract}節で述べた考えに基づく位置情報を用いた自動抽出アルゴリズムを提案する.第\ref{Sec:experiment}節では,本手法をATR対話コーパスに適用した結果を示し評価を行う.
V08N02-03
人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.本研究の前提とする「常識的判断」とは,「女性−婦人」,「山−丘」などは同義・類義の関係,「山−川」,「夕焼け−赤い」などは密な関係,「山−机」,「電車−空」などは疎な関係であると判断するなど,語と語の意味的関係について,コンピュータにも人間の常識的な感覚に近い判断をさせることをねらうものである.このような常識的判断を可能とするメカニズムは,利用者の意図を汲み取ることのできる人間的な情報処理システムの開発基盤として役立つと考えている.我々が開発を進めている常識的判断システム全体は,日常的な事項,すなわち,大きさ,重さ,速さ,時間,場所等に関する基本的な知識\cite{Kikuyama,Obata}と感覚や感情に関する知識\cite{Baba,Hanada,Tsutiya}で構成する判断知識ベースサブシステムと本論文で対象とする語概念間の関連度を評価する概念連鎖メカニズムで構成している.判断知識ベースを構成する知識は少数(約5千語)の代表的な語(代表語)の間の常識的な関係(事物の大小関係,夕焼け−赤いなど)を定義したものである.常識的判断システムに入力される多くの語は代表語ではなく,知識ベースには陽に表現されていない未知語となるため概念連鎖メカニズムは,これらの未知語について,意味的関係やその強さの度合いを評価し,最も関連の強い代表語を決定する.本稿では,この概念連鎖メカニズムの基盤となる概念ベースの構造,すなわち,語とその意味を表す属性(関連の強い語)の集合の構成とそれを用いた概念間の関連度の定量化方式について提案している.従来は一般に,概念間の類似性に重点が置かれ類似度として評価されているが,本稿では類似性のみならず「山と川」,「電車と駅」,「川と水」など概念間の幅広い関係の評価を対象とするため関連度として評価している.例えば,類似性の評価において「車と馬」は乗り物という観点において類似しているという考え方がとられているが,本稿の関連度評価では,両者の概念は乗り物という共通の属性をもっているに過ぎないと考え,全体としての関連度はかなり低いものとなる.当然,観点として乗り物が設定された場合の関連度は高くなる.観点となる概念のもつ属性の範囲に限定した関連度を評価する\cite{Irie2}ことにより,類似や相対,反意などにも対応可能である.概念間の類似度に関するテーマについては,幾つかの研究成果が報告されているが\cite{okada,oosuga,suzuki},多くは,連想に関する理論,あるいは,自然言語処理における類似語の処理などの研究であり,本研究で対象とするような常識的判断のための概念ベースや概念関連度とは異なる.概念ベースの構造や必要とされる正確さは目的により異なったものとなる.我々の対象とする常識的判断システムの概念ベースは自動学習や利用者の教示による継続的な改善(成長)が前提となる.常識的判断の適切さは概念ベースの内容と関連度計算方式に左右されるため,利用を通じた概念ベースの恒常的な成長の容易性は極めて重要な評価要因となる.\cite{kasahara4}では,概念構造の定義と概念ベースの機械構築および概念類似度の計算方式について興味深い報告がなされている.そこでは,一つの概念を,「意味特徴を表す属性」と「概念と属性の関連の深さを表す重み」で表現された$m$次元ベクトルとして取り扱い,2つの概念間の類似度は正規化された2ベクトルの内積として計算している.このベクトル空間モデルでは,約4万の概念を約3千の独立性の高い属性で表現することによりベクトル表現のための直交性の問題に対処しているが,必ずしも直交性が保証されているとは言えない.また,属性の重みの問題として,出現頻度に基づき重みが付与されているが,属性の追加/修正が発生した時,新しい属性の重みをどのように決定するのか,既に存在する属性の重みはどのように変更するのか,という問題が生じ,概念ベースの継続的な成長を前提とすることは難しい.本稿では,これらの問題を考慮した上で,継続的な成長を容易とするような新たな概念ベースを構築し,常識的判断として適切な関連度を計算できるような関連度評価方式を提案し,実験により評価する.以下,2章で,まず,概念連鎖メカニズムの実現に必要となる概念ベースの構造について述べ,より単純な構造の概念ベースを提案する.3章では,本稿の主題である概念関連度の定量化の問題を定式化し,概念の$n$次属性までの論理関係を考慮する新方式の提案を行う.4章では,2,3章で提案した概念ベースと概念関連度計算方式の各組合わせについて評価実験を行い,人間の常識的判断により近いかという観点と,概念ベースの継続的な成長の容易性の観点において従来法との比較検討を行う.
V14N01-06
\label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\kern0pt\uline{にあたって},荷物をチェックした\label{ex:niatatte-F}\itemボールは,壁\kern0pt\uline{にあたって}跳ね返った\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,文~(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現の数については,いくつかの先行研究が存在する.\cite{日本語表現文型}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{階層構造による日本語機能表現の分類}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.土屋らは,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,52種類である.本論文では,この52種類の表現を当面の検討対象として,機能表現の取り扱い状況を検討する.まず,既存の解析系について,この52種類の表現に対する取り扱い状況を調査したところ,52種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照}.52種類の表現の内,形態素解析器JUMAN~\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は31種類である.また,形態素解析器ChaSen~\cite{chasen-2.3.3}と構文解析器CaboCha~\cite{cabocha}の組合わせを用いた場合には,識別される可能性がある表現は26種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器が必要である.そのような検出器を実現する方法として,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは非現実的である.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出する方法を提案する.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha~\cite{yamcha}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた52表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.本論文の構成は以下の通りである.最初に,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べた上で,機能表現検出をチャンク同定問題として定式化する(\ref{sec:detection}章).次に,SVMを用いて機能表現検出器を実装するための詳細を説明する(\ref{sec:chunking_using_svm}章).\ref{sec:human_rule}章では,人手で判定規則を作成して機能表現を検出する手法について説明する.\ref{sec:実験と考察}章では,作成した機能表現検出器の検出性能を評価し,この検出器は,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.加えて,機械学習時に必要となる訓練データを削減する方法を検討する.\ref{sec:関連研究}章では,関連研究について述べ,最後に結論を述べる(\ref{sec:おわりに}章).
V15N05-02
\label{sec:intro}言語横断情報検索や言語横断質問応答,機械翻訳などの2つの言語に関わる処理を実現するには,その言語対に対する大規模対訳辞書などの言語横断言語資源が必要である.情報流通技術の発達に伴って,様々な言語で記述された情報を活用することが可能となりつつあり,複数言語を対象とする自然言語処理技術はますます重要な課題となることが予想される.しかし,世界には数多くの言語が存在するため,あらゆる言語対を対象として豊富な言語資源を整備することは,非現実的である.現実には,需要の大きい一部の言語対については大規模な言語資源が利用できるが,それ以外の多くの言語対については,小規模な対訳辞書しか利用できない場合が多い.もし,新規の言語対に対して対訳辞書を自動的に構築することができれば,このような状況を改善するのに非常に役立つと考えられるが,広く知られている通り,完全に自動的に高精度の対訳辞書を構築することはかなり困難である.そのため,本論文では,新規対訳辞書の自動構築というタスクに代わって,既存の小規模な対訳辞書を拡充するというタスクに着目する.まず,入力言語,中間言語,出力言語という3つの言語を考えた時,入力言語から出力言語への小規模な対訳辞書(以後,{\bfseries種辞書}と呼ぶ)と,入力言語から中間言語への大規模な辞書および,中間言語から出力言語への大規模な辞書という3つの辞書が利用できる状況を考える.この時,種辞書を拡充するというタスクは,以下の2つの条件を満たす語の訳語を推定するというタスクとして定義される.第1に,その語は,種辞書には登録されていない未知語である.第2に,入力言語から中間言語への対訳辞書と中間言語から出力言語への対訳辞書の両方を参照することにより,その語の出力言語上での訳語候補が得られる.タスクの設定から明らかに,種辞書の拡充というタスクは,2つの仮定に依存している.まず,(a)小規模な種辞書が存在しなければならず,次に,(b)先に述べた条件を満たす適切な中間言語が存在しなければならない.最初の仮定(a)から,完全に新規の言語対に対しては,このタスク設定は適用できないという制限が発生する.しかし,最近のネットワークとコンピュータの発達にともない,そのような完全に新規の言語対は少なくなりつつあり,非常に小規模な対訳辞書でも良ければ,多くの言語対について対訳辞書が利用できるようになってきている.また,英語を中間言語として考えると,多くの言語対について,後の仮定(b)が成り立つことは経験的に知られている.したがって,種辞書の拡充というタスクは,対訳辞書の自動構築よりも多くの仮定に依存していることは事実であるが,この仮定は多くの場合に問題にならないと考えられ,かつ,これらの仮定を導入することによって利用可能となる知識を用いれば,より簡単に訳語推定が可能になると期待される.種辞書の拡充というタスクは,新規対訳辞書の自動構築や,既存辞書に登録されていない新規な未知語に対する訳語の推定といった関連研究とは,2つの点で異なっている.\cite{日仏対訳辞書}は,英語を中間言語として利用し,和英辞書と英和辞書および英仏辞書と仏英辞書という4種類の辞書を利用して,新規の和仏対訳辞書を作成する方法を提案している.このような新規対訳辞書の自動構築というタスクでは,対象とする言語対についてはまったく対訳辞書が存在しない状況を想定しており,入力言語—出力言語の対訳辞書から得られる情報を考慮することは行われていない.それに対して,本論文で提案する辞書拡充というタスクは,小規模な種辞書から得られる情報をなるべく有効に利用しようとしている点で,先行研究とは異なる.\cite{ウェブから対訳を推定}は,既存の対訳辞書に登録されていない新規な未知語を対象として,大規模なコンパラブルコーパスなどを用いて訳語の推定を行っている.このような研究は,既存の対訳辞書から得られる情報を用いているという点では,辞書拡充というタスクと類似している.しかし,このような新規な未知語の多くは名詞であるため,多くの先行研究では,未知の名詞の訳語推定に特化した検討がされている.それに対して,非常に小規模な種辞書の拡充を行うには,名詞のみの訳語推定では不十分であり,動詞・形容詞などについても訳語の推定を行う必要が生じる.この問題については,\ref{subsec:辞書の分析}節で再び議論する.以下,\ref{sec:expansion}節では,中間言語を用いて対訳辞書を拡充する方法を提案する.\ref{sec:experiment}節では,入力言語をインドネシア語,中間言語を英語,出力言語を日本語として,対訳辞書の拡充を行った実験について報告する.特に,拡充された辞書を,実際の言語横断情報検索システムに組み込んで,評価した結果について報告する.\ref{sec:related_works}節では関連研究について述べ,最後に結論を述べる.
V06N02-04
日本語テキスト音声合成は,漢字かな交じりの日本語テキストに対して,読み,アクセント(韻律上の基本単位であるアクセント句の設定とそのアクセント型付与),ポーズ等の読み韻律情報\footnote{本論文では,読みと,アクセントやポーズなどの韻律情報をまとめて読み韻律情報とよぶ.}を設定し,これらを元に音声波形を生成して合成音声を出力する.自然で聞きやすい合成音声を出力するためには,この読み韻律情報を正しく設定する必要がある.読みは,形態素解析により認定された単語の読みにより得られるため,形態素解析の精度が読みの精度に直結する.ただし,数量表現の読み(例:11本→ジューイ\underline{ッポ}ン:\mbox{下線部分=読み}が変化)と連濁化(例:子供+部屋→コドモ\underline{ベ}ヤ:\mbox{下線部分=連濁)については,すべてを単語}として辞書登録するのは困難であるため,規則により読みを付与する.数量表現の読みについては\cite{Miyazaki4},連濁化については\cite{Sato}等により,その手法がほぼ確立されている.アクセント句のアクセント型設定については,\cite{Sagisaka}の付属語アクセント結合規則,複合単語(自立語)のアクセント結合規則,文節間アクセント結合規則により,その手法がほぼ確立されている.アクセント句境界とポーズの設定については,従来から多くの手法が提案されている.ヒューリスティックスベースの手法としては,係り受けの構造を利用する\cite{Hakoda1},右枝分かれ境界等の統語情報を用いる\cite{Kawai}等がある.また,統計的手法によるポーズの設定としては,係り受け情報を利用した手法\cite{Kaiki}が提案されている.しかしこれらは,係り受けなどの言語的情報が既知であることを前提としており,これらの言語的情報の取得が課題となる.一方,\cite{Suzuki}ではN文節の品詞情報を用いて局所的な係り受け構造を推定し,また\cite{Fujio}では,品詞列を入力として確率文脈自由文法を用いて係り受けを学習し,アクセント句境界や韻律句境界,ポーズの設定を行う.しかし\cite{Suzuki}は,文節内の処理については言及しておらず,また,\cite{Fujio}では文節内での設定において,文節内構造の予測誤りによる精度の低下が問題点として挙げられている.我々は,\cite{Miyazaki1}の方式をベースとし,多段解析法による形態素解析を用いて得られた単語情報を利用して規則により読み韻律情報を設定し,\cite{Hakoda2}の音声合成部を用いて合成音声を出力する日本語テキスト音声合成システムAUDIOTEXを開発した.このAUDIOTEXには,現在,数多く開発されている音声合成システムと比較して以下の2つの特徴がある.\begin{itemize}\item単語辞書の登録単語数が多いため,形態素解析における未知語認定が少ない.\\(AUDIOTEX:約37万語,市販の主な音声合成システム:10〜14万語)\item単語辞書において,特に名詞と接辞は,他のシステムにはない意味カテゴリ等の意味情報をもち,これらの意味情報を用いた複合語の意味的係り受け解析により,複合語の構造を高精度に解析できるため,複合語の多用されるニュース文などに対しても,正しく読み韻律情報が設定できる.\end{itemize}本論文では,AUDIOTEXにおける読み韻律情報の設定,特に\cite{Miyazaki1}からの主な改良点として,形態素解析における読み韻律情報付与に対応した長単位認定,アクセント句境界設定における複数文節アクセント句の設定,ポーズ設定における多段階設定法の導入について述べ,さらに,これらの処理で用いる単語辞書の構成について説明する.この読み韻律情報の設定においては,文節間の係り受け解析は行わず,多段解析法の形態素解析により得られる複合語内意味的係り受け情報,品詞等の単語情報のみを用いる.文節間の係り受け解析を行わないのは,現状,係り受け解析の精度が十分でなく,コストがかかり,また,文節間係り受けの影響を大きく受けるポーズ設定においては,アクセント句境界前後の品詞情報等から得られるアクセント句結合力を導入することにより,実用上十分な精度が得られるためである.さらに,文節内の構造に対しては,複合語意味的係り受け情報を用いることにより,その局所構造を元に適切にポーズを設定できる.以下,\ref{sec:TTS-flow}節ではテキスト音声合成処理の流れ,\mbox{\ref{sec:morph}節では形態素解析における読み韻律情報設定}のための特徴,\ref{sec:dic}節では読み韻律情報設定のための単語辞書の情報,\ref{sec:assign}節では読み韻律情報の設定方法,\ref{sec:evaluation}節では読み韻律情報設定に対する評価と考察,\ref{sec:conclusion}節ではまとめを述べる.
V14N05-02
我々人間は,日常生活において様々な会話の中から必要に応じて情報を取捨選択している.さらに,会話の流れに即して語の意味を適宜解釈し,適切な応答を行っている.人間は語の情報から適切な応答を行うために,様々な連想を行っている\cite{yoshimura2006}.例えば,「車」という語から「タイヤ」,「エンジン」,「事故」,…,といった語を自然に連想する.連想によって,会話の内容を柔軟に拡大させている.このように,柔軟な会話ができる背景には,語の意味や,語と語の関係についての膨大な知識を有しているため,種々の知識から語と語の関連性を判断し,新たな語を連想することができることが挙げられる.実生活における会話では,「車と自動車」,「自動車と自転車」のように,同義性や類似性の高い語と語の関係のみならず,「車と運転」,「赤ちゃんと玩具」,「雨と傘」のように,広い意味での語と語の関連性の評価が必要となる場合が多い.人間とコンピュータ,あるいはコンピュータ同士の会話においても,人間のような柔軟で常識的な応答を行うためには連想機能が重要となる.そのためには,コンピュータに語と語に関する知識を付与し,同義性や類義性のみならず,多様な観点において語と語の関連の強さを定量的に評価する手法が必要となる.これまで,コンピュータにおける会話処理の重要な要素の一つとして,語と語の類似度に関する研究がなされてきた.類似度の研究では,シソーラスなどの知識を用いて,語と語が意味的にどの程度似ているかを評価することを目的としている\cite{kasahara1997}.そのため,会話において未知の語が出現した場合には,既知の知識との類似度を算出し,同義語や類義語に置換することによって語の意味を理解することが可能となる.一方,本論文では,コンピュータとの会話において,「雨が降っていますよ」という文に対し,「雪」,「霧」,…などの「雨」に対する同義語や類義語だけではなく,「雨」や「降る」という語から,人間が自然に想起するような,「傘」,「濡れる」,「天気予報」,…などの語を幅広く想起させ,自然な会話を行うための連想機能を実現することを目的としている.コンピュータがこのような連想をできるならば,「雨が降っていますよ」という文に対して,「それでは傘を持っていきます」という応答を生成することが可能となる.コンピュータの連想機能を実現するために,概念ベースとそれを用いた関連度計算方式が提案されている\cite{kojima2004,watabe2001,watabe2006}.概念ベースでは,語の意味(概念)が,電子化国語辞書から抽出した特徴語(直接意味語・間接意味語)と重みの集合で定義されている.各特徴語(属性)の重みは,概念と概念の関連の強さを定量的に評価するための基本量として定義している.すなわち,概念ベースの構築においては,概念に対する属性をどのように抽出し,各属性に付与する重みをどのように決定するかが重要となる.本論文では,電子化辞書から構築された4万語規模の概念ベースを,電子化された新聞記事等を用いて12万語規模の概念ベースへ拡張する手法について述べている.概念ベースの構築手法については,電子化辞書から見出し語に対する語義説明文から属性を抽出し,属性信頼度に基づく精錬を行う手法が提案されている.しかしながら,この手法には大きく2つの問題点が存在する.第一には,辞書の語義説明文から取得される大部分の属性は,語の狭義の意味を説明する語(直接意味語)であり,間接的に見出し語と関連を持つ広義の意味語(間接意味語)を獲得することが困難である点である.これは,コンピュータに柔軟な連想機能を実現する上で,同義や類義の語以外の連想語を取得する際に大きく影響する.直接意味語と間接意味語について,「自動車」の例を挙げる.\noindent例.自動車\begin{description}\item[直接意味語]車,車輪,原動機,回転,装置,ブレーキ,…\item[間接意味語]渋滞,免許証,事故,便利,交通,信号,保険,レース,…\end{description}第二には,4万語規模の概念ベースでは,幅広い連想を行い,語と語の関連性を定量化する上で語彙が不十分である点である.概念を定義するための属性は,全て概念ベースに定義されている語でなければならないという制約があるため,4万語規模の概念ベースに定義されていない語を,新たな属性として概念に付与するためには,概念ベースの拡張が必須となる.概念ベースの拡張においては,概念に付与すべき属性の抽出手法,並びに,獲得した属性に対する重みの付与手法が必要となる.まず,国語辞書からの概念ベース構築の際に適切に属性を取得することができなかった概念を抽出し,不適切な概念を削除する.属性の抽出手法として,電子化された新聞記事等における共起に基づく手法を提案する.また,重みの付与手法として,属性関連度と概念価値に基づく手法を提案する.このように拡張した概念ベースの有用性を,関連度計算方式を用いた評価実験によって示している.
V26N02-07
\label{sect:introduction}日本語の構文解析は,標準的に文節間の依存関係により構成される構造「文節依存構造」(あるいは,文節係り受け構造)に基づいて行われてきた.特に,CaboCha~\cite{Kudo:2002:CoNLL}やKNP~\cite{Kawahara:2006:HLTNAACL}に代表される文節依存構造に基づく解析器は高い解析精度を実現して広範に利用され,日本語の自然言語処理全般の発展に大きく寄与してきた.しかしながら,文節依存構造による構文構造の表現には,2つの問題点があることが指摘されている~\cite{Butler:2012:ANLP,Tanaka:2013:SPMRL}.一つは依存構造の単位が構文の構成素(constituent)\footnote{本論文では,名詞句,動詞句などの「句」の単位を指す.}と整合しないこと,もう一つは格関係\footnote{「誰が」「何を」「何に」と動詞などで表される名詞と述語の関係.}や連体修飾節の種別\footnote{名詞を修飾する節と名詞との関係の種類を示す.例えば「昨日見た-夢」では,「夢」は「見る」の対象になっているが,「月に行った-夢」では,「月に行った」は「夢」の内容になっている,など関係の違いを表す.}などの統語情報(以下,文法機能情報と呼ぶ)を依存構造の中に埋め込むことが困難なことである.これらの問題点は,述語項構造解析などの構文構造と密接な関係を持つ処理や,機械翻訳における事前並べ替え~\cite{Hoshino:2019:IPSJ}や多言語間の質問応答など他の言語との対応付けが必要な処理で,不都合を生じる要因となる.本論文では,構文の構成素と整合する単位に基づき,文法機能情報を埋め込むことが可能なことを特徴とする単語依存構造解析に基づく構文解析を提案する.以下では,文節依存構造解析の2つの問題点を,述語項構造解析との関係を例に具体的に説明し,我々の解決手段の概要について述べる.一つ目の依存構造の単位と構文の構成素との不整合は,構文解析結果の部分構造(一つ以上の文節が結合した単位)が,名詞句や動詞句などの構文の構成素と必ずしも一致しないということである.例えば,次の文(\ref{ex-coordination-ja1})のように文節を単位として表現された文から述語項構造を抽出することを考える.\begin{exe}\ex\label{ex-coordination-ja1}\gll$_{b1}$彼が$\mid_{b2}$飲んだ$\mid_{b3}$ワインと$\mid_{b4}$酒の$\mid_{b5}$リスト\\{}\textit{he}{\scriptsizeNOM}{}\textit{drink}{\scriptsizePAST}{}\textit{wine}{\scriptsizeCONJ}{}\textit{sake}{\scriptsizeGEN}{}\textit{list}\\\end{exe}\begin{exe}\ex\label{ex-coordination-ja1-const}\lb{NP}\lb{NP}彼が飲んだ\lb{NP}ワインと酒\rb{}\rb{}のリスト\rb{}\\\end{exe}文(\ref{ex-coordination-ja1})の文節依存構造には,4つの依存構造(係り受け構造)—並列構造を含む依存構造$b3$--$b4$と,並列構造を含まない依存構造$b1$--$b2$,$b2$--$b4$と$b4$--$b5$—が存在している.また,文(\ref{ex-coordination-ja1})には,文(\ref{ex-coordination-ja1-const})で表されるように,「ワインと酒」「彼が飲んだワインと酒」「彼が飲んだワインと酒のリスト」の3つの名詞句が階層的に含まれている.しかし,文(\ref{ex-coordination-ja1})の文節を結合してできる単位は,最初の2つの名詞句のどちらとも一致しない.この結果として,文(\ref{ex-coordination-ja1})の文節依存構造から,述語項構造を抽出しようとしたとき,述語「飲んだ」の項として並列構造を含む名詞句である「ワインと酒」を,直接的に取り出すことができない.この不一致は,他の言語との対応付けを行うときにも同様の問題を生じる.例えば,文(\ref{ex-coordination-ja1})と対訳関係にある文(\ref{ex-coordination-en})において,並列構造を含む名詞句``wineandsake''に対応付けるべき名詞句「ワインと酒」を,直接取り出すことができない.\begin{exe}\ex\label{ex-coordination-en}\lb{NP}alistof\lb{NP}\lb{NP}wineandsake\rb{}hedrank\rb{}\rb{}\\\end{exe}もう一つの問題点は,文節依存構造では,統語的に異なる構造を区別するための情報を付加することが困難な点である.その典型的な例として,内の関係の連体修飾節(関係節)と外の関係の連体修飾節(内容節や補充節)の区別がある.文(\ref{ex-coordination-ja1})は主名詞句(被修飾名詞句)となる「ワインと酒」が述語「飲む」の対格の格関係を持つ関係節\footnote{「ワインや酒」-を-「飲む」という関係を持つ.}を含み,文(\ref{ex-gapless})は主名詞句「理由と事情」が述語との格関係がない外の関係の連体修飾節(内容節)\footnote{「飲む」-という-「理由や事情」という関係を持つ.}を含んでいる.\begin{exe}\ex\label{ex-gapless}\glln$_{b1}$彼が$\mid_{b2}$飲んだ$\mid_{b3}$理由と$\mid_{b4}$事情の$\mid_{b5}$説明\\{}he{\scriptsizeNOM}{}drink{\scriptsizePAST}{}reason{\scriptsizeCONJ}{}situation{\scriptsizeGEN}{}explanation\\\end{exe}述語項構造を抽出する観点では,文(\ref{ex-coordination-ja1})の名詞句「ワインと酒」は,述語「飲む」の項として抽出するが,文(\ref{ex-gapless})の名詞句「理由と事情」は項として抽出しない.このような連体修飾節の違いを区別するためには,依存構造に文法機能情報を付加してそれぞれの統語的な機能を表示することが考えられる.しかし,文節依存構造の場合,主名詞句と文節の結合単位が一致しないため,文(\ref{ex-coordination-ja1}),文(\ref{ex-gapless})それぞれの文節$b2$と$b4$の間の依存構造に文法機能情報を付加しても,述語と主名詞句の間の関係を適切に表示しているとは言い難い.我々は,以上のような従来の文節依存構造における問題点を解決することを目的として,日本語において,構文の構成素を適切に扱い文法機能情報を明示的に扱うことのできる単語単位の依存構造による構文解析を提案する.単語依存構造では,あらかじめ文節のような固定したチャンクを依存構造の単位として設定するのではなく,全ての関係を単語単位の結合した構造として表現することにより,構文構造を柔軟に表現することを可能にする.構文の構成素との整合性を考慮するには,句構造による構文解析が有力な選択肢と考えられるが,日本語の柔軟な語順への対応のしやすさや,文節依存構造のアノテーションからの移行のしやすさの点から,依存構造を採用した.ただし,依存構造の設計は,構文の構成素に基づいた構造および文法機能情報を表している句のラベル(非終端記号)を持つことを特徴とする句構造を規範として,句構造の構造・情報を依存構造に変換する形で行った.本論文で提案する単語依存構造では,文(\ref{ex-coordination-ja1})に含まれる「ワインと酒」という並列構造は,\Fig{fig:ex-coordination-conjunction}の上の例のように表現する\footnote{本論文では,UniversalDependencies\cite{McDonald:2013:ACL,Nivre:2015:CICLing}やStanfordtypeddependencies\cite{DeMarneffe:2014:LREC}と同様に,主辞を起点として従属部に向かう方向の矢印により依存構造を表す.}$^{,}$\footnote{後述するように6種類の依存構造の構成の仕方(スキーマ)を提案する.}.すなわち,「ワイン」と「酒」という単語からなる依存構造に対して文法機能情報を表すラベル(以下,文法機能タイプ)「並列」を付加することにより,それぞれの単語を主辞とする構文要素からなる並列構造が存在することを示している.また,「ワインと酒」という名詞句は,「ワイン」「と」「酒」の3語から構成される依存構造の塊と対応付けることができる.また,文(\ref{ex-coordination-ja1})と文(\ref{ex-gapless})の区別は,\Fig{fig:ex-coordination-conjunction}のように,主名詞の主辞となる単語と連体修飾節の主辞となる述語の間の関係に,「関係節」や「内容節」のような文法機能タイプを付加することで実現できる.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f1.eps}\end{center}\hangcaption{単語単位の依存構造による構文構造の表示例.上:並列の名詞句と内の関係の連体修飾節(関係節)を含む文(\ref{ex-coordination-ja1}),下:並列の名詞句と外の関係の連体修飾節(内容節)を含む文(\ref{ex-gapless}).}\label{fig:ex-coordination-conjunction}\end{figure}日本語の単語依存構造には他に,多言語間で共通の構文構造表示を目指したUniversalDependencies\footnote{http://universaldependencies.github.io/docs/}(以下,UD)\cite{McDonald:2013:ACL,DeMarneffe:2014:LREC,Nivre:2015:CICLing}の日本語仕様\cite{Kanayama:2015:ANLP,Tanaka:2016:LREC,Asahara:2019:JNLP}がある.UDの主目的は多言語間での仕様の共通化であるため,各言語の特徴的な言語現象に対するアノテーションは捨象される傾向があり,例に挙げた関係節と内容節の区別も行わない.本研究は,UDへの対応は視野に入れつつも,主眼は日本語において重要と考えられる文法機能情報を表示可能な単語依存構造を実現することである.単語依存構造による構文解析は文節依存構造の課題を解決できる一方,構文解析器により自動解析を行う観点で見ると,文節依存構造と比較して依存関係を結ぶ組合せの数が増大するため,解析精度への影響が懸念される.また,日本語の単語依存構造としてどのような構造が適切であるか,すなわち依存構造の主辞をどのように決定すれば良いのかは自明ではない.森らは,単語間に依存構造を付与した大規模なコーパスを構築して,構文解析器の学習データとして適用した結果として,90\%以上の精度が得られたことを報告している~\cite{Mori:2014:LREC}.森らの依存構造は,文節依存構造と同様に後方の語が主辞となる単一方向の依存構造から構成されるが,本論文で提案する単語依存構造のように,両方向の依存構造が含まれる場合の解析精度への影響を検証する必要がある.また,依存構造に付与された文法機能タイプが解析器によりどの程度再現可能であるのかも確認する必要がある.以下,\Sect{sect:relatedwork}で関連する研究について述べ,\Sect{sect:design-of-typed-dependencies}で日本語の文法機能タイプ付き単語依存構造の設計について説明し,\Sect{sect:corpus}で実際に行ったコーパスの構築について述べる.\Sect{sect:evaluation}では依存構造の単位や構造の異なる単語依存構造データから構文解析モデルを構築し,それらの違いが構文解析の精度に与える影響や,文法機能タイプから得られる述語項構造情報の精度について評価実験を行った結果について述べる.\Sect{sect:problems}で単語依存構造において検討すべき課題について述べる.
V26N03-03
\label{sec:intro}本稿では,参照文を用いた文単位での機械翻訳自動評価手法について述べる.文単位での信頼性の高い自動評価によって,機械翻訳システムの細かい改善が可能になる.文単位での機械翻訳の評価手法には,ある機械翻訳システムの翻訳文に対して他のシステムの翻訳文と比較して相対的に評価する手法と,翻訳文の品質を絶対的に評価する手法がある.本研究では,機械翻訳システムの文単位での定性的な分析,つまり,評価対象の機械翻訳システムがどのような文に対してどの程度の品質で翻訳できるのかについての分析を可能にするため,各翻訳文に対して絶対的な自動評価を行う.本研究では,人手評価に近い絶対評価ができる手法を信頼性の高い自動評価であると捉え,その信頼性に基づいて各評価手法の性能比較や分析を行う.機械翻訳に関する国際会議ConferenceonMachineTranslation(WMT)\footnote{https://aclanthology.info/venues/wmt}では,機械翻訳自動評価手法の人手評価との相関を競うMetricsSharedTaskが開催されており,これまでに多くの手法が提案されてきた.しかし,現在のデファクトスタンダードであるBLEU\cite{papineni-2002}をはじめとして,ほとんどの機械翻訳自動評価手法は文字$N$-gramや単語$N$-gramなどの局所的な素性を利用しており,文単位での評価にとっては限定的な情報しか扱えていない.また,大域的な情報を考慮するために文の分散表現を用いた手法も存在するが,人手評価値付きのデータセットなどの比較的少量の教師ありデータのみを用いてモデル全体を学習するため,十分な性能を示せていない.そこで本研究では,局所的な素性に基づく従来手法では扱えない大域的な情報を考慮するために,大規模コーパスによって事前学習された文の分散表現を用いる機械翻訳自動評価手法を提案する.我々の提案手法は,(a)~翻訳文と参照文を独立に符号化する手法と,(b)~翻訳文と参照文を同時に符号化する手法に大別できる.これらの2つの提案手法は,大規模コーパスによって事前学習された文の分散表現を素性として利用し,人手評価値付きのデータセット上で訓練された回帰モデルによって機械翻訳の自動評価を行うという点で共通している.我々はまず,事前学習された文の分散表現を用いた機械翻訳自動評価のための回帰モデルRUSE\footnote{https://github.com/Shi-ma/RUSE}(RegressorUsingSentenceEmbeddings)(図~\ref{fig:ruse_bert}(a))を提案する.WMT-2017MetricsSharedTask\cite{bojar-2017}のデータセットにおける実験の結果,RUSEは文単位の全てのto-English言語対で従来手法よりも高い性能を示した.この結果は,事前学習された文の分散表現が機械翻訳の自動評価にとって有用な素性であることを示す.\begin{figure}[t]\begin{center}\includegraphics[scale=1.1]{26-3ia3f1.eps}\end{center}\caption{各手法の概要.散点部は訓練し,横線部は固定する.}\label{fig:ruse_bert}\end{figure}我々は続いて,文および文対の符号化器であるBERTによる機械翻訳自動評価手法(図~\ref{fig:ruse_bert}(b))を提案する.BERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-2019}は,大規模な生コーパスを用いて双方向言語モデルおよび隣接文推定の事前学習を行った上でタスクに応じた再訓練を行い,多くの自然言語処理タスクで最高性能を更新している.我々は,WMTMetricsSharedTaskの人手評価値付きデータセットを用いて再訓練することで,BERTによる機械翻訳自動評価を可能にした.WMT-2017MetricsSharedTaskのデータセットにおける実験の結果,BERTによる機械翻訳自動評価は文単位の全てのto-English言語対でRUSEを凌ぎ,最高性能を更新した.詳細な分析の結果,RUSEとの主な相違点である事前学習の方法,文対モデリング,符号化器の再訓練の3点が,それぞれBERTによる機械翻訳自動評価における性能改善に貢献していることが明らかになった.本研究の主な貢献は以下の3つである.\begin{itemize}\item事前学習された文の分散表現に基づく機械翻訳自動評価手法RUSEを提案し,事前学習された文の分散表現が機械翻訳の自動評価において有用な素性であることを示した.\item同じく事前学習された文の分散表現に基づくBERTによる機械翻訳の自動評価を行い,WMT-2017MetricsSharedTaskのデータセットを用いる実験において,文単位の全てのto-English言語対で最高性能を更新した.\itemRUSEとBERTによる機械翻訳自動評価の比較に基づく詳細な分析により,BERTの事前学習の方法,文対モデリング,符号化器の再訓練の3点が,それぞれ機械翻訳の自動評価における性能改善に貢献していることを明らかにした.\end{itemize}本稿の構成を示す.2節では,まず機械翻訳の人手評価について説明し,続いて機械翻訳自動評価手法の関連研究について概説する.3節では,事前学習された文の分散表現に基づくRUSEおよびBERTによる機械翻訳の自動評価手法を提案する.4節では,WMTMetricsSharedTaskの人手評価値付きデータセットを用いて,提案手法の評価実験を行う.5節では,訓練データの文対数と性能の関係やfrom-English言語対における性能について分析する.最後に6節で,本研究のまとめを述べる.
V18N01-02
\label{sec:mylabel1}自然言語処理の研究分野において,1文を対象にした研究は盛んに行われてきた.特に,形態素解析や構文解析は実用レベルに達しており,様々な自然言語を対象とした応用研究において,基礎処理として使用されている.しかし,高度な文章処理を目的としている応用研究,例えば文章要約や照応解析,質問応答,評判分析などは,当然ながら1文を対象にしているわけではなく,高い精度を実現するためには,文章中の話題のまとまりや文間の接続関係といった談話構造の理解が必要になる.このような談話構造解析を用いれば,文章要約(田中,面来,野口,矢後,韓,原田2006)では話題のまとまりを考慮した自然な要約が可能になり,照応解析(南,原田2002)では先行詞候補を探索する範囲を談話構造木の照応詞と根を結ぶ経路上へと高い精度で絞り込むことができ,質問応答システム(加藤,古川,蒲生,韓,原田2005)では理由や原因の回答抽出が容易になることが期待される.談話構造解析の従来研究では様々なモデルが提案されてきた.何を基本単位とするか,単位間の関係,談話構造のモデルなど研究者により様々である.談話構造のモデルとしては文を基本単位とした木構造モデルが一般的である.黒橋ら(黒橋,長尾1994)は文間に11種類の結束関係(並列,対比,主題連鎖,焦点—主題連鎖,詳細化,理由,原因—結果,変化,例提示,例説明,質問—応答)を定義し,手掛かり表現・主題連鎖・文間の類似性に着目し判定している.横山ら(横山,難波,奥村2003)は8種類(因果,背景,呼応,並列,対比,転換,補足,例示)の係り受け関係をSVMを用いた機械学習により判定している.Marcu(Marcu2002)は木構造モデルではなく,連続する2文に限り,4種類の接続関係(CONTRAST,CAUSE-EXPLANATION-EVIDENCE,CONDITION,ELABORATION)を大量のテキストデータを用いた用例利用型の手法で判定している.山本ら(山本,斉藤2008)は,同様の手法で,6種類の接続関係(累加,逆接,因果,並列,転換,例示)を判定している.以上のように談話構造解析の従来研究では様々な解析方法が提案されているが,大きく2つの問題がある.1つ目は,文の話題の中心である焦点の推移を詳細に分析できていないという問題である.焦点はその文を象徴する最も重要な手掛かりであり,談話構造解析には欠かせない要素である.2つ目は,基本的に接続詞や文末表現,同一語の出現など,表層的な情報に基づいているという問題である.特に,接続詞が文中に現れる頻度はあまり高くない.シソーラスを用いて類義情報を取り入れている研究もあるが,そもそも利用されている意味解析の精度が低く類義判定が信頼性に欠けること,また談話では主題の属性や部分などへの話題の変化が多く見られ,類義情報のみでは文間のつながりを適切に把握できないなどの問題点がある.本研究では精度の高い談話構造解析を実現するため,談話の結束性を評価するセンタリング理論を談話構造解析に導入することで,談話の焦点の推移を詳細に捉えることを可能にする.そして部分/属性関係など2語が表す概念間の意味的関係を定めるにあたって,原田らが開発した意味解析システムSage(語意精度95{\%},深層格精度90{\%})(原田,尾見,岩田志,水野1999;原田,水野2001;原田,田淵,大野2002)を用いて各語の意味(概念)を高精度に定め,さらにEDR電子辞書(1995)から抽出した概念間の部分/属性関係を対象知識として,話題の部分/属性への展開などの検出に用いる手法を提案する.
V17N01-03
形態素解析は,文を形態素列に分割し,各形態素に品詞をタグ付けするタスクである.形態素解析は自然言語処理における基盤技術であり,構文解析や情報検索といった応用を実現するうえで高い精度の達成が不可欠となる.日本語の形態素解析では,あらかじめ定義された辞書を用いる手法が高い精度を達成している~\cite{Kurohashi1994full,浅原正幸:2002,Kudo2004full}.この手法では,入力文は辞書引きにより得られた形態素のラティスに展開され,ラティス中の最適なパスが出力として選択される.しかし,辞書に基づく形態素解析には,辞書にない形態素({\bf未知語})の解析を誤りやすいという問題がある.例えば,形態素解析器JUMAN\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}は,デフォルトの辞書を用いると,未知の動詞「ググる」を誤って「ググ」と「る」に分割する.この未知語問題は,未知語を解析用の辞書に追加することで解決する.しかし,人手による辞書登録はコストがかかるため,計算機による自動化が望まれる.人手によらない未知語問題への解決策として,2通りの手法が提案されている.ひとつ目の手法では,形態素解析における未知語モデルを改良する~\cite{Nagata1999full,内元清貴:2001,Asahara2004full,東藍:2006}.日本語の形態素解析で広く用いられる未知語モデルは,字種に基づく簡単なヒューリスティクスだが,代わりに統計や機械学習に基づく未知語モデルを導入すると未知語同定の精度が向上する.二つ目の手法では,テキストから未知語を自動獲得し,形態素解析用の辞書を拡張する~\cite{Mori1996full}.二つの手法を比べると,前者は入力文中の個々の未知語を同定しようとするのに対し,後者は同じ未知語のテキスト中での複数の使われ方を比較できるという点で異なる.複数の使われ方の比較は未知語の同定に効果的と考えられる.例えば「ようつべ」(YouTubeのスラング)という形態素を知らないまま,「ようつべって…」という文を解釈したいとする.このとき,「ようつべ」は,未知の名詞以外にも,未知の動詞「ようつべる」とも解釈でき,いずれが正しいか判断しがたい.同様に,別の文「ようつべとは,…」について,名詞「ようつべ」の他に,動詞「ようつぶ」の命令形とも解釈できる.しかし,両者を見比べると,2文とも名詞「ようつべ」で解釈できることから,名詞という解釈がより自然だと推測できる.従って,本論文では後者の手法を採用する.ただし,両者は対立するものではなく,組み合わせることで,より高い解析精度が得られるようになると期待できる.未知語獲得の従来手法はバッチ処理であり,コーパスをソートしてすべての部分文字列を調べる~\cite{Mori1996full}.しかし,この手法は効率が悪い.なぜなら高頻度の形態素のほとんどが解析用の辞書に登録済みであり,一般に出現頻度でコーパスの90\%以上を網羅している.こうした既知の形態素を改めて獲得しても無駄になる.これに対し,提案手法では,辞書に登録されていない形態素のみを獲得対象とする.従来研究は,資源の制約から,主に小規模な新聞記事を対象に行われてきたが,近年,ウェブの出現により大規模なテキストが入手可能となっている.それに伴い,自然言語処理の様々な分野でデータの大規模化による性能向上が報告されている\cite{Banko2001full,Brants2007full}.しかし,未知語獲得は,データの大規模化が単純に解決する性質の問題ではない.未知語の中には,「ブログ」のように高頻度ながら登録が漏れているものもあるが,大部分がいわゆるロングテールに属す低頻度の形態素である.こうした形態素の出現するテキストには偏りがあるだけでなく,データを増やすだけでは,次々と新たな未知語が出現してきりがない.従って,とにかくデータを与えてそこから未知語を獲得するよりも,個々の未知語候補に着目し,それが獲得されるまでデータを読み込む方が自然である.そもそも,未知語の同定のために,何千,何万もの使われ方を調べる必要はなく,直観的には,ほとんどの場合,10件程度を見比べればほぼ明らかではないかと思われる.本論文では,オンライン未知語獲得という枠組みと,その具体的な実現手法を提案する.オンライン未知語獲得では,バッチ処理ではなく,逐次的に入力されるテキストから未知語を獲得する.形態素解析器自体は,通常通りテキストを文単位で解析し,形態素列を出力する.異なる点は,解析の裏で未知語獲得器が動作することである.具体的には,解析された文から未知語を抽出し,適当な時点で形態素解析器の辞書を更新する.これにより獲得された未知語が形態素解析に反映される.オンライン未知語獲得では,獲得開始時に対象コーパスを決める必要がない.そのため,例えば,クローラが毎日新たなページを取得するという設定でも,この差分のみから未知語が獲得できる.オンライン未知語獲得は,検出,列挙,選択のサブタスクにより実現される.このうち,列挙は日本語の持つ形態論的制約を利用し,選択は蓄積した複数用例の比較による.実験により比較的少数の用例から高精度に未知語が獲得され,その結果形態素解析の精度が改善することが示された.本論文の構成は次の通りである.\ref{sec:acquisition-task}章で未知語獲得タスクを整理し,\ref{sec:online-acquisition}章でオンライン未知語獲得の枠組みを提案する.\ref{sec:enumeration-and-selection}章では,オンライン未知語獲得の実現手法のうち,列挙と選択を説明する.\ref{sec:experiments}章で実験結果を報告し,\ref{sec:related-work}章で関連研究,\ref{sec:conclusion}章で結論を述べる.
V05N01-04
本研究では,論説文の文章構造についてモデル化し,それに基づいた文章解析について論じる.近年のインターネットや,電子媒体の発達などにより大量の電子化された文書が個人の周囲にあふれてきており,文書理解,自動要約等,これらを自動的に処理する手法の必要性が増している.文章の構造化はそれらの処理の前提となる過程であるが,人間がその作業を行なう場合を思えば容易に分かるように,元来非常に知的な処理である.しかし,大量の文書を高速に処理するためには,記述されている領域に依存した知識を前提とせず,なるべく深い意味解析に立ち入らない「表層的」な処理により行なうことが求められる.文末表現から文章構造を組み立てる手法,表層的な表現から構造化する手法,また,テキスト・セグメンテーションの手法もいくつか提案されているが,画一的な観点からの文章の構造化では,大域的構造,局所的構造,両者をともに良好に解析する手法は少ない.我々の手法では,トップダウン的解析とボトムアップ的解析の双方の利点を活かし,文章の木構造を根から葉の方向へ,葉から根の方向へと同時に生成していく.これらのアルゴリズムは,相互に再帰的な二つのモジュールにより構成されている.我々の目的は,Shankらに代表されるような「深い意味解析」が必要な談話理解過程を論じるものではない.むしろ,文章における結束関係\cite{Halliday:76}や連接関係の理解過程のモデル化を目標としている.この分野の研究については,たとえば\cite{Abe:94}にサーベイされている.なかでも,目的と手法が似ているものは,\cite{Dahlgren:88,Dahlgren:89}のCRA(coherencerelationassignment)アルゴリズムであろう.しかし,彼女らの手法は局所的構造と大域的構造を別々に作るようである.日本語の文章の連接関係の解析では,\cite{Fukumoto:91,Fukumoto:92}や,\cite{Kurohashi:94}などがあり,文末の表現や表層的な情報により文章の構造化を試みているが,局所的な解析には適した手法だが,大域的には十分な解析精度は得にくいと思われる.以下,第2章では前提となる文章構造のモデルを提案し,第3章ではトップダウン的解析アプローチについて,第4章ではボトムアップ的解析アプローチについて述べ,第5章で両者を融合した解析手法について説明する.最後に第6章で実験結果と本手法についての評価を述べる.
V10N02-03
近年,情報分野の認知度・重要度は急速に増し,それに伴って自然言語処理分野の研究もさらに活発なものとなっている.形態素論から構文論へと研究は進み,現在は意味論に関する研究がその中心となっている.比喩表現はその代表的なテーマの1つであり,我々の日常的なコミュニケーションも比喩表現の雛型としての言語知識に基づいた部分が多いとされている\cite{Lakoff-1}.比喩表現に関する研究は,近年細かく分類され,様々なアプローチによる研究が精力的に進められている.人工知能(自然言語処理)分野における比喩処理の研究として,Barndenは,ATT-Metaと呼ばれる比喩推論システムを試作している\cite{Barnden-1}.このシステムは,cnduitmetaphorと称する意味伝達に際しての理解のずれの枠組み\cite{Reddy-1}など,比喩表現についての言語学的な研究成果をもとに構築され,喩詞と被喩詞との意味的な共通領域を定量的に示すことができる.コンピュータに比喩を理解させるためには概念の類似性や顕現性に関する知識が必要となるが,TverskyやOrtonyは概念の属性集合の照合によって類似性を説明する線形結合モデルを提案し,顕現性を計算する際に重要な要素として情報の強度(intensity)と診断度(diagnosticity)を提案している\cite{Tversky-1,Ortony-3}.今井らは連想実験に基づいて構成される属性の束を用いてSD法の実験を行い,その結果を円形図上に配置し,さらに凸包という幾何学的な概念を用いて相対的に顕現性の高い属性の抽出を行っている\cite{Imai-1}.比喩表現を大きく直喩・隠喩的な比喩と換喩的な比喩とに分類すると,換喩的な比喩の研究として,村田らは「名詞Aの名詞B」「名詞A名詞B」の形をした名詞句を利用し,それを用いて換喩を解析することを試みている\cite{Murata-1}.内山らは換喩的な比喩を研究対象に,統計的に解釈する方法について述べている\cite{Uchiyama-1}.また内海らは直喩・隠喩的な比喩の研究について,関連性理論を基盤とした言語解釈の計算モデルを適用し,属性隠喩を対象として文脈に依存した隠喩解釈の計算モデルを提案している\cite{Utsumi-1}.しかしこれらの研究はいずれも比喩とわかっている表現の解釈を中心に行われており,実際の文章に現れる表現が比喩であるかどうかといった比喩認識については,あまり深い議論はなされていない.本研究は日本語文章の比喩表現,その中でも直喩・隠喩的な比喩について,その認識・抽出を目的としている.我々はこれまで確率的なプロトタイプモデル\cite{Iwayama-1}を利用して,コーパスから知識を取り出すことによって比喩認識に用いる大規模な知識ベースを自動構築する手法を提案し\cite{Masui-1},動作に基づく属性に注目した観点からの比喩認識を提案してきた\cite{Masui-3}.これにより喩詞と被喩詞とからなる表現の定量的な比喩性判断が可能となった.しかし,この手法を実際の文章に現れる表現に対して適用するためには,比喩表現候補の喩詞と被喩詞とを正確に抽出できなければならない.これに対しては直喩の代表的な表現形式である``名詞Aのような名詞B''を対象に,構文パターンやシソーラスを用いる手法で研究を進めてきた\cite{Tazoe-1,Tazoe-2}が,喩詞・被喩詞を抽出する手法は,同時に``名詞Aのような名詞B''表現が比喩であるかどうかを判定することにも密接に関連するという結論に至った.本論文では``名詞Aのような名詞B''表現について,意味情報を用いたパターン分類によって比喩性を判定し,喩詞と被喩詞とを正確に抽出できるモデルについて提案する.本論文の構成を示す.\ref{sec:bunrui}章では``名詞Aのような名詞B''表現について意味情報を用いたパターン分類とそれぞれのパターンの特徴・比喩性を述べる.\ref{sec:teian}章では我々が提案する比喩性判定モデルの処理の流れを詳細に説明する.\ref{sec:ko-pasu}章ではコーパスを用いた判定実験結果について考察を加える.\ref{sec:hiyugo}章では明らかに比喩性を決定づける語の存在について検証する.
V08N04-05
音声認識技術の進歩により,最近は文章入力を音声で行うことも可能になって来ている.文章を音声で入力する場合には,音声を文字化すると失われてしまう韻律のような情報も言語処理に利用できる可能性がある.韻律には,多様な情報が含まれているが,その中で構文情報に着目した研究がこれまでにいくつか行われている.\cite{UYE}は読み上げ文のポーズやイントネーションを観察し,それらが文の構文構造と関連を持つことを明らかにした.この結果は,もし韻律情報が得られるならば,それを構文解析のための知識源の一つとして利用できる可能性を示唆している.\cite{KOM}は韻律情報を用いて隣接句間の結合度を定義し,結合度の弱い句境界から順に分割して行くことにより,構文木に似た構造が得られることを示した.また,\cite{SEK}は隣接句間の修飾関係の有無の判定に韻律情報が有効であることを報告している.これらの研究は,韻律と構文構造の関係を取り扱ってはいるが,実際に韻律情報を通常の意味の構文解析に利用したものではない.これに対して,\cite{EGU}は5種類の韻律的特徴量を取り上げ,それらと係り受け距離の統計的な関係を,総ペナルティ最小化法\cite{OZE-1}を用いて係り受け解析を行う際のペナルティ関数に組み込むことにより,韻律情報を用いない場合に比べて解析精度が向上することを見い出した.そして,そこで取り上げられた韻律的特徴量の中では文節間のポーズ長が最も有効であることを報告している.その後,同じ枠組みの中で韻律的特徴量の種類を増やし,また対象話者数を拡大して,特徴量の有効な組合せを求める研究や,特徴量の話者独立性に関する検討が行われている\cite{KOU-1,OZE-2,OZE-3,OZE-4}.総ペナルティ最小化法を用いたこれら一連の研究においては,韻律的特徴量が正規分布することが仮定されている.しかし,実際の分布は正規分布とはかなり異なっている.したがって,特徴量の分布を近似するための分布関数を改良することにより,韻律情報をより有効に利用できる可能性がある.また,これまでに取り上げられていない韻律的特徴量の中に有効性の高いものがある可能性もある.そこで本研究では,まず韻律的特徴量,特に最も有効とされるポーズ長に対する分布関数の改良を試みた.また,韻律的特徴量を従来の12種類\cite{OZE-4}から24種類に増やし,日本語読み上げ文の係り受け解析におけるそれらの有効性を実験的に検討した\cite{HIR}.
V04N03-02
\label{sec:introduction}単語の多義性を解消するための技術は,機械翻訳における訳語の選択や仮名漢字変換における同音異義語の選択などに応用できる.そのため,さまざまな手法\cite{Nagao96}が研究されているが,最近の傾向ではコーパスに基づいて多義性を解消するものが多い.コーパスに基づく手法では,単語と単語や語義と語義との共起関係をコーパスから抽出し,抽出した共起関係に基づいて入力単語の語義を決める.しかし,抽出した共起関係のみでは全ての入力には対応できないというスパース性の問題がある.スパース性に対処するための一つの方法は,シソーラスを利用することである.シソーラスを使う従来手法には,クラスベースの手法\cite{Yarowsky92,Resnik92,Nomiyama93,Tanaka95a}や事例ベースの手法\cite{Kurohashi92,Iida95,Fujii96a}がある.クラスベースの手法では,システムに入力された単語(入力単語)の代りに,その上位にある,より抽象的な節点を利用する\footnote{本章では単語と語義と節点とを特には区別しない.}.一方,事例ベースの手法では,このような抽象化は行わない.すなわち,入力単語がコーパスに出現していない場合には,出現している単語(出現単語)のうちで,入力単語に対して,シソーラス上での距離が最短の単語を利用する.ところで,シソーラス上では,2単語間の距離は,それらに共通の上位節点\footnote{「二つの節点に共通の上位節点」といった場合には,共通の上位節点のうちで最も深い節点,すなわち,根から最も遠い節点を指す.}の深さにより決まる.つまり,共通の上位節点の深さが深いほど,2単語間の距離は短くなる.したがって,事例ベースの手法では,シソーラス上における最短距離の出現単語ではなくて,最短距離の出現単語と入力単語とに共通の上位節点を利用しているとも考えられる.こう考えると,どちらの手法も,入力単語よりも抽象度の高い節点を利用している点では,共通である.二つの手法の相違は,上位節点の決め方とその振舞いの解釈である.まず,上位節点の決め方については,クラスベースの手法が,当該の入力単語とは独立に設定した上位節点を利用するのに対して,事例ベースの手法では,入力単語に応じて,それに最短距離の出現単語から動的に決まる上位節点を利用する.次に,上位節点の振舞いについては,クラスベースの手法では,上位節点の振舞いは,その下位にある節点の振舞いを平均化したものである.一方,事例ベースの手法では,上位節点の振舞いは,入力単語と最短距離にある出現単語と同じである.このため,クラスベースの手法では,クラス内にある単語同士の差異を記述できないし,事例ベースの手法では,最短距離にある出現単語の振舞いが入力単語の振舞いと異なる場合には,当該の入力の処理に失敗することになる.これは,一方では平均化により情報が失なわれ\cite{Dagan93},他方では個別化によりノイズに弱くなる\cite{Nomiyama93}という二律排反な状況である.クラスベースの手法でこの状況に対処するためには,クラスの抽象化の度合を下げればよい.しかし,それには大規模なコーパスが必要である.一方,事例ベースの手法では,最短距離の出現単語だけではなくて,適当な距離にある幾つかの出現単語を選び,それらの振舞いを平均化して入力単語の振舞いとすればよい.しかし,幾つ出現単語を選べば良いかの指針は,従来の研究では提案されていない.本稿では,平均化による情報の損失や個別化によるノイズを避けて,適当な抽象度の節点により動詞の多義性を解消する手法を提案する.多義性は,与えられた語義の集合から,尤度が1位の語義を選択することにより解消される.それぞれの語義の尤度は,まず,動詞と係り受け関係にある単語に基づいて計算される.このとき,尤度が1位の語義と2位の語義との尤度差について,その信頼下限\footnote{確率変数の信頼下限というときには,その推定値の信頼下限を意味する.確率変数$X$の(推定値の)信頼下限とは,$X$の期待値を$\langleX\rangle$,分散を$var(X)$とすると$\langleX\rangle-\alpha\sqrt{var(X)}$である.また,信頼上限は$\langleX\rangle+\alpha\sqrt{var(X)}$である.$\alpha$は推定の精度を左右するパラメータであり,$\alpha$が大きいと$X$の値が実際に信頼下限と信頼上限からなる区間にあることが多くなる.}が閾値以下の場合には語義を判定しないで,信頼下限が閾値よりも大きいときにのみ語義を判定する.語義が判定できないときには,シソーラスを一段上った節点を利用して多義性の解消を試みる.この過程を根に至るまで繰り返す.根においても多義性が解消できないときには,その係り受け関係においては語義は判定されない.提案手法の要点は,従来の研究では固定的に選ばれていた上位節点を,入力に応じて統計的に動的に選択するという点である.尤度差の信頼下限は,事例ベースの手法において,「幾つ出現単語を選べば良いか」を決めるための指標と考えることができる.あるいは,クラスベースの手法において,「平均化による情報の損失を最小にするクラス」を,入力に応じて設定するための規準と考えることができる.以下,\ref{sec:model}章では動詞の多義性の解消法について述べ,\ref{sec:experiment}章では提案手法の有効性を実験により示す.実験では,主に,提案手法とクラスベースの手法とを比較する.\ref{sec:discussion}章では提案手法とクラスベースの手法や事例ベースの手法との関係などを述べ,\ref{sec:conclusion}章で結論を述べる.
V04N02-03
\newenvironment{indention}[1]{}{}照応現象の一つに,文章中に現れていないがすでに言及されたことに関係する事物を間接的に指示する間接照応という用法がある\cite{yamanashi92}.たとえば,「家がある.屋根は白い.」の場合,「屋根」は前文の「家」の屋根である.間接照応の研究はこれまで自然言語処理においてあまり行なわれていなかったが\footnote{文献\cite{Tanaka1}では化学の世界に限定して名詞「体積」の間接照応の解析をしているが,一般の名詞すべてに対して間接照応の解析を行なっている研究はない.},文章の結束性の把握や意味理解において重要な問題である.そこで,我々は二つの名詞間の関係に関する知識を用いて日本語文章上でこの問題を解決することを試みた.間接照応の照応詞としては名詞句,指示詞,ゼロ代名詞が考えられるが,本論文では,名詞句が照応詞である場合の間接照応だけを対象とする.
V15N03-02
自然言語処理研究は1文を処理対象として数多くの研究が行われてきたが,2文以上を処理対象とする談話処理の研究は依然として多いとは言えない.これは問題が大幅に難しくなることが一因であろう.例えば,構文解析の係り先同定などに見られるように解が文の中にある場合の選択肢は比較的少数であるが,照応・省略解析などのような問題となると解候補や考慮すべき情報が多大となるため正解を得るのは容易ではない.この結果,多くの報告が示すように概ねどのような談話処理の問題であっても十分な精度が得られることは比較的少ない.しかし,これによって談話処理の重要性は何ら変化することはなく,我々は継続的に取り組んでいかなければならない.本論文では,談話処理のうち文間の接続関係を同定する問題に取り組んだ.文間の接続関係同定は,文生成に関係する様々な応用処理,例えば対話処理,複数文書要約,質問応答などにおいて重要となる.例えば,人間の質問に対話的に答えるシステムを考えた場合,対話をスムーズに行うために,システムは伝えるべき情報を自然な発話になるように繋げなければならない.その際に,文間に適切な接続詞を補う必要が出てくる.また,文書要約では文章中から重要な文を選んで列挙する重要文抽出手法が依然として多く行われているが,飛び飛びになっている文が選ばれた際に接続詞を適切に修正(削除,追加,変更)する必要が出てくる.本研究では以下のように問題設定した.まず,入力は接続詞を持つ文とその前文の連続2文として,この接続詞を与えない場合にどの程度同定できるかというタスクとして問題設定した.タスクの入力を連続2文とすることの妥当性については3節で議論する.次に,同定するのは実在した接続詞そのものではなく,接続関係とした.最終的な文生成を考えると接続詞を選ぶことが最終的な目的となるが,例えば「しかし」と「けれども」のどちらかにするかを使い分けることが本研究の目的ではない.また,多くの場合は接続関係が同じであればその接続関係にある接続詞のどれを選んでも構わないと推察されることからこのようなタスク設定とした.我々の設定した接続関係については2節で議論する.ここで関連研究を概観する.日本語接続詞を利用した要約や文書分類の研究,あるいは接続詞そのものの分析の研究は多数あるが本論文の対象ではないので省略する.接続詞決定に関して,例えば高橋らが考察を行っているが(高橋他1987),この入力は「文章の意味構造」であり,すなわち接続関係が与えられて接続詞を決める問題であるため本研究とは比較できない.一方,飯田らは気象情報文を生成する過程で「接続詞」\footnote{(飯田,相川2005)では「接続詞」を自動決定するとあるが,「…し,」と「…が,」しか出現しないことから「接続詞」とは接続助詞を指すものと推察される.}を自動同定する処理を行っている(飯田・相川2005)が,順接と逆接のどちらになるかを選択するタスクであり,これ以外の関係を全く想定していない.また,入力は時間,天気,気温,風力などの気象データであり,全く異なるタスクと考えてよい.以上のように,日本語で言語表現を入力として接続詞,もしくは接続関係を同定する研究は我々の知る限り存在しない.Marcuは大規模なテキストデータによる学習からNa\"{\i}veBayes分類器を用いてセグメント間の接続関係を同定する手法を提案している(Marcuetal.2002).Marcuは接続関係をCONTRAST(逆接),CAUSE-EXPLANATION-EVIDENCE(因果,並列),CONDITION(条件),ELABORATION(累加)の4種類に限定し,さらに同じテキストから取り出した関係を持たない2つのセグメントと異なるテキストから取り出した関係を持たないセグメントを加えた6種類の接続関係を用いてそのうちの2つの関係間での2値分類を行っている.そこでは2つのセグメントからそれぞれ取り出した単語対を素性とし,大量のコーパスから取り出した単語対の情報がシステムに良い影響を与えていることを示している.さらに,コーパスの量が同じなら単語対に用いる品詞を限定した方が精度が良くなることも述べている.一方,Hutchinsonは機械学習により極性(polarity),真実性(veridicality),接続関係の種類(type)の3つの側面から接続関係を分類し,接続関係の分類構造の分析を行っている(Hutchinson2004b).SporlederはMarcuの研究を受けて,単語の表層形だけでなく,対象とする文のドキュメント内での出現位置や文の長さ,単語のbigram,品詞,テンス・アスペクトなどを素性として用いて,機械学習器BoosTexterによる同定を行っている(Sporlederetal.2005).ここで,SporlederはMarcuとは異なる5種類の接続関係を対象としている.本論文では大量のWeb文書を用いて,与えられた2文に最も近い用例を探すことで2文間の接続関係を推定する手法を提案する.すなわち,大量のWebテキストを用例として利用することで,接続関係を推定するための規則を作ることなく接続関係を同定する.これは,用例利用型(example-based)の手法と呼ばれ,主に機械翻訳の分野で手法の有効性が確認されている.本研究では,これを談話処理の問題に適用し,手法の有効性を検証する.
V06N05-05
\label{sec:hajimeni}人間の翻訳作業を支援するシステムは,電子単語辞書から機械翻訳システムまでいろいろ提案されており関連する研究も多い\cite{MT97}.著者らはこの中の用例提示型の翻訳支援システムの研究を行っている.このシステムは一般的に巨大な対訳用例データベースと検索システムから構成される.このシステムに対して利用者は「翻訳がわからない」と思う表現を入力する.するとシステムは入力に一致した表現,あるいは類似した表現をデータベース中で検索してその翻訳例を提示する.利用者は提示された翻訳例を参考に翻訳を作成する.機械翻訳システムと違ってこの場合の翻訳の主体は利用者にあり,システムは利用者に参考となる情報を提示するだけである.このように利用者主体の翻訳作業を支援する考え方はKay\cite{Kay97}によって1980年に提案されている.この文献では電子化辞書を使った支援を提案しているが,対訳用例を使う翻訳支援もこの考えを基本的に踏襲したものである.また実際に対訳用例を使って日英翻訳支援システムを作成した例としては\cite{Naka89,Sumi91}等の先駆的なシステムがある.さらに最近では商用システムもいくつか販売されている.著者らは上記一連の研究と同一の考えに基づいて,日本語ニュースの英訳支援のためのシステムを開発している.このシステムには二つの特徴がある.一つは利用する日英用例の対応付けの粒度である.従来の研究では,表現の対応を集めた日英表現翻訳辞書や文間の対応付けを行ったデータベースなど詳細な単位で対応のとれたデータベースを利用することが多かった.これらに対して著者らのデータベースは記事という大きな単位での対応はとれているが,それより細かな対応はとれていない.これは日本語ニュース記事を英訳する場合に,英語視聴者の背景知識や興味に合わせて大きく意訳することがあるためである.極端な場合は日本語ニュースを参考にして英文ニュースを新たに作成する場合もある.このため入力の検索結果に対応する翻訳部分を提示するには,日英表現の自動的な照合が必要になる.そしてこの場合に表現が照合しないことも前提にしなくてはならない.第二点は「意訳の支援」である.従来,用例提示型のシステムはマニュアル翻訳のような定型的な翻訳に応用する場合が多かった.たしかにニュース翻訳の場合でも「株価」「天気予報」「新車販売台数月例報告」などの項目はほぼ定型的な文から成り立っており,これらを有効に支援できると思われる.しかし著者らは本システムで意訳を積極的に支援したいと考えている.なぜなら意訳こそニュース翻訳の難しい部分であり,また用例によって有効に支援できると考えるからである.例えば日本語の短い言い回し「いかがなものか」は本稿のデータベース中だけでも過去10通り程度に訳されている.同様に同じ単語や似たような文が文脈によってどのように意訳されているかを観察すれば,意訳のための知識を効果的に学ぶことができると考える.意訳であろうと定型的な翻訳を支援する場合であろうと,表現を検索する部分には同じ手法を利用できる.しかし,結果の表示には異なった配慮が必要である.定型的な翻訳であれば入力に対応する翻訳例を一つ示せば十分である.しかし意訳を支援するにはできるだけたくさんの翻訳例を文脈付きで利用者に提示する必要がある.このため著者らのシステムは検索速度を重視している.またどのような長さの入力であっても出力は日本語と英語の記事を提示した上で,対応個所を強調して表示している.本稿は上記のシステム中の検索部分を対象としている.著者らは一文字から一記事までの範囲を入力として類似検索ができるシステムを研究している.これは意訳が単語や短い表現から文や記事までの広い範囲で行われるためである.実際には一文字から一文までを対象にした検索システムと記事を対象にした検索システムの二つを作成した.本稿はこのうちの一文までの表現を対象として類似用例を検索する手法について報告する.著者らはこの検索を頑健で柔軟かつ高速に行うためキーワードのAND検索を基本的な手法として採用した.すなわち,入力を形態素解析してあらかじめ指定している品詞のキーワードを抽出してAND検索を行う手法である.しかし単純なAND検索を行うと不適切な結果を多数表示することが判明した.そこで著者らはAND検索に語順と「変位」と呼ぶ制限を加えることを提案する.これは表層的な情報を利用してAND検索に構文的な情報を反映させようという試みである.この手法は構文解析を利用していないため速度と頑健性に優れている.以下,本稿の構成を示す.まず~\ref{sec:gaiyou}~章で著者らの用例提示型翻訳支援システムの概要を説明して,この中の類似用例検索部分の設計方針を示す.\ref{sec:mondai}~章では類似用例検索にキーワードによるAND検索を利用した場合に起こる問題を示す.続く~\ref{sec:algo}~章ではAND検索に語順と変位を使う手法を提案する.またこの手法を使った検索手順をアルゴリズムの形で示す.そして~\ref{sec:jikken}~章で約160万用例からなるデータベースを使った検索実験を報告する.ここでは検索時間と,検索結果の主観的な満足度などを報告し,提案手法はAND検索にくらべてわずかに検索時間が増加するものの(約1.3倍)利用者の満足度は統計的に有意に優れていたことを示す.次に~\ref{sec:kanren}~章では関連研究を紹介して本研究との比較を行い最後に~\ref{sec:ketsuron}~章で本稿のまとめを行う.
V26N01-09
近年,ニューラルネットワーク及び分散表現の使用により,係り受け解析は大きく発展している.\cite{dchen2014,weiss2015,hzhou2015,alberti2015,andor2016,dyer2015}.こうした構文解析器が,単語ごとの分かち書きを行う英語や多くのヨーロッパ諸語に適用された場合は非常に正確に動作する.しかし,日本語や中国語のように,特に単語毎の分かち書きを行わない言語に対し適用する場合は,事前に形態素解析器や単語分割器を利用して単語分割を行う必要がある.また,単語分割が比較的に容易な言語の場合でも,構文解析器は品詞タグ付け結果を利用することが多い.したがって,前段の単語分割器や品詞タグ付け器と後段の構文解析器をパイプラインにより結合されて用いられる.しかし,どのような単語分割器や品詞タグ付け器にも出力の誤りが存在し,結果的にそれが後方の係り受け解析器にも伝播することで,全体の解析結果が悪くなってしまう問題が存在した.これを誤差伝播問題と呼ぶ.日本語においても中国語においても,単語の定義には曖昧性が存在するが,特に中国語では,このような単語の定義の曖昧性から,単語分割が悪名高く難しいことが知られている\cite{Shen2016a}.それゆえ,従来法である単語分割,品詞タグ付け,構文解析のパイプラインモデルは,単語分割の誤りに常に悩まされることになった.単語分割器が単語の境界を誤って分割してしまうと,伝統的なone-hotな単語素性や通常の単語の分散表現(\textbf{wordembedding})では,もとの単語の意味を正しく捉えなおすことは難しい.結果的に,中国語の文を生文から解析する際は,パイプラインモデルの精度は70\%前半程度となっていた\cite{hatori2012}.このような誤差伝播問題に対しては,統合モデルを使用することが有効な解決方法として提案されている\cite{zhang-clark2008:EMNLP,zhang-clark2010,hatori2011,hatori2012,mzhang2014}.中国語の単語は,単一の表層系で複数の構文的な役割を演じる.ゆえに,そうした単語の境界を定めることと,後続の品詞タグ付け,構文解析は非常に関連のあるタスクとなり,それらを別個に行うよりも,同時に処理することで性能の向上が見込まれる.中国語の統合構文解析器については,すでに\citeA{hatori2012}や\citeA{mzhang2014}などの統合モデルが存在する.しかし,これらのモデルは,近年のwordembeddingのような表現学習や,深層学習手法を利用しておらず,専ら,複雑な素性選択や,それら素性同士の組み合わせに依存している.本研究では,ニューラルネットワークを用いた手法による中国語の統合構文解析モデルを提案し,パイプラインを用いたモデルとも比較する.ニューラルネットワークに基づく係り受け解析では,単語の分散表現と同様に文字の分散表現が有効であることが英語などの言語における実験で示されている\cite{ballesteros2015}.しかし,中国語や日本語のように個々の文字が固有の意味を持つ言語において,単語以下の構造である部分単語の分散表現がどのように有効であるかについては,いまだ十分な研究が行われていない.中国語では単語そのものの定義がやや曖昧である他に,単語内にも意味を持つ部分単語が存在する場合がある.加えて,中国語の統合構文解析を行う場合には,単語分割の誤りに対処したり,文中で単語分割をまだ行っていない箇所の先読みを行う必要があり,必然的に,単語だけではなく部分単語や単語とはならない文字列の意味を捉えることが必要になる.このような部分単語や単語とはならない文字列は,大抵の場合はモデルの学習に用いる訓練コーパスや事前学習された単語の分散表現中には存在せず,文字や文字列の分散表現を扱わない先行研究では未知語として処理される.しかし,こうした文字列を未知語として置換し処理するよりも,その構成文字から可能な限りその意味を汲み取った方が,より高精度な構文解析が行えると考えられる.このため,本研究では文字列の分散表現を利用した統合構文解析モデルを提案する.提案手法では,既知の文字または単語についてはそれらの分散表現を使用し,未知の文字列については文字列の分散表現を使用する.本研究では中国語の統合構文解析モデルとして,単語分割・品詞タグ付けおよび係り受け解析の統合モデルと,単語分割と品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルの2つを提案する.これらのモデルを使用することで,実験では新規に世界最高性能の中国語単語分割および品詞タグ付け精度を達成した.また,係り受け解析とのパイプラインモデルが,従前の統合解析モデルと比較して,より優れた性能を達成した.以上の全てのモデルにおいて,単語と文字の分散表現に加えて文字列の分散表現を利用した.著者の知る限りにおいて,これは分散表現とニューラルネットワークを利用し,中国語の単語分割・品詞タグ付け・係り受け解析の統合解析を行った,はじめてのモデルである.この論文における貢献は以下のようにまとめられる.(1)分散表現に基づく,初めての統合構文解析モデルを提案した.(2)文字列の分散表現を未知語や不完全な文字列に対してその意味を可能な限り汲み取るために使用した.(3)加えて,既存手法で見られた複雑な素性選択を避けるために,双方向LSTMを使用するモデルを提案した.(4)中国語のコーパスにおける実験で単語分割・品詞タグ付けおよび係り受け解析にて新規に世界最高性能を達成した.この他に,本論文では中国語係り受け解析のラベル付けモデルを提案し,原文からラベル付き係り受け解析までを行った際のスコアを評価する.このモデルに関しても,同様に文字列の分散表現を利用する.
V22N04-01
Googleに代表される現在の検索エンジンはその性能が非常によくなってきており,適切な検索用語(キーワード)さえ与えてやればおおむね期待通りの検索結果が得られる.しかし一方,多くのユーザ,特に子どもや高齢者,外国人などにとって検索対象を表す適切な検索用語(特に専門用語など)を見つけることは往々にしてそう簡単ではない.マイクロソフトの「現在の検索で不満に思う点」に関する調査\footnote{http://www.garbagenews.net/archives/1466626.htmlまたはhttp://news.mynavi.jp/news/2010/07/05/028/}によれば,57.6\%の人が適切なキーワード探しの難しさに不満を感じている.また,「何か欲しい情報を求めて検索エンジンを利用しているのに,それを利用するための適切なキーワードをまた別のところで探さねばならないという,堂々巡りをした経験を持つ人も多いはず」とも指摘されている.これは2010年の調査ではあるが,現在においてもこれらの不満点が大方解消されたとは言い難い.そこで,関連語・周辺語(たとえば「コンピュータ」,「前の状態」,「戻す」)またはそれらの語から構成される文を手掛かりに適切な検索用語(この場合「システム復元」)を予測・提示する検索支援システムがあればより快適な検索ができるのではないかと考えられる.本研究では,ITや医療など様々な分野において,これらの分野の関連語・周辺語またはそれらの語から構成される文を入力とし,機械学習を用いて適切な検索用語を予測・提示する検索支援システムの開発を目標としている.このような研究は,すくなくとも日本語においては我々が調べた限りではこれまでなされていなかった\footnote{類似研究として,「意味的逆引き辞書」に関する研究\cite{Aihara}や「クロスワードを解く」に関する研究\cite{Uchiki}がある.しかしこれらは分野ごとの検索用語の予測・提示に基づく検索支援を第一の目的としておらず,それゆえに,精度(正解率)は本研究で得られたものよりはるかに低かった.また,手法もLSIを利用した情報検索技術やエキスパートなどに基づくアプローチを取っており,本研究が取っている機械学習のアプローチとは異なる.}.本稿ではその第一歩として,分野をコンピュータ関連に限定し,深層学習(DeepLearning)の一種であるDeepBeliefNetwork(DBN)を用いた予測手法を提案する.近年,深層学習は様々な分野で注目され,音声認識~\cite{Li}や画像認識~\cite{Krizhevsky}のみならず,自然言語処理の諸課題への応用にも優れた性能を出している.それらの諸課題は,形態素・構文解析~\cite{Billingsley,Hermann,Luong,Socher:13a},意味処理~\cite{Hashimoto,Srivastava,Tsubaki},言い換え~\cite{Socher:11},機械翻訳~\cite{Auli,Liu,Kalchbrenner,Zou},文書分類~\cite{Glorot},情報検索~\cite{Salakhutdinov},その他~\cite{Seide,Socher:13b}を含む.さらに,統一した枠組みで品詞タグ付け・チャンキング・固有表現認識・意味役割のラベル付けを含む各種の言語処理課題を取り扱えるニューラルネットおよび学習アルゴリズムも提案されている~\cite{Collobert}.しかしながら,われわれの知っている限りでは,前に述べたような情報検索支援に関する課題に深層学習を用いた研究はこれまでなされていない.したがって,本稿で述べる研究は主に二つの目的を持っている.一つは,関連語・周辺語などから適切な検索用語を正確に予測する手法を提案することである.もう一つは,深層学習がこのような言語処理課題において,従来の機械学習手法である多層パーセプトロン(MLP)やサポートベクトルマシン(SVM)より優れているか否かを確かめることである.本研究に用いたデータはインターネットから精度保証がある程度できる手動収集と,ノイズ\footnote{ここのノイズとは,関係のない単語が含まれている,または必要な単語が欠落していることを指す.}は含まれるが規模の大きいデータの収集が可能な自動収集との2通りの方法で収集した.加えて,ある程度規模が大きく精度もよい疑似データも自動生成して用いた.機械学習のパラメータチューニングはグリッドサーチと交差検証を用いて行った.実験の結果,まず,学習データとして手動収集データのみを用いても自動収集データと疑似データを加えてもDBNの予測精度は用例に基づくベースライン手法よりははるかに高くMLPとSVMのいずれよりも高いことが確認できた.また,いずれの機械学習手法も,手動収集データにノイズの多い自動収集データとノイズの少ない疑似データを加えて学習することにより予測精度が向上した.さらに,手動収集データにノイズの多い自動収集データのみを加えて学習した場合,DBNとSVMには予測精度の向上が見られたがMLPにはみられなかった.この結果から,MLPよりもDBNとSVMのほうがノイズに強くノイズの多い学習データも有効利用できる可能性が高いと言えよう.
V21N02-02
平成11年から政府主導で行われた平成の大合併や,平成19年より施行された地方分権改革推進法など,地方政治を重視する取り組みが盛んに行われていたのは記憶に新しい.一方で,有権者の政治離れが深刻な問題となって久しく,平成25年7月21日の第23回参議院議員通常選挙における選挙区選挙では52.61\%の投票率\footnote{http://www.soumu.go.jp/senkyo/senkyo\_s/data/sangiin23/index.html}となり,参議院議員通常選挙において過去3番目に低い値となった.地方政治の場合,平成23年4月の第17回統一地方選挙の投票率は,48.15\%\footnote{http://www.soumu.go.jp/senkyo/senkyo\_s/data/chihou/ichiran.html}であり,さらに低い値となっている.地方政治に対する有権者の政治離れの原因には幾つか考えられるが,その一因に地方議会議員およびその活動の認知度の低さがあげられる.現状では,政治情報を入手するソースとしてテレビや新聞などのマスメディアが占める割合が大きいが,このようなマスメディアに首長以外の地方議会議員が取り上げられることはほとんどない.地方議会議員は国会議員と同様に住民による選挙によって選ばれ,かつ,国政よりも身近な存在であるべきであるにもかかわらず,その活動に関する認知度が低いのは大きな問題であると考える.そこで,住民に提供される地方政治の情報,特に地方議会議員に関する情報量の不足を解決するための方法の一つとして,Web上の情報を有効に利用することを考える.Web上に存在する議員の情報には,議員や政党のホームページ,ニュースサイトの政治ニュース,議員のブログやTwitterなどのSNS,マニフェスト,議会の会議録などがある.このうち会議録には,議員からの一方的な情報発信ではなく,議論や反対意見などのやりとりが含まれ,公の場における各議員の活動や考え方を知ることができる.また,研究対象として会議録を見た場合,会議録は,首長や議員の議論が書き起こされた話し言葉のデータであり,長い年月の議論が記録された通時的なデータであることから,政治学,経済学,言語学,情報工学等の様々な分野における研究対象のデータとして利用されている.例えば,政治学の分野では,平成の大合併前後に行われた市長選挙についての分析を行い,合併を行った市と行わなかった市の違いを当選者の属性から比較した平野\cite{hrn}の研究,合併が地方議会や議員の活動に対して与えた影響を856議員にアンケート調査することで分析を行った森脇\cite{mrwk}の研究などがある.また,経済学の分野では,「小規模自治体の多選首長は合併に消極的」という仮説を検証するために,全国の地方議員,首長の情報を人手で調査した川浦\cite{kwur,kwur2}の研究など,言語学の分野では,「去った○日」という表現(「去る○日」の意)が那覇市の会議録に見られることを指摘した井上\cite{inue},「めっちゃんこ」が名古屋市の会議録に見られることを指摘した山下\footnote{http://dictionary.sanseido-publ.co.jp/wp/2012/07/07/},形態素N-gramを用いて地方議会会議録の地域差を捉える方法について検討した高丸ら\cite{tkmr,tkmr1,tkmr2},発言者の出身地域とオノマトペの使用頻度についての分析を行った平田ら\cite{hrt}などの研究が存在する.情報工学の分野においても,特徴的な表層表現を手掛かりに国会会議録を対象とした自動要約を行った川端ら\cite{kwbt}や山本ら\cite{ymmt}の研究,住民の潜在的な関心を明確化するための能動的質問生成手法を提案した木村ら\cite{kim3}の研究などが存在し,海外でも,会議録中の発言を元にイデオロギーを分類するYuetal.\cite{bei}や,会議録で用いられている語句を可視化するGeodeetal.\cite{bart}などの研究が行われている.これらの研究を行う上で基礎となる会議録のデータであるが,国会の場合,国立国会図書館により会議録サイト\footnote{http://kokkai.ndl.go.jp/}が整備されており,第1回国会(昭和22年)以降のすべての会議録がテキストデータとして公開され,検索システムによって検索を行うことができる.一方で,地方議会会議録の場合,全ての自治体の会議録をまとめているサイトは存在せず,自治体ごとに参照する必要がある.加えて,自治体によりWeb上で公開されている形式が異なることが多いため,統一的に各自治体の会議録を扱おうとすれば収集作業や整形作業に労力がかかる.また,各研究者が重複するデータの電子化作業を個別に行っているといった非効率な状況も招いている.このような背景から,我々は地方政治に関する研究の活性化・学際的応用を目指して,研究者が利用可能な{\bf地方議会会議録コーパス}の構築を行っている.コーパスの構築にあたっては,木村ら\cite{kim1}や乙武ら\cite{ottk}において行われた,北海道の地方議会会議録データの自動収集や加工の技術を参考にし,全国の市町村の議会会議録を対象としたコーパス構築を行うこととした.地方議会会議録コーパスは,Web上で公開されている全国の地方議会会議録を対象として,「いつ」「どの会議で」「どの議員が」「何を発言したのか」を,発言に対して市町村や議会種別,年度や発言者名などの各種情報を付与することで構築し,検索可能な形式で収録する.また,近年,ヨーロッパではVoteMatch\footnote{http://www.votematch.net}と呼ばれる投票支援ツールが多くの利用者を獲得しており\cite{uekm,uekm2,kgm},日本でも「投票ぴったん\footnote{http://www.votematch.jpn.org/}」などの日本語版ボートマッチシステムが利用されていること,さらに平成25年4月19日から公職選挙法が一部改正され\footnote{http://http://www.soumu.go.jp/senkyo/senkyo\_s/naruhodo/naruhodo10.html},インターネットなどを利用した選挙運動のうち一定のものが解禁されたことなどから,我々は,地方議会会議録コーパスを用いて,会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムを最終的な目的としている.さて,地方議会会議録コーパスを構築すると,会議録を文字列や単語で検索することができるようになる.さらに,会議録の書誌情報や議員情報に基づいて簡単な注釈付けを行うことにより,年度や地域をまたいだ比較検討や,地域ごとの表現の差の分析などを行うことが可能となる.その一方で,我々が構築を目指しているシステムは利用者と政治的に近い議員を判断し利用者に提示するものであるため,会議録の書誌情報や発言議員名といった簡単な注釈付けのみでは議員の施策や事業に対する意見の判別を行うことができず不十分である.すなわち,議員の発言の中にある施策や事業に対する意見のように,下位構造が存在し,それらが結び付くことで一つの情報となるものに対しての分析を行うことは,会議録の文字列検索のみでは難しい.政治的な考えの近さは,一般に,施策や事業などへの賛否の一致度合いにより推測できると考えられ,上神ら\cite{uekm,uekm2,kgm}などのボートマッチシステムでも,この考え方に基づいている.さらに,議員の施策や事業に関する賛否の意見には,同じ賛成の立場をとる議員の間でもその賛成の度合いには差が存在している.例えば,「昨年度は○○などの事業に取り組んできた」と発言した議員と,「○○などの事業を行うのもやむを得ない」と発言した議員では,前者の方が既に自らが取り組んでいることを表明していることから,より積極的に賛成であると考えられる.積極的に賛成である議員の方が,消極的に賛成である議員よりも,彼らが賛成する施策や事業の実現に向けて尽力すると考えられるため,当該の施策や事業を実現してほしい利用者には,積極的に賛成である議員の方を提示することが望ましい.また,消極的に反対の意見を示している議員よりも,積極的に反対の意見を示している議員の方が,彼らが反対する施策や事業を廃止することに注力すると考えられるため,反対の立場を取る議員に対しても同様の考えが成り立つ.このように賛否に加えて積極性を考慮して,利用者と近い考えをもつ議員を判断する必要がある.以上の背景から,我々は,比較的簡単な処理により自動的に付与できるタグを地方議会会議録コーパス全体に付与するとともに,上記の政治情報システムの検討のために,会議録の一部に対して,議員の施策・事業に対する賛否とその積極性に関連する情報の注釈付けを行うこととした.本稿ではまず2節で関連研究について述べ,3節では地方議会会議録の収集及び地方議会会議録コーパスの構築について説明する.次に,4節では地方議会会議録コーパスの一部に対して我々が付与したタグの仕様や注釈結果の統計とその分析及び残された課題について述べる.最後に5節でまとめる.
V14N03-04
\label{sec:hajimeni}\subsection{背景}テキストデータからヒトの心理状態を抽出・分析する研究例は近年盛んに行われるようになっている.これは,ヒトの行動について,観測可能な形として外部に現れた行動結果だけでなく,評価・好き嫌い・満足・要求といった心理的な面を扱うニーズが高まっていることを反映している.筆者らは,交通行動,特に,経路選択行動の心理状態をことばによってモデル化することを試みている.交通行動分析の代表的な問題の捉え方の1つは,ある場所から別の場所に移動する際に経路や交通手段としていくつかの選択肢が挙がっており,その中から1つを選ぶというものであるが,交通行動分析においても同様に心理面のニーズが高まっている.従来の交通行動分析の主要な課題の1つは経済の急速な発展とともに増大する交通需要を量的に満たすという点であった.これを踏まえ,多くの場合,関心は選択の結果である行動に向けられており,行動結果が観測可能な形として現れた情報から分析を加えるというアプローチが多い.この場合,個人の行動の因果的背景は簡素化される\cite{Fujii2002}ことが多く,ヒトの心理的な側面に目が向けられることは少なかった.心理的な要素を扱うことがあっても,内部的な変数として表現されることが多かった.しかし,欧米諸国と同様に我が国も成熟社会を迎え,量的な需要を満たすだけでなく,心理的な側面や質的な側面に目を向ける必要性が高まっている.ヒトが多くの選択肢の中から1つを選択して行動に移る時には,何らかの心理的な思考過程を経ていると思われる.心理的な側面に着目することによって,なぜ選択したのかという因果関係や,ある選択肢を選択した場合でも何らかの不満を感じているかもしれないといったような,従来の方法では捉えることが難しかった未知の要素を発見するのに役立つと考えられる.選択理由に着目することの重要性は\citeA{Shafir1993}によって指摘されている.彼らは実験の結果,理由付けがなされることによって選択行動が行われる点もあることを見いだし,さらに,従来の数値的な行動モデルでは説明できない場合もあることを報告している.したがって,交通行動分析においても,選択肢の選択理由を直接捉えることが重要であると考えられる.\subsection{選択肢の選択プロセスの捉え方}いくつかの選択肢の中から1つを選ぶという行動は我々の生活の中でしばしば行われる.\pagebreakたとえば,ある商品を購入する場合には,いくつかの候補を挙げ,それぞれの特徴,評判,意見等を比較して最終的に1つを選ぶというプロセスを経ることが多い.このような,選択行動とそれに伴う心の状態を研究対象とする例はいくつか行われている.たとえば,\citeA{Tateishi2001}はある商品を購入する時の評判情報を分析しているが,評判情報を「ユーザの行動・意思決定に役立つ形式で意見をまとめたもの」と捉えている.したがって,選択行動をするに際しての,各選択肢の特徴となる情報をWeb等のテキストデータから抽出・分析することが評判情報や意見抽出等の研究例であると位置づけることができる.\begin{figure}[b]\begin{center}\begin{picture}(370,50)(0,10)\put(10,40){\framebox(70,20){交通空間}}\put(150,40){\framebox(70,20){認知結果}}\put(290,40){\framebox(70,20){選択・行動}}\put(80,50){\vector(1,0){70}}\put(220,50){\vector(1,0){70}}\put(80,25){\makebox(70,15){空間認知}}\put(80,10){\makebox(70,15){「認知する」}}\put(220,25){\makebox(70,15){意思決定}}\put(220,10){\makebox(70,15){「決める」}}\end{picture}\end{center}\caption{選択のプロセス}\label{fig:process}\end{figure}本稿で扱う交通行動分析における選択行動も同様の枠組みで捉えることができる\shortcite{Takao2004_HKSTS}.すなわち,\begin{enumerate}\item起点から終点に至る経路や交通手段が選択肢としていくつか存在するとき,\itemその中から1つを選択することである\end{enumerate}と考えられる.これに対応して,選択行動の心理的プロセスは2段階で捉えることができる(図\ref{fig:process}).第1段階は物理的な交通空間内の各選択肢の特徴や印象といった要素を意識・認識・認知するまでの段階で,いわば「認知する」段階である.認知した結果の要素を「認知結果」と呼ぶ.第2段階は,各選択肢の認知結果を評価して候補となる選択肢を取捨選択し,最終的な選択をする意思決定の段階で,いわば「決める」段階である.したがって,前述の評判情報や意見抽出等の研究は,第1段階に焦点を当てた研究であると位置づけることができる.これに対して,本研究では「決める」段階も含めて包括的に選択行動を捉えようとする点に立場の違いがある.第2段階の「決める」段階は意思決定のモデルで捉えることができる.意思決定モデルは補償型と非補償型に大別することができる\cite{Payne1976}.補償型の意思決定モデルは効用関数のようにある種の点数の足し算で選択肢の魅力を表現するモデルであり,非補償型の意思決定モデルは特定の属性によって選択肢を取捨選択するように表現するモデルである\footnote{\citeA{Shafir1993}も同様の分類を行っており,補償型は`formal,value-based',非補償型は`reason-based'に相当する.}.ヒトが選択行動を行う際は,何らかの理由を念頭に置いて選択肢の取捨選択を行うという思考プロセスを経ることが多いと考えられる.補償型モデルは行動結果を大局的に捉えようとする場合に便利であるのに対し,非補償型モデルは選択または非選択の根拠をモデルの中で明確に扱うため,選択理由を明示的に表現することができる.したがって,ヒトの論理的な思考プロセスを明らかにするには非補償型が適していると考えられるので,本研究では非補償型のモデルで分析を試みる.本研究の枠組みで選択行動を捉える場合,第2段階は\citeA{Tversky1972}のElimination-By-Aspects(EBA)の意思決定モデルで表現することができる.「アスペクト」\footnote{「アスペクト」の用語は本稿ではEBAのアスペクトを表す.}とは,ある状況を表す特徴,つまり,「遅い」「確実」のような,選択候補のいくつかの選択肢に共通して表れる認知結果を意味する.言い換えると,意思決定の段階をEBAに則って捉える場合,認知結果がEBAモデルのアスペクトに相当する\footnote{以下の文中ではEBAの処理に着目する場合は「アスペクト」,「認知する」段階の結果やデータ収集に着目する場合は「認知結果」と記す.}.EBAでは,意思決定は,着目しているアスペクトを各選択肢が持っているか否かによって候補を順に排除していくことで行われる.たとえば,「遅い」のが嫌な場合,「遅い」というアスペクトを持つ選択肢が候補から排除される.したがって,選択肢を直接選ぶのではなく,選ぶのはアスペクトであり,その結果選択肢が選択されるという捉え方である.\subsection{目的}\label{subsec:mokuteki}筆者らのこれまでの研究では,ことばとして表れた情報を,それぞれ個別に適切に捉えることができるかどうかに焦点を当ててきた.たとえば,\shortciteA{Takao2005_E,Takao2005_NLP}ではそれぞれの文に記述された認知結果を適切に抽出できるかどうか,\shortciteA{Takao2005_RON}では,「決める」段階における1回の取捨選択方略をそれぞれ個別に適切に捉えることができたかに着目した.この結果を踏まえ,本稿では,選択行動の「決める」段階の意思決定の過程を全体として捉え,「決める」プロセス全体の記述について検証し,情報処理を行う上での問題点を明確化する.すなわち,文や認知結果,取捨選択方略を個別に扱うのではなく,1選択行動を表すデータをひとまとめで扱い,提案手法の総合的な検証を行う.ただし,一般に,ヒトの心理状態は必ずしも完全な形ではことばに表れていないことに注意する必要がある.不完全な形のことばデータからは,これまでの研究で述べた手法をそのまま用いるだけでは正しい選択結果を記述できるとは限らない.したがって,不完全なことばのデータから「決める」プロセスの心理状態を扱うにはどのような課題があるのかを明確化する必要がある.そこで,できるだけ簡単な形で「決める」プロセスを表現したうえで,追加的な課題を発見し,その解決方法を考察することが本稿のもう1つの目的である.さらに,マーケティングへの利用という観点から言えば,選択肢に関する種々の評判や印象を単に抽出するだけでなく,選択や排除のきっかけとなった理由をピンポイントで抽出できれば,選択肢が選択されるための手がかりを効率的に得ることができる.そこで,単純な情報抽出だけではなく,EBAの意思決定モデルに則って問題を捉えることで,きっかけの理由が得られることを示す.本稿の構成は次の通りである.\ref{sec:kanren}章では関連研究を整理して本稿の立場を明確にする.\ref{sec:datacollect}章ではデータ収集方法について述べる.\ref{sec:ebaprocess}章では選択プロセスをEBAに則って表現する方法について述べる.\ref{sec:gyoukan}章では行間を読み取る方法について述べる.\ref{sec:kikkake}章では選択・削除されるきっかけの理由を捉える方法について述べる.最後に,\ref{sec:owarini}章で内容をまとめる.
V02N01-02
我々が目標とするのは,日本語の複文の理解システムである.このようなシステムにおいては,{\bfゼロ代名詞}の照応の解析が重要な問題となり,例えば「ので」「から」などで接続された複文におけるゼロ代名詞照応の解析は,構文論,意味論,語用論の総合的な利用が要求される.文献\cite{中川:複文の意味論,COLING94}では,複文中に設定される意味および談話役割を用いた制約条件という形でこの問題を取り扱うことが提案されている.これは,ゼロ代名詞と対応する役割(動作主,経験者など)だけではなく,語用論的な役割(観察者など)の照応にも言及する制約であり,これによって,意味論および語用論を統合した形での複文の意味解析が可能である.ところで,意味役割や語用論的役割の照応解析の結果は,役割間での照応関係という形で得られるが(例えば,``観察者=動作主''など),実際にそれらの役割がどのような対象を指示するかは文脈情報を利用しないと決定できない場合が多い.つまり,各役割を変数とみなした場合,変数の値が決定されているわけではないが,別の変数との関係づけがなされている,という情報を解析の途中および結果として扱う必要がある.このような場合に用いられる方法論の一つとして,制約論理プログラミング\cite{橋田:情報の部分性}が考えられる.この場合,変数の間の関係(同値関係など)をその変数の持つ制約とみなすことにより,適用が可能である.そこで,著者らは,まず形態素解析システムJUMAN\cite{松本:NewJUMANmanual}および構文解析システムSAX\cite{松本:NewSAXmanual}を用い,その結果得られる素性構造に制約論理プログラミングの手法を用いて,ゼロ代名詞照応などを分析する理解システムを構築した.この理解システムでは,プログラム変換の手法を用いた制約変換システム\cite{森:否定情報の扱える制約システム}を利用している.このシステムで扱える文は,例えば「花子が暑がったので窓を開けた.」など,文献\cite{中川:複文の意味論,COLING94}で扱った複文の一部であり,日本語文全体からみてもその対象は非常に限定されるが,文献\cite{中川:複文の意味論,COLING94}で扱われている他の文,例えば「叱られたので,反省文を書かせた.」,「病気で苦しかったのに,会社を休めなかった.」などについても,本論文で述べる手法により,処理が可能である.また,他の種類の複文,例えば「傷が痛いのなら,病院に行く.」など従属節が条件節になるような複文に関しても,節間の制約を適切に記述できれば,本論文での手法の応用は可能である.なお,本システムに類する研究であるが,まず,本システムで参考としているような日本語文の構造をもとにし,LFG(語彙機能文法)の枠組を用いて記述したシステムが,文献\cite{水野:日本語の文の構造}に述べられている.これは,日本語文の発話構造を叙述部分と陳述部分に分けて階層化し,それをLFGによって記述するものである.この構造は本論文で参考としている日本語の階層構造(後で述べる)に類似したものであり,さらに,その枠組上で複文の構造的な特徴についても議論がなされている.しかし,その検討の対象が構文解析のレベルに限定されており,本論文によるシステムで扱っているような,意味役割や語用論的役割の照応解析といったレベルまでは扱っていない点が異なる.また,名詞や代名詞の照応解析を対象とした研究としては,例えば,文献\cite{清水:日本語談話の照応解決}で,視点や焦点といった語用論的概念を用いた議論が,解析システムの構築を前提としてなされている.しかし,第一文の解析結果を用いて,第二文以降に現れる名詞や代名詞の照応解析を行なう,という議論がなされており,本論文で扱うような,従属節と主節という構造が一文中に現れるような場合の,その一文中での照応関係の解析を行なう,というものではない.
V15N03-01
今日,大学は社会に貢献することが求められているようになっている.特に,産業界と関係の深い学部においては産学連携が強く求められるようになってきている.そのような産学連携を活性化するためには大学側のシーズを専門用語によって簡単に検索できるシステムが望まれる.そこで,著者らは産学連携マッチングを支援する研究情報検索システムの研究を開始した.本研究では研究情報検索システムの主要要素である専門用語の抽出に取り組んでいる.対象分野としては専門用語による研究情報検索システムのニーズが高く,これまで研究がなされていない分野の1つである看護学分野を選択した.専門用語抽出の研究は情報処理分野を対象にした研究は盛んに行われている.しかしながら,一部の医学・基礎医学分野以外には他分野の専門用語抽出の研究は見当たらない.予備研究によって,病気の症状や治療法を表す専門用語が情報検索分野における代表的な専門用語の抽出方法では抽出が難しいことが判明した.そこで,専門用語になりうる品詞の組合せの拡張と一般的な語を除去することで専門用語抽出の性能改善を図った.以下,2章で従来研究とアプローチについて述べ,3章で提案手法,4章で実験及び評価,5章で考察と今後の課題について述べる.
V02N04-04
本論文では,話者の対象認識過程に基づく日本語助詞「が」と「は」の意味分類を行ない,これを,一般化LR法に基づいて構文解析するSGLRパーザ(沼崎,田中1991)の上に実装する.さらに,助詞「を」と「に」についても意味分類を行ない,パーザに実装する.そして,これらの意味分類の有用性を実験により確認した結果について述べる.話者の対象認識過程とは,話者が対象を認識し,それを言語として表現する際に,対象を概念化し,対象に対する話者の見方や捉え方,判断等を加える過程のことをいう.本研究の新規性は,次の3点である.1.三浦文法に基づいて,日本語の助詞「が」と「は」の意味規則,及び,「を」と「に」についての意味分類を考案したこと.2.この規則の動作機構をPrologの述語として記述し,日本語DCGの補強項に組み込んだこと.3.その規則をSGLRパーザに載せ,構文解析と意味解析の融合を図り,それにより,構文的曖昧性を著しく削減できることを示したことである.関連する研究としては,(野口,鈴木1990)がある.そこでは,「が」と「は」の用法の分類を,その語用論的機能と,聴者の解釈過程の特徴とによって整理している.本研究との相違は,(野口,鈴木1990)が聴者の解釈過程を考慮した分類であるのに対し,本研究では,話者の対象認識過程を考慮した分類である点,および,本研究がパーザへの実装を行なっているのに対し,(野口,鈴木1990)は,これを行なっていない点である.以後,2章では言語の過程的構造,3章では助詞「が」と「は」の意味分析,4章では助詞「が」と「は」のコア概念について述べる.5章では,助詞「が」と「は」の意味規則,および,助詞「を」と「に」の意味規則について述べる.6章ではパーザの基本的枠組,7章では試作した文法と辞書について述べる.8章ではSGLRパーザの実装について述べ,実験結果を示す.そして,9章では結論を述べる.
V09N05-01
自然言語処理においてchunk同定問題(chunking)とは,単語列(一般にこれをtoken列とよぶ)をある視点からまとめ上げていき,まとめ上げた固まり(chunk)をそれらが果たす機能ごとに分類する一連の手続きのことを指す.この問題の範疇にある処理として,英語の単名詞句同定(baseNPchunking),任意の句の同定(chunking),日本語の文節まとめ上げ,固有名詞/専門用語抽出などがある.また,各文字をtokenとしてとらえるならば,英語のtokenization,日本語のわかち書き,品詞タグ付けなどもchunk同定問題の一種としてとらえることができる.一般に,chunk同定問題は,文脈から得られる情報を素性としてとらえ,それらの情報から精度良くchunkを同定するルールを導出する手続きとみなすことができる.そのため,各種の統計的機械学習アルゴリズムを適用可能である.実際に機械学習を用いた多くのchunk同定手法が提案されている\cite{Ramshaw95,Tjong_Kim_Sang2000a,Tjong_Kim_Sang2000b,Tjong_Kim_Sang2000d,内元00,Sassano00b}.しかしながら,従来の統計的手法は,いくつかの問題がある.例えば,隠れマルコフモデルや最大エントロピー(ME)モデルは素性どうしの組み合わせ(共起関係)を効率良く学習できず,有効な組み合わせの多くは人手によって設定される.また多く機械学習アルゴリズムは高い精度を得るために慎重な素性選択を要求し,これらの素性選択も人間の発見的な手続きにたよっている場合が多い.一方,統計的機械学習の分野では,Boosting\cite{Freund96},SupportVectorMachines(SVMs)\cite{Vapnik95a,Vapnik98}等の学習サンプルと分類境界の間隔(マージン)を最大化にするような戦略に基づく手法が提案されている.特にSVMは,学習データの次元数(素性集合)に依存しない極めて高い汎化能力を持ち合わせていることが実験的にも理論的にも明らかになっている.さらに,Kernel関数を導入するとこで,非線形のモデル空間を仮定したり,複数の素性の組み合せを考慮した学習が可能である.このような優位性から,SVMは多くのパターン認識の分野に応用されている.自然言語処理の分野においても,文書分類や係り受け解析に応用されており,従来の手法に比べて高い性能を示している\cite{Joachims99,平2000,kudo2000b,kudo2000c,工藤02}本稿ではchunk同定問題として,英語の単名詞句のまとめ上げ(baseNPchunking)および英語の任意の句の同定(chunking)を例にとりながら学習手法としてSVMを用いた手法を述べる.さらに,chunkの表現方法が異なる複数の学習データから独立に学習し,それらの重み付き多数決を行うことでさらなる精度向上を試みる.その際,本稿では,各モデルの重みとしてSVMに固有の新たな2種類の重み付けの手法を提案する.本稿の構成は以下の通りである.2章でSVMの概要を説明し,3章で一般的なchunk同定モデルおよびSVMの具体的な適用方法,重み付け多数決の方法について述べる.さらに4章で実際のタグ付きコーパスを用いた評価実験を提示し,最後に5章で本稿をまとめる.
V04N01-02
label{sec:Intro}自然言語処理では,これまで書き言葉を対象として,さまざまな理論や技術が開発されてきたが,話し言葉に関しては,ほとんど何もなされてこなかった.しかし,近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.話し言葉の特徴は,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)である.例えば,(\ref{eq:Sentence1})には,(i)\,言い直し(「ほん」が「翻訳」に言い直されている),(ii)\,助詞省略(「翻訳」の後の格助詞「を」が省略されている)の2つの不適格性がある.\enumsentence{\label{eq:Sentence1}ほん,翻訳入れます.}書き言葉には見られないこれらの現象のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.したがって,不適格性を扱うための手法を確立することが,話し言葉を対象とした自然言語処理研究にとって必須である.特に,不適格性を扱うための手法をその他の言語解析過程の中にどのように組み込むかが,重要な課題となる.本稿では,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べる.不適格文を扱う手法の研究は,以下の3つのアプローチに大別できる.\begin{description}\item[A.不適格性を扱う個別的な手法]話し言葉に特有の不適格性を個別的な手法で扱う.言い直しを扱う手法\cite{Hindle:ACL83-123,Bear:ACL92-56,Nakatani:ACL93-46,佐川:情処論-35-1-46}や助詞省略を扱う手法\cite{山本:情処論-33-11-1322}がある.\item[B.不適格性を扱う一般的な手法]さまざまな不適格性を一般的なモデルに基づいて扱う.以下の2つのモデルに大別される.\begin{description}\item[B-1.二段階モデル(two-stagemodel)に基づく手法]まず,通常の適格文の解析手法で入力文を解析し,それが失敗した場合に,不適格性を扱うための処理を起動する.{\bf部分解析法}\cite{Jensen:CL-9-3-147,McDonald:ANLP92-193}や{\bf制約緩和法}\cite{Weischedel:CL-9-3-161,Mellish:ACL89-102}がある.\item[B-2.統一モデル(uniformmodel)に基づく手法]適格文と不適格文との間に明確な区別をおかず,両者を連続的なものととらえ統一的に扱う.{\bf優先意味論}に基づく手法\cite{Fass:CL-9-3-178}や{\bfアブダクション}に基づく手法\cite{Hobbs:AI-63-69}がある.\end{description}\end{description}本稿では,以下にあげる理由により,統一モデルに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item不適格文の処理はしばしば,適格文の処理と同等な能力を必要とする.例えば,言い直しを含む文において修復対象(言い直された部分)の範囲を同定するのは,適格文において従属節の範囲を決めるのと同じ難しさがある.したがって,不適格文を扱うために,従来適格文の処理に使われてきた手法を拡張して使えることが望ましい.\item不適格文と適格文が曖昧な場合がある.例えば,(\ref{eq:Sentence1})の「ほん」はたまたま「本」と同じ字面であるため,「本(に)翻訳(を)入れます」のような適格文としての解釈が可能になる.適格文と不適格文が統一的に扱えないと,このような曖昧性は解消できない.\item話し言葉(特に音声言語)の解析に必要な実時間処理は,不適格文を処理するのに二段階の過程を経る二段階モデルでは実現できない.これに対して,統一モデルでは,漸時的な処理が可能なので,実時間処理を実現しやすい.\item統一モデルは人間の言語処理モデルとしても妥当である.人間はしばしば,文の途中であっても不適格性が生じたことに気がつく.このことは,人間が適格文の処理と並行して,不適格性の検出のための処理を行なっていることを示唆する.\end{enumerate}統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.以下,まず\ref{sec:Ill-formed}\,節では,日本語の話し言葉におけるさまざまな不適格性を,音声対話コーパスからの実例をあげながら説明し,統一モデルの必要性を述べる.次に\ref{sec:Uniform}\,節で,本稿で提案する統一モデルに基づく話し言葉の解析手法を説明する.\ref{sec:Evaluation}\,節では,解析の実例をあげるとともに実験システムの性能を評価することで本手法の有効性を検討する.さらに,その適用範囲についても明らかにする.\ref{sec:Comparison}\,節では,従来の手法との比較を述べ,最後に,\ref{sec:Conclude}\,節でまとめを述べる.なお,話し言葉の解析を考える上で,音声情報の果たす役割は重要であるが,本稿では音声処理の問題には立ち入らない.
V02N02-01
高度な自然言語理解システムの実現のために,凝った言い回し,すなわち修辞表現を工学的に処理する手法の確立は,避けて通れない研究課題になっている.代表的な修辞表現である「比喩」は,隠喩,直喩,活喩,物喩,提喩,換喩,諷喩,引喩,張喩,類喩,声喩,字喩,詞喩の13種類に分類するのが一般的である\cite{Haga1990}.その中でも隠喩と換喩は,従来からとりわけ注目され\cite{Haga1990},工学の分野でもこの2種の比喩の解析の研究については,既に数多く行われている\cite{Doi1989,Iwayama1991,Utsumi1993,Suwa1994,Iwayama1992}.隠喩と換喩以外の比喩については,諷喩の固定したものである「諺」を検出するモデルが提案されている\cite{Doi1992}以外は,概して工学的処理の対象としてはまだあまり注目されていないといってよい.比喩の一つである「詞喩」は,「同音語など,ことばの多面性を利用してイメージの多重性をもたらす,地口や語呂合わせなどの遊戯的表現の総称」と定義され\cite{Nakamura1991},その中心が,同音異義語あるいは類音語を利用した「掛け言葉」にあるとされている\cite{Nakamura1977}.また「駄洒落」は中村によると,「掛け言葉の使用それ自体を目的として無意味な言葉を添える表現技法」と定義される\cite{Nakamura1991}.さらに尼ケ崎は,掛け言葉と駄洒落とを,成立の仕組みの上では同じものとして扱っている\cite{Amagasaki1988}.これらによると,詞喩と駄洒落との関係については種々の見方があるものの,駄洒落を詞喩表現の卑近な典型例として扱うことに異論は無いものと考えられる.北垣は,ヒューマンフレンドリーなコンピュータの開発という観点から,駄洒落情報を抽出するシステムを試作している\cite{Kitagaki1993}.しかしこれは,自然言語理解の観点から駄洒落の工学的解析に取り組んだ研究ではない.筆者らは,駄洒落を「地口」として扱い,その工学的検出法の検討を進めてきた\cite{Takizawa1989}.現在は検出から一歩進めて,駄洒落を理解するシステムの構築を目指している.その研究の一環として本稿では,記述された(即ち発話されたものでない)駄洒落を収集し,筆者らが「併置型」と呼ぶ駄洒落の一種について,音素上の性質を分析し,工学的処理機構を構成するために必要な知見を得た結果について報告する.
V03N02-02
インターネット上の電子ニュース(以下,ネットニュースと記す)は,誰もが自由に記事を投稿することができ,それがそのまま広く配布されるという特徴を持った,新しいマスメディアである.情報発信者が限られている従来のマスメディア(新聞,ラジオ,テレビ)と比べ,情報発信の機会を広くに解放した点で,ネットニュースはマスメディアの新しい可能性を開いたが,逆に,情報発信者の拡大による情報の洪水と情報(テキスト)品質の多様化という新しい現象を引き起こしつつある.このため,求める情報を簡単に見つけることができなくなりつつある.我々は,この問題を解決する方策として,ダイジェストに注目している\cite{Madoka-master-94,Madoka-ipsj-conf-94,Madoka-ipsj95}.ダイジェストとは,元となる情報の特質をコンパクトにまとめて情報の種類別に整理したものであり,我々が大量の情報に接する際に効果的なナビゲーション機能を果たす.既存のダイジェストは,人手で編集されたものがほとんどであるが,はじめからオンラインテキストとして存在するネットニュースでは,このダイジェスト作成を完全に自動化することが可能である.我々は,既に,ネットニュースのダイジェスト自動生成の1つのプロトタイプとして,fj.meetingsのダイジェスト自動生成システムを作成し,実際に運用している\footnote{\verb+http://www.jaist.ac.jp/\~{}sato/nnad/home-j.html+}.本研究では,その次のステップとして,fj.wantedのダイジェスト自動生成について検討した.fj.wantedは,fj.meetingsとは異なり,かなり多様な投稿者が,多様なテキスト品質の記事を投稿しており,fj.meetingsのダイジェスト自動生成で用いた手法とは異なった手法が必要となる.
V06N07-02
日本語の長文で一文中に従属節が複数個存在する場合,それらの節の間の係り受け関係を一意に認定することは非常に困難である.また,このことは,日本語の長文を構文解析する際の最大のボトルネックの一つとなっている.一方,これまで,日本語の従属節の間の依存関係に関する研究としては,\cite{Minami73aj,Minami93aj}による従属節の三階層の分類がよく知られている.\cite{Minami73aj,Minami93aj}は,スコープの包含関係の狭い順に従属節を三階層に分類し,スコープの広い従属節は,よりスコープの狭い従属節をその中に含むことができるが,逆に,スコープの狭い従属節が,よりスコープの広い従属節をその中に含むことはできないという傾向について述べている.さらに,\cite{FFukumoto92aj,SShirai95bj}は,計算機による係り受け解析において\cite{Minami73aj,Minami93aj}の従属節の分類が有用であるとし,その利用法について提案している.特に,\cite{SShirai95bj}は,計算機による係り受け解析における有効性の観点から,\cite{Minami73aj,Minami93aj}の従属節の三階層の分類を再構成・詳細化し,また,この詳細な従属節の分類を用いた従属節係り受け判定規則を提案している.これらの研究においては,人手で例文を分析することにより従属節の節末表現を抽出し,例文における従属節の係り受け関係の傾向から,従属節の節末表現を階層的に分類している.しかし,人手で分析できる例文の量には限りがあるため,このようにして抽出された従属節節末表現は網羅性に欠けるおそれがある.また,人手で従属節節末表現の階層的分類を行う際にも,分類そのものの網羅性に欠ける,あるいは分類が恣意性の影響を受けるおそれが多分にある\footnote{実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(約21万文)に対して,\cite{SShirai95bj}の従属節係り受け判定規則のうち,表層的形態素情報の部分を用いて従属節の係り受け関係の判定を行った結果,約30\%のカバレージ,約80\%の適合率という結果を得ている\cite{Nishiokayama98aj}.}.そこで,本論文では,大量の構文解析済コーパスから,統計的手法により,従属節節末表現の間の係り受け関係を判定する規則を自動抽出する手法を提案する.まず,大量の構文解析済コーパスを分析し,そこに含まれる従属節節末表現を網羅するように,従属節の素性を設定する.この段階で,人手による例文の分析では洩れがあった従属節節末表現についても,これを網羅的に収集することができる.また,統計的手法として,決定リストの学習の手法~\cite{Yarowsky94a}を用いることにより,係り側・受け側の従属節の形態素上の特徴と,二つの従属節のスコープが包含関係にあるか否かの間の因果関係を分析し,この因果関係を考慮して,従属節節末表現の間の係り受け関係判定規則を学習する.そこでは,従属節のスコープの包含関係の傾向に応じて従属節節末表現を階層的に分類するのではなく,個々の従属節節末表現の間に,スコープの包含関係,言い換えれば,係り受け関係の傾向が強く見られるか否かを統計的に判定している.また,人手によって係り受け関係の傾向を規則化するのではなく,大量の係り受けデータから自動的に学習を行っているので,抽出された係り受け判定規則に恣意性が含まれることはない.本論文では,実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(構文解析済,約21万文)から従属節係り受け判定規則を抽出し,これを用いて従属節の係り受け関係を判定する評価実験を行った結果について示す.また,関連手法との実験的比較として,従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}と本論文のモデルとの違いについて説明し,従属節間の係り受け解析においては,従来の統計的係り受け解析モデルに比べて本論文のモデルの方が優れていることを示す.同様に,従属節間の係り受けの判定に有効な属性を選択する方法として,決定木学習\cite{Quinlan93a}により属性選択を行う手法\cite{Haruno98cj}と,本論文で採用した決定リスト学習の手法\cite{Yarowsky94a}を比較し,本論文の手法の優位性を示す.さらに,推定された従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用することにより,統計的文係り受け解析の精度が向上することを示す.
V17N01-08
label{introduction}テキストの評価は,自動要約や機械翻訳などのようなテキストを生成するタスクにおいて手法の評価として用いられるだけでなく,例えば人によって書かれた小論文の自動評価\cite{miltsakaki2004}といったように,それ自体を目的とすることもある.言語処理の分野においては前者のような手法評価の観点からテキスト評価に着目することが多く,例えば自動要約の評価で広く用いられているROUGE\cite{lin2003,lin2004}や機械翻訳で用いられているBLEU\cite{papineni2002}のような評価尺度が存在している.これらの評価手法は特に内容についての評価に重点が置かれている.つまり,評価対象のテキストが含んでいなければならない情報をどの程度含んでいるかということに焦点が当てられている.しかし,実際にはテキストは単に必要な情報を含んでいれば良いというわけではない.テキストには読み手が存在し,その読み手がテキストに書かれた内容を正しく理解できなければ,そのテキストは意味をなさない.読み手の理解を阻害する原因には,難解な語彙の使用,不適切な論理展開や文章の構成などが挙げられる.これらはテキストの内容に関する問題ではなく,テキストそのものに関する問題である.従って,テキストの内容が正しく読み手に伝わるかどうかを考慮するならば,その評価においては内容に関する評価だけでなく,テキストそのものについての評価も重要となる.テキストそのものについての性質のうち,テキスト一貫性\cite{danwa}とは文章の意味的なまとまりの良さであり,例えば因果関係や文章構造などによって示される文同士の繋がりである.意味的なまとまりが悪ければ,テキストの内容を読み手が正確に理解することが困難になると考えられる.このことから一貫性の評価はテキストの内容が正しく伝わることを保証するために必要であると言える.また,テキスト一貫性が評価できるようになると,テキストを生成するシステムにおいて,例えば,一貫性が良くなるように文章を構成したり,一貫性の観点からの複数の出力候補のランク付けが可能となり,出力するテキストの質を高めることができる.テキスト一貫性は局所的な一貫性と大域的な一貫性という2種類のレベルに分類できる.局所的な一貫性とは相前後する2文間における一貫性であり,大域的な一貫性とは文章における話題の遷移の一貫性のことである.一貫性の評価に関しては,この局所的な一貫性と大域的な一貫性の両方についてそれぞれ考えることができるが,局所的な一貫性は大域的な一貫性にとって重要な要素であり,局所的な一貫性の評価の精度の向上が大域的な一貫性の評価に影響すると考えられる.以上のことから,本論文では,テキスト一貫性,特に局所的な一貫性に焦点を当て,この観点からのテキストの評価について述べる.テキストの性質について,テキスト一貫性と並べて論じられるものにテキスト結束性\cite{halliday1976}がある.これは意味的なつながりである一貫性とは異なり,文法的なつながりである.一貫性が文脈に依存しているのに対し,結束性は脱文脈的で規則的な性質である\cite{iori2007}.テキスト結束性に寄与する要素は大きく参照\footnote{代名詞の使用や省略は参照に含まれる.},接続,語彙的結束性\footnote{同じ語の繰り返しは語彙的結束性に含まれる.}に分けられる.これらはテキストの表層において現れる要素である.一貫性は先に述べたように意味のまとまりの良さであり,これに寄与する要素は明示的な形では現れない.一貫性と結束性はどちらもテキストのまとまりに関する性質であり,それぞれが独立ではなく互いに関係している.従って,テキストの表層に現れる,結束性に関係する要素である接続表現や語彙的結束性を一貫性モデルにおいても考慮することで性能の向上が期待できる.2章で述べるように,局所的な一貫性に関する研究はテキスト中の隣接する文間の関係を単語の遷移という観点から捉えているものが多い.その中でもBarzilayら\cite{barzilay2005,barzilay2008}の研究は,この領域における他の研究において多く採用されているentitygridという表現を提案しており,先駆的な研究として注目に値する.しかし,3章で詳述するように,このモデルでは要素の遷移の傾向のみ考慮しており,テキストのまとまりに関係している明示的な特徴はほとんど利用されていない.そこで本論文では4章で詳述するように,一貫性モデルに結束性に関わる要素を組み込むことによって,結束性を考慮に入れた局所的な一貫性モデルを提案する.
V14N03-11
テキスト対話における対話者の情緒\footnote{心理学ではemotionの訳語に「情緒」や「情動」を用いる.emotionは,feeling(訳語は「感情」)より狭い意味である.本稿では,機械処理の立場から\cite{徳久&岡田98}にならい,「情緒」という用語を用いる.}を分析する上で,情緒タグ付きテキスト対話コーパスが必要とされている.通常,言語表現と話者の情緒との間には,必ずしも直接的な対応関係が存在するとは限らず,多義が存在する場合が多いため,対話文に内包された情緒を言語表現のみによって正しく判定することは難しい.したがって,音声や表情などの言語外情報が欠けているテキスト対話に対して,情緒のタグを付与しようとすると,付与するタグの種類やタイミングが付与作業者によって異なってしまうという「タグ付与の不安定さ」が問題となる.そのため,情緒タグの付与には可能な限り言語外情報の付随する対話を対象とすることが望まれる.音声の持つ言語外情報を活用する方法は,既に多くの研究で試みられており,音声対話においては安定性の高いタグ付与が可能であることが示されている.たとえばLitmanらは,チュータリングの対話における感情予測を実現する際に,音声対話コーパスにPositive,Neutral,Negativeの3分類の感情タグを付与したところ,2人の付与者間の感情タグの一致率は81.75\%($\kappa=0.624$)であったと報告している\cite{Litman03}.音声以外の言語外情報として表情に注目すると,漫画における対話シーンの利用可能性が考えられる.漫画は漫画家により創作された対話であるので,人間同士の対話を直接記録した対話データではない.しかし,研究目的に依っては漫画の対話が研究対象として受け入れられる場合がある.漫画家は人間同士の対話,表情,心境などについての観察能力に秀でており,読者に自然に受け入れられるように漫画に描き込むことができるので,漫画内での出来事は空想ではあるがそれ以外の部分,すなわち,登場人物の口調,人物間の交渉などの談話展開は常識的であるし,その間の人物の喜怒哀楽といった心境は読者にとって納得のいくように描かれている.口調や談話展開,心境については,現実の対話を日記として記述した場合と同じような現実味があるといえるだろう\footnote{ただし,漫画の表情は読者に登場人物の心境を伝えるために誇張して描かれている可能性があるので,表情そのものを研究の対象とする場合は注意が必要である.なお,口調も特殊な表現が使われるが,登場人物の個性を表すものの場合,その人物について区別すれば,分析全体への影響は大きくならない.}.ゆえに,漫画は,情緒と言語表現の関係を分析する上で有効な言語資源となりうる可能性がある.漫画の表現や理解に関する研究として,中澤は,幼児から中学生までが漫画における「人物絵」,「表情」,「形喩」,「吹き出し表現」,「音喩」,「コマの感情」についてを読み取る能力を調査したところ,表情理解とコマの感情理解に関して,相対的に複雑な「心配,不安」については正答率は低いが,相対的に明確な「嬉しさ,怒り,悲しさ,悔しさ,楽しさ,寂しさ」については正答率が70\%を超えていたと報告している\cite{中澤05}.また,遠藤らは,漫画の修辞的技法について認知科学的な立場からの分析の枠組みを示すために,「時間」,「叙法」,「態」,「描写の焦点」,「コマの言説」に着目し,ハイパーコミックを構築した\cite{遠藤&小方03}.中澤により漫画から安定して感情を読み取ることの可能性は示された.しかし,資源の構築という面からは,遠藤らのような全般的な資源としての蓄積例はあるものの,感情に特化した言語資源として構築した例はなく,漫画を対象に構築した言語資源にどれだけの信頼性があるのかは明確ではない.そこで,本稿では,漫画を対象とした情緒タグ付きテキスト対話コーパスを構築し,その信頼性を評価することを目的とする.コーパスの信頼性として,本稿で注目する点は次の通りである.\begin{itemize}\item{\bf安定性:}主観的な判断で付与されるタグであるが,作業者に依存する揺らぎが抑えられているか.\begin{description}\item{\bf(1)一致率:}コーパス構築の途中段階で一時的に付与される情緒タグにおける作業者間の一致の割合\item{\bf(2)同意率:}コーパス構築の最終段階で決定される情緒タグについて,作業者以外の者から得られる同意の割合\end{description}\item{\bf有効性:}構築したコーパスは言語分析に使用する価値があるか.\end{itemize}これらを評価することを念頭に,本稿は次のことを行う.1)漫画の表情を参照しながら,1話につき2人の作業者が一時的な情緒タグを付与する.その結果より一致率を評価する.その結果は関連研究と比較し,そして,表情を参照しない場合と比較する.2)一時的な情緒タグを作業者の協議により選別・修正し,正解とする情緒タグを決定する.その結果を別の者が検査して,同意率を評価する.3)台詞と情緒タグの共起に基づき「情緒表現性のある文末表現」をコーパスから抽出するという試行的な実験を行う.漫画を対象としたコーパスであっても,自然で情緒的な文末表現が得られるかどうかによって,有効性を判断する.これらの評価を通じて,漫画に登場する人物の表情を情緒の判定に用いることの可能性と,それを利用した情緒タグ付与方法の信頼性を確認する.
V10N04-06
\label{sec:intro}\thispagestyle{empty}機械翻訳,言語横断的な検索や要約など複数の言語を同時に扱うシステムにおいて対訳辞書は必要不可欠であり,その品質がシステム全体の性能を左右する.これらに用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には限界があり,品質を向上するためには膨大な労力が必要であること,辞書の記述の一貫性を保つことが困難であることが問題となる.このことからコーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている~\cite{tanaka_96,kitamura_97,melamed_97,yamamoto_01,kaji_01}.しかし,これらの研究の多くは対訳表現の対応度の計算に単語の共起関係を利用しているためにデータスパースネスに陥りやすく,そのため小規模なコーパスから対訳表現を抽出することは難しい.対訳コーパス自体があまり多くない現状では,小規模な対訳コーパスからでも対訳表現を抽出できることが望ましい.本論文では,サポートベクタマシン~\cite{vapnik_book_99}を用いて文対応付き対訳コーパスから対訳表現を抽出する手法を提案する.サポートベクタマシンは訓練事例と分割境界の距離(マージン)を最大化する戦略に基づく手法であり,従来からある学習モデルに比べて汎化能力が高く過学習しにくいために,データスパースネスに対して頑健であるという特徴を持つ.さらにカーネル関数を用いることによって非線形な分割境界を学習したり,素性同士の依存関係を自動的に学習することが可能である.このため,自然言語処理の分野でもテキスト分類~\cite{joachims_98,taira_99},Chunk同定~\cite{kudo_00b},構文解析~\cite{kudo_00a}などに応用されている.我々の手法は,訓練コーパスによって対訳モデルをあらかじめ学習する必要があるが,一旦モデルを学習してしまえば,訓練コーパスにおいて出現回数が少ない対訳表現あるいは訓練コーパスにおいて出現しなかった対訳表現でさえも抽出することができる.したがってある程度大規模な対訳コーパスから優れた対訳モデルを学習しておけば,サポートベクタマシンの高い汎化能力によって低頻度の対訳表現でも抽出が可能であるという特徴を持つ.本論文の構成は以下の通りである.\ref{sec:svm}~節ではサポートベクタマシンについて説明し,\ref{sec:SVMdict}~節ではサポートベクタマシンを用いて対訳表現を抽出する手法を述べる.\ref{sec:experiment_discussion}~節では我々が提案した手法の有効性を示すために行った実験の結果とそれに対する考察を述べる.\ref{sec:related_works}~節において関連研究との比較を行う.最後に\ref{sec:conclusion}~節で本論文のまとめを述べる.
V22N05-04
述語項構造は,文章内の述語とその項の間の関係を規定する構造である.例えば次の文,\eenumsentence{\item[][太郎]は[手紙]を{書い}た。}では,「書く」という表現が述語であり,「太郎」と「手紙」という表現がこの述語の項である.述語と項の間の関係は,それぞれの項に,述語に対する役割を表すラベルを付与することで表現される.役割のラベルは解析に用いる意味論に応じて異なるが,例えば表層格を用いた解析では,上記の「太郎」には「ガ格」,「手紙」には「ヲ格」のラベルが与えられる.このように,文章中の要素を述語との関係によって構造的に整理する事で,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解に重要な情報を抽出することができる.このため,述語項構造の解析は機械翻訳,情報抽出,言い換え,含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている\cite{shen2007using,liu2010semantic}.\begin{table}[b]\caption{NAISTテキストコーパス1.4b上での精度比較(F値)}\label{tb:system-accracy-comparison}\input{04table01.txt}\par\vspace{4pt}\smallただし,既存研究のデータセットはそれぞれ訓練,評価に用いた事例数が異なっており,厳密な比較を行うことは難しい.\end{table}述語項構造解析の研究は,英語に関するコーパス主導の研究に追随する形で,日本語においても2005年以降に統計的機械学習を用いた手法が盛んに研究され,これまでに様々な解析モデルが提案されてきた.表\ref{tb:system-accracy-comparison}は,今日までの日本語の述語項構造解析に関する研究報告における主要な解析器の精度をまとめたものである.表には,新聞記事に対する解析精度(F値)を,(1)述語(もしくはイベント性名詞.以下,これらを併せて述語と呼ぶ)の項となる文字列が述語と同一文節内にある事例(文節内事例と呼ぶ),(2)述語の項となる文字列と述語の間に直接的な統語係り受け関係が認められる事例(係り有り事例と呼ぶ),(3)述語の項となる文字列が文内に現れるものの,述語との間に直接的な統語係り受け関係が認められない事例(文内ゼロ照応事例と呼ぶ),(4)述語の項となる文字列が文の外に現れている事例(文間ゼロ照応事例と呼ぶ)の別に記した.なお,「文節単位」は項として適切な文字列表現の最右の形態素が含まれる文節を正解の範囲として評価したものであり,「形態素単位」はその最右の形態素を正解の範囲として評価したものである.既存の解析器では直接係り受け関係がある比較的容易な事例においては$90\%$弱と高い精度が得られているものの,統語的な手がかりがより希薄となるゼロ照応の事例においては,文内ゼロ照応で$50\%$弱,文間ゼロ照応で$20\%$前後\footnote{いずれも正解の述語位置と統語係り受け構造を与えた場合}と精度が低い水準にとどまっており,解析の質に大きな開きがあることが認められる.この結果は,日本語ゼロ照応解析の高い難易度を物語っているが,一方で,ゼロ照応の問題がタスク全体に占める割合は十分に大きく無視できない.表~\ref{tbl:instances-ntc1.5}には,標準的な訓練・評価用コーパスであるNAISTテキストコーパス(NTC)1.5版における項の数\footnote{言語処理学会第21回年次大会ワークショップ「自然言語処理におけるエラー分析」\cite{eaws-2015}の述語項構造解析班報告~\cite{eaws-pas-2015}において提案された評価手法と同様の前処理を施した後の数.外界照応は,何らかの要素を指していることは明らかだが,その要素が文章中に出てきていない事例を表す.}を示したが,ここから項構造解析全体の約$40\%$はゼロ照応に関わる問題であることが分かる.したがって,述語項構造解析の研究ではこれら省略された項の解析精度をいかに向上させるかが課題となる.\begin{table}[b]\caption{NAISTテキストコーパス1.5内の各ラベルの事例数}\label{tbl:instances-ntc1.5}\input{04table02.txt}\end{table}しかし,「ゼロ照応の問題」と一括りに言っても,並列構造や制御動詞構文など比較的統語的な現象として説明可能なものから,文脈や談話構造を読み解かなければならないもの,基本的な世界知識を手がかりに推論しなければならないものなど様々であるにもかかわらず,現状では既存のシステムがどのような種類の問題を解くことができ,あるいは解くことができないのかについて明確な知見が得られていないばかりでなく,現象の分布すら知られていない.そこで,我々はこの難解な項の省略解析へ適切にアプローチするために,現象の特徴を出来る限り詳細に分析し把握することを試みる.本稿では,ゼロ照応に関する事例のうち,手始めに探索のスコープが比較的短く,様々な統語的パターンが観測できる文内ゼロ照応の問題に的を絞り,各事例が持つ特徴を構文構造分析と人手による手がかり分析という二つの観点から類型化し,カテゴリごとの分布と最先端システムによる解析精度を示す.具体的には以下の二つの方法で分析を進め,今後の研究で注力すべき課題を考慮する際の参考となるべく努めた.本研究の成果は次のとおりである.(1)文内ゼロ照応の事例において,既存の解析モデルがモデル化している述語間の項の共有関係・機能動詞構文・並列構造といった特徴が,実際の問題にどの程度影響があるかを確かめるために,NTCや京都大学テキストコーパス(KTC)の正解アノテーション情報を利用してこれらの特徴を持つ事例を機械的に分類し,各カテゴリの事例数や現状の解析精度,各カテゴリが理想的に正答できた場合の精度上昇幅等を示した.結果として,特に,対象述語Pと,項と直接係り受け関係にある述語Oとの間で項を共有している事例の割合が文内ゼロ照応全体の$58\%$存在することが分かったほか,これらの中には,PとOが直接的な並列構造や機能動詞構文の形になっているものばかりでなく,局所的な構造の組み合わせによって解が導かれる事例が一定数存在することが分かった.(2)同様に,文内ゼロ照応の事例についてコーパスより抽出した少量のサンプルを用いて,人間が正解を導き出す場合にどのような手がかりを用いるかについてアノテータの内省をもとに分析し,考えられうる手がかりの種類を列挙するとともに,その分布を示した.手がかりの種類を幅広く調査するため,従来より解析器の学習・評価に用いられているNTCに加えて,多様なジャンルの文章を含む日本語書き言葉均衡コーパス(BCCWJ)に対する述語項構造アノテーションデータからもサンプルを収集した.この結果,手がかりの種類とその組み合わせに関する分布が大きな広がりを持っていることが明らかとなった.また,手がかりの組み合わせに関する性質として,それぞれの手がかりが独立に項候補の確信度を上げるように働くものに加えて,(1)の分析で得られた知見と同様に,機能動詞や述語間の意味的なつながりを考慮すべきものなど,局所的な解析結果を順を追って重ねていくことで初めて項候補の推定に寄与する種類の事例も多く存在することが明らかとなった.加えて,それぞれの手がかりを用いる事例に対する既存システムの解析精度より,既存のモデルは統語構造や選択選好を用いる事例に関しては相対的に高い解析精度を示すものの,世界知識や文脈を読み解く必要がある事例や,その他未だ一般化されていない雑多な手がかりを用いる事例に関しては低い精度にとどまっていることが分かり,これらの現象に対する解析の糸口を模索していく必要があることを明らかにした.
V05N04-03
label{はじめに}\subsection{複合名詞解析とは}\label{複合名詞解析とは}複合名詞とは,名詞の列であって,全体で文法的に一つの名詞として振る舞うものを指す.そして,複合名詞解析とは,複合名詞を構成する名詞の間の依存関係を尤度の高い順に導出することである.複合名詞は情報をコンパクトに伝達できるため重要な役割を果たしており,簡潔な表現が要求される新聞記事等ではとりわけ多用される.そして,記事中の重要語から構成される複合名詞は,記事内容を凝縮することさえ可能である.例えば,「改正大店法施行」という見出しは,「改正された大店法(=大規模小売店舗法)が施行される」ことを述べた記事の内容を一つの名詞に縮約したものである.そして,このことを理解するためには,{大店法,改正,施行}が掛かり受けの構成要素となる単位であることと,これら3単語間に[[大店法改正]施行]という依存関係があることを理解する必要がある.複合名詞解析の確立は,機械翻訳のみでなく,インデキシングやフィルタリングを通して,情報抽出・情報検索等の高度化に貢献することが期待される.\subsection{従来の手法}\label{従来の手法}日本語の複合名詞解析の枠組みは,基本的に,\begin{itemize}\item[(1)]入力された文字列を形態素解析により構成単語列に分解する.\item[(2)]構成単語列間の可能な依存構造の中から尤度の高いものを選択する.\end{itemize}の二つの過程からなり,この限りでは通常の掛かり受け解析と同一である.異なる点は,品詞情報だけでは解析の手がかりとならないため,品詞以外の情報を利用せざるを得ない点である.品詞以外の手がかりを導入する方法としては,まず人手により記述したルールを主体とする手法が用いられ,大規模なコーパスが利用可能になるにつれ,コーパスから自動的に抽出した知識を利用する手法が主流となってきた.第一の段階である語分割の過程は,通常の形態素解析の一環でもあるが,特に複合名詞の分割を意識して行われたものとして,長尾らの研究\cite{長尾1978}がある.そこでは,各漢字の接頭辞・接尾辞らしさを利用したルールに基づく複合名詞の分割法が提案され\breakており,例えば長さ8の複合名詞の分割精度は84.9\%と報告されている.複合名詞の構造決定に\breakついては述べられていないが,長さ3,4,5,6の複合名詞について深さ2までの構造が人手で調べられている.それによれば,調べられた240個の長さ5の複合名詞については接辞を含んだ構\break造が完全に示されており,その59\%は左分岐構造をとっている.その後宮崎により、数詞の処理,固有名詞処理,動詞の格パターンと名詞の意味を用いた掛かり受け判定等に関する14種類のルールを導入する等、ルールを精緻化し,更に,「分割数が少なく掛かり受け数が多い分割ほど優先する」等のヒューリスティクスを導入することにより,未登録語が無いという条件の下で,99.8\%の精度で複合語の分割を行う手法が提案された\cite{宮崎1984}.コーパスに基づく統計的な手法では,分かち書きの一般的な手法として確率文節文法に基づく形態素解析が提案され\cite{松延1986},ついで漢字複合語の分割に特化して,短単\break位造語モデル(漢字複合語の基本単位を,長さ2の語基の前後に長さ1の接頭辞・接尾辞がそれ\breakぞれ0個以上連接したものとする)と呼ばれるマルコフモデルに基づく漢字複合語分割手法が提案された\cite{武田1987}.確率パラメータは,技術論文の抄録から抽出した長さ2,3,4の連続漢字列を用いて繰り返し法により推定し,頻出語について正解パターンを与える等の改良により,97\%の分割精度を達成している(全体の平均文字長は不明).次の段階である分割された単語の間の掛かり受けの解析についても,ルールに基づく枠組みと,コーパスに基づく枠組み双方で研究されてきた.前者の枠組みとして,宮崎は語分割に関する研究を発展させ,掛かり受けルールの拡充とこれらの適用順序の考慮により,限定された領域については,未知語を含まない平均語基数3.4の複合名詞167個について94.6\%の精度を達成している\cite{宮崎1993}.なお,英語圏でのルールに基づく研究としてはFinin\cite{Finin1980},McDonald\cite{McDonald1982},Isabelle\cite{Isabelle1984}等の研究があるが,シソーラス等の知識に基づくルールを用いる点は同様である.ルールに基づく手法の利点は,対象領域を特化した場合,人手による精密なルールの記述が可能となるため,高精度な解析が可能になることである.しかし,ルール作成・維持にコストがかかることと,一般に移植性に劣る点で,大規模で開いたテキストの取り扱いには向かないといえる.コーパスに基づく手法では,人手によるルール作成・メンテナンスのコストは削減できるが,名詞間の共起のしやすさを評価するために,単語間の共起情報を獲得する必要がある.しかし,共起情報の信頼性と獲得量が両立するデータ獲得手法の実現は容易ではなく,さまざまな研究が行われている.一般には,共起情報を抽出する対象として,何らかの固定したトレーニングコーパスを用意し,適当な共起条件に基づいて自動的に名詞対を取り出す.そのままでは一般に名詞対のデータが不足するので,観測されない名詞対の掛かり受け尤度を仮想的に得るため,名詞をシソーラス上の概念や,共起解析により自動的に生成したクラスタに写像し,観測された名詞間の共起を,そのようなクラス間共起として評価する.例えば,西野は共起単語ベクトルを用いて名詞をクラスタリングし,名詞間の掛かり受けの尤度をクラス間の掛かり受け尤度として捉えた\cite{西野1988}.小林は分類語彙表\cite{林1966}中の概念を利用して,名詞間の掛かり受けの尤度を概念間の掛かり受け尤度により評価した\cite{小林1996}.これらを掛かり受け解析に適用するためには,一般に,複合名詞の掛かり受け構造を二分木で記述し,統計的に求めた名詞間の掛かり受けのしやすさを,掛かり受け構造の各分岐における主辞間の掛かり受けのしやすさとみなし,それらの積算によって掛かり受け構造全体の確からしさを評価する手法が取られる.西野の手法では,平均4.2文字の複合名詞について73.6\%の精度で正しい掛かり受け構造が特定できたと報告されている.小林は,名詞間の距離に関するヒューリスティクスと併用することにより,シソーラス未登録語を含まない,例えば長さ6文字の複合名詞について,73\%の解析精度を得ている.なお英語圏では,Lauerが小林とほとんど同じ枠組みで3語からなる複合名詞解析の研究を行っており\cite{Lauer1995},Rogetのシソーラス(1911年版)を用いて,Gloria'sencyclopediaに出現する,シソーラス未登録語を含まない3語よりなる複合名詞について,81\%の解析精度を得ている.(ただし,小林,Lauerとも,概念間の共起尤度に加え,主辞間の距離や左分岐構造を優先するヒューリスティクスを併用している).以上を総括すると,従来のコーパスに基づく複合名詞解析の枠組みは,固定したトレーニングコーパスを用い,クラス間共起という形で間接的に名詞の共起情報を抽出することにより,掛かり受け構造の推定を行っていたといえる.この場合に生じる問題は,クラスへの所属が不明な単語を扱うことができないことである.例えば新聞記事のような開いたデータを扱う場合には,形態素解析辞書への未登録単語が頻出するばかりでなく(この場合,形態素解析の段階で誤りが発生するため,正解は得られない),形態素解析辞書へ登録されていてもシソーラスに登録されていない単語が出現する可能性があり,解析の際には問題となる.実際,我々が実験に用いた400個の複合名詞中,形態素解析用の辞書または分類語彙表に登録されていない単語を含むものは120個に上った(うち形態素解析辞書未登録語は48個).未登録語の問題は,未登録語の語境界,品詞,所属クラスを正しく推定することができれば解決可能であるが,現時点では,これらについて確立した手法は無い.特に,語の所属クラス推定のためには,与えられたコーパス中でのその語の出現環境を得ることが必要となるため,なんらかの形でコンテクストの参照が必要となる.すなわち,あらかじめ固定したデータのみを用いて解析を行う枠組みでは,開いたコーパスを扱うには限界がある.\subsection{本論文の目的}\label{本論文の目的}本論文では,「あらかじめ固定されたデータのみを用いて解析する」という従来の枠組に対して,「必要な情報をオン・デマンドで対象コーパスから取得しながら解析する」という枠組を提唱し,その枠組における複合名詞解析の能力を検証する.文字インデキシングされた大規模なコーパスを主記憶内に置くことが仮想的ではない現在,本論文で提示する枠組には検討の価値があると考える.十分な大きさのコーパスの任意の場所を参照できれば,複合名詞に含まれる辞書未登録語の発見や,それらを含めた複合名詞を構成する諸単語に関する,様々な共起情報が取得できると思われるが,実際に我々は,テンプレートを用いたパターン照合によりこれらが実現できることを示す.このような手法においては,未登録語の発見はパターン照合の問題へ統合されるうえ,発見された未登録語の共起情報を文字列のレベルで直接参照するため,クラス推定の問題も生じない.データスパースネスの問題については,テンプレートの拡充による共起情報抽出能力の強化と,複合名詞を構成する単語対のうち,一部の共起情報しか観測されない場合に,それらをできるだけ尊重して掛かり受け構造を選択するためのヒューリスティクスを整備する.これらにより,シソーラス等の知識源に依存せず,純粋に表層情報のみを利用した場合の解析精度の一つの限界を目指す.本論文では,長さ5,6,7,8の複合名詞各100個,計400個について,新聞2ヵ月分,1年分\breakを用いて実験を行い,提案する枠組みで,高い精度の複合名詞解析が可能なことを示す.複合名詞解析の精度評価に関しては,パターン照合による未登録語の発見やヒューリスティクスの寄与も明らかにする.\subsection{本論文の構成}\label{本論文の構成}以下{\bf\ref{複合名詞解析の構成}節}では,複合名詞解析の構成の概略を述べ,{\bf\ref{従来手法と問題点の分析}節}では,クラス間共起を用いる手法のうち,クラスとしてシソーラス上の概念を用いる「概念依存法」の概括と,その問題点を整理する.{\bf\ref{文書走査による複合名詞解析}節}では提案手法の詳細を示し,共起データ抽出と構造解析について例を用いて述べる.{\bf\ref{実験結果}節}では,{\bf\ref{文書走査による複合名詞解析}節}で述べた複合名詞の解析実験の結果について示す.{\bf\ref{本論文の目的}}で述べた分析の他,ベースラインとの比較等を行う.最後に,今後の課題について述べる.
V09N05-03
ある文字列を$k$回以上含むドキュメント数には,文字列の意味に関連する性質がある.この論文では,このドキュメント数を重複度$k$のドキュメント頻度と呼び,特に$k$を指定しない場合には,重複条件付きドキュメント頻度と呼ぶことにする.図\ref{dfn-sample}は,332,918個の日本語アブストラクトの本文を対象に,様々な文字列に対し,$k$を変化させて,重複度$k$のドキュメント頻度を計測したものである.文字列が意味のある単語の部分である場合には,$k$の増加にしたがっても,文書数の減少は緩やかである.たとえば,「メ」「メデ」「メディ」「メディア」などについては,$k$が一つ増加するごとに,ドキュメントの数が半減する傾向が観察される.一方,単語の切れ目を含む文字列の場合,$k$が増えるにしたがって文章数が1/4以下になることが観測できる.この性質を使って,文書中のキーワードを辞書を使わないで検出するということが可能であるという報告\cite{Keyword}がある.重複条件付きドキュメント頻度を単語の境界の検出に使用するには,任意の文字列について,その重複度付ドキュメント頻度を求めることが必要である.たとえば,文献\cite{Keyword}の文書分析では,頻度3を越える文字列について重複条件付きドキュメント頻度を計算しており,平均440バイト程度の1ドキュメントについて,1400個程度の文字列が調査の対象となっている.単純な方法で重複度付ドキュメント頻度を求めると,文字列ごとにコーパス長に比例する計算時間がかかることになり,後述するように一つのドキュメントを処理するのも大変である.さらに,キーワードをドキュメントの全体にわたって調査すると,この処理を332,918回繰り返すことになり,単純な方法では計算時間がかかりすぎるという問題がある.\begin{figure}[htbp]\begin{center}\begin{verbatim}k=1k=2k=3k=4k=5文字列52424223241111761563419メ463222001221707392メデ458021781211699388メディ443421311195692382メディア560881540メディアを8312000メディアを用8312000メディアを用い646000メディアを用いた\end{verbatim}\caption{重複条件付きドキュメント頻度の例}\label{dfn-sample}\end{center}\end{figure}ここで,重複度を考慮しないドキュメント頻度(単純ドキュメント頻度)については,ドキュメント頻度が同じ文字列をクラス分けができ,そのクラスごとに頻度を計測することが可能であるという報告\cite{DF1}がある.例中の「メディアを用」と「メディアを用い」の二つの文字が同じドキュメント頻度を持っているが,このような文字列が一つのクラスに属する文字列の例である.報告\cite{DF1}によると,コーパスの文字数を$N$とした場合に,クラス数は最大で$2N-1$である.よって,$O(N)$の大きさの表に,任意の文字列の単純ドキュメント頻度を保持することができる.しかし,重複度を考慮した場合に同じクラス分けが使えるかどうか明らかではないという問題が残る.また,クラス分けをして,表を作成するならば,重複条件付きのドキュメント頻度は,クラスごと,つまりそのクラスを代表する一つの文字列についてのみ求めればよいが,単純な方法では,代表の文字列の個数が$O(N)$,それぞれの計算に$O(N)$かかることになり,全体で$O(N^2)$の処理となる.$N$がおよそ$10^8$程度のコーパスでは,実際に前処理が終わらないという問題が残る.文献\cite{DF1}は単純ドキュメント頻度について,この問題の解決方法を示している.この方法は,文字出現頻度から重複を除いて単純ドキュメント頻度を求めている.しかし,重複の構造が複雑な重複条件付きドキュメント頻度の計測には,重複を除くという考え方が使用できない.この論文では,重複条件付きドキュメント頻度の計測についても,クラス分けが使用できることを示し,その前処理として重複度の上限を与えた場合に,$O(N\logN)$で,クラスごとの重複条件付きドキュメント頻度の表を作ることができることを示す.そのときに,重複条件付き文字列頻度という概念を提案し,重複条件付き文字列頻度の関数として重複条件付きドキュメント頻度が求まることを示す.最後に,実際に動作するシステムを作成し,332,918個のドキュメントで,69,312,280文字からなるコーパスで計測した計算時間を示す.ここで示すアルゴリズムは,$k$を固定したとき,ある文字列が$k$回以上出現するドキュメントの数を数え上げる問題について,ドキュメントの全文字数を$N$とすると,前処理は計算時間$O(N\logN)$,メモリ使用量$O(N)$であり,その後に値を求めるときには計算時間$O(\logN)$,メモリ使用量$O(N)$である.
V02N04-01
今日,家庭向けの電化製品から,ビジネス向けの専門的な機器まであらゆる製品にマニュアルが付属している.これらの機器は,複雑な操作手順を必要とするものが多い.これを曖昧性なく記述することが,マニュアルには求められている.また,海外向けの製品などのマニュアルで,このような複雑な操作手順を適切に翻訳することも困難である.そこで,本稿は,上記のような問題の解決の基礎となるマニュアル文を計算機で理解する手法について検討するが,その前に日本語マニュアル文の理解システムが実現した際に期待される効果について述べておく.\begin{itemize}\item日本語マニュアル文の機械翻訳において言語-知識間の関係の基礎を与える.\item自然言語で書かれたマニュアル文の表す知識の論理構造を明らかにし,これをマニュアル文作成者にフィードバックすることによってより質の良いマニュアル文作成の援助を行なえる.\itemマニュアル文理解を通して抽出されたマニュアルが記述している機械操作に関する知識を知識ベース化できる.この知識ベースは,知的操作システムや自動運転システムにおいて役立つ.\end{itemize}さて,一般的な文理解は,おおむね次の手順で行なわれると考えられる.\begin{enumerate}\item文の表層表現を意味表現に変換する.\label{変換}\itemこの意味表現の未決定部分を決定する.\label{決定}\end{enumerate}\ref{変換}は,一般的に「文法の最小関与アプローチ」\cite{kame}といわれる考え方に則って行なわれる.この考え方は,文を形態素解析や構文解析などを用いて論理式などの意味表現へ翻訳する際,統語的知識や一部の意味的知識だけを利用し,以後の処理において覆されない意味表現を得るというものである.よって,得られた意味表現は一般に曖昧であり,文脈などにより決定されると考えられる未決定部分が含まれる.従来の\ref{決定}に関する研究は,記述対象や事象に関する領域知識を利用して,意味表現の表す物事に関する推論をして,意味表現の未決定部分を決定するという方向であった(\cite{abe}など).これは,知識表現レベルでの曖昧性解消と考えることができる.領域知識を用いる方法は,広範な知識を用いるため,曖昧性解消においては有用である.しかし,この方法を用いるには,大規模な領域知識ないし常識知識をあらかじめ備えておく必要があるが,現在そのような常識・知識ベースは存在していない点が問題である.したがって,この問題に対処するためは,個別の領域知識にほとんど依存しない情報を用いることが必要となる.さて,本稿では,対象を日本語マニュアル文に限定して考えている.そして,\cite{mori}に基づき,上記の個別の領域知識にほとんど依存しない情報として,言語表現自体が持っている意味によって,その言語表現がマニュアル文に使用される際に顕在化する制約について考察する.ここで重要な点は,以下での考察が個別のマニュアルが記述している個別領域(例えば、ワープロのマニュアルならワープロ操作固有の知識)を問題にしているのではなく,マニュアル文でありさえすれば,分野や製品を問わずいかなるマニュアル文にも通用する制約について考察しようとしている点である.しかし,領域知識にほとんど依存しないとはいえ,言語的な制約を適用する話し手,聞き手などの対象が,解析しようとしているマニュアル文では何に対応しているかなどの,言語的対象とマニュアルで述べられている世界における対象物の間の関係に関する知識は必要である.以下では,この知識を言語・マニュアル対応関係知識と呼ぶ.ここでは,対象としているのが日本語マニュアル文であるから,言語学的な対象と記述対象の間の関係に関する情報などこの種の情報は「解析中の文章が日本語で書かれたマニュアルに現れる文である」ということ自身から導く.よって以上の手順をまとめると,本稿で想定している日本語マニュアル文の理解システムでは,「文法の最小関与アプローチ」による構文解析と,言語表現自身が持つ語用論的制約と,言語・マニュアル対応関係知識に基づいて,マニュアル文を理解することとなろう.さて,意味表現の未決定部分を決定する問題に関しては,ゼロ代名詞の照応,限量子の作用範囲の決定や,もともと曖昧な語の曖昧性解消など,さまざまな問題がある.日本語では主語が頻繁に省略されるため,意味表現の未決定部分にはゼロ代名詞が多く存在する.そのため,ゼロ代名詞の適切な指示対象を同定することは日本語マニュアル文の理解における重要な要素技術である.そこで,本稿では,ゼロ代名詞の指示対象同定問題に対して,マニュアル文の操作手順においてしばしば現れる条件表現の性質を利用することを提案する.というのは,システムの操作に関しては,今のところ基本的に利用者とのインタラクションなしで完全に動くものはない.そこで,ある条件の時はこういう動作が起きるなどという人間とシステムのインタラクションをマニュアルで正確に記述しなければならない.そして,その記述方法として,条件表現がしばしば用いられているからである.一般に,マニュアル文の読者,つまり利用者の関心は,自分が行なう動作,システムが行なう動作が何であるか,自分の動作の結果システムはどうなるかなどを知ることなので,条件表現における動作主の決定が不可欠である.従って,本稿では,マニュアルの操作手順に現れる条件表現についてその語用論的制約を定式化し,主に主語に対応するゼロ代名詞の指示対象同定に応用することについて述べる.もちろん,本稿で提案する制約だけでゼロ代名詞の指示対象同定問題が全て解決するわけではないが,条件表現が使われている文においては有力な制約となることが多くのマニュアル文を分析した結果分かった.さて,本稿で問題にするのは,操作手順を記述する文であり,多くの場合主語は動作の主体すなわち動作主である.ただし,無意志の動作や,状態を記述している文あるいは節もあるので,ここでは,動作主の代わりに\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」という概念を用いる.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが非常に大雑把に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.以下,第2節では,マニュアル文に現れる対象物と,依頼勧誘表現,可能義務表現が使用される場合に言語学的に導かれる制約について記す.第3節では,マニュアル文において条件表現が使用される場合に,言語学的に導かれる制約を説明し,さらに実際のマニュアル文において,その制約がどの程度成立しているかを示す.第4節は,まとめである.
V26N01-06
フレーズベースの統計的機械翻訳\cite{Koehn:2003:SPT:1073445.1073462}は,フレーズを翻訳単位として機械翻訳を行う手法である.この手法では局所的な文脈を考慮して翻訳を行うため,英語とフランス語のように,語順が似ている言語対や短い文においては高品質な翻訳を行えることが知られている.しかし,英語と日本語のように,語順が大きく異なる言語対では,局所的な文脈を考慮するだけでは原言語のフレーズを目的言語のどのフレーズに翻訳するかを正しく選択することは難しいため,翻訳精度が低い.このような語順の問題に対し,翻訳器のデコーダで並び替えを考慮しつつ翻訳する手法\linebreak\cite{Tillmann:2004:UOM:1613984.1614010},翻訳器に入力する前に原言語文の語順を目的言語文の語順に近づくよう並び替える事前並び替え\cite{nakagawa2015},原言語文をそのまま翻訳した目的言語文を並び替える事後並び替えが提案されている\cite{hayashi-EtAl:2013:EMNLP}.特に事前並び替え手法は,長距離の並び替えを効果的かつ効率的に行える\cite{E14-1026,nakagawa2015}.先行研究として,Nakagawa\cite{nakagawa2015}はBracketingTransductionGrammar(BTG)\cite{Wu:1997:SIT:972705.972707}にしたがって構文解析を行いつつ事前並び替えを行う手法を提案している.この手法は事前並び替えにおいて最高性能を達成しているが,並び替えの学習のために人手による素性テンプレートの設計が必要である.そこで,本稿では統計的機械翻訳のためのRecursiveNeuralNetwork(RvNN)\cite{GollerandKuchler,Socher:2011:PNS:3104482.3104499}を用いた事前並び替え手法を提案する.ニューラルネットワークによる学習の特徴として,人手による素性テンプレートの設計が不要であり,訓練データから直接素性ベクトルを学習できるという利点がある.また,RvNNは木構造の再帰的ニューラルネットワークであり,長距離の並び替えが容易に行える.提案手法では与えられた構文木にしたがってRvNNを構築し,葉ノードからボトムアップに計算を行っていくことで,各節ノードにおいて,並び替えに対して重要であると考えられる部分木の単語や品詞・構文タグを考慮した並び替えを行う.統計的機械翻訳をベースにすることで,事前並び替えのような中間プロセスに注目した手法の性能が翻訳全体に与える影響について明らかにできる利点がある.また統計的機械翻訳のようにホワイトボックス的なアプローチは,商用翻訳においてシステムの修正やアップデートが容易であるという利点もある.さらに現在主流のニューラル機械翻訳\cite{D15-1166}でも,統計的機械翻訳とニューラル機械翻訳を組み合わせることで性能を向上するモデルが先行研究\cite{D17-1149}により提案されており,統計的機械翻訳の性能を向上させることは有益である.英日・英仏・英中の言語対を用いた評価実験の結果,英日翻訳において,提案手法はNakagawaの手法と遜色ない精度を達成した.また詳細な分析を実施し,英仏,英中における事前並び替えの性能,また事前並び替えに影響を与える要因を調査した.さらに近年,機械翻訳の主流となっているニューラル機械翻訳\cite{D15-1166}において事前並び替えが与える影響についても実験を行い検証した.
V23N05-04
文書間類似度がはかるものとして「伝える内容の一致」(内容一致)だけでなく「伝える表現の一致」(表現一致)がある.文書間類似度は自動要約や機械翻訳ではシステム出力の内容評価を行うために参照要約(翻訳)との差異を評価する指標として用いられる.一方,文書間類似度は表現の差異を評価することを目的としてテキストの文体の計量比較にも用いられる.本稿では,文書間類似度の数理的構造の説明し,様々な内容もしくは文体が同じであることが想定されるテキストを用いて,各計量の特性について検討する\modified{.}\cite{nanba-hirao-2008-JSAI-journal}は2008年時点での自動要約の評価指標についての評価をまとめている.2008年以降に提案された語順を考慮した内容評価のための指標を含めて,語順に対する順序尺度を含めた距離空間・類似度・カーネル・相関係数などの尺度を用いて,数理的構造について整理する.具体的には,一致部分文字列による尺度・一致部分列による尺度・ベクトル型順序尺度・編集型順序尺度の四つに分類し議論する.これらの四つの尺度に基づき,内容一致(内容の同一性)と表現一致(文体の類似性)の観点から,言語生産過程の多様性を評価する.複数人が同一課題を実施した場合の各評価尺度の分散や,同一人が同一課題を繰り返し実施した場合の各評価尺度の分散などを検討する.生産過程においては口述・筆術・タイプ入力の三種類について評価し,課題においては要約・語釈・再話について評価する.要約は長い文書を同等の内容で短く言い換えることを目的とする言語生産過程であるが,語釈は短い単語が指し示す意味と同等の内容を長く言い換えることを目的とする言語生産過程であることから,要約は語釈の逆写像の一般化ととらえることができる.また,再話は長い文書を再度同等の内容でそのまま提示することを目的とする言語生産過程であることから,要約の一般化であるととらえることができる.この評価を通して,四つの指標における差異がどのような生産過程の差異に現れるのかを調査する.また同一言語生産課題に対する生成物の多様性についても議論する.表現一致をつかさどるものとして,情報の提示順序を含む修辞法(rhetoric)・使用域(register)や位相(phase)\footnote{ここでは「使用域」と「位相」は数学の用途ではなく文体論の用語として用いている.}に内在する文体・個人に内在する文体などが考えられる.要約を評価するにあたり,内容一致は重要であると考えるが,表現一致はどの程度重要であるのだろうか.さらにこれらはどの評価尺度に表出するのだろうか.対照比較を介して,各言語生産過程に共通のふるまいを示す評価尺度と課題に特有のふるまいを示す評価尺度について調査する.\modified{自動要約評価のための参照文書は一般に口述筆記の専門家や記者経験者などにより作成され,統制された少数のものが提供される.自動翻訳評価においても職業翻訳家等により限られた数の参照文書が作成される.統制は距離空間上の凸問題として課題を設定し,その課題設定の枠組内で評価したい工学研究者の都合で行われているものである.さらに,工学研究者は参照文書の差異がユークリッド距離空間上に規定され,文書間類似度で比較可能なレベルで統制できうるものだと考えているきらいがある.一方,文書を介したコミュニケーションにおいて,言語生産者ではない者による受容過程は統制されるものではなく,複数の受容者間で共有されるものではない.一人の受容者においても時間的経過などで統制できるものでもない.本稿では,人間の要約作成時の不安定な言語受容過程\footnote{ここで言語受容過程とは,要約作成時に元文書を読む過程のことを指す.}において文書の重要箇所選択がどの程度ゆれるものなのかを評価するとともに,そのゆれは評価指標を構成するどの尺度に表れるのかを調査する.この調査を通して,本来誤りでないものが課題設定の時点で誤りになっている可能性があるという実態を明らかにする.}本稿の貢献は以下のとおりである:\begin{itemize}\item既存の文書要約や機械翻訳の自動評価に利用される評価指標と,距離空間・類似度・カーネル空間・順序尺度・相関係数などの尺度との関係を整理\modified{した}\item同一課題について複数人の言語生産者間で生成される文書のゆれを定量的に評価\modified{した}\item課題ごとに同一人の言語生産者の課題試行間で生成される文書のゆれを定量的に評価\modified{した}\item上に述べたゆれの評価に基づき,内容評価と表現評価の尺度上のふるまいの\modified{不安定さを明らかにした}\end{itemize}尚,本稿では,「評価指標」と「尺度」を区別して用いる.自動要約や機械翻訳ではシステム出力の内容評価を行うためのROUGEやBLEUなど広く知られているものを表す際に「評価指標」と呼び,「評価指標」を構成する距離空間・類似度・カーネル・相関係数などを「尺度」と呼ぶ.「評価指標」が単一の「尺度」から構成されることもあり,「評価指標」=「尺度」である場合もある.以下,\ref{sec:sim}節では既存の自動評価指標を距離・類似度・カーネル・順序尺度・相関係数により説明することで,文書間類似度を四つに分類し整理する.3節では尺度を適用して比較するさまざまな言語生成過程を記録した言語資源について説明する.4節では評価尺度の定性的な評価について示す.5節にまとめと今後の研究の方向性について示す.
V14N03-10
インターネット上での商取引やブログの増加により,特定の商品や出来事についての感情や評価,意見などの個人の主観を表明したテキストが増加している.この主観の対象が特定の商品に対するものである時は,商品へのフィードバックとして企業に注目される.主観が特定のニュースや施策に対するものであれば,国民の反応を知る手がかりとして利用する用途なども考えられる.国内外で多数の主観に注目した会議が開催されていることからも,関心の高さをうかがい知ることができる(EAAT2004,Shanahanetal.2005,言語処理学会2005,言語処理学会2006,AAAI2006,EACL2006,ACL2006).本研究では,このようなテキストに現れた個人の主観の表明の中でも,特に,「うれしい」「かなしい」などの個人の感情を表す感情表現に着目し,その特性を理解するためのモデルを提案し,書籍や映画などの作品検索に応用するための方策を考察する.なお感情とは,ある対象に対する主体の気分や心の動きであり,感情表現とは,感情とその主体,対象などの構成要素をまとめて呼ぶ呼称である.態度とはテキストの中で感情や評価,意見など主観を表明した部分である.感情表現には感情表現事典(中村1993)に収録されているような感情という態度を表明している部分だけではなく,それを表明した主体や向けられた対象,その理由や根拠が関連する構成要素が存在する.我々は書評や映画評などの作品レビューが利用者にとって鑑賞する作品の選択に参考となるかどうかを判断するためには,感情表現の中の態度だけでなく他の構成要素も抽出する必要性があると考える.これは,作品レビューには参考になるもの,ならないものがあり,それを判断する手がかりとして構成要素が利用されていると仮定したことによる.さらに構成要素の中でも態度を表明した理由や根拠がその判断に大きく影響していると考えた.そこでまず感情表現抽出の準備段階として,感情表現の構成要素をあきらかにするため,Web上の作品レビューを用いて分析を行い,感情表現のモデルを定義し,構成要素の特徴をあきらかにした.次に感情表現の理由や根拠の重要性や働きを調べるため,追加分析と被験者実験を行い,作品検索に感情表現を用いるとき,検索結果が利用者にとって参考となる情報となるためには理由という構成要素が重要な働きをしていることを示した.\subsection{作品レビューにおける主観的な情報}本研究で扱うレビューとは,ある対象について評論したテキストのことである.レビューには,下記のような多様なドメインが考えられる.・作品:映画評,ブックレビューやCD,楽曲,演劇などの作品に関するレビュー・製品:携帯電話や車などの製品についてのレビュー・サービス:レストランや飛行機,ホテルなどのサービスに関してのレビュー・組織:会社や団体など,組織についてのレビューこれらドメインによって,レビュー中に表明された主観的な情報の用途,関連する構成要素と各要素の重要性,働き,評価の観点などが異なる.製品においては,使い勝手や好みなどの主観的な情報も重要であるが,その仕様や機能,価格など製品に関する事実がより重要な観点となる.同様にサービスではその特徴や利点が,組織では活動の内容などが重要な観点となる.これら製品やサービス,組織は利用するためのものであるため,それぞれが持つ機能や特徴,性質など主に具体的な事実や数値とそれが好意的なのか否定的なのかという評価がレビューとして重要視される.しかし映画や書籍のような作品は個人が味わうためのものであり,価格やあらすじ,登場人物などの事実以上に,それを利用者が読んだり鑑賞したりしてどう感じるかといった,利用者の抱く感情が重要である.\subsection{作品検索の問題点}現在の作品を対象とした検索では,作品のタイトルや登場人物,ジャンルなどを手がかりにして,利用者が自分の希望する作品を検索している.しかし利用者の要求には,「今日は泣ける本が読みたい」「派手な映画を見て元気を出したい」「背筋も凍るような恐怖のホラー映画が見たい」など,それらを見聞きした結果どのような感情を感じるかといったものもある.実際Web上の質問サービスである「教えてgoo\footnote{教えてgoo,http://oshiete.goo.ne.jp/}」や「Yahoo!知恵袋\footnote{Yahoo!知恵袋,http://chiebukuro.yahoo.co.jp/}」などの質問回答サービスには,「切なくなる本を教えてほしい」「怖い映画を教えてください」などの質問が存在する.感情表現を手がかりとして作品を検索できれば,これら要求を満たすことができる.我々は,単に作品へ向けられた感情表現中の感情という態度を表明した語句のみから作品を探すのではなく,感情の主体,対象,理由などの感情表現の他の構成要素も利用することが重要と考える.さらに構成要素の中でも理由,根拠,原因が明記された感情表現が特に利用者にとって参考となり得る重要な情報であると考えた.理由,根拠,原因の記述された感情表現を検索に利用することで,同じ「幸せな気分になれる本」を探したときでも,「笑える内容だったから幸せだった」のか「ハッピーエンドで終わったから幸せだった」のかなどを区別することができる.また,我々は,趣味嗜好が強く反映される作品レビューのようなテキストではそれを読んだ利用者がテキストに記述された内容を理解し,鑑賞する作品を選択するときに参考にすることが可能であることが重要であると考えた.具体的には,感情表現を用いた作品検索において,「理由」が記述されたものに重み付けをし,さらに結果をその作品レビューが含む理由と共に表示することなどが考えられる.そこで,本研究では作品レビューのテキストを対象とし,そこに出現する感情表現を分析した.なかでも感情表現の理由や根拠に注目して研究を行った.\subsection{本論文の構成}本論文の構成は次のとおりである.2節では,関連研究を概観し,本研究の位置づけを明確にする.3節では,書籍と映画に関するレビューを人手分析し,感情表現の構成要素を定義した.4節では,3節で定義した構成要素の特徴と働きについて考察をした.5節では,構成要素の中から理由に着目し,その重要性を分析,検討した.6節では5節での検討内容を被験者実験によって実証し,7節ではその結果を考察した.8節は本論文の結論である.
V06N03-03
label{intro}テキストは単なる文の集まりではなく,テキスト中の各文は互いに何らかの意味的関係を持つ.特に意味的関係の強い文が集まって談話セグメントと呼ばれる単位を形成する.文が互いに意味的関係を持つように,これらの談話セグメント間にも意味的な関係が存在する.テキストの全体的な談話構造はこの談話セグメント間の関係によって形成される.そのため,テキストのセグメント境界を検出するテキストセグメンテーションの研究は,談話構造解析の第一ステップであると考えられる\cite{Grosz:86}.また,最近では,テキストセグメンテーションの研究は情報検索の分野においても応用されている.長いテキスト中には複数のサブトピックが存在しているため,テキスト全体を扱うよりも,テキストをセグメントに分けた方が検索対象として良いと考えられるためである\cite{Callan:94,Salton:93,Hearst:93}.セグメント境界の検出では,テキスト中の表層的な情報が利用されることが多い.表層的な情報は比較的容易に抽出可能であり,特別な領域知識を必要としないので一般的な利用が可能だからである.多様な表層的情報の中で,意味的に類似した単語間の表層的関係である語彙的結束性\cite{Halliday:76}が,これまで多くのテキストセグメンテーションの研究に使用されている\cite{Morris:91,Kozima:93,hearst:94b,okumura:94a,reynar:94}.OkumuraとHonda\cite{okumura:94a}は語彙的結束性の情報だけでは充分ではなく,他の表層的情報を取り入れることによって,テキストセグメンテーションの精度が向上することを報告している.本稿では,複数の表層的手がかりとして,接続詞,照応表現,省略,文のタイプ,語彙的結束性などを使用して日本語テキストのセグメント境界を検出する手法について述べる.セグメント境界の検出では,手がかりから得られるスコアを基に,各文間の境界へのなりやすさ(あるいはなり難さ)を表す文間のスコアを与えることが多い.この手がかりを複数設定し,組み合わせて使用する手法は数多く存在する\cite{McRoy:92}が,各手がかりの出現がセグメント境界の検出に影響する度合が異なるため,各手がかりのスコアをそのまま使用せず,各手がかりの重要度に応じた重みをかけ,重み付きスコアの総和を文間のスコアとする手法が比較的良く用いられる.重み付きスコアの総和を文間のスコアとして使用する手法においては,各手がかりに最適な重み付けを行うことが,検出精度向上にとって重要になる.複数の表層的手がかりを用いてセグメント境界の検出を行う過去の研究\cite{Kurohashi:94,Sumita:92,Cohen:87,Fukumoto1}では,各手がかりの重みは直観あるいは,人手による試行錯誤によって決定される傾向がある.しかし人手による重みの決定はコストが高く,決定された重みを使用することで,必ずしも最適あるいは最適に近い精度が得られるという保証がない.そのため人手による重み付けを避け,少なくとも最適に近い値を得るために,自動的に重みを決定する方が望ましいと考えられる.そこで本研究では,正しいセグメント境界位置の情報が付いた訓練テキストを用意し,統計的手法である重回帰分析を使用することで各表層的手がかりの重要度の重みを自動的に学習する.しかし,重みの自動学習手法では訓練データの数が少ない場合に学習精度が良くならないという問題がある\cite{Akiba:98}.また,訓練データに対してパラメータ(手がかり)の数が多い場合には,学習された値が過適合を起す傾向があるという問題が知られている.学習された重みが訓練データに対し過適合すると,訓練データ以外のテキストに適用した場合には良い精度が得られない.また,考えられる全ての表層的手がかりが,常にセグメンテーションにとって良い手がかりになるとは限らない.そこで,過適合の問題を解消するために,重みの学習と共に使用する手がかりの最適化も行う必要がある.有効な手がかりだけを選択することができれば,良い重みの学習ができ,セグメンテーションの精度が向上すると考えられる.本研究で重みの学習に使用する重回帰分析には,有効なパラメータを選択する手法が既にいくつか開発されている.そこで,本研究ではパラメータ選択手法の一つとして広く利用されているステップワイズ法を使用する.重回帰分析とパラメータ選択手法であるステップワイズ法を使用することにより,有効な手がかりのみを選択し,最適な重みを獲得できると考えられる.我々の主張を要約すると以下のようになる.\begin{itemize}\itemテキストセグメンテーションにおいて,複数の表層的手がかりの組み合わせは有効である.\item重回帰分析とステップワイズ法の使用によってテキストセグメンテーションにとって有効な手がかりの選択と重みの自動的な獲得が可能となる.\end{itemize}上記の主張の有効性を調べるため,いくつかの実験を行う.小規模な実験ではあるが,実験結果から我々のアプローチの有効性を示す.以下,2節では本研究でテキストセグメンテーションに使用する表層的手がかりについて説明する.3節では複数の手がかりの重みを自動的に決定する手法について述べる.4節では自動的に有効な手がかりを選択する手法について述べる.5節では,本研究のアプローチによる実験について記述する.
V26N01-03
近年,ソーシャルニュースサイトや討論ポータルの発展に伴い,様々な話題がオンライン上で議論されるようになった.これら議論は世の中の貴重な意見を含んでいるが,分析には関連する複数の投稿・発言の内容を理解する必要がある.これまでも対話行為の分析\cite{Stolcke2000,Bunt2010}を発展させ,議論を談話行為に基づいて分析するアプローチが提案されてきた.議論における談話行為の自動的な分類は,情報アクセスや要約の改善に寄与できると考えられている.このため,電子メール\cite{Cohen2004,Carvalho2005,Carvalho2006,Hu2009,Omuya2013},ニュースグループ\cite{Wang2007},技術電子掲示板\cite{Kim2010b,Wang2011,Bhatia2012,Liu2017},ソーシャルニュース\cite{Zhang2017}等の談話行為・対話行為が既存の研究で対象とされてきた.議論において談話行為・対話行為を分類する際には,議論のパターンを取り入れることの重要性がたびたび指摘されてきた.投稿間の関係・リンク\cite{Carvalho2005,Hu2009},投稿の位置・深さ\cite{Wang2007,Kim2010a,Kim2010b,Wang2011,Bhatia2012,Zhang2017,Liu2017}等のパターン情報は,確率的なグラフィカルモデル,構造学習モデル,系列学習モデル等と組み合わせて利用されてきた.これらアプローチは談話行為の分類において有効性を示したが,分類モデルにパターン情報を取り入れるためにタスク依存のパターン素性を設計する必要があった.本稿では議論のパターンをニューラルネットワークを用いて取り入れるモデルを提案する.近年,ニューラルネットワークを用いて木構造\cite{Socher2011,Socher2014,Tai2015}やグラフ構造\cite{Defferrard2016,Kipf2017}を学習する有効性が示されている.提案モデルではパターン素性を設計せずに,木構造学習層とグラフ構造学習層を用いて議論のパターンを学習する.既存の研究では様々な対象の談話行為・対話行為が分類されてきたが,本稿ではReddit\footnote{https://www.reddit.com/}の談話行為の分類に提案モデルを適用する.Redditは大規模なソーシャルニュースサイトであり,数多くのトピックについて日々議論が行われている.議論はスレッド単位で行われ,トピックを提供する最初の投稿および投稿に対する返信の連鎖で構成される.提案モデルの評価では\citeA{Zhang2017}の$9$種類の談話行為を対象にする.$9$種類の談話行為は{\itAnswer},{\itElaboration},{\itQuestion},{\itAppreciation},{\itAgreement},{\itDisagreement},{\itHumor},{\itAnnouncement},{\itNegativeReaction}であり,図\ref{fig:example}にこれら談話行為の例を示す.本稿では次の二つの理由でRedditを対象とした.第一に,Reddit上での議論は投稿をノード,返信関係をエッジとした木構造およびグラフ構造として表すことができる.第二に,公開されているRedditの談話行為が付与されたコーパスは大規模であり,ニューラルネットワークを用いて木構造やグラフ構造を学習するのに適している.本稿の貢献には以下の三点が挙げられる:\begin{enumerate}\item投稿間の構造に対応した,木構造学習層とグラフ構造学習層を含むモデルを提案する.\item談話行為の分類性能において,提案モデルが従来のパターン素性と系列学習を組み合わせたモデルを上回ることを示す.\item提案モデルの中間層を注意機構を通じて分析し,談話行為の分類に有効な構造を確認する.\end{enumerate}本稿の以降の章では次の内容を述べる.\ref{sec:related}章で提案モデルの関連研究を紹介し,モデルの詳細を\ref{sec:model}章で述べる.\ref{sec:exp}章で提案モデルを用いた評価実験を報告し,結果を\ref{sec:discuss}章で考察する.最後に\ref{sec:conc}章では本稿をまとめ,さらに今後の展望を述べる.\begin{figure}[t]\begin{center}\includegraphics{26-1ia3f1.eps}\end{center}\hangcaption{Redditを対象とした談話行為の例.各丸はスレッド中の投稿,赤色は最初の投稿,青色は返信の投稿,矢印は返信を表している.最初の質問({\itQuestion})が答え({\itAnswer})とユーモア({\itHumor})の返信を受けており,答えの一つはさらに謝辞({\itAppreciation})と追加情報({\itElaboration})の返信を受けている.}\label{fig:example}\end{figure}
V07N02-02
\label{sec:introduction}近年,WWWを通じて英字新聞記事に接する機会が増えてきたことに伴い,より正確に英文記事を日本語に翻訳する必要性が高まってきている.新聞記事は見出しと本文から構成されるが,見出しは記事の最も重要な情報を伝える表現である\footnote{テキストから重要な文を選択するテキスト抄録システムにおいて,見出しを最も重要な文であるとみなす考え方\cite{Nakao97,Yoshimi99}がある.}ため,見出しを正確に翻訳することは他の表現の翻訳に比べてより一層重要である.英字新聞記事の見出しは,できるだけ少ない文字数でできるだけ多くの情報を伝えるためや,読者の注意を引くために,通常の文の表現形式とは異なる特有の形式をしている.このため,従来の英日機械翻訳システムでは適切に翻訳できない場合が多い.その原因は主に,見出し特有表現の構文解析を適切に行なうための構文解析規則が,様々な種類や分野のテキストを扱うことを前提に開発された機械翻訳システムでは記述されていないことにあると考えられる.既存の構文解析規則で適切に扱えない表現への対応策の選択肢としては,特殊な表現形式が扱えるように構文解析規則を拡張するアプローチと,既存の構文解析規則は変更せず,既存の規則でも適切に処理できるように原言語の表現を書き換える新たなモジュールを設けるアプローチが考えられる.後者のアプローチとして,長い文の構文解析が失敗しやすいという問題に,長文を複数の短文に分割することによって対処する方法\cite{Kim94}や,書き換えを行なうべきかどうかの判定精度を高めるために,完全な構文情報が得られる構文解析終了後にまで書き換え規則の適用を遅らせる方法\footnote{この方法は,日英間の構造的な差異を調整し,より自然な翻訳を生成するために構文構造を書き換える方法\cite{Nagao85a}に近いと考えられる.}\cite{Shirai95}などがこれまでに示されている.実際に運用されている機械翻訳システムでは構文解析規則の規模は非常に大きくなっているため,既存の規則との整合性を保ちながら新たな規則を追加することは容易ではない.また,特殊な表現を扱うための規則を追加すると規則の汎用性が損なわれる恐れがある.これに対して,既存の規則には手を加えず,原言語の表現を書き換える前編集系を新たに開発する方が,書き換え結果が既存の構文解析規則で正しく解析できるかどうかを人手で判断することは比較的容易であるという点や,規則の汎用性を維持することができるという点でシステムの開発,維持上望ましい.本研究では,従来の機械翻訳システムによる新聞記事見出し翻訳の品質が低いという問題に対して自動前編集モジュールを設けるアプローチを採り,浅いレベルの手がかりに基づいて原言語の表現を書き換えることによってこの問題を解決することを目指している.自動前編集による見出し翻訳の品質改善の一例として本稿では,見出し特有表現のうち比較的高い頻度\footnote{284件の見出しを対象とした我々の調査で確認された見出し特有の表現\cite{Uenoda78}は,be動詞の省略を含むものが73件(25.7\%),等位接続詞のコンマでの代用を含むものが25件(8.8\%),``say''のコロンでの代用を含むものが4件(1.4\%)などである.ただし,現在形で過去の事象を表す表現や冠詞の省略などは今回の調査では考慮しなかった.}で見られるbe動詞の省略現象に対象を絞り,be動詞が省略されている見出しにbe動詞を正しく補うための書き換え規則を,形態素解析と粗い構文解析\footnote{具体的には,\ref{sec:preeditHeadline:cond}\,節で述べる手続きによる処理を指す.}によって得られる情報に基づいて記述し,これらの書き換え規則によって適切な書き換えが行なえることを示す.本稿の対象は英字新聞記事見出しという限定されたものであるが,英字新聞記事は英日機械翻訳システムの一般利用者が日々接することが多いテキストの一つであるため,実用的なシステムにおける見出し解析の重要性は高い.また,本稿の目的はbe動詞を補うことによって見出し解析の精度を向上させることにあり,書き換えた見出しの翻訳が日本語新聞記事の見出しの文体に照らし合わせて適切であるかどうかは本稿の対象外である.
V24N03-02
label{first}元来から日本は,外来語を受け入れやすい環境にあるといわれており,数多くの外国の言葉を片仮名として表記し,そのまま使用している.近年になり,今まで以上にグローバル化が進展すると共に,外来語が益々増加する中,外来語の発音を片仮名表記にしないケースが見受けられる.特に,英語の場合,外国語の表記をそのまま利用することも増えてきている.また,英単語などの頭文字をつなげて表記する,いわゆる略語もよく利用されるようになっている.例えば,「IC」といった英字略語がそれにあたる.しかし,英字略語は英単語の頭文字から構成される表現であるため,まったく別のことを表現しているにも関わらず,同じ表記になることが多い.先の英字略語「IC」には,「集積回路」という意味や高速道路などの「インターチェンジ」という意味がある.さらには,ある業界では,これらとはまた別の意味で使用されることもある.このように,英字略語は便利な反面,いわゆる一般的な単語よりも非常に多くの意味を有する多義性の問題を持つ.そのため,英字略語が利用されている情報は,すべての人が容易に,また,正確に把握できるとは言い難い.そこで,例えば,新聞記事などでは,記事の中で最初に英字略語が使用される箇所において,括弧書きでその意味を日本語で併記する処理をとっていることが多い.しかし,よく知られている英字略語にはそのような処置がとられていないなど,完全に対処されているわけではない.また,記事中の最初の箇所にのみ上記のような処置がとられており,それ以降はその意味が併記されていないことが多い.そのため,記事の途中から文書を読んだり,関連する記事が複数のページに渡って掲載されている時に先頭のページではない部分から記事を読んだりした場合には,最初にその英字略語が出現した箇所を探さなくてはならず,解読にはひと手間が必要となり,理解の妨げとなる.さらに,一般的な文章の場合では,このように英字略語の意味を併記するという処置をとる方が珍しいと言える.
V01N01-03
従来の構文解析法は基本的に句構造文法あるいは格文法をその拠り所としてきた.前者の考え方は局所的統合の繰り返しによって文の構造を認識しようというものである.しかし,実際にそのような方法で文を解析しようとすると,規則の数が非常に多くなり,なおかつ十分な精度の解析結果を得ることが困難であった.また,格文法の場合は格要素を決定するための意味素が必ずしもうまく設定できず,またこの場合も基本的には局所的な解析であるため,十分な精度の解析結果が得られていない.これらの問題を解決するためには,これらの文法的枠組に加えて,局所的記述ではとらえきれない情報を文中の広い範囲を同時的に調べることによって取り出す必要がある.日本語文解析の困難さの原因の一つである並列構造の範囲に関する曖昧性の問題も,このような「広い範囲を同時的に調べる」ことを必要とする問題の一つである.日本語文は,特に長い文になればなるほど多くの並列構造を含んでいる.「〜し,〜し,〜する」のように,いわゆる連用中止法によって複数の文を1文にまとめることができることは日本語文の特徴でもある.それ以外にも,名詞並列,形容詞並列や,連体修飾節の並列などが頻繁に現れる.このような並列構造に対する従来の解析方法は,基本的には次のようなものであった\cite{Nagao1983,Agarwal1992}.例えば「\ldots原言語を解析する\underline{処理と}相手言語を生成する\underline{処理を}\ldots.」という文では,並列構造前部の{\bf主要語}である「\underline{処理(と)}」に対して,それよりも後ろにある名詞の中から最も類似している名詞を探すという方法により後部の主要語を決定していた(この場合「\underline{処理(を)}」が後部の主要語).しかし並列構造においては,主要語間だけではなく,構造内の他の語の間(この例の場合「原言語」と「相手言語」,「解析する」と「生成する」)にも,さらに文節列の並び(「〜を〜する〜と〜を〜する〜」)にも類似性が認められる場合が多く,これらの類似性を考慮することによってより正確に並列構造を認識することができる.そこで我々は,並列構造の存在を示す表現(名詞並列を示す助詞「と」など)の前後における最も類似度の高い文節列の対を,音声認識などで広く使われているダイナミックプログラミングのマッチング法と同様の考え方を用いて発見するという方法を考案し,このことにより並列構造の高精度な検出が可能であることを示した\cite{KurohashiAndNagao1992}.本論文では,このようにして検出した並列構造の情報を利用して構文解析を行なう手法を示す.多くの場合,いったん並列構造が発見されると文の構造は簡単化した形でとらえることができる.その結果,単純な係り受け規則を適用するだけで高精度な構文解析が可能となる.本手法は,たとえば,大規模なテキストを解析して,そこから新しい情報を取り出そうとするような場合に特に有用である.対象テキスト中の専門用語や専門的に使われている述語について,それらの相互間の関係はそこで始めて提示された概念であるかもしれない.その場合には,そのような概念の相互関係は辞書に記述されておらず,辞書中の意味記述に頼った解析は不成功となる.また,大規模なテキストを扱うのに十分であるような複雑な文法規則や詳細な格記述を用意することは,実際には非常に困難である.新しい概念は用語相互間のシンタックスによって示されるのであるから,シンタックスを尊重した解析が重要である.また,本手法でうまく扱えない問題を整理することによって,構文解析における本質的問題を明らかにすることも重要な問題である.これまでの,構文解析における曖昧性の議論では,人間にとっても曖昧であるような表現を取り上げたものが多かった.しかし,従来の構文解析法が十分でないという印象を人間に与えるのは,そのような点ではなく,人間であれば絶対にしないような部分に不必要な曖昧性を認識するためである.その原因がどこにあるかを調べるためには,本手法のように高精度でかつ決定論的に動作する道具立てが必要である.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,70)\put(5,5){\framebox(80,60){ps/examp1.new.ps1}}\end{picture}\end{center}\caption{並列構造の推定の例(例文1)}\label{fig:suitei_rei}\end{figure}}
V24N03-05
法律文書や技術文書等の専門文書は,その文種に特有の表現を持っていることから,サブ言語を形成していると考えることができる.サブ言語を対象とした翻訳に関する従来の研究では,サブ言語の翻訳品質を向上させるには,対象のサブ言語に特徴的に表れる文構造を適切に捉え,対象言語の文構造に変換することが不可欠であることが指摘されている\cite{DBLP:conf/coling/BuchmannWS84,DBLP:conf/eacl/Luckhardt91,DBLP:conf/anlp/MarcuCW00}.図\ref{fig:ex-sents}は,特許抄録のサブ言語に特有な2対の対訳文である.いずれの文対でも,適切な訳文を得るためには,原言語文におけるABCという文構造を目的言語においてCBAに変換しなければならない.このようなサブ言語に特徴的な文では,文構造を適切に捉えられなければその後の処理でも良い翻訳に結びつく可能性が低いため,初期段階での正確な文構造の把握が極めて重要である.\begin{figure}[b]\begin{center}\includegraphics{24-3ia0f1.eps}\end{center}\hangcaption{大域的な並べ替えが必要な,特許抄録のサブ言語に特徴的な対訳文の例.A,B,Cは,文の大域的構造を構成する構造部品を表す.}\label{fig:ex-sents}\end{figure}\leavevmode\hboxto357pt{この課題に対して様々な研究が行われてきた.骨格構造を用いた機械翻訳}\cite{Mellebeek06asyntactic,DBLP:conf/acl/XiaoZZ14}では,構文解析器を用いて入力文から{\bf骨格構造},つまり文の大域的な構造を抽出し,従来の統計的機械翻訳を用いて大域的な構造の学習を行って翻訳文を生成する.しかしながらこの方法は,構文解析の精度の影響を受けるため,解析精度が低い場面では結果的に翻訳の精度も低くなるという問題がある.もう一つの手法としては,文構造変換のための同時文脈自由文法の規則を人手で構築し,これを用いて入力文の文構造を出力側言語の構造に変換する手法が提案されている\cite{Fuji:2015,Fuji2016claim}.こちらの手法は,新規のサブ言語に対して人手で規則を作成しなければならないという問題がある.これらの手法では,構文解析精度による制約の問題があったり,人手による規則作成の問題があるなど,新たなサブ言語に対して柔軟に適用できる翻訳を実現することができていない.本論文では,サブ言語に特有な大域的な文構造を捉えるための,大域的な並べ替え手法を提案する.提案手法は,構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並べ替えモデルを学習し,このモデルを用いて新規の入力文に対する大域的な並べ替えを行う.本手法は構文解析器を用いないため,構文解析器の解析精度の影響を受けることはなく,また新規のサブ言語にも容易に適用できる.特許抄録のサブ言語を対象にした日英および英日翻訳実験を行って本手法の評価を行ったところ,大域的な並べ替えと従来型の構文解析に基づく並べ替えを併用することによって,翻訳品質が向上することがわかった.本論文の貢献は次のとおりである.\begin{itemize}\item構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並べ替えモデルを学習できる手法を提案する.\item大域的な並べ替えと構文解析に基づく並べ替えを併用したときに翻訳品質が向上することが確認できた.\item特に特許抄録文では,サブ言語に特有な文構造を持った入力文に対して,日英・英日双方向において翻訳精度が向上した.\end{itemize}
V14N03-15
近年,Webが爆発的に普及し,掲示板等のコミュニティにおいて誰もが容易に情報交換をすることが可能になった.このようなコミュニティには様々な人の多様な評判情報(意見)が多く存在している.これらの情報は企業のマーケティングや個人が商品を購入する際の意思決定などに利用されている.このため,このような製品などに対する評判情報を,Web上に存在するレビューあるいはブログなどから,自動的に収集・解析する技術への期待が高まっている.このため,従来このような評判情報の抽出に関して研究されてきた\cite{morinaga,iida,dave,kaji,yano,suzuki}.これらの研究では,製品などに関する評価文書から自然言語処理技術を用いて評判情報を抽出する.また,評判情報を含む評価文書を,ポジティヴ(おすすめ)とネガティヴ(おすすめしない)という2つの極性値に分類し,その結果をユーザに提示する.提示された情報を基にユーザは様々な意思決定を行う.評価文書を2つの極性値に分類する手法に関して,これまで多くの研究が行われてきた.\cite{turney}では,フレーズの極性値に基づく教師なし学習によって評価文書を分類している.\cite{chaovalit}では,映画のレビューを対象に教師なし学習\cite{turney}と教師あり学習を比較している.ここでは,教師あり学習としてN-gramを用いている.実験の結果,分類精度は教師あり学習の方が高かったと報告している.教師あり学習を用いたものとして\cite{dave}では,ナイーブベイズを用いて評判情報の分類学習を行っている.これらの研究では,文書中に含まれている単語や評判情報をすべて同等に扱っている.しかし,評価文書には,全体評判情報と部分評判情報という2つのレベルの評判情報が含まれていると考えられる.全体評判情報とは,評価文書の対象全般に関わる評価表現のことを指す.例えば,映画のレビューにおいて「この映画はおもしろい」という評価表現は対象全般に関わる評価表現であり,この表現がある場合はその極性値が評価文書の極値にほぼ一致する.一方,部分評判情報とは,対象の一属性に関わる評価表現のことを指す.例えば,映画のレビューにおいて「映像がきれい」という評価表現は映画の一属性である映像に関する評価表現であり,この表現があったとしてもその極性値が評価文書の極性値と一致するわけではない.したがって,これら2つのレベルを考慮することで評価文書の分類精度の向上が期待できる.そこで本論文では,評判情報を全体評判情報と部分評判情報という2つのレベルに分け,その極性値を基に評価文書を分類する手法を提案する.本手法では,まず評価文書から全体評判情報を抽出し,その極性値を判定する.この極性値は評価文書の極性値とほぼ一致するため,この極性値を評価文書の極性値とする.評価文書に全体評判情報が含まれない場合は,部分評判情報の極性値の割合から評価文書の極性値を決定する.さらに,この2つのレベルの評判情報を用いて,評判情報の信頼性を評価するための一手法を提案する.評判情報は主観的な情報のため,信頼性が低いという問題点がある.このため,その信頼性を評価できれば有益な情報となる.信頼性を評価する手法は多くのことが考えられるが,ここではその1つとして,評価文書の極値と異なる極性値を持つ部分評判情報は信頼性の高い情報と捉えることを提案する.例えば,「すごく面白い映画だった.映像も素晴らしかった」と「はっきりいって最低の映画でした.でも映像だけは良かったです」という評価文書があるとする.前者のように,映画全体をポジティブに評価している人が映像に関してもポジティブに評価することはあまり情報としての価値はない.悪意のある見方をすると宣伝ともとれる.一方,後者は映画全体としてはネガティブな評価であるが,映像に関してはポジティブに評価している.このような評価は客観的でフェアである可能性が高いため,信頼性が高い評価情報であるとする.このような信頼性は,評判情報の2つのレベルを用いることで評価できる.
V18N04-01
\subsection{背景と目的}我々が記述や発話によって伝える情報は客観的な事柄のみではない.事柄が真なのか偽なのか,事柄が望ましいか望ましくないか,といった心的態度も併せて伝達する.言語学,日本語学にはこのような心的態度に対応する概念として「モダリティ」または「様相」と呼ばれるものが存在する.モダリティは,文を構成する主要な要素として規定されている概念である.モダリティ論では「文は,客観的な事柄内容である『命題』と話し手の発話時現在の心的態度(命題に対する捉え方や伝達態度)である『モダリティ』からな」るという規定が多くの学者に受け入れられてきた\cite{Book_01}\footnote{以後,修飾語句なしに「心的態度」と記述するときは書き手の発話時現在の命題に対する捉え方や伝達態度のことを指す.}.そして,活用形と「べき(だ)」「だろう」「か」といった助動詞や終助詞および,それらの相当語句がモダリティに属する文法形式とされている.これらの文法形式はコーパスに心的態度の情報をアノテーションする上で有効な指標になると考えられる.ただし,前述の文法形式をアノテーションするだけでは心的態度を網羅することはできない.「ことを確信している」「と非常に良さそうだ」等,文法形式以外にも心的態度を表す表現は存在する.そのことは心的態度のアノテーションを目的とする既存研究で指摘されており,それらの研究では「拡張モダリティ」\cite{Article_01}「確実性判断」\cite{Article_02}といった文法形式以外も含む新たな概念が提案されている.しかし,このように対象を拡張すると,モダリティの持つアノテーションに有利な特徴が失われてしまう.モダリティであれば,文ごとに特定の文法形式の有無を目安にしてアノテーションの判定をすればよい.対して,拡張モダリティや確実性判断にはこのような明確な判断基準がない.よって,作業者によって基準がぶれてアノテーションが安定しない可能性がある.これに対し本論文では,「階層意味論」で規定される「モダリティ」の概念を用いることで,母語話者の判断による一貫したアノテーションが可能であると考える.階層意味論とは,言語普遍的な意味構造を規定する意味論上の概念であり,この意味構造によって従来の文法論では解釈が困難な複数の言語現象に自然な解釈を与えることができる.この階層意味論で規定される「モダリティ」は文法論上の概念ではない.拡張モダリティや確実性判断と同じく文法形式ではない心的態度も対象とするため,心的態度の網羅という目的に適う概念といえる.ただし,階層意味論の研究は主に英語の事例を扱っており,日本語の事例研究は限定的である.そのため日本語における普遍性が実証的に確かめられているとは言い難い.そこで,4名の母語話者に新聞の社説記事から「モダリティ」を読み取ってもらう調査を行い,母語話者間での回答の一致度を見る.本論文では「階層意味論の『モダリティ』が普遍性のある概念であれば母語話者間で『モダリティ』に対する認識の仕方に違いは出ない」という前提のもと,母語話者間の一致度を通して普遍性を評価する.以下,2節で,自然言語処理,言語学,日本語学それぞれにおける「モダリティ」の扱いを概観し,その違いが心的態度のアノテーションに及ぼし得る問題点を論じる.次に3節で,本論文で検討する階層意味論について説明する.そして4節で,日本語の母語話者を対象に,新聞の社説記事から階層意味論に基づき規定された心的態度を読み取ってもらう調査を行い,その判断に対する母語話者間の一致度を示すとともに不一致を引き起こす要因について論じる.最後に,5節でまとめと今後の課題について述べる.\vspace{-0.5\baselineskip}\subsection{用語に関する注意事項}「文」「命題」「モダリティ」といった用語は,特定の言語形式を指す場合と,その形式で表現される意味内容を指す場合とがある.文法論,意味論と自然言語処理との間で横断的な議論を行う場合は,どちらの用法で用いているのか明記しないと混乱を招く恐れがある.そこで,本論文における各用語の便宜的な用法をここで示す.まず,文については「書き言葉において句点\footnote{文体によっては改行や句点以外の記号で代用されることもある.}で区切られる統語上の言語単位」を指すことにする.話し言葉は本論文では取り上げない.次に,モダリティは「文法論でモダリティとして扱われている表現の集合\footnote{この集合を厳密に定義する既存研究はないが,日本語のモダリティについては,日本語学でモダリティを体系的に論じた書籍である宮崎他(2002)と日本語記述文法研究会(2003)のいずれかでモダリティとして扱われているかどうかを基準とする.}」を指すことにする.文法論では「モダリティ」が文法形式を指す場合とその機能を指す場合とがあるが,本論文ではもっぱら前者として用いる.この規定は心的態度とモダリティを明確に区別することを意図している.本論文では,心的態度はアノテーションすべき対象なのに対し,モダリティはあくまでアノテーションの目安となる統語上の特徴の1つということになる.そして,命題は「補足語+述語」\inhibitglue\footnote{述語とは「動詞,形容詞,形容動詞または『名詞+助動詞「だ」』(+ヴォイス)(+テンス)(+アスペクト)」を指す.},「補足語+述語+形式名詞」および「補足語+述語+形式名詞」に言い換え可能な「(連体修飾語+)名詞」を指す\footnote{形式名詞の規定は\cite{Book_25}に従う.}.例えば「彼が渋谷まで買い物に行った」「A銀行の破たん」といった表現が挙げられる\footnote{名詞の言い換えは文脈に依存するため,ここで「A銀行の破たん」の言い換えを一意に定めることはできないが,文脈さえ定まれば母語話者は困難なく言い換えることができると考える.具体的には4.2の手順2で論ずる.}.ただし,階層意味論で「命題」や「モダリティ」と呼ばれているものは意味構造を記述するための概念であり,ここで述べた用法とは異なる.そこで「命題’」「モダリティ’」と,「’」をつけて区別する.
V17N04-07
\label{sect_intro}計算機の急速な普及に伴い,様々な自然言語処理システムが一般に用いられるようになっている.中でも,日本語の仮名漢字変換は最も多く利用されるシステムの1つである.仮名漢字変換の使いやすさは変換精度に大きく依存するため,常に高精度で変換を行うことが求められる.近年では,変換精度の向上とシステム保守の効率化を両立させるために,確率的言語モデルに基づく変換方式である統計的仮名漢字変換\cite{確率的モデルによる仮名漢字変換}が広まりつつある.変換精度を向上させる上で問題となるのは,多くの言語処理システムと同様,未知語の取り扱いである.統計的仮名漢字変換では,文脈情報を反映するための単語$n$-gramモデル,入力である読みと出力である単語表記の対応を取るための仮名漢字モデルの2つのモデルによって出力文候補の生成確率を計算し,候補を確率の降順に提示するが,未知語(単語$n$-gramモデルの語彙に含まれない単語)を含む候補の生成はできない.この問題に対処して変換精度を向上させる一般的な方法は,仮名漢字変換の利用対象分野における未知語の読み・文脈情報を用いたモデルの改善である.仮名漢字変換の利用対象となる分野は多岐に渡っており,未知語の読み・文脈情報を含む対象分野の学習コーパスがあらかじめ利用可能であるという状況は少ない.このため,情報の付与されていない対象分野のテキストに必要な情報を付与して学習コーパスを新たに作成するということが行われる.しかしながら,未知語の中には,読みや単語境界をテキストの表層情報から推定することが困難な単語が少なからず存在する.このような場合には,対象分野の学習コーパスを作成するためにその分野についての知識を有する作業者が必要となるなど,コストの面で問題が多い.上記の問題を解決するために,本論文では,テキストと内容の類似した音声を認識することで未知語の読み・文脈情報を単語とその読みの組として自動獲得し,統計的仮名漢字変換の精度を向上させる手法を提案する.以下に手法の概略を述べる.まず,情報の付与されていない対象分野のテキストから,未知語の出現を考慮した単語分割コーパスである疑似確率的単語分割コーパスを作成し,未知語候補の抽出を行う.次に,疑似確率的単語分割コーパスから音声認識のための言語モデルを構築するとともに,未知語候補の読みを複数推定・列挙し,発音辞書を作成する.その後,言語モデルと発音辞書を用いて対象分野の音声を認識し,音声認識結果から単語と読みの組の列を獲得する.最後に,獲得した単語と読みの組の列を統計的仮名漢字変換の学習コーパスに追加して言語モデルと仮名漢字モデルを更新する.実験では,統計的仮名漢字変換のモデル構築に用いる一般分野のコーパスに,獲得した未知語の読み・文脈情報を追加し,モデルを再構築することで変換精度が向上することを確認した.本論文で提案する枠組みは,対象分野のテキストと音声の自動収集が可能であるという前提のもとで,未知語に対して頑健なモデルを構築することができるため,統計的仮名漢字変換の効率的かつ継続的な精度向上に有効である.
V14N05-08
\label{sec:intro}\subsection{背景と動機}参照結束性(referentialcoherence)とは,主題の連続性や代名詞化によってもたらされる,談話の局所的な繋がりの滑らかさである.本研究の目的は,参照結束性を引き起こすメカニズムの定量的モデル化である.この問題を扱う動機を以下に示す.\begin{itemize}\item[1.]{\bf認知言語学的動機:}談話参与者(発話者,受話者;筆者,読者)が高い参照結束性で繋がる表現/解釈を選択するのは,どのような行動選択メカニズムによるものだろうか?~参照結束性の標準的理論であるセンタリング理論\shortcite{grosz1983,grosz1995}は,この行動選択メカニズムをモデル化していないという課題を残している.上記の問いに対する仮説として,Hasidaetal.\citeyear{hasida1995}はゲーム理論\shortcite{osbone1994,neumann1944}に基づく定式化を提案した.この仮説を{\bf意味ゲーム(MeaningGame)}と呼ぶ.意味ゲーム仮説は日本語コーパスで検証された\shortcite{siramatu2005nlp}が,日本語以外の言語では未検証である.近年,語用論や談話現象などの言語現象をゲーム理論で説明しようとする研究が増えている\shortcite{parikh2001,rooij2004,benz2006}ことからも,意味ゲーム仮説が言語をまたぐ一般性を有するか否かを実データ上で検証することは重要な課題である.\item[2.]{\bf工学的動機:}対話システムや自動要約処理では,参照結束性が高い順序で発話や文を並べ,理解しやすい談話構造を出力することが重要である.そのためには,発話$U_i$までの先行文脈$[U_1,\cdots,U_i]$と後続発話$U_{i+1}$との間の参照結束性のモデル化が不可欠である.工学的に,$U_{i+1}$の候補群から1つの候補を選択する基準として用いるためには,参照結束性の高い候補を選択するためのメカニズムを定量的にモデル化し,そのモデルによって参照結束性の高さを定量的な値として推定できることが望ましい.つまり,本研究が目指す処理の出力は,{\bf先行文脈$[U_1,\cdots,U_i]$と後続発話$U_{i+1}$との間の参照結束性を表す定量的な値}である.これを,様々な言語の談話処理システムから利用可能にすることを目指す.\end{itemize}本研究が扱う参照結束性という談話現象は,談話参与者の認知的な負荷削減と密接に関連する.もし,談話参与者の負荷を削減しようとする発話行動が,様々な言語で参照結束性を引き起こす基本原理となっているのならば,その原理を定式化することで,言語をまたぐ一般性を備えた参照結束性のモデルを構築できるはずである.われわれは,意味ゲーム仮説に基づいてセンタリング理論を一般化するというアプローチを踏襲することで,そのような言語一般性を備えたモデルを構築できると考える.これにより,ゲーム理論に基づく定量的・体系的な参照結束性の分析が,様々な言語で可能になると期待される.\subsection{目的と課題}本研究の目的は,(1)「参照結束性はゲーム理論の期待効用原理で説明できる」という仮説\shortcite{hasida1996,siramatu2005nlp}を,性質の異なる様々な言語の実データを用いて検証し,(2)それによって言語一般性を備えた参照結束性の定量的モデルを構築することである\footnote{本研究の目的は照応解析の精度向上ではない.また,機械学習を用いた照応解析研究\shortcite{ng2004,strube2003,iida2004}は,参照結束性を引き起こす行動選択メカニズムの解明を目指してはいないので,本研究とは目的が異なる.}.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f1.eps}\caption{2つの課題}\label{fig:issues}\vspace{-\normalbaselineskip}\end{center}\end{figure}本研究の目的のために重要な2つの課題を,図\ref{fig:issues}および以下に示す.\begin{itemize}\item[1.]{\bf言語独立な行動選択原理のモデル化:}談話参与者は,コミュニケーションを阻害しない程度に知覚的負荷の軽減が見込まれる表現と解釈を選択する.この行動選択原理から,様々な言語の上での参照結束性のメカニズムを説明できるとわれわれは予想する.この原理を意味ゲームのフレームワークに基づいて定式化することで,参照結束性の選好を談話参与者の知覚的な因子(談話中で参照される実体に向ける注意や,参照表現を用いる際の知覚的なコスト)からボトムアップにモデル化する.そのモデルが参照結束性を説明できるか否かを,様々な言語の実データで確かめる.\item[2.]{\bf言語依存な特性を統計的に獲得可能なモデル化:}原理的には言語に独立な行動選択機構があるにしても,表層表現の知覚においては各言語の特性に依存する言語的因子があると考えられる.具体的には,談話参与者が実体に向ける注意の度合(顕現性;salience)や,参照表現を用いる際の知覚的なコストは,各言語に特有な言語表現に影響されるはずである.言語毎の手作業の設計を避け,より精緻に当該言語に適応させるためには,当該言語のコーパスからその特性を自動獲得可能なモデルが望ましい.そのためには,顕現性や知覚コストを統計的に定式化する必要がある.\end{itemize}\subsection{アプローチ}本稿では,上で述べた2つの課題に対して以下のアプローチをとる.\begin{itemize}\item[1.]{\bf参照結束性を引き起こす行動選択原理の言語をまたぐ一般性を検証:}Hasida\citeyear{hasida1995},白松他\citeyear{siramatu2005nlp}の仮説(ゲーム理論に基づく参照結束性の定式化)が,言語をまたぐ一般性を有するか否かを検証する.具体的には,性質が異なる2つの言語である日本語と英語のコーパスを用いて検証実験を行う.\item[2.]{\bf言語依存な知覚的要因を表すパラメタを統計的に設計:}参照結束性に影響する知覚的な要因(実体の顕現性,参照表現を使う際の知覚コスト)は,言語毎に特有な表現に影響されると考えられるので,これらをコーパスに基づく統計的なパラメタとして設計する.具体的には,言語特有の表現に依存するパラメタ分布を,日本語と英語のコーパスから獲得する実験を行う.これにより,統計的定義の妥当性を検証する.\end{itemize}以下,\ref{sec:issues}章で従来研究の概要と問題点を説明し,\ref{sec:ut}章では白松他\citeyear{siramatu2005nlp}のモデルを多言語に適用する際の問題点を解決する.\ref{sec:verification}章では,性質が異なる大きく異なる2つの言語である日本語と英語のコーパスを用い,モデルの言語一般性を検証する.\ref{sec:discussion}章では,参照結束性の尺度としての期待効用の性質,および,代名詞化の傾向に関する日本語と英語の違いを考察する.最後に,\ref{sec:conc}章で結論を述べる.
V16N04-02
近年,コロケーションの研究は自然言語処理及びコーパス言語学において盛んになっている.このコロケーションの一種である遠隔共起\footnote{本稿では,あるテクストにおいて,語と他の言語的要素が同時に出現する現象を「共起」と呼ぶ.情報処理およびコーパス言語学において,同じような意味で「コロケーション」という用語も利用される.文末モダリティ形式との共起は語と文法範疇の共起とも考えられ,そのような語と文法範疇の共起は「コリゲーション」という用語を使用することがある.それに対して,語と語の共起は「コロケーション」と呼ばれる\cite{IshikawaBook}.本章では,両方の現象を「共起」という用語で扱う.「遠隔共起」というのは離れた位置に出現する共起である.}は,頻繁に現れる言語現象であるにも関わらず,研究としては取り上げられていない.日本語における遠隔共起の一つとして推量副詞と文末モダリティ形式\footnote{たとえば,「\textgt{\underline{たぶん}}最初は発表のスタイルもばらばらで声もあまり出ない\textgt{\underline{だろう}}」の例には,「たぶん」は推量副詞,「だろう」は文末モダリティ形式である.推量副詞および文末モダリティは,両方とも,話し手の確信の度合いを表している.}との共起関係があげられ,日本語教育においても重要な問題の一つである.このような共起はモダリティを二重に表現していることにより,テクストにおける重要な語用論的な指標となっている\cite{Bekes}.\shortciteA{Srdanovic2008a}では,工藤\citeyear{Kudou}が示した確率論的性格を有する推量副詞と文末モダリティの「共起」の振る舞いが,複数のコーパスの分析の結果においても確認された.さらに,推量副詞と文末モダリティ形式の共起はテクストの種類によって著しく異なっていることが示され,日本語コーパス資料の分類の可能性が明らかにされた.日本語においてモダリティ形式とそのバリエーションが非常に多いにもかかわらず,そのリストが存在しないため,現在の形態素解析ツールにおいては複数の形態素の連なりからなる様々なモダリティ形式の認識が不可能である.このことから,本研究ではコーパス検索ツールSketchEngine(SkE)\shortcite{Srdanovic2008b,Srdanovic2008d}において日本語の推量副詞とモダリティ形式の遠隔共起が検索可能になるように機能の拡張を試みる.実現方法としては,複数のコーパス分析の結果に基づいて,モダリティ形式とそのバリエーションのリストを作成し,ChaSenで認識できるようにした上で,語の文法・共起情報を提示するために推量副詞と文末モダリティ形式との遠隔共起が容易に抽出できるようにする.この抽出結果によって,日本語の学習者,研究者,教師が推量副詞と文末モダリティ形式の共起表現を簡単に調べられ,学習辞書や教科書などの作成に効率的に応用できるようになると考えられる.
V09N05-02
機械翻訳では,統計ベースの翻訳システムのようにコーパスを直接使用するものを除き,変換規則などの翻訳知識は依然として人手による作成を必要としている.これを自動化することは,翻訳知識作成コストの削減や,多様な分野への適応時の作業効率化などに有効である.本稿では,機械翻訳,特に対話翻訳用の知識自動獲得を目的とした,対訳文間の階層的句アライメントを提案する.ここで言う句アライメントとは,2言語の対訳文が存在するとき,その1言語の連続領域がもう1言語のどの連続領域に対応するか,自動的に求めることである.連続領域は単語にとどまらず,名詞句,動詞句などの句,関係節などの範囲に及ぶため,まとめて句アライメントと呼んでいる.ここでは対象言語として,英語と日本語について考える.たとえば,\begin{itemize}\parskip=0mm\itemindent=20pt\item[E:]{\emIhavejustarrivedinNewYork.}\item[J:]{ニューヨークに着いたばかりです.}\end{itemize}\noindentという対訳文があった場合,ここから\begin{itemize}\itemindent=20pt\parskip=0mm\item{\eminNewYork}$\leftrightarrow${ニューヨークに}\item{\emarrivedinNewYork}$\leftrightarrow${ニューヨークに着い}\item{\emhavejustarrivedinNewYork}$\leftrightarrow${ニューヨークに着いたばかりです}\end{itemize}\noindentなどの対応部分を階層的に抽出することを目的とする.これを本稿では同等句と呼ぶ.同等句は2言語間の対応する表現を表しているため,用例ベースの翻訳システムの用例とすることができる.また,同等句同士は階層的関係を持つため,これをパターン化することにより,文をそのまま保持する場合に比べ,用例を圧縮することもできる.従来,このような句アライメント方法として,\shortciteA{Kaji:PhraseAlignment1992,Matsumoto:PhraseAlignment1993,Kitamura:PhraseAlignment1997j,Watanabe:PhraseAlignment2000,Meyers:PhraseAlignment1996}などが提案されてきた.これらに共通することは,\begin{enumerate}\labelwidth=25pt\itemsep=0mm\item構文解析(句構造解析または依存構造解析)と,単語アライメントを使用する\item構文解析器が最終的に出力した結果を元に句の対応を取る\item単語同士の対応は,内容語を対象とする\end{enumerate}\noindent点である.しかし,構文解析器が出力した結果のみを使用すると,句アライメントの結果が構文解析器の精度に直接影響を受ける.特に,従来提案されてきた方式は,構文解析が失敗するような文に関して,対策が取られていない.すなわち,本稿で念頭においている話し言葉のような,崩れた文が多く現れるものを対象とするには不適切であると考えられる.本稿では,構文解析と融合した階層的句アライメント方法を提案する.具体的には,構文解析失敗時においても部分解析結果を組み合わせることにより,部分的な句の対応を出力するよう,拡張する.また,内容語のみでなく,機能語の対応を取ることにより,句アライメント精度そのものの向上を目指す.以下,第\ref{sec-phrase-alignment}章では,句アライメントの基本手法について述べ,第\ref{sec-parsing-for-pa}章では,構文解析との融合を行う.第\ref{sec-word-alignment-for-pa}章では,本提案方式に適合した単語アライメントの機能について述べ,第\ref{sec-eval-alignment}章で提案方式と他の方式との比較などの評価を行う.なお,本稿は,\shortcite{Imamura:PhraseAlignment2001-2}を基に,加筆修正したものである.
V10N02-01
人間は言語表現から各事象間の時間関係を推定し全体的な時間関係を把握する.しかしながら言語表現上には事象間の関係を明示する情報は希薄である.このため事象間の時間構造を理解するには,各事象の時間的な局面を手がかりにする必要がある.動作が保持する時間的な情報に対し,それが動きであるのか状態であるのかなどをカテゴリー分けしたものを動詞の持つアスペクトクラスという.各事象のアスペクトクラスを決定するには,構文上の文法形態といった統語論的な情報を手がかりにすることが考えられる.しかし日本語の助詞「た」や「〜ている」などの情報だけからアスペクトクラスの決定をすることは困難であり,事象が持つ時間的な情報を考察する意味論的な手法に頼る必要がある.本稿では固有の言語に依存せず,すべての事象に共通に存在すると仮定される時間構造を考え,この時間構造のどの部位に着目したかによりアスペクトを決定する.一般にはアスペクトクラスから事象間の時間関係を特定するのは困難とされている.そこで本研究では解析するターゲットの文章を料理のレシピ文とし,レシピ文に特化したアスペクトクラスを定義することにより,事象の時間関係の特定を期待する.レシピ文は機械的に読んだだけでは効率的な調理手順を正しく理解することが困難であること,また料理分野特有の表現や料理動作特有の時間的な特徴を持つという性質があげられる.このような問題を解決するためには,各料理動作が保持している時間的な情報の特定や,複数の料理動作の関係を明確にする必要があると考える.型の分類により進行や完了の関係を見い出し,並行動作関係,終了時や開始時の前後関係,さらに背後に仮定される明に記述されていない事象の発見,導入をめざす.解析結果をタイムマップとして表示し,事象群の進行を二次元的に表示する自動生成システムの構築を目標とする.本稿は本章を含め5章で構成される.次章では,アスペクト理論と料理分野における先行研究を示す.3章では,料理レシピ文における言語表現の分析を行う.この分析より,従来研究によるアスペクトクラス分類の問題点を指摘し,日本語の料理レシピ文に特化したアスペクトクラスを定義する.また隣接する事象間に対して,アスペクトクラス間の関係を分析する.さらにレシピ文の言語省略表現について言及し,省略動作の導入処理を提案する.4章では我々が構築した自動生成システムとその考察を示す.最後に5章では,本研究のまとめと今後の課題について述べる.
V15N02-03
\label{Introduction}初期の機械翻訳の研究では,翻訳のルールを人手により書き下して翻訳するルールベース翻訳(RBMT)が用いられていた.計算機性能の問題もあり,しばらくはRBMTによる研究が進められてきたが,多様な言語現象を全て人手で書き下すことは事実上不可能であるし,他の言語対への汎用性が乏しいなどの欠点がある.そこで次に考案されたのが,あらかじめ与えられた対訳コーパスから翻訳知識を自動で学習し,その知識を用いて翻訳を行うコーパスベースの手法である.コーパスベースの手法で最も重要なのが,翻訳で使う知識を対訳コーパスから学習するアラインメントと呼ばれるステップである.アラインメント精度は翻訳精度を大きく左右するため,現在までにアラインメントに関する研究が数多くなされてきた.アラインメント研究の多くは,対訳文を1次元の単語列として扱うものであり,その最も基本的なモデルとして,単語レベルでのアラインメントを統計的に行うIBMモデル\cite{Brown93}が広く利用されている.IBMモデルでは原言語と目的言語の単語同士の対応確率モデル(lexicon)や,語順に関するモデル(distortion),語数を合わせるためのモデル(fertility,nullgeneration)などを統計的に学習する.この単語列アラインメント手法を基礎として,アラインメント結果からより高度な翻訳知識を学習する手法がいくつか提案されている.IBMモデルは1単語ごとでのアラインメントを行うが,Koehnら\cite{koehn-och-marcu:2003:HLTNAACL}はIBMモデルによるアラインメント結果をベースとして,そこから句に相当する部分を抽出する手法を考案し,翻訳の精度をより高めた.ここでいう句とは,単語列を便宜上,句と呼んでいるだけであり,意味のまとまりを表しているわけではなく,また句の階層的関係を扱うものでもない.またChiang\cite{chiang:2005:ACL}は単語列ではなく,同期文脈自由文法に基づいた広い範囲の翻訳パターンを学習する手法を提案した.Chiangの手法はKoehnらの手法による句対応結果からの学習を行うため,そのベースにはやはりIBMモデルがある.このような発展的な翻訳知識学習の手法は,翻訳においてある程度の文の構造を用いることにつながるが,そのベースとなるアラインメント手法であるIBMモデルは,文の構造情報は一切用いていない.このように単語列として文を扱う手法は,英語とヨーロッパ言語など言語構造に大きな違いがない言語対では精度よいアラインメント結果が得られるが,日英などのように言語構造が大きく異なる言語対に対しては不十分である.つまり言語構造が大きく異なる言語対において高精度なアラインメントを実現するためには,アラインメントにおいても各言語での文の構造を利用する必要がある.アラインメントにおいて言語構造を扱う研究は,古くは佐藤と長尾\cite{sato:1990:COLING}やSadlerとVendelmans\cite{sadler:1990:COLING},松本ら\cite{matsumoto:1993:ACL}によって提案されたが,当時は枠組を提案し,短い文での実証を行ったのみで,長い文,複雑な文への適用実験などは行われなかった.しかしその枠組自体は現在でも十分有効なものである.また渡辺ら\cite{watanabe:2000:COLING}やMenezesとRichardson\cite{Menezes01}も構造を用いたアラインメント手法を提案している.これらの研究では,比較的長く,複雑な文のアラインメントを行っている.文が長くなると,対応関係の曖昧性が必然的に増加し,これが問題となる.渡辺らは,曖昧性のない語からの木構造上での距離を尺度として曖昧性の解消を行い,MenezesとRichardsonは確率的な辞書の情報を利用し,最も確率の高い単語から順に対応付けることにより,曖昧性解消を行ったが,いずれもヒューリスティックなルールに基づいた手法であり,木構造全体を整合的に対応付けることはしていない.両言語の木構造を確率的に対応づける研究もある.このような手法は,原言語文の木構造を組み換えることにより,目的言語文の木構造を再現しようとするものであるが,構造を用いることの制約が強すぎるため,この制約をいかに緩めるかが議論の対象となる.Gildea\cite{Gildea03}は原言語の任意の部分木を複製し,目的言語の木構造を再現する手法を提案し,韓国語と英語を対象とした実験でアラインメントエラーレート(AER)\cite{och00comparison}で0.32という高い精度を達成しており,言語構造を用いたアラインメントの有効性を示している.しかし我々は,木構造に対してこのような操作を行う必要はなく,木構造をそのままアラインメントすれば良いと考えた.我々の手法は,佐藤と長尾などによって提案された手法を踏まえつつ,ヒューリスティックなルールではなく,木構造全体を整合的に対応付けることを目的とする.本論文では,係り受け距離と距離—スコア関数を利用した,構造的木構造アラインメント手法を提案する.本手法は依存構造木を利用しているため言語構造の違いを克服することができ,さらに木構造上の距離に基づいたアラインメント全体の整合性を,言語対に独立に測ることができる.さらに構造情報を崩すことなく利用するため,豊富な翻訳知識の獲得も望める.次章では我々の機械翻訳システムのアラインメントモジュールの基本的な部分について簡単に紹介する.\ref{proposed}章では我々が提案する手法を説明する.\ref{result}章では提案手法の有効性を示すために行った実験の結果と結果の考察を述べ,最後に結論と今後の課題を述べる.
V03N03-01
自然言語処理技術は,単一文の解析等に関しては一定の水準に到達し,文の生成技術を統合して幾つかの機械翻訳システムが商用化されて久しい.このような段階に達した現在においては,従来,問題とされてきた形態素解析や構文解析とは異なる以下のような課題が現れてきている.自然言語処理システムは求められる分析性能が向上するにつれて,そのシステムで用いる言語知識ベース(文法規則や辞書データ)も次第に複雑化,巨大化してきた.ひとたび実働したシステムも,利用者が使い込むことによって既存の分析性能では扱えない言語現象への対応に迫られる.利用者が増えるに従って新たな分析性能が要求される.一方,自然言語処理システムを用いる応用分野はますます多様化することが予想され,応用分野ごとにも新たな分析性能が要求される.言語知識ベースにおいても機能の更新が求められ,追加と修正の作業が発生する.しかし,一般に言語知識ベースの開発には多数の人員と多くの時間を必要とするため,その再構築にも手間を要する.応用分野に適合するシステムを効率的に開発するためには,融通性を持ち容易に修正できる文法規則や辞書データの作成技法と,作成された言語知識ベースの保守性の向上を図る必要がある.この課題は,応用分野の多様化に伴う需要と規模が増大する中でますます重要となっている.言語知識をコンピュータへ実装する過程での技術的な課題を論じた研究~\cite{吉村,神岡,奥}がある.しかし,文法規則の記述の方法やノウハウの開示が見られない.どのようにして規則が見つけだされたのかという言語知識の構成過程の研究は少なかった.前述のように,適用分野の多様化に応じて,文法規則の追加や修正を整然と実現するには,文法規則の開発手続きを整理することから取り組むべきである.具体的には個々の文法規則がどのような言語現象に着目して作成されたのか,そして,その記述の手段,すなわちどのような手続きで規則化されたのかのノウハウを方法論的に明らかにすることである.本稿では,この課題への一解決策として,文法規則の系統だった記述の方法を提案する.さらに,我々が提案した方法に従って作成した文法規則について説明する.まず,形態素と表層形態の概念区分をした上で,日本語の持つ階層構造に注目した.形態素の述部階層位置との関係から,表層での形態の現れ方を構文構造に結び付ける形態構文論的な文法作成のアプローチを採用し,文法規則の開発手続きを確立した.この文法規則は機械処理に適合した文法体系の一つとなっている.その特徴は,(1)系統だった記述法に則り作成されたものであること,(2)そのため,工学上,文法規則の開発作業手順に一般性が備わり,誰がどのように文法規則を作成するにせよ,ある条件を満たすだけの言語の分析能力を持った文法規則を記述することができる.なお,もう一方の言語知識である辞書データについても,その知識構成過程の把握が必要であるが,本稿では,特に文法規則についてのみ着目する.以下の第\ref{文法規則の体系だった記述法}章では,文法体系と文法規則の具体化の方法について述べ,文法規則を体系的に記述してゆくための記述指針を提案する.第\ref{文法規則の記述の手順}章では,提案した手続きに従って記述した文法規則例を示す.新聞テキストを用いた分析実験を通して,文法規則の記述の手続きの一貫性を評価した.第\ref{記述手続きの評価}章では,その詳細を報告する.
V15N04-01
本研究の目的は,歴史資料(史料)から歴史情報を自動抽出する方式を確立すること,および歴史知識を構造化するためにその抽出結果を歴史オントロジーとして構築し,提供することにある.歴史研究は史料内容の解読から始まる.そのために史料の収集・翻刻(楷書化)・解読の作業が伴う.ただし,史料の形態・記述は多様であり,翻刻・解読には相当の知識と経験を必要とする.国内には未解読の史料が未だ多数存在する.一方,これまでに解読された結果についても電子化されていない,あるいは機関・個人など個別に存在するために各史料を共用できないという問題があり,歴史事象の関連性の解明,すなわち歴史研究の推進そのものに支障をきたしている.この種の問題解決のために,すなわち歴史知識の構造化のために歴史オントロジーの提供が求められている.われわれは,歴史研究のより一層の推進を目的として「歴史オントロジー構築プロジェクト」を実施している.本プロジェクトは,史料を電子化する,史料に記載されている情報を抽出,構造化して歴史オントロジーを構築する,歴史オントロジーを利用した検索・参照システムを構築するという3つの手順によって構成されている.本プロジェクトを具現化するための史料として『明治前日本科学史』(日本学士院編・刊行,全28巻)を対象に歴史オントロジーを構築する.当刊行史料は,明治前日本科学史の編纂を目的に昭和15年に帝国学士院において企図され,昭和35年に最初の巻が出版され,昭和57年に28巻目の刊行によって現在,完結している.本史料をより有効に活用するため,全巻の電子化および研究目的の利用・提供に関して日本学士院の許諾を得て,電子化に着手した.本史料は公的性が高く,歴史研究の推進という本研究の目的に適合するものである.本史料から日本の科学技術を創成してきた明治前の人物に関する情報を抽出,構造化することにより歴史オントロジーを構築する.本研究では,プロジェクトの第一歩として,『明治前日本科学史』のうちの1巻『明治前日本科学史総説・年表』の本文を電子化したテキストから,人物の属性として人名とそれに対する役職名と地名,人物の業績として人名とそれに対する書名を抽出する.機械学習に基づく情報抽出によって十分な精度を得るには大量の正解データを作成する必要があり,多大な時間がかかることから,本研究ではルールベースの手法によって人物に関する情報を抽出する.本稿では,2章で歴史オントロジー構築プロジェクトの全体像を示す.3章で人物に関する情報を抽出する手法について説明し,4章で実際に評価実験を行い,その結果を考察する.最後に5章で本研究の結論を示す.
V10N03-06
\label{sec:introduction}単語の多義性解消は自然言語処理の重要な基本技術のひとつとして認識されている.単語の多義性というのは,例えば,「買う」という単語について「本を買う」と「反感を買う」とでは意味が違うというように,同じ単語でも文脈によって意味の違いがあるという性質のことを言う.そして,その意味の違いのことを単語の多義と言う.単語の多義は細かく定義すればきりがない.したがって,多義をどこまで区別するべきかはタスクの目的に依存して決めることになる.機械翻訳の問題では,適切な翻訳(訳語/訳句)が選択できればよく,単語の多義はその翻訳の異なりとして定義できる.機械翻訳における単語の多義性解消の方法,つまり,訳語選択の方法は,これまでにも数多く提案されてきた.それらの方法を,利用している言語資源という観点から分類すると,対訳コーパスを用いるもの\cite{Nagao81,Sato90,Brown:90,Brown:93,berger:cl96,Sumita:2000,Baldwin:2001},対訳単語辞書と目的言語の単言語コーパスを用いるもの\cite{Dagan:cl94,Kikui:98},対訳単語辞書と,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いるもの\cite{Kikui:99,Koehn:2000},原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いるもの\cite{Tanaka:96}に大別できる.我々は,多様な情報を用いれば用いるほど良い結果が得られると考え,対訳単語辞書,対訳コーパス,および,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いる.対訳コーパスには大きくパラレルコーパスとコンパラブルコーパスの二種類があり,我々はそのうちパラレルコーパスを用いる.さらに,文対応をとる際の誤りを軽減するために,パラレルコーパスとして,対訳用例(句/文)集合(翻訳メモリ,トランスレーション・メモリー,以下TM)を用いる.我々のシステムは,入力文と対象単語が与えられると,その対象単語に関して入力文と対訳用例集合との類似度を求め,類似度が最大となる用例集合を用いて対象単語の訳語選択を行なう.類似度は,用例に基づく手法と機械学習モデルを用いて計算される.類似度の計算には,文字列の類似性,入力文における対象単語の前後の数単語,入力文中の内容語とその訳語候補のコーパスにおける出現頻度などを考慮する.このシステムで用いた訳語選択のためのモデルは次のような特徴を持つ.\begin{itemize}\item各対訳用例内の単語対応をとり,同じ対訳単語ペアを持つ対訳用例をまとめてひとつの用例集合とする.そして,そのペアの原言語(対象単語と同じ言語)の単語が同じである用例集合をまとめ,そのまとまりごとにモデルを作成する.以降で,各用例集合内で共通する対訳単語ペアを見出し語と呼ぶ.そして,そのペアの各単語をそれぞれ原言語見出し語,目的言語見出し語と呼ぶ(原言語が日本語,目的言語が英語の場合,それぞれ日本語見出し語,英語見出し語と呼ぶ).\item対象単語に関して入力文と表層的にほぼ同じ用例が用例に基づく手法により見つかった場合にはその用例を優先的に翻訳に使う.見つからなかった場合には,機械学習モデルに基づく手法により対象単語に関して入力文と最も類似した用例集合を選択して翻訳に使う.\item言語資源としては,対訳単語辞書,対訳コーパス,および,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いる.\end{itemize}2001年の春,単語の多義性解消のコンテスト第2回{\scSenseval}が開催された\cite{senseval2:homepage}.このコンテストは1998年に,英語と二つのヨーロッパ言語(イタリア語とフランス語)を対象として始まったものである.2001年には新たに他のいくつかの言語に関するタスクが追加された.我々はそのうち日本語に関して追加された翻訳タスクに参加した.本論文では,そのコンテストでの結果をもとに,我々が本論文で提案する手法の有効性および精度向上にどのような情報が有効であったかについて述べる.
V03N02-04
日本語の理解において省略された部分の指示対象を同定することは必須である.特に,日本語においては主語が頻繁に省略されるため,省略された主語の指示対象同定が重要である.省略された述語の必須格をゼロ代名詞と呼ぶ.主語は多くの場合,述語の必須格であるから,ここでは省略された主語をゼロ主語と呼ぶことにする.ここでは特に,日本語の複文におけるゼロ主語の指示対象同定の問題を扱う.日本語の談話における省略現象については久野の分析\cite{久野:日本文法研究,久野78}以来,言語学や自然言語処理の分野で様々な提案がなされている.この中でも実際の計算モデルという点では,centeringに関連するもの\cite{Kameyama88,WIC90}が重要である.しかし,これらは主として談話についての分析やモデルである.したがって,複文に固有のゼロ主語の指示対象同定という観点からすればきめの粗い点もある\cite{中川動機95,中川ので95}.したがって,本論文では主としてノデ,カラで接続される順接複文について,複文のゼロ主語に固有の問題について扱う.ノデ文については,既に\cite{中川動機95,中川ので95}において,構文的ないしは語用論的な観点から分析している.そこで,ここでは意味論的観点からの分析について述べる.複文は従属節と主節からなるので,主節主語と従属節主語がある.複文の理解に不可欠なゼロ主語の指示対象同定の問題は,2段階に分けて考えるべきである.第一の段階では,主節主語と従属節主語が同じ指示対象を持つかどうか,すなわち共参照関係にあるかどうかの分析である.第二の段階では,第一段階で得られた共参照関係を利用して,実際のゼロ主語の指示対象同定を行なう.このうち,第一の共参照関係の有無は,複文のゼロ主語の扱いにおいて固有の問題であり,本論文ではこの問題について考察していく.さて,主語という概念は一見極めて構文的なものであるが,久野の視点論\cite{久野78}で述べられているように実は語用論的に強い制限を受けるものである.例えば,授受補助動詞ヤル,クレルや,受身文における主語などは視点に関する制約を受けている.このような制約が複文とりわけノデ文においてどのように影響するかについては\cite{中川動機95}で詳しく述べている.ここでは,見方を変えて,意味論的な観点から分析するので,ゼロ主語の問題のうち視点に係わる部分を排除しなければならない.そこで,能動文においては直接主語を扱うが,受身文においては対応する能動文の主語を考察対象とする.また,授受補助動詞の影響については,ここでの意味論的分析と抵触する場合については例外として扱うことにする.なお,ここでの意味論的分析の結果は必ずしも構文的制約のように例外を許さない固いものではない.文脈などの影響により覆されうるものであり,その意味ではデフォールト規則である.ただし,その場合でも文の第一の読みの候補を与える点では実質的に役立つものであろう.さて,この論文での分析の対象とする文は,主として小説に現れる順接複文(一部,週刊誌から採取)である.具体的には以下の週刊誌,小説に記載されていた全ての順接複文を対象とした.\noindent週間朝日1994年6月17日号,6月24日号,7月1日号\noindent三島由紀夫,鹿鳴館,新潮文庫,1984\noindent星新一,ようこそ地球さん,新潮文庫,1992\noindent夏目漱石,三四郎,角川文庫,1951\noindent吉本ばなな,うたかた,福武文庫,1991\noindentカフカ/高橋義孝訳,変身,新潮文庫,1952\noindent宗田理,殺人コンテクスト,角川文庫,1985\noindent宮本輝,優駿(上),新潮文庫,1988\bigskipこのような対象を選んだ理由は,物理的な世界の記述を行なう文ばかりでなく,人間の心理などを記述した文をも分析の対象としたいからである.実際週刊誌よりは小説の方が人間の心理を表現した文が多い傾向がある.ただし,週刊誌においても人間心理を記述した文もあるし,逆に小説でも物理的世界の因果関係を記述した文も多い.次に,分析の方法論について述べる.分析の方法の一方の極は,全て論文著者の言語的直観に基づいて作例を主体にして考察する方法である.ただし,この場合非文性の判断や指示対象に関して客観的なデータであるかどうか疑問が残ってしまう可能性もないではない.もう一方の極は,大規模なコーパスに対して人間の言語的直観に頼らず統計的処理の方法で統計的性質を抽出するものである.後者の方法はいろいろな分野に関する十分な量のデータがあればある程度の結果を出すことは可能であろう.ただし,通常,文は対象領域や(小説,新聞,論文,技術文書などという)ジャンルによって性質を異にする.そこで,コーパスから得られた結果はそのコーパスの採取元になるジャンルに依存した結果になる.これらの問題点に加え,単なる統計的結果だけでは,その結果の応用範囲の可能性や,結果の拡張性などについては何も分からない.そこでここでは,両極の中間を採る.すなわち,まず第一に筆者らが収録した小規模なコーパスに対してその分布状況を調べることにより何らかの傾向を見い出す.次に,このようにして得られた傾向に対して言語学的な説明を試みる.これによって,見い出された傾向の妥当性,応用や拡張の可能性が推測できる.具体的には,従属節と主節の述語の性質を基礎に,主節主語と従属節主語の一致,不一致という共参照関係を調べる.このような述語の性質として,動詞に関しては,IPAL動詞辞書~\cite{IPALverb}にある意味的分類,ヴォイスによる分類,ムード(意志性)による分類を利用する.形容詞,形容動詞に関してはIPAL形容詞辞書~\cite{IPALadj}にある分類,とりわけIPAL形容詞辞書~\cite{IPALadj}にある意味分類のうち心理,感情,感覚を表すものに関しては快不快の素性を,属性の評価に関しては良否の素性を利用する.例えば,\enumsentence{淋しいので,電話をかける.}という文では,従属節に「感情-不快」という性質を与え,主節に「意志的な能動の動詞」という性質を与える.また,主節主語と従属節主語の一致,不一致については人手で判断する.このようにして与える従属節と主節の性質および主語の一致不一致の組合せが実例文においてどのように分布するかを調べ,そこに何か特徴的な分布が見い出されれば,その原因について考察するという方法を採る.
V26N01-01
\label{sec:intro}Universal\Dependencies\(UD)\\cite{mcdonald:2013}は,言語間で共通のアノテーション方式を用いて多言語の構文構造コーパス(ツリーバンク)を開発する国際プロジェクトである.多言語の構文構造コーパスを構築する試みはこれまでにも行われているが,言語ごとに独自のアノテーション方式(アノテーション対象,タグ,ラベルなど)が定義されていた\cite{hajivc-EtAl:2009:CoNLL-2009-ST}.UDは全ての言語で共通のアノテーション方式を用いるため,異なる言語間の構文的対応関係が明示的に記述される.したがって,多言語構文解析器の開発,構文解析器を用いた多言語アプリケーションの処理の共通化\cite{udpipe:2017},コーパスを用いた言語間比較\cite{noji:2015}などさまざまな研究開発に利用されており,さらに2017年と2018年には国際会議において構文解析のsharedtaskが行われた\cite{zeman2017conll,udst2018:overview}.2018年6月現在,約60の言語で100以上のコーパスが開発・公開されており,国際的には構文解析研究においてもっとも重要なプロジェクトの一つと認識されている.日本語構文解析やその応用の研究を国際的な研究の俎上に載せ,国際的な研究の流れに取り残されないようにするためには,UDに基づく日本語コーパスの整備が必須である.UDでは,品詞(UniversalPOSTags;以降はUPOSと表記する)\cite{petrov:2012:lrec}や依存関係ラベル(UniversalTypedDependencyRelation)があらかじめ定義されており,全ての言語のコーパスはこれに従ったアノテーションを行うことが求められる.しかし,\ref{sec:japanese}節以降で示すように,UDの仕様を各言語に適用する際にタグやラベルが一意に決定できない事象が多数存在し,UPOSや依存関係ラベルで各言語の実際のテキストデータをどのようにアノテートすべきかは自明でない.日本語も例外ではなく,現在のUDの定義を適用するためには,日本語の構文構造の特性や他の言語との対応関係を考慮しながら,日本語用のアノテーション仕様を定義する必要がある.著者らは,UDにおいて日本語コーパスを開発することを目指して,品詞および依存関係ラベルの仕様を策定し,UDへの自動変換に必要な言語資源を整備し,既存の日本語コーパスをUDに準拠したコーパスに変換するプログラムの開発を進め,UDとしての正解データの構築に努めてきた.このような努力にもかかわらず,現在までに開発してきたデータは,仕様の策定・変換元の言語資源の整備・変換プログラムのいずれかに問題があるために,UDの仕様に完全に則したものに至っていない.残された問題については定量的に評価することは困難であるが,発見次第,仕様の変更・必要な言語資源の整備・変換プログラムの修正を行いながら,随時改善を行っている.本稿では,これまでに策定した日本語UDの定義と,それに至るまでの主要な論点を紹介し,特に問題となる並列構造の扱いについて議論しながら,今後の日本語UDあるいはUD全体の改善について展望を述べる.まず,\ref{sec:ud}節でUDの概要について解説する.\ref{sec:japanese}節では,UDに基づいた日本語の構文アノテーションを行うための,語の単位,品詞体系,依存構造ラベルの定義について述べる.しかしながら,UD本体の仕様が言語横断的に必ずしも整合していないために,日本語に適応する上で様々な問題がある.本稿で述べる定義に至るまでに主として議論されてきた点を\ref{sec:discussion}節にて列挙しながら,既存の言語資源やツールに情報が足りないものや,UDの基準を日本語に適用する際に問題が起きる事象について定義を与えていく.なお,未解決の問題について網羅的に言及することは困難であるため,コーパスにおける頻度が大きい代表的な問題についてのみ触れる.\ref{sec:coord}節では,依存構造木で本質的にそのスコープを表現できない並列構造の扱いについて議論する.以上の定義に従って開発されたUD日本語版の言語リソースや,その構築の手順や公開の状況を\ref{sec:resources}節にて紹介する.\ref{sec:related}節で本稿に散在する先行研究をまとめる.\ref{sec:summary}節で今後の展望について述べる.
V10N02-05
言語処理において,宣言的な文法規則に基づく自然言語文解析の研究・開発は不可欠のタスクである.本稿では,LexicalFunctionalGrammar(LFG)に基づいた実用的な日本語文解析システムについて述べる.本システムの第一の特徴は,精緻な日本語文法規則に基づく深い解析を行う点である.第二の特徴は,実文を対象とした評価が可能な高い解析カバー率を達成している点,すなわち,解析対象が口語的・非文法的文であっても解析可能な高い頑健性を持つ点である.本システムの実装により,LFGに基づく日本語解析システムとしては初めて,文法機能(grammaticalfunction)の情報を含めた解析精度の評価実験を行うことが可能となった.さらに第三の特徴として,LFGの解析結果が持つ言語普遍性の特徴を活かすため,他言語のLFG文法と高い整合性・無矛盾性を保っている点を挙げることができる.第一の特徴を実現するために,日本語文法あるいは国文法研究の知見を参考にして,LFGのフォーマリズムに基づく大規模な文法記述を行った.もちろん,言語現象の形式化には様々な選択肢がある.本システムの構築に際しては,上記第二の特徴および第三の特徴を実現するために,(1)一般には非文法的とみなされる文であってもそれを排除する選択肢を採用せず,かつ,(2)他の言語の解析結果との並行性を保持できる選択肢を優先する方針で文法規則の記述を行った.本稿の構成は以下の通りである.2章では,LFGおよび関連研究について述べる.3章では,上記第三の特徴に関係する取り組みとして,我々が属しているParallelGrammarProjectでの活動を概観する.4章で,日本語LFGシステムの構成を説明した後,5章では文法記述について述べる.5.1節および5.2節において,上記(1)(2)の方針で記述した日本語文法規則を説明する.5.3節の冒頭で触れている通り,第一の特徴と第二の特徴を両立することは極めて難しい.5.3節では,OTマークと部分解析の機能を用いて,この両立を実現する手法について述べる.6章では,以上の枠組みで構築した日本語LFGシステムの評価結果を示し,7章に今後の課題を記す.
V12N05-08
モンゴル語においては,自立語の語幹に対して格を表す語尾や動詞の活用を表す語尾・接続助詞等が結合したものが句を構成し,ヨーロッパ言語と同様に,空白で区切られた句の列により文を構成する.ここで,モンゴル語の形態素解析の問題について考えると,この問題は,モンゴル語文中の名詞句や動詞句が与えられて,それらの句を名詞あるいは動詞の語幹と語尾とに分解することであると言える.この処理を実現するためには,名詞あるいは動詞の語幹に語尾が接続する際の接続可能性や語変形の規則性を明らかにする必要がある.また,例えば,他の言語からモンゴル語への機械翻訳などにおいては,名詞あるいは動詞の語幹および語尾が与えられると,その語幹・語尾の組に対する語変形や活用の過程を規則化し,名詞句あるいは動詞句を生成する機構を確立する必要がある.ところが,現時点で利用可能なモンゴル語の言語資源としては,数千語程度の規模の単語について語幹情報が登録された電子辞書,および,ウェブ上で収集可能な新聞記事等の電子テキストが存在するにすぎない.また,モンゴル語に関して,名詞あるいは動詞の語幹と語尾の組から名詞句あるいは動詞句を生成するための言語知識や規則なども全く整備されていない.また,そのような句生成のための言語知識・規則を運用すれば,モンゴル語の句の形態素解析を行なうこともできるが,現時点では,モンゴル語文の形態素解析を実用的規模で行なうことも実現されていない.本論文では,現時点で利用可能なモンゴル語の言語資源,特に,名詞・動詞の語幹のリスト,および,名詞・動詞に接続する語尾のリストから,モンゴル語の名詞句・動詞句を生成する手法を提案する.具体的には,名詞・動詞の語幹に語尾が接続する際の音韻論的・形態論的制約を整備し,語幹・語尾の語形変化の規則を作成する.評価実験の結果において,名詞句の場合は98\%程度,動詞句の場合は100\%という性能で,生成された句の中に正しい句候補が含まれるという結果が得られた.さらに,本論文では,この句生成に基づいて,モンゴル語の名詞句・動詞句の形態素解析を行なう手法を提案する.具体的には,まず,既存のモンゴル語辞書から名詞語幹および動詞語幹を人手で抽出する.次に,これらの語幹に対して,モンゴル語名詞句・動詞句生成規則を適用することにより,語幹・語尾の組から句を生成するための語形変化テーブルを作成する.そして,この語形変化テーブルを参照することにより,与えられた名詞句・動詞句を形態素解析して語幹・語尾に分離する.評価実験の結果においては,語形変化テーブルに登録されている句については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれることが確認できた.以下,まず,\ref{sec:mon-gra}~節においては,モンゴル語の文法の概要について述べる.\ref{scn:vowelagreement}~節においては,名詞・動詞の語幹に語尾が接続する際に,名詞・動詞に含まれる母音字と,語尾に含まれる母音字の間で満たされるべき接続制約について述べ,\ref{scn:suffixagreement}~節においては,名詞・動詞の語幹に語尾が接続する際の語形変化規則について述べる.\ref{sec:phrase-gene}~節においては,モンゴル語句生成の評価実験について,\ref{sec:morph-analysis}~節においては,モンゴル語形態素解析の評価実験について,それぞれ述べる.また,\ref{sec:related}~節においては,関連研究について述べる.
V09N05-04
label{intro}比喩とは,ある概念を他の概念によって説明または強調する修辞的手法の一つであり\cite{Lakoff1986,Yoshiga1990j},様々な分野で研究対象として取り上げられている\cite{Shinohara2000j}.自然言語処理の分野においても,比喩表現はしばしば問題となる.例えば,機械翻訳において,現状のシステムでは意訳や再解釈などの深い処理は行われないため,目的言語に翻訳された比喩表現は,意図した内容と異なった出力となってしまう場合がある\cite{Masui1995j}.``水のような価値''という比喩表現は,日本語では「価値が低い」という意味として理解されるが,言語によっては,「非常に価値が高い」ことを意味する場合がある.これは,``水''が持つ特徴が言語間で異なるからであり,この違いを補正するためには,原言語における「価値が低い」という特徴を保持したまま,対象言語において,同様の特徴を持った言葉を選び出す必要がある.しかし,現状の機械翻訳では,このような,言語間の意味の相違を考慮した処理は不可能である.このような場合,その表現が比喩であるかどうかを判断し,``asworthaswater''や``valuelikeaswater''と直訳されることを防ぐだけでも有効であると思われる.また,李\cite{Yoshiga1990j}によれば,新聞記事などの実用文においても,比喩表現は数多く出現し,その割合は小説や雑誌と大差はない.したがって,自然言語処理の対象を一般的な文書へ拡大し,柔軟な処理を行うたためには,比喩表現の処理は重要である.従来,比喩に関する研究は,心理学の分野において発展してきた.Ortony\cite{ortony79}やGentner\cite{gentner94}をはじめ,多くの比喩理解の理論的モデルが,提案されている.楠見\cite{Kusumi1996jb,Kusumi1996ja}は,心理学的実験手法によって,比喩理解に必要な知識を計測し,いくつかの理論的モデルの検証を行っている.しかしながら,上記で述べたような心理学実験は,被験者に対するアンケートやテストによって知識を得る手法であるため,汎用的な大規模知識ベースを構築するという目的に対しては,被験者数の確保や被験者集団の知識の偏り,個人差の是正の困難さやコストの面で大きな制限がある.比喩理解の過程を計算機上で実現するためには,比喩の理解過程を,なんらかの形でモデル化して扱う必要がある.岩山らは,プロトタイプ理論\cite{rosch75}に基づいて概念を生起確率を持った属性値集合として記述し,比喩を構成するときの特徴の移動を定量化する計算モデルを提案しており\cite{Iwayama1991j},内海も同様の計算モデルを用いて,心理学実験データに基づく知識ベースを用いた比喩理解の実験を行い,人間の判断結果と比較している\cite{Utsumi1997j}.彼らのモデルでは,比喩の理解過程は比喩表現として尤も強調される特徴(顕現特徴)が,たとえる概念(source概念)からたとえられる概念(target概念)へ移動するプロセスとして扱われている.しかしながら,楠見ら\cite{Kusumi1996ja,Iwayama1991j}が指摘するように,比喩理解において,比喩性を有する概念間の共有属性値は必ずしも一つとは限らず,複数の顕現特徴を扱う場合については議論の余地がある.また,彼らも,人手によって知識ベースを構築しており,知識の大規模化,汎用化の問題は解消されていない.そこで,本論文では,テキスト中に出現する比喩表現を認識するために,確率的な尺度を用いた比喩性検出手法を提案する.比喩性を検出するための確率的な尺度として,``顕現性落差"と``意外性"を設定する.``顕現性落差''は,概念対を比較したときに,クローズアップされる顕現特徴の強さをはかる尺度であり,概念の組合せが理解可能である否かの判断に用いる.``顕現性落差''は,確率的な概念記述を用いて,概念の共有属性値集合が持つ冗長度の差で定量化する.``意外性''は,概念の組み合わせがどれほど斬新であるかをはかる尺度であり,概念同士が例示関係であるか否かの判断に用いる.``意外性"は,単語間の意味距離を用いて定量化する.二つの尺度を併用することによって,比喩関係を持つ概念対,すなわち,比喩性の判定が可能となる.二つの尺度を計算するために,コーパス中から抽出した語の共起情報を利用して知識ベースを構築する.以下,2章で,比喩性を検出するための尺度として,``顕現性落差''と``意外性''が利用できることを示し,3章で,``顕現性落差''を,確率的概念記述モデルに基づいて定量化する方法と,計算に用いる知識ベースを,コーパス中の共起関係を利用して構築する方法について述べ,4章で,``意外性''を,単語間の意味距離を利用して定量化する方法と,コーパス中の共起情報に基づく知識ベース構築の方法について説明する.5章では,両尺度を併用した単語対の判別実験と評価を行い,6章で,評価結果について考察する.
V21N06-05
\label{SEC::INTRO}テキスト中に出現する述語の格構造を認識する処理は述語項構造解析や格解析などと呼ばれ,計算機によるテキスト理解のための重要な1ステップである.しかし,格構造を表現する際に使用される``格''には,述語の出現形\footnote{本論文では,能動形,受身形,使役形など,述語が実際にテキストにおいて出現した形のことを出現形と呼ぶ.}に対する表層格や,能動形に対する表層格,さらには深層格など複数の表現レベルが存在し,どの表現レベルを用いるべきかは使用するコーパス\footnote{京都大学テキストコーパス\cite{TAG}では出現形の表層格情報,NAISTテキストコーパス\cite{Iida2007}では能動形の表層格情報が付与されている.}やタスクにより異なっている.格構造を表層格で扱う利点としては,表層格はテキスト中に格助詞として明示的に出現することから``格''を定義する必要がないこと,述語ごとに取りうる格をコーパスから自動獲得することが可能なことなどが挙げられる.さらに,出現形に対する表層格で扱う利点としては,能動形では現れない使役文におけるガ格や一部の受身文のガ格を自然に扱えること,先行する述語のガ格の項が後続する述語でもガ格の項となりやすい\cite{Kameyama1986s,Nariyama2002s}などといった談話的な情報が自然に利用できることなどが挙げられる.特に後者はゼロ照応解析において重要な手掛りになることが知られており\cite{Iida2007T,Sasano2011},ゼロ照応の解決も含む述語項構造解析の高精度化のためには,格構造を出現形の表層格で扱うのが望ましいと考えられる.一方,テキストの意味を考える上では,出現形に対する表層格解析では不十分な場合がある.\begin{exe}\ex\label{EX::FRIEND}私が知り合いに誘われた.\ex\label{EX::PARTY}私がパーティーに誘われた.\end{exe}たとえば,(\ref{EX::FRIEND}),(\ref{EX::PARTY})のような文を考えると,出現形の表層格としては(\ref{EX::FRIEND})の「知り合い」と(\ref{EX::PARTY})の「パーティー」は同じニ格となっているが,前者は能動主体を表しており能動形ではガ格となるのに対し,後者は誘致先を表しており能動形においてもニ格となる.このような違いを認識することは情報検索や機械翻訳などといった多くの自然言語処理のアプリケーションにおいて重要となる\cite{Iida2007}.実際に,Google翻訳\footnote{http://translate.google.co.jp/,2014年5月10日実施.}を用いてこれらの文を英訳すると,(\ref{EX::FRIEND}$'$),(\ref{EX::PARTY}$'$)に示すようにいずれの文もニ格が誘致先を表すものとして翻訳される.このうち,(\ref{EX::FRIEND}$'$)に示した翻訳は誤訳であるが,これは(\ref{EX::FRIEND})の文と(\ref{EX::PARTY})の文におけるニ格の表す意味内容の違いを認識できていないため誤って翻訳されたと考えられる.\begin{exe}\exp{EX::FRIEND}Iwasinvitedtoanacquaintance.\label{EXE::FRIEND}\exp{EX::PARTY}Iwasinvitedtotheparty.\label{EXE::PARTY}\end{exe}また,文(\ref{EX::BOTH})は(\ref{EX::FRIEND}),(\ref{EX::PARTY})の2文が表す内容を含意していると考えられるが,出現形に対する表層格解析だけではこれらの含意関係を認識することはできない.このため,含意関係認識や情報検索などのタスクでは,能動形に対する表層格構造や深層格構造といった,より深い格構造を扱うことが望ましいと言える.\begin{exe}\ex知り合いが私をパーティーに誘った.\label{EX::BOTH}\end{exe}そこで,まず出現形における表層格の解析を行い,その結果をより深い格構造に変換することを考える.このような手順を用いることで,談話的な情報を自然に取り入れながら,含意関係認識や情報検索などのタスクにも有用な能動形格構造を扱うことができると考えられる.本研究ではこのうち特に受身形・使役形から能動形への格構造変換に焦点を当てる.受身形・使役形から能動形への格構造変換における格交替パターンの数は限定的であり人手で列挙することは容易である.しかし,文(\ref{EX::FRIEND}),(\ref{EX::PARTY})からも分かるように,述語と格が同じであっても同一の格交替パターンとなるとは限らない.同様に,項とその格が同じであっても同一の格交替パターンとなるとは限らない.たとえば,文(\ref{EX::FRIEND})と(\ref{EX::AWARD})のニ格はいずれも「知り合い」であるが,これらの文を能動形に変換した場合,文(\ref{EX::FRIEND})のニ格はガ格となるのに対し,文(\ref{EX::AWARD})のニ格は能動形においてもニ格のままである.\begin{exe}\ex奨励賞が知り合いに贈られた.\label{EX::AWARD}\end{exe}このため,受身形・使役形から能動形への格構造の変換を高精度に行うためには,述語・項・格の組み合わせごとに,どのような格交替パターンとなるかを記述した大規模な語彙知識が必要となると考えられる.そこで,本研究ではこのような語彙知識を大規模コーパスから自動獲得する手法を提案する.具体的には,格交替のパターンの数が限定的であること,および,対応する受身文・使役文と能動文の格の用例や分布が類似していることに着目し,人手で記述した少数の格交替パターンとWebから自動構築した大規模格フレームを用いることで,受身文・使役文と能動文の表層格の対応付けに関する知識の自動獲得を行う.また,自動獲得した知識を受身文・使役文の能動文への変換における格変換タスクに適用することにより,その有用性を示す.本論文の構成は以下の通りである.まず,2節で関連研究について概観した後,3節で受身・使役形と能動形間の格の交替パターンについて,4節でWebから自動構築した大規模格フレームについてそれぞれまとめる.続いて5節で提案する格フレームの対応付け手法について説明し,6節では実験を通してその有効性を示す.最後に7節で本論文のまとめを記す.
V14N05-04
本論文では,ランダムな初期値を使ってNon-negativeMatrixFactorization(NMF)による文書クラスタリングを複数回行い,それらの結果をアンサンブルすることで,より精度\footnote{本論文において用いる「(クラスタリングの)精度」とは,クラスタリングの正解率(accuracy)と同義である.つまり,ここでは暗にクラスタリングの正解があることを想定しており,得られた結果がどの程度正解に近いかという尺度の意味で「(クラスタリングの)精度」という用語を用いる.}の高い文書クラスタリングの実現を目指す.複数のクラスタリング結果を統合する部分で,従来のハイパーグラフの代わりに重み付きハイパーグラフを用いることが特徴である.文書クラスタリングは,文書の集合に対して,知的な処理を行う基本的な処理であり,その重要性は明らかである.例えばテキストマイニングの分野では,文書クラスタリングは基本的な構成要素であるし\cite{TextMiningBook},情報検索の分野では,検索結果の概観を視覚化するために検索された文書の集合をクラスタリングする研究が盛んに行われている\cite{hearst96reexamining}\cite{leuski01evaluating}\cite{zeng-learning}\cite{kummamuruwww2004}.文書クラスタリングでは,まずデータとなる文書をベクトルで表現する.通常,bagofwordsのモデルを用い,次にTF-IDFなどによって次元の重みを調整する.このようにして作成されたベクトルは高次元かつスパースになるために,文書クラスタリングではクラスタリング処理を行う前に主成分分析や特異値分解などの次元縮約の手法を用いることが行われる\cite{boley99document}\cite{deerwester90indexing}.次元縮約により高次元のベクトルが構造を保った状態で低次元で表現されるため,クラスタリング処理の速度や精度が向上する.NMFは次元縮約の手法を応用したクラスタリング手法である\cite{nmf}.今,クラスタリング対象の\(m\)次元で表現された\(n\)個の文書を\(m\)行\(n\)列の索引語文書行列\(X\)で表す.目的とするクラスタの数が\(k\)である場合,NMFでは\(X\)を以下のような行列\(U\)と\(V^{T}\)に分解する.そして行列\(V\)がクラスタリング結果に対応する.\[X=UV^{T}\]ここで\(U\)は\(m\)行\(k\)列,\(V\)は\(n\)行\(k\)列である.\(V^{T}\)は\(V\)の転置を表す.また\(U\)と\(V\)の要素は非負である.与えられた\(X\)と\(k\)から,ある繰り返し処理により\(U\)と\(V\)を得ることができる\cite{lee00algorithms}.しかしこの繰り返し処理は局所最適解にしか収束しない.つまりNMFでは,与える初期値によって得られるクラスタリング結果が異なるという問題がある.通常は適当な初期値を与える実験を複数回行い,それらから得た複数個のクラスタリング結果の中で\(X\)と\(UV^{T}\)の差\footnote{差は\(||X-UV^{T}||_{F}\)により測定する.}が最小のもの,つまり\(X\)の分解の精度が最も高いものを選ぶ.しかし分解の精度は,直接的にはクラスタリングの精度を意味してはいないため,最も精度の高いクラスタリング結果を選択できる保証がない.ここではNMFの分解の精度を用いて,複数個のクラスタリング結果から最終的なクラスタリング結果を選ぶのではなく,複数個のクラスタリング結果をアンサンブルさせて,より精度の高いクラスタリング結果を導くアンサンブルクラスタリングを試みる.一般にアンサンブルクラスタリングの処理は2段階に分けられる.まず第1段で複数個のクラスタリング結果を生成し,次の第2段でそれらを組み合わせ,最終的なクラスタリング結果を導く.複数個のクラスタリング結果を生成する手法としては,k-meansの初期値を変化させたり\cite{fred02data},ランダムプロジェクションにより利用する特徴を変化させたり\cite{fern_clustensem03},``weakpartition''を生成する研究などがある\cite{topchy03combining}.また複数個のクラスタリング結果を組み合わせる手法としては,データ間の類似度を新たに構築する手法\cite{fred02data}や,データの表すベクトルを新たに構築する手法\cite{strehl02}などがある.ここでは後者の手法を改良して用いる.論文\cite{strehl02}では,データの表すベクトルを新たに構築するために,複数個のクラスタリング結果から,データセットに対するハイパーグラフを作成する.このハイパーグラフは,データセットが表す行列に相当する.このハイパーグラフで表現されたデータに対してクラスタリングを行い,最終的なクラスタリング結果を得る.ただしこのハイパーグラフではエッジの重みが0か1のバイナリ値である.ハイパーグラフが行列に相当すると考えると,エッジの重みの意味は同じクラスタに属する度合いとなり,バイナリ値で表すよりも非負の実数で表す方がより適切と考えられる.そこで本論文ではハイパーグラフのエッジの重みに非負の実数値を与える.具体的には,NMFのクラスタリング結果が行列\(V\)で得られ,同じクラスタに属する度合いが\(V\)から直接求められることを利用する.またここでは,この実数値の重みを付けたハイパーグラフを重み付きハイパーグラフと呼ぶことにする.実験ではk-means,NMF,通常のハイパーグラフを用いたアンサンブル手法および重み付きハイパーグラフを用いたアンサンブル手法(本手法)の各クラスタリング結果を比較し,本手法の有効性を示す.
V19N02-02
自然言語処理技術を用いた多様なアプリケーションにおいて,対象ドメインに特化した辞書が必要となる場面は多く存在する.例えば情報検索タスクにおいて,検索クエリとドメイン辞書とを併用することで検索結果をドメイン毎に分類して提示することを可能としたり,特定のドメインに特化した音声認識システムにおいてはそのドメインに応じた認識辞書を用いた方が音声認識精度が高いことが知られている\cite{廣嶋2004}.一方で,特定のドメインに対する要求でなく,ドメイン非依存の場面においても,詳細なクラスに分類した上で体系的な辞書を用いる必要が生じる場合がある.例えば関根らの定義した拡張固有表現\cite{sekine2008extended}は,従来のIREX固有表現クラスが8クラスであったのに対し,200もの細分化されたクラスを持つ.橋本らによって作成された関根の拡張固有表現に基づくラベル付きコーパスにより,機械学習による拡張固有表現抽出器の研究がなされている\cite{橋本08,橋本10}が,コーパスにおいて付与された各クラスの出現数にはばらつきがあり,極端に学習データの少ないクラスも存在する.コーパスから単純な学習により固有表現抽出器を構築した場合,これら低頻度のクラスについて正しく学習できないことが予想されるため,各クラス毎の直接的な辞書の拡充が必要とされる.このようにドメインやクラスに依存した辞書の重要性は高いが,一方で辞書の作成には大きな人的コストがかかってしまうため,可能な限りコストをかけずにドメイン依存の語彙を獲得したいという要求がある.本論文で対象とする語彙獲得タスクは,ドメインやクラスに応じた少量の語彙集合,特に固有表現集合で表される教師データを用いて,新たな固有表現集合を獲得することを目的とする.なお,本論文では固有表現をエンティティ,初期に付与される教師データをシードエンティティと呼ぶこととする.語彙獲得タスクにおいては,教師データを繰り返し処理により増加させることのできる,ブートストラップ法を用いた手法が多く提案されており\cite{pantel2006espresso,bellare2007lightly},本論文でも同様にブートストラップ法に基づいた手法を提案する.ブートストラップ法の適用により,初期に少量のシードエンティティしか存在しない場合であっても,手掛かりとなる情報,すなわち学習データを逐次的に増加させることが可能であるため,大規模なエンティティ獲得に繋がる.しかしブートストラップ法を用いたエンティティ獲得における課題として,獲得されるエンティティの持つ意味が,シードエンティティ集合の元来の意味から次第に外れていくセマンティックドリフトと呼ばれる現象があり,エンティティ獲得精度を悪化させる大きな要因となっている.本論文では,従来用いられてきた局所的文脈情報だけではなく,文書全体から推定されるトピック情報を併用することで,セマンティックドリフトの緩和とエンティティ獲得の精度向上を図る.本論文におけるトピックとは,ある文書において述べられている「政治」や「スポーツ」等のジャンルを指し,統計的トピックモデル(以下トピックモデル)を用いて自動的に推定する.本論文ではエンティティ獲得精度向上のために,トピック情報を3通りに用いた手法を提案する.第一に,識別器を用いたブートストラップ法における素性として利用する.第二に,識別器において必要となる学習用の負例を自動的に生成する尺度として利用する.第三に,教師データ中のエンティティの多義性を解消することで,適した教師データのみを利用する.以下2節で先行研究とその課題,3節でトピック情報を用いた詳細な提案手法,4節で実験結果について報告し,提案手法が少量のシードからのエンティティ獲得において効果があることを示す.
V24N01-06
社会学においては,職業や産業データは性別や年齢などと同様に重要な属性であり,正確を期する必要がある.このため,国勢調査でも行われているように,自由回答で収集したものを研究者自身が職業・産業分類コードに変換する場合が多い\cite{Hara84}.この作業は「職業・産業コーディング」とよばれるが,国内の社会学において標準的に用いられる職業コード(SSM職業小分類コード)は約200個,産業コード(SSM産業大分類コード)は約20個あり\cite{SSM95},分類すべきクラスの数が非常に多く,コード化のルールも複雑なことから,特に大規模調査の場合は多大な労力や時間を要するという深刻な問題を抱えている\cite{Seiyama04}.また,多人数で長期間にわたる作業となるため,コーディング結果における一貫性の問題も指摘されている\cite{Todoroki_et_al13}.そこで,これらの問題を軽減する目的で,職業・産業コーディングを自動化するシステムの開発を行ってきた.最初に開発したシステムは,SSM職業・産業分類コードを決定するルールを生成し,これに基づいて自動コーディングを行った結果をCSV形式のファイルにするもので\cite{Takahashi00},主として大規模調査に利用された\cite{Takahashi02b,Takahashi03,Takahashi_et_al05b}.その後,自動コーディングの精度向上のため,自動化のアルゴリズムを,文書分類において分類性能の高さで評価されている機械学習のサポートベクターマシン(SVM)\cite{Joachims98,Sebastiani02}とルールベース手法を組み合わせた手法に改良した\cite{Takahashi_et_al05a,Takahashi_et_al05c}.また,社会学を取り巻く環境の変化に対応するために,ILOにより定められた国際標準コードに変換するシステムも開発した\cite{Takahashi08,Takahashi11}.さらに,いずれのシステムにも,自動コーディングの結果に対してシステムの確信度を付与する機能を追加した\cite{Takahashi_et_al13a}.この結果,自動化システムは職業・産業コーディングにおける前述の2つの問題解決に大きく貢献するものとして,社会調査分野において評価を得た\cite{Hara13}.自動化システムはまた,職業・産業コーディングの実施方法も変えた.以前は,コーダは調査票を見ながらコーディングを行い,その結果を調査票に書き入れていた.しかし,システムの開発以降,依頼者が作成したデータファイルを開発者が事前に処理し,コーダはその結果付きのファイルを画面に表示してコーディングを行い,結果を入力するようになった.この方法は,自動化システムを利用する場合の標準的な方法となった.現在,自動化システムは整理統合され,東京大学社会科学研究所附属社会調査・データアーカイブ研究センター(CSRDA)から,Webを通じた利用サービスとして試行提供されている\footnote{http://csrda.iss.u-tokyo.ac.jp/joint/autocode/}\cite{Takahashi_et_al14}.利用希望者は,自動コーディングを希望するコードの種類を明記した書類をCSRDAに申請し,受理されれば,所定の形式の入力ファイルを指定された場所にアップロードすることができ,その場所から,CSRDAのシステム運用担当者が処理した結果をダウンロードできる仕組みとなっている.これにより,一般の研究者や研究グループが開発者を通すことなく,自由にシステムを利用することができるようになった.海外においても職業・産業コーディングは実施されており,負担の大きい作業であるとの認識から,コンピュータによる支援方法が検討されている.しかし,単なる単語のマッチング以外のものは,韓国と米国における2例のみである.いずれもルールベース手法が中心で,機械学習は適用されていない.また,以上に述べた自動化システムと大きく異なるのは,職業や産業コードそのものを重要な変数として分析に用いる社会学の研究を支援するものではない点である.本稿では,現在公開中の自動化システム(以下,本システムと略す)について報告する.本システムにおける新規性は次の3つである.\begin{itemize}\item分類精度向上のために,ルールベース手法と機械学習の組み合わせ手法の適用\itemコーダの作業負担軽減のため,第1位に予測された候補に対する確信度を付与\item国内標準コードだけでなく,近年利用が高まっている国際標準コードにも対応\end{itemize}本システムは,CSRDAに置かれたのを機に,だれもが容易に操作することができるように,ユーザーインターフェイスを改良した.これは,システムの運用担当者が社会学研究者であることと,短期間で交代する状況を考慮したためである.以下では,最初に自動化システムのこれまでの変遷について補足説明を行った後,本システムについて述べる.そこでは,実際に本システムを利用する社会学研究者による評価も報告する.また,CSRDAにおける本システムの利用方法についても述べる.
V06N04-01
照応関係の理解は,統語的・意味的レベルの問題であるとともに,談話レベルの問題でもあり,照応表現とその先行詞をどのように同定するかは,言語理論にとっても~\cite{sag}~\cite{tsujimura:1996}~\cite{imanishi:1990},工学的な談話理解システムを構築する上でも重要な課題である~\cite{nakaiwa:1996}~\cite{murata:1997a}~\cite{tanaka:1979}.本稿では,日本語の照応表現について,発見的ストラテジー(heuristicstrategy)が照応関係理解のプロセスでどのように関与するのかについて心理言語学的実験を通して考察する.
V16N04-05
近年の科学技術の進展にともない,工学知は幾何級数的に増大したが,その一方で,工学教育の現場においては,学生が自分の興味に合わせて講義・演習を選ぶことが非常に困難な状況になっている.例えば,東京大学工学部では約900の講義が開講されており,学科の枠を越えた講義の履修が可能であるが,講義の選択に対する十分な知識が得られる状況とは言い難い.学生にとっては,a)自分の興味がどの講義によって教授されるか(講義の検索),b)その講義を受けるために習得すべき講義は何か(講義間関連の同定),等を得ることが望ましい.また,教員も同様に,講義全体の効率化のために,講義内容の重複や講義の抜けを知る必要があり,総じて講義の全体像を俯瞰し,各講義間の関連性を知ることが非常に重要となる.こうした問題に対し,我々は先より,異なる分野における知識を効率的に抽出し,かつ得られた知識間の関連性から浮かび上がる新たな知の活用を支援する「知の構造化」に関する研究開発を進めてきた\cite{Inproc_Mima_2006a,Article_Mima_2006b,Inproc_Yoshida_2007}.「知の構造化」の主たる目的は,知識を分析し可視化技術により知の内容を明瞭にすることで,i)知識全体の構造を明らかにし,ii)知識の関連から隠れた知識や,新たな知識を発見する,iii)知識の集中と抜けを発見する,さらには,これらによる知識の活用と再利用性を促すことにある.以上のような知の構造化の工学教育分野における実践として,以下の目標を達成するために,工学知およびカリキュラムの構造化と可視化に取り組んでいる.\noindent\textgt{・セルフオリエンテーション可能なシステムの構築}カリキュラムの全体像を構造化し,可視化することによって,学生が学ぶことの相対的位置付けを理解し,進むべき道を自ら指向できるようにする.\noindent\textgt{・テーラーメイド教育の実現}様々な異なるキャリアの学生に対して,多様なコース中から,個々の目的に応じた最適なカリキュラムを効果的に提示する.これらの目標を達成するために,1)キーワード検索によるアプローチ,および,2)課題志向によるアプローチ,という二つのアプローチでこの問題に対する取り組みを進め,既に学生へのサービス提供を行っている.通常,キーワード検索によるアプローチは,有用性が高く強力な検索能力を提供可能であるが,専門的知識の乏しい初学者にとっては,適切な検索キーワードを見つけだすことが難しいという問題がある.その一方,Yahoo!等のインターネット検索サイトでのディレクトリ検索に相当する課題志向によるアプローチでは,あらかじめ「環境」,「エネルギー」等の,(学科の枠に捕らわれない)課題に即して講義を(階層的に)分類し,それらの取捨選択により最終的な講義の選別が可能となるため,個別の科目に関する知識をそれほど必要とせずに,各学生の興味のある課題にあわせて講義を検索することができるという利点がある.双方共に一長一短があるが,教養課程から専門課程に渡る学生の多様なニーズに応えるためにも,キーワード入力と課題志向の両面から,講義を構造化・可視化することが,学生へのサービス提供という点からも重要である.キーワード入力からのアプローチとして,東京大学工学部では,MIMASearchシラバス構造化システムとして既に学生に向けサービスを提供している.本システムの特徴は,講義内容(以下,シラバス)のテキストを自然言語処理技術により自動的に構造化し,可視化技術を利用することで学生との柔軟なインタフェースを提供することにある.学部学生,大学院生を対象とした過去3年に渡るアンケート調査の結果や,年々のアクセス数の伸び等を始めとし,検索の効率化等に対する良好な評価を得ている.なお,MIMASearchに関する詳細は\cite{Inproc_Mima_2006a,Web_MIMA_Search}にあるため,本稿では割愛する.一方,課題志向によるアプローチに関しても,従来,人手により課題別にシラバスを分類し,構造化,可視化を行うことで,同様のサービスを提供しており,先と同様,学生からの良好な評価を得ている.しかしながら,課題志向によるアプローチでは,従来の学科や進学コース単位での,言わば,分野内でのシラバス分類と異なり,多くの場合に分野の枠を越えたシラバスの分類が要求される.特に,近年急速に発展しつつある「バイオテクノロジー」,「ナノテクノロジー」,「環境」,「エネルギー」等の分野では,学際的,複合的,融合的な方法で研究開発が行なわれており,これらの分類に関しては,より広範囲の知識を必要とする.さらには,「地球温暖化」,「環境資源の枯渇」,「持続可能な社会」等,学科のみならず,学部の枠組みを超えた講義や知識のつながりをとらえることが必要な課題も存在する.その一方で,近年の工学知の増大と細分化により,講義を受け持つ各教員が俯瞰的な視点から自身の講義を位置付けることが困難な状況にあるといえる.例えば,東京大学工学部の2008年度シラバスにおいて,「事前履修」,「並行履修」,「事後履修」という関連講義を記述する項目があるが,入力された関連講義のうち約34\%の記述に誤りがあり,関連講義をたどることできない状態にある.これらの多くは,カリキュラムの再編によって既に開講されていない講義名を参照していたり,曖昧な記述のままとなっていることが原因と見られるが,各教員が講義の全体像を把握し,シラバス間の関連を記述することが必ずしも容易ではないことを示していると思われる.以上のように,学際的な研究が増加し課題志向別にシラバスを俯瞰する必要性が高まっている一方で,各教員は学問分野の増大・細分化により俯瞰的な視点からシラバスを記述することが困難な状況にある.したがって,客観的・俯瞰的に課題志向別にシラバスを構造化するためには,工学知を俯瞰し,分類することができる専門の人員が必要となる.そこで,東京大学大学院工学系研究科では,現在数名の専門の教員が人手によりシラバスを精査し分類作業を行っている\cite{Web_Kadaisikou}.しかし,年度毎に更新されるシラバスに対して,人手による分類を毎年続けていくことは,大きなコストと時間を要する.よって,この作業を可能な限り自動化し,効率的な手法を開発することが非常に重要な課題となる.そこで,本研究では,課題志向によるシラバス構造化のアプローチに関し,シラバス分類を(半)自動化するシステムを提案する.本システムの特徴は,従来,全ての工程を人手による手作業で行っていたシラバス分類に対し,その一部を言語処理による特徴抽出,及び機械学習による自動分類を利用することで,全体の作業工程を短縮することにある.以下,本稿では,これら課題志向によるシラバス構造化アプローチとして,我々のグループで取り組んでいる課題志向別シラバス分類,構造化システムについて,システム構成,実装,及びテストデータを利用した実験評価を交えて解説する.
V06N02-03
近年,連続音声認識において,N-gram言語モデルによる言語制約を用いた手法が幅広く用いられている.N-gramは,大規模なテキストデータを統計的に解析し,直前の{\itN-1}個の単語から次の単語への遷移を確率的に与える非常に単純な言語モデルである.しかし,その構築・実装の容易さ,統計的音響モデルとの相性の良さ,認識率向上や計算時間の短縮の効果が大きい等の理由から,連続音声認識にはでは盛んに用いられている\cite{Bahl}\cite{Woodland}.N-gramは当初,英語の連続音声認識に対して適用され,その有効性が示された.英語の文章は,単語がスペースで区切られており,テキストデータから単語を単位としたN-gramが容易に構築できる.しかし,日本語の文章は文字が連続しており単語の境界が明らかではなく,テキストデータのみでは単語N-gramを構築することはできない.このため,我々は日本語の連続音声認識の認識単位として形態素を用いているが,その有効性について2章で明らかにしている.形態素を単位としたN-gramを構築する場合,テキストデータに形態素を付与する,いわゆる形態素解析を行う必要がある.しかし,N-gramを構築するのに必要な,大量のテキストデータを全て人手で形態素解析を行うには多大な労力と時間が必要であり,また,かなりの経験がある人が作業を行わなければ,付与された形態素の揺れも大きくなると考えられる.従って,大量のデータをより正確に形態素解析を行うためには,自動的に形態素解析する手法が望ましい.自動形態素解析は,従来人手で作成したルールにより解析を行う方法が主流であったが,ルールの作成の作業は相当の知識・経験が必要であり,また,話し言葉等のより自然な文を全てカバーできかつ矛盾のないルールを作成するのは困難であると考えられる.これに対し,本論文ではN-gram統計に基づく形態素解析手法を考える.N-gramを構築するためには,事前に形態素体系の構築や定義を行う必要はあるが,従来の形態素解析で必要であった形態素間の接続ルールの作成・重みの変更等の作業に代わり,ある程度の量の形態素データを収集するという比較的単純な作業で構築できる利点がある.また,より自然な発話文に対しても,データさえ収集できれば容易に適用可能である.3章では,N-gramを用いた形態素解析の原理を説明する.統計的モデルにより形態素解析を行うためには,通常は統計モデルの学習用として形態素解析済みの言語コーパスが整備されていることが前提となる.このため,山本らは\cite{Yamamoto}辞書と接続コストのみを用いて文コーパスから形態素ネットワークを生成し,生成された形態素ネットワークから隠れマルコフモデルを学習し形態素解析を行うことにより,形態素解析された言語コーパスが存在しない場合でも形態素解析が可能な手法を提案している.しかしこの方法では,形態素解析にかかるコストは非常に小さいという長所はあるが,形態素解析の結果はモデル化能力の低いとされる品詞Bigramと大きくは変わらず,形態素解析の正解率の適合率が93.5\%程度と報告されており,正しい形態素データを学習しない方法には精度に限度があると考えられる.形態素解析の精度は連続音声認識の精度にも大きく影響すると考えられるため,我々は高い精度でかつできるだけコストを抑えた形態素解析の手法を考える.このため,本論文では,形態素解析のためのN-gram言語モデルとして,より少ない量の形態素解析された言語コーパスから精度の高い予測精度の言語モデルを得るため,品詞と可変長形態素列の複合N-gram\cite{Masataki}を用いることを提案する.複合N-gramは,基本的には品詞を単位としたN-gramであるが,言語モデルとしての精度を高めるため,特定の形態素は品詞クラスから分離させ独立して扱い,さらに特定の形態素列を結合させて新たな単位として扱うモデルである.このため,品詞という単位では表現できない形態素独自の特徴を表現でき,かつ長い範囲の形態素間の連接関係を効率良く表現することができるモデルである.4章では,品詞と可変長形態素列の複合N-gramについて解説する.通常連続音声認識では,辞書に登録されている語いを対象とした認識が行われている.しかし形態素解析では,大量のテキストデータをまとめて処理するため,辞書に登録されていない未知語が含まれている場合も多く存在する.このため,形態素解析においては,未知語を含む文に対しても正確に処理が行えることが重要であると考える.本論文では,品詞から未知語が出現確率する確率を考えることにより,未知語の形態素解析も行えるよう,5章で定式化を行った.本論文で使用した複合N-gramは,品詞を基本単位としたN-gramであるため,このような未知語処理が容易である.第6章では,形態素解析実験により,形態素N-gramや品詞N-gramに対する複合N-gramの有効性を示し,最後の7章で本論文の結論を述べる.
V20N03-03
\label{Introduction}2011年3月11日に起こった東日本大震災では,テレビ,ラジオなどの既存メディアが伝えきれなかった局所的な情報を,Twitterなどの個人が情報発信できるソーシャルメディアが補完する可能性を改めて知ることとなった.一方で,Twitter等で発信された大量の情報を効率的に把握する手段がなかったために,被災地からの切実な要望や貴重な情報が,政府,地方自治体,NPOなどの救援団体に必ずしも届かず,救援活動や復興支援が最大限の効率で進展しなかったという可能性も高い.我々が震災時のTwitterへの書き込み(tweet)を調査したところ,少なくとも救援者が何らかの対応をしたことを示すtweetが存在しない要請tweetも非常に多く存在した.さらには大量に飛び交うデマを含む情報に振り回された人も多く出た.こうした状況に対応するため,自然言語処理を用いてTwitter上の安否情報を整理することを目指した「ANPI\_NLP」の取り組みが行われたが,開発の速度や多数のボランティアを組織化するには課題があったことが報告されている\cite{Neubig2011}.実際に災害が発生してから,新たにTwitter等のソーシャルメディアに自然言語処理を適用し,情報を整理する技術を開発するのは非常に困難であろう.我々は,将来起きる災害に備えて,事前にそうした技術を開発しておくことが極めて重要であると考えている.また,我々が被災地で行ったヒアリングでは,現地からの要望とその支援とのミスマッチも明らかになっている.例えば,テレビや新聞などのマスメディアで伝えられた「被災地で防寒着が不足している」という情報に呼応して,多くの善意の人から防寒着の上着が大量に現地に送られたが,津波被害にあい泥水の中で復旧作業をする必要のあった人々がより切実に求めていたのは,防寒のズボンであった.別の例では,全国から支援物資として届けられた多くの衣類はどれも通常サイズのものばかりで,4Lサイズなどの大きな衣類が必要な人が一月以上も被災時の衣類を着続ける必要があった.これらは,大規模災害発生時に生じる被災者の要望の広範さや事前にそうした要望を予測しておくことの困難を示す事例と言えよう.さらに,本論文で提案するシステムで実際にtweetを分析したところ,被災地で不足しているものとして,「透析用器具」「向精神薬」「手話通訳」など平時ではなかなか予想が困難な物資が実際に不足している物品としてtweetされていることも判明している.こうしたいわば想定外の要望を拾い上げることができなれば,再度要望と支援のミスマッチを招くこととなる.以上が示唆することは,次回の大規模災害に備えて,ソーシャルメディア上の大量の情報を整理し,上述した想定外の要望も含めて,必要な情報を必要な人に把握が容易なフォーマットで届ける技術の開発を災害発生以前に行っておくことの重要性である.また,我々が備えるべき次の災害が,今回の震災と類似している保証はない.以上のような点に鑑みて,我々は想定外の質問も含め,多様な質問に対して,ソーシャルメディア上に書き込まれた膨大な情報から抽出された回答のリストを提示し,状況の俯瞰的把握を助けることができる質問応答システムが,災害時に有効であると考えている.ここで言う俯瞰的把握とは,災害時に発生する様々な事象に関して,それらを地理的,時間的,意味的観点から分類した上でそれらの全体像を把握することを言う.別の言い方をすれば,その事象がどのような地理的,時間的位置において発生しているのか,あるいはそもそもその事象がどのような事象であるのか,つまりどのような意味を持つ事象であるのか,等々の観点でそれら事象を分類し,また,それらを可能な限り網羅的,全体的に眺めわたし,把握するということである.このような俯瞰的把握によって,救援者サイドは,例えば,重大な被害が生じているにもかかわらず,炊き出し,救援物資の送付等が行われていないように見える地点を割り出し,なんらかの齟齬の確認や,救援チームの優先的割当を行うことが可能になる.あるいは各地において不足している物資を,例えば医薬品,衣類,食料といった観点で整理して,救援物資のロジスティクスを最適化するなどの処置も可能になる.さらに,こうした俯瞰的把握によって,上で述べたような想定外の事象の発見も可能になり,また,それらへの対処も容易になろう.逆に言えば,誰かがこうした俯瞰的把握をしていない限り,各種の救援活動は泥縄にならざるを得ず,また,想定外の事象に対してはシステマティックな対応をすることも困難となる.また,被災者自身も現在自分がいる地点の周辺で何がおきているか,あるいは周辺にどのようなリソースが存在し,また,存在しないかを全体として把握することにより,現地点にとどまるべきか,それとも思い切って遠くまで避難するかの判断が容易になる.避難に至るほど深刻な状況でなかったとしても,周辺地域での物資,サービスの提供の様子を全体として把握することで,物資,サービスを求めて短期的な探索を行うか否かの決断も容易になろう.我々の最終的な目標は,多様な質問に回答できるような質問応答システムを開発することによって,災害時に発生するtweet等のテキストデータが人手での処理が不可能な量となっても,そこに現れる多様で大量の事象を意味的観点から分類,抽出可能にし,さらに回答の地図上への表示や,回答に時間的な制約をかけることのできるインターフェースも合わせて提供することにより,以上のような俯瞰的把握を容易にすることである.本論文では,以上のような考察に基づき,質問応答を利用して,災害時に個人から発信される大量の情報,特に救援者や被災者が欲している情報をtweetから取得し,それらの人々の状況の俯瞰的把握を助ける対災害情報分析システムを提案する.将来的には本システムを一般公開し,被災地の状況や救援状況を俯瞰的に把握し,被災地からの想定外の要望をも取得し,効率的な救援活動につなげることを目指す.本論文では提案したシステムを実際に東日本大震災時に発信されたtweetに適用した評価実験の結果を示すが,この評価においては以上のような被災状況の俯瞰的把握を助ける能力を評価するため,質問応答の再現率に重点をおいた評価を行う.逆に言えば,いたずらに回答の上位の適合率を追うことはせず,再現率の比較的高いところでの評価に集中する.また,本システムを拡張することで,被災者と救援者の間でより適切な双方向のコミュニケーションが実現可能であることも示す.こうした双方向のコミュニケーションはより適切かつ効率的な救援活動のために極めて重要であると考えている.本論文で提案するようなシステムは非常に多くのモジュールからなり,その新規性を簡潔にまとめることは難しいが,本論文においては以下の手法・技術に関して我々のタスクにおける評価,検証を行った.特にCについては,新規な技術であると考えている.\begin{description}\item[A]固有表現認識(NER)の有効性\item[B]教師有り学習を用いた回答のランキング\item[C]含意関係認識における活性・不活性極性\cite{Hashimoto2012}の有用性\end{description}ここで,A,Bに関しては本論文における実験の目標ならびに設定では有効性は認められず,最終的なシステムではこれらの技術を採用しなかった.これらに関して現時点での我々の結論は以下の通りである.NERはそれ単体では,我々のタスクでは有効ではなく,その後の処理やそこで用いられる辞書等との整合性がとれて初めて有効になる可能性がある.また,回答のランキングは,我々の目標,つまり,少数の回答だけではなく,想定外も含めた回答を可能な限り網羅的に高精度で抽出することには少なくとも現状利用可能な量の学習データ,素性等では有効ではなかった.一方で,含意関係認識において活性・不活性極性を利用した場合,再現率が50%程度のレベルにおいて,適合率が7%程度上昇し,顕著な性能向上が見られたことから,提案手法にこれを含めている.本論文の構成は以下の通りである.まず,\ref{Disaster}節において本論文で提案する対災害情報分析システムの構成とその中で使われている質問応答技術について述べる.\ref{Experiments}節では,人手で作成した質問応答の正解データを用いたシステムの評価について報告する.\ref{Prospects}節にて上述した双方向のコミュニケーションの実現も含めて今後の本研究の展望を示す.さらに\ref{Related_work}節にて関連研究をまとめ,最後に\ref{Conclusion}節にて本論文の結論を述べる.
V17N05-03
本研究では,子供の書き言葉コーパスの収集の取組みとその活用方法の可能性について述べる.自然言語データに関する情報が詳しくまとめられている奈良先端科学技術大学院大学松本裕治研究室\cite[\texttt{http://cl.aist-nara.ac.jp/index.php}]{Web_NAIST}で情報提供されている公開ツール・データによると,現在共有されている国内の言語資源には,国立国語研究所により作成された分類語彙表,小学校・中学校・高校教科書の語彙調査データ,現代雑誌九十種の用語用字全語彙,日本経済新聞や毎日新聞・朝日新聞などの新聞記事データ,国立国語研究所で作成された現代雑誌九十種の用語用字全語彙,IPALなど各種辞書の文例集,源氏物語・徒然草や青空文庫など著作権の消滅した古い文学作品データなどが挙げられる.全て列挙することはできないものの,いずれも調査対象が教科書や新聞,雑誌,辞書,文学作品などに偏っているコーパスが多い.子供の発話資料を共有する取組みであるCHILDESには日本も参加しているものの,日本語を使う子供のコーパスは非常に少ない.子供の言葉コーパスの現状として,海外には主に\begin{enumerate}\itemChildLanguageDataExchangeSystem(CHILDES)(英語をはじめ29ヶ国語の発話データが収められている大規模コーパス)\itemVocabularyofFirst-GradeChildren(MOE)(延べ286,108語,異語数6,412語の小学1年生(5歳から8歳)329名の話し言葉のデータ)\itemThePolytechnicofWalesCorpus(PoW)(6歳から12歳の児童120名より収集された約65,000語の話し言葉コーパス)\itemTheBergenCorpusofLondonTeenagerLanguage(COLT)(ロンドンの13歳から17歳の少年少女の自然な会話を録音した約50万語のコーパス)\end{enumerate}\noindentがある.(1)〜(4)のコーパスはどれも話し言葉コーパスであり,子供の書き言葉コーパスはほとんど存在しない.また子供の発話資料を共有する取組みであるCHILDESには日本も参加しているものの,日本においては,子供の話し言葉コーパス,書き言葉コーパスどちらもほとんど存在しない.電子コーパスの作成においては,コンピュータに機械的にテキストを収集させる方法が一般的である.特定の年齢で使用される書き言葉の電子コーパスを作成するためには,どの年齢の人が書いたテキストなのか判断する必要があるが,コンピュータではその判断が困難である.そのため手作業によって集めざるをえず,多大な手間と労力を必要とする.これが子供の書き言葉電子コーパスがほとんど存在しない理由のひとつであると考えられる.また,研究者が収集した子供の書き言葉資料に基づく研究結果を事例研究の域を越えて普遍的なものにするためには,その資料を共有できるようにすること,特に電子化された言語資源として公開することが必要と考えられるが,その際に立ちはだかる問題の一つとして著作権の保護がある.本研究では,Web上に公開されている作文を収集することによって子供の書き言葉コーパスの作成を行った.しかし,Web上で用例を探して見るだけでなく,その元になった文章を自分のPCにダウンロードし,ダウンロードした本人が使用するだけでなく,その資料を研究グループで複製して共有する場合は問題になる.そのため,著作権処理が必要になる.このように子供の書き言葉コーパスの収集と利用には多大な労力と注意すべき問題があるが,日本の子供の書き言葉コーパスが言語資源として共有されれば,日本語の使用実態の年齢別推移の分析や,子供の言葉に特徴的に現れる言語形式の分析など,国語教育や日本語研究での利用はもちろんのこと,認知発達,社会学など関連分野への貢献など,さまざまな応用の可能性がある.そこで本研究では,子供の書き言葉コーパスとしてWeb上に公開されている小学生の作文データを収集し,書き言葉コーパスとしてまとめたプロセスと結果の報告を行い,そのコーパスの実用例について述べる.
V09N01-05
\label{sec:intro}機械翻訳などの多言語間システムの構築において対訳辞書は必要不可欠であり,その品質がシステム全体の性能を左右する.これらに用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には限界があり,品質を向上するためには膨大な労力が必要であること,辞書の記述の一貫性を保つことが困難であることが問題となる.このことからコーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている\cite{gale_91,kaji_96,kitamura_96,fung_97,melamed_97}.本論文では,最大エントロピー法を用いて対訳コーパス上に対訳単語対の確率モデルを推定し,自動的に対訳単語対を抽出する手法を提案する.本論文では対訳関係にある単語の組を対訳単語対と呼ぶ.最大エントロピー法は,与えられた制約の中でエントロピーを最大化するようなモデルを推定するという最大エントロピー原理に基づいており,未知データに対しても確率値をなるべく一様に配分するため,自然言語処理においてしばしば問題となるデータスパースネスに比較的強いという特徴を持っている.このため,構文解析\cite{ratnaparkhi_97,wojciech_98,uchimoto_99},文境界の同定\cite{reynar_97},動詞の下位範疇化モデル\cite{utsuro_97b}などに応用されている.また我々の手法は,既存の対訳辞書を必要とせず,文対応の付いた対訳コーパスさえあれば,対訳コーパスの分野を限定することなく対訳単語対を抽出できるという特徴を持つ.本論文の構成は以下の通りである.\ref{sec:ME_method}節では最大エントロピー法について説明し,\ref{sec:MEdict}節では最大エントロピー法を用いて対訳単語対を抽出する手法を述べる.\ref{sec:experiment_discussion}節では我々が提案した手法の有効性を示すために行った実験の結果とそれに対する考察を述べ,関連研究との比較を行う.\ref{sec:future}節でまとめを述べる.
V14N01-01
構文解析において,精度と同様,計算効率も,自然言語処理の重要な問題の一つである.構文解析の研究では,精度に議論の重点を置くことが多いが,効率についての研究もまた重要である.特に実用的な自然言語処理のアプリケーションにとっては,そうである.精度を落とすことなく効率を改善することは,とても大きな課題である.本研究の目的は,日本語の係り受け解析(依存構造解析)を行なう効率のよいアルゴリズムを提案し,その効率の良さを理論的,実験的の両面から示すことである.本論文では,日本語係り受け解析の線形時間アルゴリズムを示す.このアルゴリズムの形式的な記述を示し,その時間計算量(timecomplexity)を理論的に論じる.加えて,その効率と精度を京大コーパスVersion2\cite{Kurohashi1998}を使って実験的に評価する.本論文の構成は以下の通りである.第~2節では,日本語の構文的な特徴と典型的な日本語文の解析処理について述べる.第~3節では,英語や日本語の依存構造解析の従来研究について簡単に述べる.その後,第~4節で我々の提案手法を述べる.次に,第~5節で,二つの文節の依存関係を推定するための改良したモデルを述べる.第~6節では実験結果とその考察を記す.最後に,第~7節で本論文での我々の貢献をまとめる.
V20N01-01
\label{sec:intro}近年のWebの発展は目覚ましいものがあり,Blogや掲示板のように,個人が気軽に自分の意見や感想を書き込める場が増えている.特に,商品購入サイトやオークションサイトなどでは,実際に商品を購入したり,サービス提供を受けたユーザが感想を書き込めるユーザレビュー用ページを提供している場合も多く,レビューは,商品やサービスの潜在的購入者にとって,貴重な情報源のひとつになっている.レビューの件数が増加すれば,それだけ多くの感想を読む機会を得ることになるが,商品やサービスによっては何百件から何千件もレビューが存在することもある.この場合,レビューの内容をすべて把握することは困難であるが,このような問題に対して従来からレビューを自動的に分類したり,意見を集約する研究が盛んに行われている\cite{sa2}.意見の集約に関する研究の例として,例えば,Huら\cite{hu}は,評価視点(opinionfeatures)という概念に基づいてレビュー集合内の意見を集約する手法を提案している.ここで,評価視点とは,評価対象(すなわち商品やサービス)の部分や属性のことであり,例えば,評価対象としてデジタルカメラの特定の商品(「デジタルカメラ$X$」)があったとすると,「画質」や「解像度」などがその評価視点となる.Huらは,レビュー集合からユーザ評価が肯定または否定となる評価視点を自動抽出し,\begin{itemize}\itemデジタルカメラ$X$\begin{itemize}\item画質肯定:253/否定:6\item解像度肯定:134/否定:10\item...\end{itemize}\end{itemize}のような集約結果を生成する手法を提案した.ここで,集約結果内の数値は頻度を表しており,デジタルカメラ$X$の画質に対しては253件の肯定評価を示すレビューがあったことを意味する.このような評価視点の(半)自動抽出に基づく研究は他にも,小林ら\cite{kobayashi}や,Liuら\cite{liu},Jakobら\cite{jakob}等がある.しかしながら,これらの先行研究では,基本的に評価視点を漏れなく列挙することが目的となっているため,結果として,数多くの評価視点が出力され,どの評価視点が評価対象にとって重要であるかがわからないという問題がある.また,実際に集約結果としてユーザに評価視点を提示することを考えた場合にも,重要度に応じて提示する評価視点に順序を与えたり,取捨選択できることが望ましい.本論文では,このような背景に基いて,上記の先行研究など,何らかの方法によって得られた多数ある評価視点に対し,それらをある重要度に従ってランキングする課題を新たに考え,ランキングに適した手法について検討する(\sec{uniq_aspect_ranking}).重要度の考え方にはいろいろ考えられるが,本論文では,ユーザは商品購入の際に複数の競合商品を横並びで比較することが多い事を踏まえ,次のように考える.すなわち,競合する複数の評価対象に対して,これらの中で,他の評価対象からある特定の評価対象を差別化できるような評価視点ほど重要であると考え,そのような評価視点に高い重要度を割り当てることを考える.以降,本論文では,このような評価視点のことを特徴的評価視点と呼ぶ.例えば,あるユーザが出張の際に利用する宿泊施設を探しており,幾つか探し当てたとする(宿泊施設$X$,$Y$,$Z$).しかし,どの施設も値段や立地条件が似たり寄ったりであり,どれを選ぶか悩んでいる.このような状況において,提案手法を用いて各施設のレビューから特徴的評価視点を見つけ出し,施設$X$は特に宿泊利用者の間で「朝食バイキング」が人気であり,施設$Z$だけが「まくら」にこだわっていることを自動抽出することができれば,こういった情報を優先的にユーザに提示する手段を提供することができると考えている.なお,\sec{experiment}の評価実験では,実験データとして宿泊施設予約サイトから得られた宿泊施設についてのレビューデータを用いている.そのため,以降においても提案手法の説明に例を用いる場合は宿泊施設を評価対象とする例を用いる.また,レビューはその数だけ書き手が存在することから評価視点の異表記が生じやすい.そこで,本研究では,評価視点のランキングに際して,クラスタリングによって異表記の影響を考慮したランキングの補正手法を提案し,ランキングとクラスタリングを併用することで評価視点の構造化をおこなう(\sec{cl}).本論文の貢献をまとめると,以下のようになる.\begin{itemize}\item[(1)]従来手法によって多数抽出される評価視点を構造化して提示する際,その構造化として,特定の評価対象を他から差別化できるような評価視点が重要であると考え,その重要度に従ってランキングすることを提案している点.\item[(2)]上記ランキング課題に利用できる具体的な尺度として,\sec{uniq_aspect_ranking}で説明する対数尤度比に従った尺度を適用し,その有効性を実験的に検証している点.\item[(3)]また,上記ランキング課題では異表記問題が発生するため,その解決策として評価視点をクラスタリングすることの提案,および具体的なクラスタリング手法を用いて,その有効性を実験的に検証している点.\end{itemize}本論文の構成は以下の通りである.まず,\sec{relation}で関連研究について述べ,続く,\sec{uniq_aspect_ranking}と\sec{cl}で評価視点をランキングするための提案手法について述べる.\sec{experiment}で評価実験について述べた後,\sec{owarini}で本論文をまとめる.
V19N05-02
日本語学習者の作文の誤り訂正は,教育の一環としてだけでなく,近年はビジネス上の必要性も生じてきている.たとえば,オフショア開発(システム開発の外国への外部発注)では,中国,インドなどへの発注が増加している.外国に発注する場合,日本との意思疎通は英語または日本語で行われるが,日本語学習者の多い中国北部では,日本語が使われることも多い.しかし,中国語を母語とするものにとって日本語は外国語であり,メールなどの作文には誤りを含み,意思疎通に問題となるため,それらを自動検出・訂正する技術が望まれている\shortcite{Ohki:ParticleError2011j,Suenaga:ErrorCorrection2012j}.そこで本稿では,日本語学習者作文の誤り自動訂正法を提案する.外国人にとって,助詞はもっとも誤りやすい語であるため,本稿では助詞の用法を訂正対象とする.日本語の助詞誤り訂正タスクは,英語では前置詞誤りの訂正に相当する.英語の前置詞・冠詞誤りの訂正では,分類器を用いて適切な前置詞を選択するアプローチが多い\shortcite{gamon:2010:NAACLHLT,HAN10.821,rozovskaya-roth:2011:ACL-HLT2011}.これらは,誤りの種別を限定することにより,分類器による訂正を可能としている.一方,\shortciteA{mizumoto-EtAl:2011:IJCNLP-2011}は,日本語学習者の誤りの種別を限定せず,翻訳器を利用した誤り訂正を行った.この方法は,誤りを含む学習者作文を正しい文に変換することにより,あらゆる種類の誤りを訂正することを狙ったものである.本稿の訂正対象は助詞誤りであるが,今後の拡張性を考慮して,翻訳器と同様な機能を持つ識別的系列変換\shortcite{Imamura:MorphTrans2011}をベースとした誤り訂正を行う.翻訳の考え方を使った場合,モデル学習のために,誤りを含む学習者作文とそれを訂正した修正文のペア(以下,単にペア文とも呼ぶ)が大量に必要である.しかし,実際の学習者作文を大規模に収集し,さらに母語話者が修正するのはコストが高く難しい場合が多い.この問題に対し,本稿では以下の2つの提案を行う.\begin{enumerate}\item日本語平文コーパスの利用(言語モデル確率と二値素性の混在)学習者作文・修正文ペアのうち,修正文側は正しい日本語であるため,既存の日本語平文コーパスなどから容易に入手可能である.そこで,比較的大規模な日本語平文コーパスを日本語修正文とみなして,変換器のモデルとして組み込む.組み込む際には,日本語平文コーパスは言語モデル確率の算出に利用し,学習者作文・日本語修正文ペアから獲得した二値素性と共に,識別モデルの枠組みで全体最適化を行う.学習者作文・修正文ペアに出現しないものであっても,言語モデル確率によって日本語の正しさが測られるため,誤り訂正の網羅性の向上が期待できる.\item疑似誤り文によるペア文の拡張(とドメイン適応の利用)学習者作文は容易に入手できないため,正しい文から誤りパターンに従って誤らせることにより,自動的に学習者作文を模した疑似誤り文を作成する.この疑似誤り文と元にした日本語文をペアにして,訓練コーパスに追加する.ただし,自動作成した疑似誤り文は,実際の学習者作文の誤り分布を正確には反映していない.そのため,疑似誤りをソースドメイン,実誤りをターゲットドメインとみなして,ターゲットドメインへの適応を行う.疑似誤りの分布が実際の誤りと少々異なっていても,安定して精度向上ができると期待される.\end{enumerate}以下,第\ref{sec-particle-errors}章では,我々が収集した日本語学習者作文の誤り傾向について述べる.第\ref{sec-conversion}章では,本稿のベースとなる誤り訂正法と,日本語平文コーパスの利用法について説明する.第\ref{sec-pseudo-sentences}章では,疑似誤り文によるペア文の拡張法について説明し,第\ref{sec-experiments}章では実験で精度変換を確認する.第\ref{sec-related-work}章では関連研究を紹介し,第\ref{sec-conclusion}章でまとめる.
V26N02-09
ゼロ照応解析とは,テキスト中の述語の省略された項(ゼロ代名詞)を検出し,項として埋めるべき格要素を同定するタスクである.格要素は先行詞としてテキスト中で言及されている場合もあれば,言及されていない場合もある.前者の場合,先行詞は述語と同じ文中にある(文内ゼロ照応)か,先行する文中にある(文間ゼロ照応)\footnote{この研究では後方照応は扱わない.}.後者(外界ゼロ照応)の例として,テキストの著者である主語が明示的に言及されない場合などがある.\begin{quote}$(1)大岡山商店街でも(\phiガ)お洒落な建物を\underline{見かける}ようになった.カフェテリアが特に多くて,今月も新しく(\phiガ)(\phiニ)\underline{オープンしてる}.$\end{quote}例~(1)では「見かける」のガ格と「オープンしてる」のガ格,ニ格が省略されている.「オープンしてる」のガ格の格要素は同文中に言及されている「カフェテリア」であり(文内ゼロ照応),ニ格の格要素は前文で言及されている「大岡山商店街」である(文間ゼロ照応).一方,「見かける」のガ格の格要素はテキスト中では明示的に言及されていない「著者」である(外界ゼロ照応).本論文では特に日本語のゼロ照応解析を取り扱うが,項の省略が起こるpro-drop言語は日本語だけではなく,他に中国語,イタリア語,スペイン語などがあり,各言語で日本語ゼロ照応解析と類似したタスクに取り組む研究が数多くある\cite{Chen-Chinese-2016,Yin-Chinese-2017,Yin-Zero-2018,Yin-Deep-2018,Iida-A-2011,Rello-Elliphant-2012}.また英語では意味役割付与タスクがゼロ照応解析に似た研究として挙げられる\cite{Zhou-End-2015,He-Deep-2017}.日本語ゼロ照応解析は,日本語述語項構造解析の部分問題であり,自動要約\cite{Yamada_Designing_2017}や情報抽出\cite{Sudo_Automatic_2001},機械翻訳\cite{Kudo_A_2014}など様々な自然言語処理アプリケーションの精度改善にとって重要であるため,緊急に解決されるべき課題として盛んに研究されている\cite{Sasano-A-2011,Hangyo-Japanese-2013,Ouchi-Neural-2017,Matsubayashi-Revisiting-2017,Matsubayashi2018,Shibata2018,Kurita2018}.本研究の貢献は大きく二つに分けられる.第一に大規模均衡コーパス上で日本語ゼロ照応解析を行い評価したことと,第二にこの大規模均衡コーパス上で文内・文間ゼロ照応解析を可能にするための解候補削減手法を提案したことの二点である,従来のゼロ照応解析研究は,新聞記事のみからなる『NAISTテキストコーパス』(NTC)\cite{Iida-Annotating-2007}で評価を行うものが多かった.従って,それらの評価ではテキストドメインの違いによる影響が考慮されていない.ゼロ照応解析結果の応用を考えた時,複数ドメインの文書に対しても頑健なゼロ照応解析手法の有用性は高い.我々は『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014aa}を評価実験に使用した.BCCWJは13ドメインにまたがって構築された約一億語からなる日本語均衡コーパスである.このうちの約100分の2にあたる約二百万語からなるコアデータに対しては,人手による述語項構造と照応関係の付与がされている.また,BCCWJは新聞,雑誌,書籍,白書,Yahoo!知恵袋,Yahoo!ブログの6ドメインにまたがったテキストを含んでいる.ドメインによるゼロ照応解析の性能の違いを調べるために,我々はBCCWJを使用した.表~\ref{tab:distance-distribution}はBCCWJコアデータセットの述語と格ごとの格要素の距離の分布を示している.ここでの距離は述語と格要素の間の文数である.距離0は文内照応を示しており,距離1以上は文間ゼロ照応を示している.この表から,文中に格要素の出現するゼロ照応のうち,半数以上のゼロ照応が文間ゼロ照応であることがわかる.表~\ref{tab:genre-distribution}はテキストドメインごとに分類した述語とガ格の格要素との距離の分布を示している.この表から,文内,文間ゼロ照応のドメインごとの違いが確認できる.OW(白書)のガ格には文内ゼロが多く出現している一方で,PM(雑誌),OC(QA)のガ格には文内ゼロ比率が少なく,5文前までの文間ゼロが多く出現している.また,PM(雑誌),OY(ブログ)のガ格は7文以上前の文間ゼロが他のドメインと比較して多く出現しており,このようなドメインごとの述語と格要素間の距離の違いが文間ゼロ照応解析の精度に影響を及ぼす原因だと予測できる.これらの観察から,異なるタイプのテキスト上で評価実験を行うことの重要性が示唆される.\begin{table}[b]\begin{minipage}[t]{189pt}\caption{格要素と述語の距離の分布}\label{tab:distance-distribution}\input{09table01.tex}\end{minipage}\hfill\begin{minipage}[t]{210pt}\caption{文書ドメインごとのガ格ゼロ照応の分布(\%)}\label{tab:genre-distribution}\input{09table02.tex}\end{minipage}\end{table}表~\ref{tab:distance-distribution}に示すとおり現実の文書には文間ゼロ照応が頻出するが,従来のゼロ照応解析研究の多くは,文内ゼロ照応のみに焦点を絞っている\cite{Iida-Intra-2015,Shibata-Neural-2016,Ouchi-Neural-2017,Matsubayashi-Revisiting-2017,Matsubayashi2018,Kurita2018}.\citeA{Ouchi-Neural-2017}は,文内ゼロ照応のみを取り扱う理由として,探索範囲の問題を指摘している.文間ゼロ照応では,格要素候補をテキスト全体から探す必要があるため,文内ゼロ照応解析に比べて探索範囲が拡大する.\citeA{Matsubayashi-Revisiting-2017,Matsubayashi2018}と\citeA{Kurita2018}は解析に際して文脈素性を取り入れるために,リカレントニューラルネットワーク(RNN)を導入し,格要素候補と述語が含まれる文を読み込ませている.しかしこれと同じ手法を文間ゼロ照応解析において適用しようとすると,テキスト全体をRNNに入力として与える必要がある.長距離の文脈を記憶する仕組みを持つLSTMやGRUを使用しても,システムがテキスト全体における長距離の依存関係を十分に学習できるとは限らない.また,テキスト全体を記憶しなくても,選択的に抽出された文脈情報のみで解析できる可能性がある.先述の研究と異なり,\citeA{Sasano-A-2011}と\citeA{Hangyo-Japanese-2013},\citeA{Shibata2018}は,文内・文間ゼロ照応解析手法を提案している.しかし,彼らは新聞コーパスとWebコーパスを用いて評価実験を行っており,複数ドメインコーパスを用いた評価実験は行っていない.また,\citeA{Shibata2018}は各entityごとにembeddingを割り当て,現在解析対象としている述語より文書の前方におけるRNNの解析結果を用いて,それぞれのembeddingを逐次更新することで文脈情報を使用している.これら2つの問題に対して,本研究では様々なドメインの文書への対応を可能とするために大規模格フレームを利用し,述語が取りうる複数の格要素の組合せから最適なものを選ぶ.大規模コーパスから得られた述語の格フレームに関する統計的情報を使用することで,特定のドメインにのみ出現する事例数の少ない格フレームに対しても対処できるようになると考えられる.解候補となる格要素の組合せが膨大になる問題に対しては,格フレームを使用した解候補削減手法を取り入れることで,より汎用性の高い文内・文間ゼロ照応解析モデルを提案する.ひとつのモデルで文内・文間のゼロ照応解析を同時に行う際,各格に対してそれぞれ独立に解析を行うより,他の格の情報を利用して複数格を同時に解析する方がより良い精度が得られると考えられる.\citeA{2010C-994}はCoNLL-2009SharedTaskデータを用いた述語項構造解析において,述語項構造の大域的な情報を取り扱う因子を素性として取り入れることで,日本語を含む7種類すべての言語の精度が改善することを確認している.しかし複数格を同時に解析する際には,先行詞の広大な探索範囲の問題に対処する必要がある.特に機械学習を適用する際,正解の候補となる名詞の組合せが大幅に増加する.BCCWJの場合では,格フレーム候補が平均20個,ガヲニ格の格要素候補が平均10個出現するため,組合せは$20\times10\times10\times10=\text{約20,000}$通り考えられ,このうち正しい格フレームと格要素の組合せは一つのみである.結果としてデータ中の正例と負例の比率が約1対20,000と著しく不均衡となる.このような偏った訓練データは不必要に計算量を増幅させ,かつモデルの汎化を妨げる要因となる.我々は,学習に不要な負例を削減するために,解析対象述語に対応する格フレームを用いた効率的な解候補削減手法を提案する.この提案手法により,正解を候補に残しつつ,約1,000分の1にまで解候補を削減することに成功した.また,我々はRNNにローカルアテンション機構\cite{Luong-Effective-2015}を導入することで,前文中のどの部分に注意を向けて解析するかをシステムに学習させた.本研究の提案手法は二つの構成要素からなり,一つは格フレーム内の単語分散表現を使用した解候補削減アルゴリズムで,もう一つは解候補削減に使用した分散表現を利用するニューラルネットゼロ照応解析モデルである\footnote{https:\slash\slash{}github.com\slash{}yamashiros\slash{}Japanese\_zero\_anaphora}.なお,BCCWJを訓練・テストに用いた文内・文間のガヲニ格を対象とするゼロ照応解析は.本研究が初の試みである.\begin{table}[b]\caption{関連研究}\label{tab:related-work}\input{09table03.tex}\end{table}
V21N02-06
ここ数年,Webなどの大量の電子化テキストに現れる他者が発信した意見情報を抽出し,集約や可視化を行うことで,世論調査や評判分析といった応用を実現する研究が進んでいる\cite{pang2008,liu2010,otsuka2007,inui2006}.これらの研究を総称して,意見分析({\itSentimentAnalysis})あるいは意見マイニング({\itOpinionMining})と呼ぶ\cite{pang2008}.対象となる文書ジャンルは,報道機関が配信するニュース,Web上のレビューサイト,個人が自身の体験や意見を記述するブログやマイクロブログなどであり,政策や選挙のための情報分析,世論調査,商品や映画やレストラン・ホテルなどのサービスの評判分析,トレンド分析,などについて実用化が進められている.現在の意見分析の研究は,技術は洗練され,応用範囲は広がりつつあるものの,ここ数年,従来のやり方を大きく変えるような提案は著者の知る限りではあまり見当たらない.その結果,意見質問応答や,ドメインを横断した意見分析といった難易度の高い応用は,技術の壁にぶつかっている印象を持っている.意見質問応答は,factoid型,すなわち従来の質問応答技術に比べて,回答が長くなる傾向があり,また,質問に対する正答は,1つだけではなく,複数の意見を集約したほうが適切である場合が多い.初期の研究\cite{stoyanov2005emnlp}では,文や節などの単位を主観性などの情報に基づきフィルタリングすることで,回答が得られる可能性が増すことが指摘されていた.その後の研究\cite{balahur2010ecai}によると,評価型会議TAC(TextAnalysisConference)で提供されたブログからの意見質問応答・要約のデータセット\cite{dang2008tac}\footnote{http://www.nist.gov/tac/data/past/2008/OpSummQA08.html}を用いた実験では,ブログを対象として,特定の事柄に対する意見を問い合わせ,回答を得るというタスクについて,質問,回答を同一の極性や話題によりフィルタリングすることが有効であり,また複数の連続する文を抽出することが効果的であるが,意味役割付与などに基づくフィルタリングは必ずしも有効な結果が得られていない.さらに,さまざまな識者や組織により表明されている意見を話題別に集約するタスク\cite{stoy2011ranlp}などの提案もある.本研究では,複数の個人的な意見や体験が含まれる情報を集約して,回答として適切に構成するためには,従来の意見の属性,主観性,極性,意見保有者などにとどまらず,意見の詳細なタイプをアノテートし,質問と回答の構造について分析を進める必要があると考える.これにより,複数の個人的な意見や体験を,詳細なタイプに基づき,適切な順序で配置することにより,文章として自然な回答を提供できると考えている.また,質問と回答を含む文書ジャンルとして,Yahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}などのコミュニティQAサイトがあり,意見質問の判別のために利用されている.具体的には,質問について主観性を判別するためには,質問と回答中の手がかりを区別して利用することが有効という研究\cite{li2008sigir}や,主観を伴う回答を求める質問を厳密に定義し,そのような質問は人間に対して回答を求めるという応用を目指している研究が存在する\cite{aikawa2011tod}.これらの研究は,主観性を判別する特徴が,質問と回答との間で明確ではないが関連があることと,意見を問う質問が判別できたとしても,適切な回答を自動的に構成することが難しいことを示唆している.一般に,質問に対する回答を検索するためには,質問に出現しやすい語彙と回答に出現しやすい語彙とのギャップを解消するために,その対応関係をコーパスから学習することにより,解決するための研究が行われている\cite{abe2011yans,berger2000sigir}.一方で,意見分析の研究は,文書ジャンル\footnote{文書ジャンルとは,文書の書き手と読み手との間で,読む行為を通じたコミュニケーションの共通パタンを想定できる文書群を指す概念と位置づけることができる\cite{bazerman2004}.}に応じて要求されるタスクが異なり,文書に現れる意見の性質も異なる.したがって,意見分析の研究にはコーパスが欠かせないが,現状では,ニュース,レビュー,ブログなどの文書ジャンルが主な対象となっている\cite{seki2013tod}.本研究では,従来の研究とは異なり,質問と回答を含む対話型の文書ジャンル,具体的には,国立国語研究所の『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{maekawa2011bccwj,yamasaki2011bccwj,bccwj2012}\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}中のYahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}を対象として,質問とそれに対する回答に詳細な意見情報のアノテーションを行うことにより,質問と回答中の意見の構造やその対応関係を明らかにするための,基盤となるコーパスの提供を目指している.ただし,一口に意見といっても,その特徴はさまざまである.意見の定義の範囲は広く,主観性などの広い概念を対象とした場合,評価,感情,意見,態度,推測などの何を対象とするかを決定することも重要である\cite{wiebe2005lre,koba2006signl}.本研究では,態度の詳細分類であるアプレイザル理論\cite{martin2005}を参考に,詳細な分類体系に基づく意見情報をアノテートすることにより,質問に対する回答として出現する意見の傾向を,意見の性質の違いから明らかにすることを目指す.一方で,従来の意見分析では,単一のドメインを対象として研究がなされてきた.それは,ドメインに応じて,主観性,極性を判別したり,意見の対象やそのアスペクトを抽出するための教師あり学習に用いる素性が異なるからである.しかし,現実社会では,複数のドメインを横断して,意見分析を行うことが求められる場面が少なくない.この課題に向けた解決のための研究として,複数のドメインを対象とした意見分析に関する研究\cite{blit2007acl,pono2012emnlp,he2011acl,bolle2011acl,li2012acl}がある.これは,複数ドメインにおいて共通に出現する意見表現や,意見表現間あるいは意見の対象間の類似性を手がかりとして,訓練データと評価データとの不整合を緩和させようという試みである.英語については,Amazonレビューを対象としたコーパス\footnote{http://www.cs.jhu.edu/$\sim$mdredze/datasets/sentiment/}が公開されており,一連の関連研究ではこのコーパスを使用した研究が行われているが,日本語で同様のコーパスは流通していない\cite{seki2013tod}.したがって,こうした研究を促進するためには,日本語で同様のコーパスを開発する必要がある.また,レビューにとどまらない広い範囲のドメインを対象とした意見の違いなども明らかにする必要がある.本研究が対象とするコミュニティQAは,ブログなどと比較して,カテゴリに対して投稿内容が適合しているという特徴がある.具体的には,コミュニティQAサービスにおいて,ユーザは,適切な回答を得る必要性から,提供している質問カテゴリ\footnote{http://list.chiebukuro.yahoo.co.jp/dir/dir\_list.php?fr=common-navi}に対して適合した投稿を行う.これは,さまざまな話題を投稿するため,必ずしも事前に設定したカテゴリにはそぐわない話題を投稿する傾向のあるブログとの大きな違いである.また,ニュースやレビューと比べると,生活に密着した多様な話題が投稿される.これらを踏まえ,Yahoo!知恵袋の複数の質問カテゴリを対象としたコーパスを開発し,詳細な分類体系に基づく意見情報を重ね合わせて分析することにより,ドメインごとの意見の傾向の違いを明らかにすることを目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:corpus}節では,コミュニティQAを対象とした意見分析のためのアノテーションの方針について述べる.\ref{sec:communityQA_annotation}節では,コミュニティQAを対象とした意見情報のアノテーション作業の特徴について議論する.\ref{sec:analysis}節では,Yahoo!知恵袋を対象として構築した意見分析コーパスを使用して,質問と回答や,ドメインあるいはコミュニケーションの目的に応じて出現する意見の性質の違いを明らかにする.最後に,\ref{sec:conclusion}節で結論をまとめる.
V19N01-01
上位下位関係は自然言語処理の様々なタスクにおいて最も重要な意味的関係の一つであり,それゆえ盛んに研究されてきた\cite{hearst92,hovy09,oh09,ponzetto07,隅田:吉永:鳥澤:2009,suchanek07,nastase08,snow05}.これらの過去の研究では,上位下位関係を,「AはBの一種あるいはインスタンスであるAとBの関係」と定義している.本論文の上位下位関係もこの定義に従う.ただし,「概念」の詳細な表現を可能にするために,単一の語だけでなく,\xmp{黒澤明の映画作品}のような句や複合語も考慮する.このように制限を緩めることで,上位概念をより詳細に表現することが可能となる.上記の定義によれば,次のペアはいずれも上位下位関係にあると考えられる\footnote{本稿では上位下位関係を\isa{A}{B}のように表す.\xmp{A}が上位概念で\xmp{B}が下位概念である.}.\begin{enumerate}\item\isa{黒澤明の映画作品}{七人の侍}\label{enum:Kurosawa}\item\isa{映画作品}{七人の侍}\item\isa{作品}{七人の侍}\label{enum:work}\end{enumerate}質問応答等のアプリケーションを考えた場合,これらの上位下位関係の有用性は異なると考えられる.例えば,「``七人の侍''とは何ですか?」という質問に対して,上の3つの上位下位関係の上位概念のうち,答えとして適切なのは最も詳細な上位概念である(\ref{enum:Kurosawa})の「黒澤明の映画作品」と考えられる.一方,(\ref{enum:work})の上位概念「作品」は,「何の作品であるか」という必要な情報が欠落しているため「黒澤明の映画作品」という答えに比べて適切ではない.本論文では,以下の2つの条件を満たす場合に「下位概念Cに対して,AはBより詳細な上位概念」と呼ぶ.\begin{itemize}\itemAとBは同じ下位概念Cを持つ\itemBはAの上位概念である\end{itemize}上記の例では,全ての上位概念が「七人の侍」という同じ下位概念を持ち,かつ,上位概念間には,それぞれ上位下位関係が成り立つ.「黒澤明の映画作品」の上位概念は「映画作品」,または「作品」,さらに「映画作品」の上位概念は「作品」と考えられる.従って,下位概念「七人の侍」に対して「黒澤明の映画作品」は「映画作品」や「作品」より詳細な上位概念であり,「映画作品」は「作品」より詳細な上位概念と言うことができる.また,ある上位概念をより詳細な上位概念に置き換える処理を「上位概念の詳細化」と呼ぶ.本研究では,自動獲得した上位下位関係の上位概念と下位概念の間に,より具体的な上位概念を中間ノードとして追加することで,元の上位下位関係を詳細化する.中間ノードとして追加されるより具体的な上位概念は,元の上位下位関係が記述されているWikipedia記事のタイトルと元の上位概念を「AのB」の形式で連結することで自動獲得する.例として\isa{作品}{七人の侍}を挙げる.この上位下位関係は,タイトルが「黒澤明」のWikipedia記事の中に現れる.具体的には,当該記事の\xmp{作品}というセクションに\xmp{七人の侍}が記載されている.本手法では,この情報から,\xmp{七人の侍}は黒澤明の\xmp{作品}であると推測し,\isa{黒澤明の作品}{七人の侍}を新たに獲得する.さらに,\xmp{黒澤明}の上位概念が\xmp{映画監督}であることが獲得済みの上位下位関係から判明すれば,\isa{映画監督の作品}{七人の侍}も獲得できる.最終的に,元の\isa{作品}{七人の侍}から,\isaFour{作品}{映画監督の作品}{黒澤明の作品}{七人の侍}を得ることができる.本稿ではさらに,本手法により獲得した上位下位関係(例えば\isa{黒澤明の作品}{七人の侍})が\attval{対象}{属性}{属性値}関係(例えば\attval{黒澤明}{作品}{七人の侍})として解釈できることについて議論する.この解釈では,Wikipedia記事のタイトルが対象に,上位概念が属性に,下位概念が属性値に対応づけられる.実験で生成した上位下位関係2,719,441ペアは,94.0\%の適合率で,\attval{対象}{属性}{属性値}関係として解釈可能であることを確認した.以下,\ref{sec:hh-problems}節では,既存の手法で獲得された上位概念の問題点を例とともに述べる.\ref{sec:Base-hh}節では,Wikipediaからの上位下位関係獲得手法\cite{隅田:吉永:鳥澤:2009}について説明する.\ref{sec:proposed-method}節では,我々が開発した,Wikipediaを用いた詳細な上位下位関係の獲得手法について説明する.\ref{sec:evaluation}節では,提案手法の評価とエラー分析の結果について述べる.\ref{sec:discussion}節では,提案手法により獲得した詳細な上位概念をより簡潔に言い換える試みと,詳細な上位下位関係の\attval{対象}{属性}{属性値}関係としての解釈について議論する.\ref{sec:related-word}節で関連研究について述べる.最後に\ref{sec:conclusion}節で結論を述べる.
V25N05-04
文法誤り訂正(GrammaticalErrorCorrection:GEC)は,言語学習者の書いた文の文法的な誤りを訂正するタスクである.GECは本質的には機械翻訳や自動要約などと同様に生成タスクであるため,与えられた入力に対する出力の正解が1つだけとは限らずその自動評価は難しい.そのため,GECの自動評価は重要な課題であり自動評価尺度に関する研究が多く行われてきた.GECシステムの性能評価には,システムの出力を正解データ(参照文)と比較することにより評価する手法(参照有り手法)が一般的に用いられている.この参照有り手法では,訂正が正しくても参照文に無ければ減点されるため,正確な評価のためには可能な訂正を網羅する必要がある.しかし参照文の作成は人手で行う必要があるためコストが高く,可能な訂正を全て網羅することは現実的ではない.この問題に対処するため,\citeA{Napoles2016}は参照文を使わず訂正文の文法性に基づき訂正を評価する手法を提案した.しかし参照有り手法であるGLEU\cite{Sakaguchi2016}を上回る性能での評価は実現できなかった.そこで本論文では\citeA{Napoles2016}の参照無し手法を拡張し,その評価性能を調べる.具体的には,\citeA{Napoles2016}が用いた文法性の観点に加え,流暢性と意味保存性の3観点を考慮する組み合わせ手法を提案する.流暢性はGECシステムの出力が英文としてどの程度自然であるかという観点であり,意味保存性は訂正前後で文意がどの程度保たれているかという観点である.各評価手法により訂正システムの性能の評価を行ったところ,提案手法が参照有り手法であるGLEUよりも人手評価と高い相関を示した.これに加えて,各自動評価尺度の文単位での評価性能を調べる実験も行った.文単位での評価が適切にできれば,GECシステムの人手による誤り分析に有用であるが文法誤り訂正の自動評価において文単位の性能を調べた研究はこれまでない.そこで,文単位評価の性能を調べる実験を行ったところ,提案した参照無し手法が参照有り手法より高い性能を示した.この結果を受けて,参照無し手法のもうの可能性も調査した.参照無し手法は正解を使わずに与えられた文を評価できるため,複数の訂正候補の中から最も良い訂正文を選択するために本手法が使えると考えられる.このことを実験的に確かめるために複数のGECシステムの出力を参照無しで評価し,最も良いものを採用するアンサンブル手法の誤り訂正性能を調べたところ,アンサンブル前のシステムの性能を上回った.
V11N05-08
\label{sec:introduction}\numexs{hodonai}{\item\emph{旧友}と飲む酒\emph{ほど}楽しいものは\emph{ない}.\item\emph{昔の友達}と飲む酒が\emph{一番}楽しい.}\numexs{kousan}{\item内戦状態に\emph{再突入する公算が大きい}.\item\emph{再び}内戦状態に\emph{なる}\emph{可能性が高い}.}この例のように,言語には同じ情報を伝える表現がいくつも用意されている.意味が近似的に等価な言語表現の異形を言い換え(paraphrase)と言う.言い換えを指す用語には他に,言い替え,換言,書き換え,パラフレーズといった語も使われるが,統一のため本論文では一貫して「言い換え」という用語を使う.これまでの言語処理研究の中心的課題は,曖昧性の問題,すなわち同じ言語表現が文脈によって異なる意味を持つ問題をどう解決するかにあった.これに対し,言い換えの問題,すなわち同じ意味内容を伝達する言語表現がいくつも存在するという問題も同様に重要である.与えられた言語表現からさまざまな言い換えを自動生成することができれば,たとえば,所与の文章を読み手の読解能力に合わせて平易な表現に変換したり,音声合成の前編集として聴き取りやすい表現に変換したりすることができる.あるいは,機械翻訳の前編集として翻訳しやすい表現に変換するといったことも可能になるだろう.また,与えられた2つの言語表現が言い換えであるかどうかを自動判定することができれば,情報検索や質問応答,複数文書要約といったタスクにおける重要な問題の一つが解決する.近年,こうした問題に関心を持つ研究者が増え,言い換えというキーワードが目立つようになってきた.本学会年次大会でも,2001年に言い換えのセッションが設置されて以来,4件(2001年),9件(2002年),10件(2003年),7件(2004年)と投稿を集めた.また2001年,2003年には言い換えに関する国際ワークショップが開かれ,それぞれ8件,14件の発表,活発な議論が行なわれた\cite{NLPRSWS:01,IWP:03}.本論文では,言い換えに関する工学的研究を中心に,近年の動向を紹介する.以下,まず,\sec{definition}で,言語学的研究および意味論研究における言い換えに関連の深い話題を取り上げ,言い換えの定義について考察する.次に,\sec{applications}で言い換え技術の応用可能性について論じた後,\sec{models}で構造変換による言い換え生成,質問応答・複数文書要約のための言い換え認識に関する研究を概観する.最後に\sec{knowledge}で言い換え知識の自動獲得に関する最新の研究動向を紹介する.
V01N01-01
テキストや談話を理解するためには,{\bf文章構造}の理解,すなわち各文が他のどの文とどのような関係({\bf結束関係})でつながっているかを知る必要がある.文章構造に関する従来の多くの研究\cite[など]{GroszAndSidner1986,Hobbs1979,Hobbs1985,ZadroznyAndJensen1991}では,文章構造の認識に必要となる知識,またそれらの知識に基づく推論の問題に重点がおかれていた.しかしそのような知識からのアプローチには次のような問題があると考えられる.\begin{itemize}\item辞書やコーパスからの知識の自動獲得,あるいは人手による知識ベース構築の現状をみれば,量的/質的に十分な計算機用の知識が作成されることはしばらくの間期待できない.\item一方,オンラインテキストの急増にともない,文章処理の技術は非常に重要になってきている\cite{MUC-41992}.そのため,現在利用可能な知識の範囲でどのような処理が可能であるかをまず明らかにする必要がある.\item現在の自然言語処理のターゲットの中心である科学技術文では,文章構造理解の手がかりとなる情報が表層表現中に明示的に示されていることが多い.科学技術の専門的内容を伝えるためにはそのように明示的表現を用いることが必然的に必要であるといえる.\end{itemize}このような観点から,本論文では,表層表現中の種々の情報を用いることにより科学技術文の文章構造を自動的に推定する方法を示す.文章構造抽出のための重要な情報の一つは,多くの研究者が指摘しているように「なぜなら」,「たとえば」などの{\bf手がかり語}である\cite[など]{Cohen1984,GroszAndSidner1986,Reichman1985,Ono1989,Yamamoto1991}.しかし,それらだけで文章全体の構造を推定することは不可能であることから,我々はさらに2つの情報を取り出すことを考えた.そのひとつは同一/同義の語/句の出現であり,これによって{\bf主題連鎖}/{\bf焦点-主題連鎖}の関係\cite{PolanyiAndScha1984}を推定することができる.もうひとつは2文間の類似性で,類似性の高い2文を見つけることによってそれらの間の{\bf並列/対比}の関係を推定することができる.これらの3つの情報を組み合わせて利用することにより科学技術文の文章構造のかなりの部分が自動推定可能であることを示す.\begin{table}\caption{結束関係}\vspace{0.5cm}\begin{center}\begin{tabular}{lp{11cm}}\hline\hline{\bf並列}&{\ttSi}と{\ttSj}が同一または同様の事象,状態などについて述べられている(例:付録\ref{sec:text}のS4-3とS4-6).\\{\bf対比}&{\ttSi}と{\ttSj}が対比関係にある事象,状態などについて述べられている(例:付録\ref{sec:text}のS3-3とS3-4).\\{\bf主題連鎖}&{\ttSi}と{\ttSj}が同一の主題について述べられている(例:付録\ref{sec:text}のS1-13とS1-19).\\{\bf焦点-主題連鎖}&{\ttSi}中の主題以外の要素(焦点要素)がSjにおいて主題となっている(例:付録\ref{sec:text}のS1-12とS1-13).\\{\bf詳細化}&{\ttSi}で述べられた事象,状態,またはその要素についての詳しい内容が{\ttSj}で述べられている(例:付録\ref{sec:text}のS1-16とS1-17).\\{\bf理由}&{\ttSi}の理由が{\ttSj}で述べられている(例:付録\ref{sec:text}のS1-13とS1-14).\\{\bf原因-結果}&{\ttSi}の結果{\ttSj}となる(例:付録\ref{sec:text}のS1-17とS1-18).\\{\bf変化}&{\ttSi}の状態が{\ttSj}のものに(通常時間経過に伴い)変化する(例:付録\ref{sec:text}のS1-11とS1-12).\\{\bf例提示}&{\ttSi}で述べられた事象,状態の具体例の項目が{\ttSj}で提示される(例:付録\ref{sec:text}のS1-13とS1-16).\\{\bf例説明}&{\ttSi}で述べられた事象,状態の具体例の説明が{\ttSj}で行なわれる,\\{\bf質問-応答}&{\ttSi}の質問に対して{\ttSj}で答が示される(例:付録\ref{sec:text}のS4-1とS4-2).\\\hline\end{tabular}\\({\ttSi}はある結束関係で接続される2文のうちの前の文,{\ttSj}は後ろの文を指す)\end{center}\label{tab:CRelations}\end{table}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(140,120)\put(5,5){\framebox(130,110){ps/ds.ps}}\end{picture}\end{center}\caption{文章構造の一例}\label{fig:DSExam}\end{figure}}
V24N03-07
\label{sec:intro}統計的機械翻訳(StatisticalMachineTranslation:SMT\cite{brown93smt})で高い翻訳精度\footnote{SMTシステムの性能を評価する場合,評価用原言語コーパスの翻訳結果が目標となる正解訳にどの程度近いかを示す自動評価尺度を翻訳精度の指標とすることが多く,本稿では最も代表的な自動評価尺度と考えられるBLEUスコア\cite{papineni02}を用いて評価する.}を達成するには,学習に用いる対訳コーパスの質と量が不可欠である.特に,質の高い対訳データを得るためには,専門家による人手翻訳が必要となるが,時間と予算の面で高いコストを要するため,翻訳対象は厳選しなければならない.このように,正解データを得るための人手作業を抑えつつ高い精度を達成する手法として,能動学習(ActiveLearning)が知られている.SMTにおいても,能動学習を用いることで人手翻訳のコストを抑えつつ高精度な翻訳モデルを学習可能である\cite{eck05,turchi08,haffari09naacl,haffari09acl,ananthakrishnan10,bloodgood10,gonzalezrubio12,green14}.SMTや,その他の自然言語処理タスクにおける多くの能動学習手法は,膨大な文書データの中からどの\textbf{文}をアノテータに示すか,という点に注目している.これらの手法は一般的に,幾つかの基準に照らし合わせて,SMTシステムに有益な情報を多く含んでいると考えられる文に優先順位を割り当てる.単言語データに高頻度で出現し,既存の対訳データには出現しないような\textbf{フレーズ}\footnote{本稿では,フレーズとは特定の文中に出現する任意の長さの部分単語列を表すものとし,文全体や単語もフレーズの一種として扱う.また,後述する句構造文法における句とは区別して扱うこととする.}を多く含む文を選択する手法\cite{eck05},現在のSMTシステムにおいて信頼度の低いフレーズを多く含む文を選択する手法\cite{haffari09naacl},あるいは翻訳結果から推定されるSMTシステムの品質が低くなるような文を選択する手法\cite{ananthakrishnan10}などが代表的である.これらの手法で選択される文は,機械学習を行う上で有益な情報を含んでいると考えられるが,その反面,既存システムに既にカバーされているフレーズも多く含んでいる可能性が高く,余分な翻訳コストを要する欠点がある.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f1.eps}\end{center}\caption{フレーズ選択手法の例,および従来手法と提案手法の比較}\label{fig:select-methods}\end{figure}このように文全体を選択することで過剰なコストを要する問題に対処するため,自然言語処理タスクにおいては短いフレーズからなる\textbf{文の部分的アノテーション}を行うための手法も提案されている\cite{settles08,tomanek09,bloodgood10,sperber14}.特にSMTにおいては,文の選択手法では翻訳済みフレーズを冗長に含んでしまう問題に対処するため,原言語コーパスの単語$n$-gram頻度に基づき,対訳コーパスにカバーされていない原言語コーパス中で最高頻度の$n$-gram自体を翻訳対象のフレーズとして選択する手法が提案されている\cite{bloodgood10}.この手法では,選択されたフレーズ全体が必ず翻訳モデルの\textbf{$n$-gramカバレッジ}\footnote{\label{note:coverage}入力されるデータに対して,その構成要素がどの程度モデルに含まれているかという指標をカバレッジ(被覆率)と呼ぶ.本稿では,原言語コーパス中の$n$-gramが翻訳モデル中に含まれる割合に着目する.}向上に寄与し,余分な単語を選択しないため,文選択手法よりも少ない単語数の人手翻訳で翻訳精度を向上させやすく,費用対効果に優れている.しかし,この手法には2つの問題点が挙げられる.先ず,図\ref{fig:select-methods}(a)に示すように,$n$-gram頻度に基づくフレーズの選択手法では複数のフレーズ間で共有部分が多いため冗長な翻訳作業が発生し,単語あたりの精度向上率を損なう問題がある(\textbf{フレーズ間の重複問題}).また,最大フレーズ長が$n=4$などに制限されるため,``oneofthepreceding''のように句範疇の一部がたびたび不完全な形で翻訳者に提示されて人手翻訳が困難になる問題もある(\textbf{句範疇の断片化問題}).本研究では,前述の2つの問題に対処するために2種類の手法を提案し,部分アノテーション型の\textbf{能動学習効率}\footnote{人手翻訳に要した一定のコストに対する翻訳精度の上昇値を本稿における学習効率とし,作業時間あたりの精度向上と必要予算あたりの精度向上に注目する.}と翻訳結果に対する\textbf{自信度}の向上を目指す(\ref{sec:proposed}節).フレーズ間の重複問題に対しては,図\ref{fig:select-methods}(b)に示すように包含関係を持つフレーズを統合して,より少ないフレーズでカバレッジを保つことで学習効率の向上が可能と考えられる(\textbf{極大フレーズ選択手法},\ref{sec:maxsubst-freq}節).重複を取り除き,なるべく長いフレーズを抽出する基準として,本研究では\textbf{極大部分文字列}\cite{yamamoto01,okanohara09}の定義を単語列に適用し,極大長\footnoteref{note:maximality}となるフレーズの頻度を素性に用いる.句範疇の断片化問題に対しては,図\ref{fig:select-methods}(c)に示すように,原言語コーパスの句構造解析を行い,部分木をなすようなフレーズを\textbf{統語的に整ったフレーズ}とみなして選択することで,人手翻訳が容易になると考えられる(\textbf{部分構文木選択手法},\ref{sec:struct-freq}節).また,これら2つの手法を組み合わせ,フレーズの極大性と構文木を同時に考慮する手法についても提案する(\ref{sec:struct-freq}節).本研究で提案するフレーズ選択手法による能動学習効率への影響を調査するため,先ず英仏翻訳および英日翻訳において逐次的にフレーズ対の追加・モデル更新・評価を行うシミュレーション実験(\ref{sec:simulation}節)を実施し,その結果,2つの提案手法を組み合わせることで従来より少ない追加単語数でカバレッジの向上や翻訳精度の向上を達成することができた.次に,部分構文木選択手法が人手翻訳に与える影響を調査するため,専門の翻訳者に翻訳作業と主観評価を依頼し,述べ120時間におよぶ作業時間で収集された対訳データを用いて実験と分析を行った結果(\ref{sec:manual-trans}節),同様に高い能動学習効率が示された.また,翻訳者は構文木に基づくフレーズ選択手法において,より長い翻訳時間を要するが,より高い自信度の翻訳結果が得られるという傾向も得られた\footnote{本稿の内容は(三浦,Neubig,Paul,中村2015,2016)および\cite{miura16naacl}で報告されている.}.\nocite{miura15nl12,miura16nlp}
V24N03-06
近年,インターネットなどからテキストとそれに紐づけられた非テキスト情報を大量に得ることができ,画像とそのキャプションや経済の解説記事とその株価チャートなどはwebなどから比較的容易に入手することができる.しかし,テキストと非テキスト情報を対応させる研究の多くは,画像から自然言語を出力する手法\cite{Farhadi:2010:PTS:1888089.1888092,Yang:2011:CSG:2145432.2145484,rohrbach13iccv}のように非テキスト情報から自然言語を出力することを目的としている.Kirosらは非テキスト情報を用いることにより言語モデルの性能向上を示した\cite{icml2014c2_kiros14}.本稿では,非テキスト情報を用いた自動単語分割について述べる.本稿では,日本語の単語分割を題材とする.単語分割は単語の境界が曖昧な言語においてよく用いられる最初の処理であり,英語では品詞推定と同等に重要な処理である.情報源として非テキスト情報とテキストが対応したデータが大量に必要になるため,本研究では将棋のプロの試合から作られた将棋の局面と将棋解説文がペアになったデータ\cite{A.Japanese.Chess.Commentary.Corpus}を用いて実験を行う.似た局面からは類似した解説文が生成されると仮定し,非テキスト情報である将棋の局面からその局面に対応した解説文の部分文字列をニューラルネットワークモデルを用いて予測し,その局面から生成されやすい単語を列挙する.列挙された単語を辞書に追加することで単語分割の精度を向上させる.\begin{figure}[b]\begin{center}\includegraphics{24-3ia6f1.eps}\end{center}\caption{提案手法の概観}\label{fig-overview}\end{figure}本手法は3つのステップから構成される(図\ref{fig-overview}).まず,将棋の局面と単語候補を対応させるために生テキストから単語候補を生成する.単語候補は将棋解説文を擬似確率的分割コーパスを用いて部分単語列に分割することで得られる.次に,生成した単語候補と将棋の局面をニューラルネットワークを用いて対応させることでシンボルグラウンディングを行う.最後にシンボルグラウンディングの結果を用いて将棋解説文専用の辞書を生成し,自動単語分割の手法に取り入れる.本稿の構成は以下の通りである.まず2章で単語の候補を取り出すために確率的単語分割コーパスを用いる手法について述べる.3章で将棋解説文と局面が対応しているデータセットのゲーム解説コーパスについて触れ,シンボルグラウンディングとして単語候補と将棋局面を対応させる手法の説明を行う.4章ではベースラインとなる自動単語分割器について述べたあと,非テキスト情報を用いた単語分割として,シンボルグラウンディングの結果を用いて辞書を生成し,単語分割器を構築する手法を述べる.5章で実験設定と実験結果の評価と考察を行い,6章で本手法と他の単語分割の手法を比較する.最後に7章で本稿をまとめる.
V16N01-04
label{Chapter:introduction}近年,文書情報に対するアクセス技術として,質問応答が注目されている.質問応答は,利用者が与えた自然言語の質問文に対し,その答を知識源となる大量の文書集合から見つける技術である.利用者が,ある疑問に対する解を知るために質問応答システムを単体で利用する場合には,各解候補のスコアに基づき,解候補群を順序づけて上位から提示することが多い.本稿では,この処理を優先順位型質問応答と呼ぶことにする.この場合は解答として採用するか否かは,利用者の判断に委ねられている.一方,質問応答技術は他の文書処理技術の中で活用されることも期待されている.質問応答の出力を他の文書処理技術の入力として容易に利用可能とするためには,優先順位型質問応答において利用者が行なっていた上記判断を自動的に行なう必要がある.また,「日本三景は何と何と何か」といったように複数の正解が存在する質問が存在することも考慮すべきである.これらのことより,決められた知識源の中から過不足なく与えられた質問の解を見つけ列挙する能力も重要であると考えられる.優先順位型質問応答の用件に加え,この能力を持つ仕組みをリスト型質問応答と呼ぶ\cite{Fukumoto:QAC1}\cite{加藤:リスト型質問応答の特徴付けと評価指標}.本稿では,上記の背景の下,リスト型質問応答を行なうための一手法を提案する.本手法では,優先順位型質問応答により得られた解候補の集合のスコアを基にいくつかのクラスタに分離することを考える.それぞれのクラスタを一つの確率分布とし,各確率分布のパラメタをEMアルゴリズムにより推定し,いくつかの分布に分離する.最後に,それぞれの分布を正解集合のスコアの分布と不正解集合のスコア分布のどちらであるかを判定し,各解候補がいずれの分布に由来するものなのかを推定し,最終的な正解集合を求める.質問応答システムには一般に精度が低くなりがちな質問(以下,「不得意な質問」と記す)が質問の型等に依存して存在するが\footnote{例えば,質問応答システムが採用している固有表現抽出器等のサブシステムの精度に依存する.固有表現抽出において一般に製品名は,人名や地名に比較して抽出精度が低い.},本手法では,複数の分布のパラメタを比較することにより,優先順位型質問応答により正解が適切に見つけられているか否かを判断することも可能である.ここで,正解が適切に見つけられているとは,優先順位型質問応答により正しい解が求められており,その解が上位にある(複数の場合は上位に集まっている)場合を指すこととする.
V17N05-02
日常の自然言語文には構成性(compositionality)に基づいて意味を扱う事が難しいイディオムや相当数のイディオム的な複数単語からなる表現,また,語の強い結合によって成り立つ決まり文句や決まり文句的な表現が数多く使われている.しかし,現在の自然言語処理(NaturalLanguageProcessing:NLP)ではこれらには必ずしも十分な対応が出来ていない\footnote{イディオム「目を回す」,「水に流す」,決まり文句的表現「引くに引けない」,「何とは無しに」を市販の良く知られた日英翻訳ソフト2種に翻訳させた結果を以下に示す.結果からいずれもこれらの表現を正しく認識していないことが推定される.\begin{tabbing}\hspace{30pt}\=123456789012345678901234567890\=\kill\>彼はそれを聞いて目を回した\>A社;Heturnedhiseyeshearingit.\\\>\>B社;Hehearditandturnedeyes.\\\>私は過去を水に流す\>A社;Ithrowthepastintowater.\\\>\>B社;Ipassthepastinwater.\\\>彼は引くに引けない\>A社;He..pull..isnotclosed.\\\>\>B社;Hecannotpulltopull.\\\>私は何とは無しにそれを見た\>A社;Iregardeditaswhatnothing.\\\>\>B社;..itwas.wasseenverymuch..me..\\\end{tabbing}}.近年,このような特異性のある複数単語からなる表現を複単語表現(Multi-WordExpression:MWE)と名付け,英語の機械処理の立場からその全体像を俯瞰し,対応を考察した論文(Sagetal.2002)が端緒となって,NLPにおけるMWE処理の重要性が広く認識されるようになった.これを受け,(国際)計算言語学会(AssociationforComputationalLinguistics:ACL)は2003年以降,MWEに関するワークショップをほぼ毎年開催しており,活発な議論が行われている.しかし,これまでの研究にはなお,以下の様な基本的な問題点が残っている.\begin{enumerate}[1.]\item複合名詞(NounCompound:NC),動詞・不変化詞構文(Verb-ParticleConstruction:VPC),動詞・名詞構文(VerbNounConstruction:VNC),イディオム(Idiom)など,限られた構文,意味の表現だけを対象とする研究が多い.\item典型的なイディオム,典型的な決まり文句などを対象とする研究が多く,意味的非構成性や要素語の共起に特異性を持つと認められるそれ以外の表現が顧みられていない.\itemコーパスからMWEを自動抽出する研究において,基準となる表現集合が不備なために再現率を的確に検証することが難しい.\end{enumerate}筆者らは,機械翻訳研究(首藤1973)の経験からフレーズベースの訳出が必要であること,一般のNLPにも複数単語からなる特異的な表現を総括的に資源化しておくことが不可欠であることを認識し,現代日本語におけるそれらの候補を収録した辞書の構築を目指してきた.本論文ではその初版の概要を報告する.以後,この辞書をJDMWE(JapaneseDictionaryofMulti-WordExpressions)と呼ぶ.本辞書は上記の問題を解消し,日本語の特異的複単語表現の基準レキシコンを与えることを目標に,主として人の内省によって編纂されている.編纂においては以下の点に留意した.\begin{enumerate}\itemNLPに有効と思われる,出来るだけ広範なMWE候補を体系的に整理・提示すること\footnote{ただし,固有表現(namedentity),頭字語(acronym),混成語(blend),会話調表現,尊敬・丁寧・謙譲表現には現時点では原則として対応していない.他の辞書類やルールによる自動生成等でカバーされることを想定している.}具体的には,イディオム(慣用句),決まり文句(常套句),慣用的な比喩表現,機能動詞結合(一部),支援動詞構文(一部),クランベリー表現,四字熟語,格言,諺,擬音・擬声・擬態語表現,複合語(一部),呼びかけ表現,応答表現等を対象とする.以後,これらの表現および外国語でこれらに相当する表現をMWE(Multi-WordExpression)と総称する.\item異表記,派生形をできるだけ網羅すること\item各MWEに機能情報のほか,構文構造情報を与えることにより,MWEを単語と見なした処理だけではなく,構文的柔軟性(内部修飾可能性)にも対応できるようにすること\end{enumerate}現在の収録MWEは基本形で約104,000表現,記載した異表記,派生形情報をすべて適用して見出しを生成すれば750,000表現程度をカバーしていることになる.本辞書はMWEごとにスロット付きの依存(木)構造を与えた一種のツリーバンク,あるいは,語の組み合わせに特異性があると同時に纏まった意味・談話上の機能を持つ,構造付きn-グラム$(2\leqq\mathrm{n}\leqq18)$データセット(syntacticallyannotatedn-gramdataset)と見なすことが出来る.以下,2.で関連研究を概観し,本研究の位置付けを明らかにする.3.で本辞書に収録した表現について詳しく述べる.4.で辞書形式を簡単に説明し,辞書内容として異表記に関する情報,機能に関する情報,構造に関する情報について順に述べ,例を用いて構造情報と内部修飾句との関係を説明する.5.では既存の大規模日本語n-グラム頻度データとの比較等によって収録表現の統計的性質に基づいた考察を行う.6.で総括と今後の課題を述べてむすびとする.
V08N04-04
\label{sec:intro}英語と日本語は,英語が名詞文体であり日本語が動詞文体であると言われるように,言語的特徴が著しく異なる言語である.このため,英語の名詞句をそのまま日本語の名詞句に直訳すると,違和感を感じることが少なくない.例えば,文(E\ref{SENT:buying})を実用に供されているある英日機械翻訳システムで処理すると,文(J\ref{SENT:buying})のような翻訳が出力される.\begin{SENT}\sentETheBOJ'sbuyingofnewgovernmentbondsisbannedunderfiscallaw.\sentJ新しい国債のBOJの購入は,会計法の下で禁止される.\label{SENT:buying}\end{SENT}文(E\ref{SENT:buying})において名詞句``TheBOJ'sbuyingofnewgovernmentbonds''が伝える命題的な内容は,「BOJが新しい国債を購入すること」であるが,日本語の名詞句「新しい国債のBOJの購入」をこの意味に理解することは,訳文を注意深く読まなければ難しい.このような問題を解決するためには,英語と日本語の言語的特徴の違いを考慮に入れ,日本語として自然な表現が得られる処理を実現することが重要となる.しかしながら,従来の機械翻訳研究では,主に原文解析の正しさに焦点が当てられており\cite{Narita00},訳文の自然さについてはあまり議論されてこなかった\cite{Yoshimura95,Yamamoto99}.訳文の自然さに関する研究としては,文献\cite{Nagao85,Somers88,Matsuo95}などがある.これらの文献に示されている方法では,直訳すると日本語として不自然になる英語の名詞句を適切に翻訳するための処理が原言語から目的言語への変換過程で行なわれる.ところで,人間による翻訳では,文が表わす命題内容を含む名詞句を日本語に直訳した場合の違和感を解消するために,英語の名詞句を日本語に翻訳する前に,文またはそれに近い形式に言い換えるという処置がとられることがある\cite{Nida73,Anzai83}.本研究では,人間のこの翻訳技法を機械的に模倣し,このような名詞句を前編集の段階で文に近い形式に自動的に書き換えることによって自然な訳文を生成することを試みる.日本語として自然な表現を得るための処理を変換過程で行なう方法に比べて,前編集の段階で行なう方法の利点は,前編集系は特定のシステムの内部に組み込まれていないため,システムへの依存性が低く,実践上の適用範囲が広いことである.実際,対象名詞句が現れる英文を提案手法によって書き換えて既存システムで翻訳し,元の英文の翻訳と比較する実験を行なったところ,我々のシステムだけでなく,市販されている他のシステムにおいても,より自然な翻訳が得られることが確認された.このことは,提案手法が様々なシステムの前編集系として利用可能であることを示している.
V23N01-01
自動要約の入出力は特徴的である.多くの場合,自動要約の入出力はいずれも,自然言語で書かれた,複数の文からなる文章である.自動要約と同様に入出力がともに自然言語である自然言語処理課題として機械翻訳や対話,質問応答が挙げられる.機械翻訳や対話の入出力が基本的にはいずれも文であるのに対して,自動要約や一部の質問応答は基本的には入出力がいずれも文章である点が特徴的である.また形態素解析や係り受け解析などの自然言語解析課題においては,入力は文であるが,これらの出力は品詞列や係り受け構造などの中間表現であり,自然言語ではない.談話構造解析は文章を入力として想定するものの,やはり出力は自然言語ではない.この特徴的な入出力が原因となり,自動要約の誤り分析は容易ではない.自動要約研究の題材として広く用いられるコーパスの多くは数十から数百の入力文書と参照要約\footnote{本稿では,ある文書に対する正しい要約を「参照要約」と呼ぶ.}の組からなるが,入出力が文章であるがために,詳しくは\ref{sc:誤り分析の枠組み}節で述べるが,自動要約の誤りの分析においては考慮しなければならない要素が多い.そのため,数十の入力文書と参照要約の組といった入出力の規模でも,分析には多大な時間を要することになる.人手による詳細な分析を必要としない簡便な自動要約の評価方法としてROUGE\cite{lin04}があるが,ROUGEによる評価では取りこぼされる現象が自動要約課題に存在することも事実であり,詳細な分析が十分になされているとはいいがたい.そのため,何らかの誤りを含むと思われる要約をどのように分析すればよいのかという体系的な方法論は存在せず,したがって自動要約分野の研究者が各々の方法論をもって分析を行っているのが現状と思われる.この状況を鑑み,本稿では,自動要約における誤り分析の枠組みを提案する.まず,要約システムが作成する要約が満たすべき3つの要件を提案する.また,要約システムがこれらの要件を満たせない原因を5つ提案する.3つの要件と5つの原因から,15種類の具体的な誤りが定義され,本稿では,自動要約における誤りはこれらのいずれかに分類される.本稿の構成は以下の通りである.\ref{sc:基本的な前提}節では本稿が置く基本的な前提について説明し,本稿での議論の範囲を明らかにする.\ref{sc:誤り分析の枠組み}節では誤り分析の枠組みを提案し,自動要約の誤りが提案する15種類の誤りのいずれかに分類できることを示す.\ref{sc:分析の実践}節では実際の要約例に含まれる誤りを提案した枠組みに基づいて分析した結果を示す.\ref{sc:分析に基づく要約システムの改良}節では\ref{sc:分析の実践}節で得られた分析の結果に基づいて要約システムを改良し,要約の品質が改善することを示す.\ref{sc:関連研究}節では関連研究について述べる.\ref{sc:おわりに}節では本稿をまとめ,今後の展望について述べる.
V17N04-01
近年,様々な言語処理タスクにおいて,大量の正解データから学習した統計的言語モデルを解析に用いる教師あり機械学習のアプローチが広く普及している.このアプローチでは,言語の文法的な知識を統計的な特徴量として捉えることができ,形態素解析や固有表現抽出,機械翻訳などの自然言語処理で広く活用されている.本稿では固有表現抽出タスクに焦点をあてる.固有表現抽出は,形態素解析済みの各単語に対して,「どの種類の固有表現か」というタグを付与することにより実現されている.近年では,条件付確率場(ConditionalRandomFields;CRF)\cite{Lafferty:CRF2001,suzuki-mcdermott-isozaki:2006:COLACL}に基づく系列ラベリングが好成績を収めている.しかし,これらの教師あり機械学習に基づく言語処理では,モデルを学習するための正解データを構築するコストが極めて高いことが常に課題となっている.一方,情報検索や情報抽出の分野では,近年ブログなどのConsumerGeneratedMedia(CGM)を対象とした研究も多くなってきている.CGMは,テキストそのものが日々変化してゆくため,新しい語や話題が常に出現するという特徴がある.このような日々変化するテキストにモデルを適応させる確実な方法は,正解の追加データを作成することである.しかし,人手コスト問題のため,迅速に対応させるのは困難であった.これらの人手コストを削減するための従来研究として,能動学習\cite{shen-EtAl:2004:ACL,laws-schutze:2008:PAPERS},半教師あり機械学習\cite{suzuki-isozaki:2008:ACLMain},ブートストラップ型学習\cite{Etzioni2005}などが提案されてきた.能動学習は,膨大なプレーンテキスト集から学習効果の高いデータを取捨選択し,正解は選択されたデータのみに対して人手で付与する手法であり,人手コストを効果的に集中させることに着眼している.そのため,能動学習では学習効果の高いデータ(文)を選択するという,データセレクションが最も重要なポイントとなる\footnote{本来の能動学習では,少ないデータ量で統計モデルの精度を向上させるため,データの取捨選択を行っているが,目的の一つは,大規模正解データで学習したモデルと同等の精度を,少ない作業量で達成するためである.そのため,本稿では,人手作業コストを削減するデータセレクション→人手修正→モデル再学習の一連の手順を能動学習と呼ぶ.}.ここでのデータセレクションの単位は常に文である.一方,もしシステムの解析結果をそのまま正解データとして利用できれば,人手コストは大幅に削減可能である.しかし,現実には解析結果には解析誤りが存在するため,その解析誤りを一つ一つ人手で確認修正する作業が必要である.データセレクションの単位が文である限り,どこに解析誤りが存在するか明白ではないため,全てのタグをチェックする必要がある.しかし,実際には大部分のタグが正解であることが多いため,文全体の全てのタグを確認するコストは無駄が多い.本稿では,タグ単位の事後確率に基づいて算出したタグ信頼度を導入する.この手法では,文単位の信頼度ではなく,各単語に付与されうる全てのタグについてのタグ信頼度を計算する.そしてタグ信頼度に基づいて解析誤りタグを自動的に検出する.自動的に検出された解析誤り箇所だけを人手チェック・修正の対象とすれば,能動学習の学習効率は更に高まる.更に,もし検出された解析誤りを自動的に正解に修正できれば,更に学習コストを削減できる.本稿では,シードとなる正解固有表現リストを利用してブートストラップ的に正解データを収集する半自動自己更新型固有表現抽出を提案する.この手法では,予め人手でシードを準備するだけで,膨大なテキストからシードに存在する固有表現を含む正解データ\footnote{本稿では「正解データ」と呼ぶが,自動で固有表現を認識しているため,実際には少量の誤りも含んだ擬似正解データである.}を自動的に収集し,モデル更新をすることが可能となる.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f1.eps}\end{center}\caption{本稿で提案する学習手法の模式図}\label{fig-overall}\end{figure}本稿で提案する2つの学習手法の模式図を図\ref{fig-overall}に示す.タグ信頼度に基づいて大規模平文データからシステム解析誤りを自動検出し,誤りタグの有無でデータセレクションを実施する.誤りタグを人手で修正する能動学習(\ref{sec-active-learning}章)と,半自動で修正する自己更新型固有表現抽出UpdateNER(\ref{sec-bootstrapping}章)を本稿では提案する.以下,第\ref{sec-ner}章では固有表現抽出タスクについて述べ,第\ref{sec-confidence-measure}章では,今回提案するタグ信頼度について説明する.第\ref{sec-active-learning}章では,タグ信頼度を能動学習に適応したときの効果を示し,第\ref{sec-bootstrapping}章では半自動自己更新型固有表現抽出について説明する.第\ref{sec-related-works}章で関連研究について述べ,第\ref{sec-conclusion}章でまとめる.
V05N04-07
連続音声認識において,N-gramと呼ばれる統計的手法に基づいた言語モデルが広く使用されており(Bahl,JelinekandMercer1983),限られた探索空間上で認識精度を向上させるためには,信頼できる単語連鎖統計値を得るための大量のデ−タを用いて,大きなN値に設定されたN-gramを用いるのが効果的である.しかし,大量のデータを用意することは非現実的であり,実際には小さいN値であるbi-gramやtri-gramなどを用い,2単語や3単語など局所的な単語連鎖にのみ制約を与えて使用している.従って,単語N-gramモデルを用いた認識誤りには,N単語以上,実際には3から4単語以上からなる長い単語連鎖部分から判断すれば不自然なものが多い.音声対話や音声翻訳システムを実現するためには,上記のような認識誤りの特徴を考慮した上で,認識誤り文を解析できる手段が必要となる.従来,文脈自由文法に則って非文法的な文を解析する手法が提案されており(SaitouandTomita1988;Mellish1989),一部の音声認識誤り文の解析にも有効であることが確認されている.また,それを音声翻訳システムに導入した例も紹介されている(Lavie,Gates,Gavalda,Mayfield,WaibelandLevin1996a).これらは,入力文中に解析できない部分があったとき,その部分を削除,あるいは他の単語を挿入,置換しながら解析を続行することにより,音声認識誤り文の解析を可能にしている.しかしこの方法は,基本的には,誤認識さえなければ文全体を文法で記述することが可能であることを前提としている.実際の自然発話文に頻繁に出現すると思われる文法記述が困難な文を十分に解析できないのが問題となる.一方,文全体を文法で記述することが困難であると思われる自然発声文の解析を可能とするために,発声の際のポーズで区切られた単位を1部分として,文全体を部分毎に分け,各々の部分文を部分木で記述し,この部分木を列挙したもので文全体を記述する方法も提案されている(竹沢,森元1996b).この方法は自由発話文の解析を可能とする上で効果的な方法である.しかし,上記部分木もN-gramモデルと同様に,局所的な一部分文の範囲で解析を行なうものであり,認識処理で不足している「長い単語連鎖からなる大局的な言語的制約」を補うものではない.従って,局所的には既に制御されている認識誤り文を誤りであると判断できず,誤ったまま解析してしまうという問題がある.さらに,これら従来の解析方法は文脈自由文法による文法的制約を基本としているが,意味的な整合性を判断した解析ではないため,文の「不自然さ」を判断するには不十分であると考えられる.我々は,自由発話文の音声認識誤り文を解析するためには,文法以外の制約を積極的に用いて,認識誤り文から正しく認識された部分を特定するしくみを新たに導入し,特定された部分のみを対象として,または特定されなかった部分を修復しながら,文を解析することが必要であると考えている.そこで本論では,その第1歩として,単語N-gramのNの範囲を越えた大局的な部分を対象に,その意味的な自然性を判断することにより,認識結果文から正しく認識された部分のみを特定する方法を提案する.以下2章ではこの正解部分特定法について述べ,3章では日英翻訳システムを用いた正解部分特定法の評価結果について報告する.