id stringlengths 9 9 | text stringlengths 304 9.57k | title stringclasses 1 value |
|---|---|---|
V14N04-04 | 近年,構文解析は高い精度で行うことができるようになった.構文解析手法は,ルールベースのもの(e.g.,\cite{Kurohashi1994}),統計ベースのもの(e.g.,\cite{Kudo2002})に大別することができるが,どちらの手法も基本的には,形態素の品詞・活用,読点や機能語の情報に基づいて高精度を実現している.例えば,\begin{lingexample}\single{弁当を食べて出発した}{Example::Simple}\end{lingexample}\noindentという文は,「弁当を$\rightarrow$食べて」のように正しく解析できる.これは,「〜を」はほとんどの場合もっとも近い用言に係るという傾向を考慮しているからである.このような品詞や機能語などの情報に基づく係り受け制約・選好を,ルールベースの手法は人手で記述し,統計ベースの手法はタグ付きコーパスから学習している.しかし,どちらの手法も語彙的な選好に関してはほとんど扱うことができない.\begin{lingexample}\label{Example::Undoable1}\head{弁当を出発する前に食べた}\sent{弁当は食べて出発した}\end{lingexample}(2a)では,「弁当を」が\ref{Example::Simple}と同じように扱われ,「弁当を$\rightarrow$出発する」のように誤って解析される.(2b)においては,「〜は」が文末など遠くの文節に係りやすいという傾向に影響されて,やはり「弁当は$\rightarrow$出発した」のように誤って解析されてしまう.これらの場合,「弁当を食べる」のような語彙的選好が学習されていれば正しく解析できると思われる.統計的構文解析器においては多くの場合,語彙情報が素性として考慮されているが,それらが用いている数万文程度の学習コーパスからでは,データスパースネスの影響を顕著に受け,語彙的選好をほとんど学習することができない.さらに,2項関係の語彙的選好が十分に学習されたとしても,次のような例を解析することは難しい.\begin{lingexample}\single{太郎が食べた花子の弁当}{Example::1}\end{lingexample}\noindent「弁当を食べる」「花子が食べる」という語彙的選好を両方とも学習しているとすると,「食べた」の係り先はこれらの情報からでは決定することができない.この例文を正しく解析するには,「食べた」は「太郎が」というガ格をもっており,ヲ格の格要素は被連体修飾詞「弁当」であると認識する必要がある.このように,語彙的選好を述語項構造としてきちんと考慮できれば構文解析のさらなる精度向上が期待できる.述語項構造を明らかにする格解析を実用的に行うためには,語と語の関係を記述した格フレームが不可欠であり,それもカバレージの大きいものが要求される.そのような格フレームとして,大規模ウェブテキストから自動的に構築したものを利用することができる\cite{Kawahara2006}.本稿では,この大規模格フレームに基づく構文・格解析の統合的確率モデルを提案する.本モデルは,格解析を生成的確率モデルで行い,格解析の確率値の高い構文構造を選択するということを行う.構文解析手法として,語彙的選好を明示的に扱うものはこれまでにいくつか提案されてきた.白井らと藤尾らは,数十〜数百万文のコーパスから語の共起確率を推定し利用している\cite{Shirai1998,Fujio1999}.本研究にもっとも関連している研究として,阿辺川らによる構文解析手法がある\cite{Abekawa2006}.阿辺川らは,同じ用言を係り先とする格要素間の従属関係と,格要素・用言間の共起関係を利用した構文解析手法を提案している.これら2つの関係を新聞記事30年分から収集し,PLSIを用いて確率推定を行っている.既存の構文解析器の出力するn-bestの構文木候補に対して,確率モデルに基づくリランキングを適用し,もっとも確率値の高い構文木を選択している.この手法は,PLSIを用いることによって潜在的な意味クラスを導入し,確率を中規模のコーパスから推定している.本研究は,これらの研究に対して次の点で異なる.\begin{itemize}\item明示的に意味,用法が分類された格フレームを用いている.解析時に格フレームを選択することにより,用言の意味的曖昧性を解消し,その意味,用法下において正確な格解析を行うことができる.\item非常に大規模なコーパスから構築された格フレームを用いることによって,用例の出現を汎化せずに用いている.\item阿辺川らの手法のようにn-best解をリランキングするのではなく,構文,格構造を生成する生成モデルを定義している.\end{itemize} | |
V15N04-04 | 計算機科学でいう「オントロジー」とは,ある行為者や行為者のコミュニティーに対して存在しうる概念と関係の記述であり「概念」というのは,何らかの目的のために表現したいと思う抽象的で単純化した世界観である(Gruber1992).認知科学では,「概念」について外延的意味(事例集合で定義された意味)と内包的意味(属性の集合から定義された意味)の見方があるとする\cite{Book_02}.我々の認知活動の中で,概念化は,語,文,文脈,動作の仕方,事柄,場面など,様々なレベルで行われている.では,なぜ対象の概念化が必要かというと,河原では,MedinandGoldstone\nocite{book_24}を引用して「概念」の機能を次のように述べている(MedinandGoldstone1990;河原2001)「現在の経験を,あるカテゴリの成員とみなす(分類)ことで,その経験を意味のあるまとまりとして解釈し(理解と説明),そこから将来に何がおきるか(予測)や関連する別の知識(推論)を引き出すことが可能になる(コミュニケーション).その他,複数の概念を表す語を組み合わせて新たな概念を生成したり,新たな概念の記述を生成してから,その記述にあう事例を検索することもできる」.つまり,人間や計算機が効率的に柔軟な活動をするために,概念と,(言語化する・しないにかかわらず)概念の具体化された表現(あるいは事例)の総体である「オントロジー」は重要な役割を担っているといえる.我々が対象とする言語的オントロジー,特に,語彙の概念を体系化したオントロジーは,概念体系や意味体系と呼ばれ10年以上前から人手で構築されてきた(EDR電子化辞書(日本電子化辞書研究所1995)や分類語彙表\cite{book_16}など).その目的は,ある特定のアプリケーションでの利用ではなく,我々の言語知識を体系化することであり,その知識体系を利用して計算機に予測・推論・事例の検索・新たな概念の理解など,深い意味処理をさせることを目的としている.本研究がめざす「形容詞のオントロジー」の目的も,従来の語彙的なオントロジーの目的と同様に,計算機や人間が,形容詞を使って表現する知識の体系化をはかるものである.ここで本研究の「形容詞」とは,形容詞と形容動詞を含むものとする.従来のものと異なる点は,実データからの獲得を図るため,運用の実態を反映したオントロジーを得ようとすることである.人間の内省による分析の場合,概念記述を行う個々人の言語的経験から,概念体系の粒度や概念記述に差異がでてくる.心理実験のように,複数の人が同じタスクをすれば共通の傾向もとれるが,通常のプロジェクトでは同じ個所に多くの人を投入することは不可能である.自動獲得の目的は,できるだけ実際の言語データから言語事実を反映した結果を得ることである.一つ一つのテキストは個々人の記述だが,それを量的に集めれば,複数の人のバリエーションを拾うことができ,結果的に多くの人の言語運用の実態をとることができる.言語データから意味関係を反映した概念体系を捉えられれば,人間の内省によって作られたオントロジーや言語学的知見,意味分類などと比較することは意義があるのではないかと考える.ところで,コーパスからの語彙のクラスタリングや上位下位関係の自動構築などについては,Webの自動アノテーションやインデックス,情報検索など,その目的は様々であるが,そのほとんどが,名詞や動詞を対象にした分類や関係抽出である.形容詞や副詞に関する研究はまだ少ない.しかし,形容詞や副詞が語彙のオントロジーにとって重要でないわけではなく,たとえば,WordNetで形容詞の意味情報が手薄であることを指摘し,イタリア語形容詞の意味情報を導入することで,ヨーロッパの複数言語で共同開発しているEuroWordNetの抽象レベルの高い概念体系(EuroWordNetTopOntology)に変更を加えることを試みている研究がある\cite{Inproc_01}.オントロジーの主要な関係の一つに,類義関係と階層関係がある.形容詞概念を表すような抽象的な名詞の類義関係については,馬らなどの研究がある\cite{Article_21}.しかし,形容詞概念の階層関係については,まだ研究が進んでいない.本研究では,形容詞概念の階層関係に着目し,コーパスから取得した概念から階層を構築する方法と,妥当そうな階層を得るための評価について述べる.本研究で扱う概念数は約365概念であり,それに対しEDR電子化辞書の形容詞の概念数が約2000概念ほどと考えると取り扱うべき概念はさらに増える可能性があるが,本研究は,現時点よりも多くの概念数を扱うために,まず,現段階での概念数で,階層構築とその評価方法について実験および考察を行ったものである.我々は,第2節でオントロジーのタイプの中で本研究がめざすオントロジーについて述べ,第3節で先行研究の言語学的考察から,形容詞の概念を語彙化したような表現があることを述べ,形容詞の概念をコーパスから抽出する.第4節では第3節で抽出したデータをもとに複数の尺度での階層構築と,得られた階層のうち,妥当そうな階層を判別するための条件を述べ,第5節で心理実験によってEDRの形容詞概念階層と比較評価を行う.第6節でオントロジー構築に向けての今後の展望をのべ,第7節でまとめを行う. | |
V14N02-01 | シソーラスは,機械翻訳や情報検索のクエリー拡張,語の曖昧性の解消など,言語処理のさまざまな場面で用いられる.シソーラスは,WordNet\cite{Miller90}やEDR電子化辞書\cite{EDR},日本語語彙大系\cite{goitaikei}など,人手で長い年月をかけて作られたものがよく用いられている\footnote{2003年からはWordNetだけに焦点を当てたInternationalWordNetconferenceも開催されている.}.しかし,こういったシソーラスを作成するのは手間がかかり,また日々現れる新しい語に対応するのも大変である.一方で,シソーラスを自動的に構築する研究が以前から行われている\cite{Crouch92,Grefenstette94}.Webページをはじめとする大規模で多様な文書を扱うには,シソーラスを自動で構築する,もしくは既存のシソーラスを自動で追加修正する手段が有効である.シソーラスの自動構築は,語の関連度の算出と,その関連度を使った関連語の同定という段階に分けられる\cite{Curran02-2}.2語の関連度は,コーパス中の共起頻度を用いて求めることができる\cite{Church90}.これまでの研究では,コーパスとして新聞記事や学術文書が用いられることが多かった.それに対し,近年ではWebをコーパスとして用いる手法が提案されている.Kilgarriffらは,Webをコーパスとして用いるための手法やそれに当たっての調査を詳細に行っている\cite{Kilgarriff03}.佐々木らはWebを用いた関連度の指標を提案している\cite{Sasaki05}.Webには,新聞記事や論文といった従来からある整形された文書のみならず,日記や掲示板,ブログなど,よりユーザの日常生活に関連したテキストも数多く存在している.世界全体で80億ページを超えるWebは,間違いなく現時点で手に入る最大のコーパスであり,今後も増え続けるだろう.Kilgarriffらが議論しているように,Webの文書が代表性を持つのかといった議論はこれからも重要になるが,Webはコーパスとしての大きな可能性を秘めていると著者らは考えている.Webをコーパスとして扱う際にひとつの重要な手段になるのが,検索エンジンである.これまでに多くの研究が検索エンジンを用いて,Web上の文書を収集したり,Webにおける語の頻度情報を得ている\cite{Turney01,Heylighen01}.しかし検索エンジンを用いる手法とコーパスを直接解析する手法には違いがあるため,従来使われてきた計算指標がそのまま有効に働くとは限らない.本論文では,Webを対象とし,検索エンジンを用いて関連語のシソーラスを構築する手法を提案する.特に,検索エンジンを大量に使用すること,統計的な処理を行うこと,スケーラブルなクラスタリング手法を用いていることが特徴である.ただし,類義・同義語に加え,上位・下位語や連想語など,より広い意味である語に関連した語を関連語とする.まず,2章で関連研究について述べる.そして,3章で検索エンジンを用いた関連度の指標を提案し,さらに4章では関連語ネットワークをクラスタリングする手法について紹介する.そして,5章では評価実験を行い,この手法の効果について議論を行う. | |
V09N03-01 | 決定リストとは統計的なクラス分類器である.自然言語処理の多くは,クラス分類問題として捉えることが可能であり,近年,様々な自然言語処理において,決定リストによる手法の有効性が示されている\cite{Yarowsky:unsupervised,新納:日本語形態素解析,宇津呂:コーパス,白木:複数決定リスト}.特に,語義曖昧性解消問題に対しては,語義曖昧性解消システムの性能を競う競技会であるSenseval-1において,決定リストを階層的に拡張した手法が最も良い成績をあげている\cite{Yarowsky:Hierarchical}.クラス分類器としては,分類精度の点だけでいえば,最近ではサポートベクタマシン\cite{vapnik95nature}やアダブースト\cite{freund99short}といった手法が,その性能の高さから注目を集めている\cite{nagata01text}.しかし,それらの手法は,学習結果が人間にとってブラックボックスなのに対して,決定リストによる手法では,作成された分類器がif-then形式のルールの並びであるために,人間が容易に理解可能であるというメリットがある.学習した決定リストに人間の手を入れることで,性能を向上させることができるとの報告もある\cite{Li:Text}.決定リストを作成する上で最も重要な問題は,ルールの信頼度の算出法である.信頼度を計算するためには,限られた事例から,ルールに関する条件付き確率を計算する必要がある.事例の数が多ければ,確率値を最尤推定法によって頻度の比として推定することにほとんど問題はない.しかし,事例の数が少ない場合,最尤推定法による推定値の誤差は非常に大きくなってしまう.このような問題に対し,決定リストを用いた多くの研究では,事例の数が少ないルールを間引いたり,簡単なスムージングを行なうことによって対処している.しかし,ルールを間引く手法では重要なルールを取りこぼしてしまう危険があり,計算式に適当な数値を足してスムージングを行なう手法では加算する値の設定の理論的な指針がないという問題がある.他方,決定リスト手法の改良として,特徴の種類ごとに異なった信頼度の重み付けを与える手法が提案され,日本語の同音異義語解消の実験によってその有効性が示されている\cite{新納:複合語}.このことは,特徴の種類によって,ルールの信頼度に最尤推定法では考慮することのできない違いが存在することを示唆している.そこで本論文では,ルールの確率値の推定にベイズ統計の手法を利用する.ベイズ統計では,確率変数に関する推定を行なう際に,学習者の持っている事前知識を活用することができる.そのため,適切な事前知識を利用することができれば,最尤推定よりも正確な推定を行なうことができる.また,上記の,証拠の種類による信頼度の違いも,事前分布の違いとして自然に導入することができる.本論文では,語義曖昧性解消の問題を例にとり,ベイズ学習による信頼度の算出が,決定リストの性能を向上させることを示す.本論文の構成は以下の通りである.2章で決定リストによるクラス分類の手法を説明する.3章で,ベイズ学習による確率値の算出法を示す.4章で,他のルールの確率値を利用して事前分布を構成する方法を示す.5章で,決定リストを語義曖昧性解消問題に適用した実験結果を示す.6章で,まとめを行なう. | |
V10N03-04 | 本論文では,Nigamらによって提案されたEMアルゴリズムを利用した教師なし学習の手法\cite{nigam00}を,SENSEVAL2の日本語翻訳タスク\cite{sen2}で出題された名詞の語義の曖昧性解消問題に適用する.その結果,通常の教師付き学習で得られる分類規則の精度を向上させ得ることを示す.自然言語処理では個々の問題を分類問題として定式化し,帰納学習の手法を利用して,その問題を解決するというアプローチが大きな成功をおさめている.しかしこのアプローチには帰納学習で必要とされる訓練データを用意しなければならないという大きな問題がある.この問題に対して,近年,少量のラベル付き訓練データから得られる分類器の精度を,大量のラベルなし訓練データによって高めてゆく教師なし学習が散見される.代表的な手法として,Co-training\cite{blum98}と,EMアルゴリズムを利用した手法\cite{nigam00}がある.Co-trainingは2つの独立した属性AとBを設定し,一方の属性Aから構築される分類器を利用して,ラベルなしデータにラベル(クラス)を付与する.その中から信頼性のあるラベルが付与されたデータをラベル付き訓練データに加える.このようにして追加されたラベル付き訓練データは,もう一方の属性Bから見るとランダムなサンプルにラベル付けされたデータとして振る舞うので,属性Bから構築される分類器の精度が高まる.これをお互いに作用し合うことで,分類器の精度が高められる.一方,EMアルゴリズムは,部分的に欠損値のある不完全な観測データ\(x_1,x_2,\cdots,x_N\)から,そのデータを発生する確率モデル\(P_{\theta}(x)\)を推定する手法である.\(P_{\theta}(x)\)は未知パラメータ\(\theta\)を含み,\(P_{\theta}(x)\)の推定は,\(\theta\)の推定に帰着される.分類問題の教師なし学習では,ラベル付き訓練データが完全な観測データ,ラベルなし訓練データがラベルを欠損値とした不完全な観測データとなる.EMアルゴリズムは,現時点での\(\theta\)を使って,モデル\(P_{\theta}(c|x_i)\)のもとでの\(\logP_{\hat{\theta}}(x_i,c)\)の期待値を取る(E-step).次に,この期待値を最大にするような\(\hat{\theta}\)を求める(M-Step).\(\hat{\theta}\)を新たな\(\theta\)として先のE-stepとM-stepを繰り返す.ここで\(c\)は欠損値となるラベルである.EMアルゴリズムはパラメータ\(\theta\)とモデル\(P_\theta(x)\)を適切に設定することで,隠れマルコフモデルや文脈自由文法のパラメータ推定,あるいは名詞と動詞間の関係クラスの教師なし学習\cite{rooth}\cite{torisawa}などに利用できる.そして,Nigamらは文書分類を題材にモデル\(P_\theta(x)\)をNaiveBayesのモデル,\(\theta\)をラベル\(c\)のもとで素性\(f\)が起る条件付き確率\(p(f|c)\)に設定することで,教師なし学習を試みている\cite{nigam00}.NigamらのEMアルゴリズムを利用した手法やCo-trainingは,どちらも本来は文書分類に対して考案されており,多義語の曖昧性解消に利用できるかどうかは明らかではない.多義語の曖昧性解消は自然言語処理の中心的な課題であり,これらの手法が適用できることが望ましい.ここではSENSEVAL2の日本語翻訳タスクで出題された名詞を題材に,EMアルゴリズムを利用した教師なし学習の手法が名詞の語義の曖昧性解消に適用可能であることを示す.翻訳タスクの出題形式はある単語\(w\)がマークされた(日本語)文書である.翻訳タスクでは予め,単語\(w\)に関するTranslationMemory(以下TMと略す)と呼ばれる日英の対訳例文の集合が解答者に配られている.そして翻訳タスクの解答形式は,出題された文書内において注目する単語\(w\)を英訳する際に利用できるTMの例文番号である\footnote{厳密には,翻訳システムも参加できるように,英訳自身を返す解答形式も認められているが,ここでは例文番号を返す解答形式のみを考える.}.つまり,翻訳タスクは単語\(w\)の訳を語義と考えた多義語の曖昧性解消問題となっている.また同時に,翻訳タスクはTMの例文番号をクラスと考えた場合の分類問題として扱える.ここで注意すべきは,翻訳タスクは訓練データを作るのが困難な点である.TMは1つの単語に対して平均して21.6例文がある.今仮にある単語\(w\)の例文として\(id_1\)から\(id_{20}\)までの20例文がTMに記載されていたとする.新たに訓練データを作成する場合,単語\(w\)を含む新たな文を持ってきて,\(id_1\)から\(id_{20}\)のどれか1つのラベルを与える必要がある.〇か×かの二者択一は比較的容易であるが,20個のラベルの中から最も適切な1つを選ぶのは非常に負荷のかかる作業である.このように,翻訳タスクは訓練データを新たに作るのが困難であるために,教師なし学習を適用する格好のタスクになっている.実験ではSENSEVAL2の日本語翻訳タスクで出題された全名詞20単語を用いて,本手法の評価を行う.各単語に対して,平均70事例(TMの例文も含む)からなるラベル付き訓練データと,新聞記事1年分から取り出した平均3,354事例からなるラベルなし訓練データを作成し,本手法を適用した.ラベル付き訓練データだけから学習できた決定リストの正解率は58.9\,\%(コンテストでのIbarakiの成績)であり,NaiveBayesによる分類器の正解率は58.2\,\%であった.そして本手法を用いてNaiveBayesによる分類器の精度を高めた結果61.8\,\%まで改善された.また一部,訓練データの不具合を修正することで,NaiveBayesによる分類器の正解率を62.3\,\%,決定リストでの正解率を63.2\,\%に向上できた.更に,本手法を用いてNaiveBayesによる分類器の正解率(62.3\,\%)を68.2\,\%まで高めることができた. | |
V10N01-03 | 文書データベースから必要な文書を検索する場合,対象となる文書を正確に表現する検索式を作成する必要がある.しかし正確な検索式を作成するためには,検索対象となる文書の内容について十分な知識が必要であり,必要な文書を入手する前の検索者にとって適切な検索式を作成するのは難しい.レレバンスフィードバックはこの問題を解決する手法であり,システムと検索者が協調して検索式を作成することで,検索者にとって容易かつ高い精度で文書検索を行う手段である.検索者はまず初期の検索条件を与え,この検索条件により検索される文書からシステムが特定のアルゴリズムに従ってサンプル文書を選択する(本稿ではこの選択アルゴリズムをサンプリングと呼ぶ).サンプル文書から検索者が必要文書と不要文書を選択すると,選択された文書からシステムが自動的に検索条件を更新し,検索を行う.この検索結果に対してシステムによるサンプリング,検索者による選択,再検索が繰り返される.この選択による検索条件の更新がレレバンスフィードバックであり,検索結果について必要文書と不要文書を選択することで,利用者は容易に必要文書を収集することができる.また,この選択--検索のプロセスを繰り返すことで,検索条件がより検索者のニーズを反映したものとなるとともに,検索者は検索要求に適合する文書をより多く入手することができる.レレバンスフィードバックの検索精度はサンプリング手法によって異なる.通常のレレバンスフィードバックでは最も検索条件に適合すると考えられる文書をサンプル文書とする(本稿ではこの手法を「レレバンスサンプリング」と呼ぶ).これに対してLewisらはuncertaintyサンプリングを提案している\cite{bib:DLewis}.これは文書のうち必要であるか不要であるかを最も判定しにくいものをサンプルとする手法で,レレバンスサンプリングよりも高い検索精度が得られると報告されている.これらサンプリング手法は検索結果の上位から順に(レレバンスサンプリング),ないし必要文書と不要文書の境界と推定される文書,およびその前後の順位の文書(uncertaintyサンプリング)をサンプル文書として選択する.このため検索条件との適合度により順位付けされた検索結果のうち,適合度がある範囲にある文書からサンプルが選択される.比較的類似した文書は同じ検索条件との適合度が類似した値となる傾向があることから,これらサンプリング手法は複数の類似した文書をサンプルとして選択する可能性が高い.この問題点に対処するため,筆者はunfamiliarサンプリングを提案する.unfamiliarサンプリングはレレバンスサンプリングおよびuncertaintyサンプリングを改良する手法であり,既存のサンプル文書と類似した文書がサンプルとして追加されないように,サンプル選択の際に既存のサンプルと文書間距離が近いサンプルを排除する.この改良により,選択されるサンプル文書はよりバラエティに富んだものとなり,複数の類似した文書がサンプルとして用いられる場合に比べて検索精度の向上が期待できる.レレバンスフィードバックを用いた文書検索を行う場合,検索者が多くの文書について必要ないし不要の判定をすることは考えにくいので,少数のサンプル文書で高い精度を得ることが重要になる.近年,文書検索や文書分類を高い精度で実現する手法としてAdaBoostがよく用いられる\cite{bib:Boost}.AdaBoostは既存の分類アルゴリズム(弱学習アルゴリズム)を組合せることでより精度の高いアルゴリズムを生成する手法であるが,決定株,ベイズ推定法を弱学習アルゴリズムとして用いる場合,サンプル文書が少ない場合にはRocchioフィードバックに劣る精度となることが知られている\cite{bib:Boost_and_Rocchio,bib:Yu}.本稿ではRocchioフィードバックを弱学習アルゴリズムとして用いる例(Rocchio-Boost)を示し,実験により少数のサンプル文書でも高い検索精度を実現することを示す.次章以降の本稿の構成は次の通りである.2章で既存のレレバンスフィードバック技術であるRocchioフィードバックについて述べ,3章ではAdaBoostのRocchioフィードバックへの適用について述べる.4章で既存のサンプリング手法であるレレバンスサンプリング,uncertaintyサンプリングについて述べ,5章で提案手法であるunfamiliarサンプリングについて述べる.6章で実験に用いたNPLテストコレクションおよび実験手法について述べる.7章で実験結果とその考察について述べ,8章で本稿のまとめを述べる. | |
V12N05-07 | \label{sec:hajime}最近、種々の応用を睨んで言い換えの研究がさかんになっている\cite{inui02,acl03}。例えば、語彙的言い換えの研究\cite{yamamoto02}は種々の応用に役立つ。また、機械翻訳の前処理や評価\cite{kanayama03}、情報検索、質問応答、情報抽出の柔軟性を上げること\cite{Fabio03,Shinyama03}、年少者や初心者向けの教科書やマニュアルを読みやすくする、などは直接的に役立つ応用である。似た研究としては聾唖者に理解し易いテキスト言い換えもある\cite{inui-acl03}。また、非母国語話者が理解しやすいように簡易な言い方に言い換えることも有意義である。こういった目的のためには、国語辞典を用いた用言の言い換え\cite{kaji03}や普通名詞の言い換え\cite{fujita00}などが役立つ。一方、要約も言い換えの応用分野として有力である。従来の文書要約は重要文の抽出が主体であった\cite{mani01}。しかし、抽出した文をさらに短縮することを目指す場合には言い換えが役立つ。例えば、\begin{description}\item[例文1:]\hspace{2em}本法案が衆議院本会議で審議が始まった。\\を\item[例文2:]\hspace{2em}本法案、衆議院本会議で審議。\end{description}というような言い換えが考えられる。実際にこの例文2のような短縮された表現はテレビの字幕あるいは列車の字幕ニュースなどでよく見かける。このような応用は文書表示を行う端末の多様化からみても有用さが増してくる。Webページは従来からパソコンの大画面への表示を想定して作られていた。しかし、携帯電話やPDAの普及により100文字程度の小画面への表示を念頭におくテキストも増加している。このような画面へ表示するコンパクトなテキストは多くの場合短縮された表現である。このような短縮を自動的に行うために言い換え表現を収集することは意義深い。新聞記事の場合、重要な文は記事の先頭に現れることが多いという性質を利用して抽出できるが、画面が小さく表示文字数に限りがあること、短い時間で読むことができることなどを考慮すると、さらに縮約が要請される。後に詳しく述べるが、よく使われるのは、上記の例文2に見られる体言止めのような文末の短縮表現である。また、「国会で審議へ」という文末の助詞止めも多く使われる。このような縮約した文末表現は従来から字幕放送で用いられている。しかし、通常の書き言葉の文末である終止形を体言止めや助詞止めに変換する規則は、これまでほとんど手作りであった\cite{ando01}。このような文短縮を目的とした言い換え表現を言語の実際の使用例から自動収集するための言語資源としてWebに配信されている新聞記事と、これに対応した内容を携帯電話向けに発信している新聞記事に注目する。これらは毎日数十記事発信され、長期間にわたって蓄積すれば大量の言語資源となる。すなわち、同じ内容が数十文字程度で構成された携帯端末向けの新聞記事と数百文字程度で構成されているWeb新聞記事が対応付けられれば、ある言語表現とその短縮表現の対応データとして使える。この対応付けコーパスを用いれば、多様な文末表現の縮約のための言い換え表現を機械的な手法で抽出することが可能になる。ここで留意しなければならないのは、この研究で目的としている言い換えは「Web記事の文$\rightarrow$携帯端末向け記事の文」という方向性を持つ点である。実際には、書き手がこの方向で作業しているかどうかは不明である。しかし、縮約のような言い換えによって短縮された記事を作ることは技術的に可能であっても、その逆方向の言い換えは困難である。よって、この方向性を前提として研究を進める。なお、以下では必要に応じて、言い換え操作の対象になるWeb記事の文からの抽出表現を「言い換え元表現」、対応する携帯端末向け記事の文からの抽出表現を「言い換え先表現」と呼ぶ。さて\cite{inui02}は言い換えの研究にいくつかの問題を提起している。それらに対して、この研究ではいかなる解決策を採っているかをまとめることによって、本論文の構成を述べる。\\\noindent\textbf{言い換え事例をどのように集めるか}\\この問題に対しては、1)Web上から得られる言い換え表現獲得のための言語資源としてWeb新聞記事と携帯端末向けの新聞記事を用いること、2)この両記事コーパスを文単位で対応付ける方法の提案と実験的評価、を行って対処している。具体的には\ref{sec:taiou}節において、研究で使用した記事データについて、およびWeb記事と携帯記事の対応付け、さらにそこから文単位での対応付けを行う方法について述べる。このような対応付けコーパスを用いる言い換え事例収集は多くの研究\cite{braz01,sekine01}があるが、本研究での新規性のひとつは対象としている言語資源にある。\\\noindent\textbf{どの表現を言い換えるか}\\この問題は、これまでの言い換え研究の中心課題のひとつであった。特に類似した表現の対をコーパスから探し出すことは重要なテーマで、多くの研究\cite{murata01,torisawa01,terada01}がなされた。我々の場合、\ref{sec:chushutu}節において述べるように、対応付けられた文からなるコーパスを利用してWeb記事文の文末を縮約する携帯端末向け文の文末の言い換え表現を獲得することに的を絞っている。よって、言い換えるべき場所はWeb記事文の文末のうち、本論文で述べる方法で抽出した言い換えにおける言い換え元の表現が出現した場合と限定できる。\\\noindent\textbf{可能な言い換えの網羅的生成と、生成された候補の評価}\\\cite{inui02}では、この問題は上の問題の一部と位置付けられているが、本研究では網羅性の確保はその困難さから諦めた。代わりに文末表現に限定し、どのような範囲の形態素列を切り出せば正しい言い換え表現を抽出できるかという問題に絞って扱う。\ref{sub:webbunmatsu}節で言い換え表現の抽出について説明し、その抽出結果に\ref{sub:junni}節で説明する得点付けを行うことによって正しい言い換え表現を取得する。\ref{sub:filter}節では、その結果の言い換え表現のうち必要な名詞を削りすぎた不適切な言い換えを除去するフィルタリングについて述べる。これらの\ref{sec:chushutu}節に提案する手法の実験評価を\ref{sec:hyouka}節で述べる。\\\noindent\textbf{意味の差、およびその計算法}\\この問題はこの論文では人手での評価に頼った。今後の課題である。\\\noindent\textbf{言い換え知識の共有}\\本論文で述べた言い換え知識は文末表現の縮約に役立つが、これを大きくの研究者、技術者に共有する枠組みについても今後の課題である。 | |
V08N02-01 | 本論文では日本語単語分割を分類問題とみなし,決定リストを利用してその問題を解く.このアプローチは文字ベースの手法の一種となり,未知語の問題を受けないという長所がある.また分類問題ととらえることで,ブースティングの手法が適用できる.その結果,単独の決定リストを利用するよりも,さらに精度を向上させることができる.日本語形態素解析は,日本語情報処理において必須の要素技術であり,その重要性は明らかである.日本語形態素解析は単語分割と分割された単語への品詞付与という2つのタスクをもつ.正しい単語分割からは英語の品詞タガーなどの技術を利用して,高精度に品詞付与ができるために,日本語形態素解析の本質的に困難な部分は単語分割である.特に未知語の問題が深刻である.未知語の問題とは,辞書に登録されていない単語の出現によりその単語とその単語の前後での単語分割が誤るという問題である.未知語の問題に対処する一つの方法として,文字ベースの単語分割手法がある.文字ベースの手法とは,辞書を使わずに,各文字間に単語境界が存在するかどうかを判定することで単語分割を行う手法である.従来,文字ベースの手法としては,文字ベースのHMM(HiddenMarkovModel)が提案されている.文字ベースのHMMは,状態として文字間に単語境界が存在する(状態1)としない(状態0)の2つを設定し,状態間を遷移するときに各文字が出力されるモデルである.単語分割は遷移した状態列を推定することで行える.文字ベースのHMMでは状態aから状態bに移るときに文字cを出力する確率を訓練データから得る.本質的にこの確率の精度が単語分割の精度を左右する.通常その確率を計算するためにtri-gramモデルを利用するが,常識的に考えても,前2文字から次の文字を予測することは難しく,文字ベースのHMM単独ではそれほどの精度は期待できない.このため,様々な工夫を付加する必要がある\cite{yamamoto97,tsuji97,oda98}.本論文では単語分割をHMMによりモデル化して解くのではなく,分類問題として定式化して解く.先ほども述べたように,日本語単語分割は,各文字間に単語境界が存在する(クラス\(+1\))か存在しない(クラス\(-1\))かを判定する問題であり,これは分類問題に他ならない.分類問題を解くために設定する属性として,辞書情報を使わないことで,文字ベースの単語分割手法と同様未知語の問題を受けない.また分類問題として見なすことで,n-gramモデルでは利用の困難であった様々な属性を判定の材料として利用可能になる.さらに,分類問題は機械学習や統計学で活発に研究されている問題であり,それらの研究成果を直接利用することができる.本論文では単語分割を分類問題と見なし,分類問題に対する帰納学習手法の一つである決定リスト\cite{Yarowsky1}を用いて,その問題を解く.さらに,近年,機械学習の研究分野では弱学習器を組み合わせて強学習器をつくるブースティングの研究が盛んである.ここではその代表的な手法であるアダブースト\cite{adaboost}を本問題に対して適用する.実験では,タグつきのコーパスである京大コーパス(約4万文)を訓練データとして,決定リストを作成した.その決定リストを利用した単語分割は,同じデータから学習させた文字tri-gramモデルに基づく単語分割法(文字ベースのHMMの一種)よりも高い精度を示した.さらに,アダブーストを利用することで,単独の決定リストよりも高い精度を得ることができた.また本手法の未知語の検出率が高いことも確認した. | |
V09N01-03 | \label{sec-intro}音声対話システムとは,ユーザとの音声対話を通して,あらかじめ決められたタスクをユーザと協同で実行するシステムである.タスクとは,音声対話システムごとに定められた作業のことであり,たとえば,各種の予約,個人スケジュールの管理といったタスクがある.近年の音声情報処理技術,自然言語処理技術の発展に伴って,様々なタスクにおいて音声対話システムが実現されてきている~\cite{TRIPS,DUG1,PEGASUS}.音声対話インタフェースは,人にとって親しみやすく,手や目を占有しないという利点をもつ.人とコンピュータが,円滑な音声対話を通して意思疎通できるようになれば,音声対話は理想的な人−コンピュータのインタフェースとなることが期待される.しかし,円滑な音声対話を実現するためには,音声認識誤りに対処することが必要となる.システムは,ユーザ音声の認識結果からユーザ要求の内容を理解し,ユーザ要求内容に応じて適切な情報をユーザに伝達しなければならないが,音声認識誤りの可能性があるため,ユーザ音声の認識結果のみに頼ってユーザ要求の内容を確定してしまうと,ユーザ要求通りに正しくタスクを遂行できない場合が生じる.音声対話システムでは,この問題に対処するために,ユーザとの間で確認対話と呼ぶ対話を行い,確認対話を通してユーザ要求内容を確定するという方法をとることが普通である.音声認識誤りのため確認対話は必須であるが,確認対話の最中にも音声認識誤りが起きる可能性があるので,確認対話が長ければ長いほど,対話の円滑な流れが阻害される危険性が高まる.したがって、不必要な確認対話はできる限り避けることが望ましい.不必要な確認対話の一つの典型は,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合に,システムがユーザ要求内容のすべてを逐一確認する場合に起きる.ここで,システム知識とは,システムが対話時点でデータベース内に保持しているタスク遂行のために必要なデータの集合を意味する.また,ユーザ要求内容がシステムの限られた知識の範囲を越えている状況とは,システムがユーザ発話を理解できるのだけれども,システムが保有していない情報をユーザが要求している,あるいは,システムが詳しい情報を保有していない事柄に関して,ユーザが詳細な情報を要求しているという状況である.\footnote{本稿では,システムが認識できる語彙の集合が限られているために,システムがユーザ発話を理解できない状況や,ユーザが期待するタスクとシステムが想定するタスクが相違しているために、ユーザが期待するタスクをシステムが実行できない状況は扱わない.}音声対話システムとユーザの対話は,ユーザの要求内容を確定するために確認対話を行い,その後で,確定した要求内容に応じて適切な情報をユーザに対し応答するという順序で進行する.確認対話でユーザ要求内容をすべて確認したところで,確認対話に続くシステム応答の長さを考慮しなければ,対話全体を効率的に実施することにはならない.システム応答の長さは,対話時点のシステム知識の内容に依存するので,システムの限られた知識の範囲を考慮した上で,対話全体を制御する必要がある.例として,気象情報を案内する音声対話システムを考える.システムは,各場所ごとに予報されている気象情報や,現在発表されている警報についてのデータをシステム知識として保有している.今,ユーザが神奈川県に大雨警報が発表されているかどうか尋ねているとシステムが理解した状況を想定する.また,どこにも警報が発表されていない,あるいは,警報が発表されている場所は少数であるという知識をシステムが保有しているとする.このとき,ユーザが関心のある場所が神奈川県であることや,警報の種別が大雨であるといった項目は確認する必要がない.なぜなら,システムは,ユーザ要求内容に含まれる場所や警報の種別が何であるかということを識別するに足るほど詳しい情報を保有しておらず,場所や警報の種別についての確認なしでも,システム応答の長さはほとんど同じであり,対話全体の長さが増大することもないからである.また,システムが認識している神奈川県,大雨といった項目は認識誤りかもしれず,それらの項目を確認すると,ユーザの訂正発話を招き,対話が不必要に長くなる危険性が高い.音声対話システムとユーザの間で効率的な対話を実現するための対話制御法について盛んに研究が進められている\cite{Chu:00,LPE:98,Niimi:96,LKSM:00,RPT:00}.これらの従来法は,音声認識結果の信頼度,音声認識率,システム理解状態といった情報を利用して,確認対話の長さを削減することに注目している.しかし,確認対話に続くシステム応答の長さを含めて対話全体を効率的に実施することは行っておらず,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合に,著しく無駄な対話を行ってしまうという問題点がある.従来法の中には,強化学習を利用して最適な対話戦略を学習するという方法がある~\cite{LPE:98,LKSM:00,RPT:00}.これらの従来方法では,対話戦略の効率性を評価するための報酬関数あるいはコスト関数を定義し,システムとユーザの間の多くの対話例を使って,報酬関数を最大化あるいはコスト関数を最小化するような対話戦略が学習される.しかし,これらの従来法はシステムが対話時点で保有する知識の範囲が対話の効率性に対して及ぼす影響を報酬関数やコスト関数に組み入れてはいない.したがって,強化学習に基づく従来法によって学習される対話戦略を使っても,本稿で問題としているような無駄な対話を避けることはできない.ユーザ発話内容が曖昧なときに,ユーザ発話内容の曖昧さを解消してもシステム応答が同一で変化しないなら,ユーザ発話内容の曖昧さを解消せずに応答を生成するという方法が提案されている~\cite{Ardissono:96,RasZuk:94,vBkCoh:91}.これらの従来法は,システム応答の同一性が保証されていない場合には適用できないという問題がある.また,音声認識誤りにより発生する余分な対話については考慮されていない.そこで,本稿では,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合であっても,無駄な確認を避けて効率的な対話を実施することを目的とした方法として,デュアルコスト法とよぶ対話制御法を提案する.デュアルコスト法では,確認対話の長さを表す確認コストと,確認対話後のシステム応答の長さを表す情報伝達コストという2つのコストを導入し,確認コストと情報伝達コストの和を最小化するように対話を制御する.音声認識が誤っていると,余分な確認を行わないといけないことを反映して,確認コストは音声認識率に依存する.情報伝達コストはシステムが対話時点で保有する知識の内容に依存する.確認コストと情報伝達コストという2種類のコストを導入するのは,対話全体を効率的に実施するためには,確認対話の長さだけでなく,システム応答の長さを考慮する必要があるためである.すなわち,確認対話に手間をかければかけるほど対話全体を効率的に実施できるというわけではなく,ユーザ要求内容確定のための手間は,システム応答の長さとのバランスによって決める必要があるということである.この2つのコストの和を最小化することにより,システム知識の内容に応じて,無駄な確認を避け,対話全体を効率的に実施することが可能となる.この提案方法は,システム応答の同一性が保証されない場合であっても,情報伝達コストの増大が確認コストの減少に見合う範囲内であれば,ユーザ発話理解結果の一部を確認しないという方法であり,従来方法~\cite{Ardissono:96,RasZuk:94,vBkCoh:91}を一般化したものとなっている.また,デュアルコスト法とユーザ要求内容のすべてを逐一確認する従来方法を対話の効率性の観点から比較したシミュレーション対話実験の結果を示し,デュアルコスト法が従来法よりも効率的に対話を実施できることを論じる. | |
V20N02-08 | label{intro}述語項構造解析は,言語処理分野における挑戦的な研究分野の一つである.この解析は,自然文または自然文による文章から,「誰が,何を,誰に,どうした」というような,基本的な構造情報を抽出する.これらの情報は,文書要約や機械翻訳など,他の応用的な言語処理研究に不可欠なものであり,その他にも幅広い応用が期待されている.図\ref{example1}に,日本語の述語項構造の一例を示す.この例では,「行った」が\textbf{述語}であり,この述語が二つの\emph{項}を持っている.一つは\textbf{ガ格}の「彼」,もう一つは\textbf{ニ格}の「図書館」である.このように,述語とそれに対応する項を抽出し,\textbf{格}と呼ばれるラベルを付与するのが述語項構造解析である.それゆえに,述語項構造解析は,格解析と呼ばれることもある.本稿では,個々の述語—項の間にある関係を\emph{述語項関係},そして,文全体における述語項関係の集合を\emph{述語項構造}と呼ぶことにする.\begin{figure}[b]\begin{center}\includegraphics{20-2ia8f1.eps}\end{center}\caption{日本語述語項構造の例}\label{example1}\end{figure}尚,一般には図\ref{example1}の「昨日」という単語も時間格相当の項の対象となり得るが,本研究の述語項構造解析では限定的な述語項関係を対象としており,「昨日」はその対象としない.この対象の範囲は解析に利用するデータのアノテーション基準に依存する.本研究ではNAISTテキストコーパス~\cite{iida:2007:law}を利用しており,このデータのアノテーションに準拠した述語項関係のみの解析を行う.日本語以外の言語では,意味役割付与と呼ばれる述語項構造解析に相当する解析が行われている.特に英語では,FrameNet~\cite{fillmore:2001:paclic}やPropBank~\cite{palmer:2005:cl}など,意味役割を付与した中規模のコーパスが構築されてきた.さらに近年では,CoNLLSharedTask\footnote{CoNLLSharedTask2004,2005では意味役割付与(SemanticRoleLabeling),同2008,2009では意味論的依存構造解析(SemanticDependencyParsing)のタスクが設定された.}などの評価型ワークショップが意味役割付与をテーマとして複数行われ,盛んに研究されている.日本語の述語項構造解析はいくつかの点で英語の意味役割付与以上に困難であると考えられている.中でも特に大きな問題とされるのが,\emph{ゼロ照応}と呼ばれる現象である.この現象は,述語に対する必須格が省略される現象で,日本語では特にガ格の省略が頻繁に起きる.英語では対象となる述語の項がその述語と同一の文内に出現する上,必須格の述語項関係については,直接係り受け関係(係り受け木上の親子関係)になる場合が多い.ゆえにPropBankではタグ付与の範囲を同一文内に限定しており,解析も相対的に容易になる.ゼロ照応には分類があり,述語に対する項の出現位置によって,\emph{文内ゼロ照応},\emph{文間ゼロ照応},\emph{文章外ゼロ照応(外界照応)}の三つに大別される.述語項関係の種類は,この3種類のゼロ照応に加えて,直接係り受け関係にある場合(以下,「\emph{直接係り受け}」とする),そして同一文節内にある照応(以下,「\emph{同一文節内}」とする)がある.本研究では「直接係り受け」と「文内ゼロ照応」を対象に解析を行うものとする.日本語の述語項構造解析研究では,平ら~\cite{taira:2008:emnlp}や今村ら~\cite{imamura:2009:acl}がNAISTテキストコーパスを用いた研究を行っているが,彼らはいずれも,コーパス中に存在する3種類の格:ガ格,ヲ格,ニ格について,別々のモデルを構築して解析を行っている.また別の視点から見ると,彼らの手法は``述語毎''に解析を行っていると言える.英語における意味役割付与の手法でも,この``述語毎''の解析を行った手法が多い~\cite{toutanova:2008:cl,watanabe:2010:acl}.しかしながら,現実の文書では同じ述語に属する項の間には依存関係があると考えられる.例えば,次の文を考えてみる.\begin{enumerate}\item\textit{ライオン}$_i$が\textit{シマウマ}$_j$を\underline{食べた}$_{ガ:i,ヲ:j}$\end{enumerate}この例文の``食べた''という述語に対し,ガ格とヲ格がともに``ライオン''になることは考えにくいが,ガ格とヲ格を個別に扱う分類器で解析を行った場合,このような矛盾した結果を生んでしまうことがありうる.さらには,ある述語とその項の関係を同定する際に,文内にある他の述語との関係が同定の手がかりになることがある.次の例文を見てみよう.\begin{enumerate}\setcounter{enumi}{1}\itemライオン$_i$に\underline{追いかけ}$_{ガ:i,ヲ:j}$られたシマウマ$_j$が谷底$_k$に\underline{落ちた}$_{ガ:j,二:k}$\end{enumerate}この例文(2)において``ライオン''が項として妥当なものであり,且つ,述語``落ちた''の項が``シマウマ''と``谷底''だけであると仮定すると,``ライオン''はもう一つの述語``追いかける''の項になることが確定する.このように,同一文内に複数の述語が存在し,固有表現などを手がかりとして,項候補が絞り込まれている時には,どの項候補をどの述語に割り当てるべきかという述語間の依存関係を考慮することで,最適な述語—項の配置を得ることができるのである.本研究では日本語の述語項構造解析を扱うが,``文毎''の解析を行う手法を用い,文内に複数ある述語項関係の重要な依存関係を利用できるようにする.このような依存関係を大域的な制約として扱うために,本研究ではMarkovLogicを利用した解析器を提案する.英語の意味役割付与ではMarkovLogicによる手法が提案されており,効果的であることが示されている~\cite{meza:2009:naacl}.これは,MarkovLogicモデルが複数の述語項関係を捉え,その間の依存関係を考慮することにより,文内における論理的矛盾を軽減できるためである.さらに本研究では,述語項構造の要素として不適切な文節を効率的に削減するため,新たな大域的制約を導入する.明らかに不適切な候補を削除することは,適切な述語項構造を抽出するための探索空間を小さくすることができ,項同定を行う述語の推論をより確かなものとする.本稿の実験では,MarkovLogicを用いた日本語述語項構造解析を行い,その大域的制約が効果的に働くことを詳細に示す.従来手法の結果と比較しても,本研究の提案手法は,同等以上の結果を達成していることを示す.また,定性的な分析においても,大域的制約が効果的に働いた事例を紹介する.なお,次章以降,本稿の構成は次のようになる.まず2章では関連研究についてまとめ,3章ではMarkovLogicについて導入の説明を行う.4章では提案手法として構築されるMarkovLogicNetworkについて詳細に述べる.5章は評価実験について述べ,実験結果について考察する.6章はまとめである. | |
V12N01-04 | 省略補完や代用表現の解釈といった対話理解のための対話構造のモデル化と解析は,音声対話を対象にした機械翻訳の分野で特に重要とされている.これに対し,チャット対話を対象とした対話構造のモデル化と解析は,情報抽出やコミュニケーション支援といったチャット対話を言語資源として利用する研究分野においても重要とされている\cite{Khan:02,Kurabayashi:02,Ogura:03}.このような分野では,「現在話されている話題は何か」「誰がどの話題について情報をもっているか」といった情報を獲得することが必要であり,各発言の相互の関係を示す対話構造を同定する必要がある.チャット対話では,表\ref{tbl:chat}のようにメッセージを送受信することで対話が進む.対話は文字データとして記録されるため,そのまま言語資源として利用できる.しかし,チャット対話はその独特の特徴のため,音声対話を対象とした既存の対話構造モデルをそのまま適用することは難しい.まず,表\ref{tbl:chat}の25と27の発言のように,質問と応答のような意味的につながりを持つ発言が隣接しない場合がある.また,質問や応答を構成する発言自体も31と32,33の発言のように区切って送信({\bf区切り送信})される場合がある\cite{Werry:96}.このように,チャット対話の基本単位は音声対話のそれとは異なる.本論文の目的は,チャット対話の発言間の二項関係である継続関係と応答関係を同定する処理を自動化して対話構造を解析する手法を提案し,その実現可能性について論じることである.2節で詳述するように同一話者による発言のまとまりを{\bfムーブ}と呼ぶ.このとき,チャット対話の対話構造を解析する作業は,次の2つの処理に分解できる.\begin{description}\item{\boldmath$継続関係の同定:$}\.同\.一\.話\.者の発言間の継続関係を同定することによってそれらをムーブにまとめる処理.\item{\boldmath$応答関係の同定:$}質問と応答のような\.異\.な\.る\.話\.者のムーブ間の応答関係を同定し,チャット対話全体の対話構造を抽出する処理.\end{description}具体的には,表\ref{tbl:chat}の発言31から33までからなるムーブを構成する発言間の二項関係(例えば,発言31と32及び発言32と33)を継続関係,質問と応答のような異なる話者のムーブ間の二項関係(例えば,発言31から33までからなるムーブと発言34からなるムーブ)を応答関係と定義し,これらの関係に基づいて,発言をまとめあげることで対話構造を解析する.本研究では,この問題をある発言とそれに先行する発言との間に継続関係があるか否か,または応答関係があるか否かの2値分類問題に分解し,コーパスベースの教師あり機械学習を試みた.解析対象はオフラインのチャット対話ログである. | |
V16N01-05 | \label{sec:intro}単語オントロジーは自然言語処理の基礎データとして様々な知識処理技術に利用されており,その重要性は年々高まっている.現在広く知られている日本語オントロジーとしては,例えば日本語語彙大系\cite{goitaikeij}等が挙げられる.日本語語彙大系は人手により編集された大規模オントロジーであり,約3,000の意味カテゴリーを木構造状に分類し,約40万語を各意味カテゴリーに割当てている.しかしながら,これらは翻訳への適用を主な目的として作成されており,利用目的によっては必ずしも適切な分類とはならない.言い換えれば,オントロジーは利用目的に応じて異なるものが求められるのである.ところが,オントロジーの作成には膨大な労力が必要であり,また,言葉が日々進化するものであることを考えると,特定目的に応じたオントロジー作成を人手で行うことは現実的に不可能である.従って,オントロジーの生成は自動化されることが望まれる.そこで本論文ではオントロジー自動生成手法の検討を行う.技術的検討を行う上では特定目的のオントロジー生成よりも,むしろ一般のオントロジーを取り扱う方が検証を行いやすい.従って,本論文ではオントロジー自動生成の第一歩として,日本語語彙大系のような一般的なオントロジーの自動生成を目的とし,検討を進めることとする.オントロジーは単語の意味的関連性を表すものであり,この点からみると,基礎となるデータは共起情報を与えるコーパスよりも単語の意味を直接定義している辞書(国語辞典)の方が適していると考えられる.辞書を用いた関連性抽出の例を挙げると,例えば,鶴丸らは辞書の定義文のパターン抽出により上位語の同定が可能であることを示している\cite{tsurumaru1991}.また,オントロジーの自動獲得の試みも行われており,例えばNicholsらは定義文中に上位語が含まれているという仮定の下での単語階層化手法を提案している\cite{Nichols:Bond:2005}.上記の手法は,定義文を構文解析し,その主辞を上位語とするものであるが,必ずしも定義文の主辞が上位語であるとは限らないため,決定論的に上位語を決めてしまうとオントロジー生成時に矛盾を引き起こすことになる.従って,決定論的に上位語を決めるのではなく,順位づけられた上位語候補を取り出すことが望まれる.しかしながら,辞書の短い定義文からこれを行うことは難しい.一方で,上位語を抽出する方法として,コーパスから''is-a''構造等を取り出すという方法がある.この方法は統計量が大きければ信頼性の高い情報が得られる一方,基本的な単語が網羅される保証はなく,単語の偏りが起こる可能性が高い.また,Snowらは''is-a''構造を持つデータを利用してオントロジーを構築する手法を提案しているが\cite{Snow06},この手法は既存のオントロジーに単語を追加する手法としては有効であるが,オントロジーの骨格をゼロから作り上げることには向いていない.このように,上位語抽出とオントロジー構築にはそれぞれの課題があり,オントロジーを生成するためには,上位語の抽出方法と上位語候補を用いたオントロジー生成手法とを分けて考えるべきであり,まず適切な上位語情報を抽出することが重要である.以上の点から,本論文では,順位付け可能な上位語情報を取り出し,その情報を利用した最適化学習によりオントロジーを生成することを目指す.ところで,鈴木は辞書の定義文を再帰的に展開することでカバー率の非常に大きい単語類似度計算手法を提案している\cite{Suzuki2,Suzuki3j}.この方法によると,辞書の定義文を仮想的に巨大な単語集合と見なすことができ,各単語の出現頻度は確率として与えられるため,上位語候補の不足を解決できる可能性がある.そこで本論文では上位語情報の抽出を主な目的とし,辞書の定義文を巨大な単語集合として再定義することにより上位語侯補を増やすという手法を試みる.提案手法では,定義文中に上位語が含まれるという前堤を保ちつつ,大きな単語集合の中から上位語候補を確率的指標を伴った形でリストアップする.即ち,辞書の定義文を基に,上位語の尤もらしさを数値として表す手法を提案する.更に,この上位語候補情報を利用したオントロジー自動生成も試みる.本論文に示す自動生成手法は簡易的なものであるが,前述の上位語候補情報の効果を確認するには非常に有効である.以下,確率モデルによる定義文の拡張方法を簡単に説明し,この手法により一般的な国語辞典から上位語候補が確率的指標と共に取り出せることを示す.また同時に,従来手法との比較も行い,その有効性を検証する.次に,この指標の利用例としてオントロジー自動生成手法を提案し,この手法に上記指標を適用した結果を示す. | |
V16N05-04 | \label{sec:introduction}テキスト中の含意関係や因果関係を理解することが,質問応答,情報抽出,複数文章要約などの自然言語処理の応用に役立つと知られている.これを実現するためには,例えば,動詞「洗う」と動詞句「きれいになる」が,何かを洗うという行為の結果としてその何かがきれいになるという因果関係である,といったような知識が必要である.本論文では,事態と事態の間にある関係を大規模にかつ機械的に獲得するための手法について述べ,この手法を用いた実験結果を示す.因果関係,時間関係,含意関係等の事態間関係を機械的に獲得するための研究が既に存在する~\cite[etc.]{Dekang-Lin,inui:DS03,chklovski,torisawa:NAACL,pekar:2006:HLT-NAACL06-Main,zanzotto:06}.これらの研究に共通する方法論は,特定の事態間関係を表現する語彙統語的なパターンを人手で作成し,このパターンと共起する事態対をテキストから抽出することで,特定の関係を満たす事態対を獲得するという方法である.なお,このように共起関係を利用するパターンを共起パターンと言うことにする.例えば``toVerb-XandthenVerb-Y''という時間的前後関係を表現する共起パターンを用いて,テキスト``tomarryandthendivorce''から動詞``marry''と動詞``divorce''が時間的前後関係にあるという知識を獲得できる~\cite{chklovski}.こうした手法では,大量の共起パターンを人手で作成することが困難であるため,多くの事態対と共起する傾向を持つような一般的な共起パターンを用意することで,少量の一般的な共起パターンを用いて特定の関係を満たす事態対を大量に獲得することが可能となる.しかし,このような一般的な共起パターンを用いて獲得した事態対には誤りが多いという傾向がある.この問題に対処するために,一般的な共起パターンを利用して獲得した事態間関係に別の手法を適用して誤った事態間関係を取り除く手法があり,代表的なものとして発見的な統計情報を用いる手法~\cite{chklovski,torisawa:NAACL,zanzotto:06}と曖昧性の問題を解消するために学習を行う方法~\cite{inui:DS03}がある.一方で,実体間関係を獲得する研究~\cite[etc.]{ravichandran:02,pantel2006}が共起パターンと獲得できる事例の性質を次のように報告している.\begin{itemize}\item多くの事例と共起するパターン(一般的なパターン)を利用して実体間関係知識を獲得すると精度が低い傾向がある.そのため,精度を向上させるためには誤った関係を除く別の手法が必要である.\item逆に少数の事例のみと共起するパターン(特殊なパターン)を利用することで高い精度で実体間関係を獲得することが可能になる.しかし,大量に実体間関係知識を獲得するためには大量の共起パターンを用意する必要がある.\item一般的な共起パターンと特殊な共起パターンを組み合わせて実体間関係を獲得することで高い精度で大量の実体間関係知識を獲得できる可能性がある.\end{itemize}これを受けてPantelとPennacchiotti~\cite{pantel2006}は,実体間関係を表現する共起パターンと実体対をブートストラップ的に獲得する手法を開発した.しかし,これと同様の手法は事態間関係獲得でまだ試みられていないため,この手法を事態間関係獲得に適用した場合に実体間関係獲得のように良い成果を上げるのかという点が明かではない.これらの実体間関係獲得の研究成果を事態間関係獲得に応用するために,PantelとPennacchiotti~\cite{pantel2006}のブートストラップ的実体間関係獲得手法を事態間関係獲得に適用させるように拡張し(\ref{ssec:argument_selection}〜\ref{ssec:pattern}節),拡張した手法が事態間関係獲得においても有効であるかを確認するために,日本語5億文Webコーパスから従来の手法と拡張した手法を用いて行為—結果関係にある事態間関係を獲得し,この結果を評価する(\ref{sec:experiment}節). | |
V25N05-02 | label{introduction}ニューラル機械翻訳\cite{bahdanau2014neural,sutskever2014sequence,cho2014learning}は,ソース言語を数値ベクトルによる分散表現で表し,それをニューラルネットワークを用いて変換して求めた数値ベクトルからターゲット言語の単語列を求めることで翻訳を行う手法である.従来の統計的機械翻訳\cite{koehn2003statistical}では対訳コーパスから求めた変換規則の確率を用いてソース言語の単語やフレーズをターゲット言語への単語やフレーズに変換していたため,フレーズ同士の長い区間でのつながりが十分に反映されていなかった.これに対して,ニューラル機械翻訳では,リカレントニューラルネットワークおよびLSTM(LongShortTermMemory)の利用により,長い区間での単語のつながりが考慮されている.そのため,ニューラル機械翻訳を用いると従来の統計的機械翻訳と比べて流暢な文を生成できるが,訳抜けや繰り返しがあることや,出力結果に未知語(UNK)が含まれる\cite{luong2015addressing,jean2015using}という問題が指摘されている.未知語が含まれる問題に対処するこれまでに提案されている主な手法には以下のものがある.まず,コーパスに前処理を行う方法としては,コーパス中の未知語をすべて未知語トークンに置き換え,位置情報を付け加えて学習を行うPosUNK\cite{luong2015addressing}がある.通常の手法では,語彙制限のために未知語が生じた場合は,ソース言語およびターゲット言語内の未知語を一律に特殊な未知語トークンUNKで置き換える.一方PosUNKにおいては,ソース言語内の未知語はすべてUNKに置き換えるのは同じだが,ターゲット言語の未知語は位置情報を利用して区別する.具体的には,ソース言語を{$f_1$,\ldots,$f_n$}とし,ターゲット言語を{$e_1$,\ldots,$e_m$}として,ソース言語に未知語{$f_i$}が存在したとする.{$f_i$}に対応する未知語{$e_j$}がターゲット言語内に存在した場合は,相対位置{$d=j-i$}を利用して,{$e_j$}を位置情報付き未知語トークンPosUNK{$_d$}に置き換える.ただし,ソース言語に対応する未知語を持たないターゲット言語の未知語は,空集合{$\phi$}に対応するPosUNK{$_\phi$}に置き換える.これにより学習した翻訳機は,未知語を一律にUNKとしてではなく,PosUNK{$_d$}として相対位置付きで推定するため,dを利用して対応するソース言語内の単語を推定することができる.しかしながら,この手法を日英の言語対で実験を行ったところ,効果が低かった(4.3節参照).この手法は,ターゲット言語とソース言語において,単語間の相対位置は同一であると仮定しているため,日英のような文法構造が大幅に異なる言語間では適用が困難であるためと考えられる.また,コーパス中の単語を分割して全体の単語の種類を少なくするBPE(BytePairEncoding)\cite{sennrich2016neural}がある.BPEは頻度の低い単語を複数の文字列に分割することで,単語の頻度を増やし学習しやすくする方法である.この手法も日英の言語対で実験を行ったところ,効果が低かった(4.3節参照).ヨーロッパ言語などの文字の種類が少なく単語の成り立ちが類似する言語間に比べ,日本語と英語では単語の構成が大きく異なり,日本語は文字の種類が多いことが原因だと考えられる.ニューラル機械翻訳のモデルを変更する方法としては,アテンションの計算で単語翻訳確率を考慮する方法\cite{arthur2016incorporating},coverageを導入する方法\cite{tu2016modeling,tu2017context},統計的機械翻訳で作成したフレーズテーブルを組み入れる方法{\cite{stahlberg2016syntactically,khayrallah2017neural,zhang2018guiding}},入力文中の単語が既知語の場合はそのまま処理し,未知語の場合は単語を文字に分解して処理する方法\cite{luong2016achieving}などがあるが,いずれもニューラルネットワークの性能を改善させることが主眼であり,未知語そのものを完全に消去することを目的としていない.ニューラル機械翻訳の出力結果の単語列を統計的機械翻訳を用いて並べ替える手法\cite{skadina2016towards}もあるが,この手法では単語の辞書を作るためだけにニューラル機械翻訳を使っており,最終的な翻訳は統計的機械翻訳で行っている.よってニューラル機械翻訳の利点である単語間の長区間でのつながりを考慮した流暢性が失われてしまう.以上のように従来の手法の多くは,未知語を減少させることはできているが,日英翻訳では翻訳精度の向上が期待できない.そこで本論文では,ニューラルネットワークのモデルや探索方法を変更することなく未知語を減少させ,かつ翻訳精度を向上させる手法を提案する.そのために,アテンションに基づいたニューラル機械翻訳をソース言語に対して適用することで生成されたアテンションを利用する.アテンションは翻訳におけるソース言語の単語とターゲット言語の単語の対応を数値化したもの{\cite{bahdanau2014neural}}で,統計的機械翻訳における2言語間の単語の対応を表す単語アライメント表\cite{koehn2003statistical}と類似したものである.{\cite{hashimoto2016domain}}及び{\cite{freitag2016fast}}では,この性質を利用し,アテンションを元に対応する未知語を推定する手法を提案している.ともに未知語が対応する単語はアテンションが最も高い値を持つ単語だとしている.しかしながら,類似しているとはいえ,アテンションは単語アライメント表そのものではなく,数値の大小と実際のアライメントが一致しない場合も多い.また,言語学的な性質を満たしているとも限らない.本研究では,隣接関係等の,単語間の対応関係の言語学的性質に関するヒューリスティックを利用して,アテンションから単語アライメント表を推定する手法を提案する.そして,その単語アライメント表を利用して未知語を置き換える.これによりニューラル翻訳の利点を生かしたアテンションと言語学的な性質の双方を組み合わせた未知語問題の解決を行う.本論文はアテンションを用いた未知語解決に関する論文\cite{ibe2018}の内容を発展させたものである.ASPECと{\ntcir}の2つのコーパスに提案手法を適用したところ,未知語を完全に除くことができ,BLEU値も上昇させることができた. | |
V07N04-02 | 韓国語言語処理について述べる.朝鮮半島は日本にとって歴史的,経済的,社会的に関係の深い周辺地域であり,その意味において韓国語は非常に重要な外国語の一つである.また言語的に,韓国語は日本語に類似する特徴を最も多く持つ言語,つまり日本語に最も近い言語と考えられている.すなわち,日本語言語処理にとって最も参考にすべき外国語が韓国語である.このような背景にも関わらず,日本における韓国語処理,特に日韓翻訳や韓日翻訳に関する研究は,十分に議論されているとは言えない.韓国語は日本語に最も類似した言語であるが故に機械翻訳も容易であり,研究の必要性は低く見られがちである.しかし日韓翻訳に関して文献\cite{日韓評価}が指摘するように,市販システムの翻訳品質は依然低い.また我々の見る限り,韓日翻訳に関しても状況は同じである.これは同論文の結論でも述べているように,正確な分析に基づく翻訳になっていないからであると考える.そこで,本研究では韓国語を対象に,機械翻訳をはじめほとんどの言語処理の基本単位である形態素に対して検討を行なった.日韓翻訳あるいは韓日翻訳の際に,形態素をどのように捉えて,どのように処理すればいいのだろうか.特に,韓国語形態素をどう機械処理すべきか,一般に言われている韓国語の品詞体系が本当に計算機処理に適当なのかという議論,あるいは後述する音韻縮約現象をどう捉えるかという問題を,ここでは研究の対象にする.このような問題意識に基づく研究は,従来ほとんど見ることができない{}\footnote{これは韓国語に限定したことではない.計算機用言語体系の議論は日本語\cite{渕文法}\cite{宮崎文法}やスペイン語\cite{スペイン語品詞体系}に対する文献など若干が見受けられるのみである.}.以上のような動機のもと,日本における韓国語処理への理解と議論の活性化を願い,本論文では韓国語の言語処理をどう行なうべきかの一つの実例を示すことによって提案を行なう.本論文で行なう提案は大きく,以下の4項目に分類される.\begin{itemize}\item形態素体系(\ref{節:形態素体系}節)\item品詞体系(\ref{節:品詞体系}節)\item形態素解析(\ref{節:形態素解析}節)\item生成処理(\ref{節:生成処理}節)\end{itemize}日本語について考えた場合,これら形態素に関連する4項目は別個に検討され,議論されている場合が多い.しかし,本論文では韓国語に関して一括して議論を進める.これは,形態素や品詞体系と形態素解析,生成処理は相互に深く関係している体系と処理であり,相互を関連づけながら議論を進めた方が得策と考えたからである.どのような品詞体系を取るか,形態素にどのような情報をどのように持たせるかによって,最適な形態素解析手法は異なることが予想され,例えば同一の統計的手法であっても品詞数によって最適な統計の取り方は異なってくるはずである.また逆に,形態素解析結果を分析することによって言語体系は再検討すべきであり,例えば正しく解析できることが全く期待できない言語体系は機械処理上意味がないので体系を見直さなければならない.本論文で提示する韓国語体系の特徴は機械処理のしやすさを考慮して設計した体系である,という点にある.すなわち,形態素解析における誤りを分析することで仕様を再検討し,できるだけ誤りの少ない体系となるよう努めた.また,機械翻訳での必要性を考慮して,機械翻訳で必要性の低い品詞分類は統合し,重要な分類は必要に応じて細分化を行なった.また韓国語の一つの特徴である分かち書きや音韻縮約に対して,どのように機械的な処理を行なうかについても提案を行なった.形態素解析では,統計的手法を基本としながら韓国語固有の問題に対しては独自の対応を施すことで良好な解析精度が得られた.韓国語生成処理では,特に分かち書き処理について,提案した品詞体系を利用した規則を作成した.我々は,多言語話し言葉翻訳の一環として日韓翻訳,並びに韓日翻訳の研究を行なっている.翻訳手法としては変換主導翻訳(Transfer-DrivenMachineTranslation,TDMT)\cite{古瀬99}を用い,日韓/韓日のみならず日英/英日/日独/日中を全く同一の翻訳部で処理を行なっている.各言語固有の形態素解析,生成処理については言語ごとに作成する.本論文で述べる形態素体系,品詞体系,形態素解析,生成処理はいずれもTDMTの日韓翻訳部,韓日翻訳部に実装されている.本論文では韓国語固有の問題について議論するため,共通のエンジンである翻訳部については述べない.従ってTDMTによる翻訳処理機構に関しては{}\cite{古瀬99}を,特にTDMTの日韓翻訳部については{}\cite{IPSJ:TDMT日韓}を,それぞれ参照されたい.本論文では,論文の読者が日本語話者であることを意識して議論を進める.すなわち,日本語と韓国語の両言語を比較,対比して述べたり,韓国語の現象を日本語に写像して説明したりすることを試みる.日本語と対照させることで韓国語の特徴を浮彫りにすることができると考えた.またこれによって韓国語処理の研究もしくは韓国語そのものに理解を深めることができればと願っている.前述したように,日本語は韓国語と類似する特徴を多く持つ言語であるから,本論文で述べる体系や処理は,韓国語処理のみならず日本語処理に関しても部分的に有用であると期待している.なお,本論文の処理対象言語であり,主に朝鮮半島において使用されるこの言語の名称は,ハングル,朝鮮語,コリア語などと表現される場合もあるが,本論文ではこれを「韓国語」で統一する. | |
V26N03-02 | 世界的に高齢化が進む中,高齢者の社会からの孤立は特に深刻な課題である.内閣府の調査では,65歳以上の高齢者のうち夫婦または単身で生活している高齢者の割合は56.9\%で,子ども世代と同居している高齢者の割合の39\%に比べて高くなっている\cite{naikakufu1}.また,60歳以上を対象にした「対面だけではなくメールや電話も含めてどのぐらいの頻度で他者と対話するか」という調査では,一人暮らしの高齢者のうち男性では7.5\%,女性では4.9\%が週に1度以下しか他人と会話しないという結果が出ている\cite{naikakufu2}.このような社会的な背景から,高齢者の話し相手となる対話システムの研究が盛んにおこなわれており,高齢者の話を聴く傾聴対話システム\cite{lala2017attentive,sitaoka2017}や,高齢者の孤独を和らげるシステム\cite{sidner2013always}など,話題を限定せずに高齢者と自然に対話できるシステムが提案されている.このような対話システムが人の代わりに高齢者と対話することで,高齢者の孤独を紛らわせることができるかもしれないが,高齢者と他者とのコミュニケーションが不足しているという本質的な課題は解決できない.一方,老年学や老年医学では,高齢者の健康状態の理解やケアのあるべき姿が研究されており,QualityofLife(QOL)という概念が注目されている.QOLとは,高齢者の健康状態を肉体的・精神的・社会的な側面から多面的に評価するための尺度である.高齢者の健康状態をQOLでとらえることにより,肉体的な状態だけでなく高齢者の感情や状況などを評価することで,高齢者に合ったケアが実現できると報告されている\cite{Marja2009QOL,Ylva2001QOL}.また,ICTを活用して高齢者の心身状況を家族や介護士などと共有する仕組みに関する実証も進められている\cite{uchiyama2006}.この研究の中で,内山らは,介護における関係者間のコミュニケーションモデルのあり方について「関係者間にヒエラルキがあると,気後れや遠慮などのために自由な意思に基づくコミュニケーションが阻害される.医療における医者−患者モデルはその典型とされているが,介護にもコンシューマ(利用者)−サービス提供者間,また家庭内でも家族−本人間で必ずしも対等でない関係が存在し,さらに立場の相違からくる見解の相違が存在する.そうした中で納得や信頼を醸成するには,立場の上下のない,水平型のコミュニケーションが必要となる.」と述べている.このことから,高齢者と家族とができるだけ対等な立場で高齢者のQOLを共有することは重要な要素である.高齢者のQOLを共有する方法として,家族から高齢者に対しQOLに関する質問を投げかけるという方法も考えられるが,家族の質問の仕方によっては内山らの指摘する「上下関係」を発生させる可能性がある.そこで我々は,高齢者と離れて住む家族との日常的なコミュニケーションを通じて自然に高齢者のQOLを家族へ伝えることで,高齢者と家族とのコミュニケーションの質の向上と,活性化を実現するようなシステムの構築をすすめている\cite{tokuhisa}.図\ref{dialog1}に,我々が目標とする高齢者と家族との対話例を示す.図\ref{dialog1}(A)の「かわいいね.」は応答としては適切であるが,高齢者のQOLは娘へ伝わらない.一方で図\ref{dialog1}(B)の「でも私は最近肩こりで頭痛がするから無理だわ.」は高齢者のQOLを表出する応答であり,これにより高齢者のQOL(ここでは健康状態が良くないこと)が娘に伝わったことで「大丈夫?連休には帰るから肩もみするね.」というQOLに配慮した娘の発話が誘発されている.\begin{figure}[b]\begin{center}\includegraphics[scale=1.1]{26-3ia2f1.eps}\end{center}\caption{(A)通常の対話と(B)本研究の目標の対話}\label{dialog1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f2.eps}\end{center}\hangcaption{QOL表出発話を誘発するための返信補助システム.「返信候補」から返信を選択すると,「返信メッセージ」に選択した内容が入力される.返信候補の中に高齢者の所望する候補がない場合は,高齢者が自分で返信を記述したり,返信候補を編集することもできる.上記は「かわいいね.」と「折り紙を見つけたら買って送るね.」という返信候補が選択された様子を示している.}\label{system}\end{figure}我々は以前の研究で,家族と高齢者とのメールのやりとりを対象として,\begin{enumerate}\itemQOL表出発話(高齢者のQOLを推定するのに有用な手がかりを含んだ発話)とはどのような特徴を持つ発話か\itemシステムの支援のない状態でQOL表出発話がどのようにやりとりされていて,システムはどんな支援をすべきか\end{enumerate}を分析した\cite{tokuhisa}.その結果,上記の(1)については,高齢者が主体となり高齢者の行動や状態を表す発話が高齢者のQOL表出発話になりやすいことが明らかとなった.また,上記の(2)については,家族からのメールに対する高齢者の返信のうち85.7\%(3,574発話中3,064発話)が家族が主体となる発話(e.g.かわいいね.)で,高齢者が主体となる発話(e.g.私は最近肩こりで頭痛がするから無理だわ.)はわずか6.4\%(3,574発話中229発話)であることが明らかとなった\footnote{なお,家族と高齢者の両方が主体となる発話(e.g.今度一緒にやろう)は3,574発話中69発話であった.本論文では「家族と高齢者の両方が主体となる発話」は,「家族が主体となる発話」や「高齢者が主体となる発話」には含まずに割合を算出している.}.この結果を受けて,高齢者が主体となり自らのQOLを伝達するような返信を生成することを,システムにより補助することを考える.具体的には,図\ref{system}のように,「私もやってみようかな.」「折り紙を見つけたら買って送るね.」「でも私は最近肩こりで頭痛がするから無理だわ.」といった高齢者が主体となるQOL表出発話を応答のヒントとして高齢者に提示することで,高齢者を刺激し,システムの支援のない状態では記述されない高齢者のQOL表出発話を誘発するような返信補助システムを目指している.本システムは,高齢者と家族との過去のコミュニケーションで家族に伝達されていないQOLカテゴリおよび家族が特に知りたがっているQOLカテゴリに関するQOL表出発話を優先的に返信候補として提示することで,高齢者のQOLを家族への伝達を補助する役割を果たすものと想定している.たとえば,過去のコミュニケーションで経済的な情報がやりとりされていない場合は高齢者の経済的な余裕の有無がわかるようなQOL表出発話を返信候補として提示し,家族が高齢者の健康状態を知りたがっている場合には健康状態に関するQOL表出発話を提示する.できるだけ文脈にあった候補を提示することは,システムの支援がない状態では家族に伝えられない高齢者のQOL表出発話を誘発できる可能性が高くなると考える.本研究では,このようなシステムの構築に向けて,QOL表出発話候補の生成を試みる.本論文で述べる貢献は以下の2点である.\begin{enumerate}\item大規模なQOLラベルつき対話コーパスの構築に向けて,高齢者が主体となる高齢者のQOL表出発話を大規模に収集するためのコーパス収集方法を提案する.提案するコーパス収集に関してふたつの予備実験を実施し,a)本論文で提案するコーパス収集の方法の有用性を示すとともに,b)本論文で提案するコーパス収集の方法でも40代・50代のクラウドワーカから模擬的に高齢者の発話を収集できることを示す.\item構築したQOLラベルつき対話コーパスを用いて,QOLラベルにより特定のQOL情報を伝達するように制御しながら,高齢者のQOLを伝達する応答を生成する.これにより,近年提案されている条件付き文生成技術がどの程度適切なQOL表出発話が生成できるか,また返信補助システムの実現に向けて残る技術的な課題は何か,を明らかにする.\end{enumerate} | |
V03N03-03 | \vspace*{-1mm}機械翻訳システムは,巨大なルールベースシステムであり,NTTにおいて開発を進めている機械翻訳システムALT-J/E~\cite{Ikehara89,Ikehara90}でも,1万ルール以上のパタン対ルール(翻訳ルール)を利用している.他のルールベースシステムと同様,機械翻訳システムにおいても,ルールベースの作成・改良工数は大きな問題であり,特にそのルール数が巨大なだけに,その工数削減が強く望まれている.ルールベースの構築・保守を支援する手法として,近年,事例からの学習を利用する研究が活発となっている.機械翻訳システムにおいても,ルールベース構築への学習技術適用が試みられており,田中は,英日翻訳事例(コーパス)から語彙選択ルールを学習する手法を提案している\cite{Tanaka94}.また,Almuallimも,日英翻訳事例から,英語動詞選択ルール\footnote{パタン対ルールの主要部分である.}を学習している\cite{Almuallim94c}.更に,宇津呂は,日英翻訳事例から格フレームを獲得している\cite{Utsuro93}.これら既存のアプローチでは,ルールが全く存在しない状態からスタートして,事例のみに基づいてルールを作り出している.従って,未知事例に対して高い正解率を持つルールを学習するには,多くの翻訳事例(これを以下,{\bf実事例}と呼ぶ.)を必要とする.しかし,現実には,既存文書における動詞分布の偏り等の理由により,学習に必要な個数の実事例を,全動詞に対して収集する事は,極めて困難である.事例からの学習がルールベース構築に利用されるようになったのは,矛盾の無い完全なルールを生成する事が,人間には困難だからである.しかし,人間は,完全なルールを構成できなくとも,概略的あるいは部分的なルールは生成できる.そこで,人手作成の粗いルールと実事例とを融合してルールを学習できれば,人手作成ルール及び実事例のいずれよりも高い正解率を持つルールが作成でき,実事例のスパース性の問題を回避できる可能性がある.そこで,本論文では,人手作成のルールと実事例を統合して,より精度の高いルールを生成する,修正型の学習方法を提案する.具体的には,まず,人手作成のルールから逆に事例を生成(以下,この生成された事例を{\bf仮事例}と呼ぶ.)する.次に,仮事例と実事例を既存の学習アルゴリズム(これを,以下,{\bf内部学習アルゴリズム}と呼ぶ.)に入力する.内部学習アルゴリズムの出力が,最終的に獲得されたルールである.内部学習アルゴリズムは,属性ベクトル型の事例表現を持つ学習アルゴリズムなら任意の学習アルゴリズムを選択できる.尚,人手作成ルールの表現形式は,その表現能力の高さからHausslerによるIDE形式\cite{Haussler88}とした.提案手法では,仮事例と実事例の重要度を表現するために,重みを各事例に対して与える必要がある.即ち,人手作成のルールが非常に正確であれば,ルールから生成された仮事例に大きな重みを置くべきである.逆に,人手作成のルールが不正確であれば,小さい重みを置くべきである.提案手法では,この最適な重みの決定に,クロスバリデーションによるパラメータチューニングを利用する.本手法の有効性を評価するため,既存のドキュメントから抽出した実事例を用いて,ALT-J/Eの英語動詞選択ルールの獲得実験を行なった.内部学習アルゴリズムとしては,意味カテゴリーシソーラスのエンコーディング手法に特徴を持つAlmuallimによる学習手法\cite{Almuallim94c}を利用した.その結果,本手法により獲得された英語動詞選択ルールは,実事例のみから獲得されたルールや初期投入した人手作成のルールに比べて,高い正解率を示した.以下,第2章では,英語動詞選択ルールを説明する.第3章では,従来のアルゴリズムとその問題を概観する.新しい学習手法を第4章で提案する.第5章では,評価結果を示す.第6章では,他の修正型学習手法との差異について論ずる.第7章は本論文のまとめである. | |
V10N03-07 | われわれは2001年に行なわれたSENSEVAL2\cite{senseval2}の日本語辞書タスクのコンテストに参加した.このコンテストでは,日本語多義性の解消の問題を扱っており,高い精度で日本語多義性の解消を実現するほどよいとされる.われわれは機械学習手法を用いるアプローチを採用した.機械学習手法としては多くのものを調査した方がよいと考え,予備調査として先行研究\cite{murata_nlc2001_wsd}においてシンプルベイズ法,決定リスト法,サポートベクトルマシン法などの手法を比較検討した.その結果,シンプルベイズ法とサポートベクトルマシン法が比較的よい精度を出したのでその二つの機械学習手法を基本とすることにした.また,学習に用いる素性は,豊富なほどよいと考え,文字列素性,形態素素性,構文素性,共起素性,UDC素性(図書館などで用いられる国際十進分類を利用した素性)と,非常に多くの素性を利用した.コンテストには,シンプルベイズ法,サポートベクトルマシン法,またそれらの組み合わせのシステム二つの合計四つのシステムをコンテストに提出した.その結果,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.また,解析に用いる情報(素性)を変更する追加実験も行ない,各素性の有効性,特徴を調査した.本稿では,これらのシステムの説明と結果を述べる.以降,\ref{sec:imp}節で多義解消の重要性を述べ,\ref{sec:mondai_settei}節で本コンテストの問題設定を述べる.\ref{sec:ml_method}節でわれわれが利用した機械学習手法について述べ,\ref{sec:sosei}節でその機械学習手法で用いる素性について述べ,\ref{sec:experiment}節でその機械学習手法と素性を用いた実験とその考察について述べる.\ref{ref:kanren}節では関連文献について述べる. | |
V20N02-02 | \label{First}ロボットと人間との関係は,今後大きく変化していくと考える.今までのような単純な機械作業だけがロボットに求められるのではなく,例えば施設案内や介護現場のサポート,愛玩目的,ひいては人間と同じようにコミュニケーションを行うパートナーとしての存在も要求されると考える.このとき,人間との円滑なコミュニケーションのために必要不可欠となるのが会話能力である.あいさつや質問応答,提案,雑談といった様々な会話を人間のように行えてこそ,自然なコミュニケーションが実現すると考える.ロボットがこういった会話,とくに提案や雑談といった能動的なものを行うためにはそのためのリソースが必要である.例えば日々の時事情報が詰まった新聞などは,情報量の多さや入手の手軽さ,話題の更新速度などから言っても適当なリソースといえる.この新聞記事によって与えられる時事情報を会話の話題として利用することは,ロボットに人間らしい会話を行わせるためには有効なのではないかと考えた.新聞記事を利用した会話をロボットに行わせる最も簡単な方法は,新聞記事表現を会話テンプレートに埋め込むといったものと考える.このとき問題になるのが新聞記事表現の難解さである.新聞のように公に対して公開される文章は短い文で端的に内容を表すため,馴染みの薄い難解な言葉,俗にいう「堅い」言葉を多く使う.これらの言葉は文章として読むには違和感はないが,会話に用いるには自然ではないことが多い.例えば「貸与する」という言葉は会話では「貸す」という言い方をするほうが自然である.また,一般的にはそう難解ではない言葉,例えば「落下した」という言葉も会話ということを考えると「落ちた」のような更に易しい表現の方が馴染みやすいと感じる.つまり会話に用いられる言葉と新聞といった公的な文中に用いられる言葉の間には,同じ意味を表すにしても難易度や馴染みの深さに違いがある.ロボットの発話リソースとして新聞を用いることを考えると,このような語の馴染みの違いに考慮しなければならない.そこで本稿ではロボットと人間との自然な会話生成を担う技術の一端として,新聞記事中の難解な語を会話表現に見あった平易な表現へと変換する手法を提案する.本稿では変換後の記事をより人間にとって違和感の無いものとするために,人間が自然に行う語の変換に則った処理を提案する.つまり,語をそれと同じもしくは近い意味の別の平易な1語に変換する1:1の変換処理(1語変換)および語を平易な文章表現に変換する1:$N$の変換処理($N$語変換)の双方を併用することで人間が自然だと感じる語の変換を目指す.語の難解さ,平易さの判断には\cite{Book_01}で報告されている単語親密度を用いる.これは語の「馴染み深さ」を定量化した数値であり,新聞記事に用いられる語と一般的な会話に用いられる語の間にある単語親密度の差を調査することで新聞記事中の難解語を自動的に判断,平易な表現への変換を可能とする.また,変換処理を行う上で重要な意味の保持に関しては,人間の連想能力を模倣した語概念連想を用いることでそれを実現する.語と語,文と文の間の意味関係を柔軟に表現することを目指した語概念連想の機構を利用することで,変換前の記事が持つ意味を考慮した変換を行う. | |
V09N04-04 | \label{hajimeni}情報検索の結果から検索意図に適合する文書をふるいわけるのに,文書内容に対する手がかりとして要約が用いられる.このようなindicativeな目的に用いられる要約の目標は,できるだけ短い時間で正確な判断ができることである.多くの自動要約システムでは,単語の頻度や文の出現位置などの情報を用いて文ごとにスコアを付与し,高スコアの文をピックアップする方法(以降では重要文選択と呼ぶ)を採用している.この方法では長く複雑な文が選ばれがちである.このような要約を読むには,頭の中で文の構造を再構築するプロセスが必要になり,読者にとって負荷になる.我々は,この負荷を軽減するため,「読む」のではなく「一目でわかる」要約,すなわち,``At-a-glance''要約を研究の目標として設定した.句表現要約手法は,``At-a-glance''要約のひとつの実現方法として開発した.ここでは,その概念とアルゴリズムを述べる.また,この手法で作られた要約のふるいわけ効果の評価実験について述べる. | |
V20N02-07 | \label{sec:introduction}文字による記述だけでなく,画像も付与された辞書は,教育分野\cite{Popescu:Millet:etc:2006}や言語\linebreak横断検索\cite{Hayashi:Bora:Nagata:2012j}での利用,子供や異なる言語の話者\cite{Suwa:Miyabe:Yoshino:2012j},文字の認識に困難を\linebreak伴うような人とのコミュニケーションを助けるツール\cite{Mihalcea:Leong:2008,Goldberg:Rosin:Zhu:Dyer:2009}の構築に使うことができるなど,様々な潜在的な可能性を持っている.そのため,本稿では,できるだけ広範な語義に対して画像が付与された辞書を構築することを第一目標とする.辞書やシソーラスに画像を付与する研究はこれまでにもいくつか存在する.特に,見出し語を含む検索語を用いて画像検索を行ない,インターネットから画像を獲得する研究は複数存在する.\PN\cite{PicNet}や\IN\cite{ImageNet}といったプロジェクトでは,\WN{}\cite{_Fellbaum:1998}のsynsetに対し,画像検索で獲得した候補画像の中から適切な画像を人手で選択して付与している.\PN{}や\IN{}では,近年発達してきたAmazonMechanicalTurkサービス\footnote{http://www.mturk.com/}を始めとする,データ作成を行なう参加者をインターネット上で募り,大量のデータに対して人手でタグを付与する仕組みを用いて大量の画像の収集とタグ付けを行なっている.これらの手法は,大量のデータを精度良く集めることができるため有望である.しかし,現在は対象synsetが限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\IN{}の場合,HP(http://www.image-net.org/)によると,2010年4月30日時点で,\WN{}の約100,000synsetsのうち,21,841synsetには画像が付与されているとしている.多義性に関する報告はない.}.また,\PN{}や\IN{}では,上位語や同義語にあたる語で検索語を拡張して用いているが,どのような語による拡張がより有効かといった調査は報告されていない.また,\IO{}\cite{Popescu:Millet:etc:2006,Popescu:Millet:etc:2007,Zinger:Millet:etc:2006}でも,\WN{}のsynsetに対してインターネットから獲得した画像を付与している.\IO{}では,不適切な画像を取り除くために,人の顔が含まれるかどうかによる自動的フィルタリングや,画素情報による分類などを用いている.この手法は,自動的に大量のデータを集めることができるため有望である.しかし,\PN{}や\IN{}と同様,現在は対象synsetが具体物などに限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\cite{Popescu:Millet:etc:2007}は実験対象を\WN{}の\textit{placental}配下の1,113synsetsに限定しており,多義性に関する報告はない.}.一方,語の多義性に着目し,多義のある語に対しても語義毎に適切な画像を付与する研究として,\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}や\cite{Fujii:Ishikawa:2005a}がある.\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}では,日本語\WN\footnote{http://nlpwww.nict.go.jp/wn-ja/}のsynsetに対し,OpenClipArtLibrary(\OCAL)\footnote{http://openclipart.org/}から獲得した画像を付与している.彼らは,\OCAL{}と\WN{}の階層構造を比較し,両方の上位階層で同じ語が出現する画像のみを候補として残すことで,多義性に対応している.さらに,候補の画像の中から各synsetの画像として適切な画像を人手で選択している.\OCAL{}は著作権フリーで再配布可能という利点があるが,含まれる画像が限られるため,画像を付与できる語義も限られている.\cite{Fujii:Ishikawa:2005a}では,インターネットから収集した画像を事典検索システム\CL\footnote{http://cyclone.cl.cs.titech.ac.jp/}における語義と対応付ける実験を行なっている.彼らは,辞書の見出し語を検索語として用い,インターネットから候補となる画像とそのリンク元テキストを収集し,テキストの曖昧性解消をおこなうことによって,画像の意味を推定している.これは,多義性に対応できる手法であるが,出現頻度の低い語義の画像収集は困難だという問題がある.なぜなら,見出し語のみを検索語としてインターネット検索を行なった場合,得られる画像のほとんどは,最も出現頻度の高い語義に関連する画像になるからである.例えば,「アーチ」という語には,“上部を弓の形にして支えやすくした建物.”や,“野球で,本塁打.”などの語義があるが,見出し語である「アーチ」を検索語とした場合に得られた画像のうち,上位500画像には後者の語義に対応する画像はない\footnote{Google画像検索の結果(2009年12月実施)}.本稿の第一目標は,できるだけ広範な語義に対して画像が付与された辞書を構築することである.本稿では,基本語データベース\lxd{}\cite{Amano:Kobayashi:2008j}の内容語(一般名詞,サ変名詞,動詞,形容詞類,副詞類)を対象に画像付与を試みる.幅広い語義に画像を付与するため,インターネットから画像検索によって画像を獲得する.また,多義性のある語にも語義毎に適切な画像を付与するため,語義毎に検索語セットを用意する.第二の目標は,画像検索を行なう時に重要な問題である検索語の設定方法についての知見を得ることである.本稿では,作業者が対象語義に画像が付与できるかどうかという判断を行なった後,用意した検索語セットの中から適切な検索語セットを選択・修正して画像検索に用いる.最終的に利用された検索語セットを分析することで知見を得たい.第三の目標は,提案する検索語セットの優先順位,特に,最も優先順位が高い検索語セットをデフォルトの検索語セットとして利用することの妥当性を示すことである.今後の作成・維持コストや,新しい辞書への適用を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.以降,\ref{sec:resource}章では画像付与の対象である\lxd{}について紹介する.\ref{sec:make-query}章では,まず,200語義を対象として行なった予備実験\cite{Fujita:Nagata:2010}を紹介する(\refsec{sec:pre-exp}).その結果を踏まえた上で,画像検索に用いる検索語セットの作成方法を紹介し(\refsec{sec:queryset}),検索語セットの優先順位の決定方法を提案する(\refsec{sec:query-order}).\ref{sec:all-lxd-exp}章では,作成した検索語セットを用いた画像獲得方法,および,評価方法について述べる.\ref{sec:ana-rand-best}章では,第三の目標である提案した優先順位の決定方法の妥当性を示す.\ref{sec:all-lxd-analysis}章では,第二の目標である最終的に利用された検索語に関する分析と,改良点の調査を行なう.ここまでの実験で,第一の目標である\lxd{}の広範な語義に対する画像付与を行ない,\ref{sec:ana-cannot}章では,構築した辞書を用いて画像付与可能/不可能な語義について,意味クラスや品詞などの特徴から分析を行なう.最後に,\ref{sec:conclusion}章で本稿の実験と分析をまとめる. | |
V24N02-01 | \label{sec:introduction}自然言語処理において高度な意味処理を実現する上で,同義語の自動獲得は重要な課題である\cite{inui}.例えば,近年の検索エンジンのクエリ拡張においては同義語辞書が用いられている\cite{utsumi}が,新出単語に対し全て人手で同義語辞書を整備することは現実的ではない.同義語の獲得には様々な手法が提案されている.例えば笠原ら\cite{kato}は国語辞典を用いて,見出し語に対して語義文により単語のベクトルを作成した後,シソーラスにより次元圧縮を行う方法で同義語の獲得を行った.また,渡部ら(渡部,Bollegala,松尾,石塚2008)は,\nocite{watanabe}検索エンジンを用いて,同義対を共に含むようなパターンを抽出し,得られたパターンから同義語の候補を得るという手法で同義語の抽出を行い,係り受け解析を行わずとも既存手法と同様の性能が得られることを示した.一方,これらの研究とは異なり「同じ文脈に現れる単語は類似した意味を持つ」という分布仮説(distributionalhypothesis)\cite{harris}に基づいたアプローチも存在する.実際に文脈情報が同義語獲得に有用であるとの報告\cite{hagiwara}もあり,加えてその他の手法と組み合わせて使用することが可能であるという利点もある.そこで,本研究では文脈情報を用いたアプローチを検討する.文脈情報の獲得にも手法が多数存在するが,近年では,分布仮説に基づきニューラルネットワーク的な手法を用いて単語の``意味''を表すベクトル(単語ベクトル)を求めるSkip-gramモデル\cite{mikolov1}が注目されている.Skip-gramモデルで得られた単語ベクトルを利用するとコサイン類似度により単語の意味の類似度が計算できることが知られており,その性能は既存手法より良いという報告\cite{roy}もある.しかし,Skip-gramモデルでは周辺単語の品詞や語順を無視したものを文脈情報として用いており,有用な情報を無視している可能性がある.実際に既存のSkip-gramモデルでは同義語獲得に失敗する例として,「カタカナ語」と「和語」からなる同義語対の場合,コサイン類似度が低くなることなどが知られており\cite{joko},改善が望まれる.そこで,本研究では,Skip-gramを拡張し,周辺単語の品詞情報や語順情報を取り込み可能なモデル(文脈限定Skip-gram)を提案する.文脈限定Skip-gramでは,既存のSkip-gramと違い,周辺の単語のうち,ある条件を満たすもの(特定の単語分類属性(品詞等)や特定の相対位置)のみを文脈として利用し,単語ベクトルを学習する.たとえば,「カタカナ語」あるいは「カタカナ語」ではないもの(これを「非カタカナ語」と呼ぶ)のみに周辺単語を限定することによって,周辺の「カタカナ語」あるいは「非カタカナ語」との関係を強く反映した単語ベクトルを学習することができる.そして,そのような様々な限定条件ごとに単語ベクトル及びコサイン類似度を計算し,それらを線形サポートベクトルマシン(SVM)と同義対データを用いた教師あり学習による合成することで,同義語獲得を行った.その結果,日本語の言語特性を適切に抽出して利用できていることがわかった.たとえば,同義語の獲得精度が一番高かったモデルにおいては,「非カタカナ語」および「直後の単語」などの特定の限定条件から得られたコサイン類似度への重みが大きいことがわかった.また,これらの限定条件への重みを大きくすることは,既存のSkip-gramモデルでは獲得が難しかった「カタカナ語」と「和語」からなる同義対の獲得の精度へ大きな影響をあたえることもわかった.本論文の構成は以下のとおりである.第\ref{sec:related-work}節では,関連研究について述べる.第\ref{sec:method}節では,提案手法について述べる.\ref{subsec:method:skipgram}節では,既存のSkip-gramモデルについて概説し,\ref{subsec:method:limited-skipgram}節では,提案する文脈限定Skip-gramモデルについて説明する.第\ref{sec:data-and-preexperiment}節では,使用データと予備実験について述べる.\ref{subsec:ex:data}節では実験に使用したコーパス及び同義語対/非同義語対の教師データ作成方法について,\ref{preliminary-experiment}節ではSkip-gramにおける設定とSVMの素性作成方法に関する予備実験について述べる.第\ref{sec:experiment}節では提案手法による結果を示し,有効性を議論する.最後に第\ref{sec:conclusion}節において結論を述べる. | |
V08N03-05 | \label{sec:introduction}よく知られているように,人間が英語を日本語に翻訳するとき,英語の代名詞を日本語の代名詞としては表現せず,ゼロ代名詞化したり他の表現に置き換えたりすることが多い.これに対して,従来の英日機械翻訳システムでは,多くの場合,英語の代名詞はそのまま日本語の代名詞に訳される.このように代名詞を直訳すると,英文が伝えている意味と異なる意味を伝える訳文が生成されたり,文意は同じでも不自然で読みにくい訳文が生成されてしまうという問題が生じる.従って,品質の高い英日機械翻訳システムを実現するためには,ゼロ代名詞化する必要のある代名詞や他の表現に置き換えるべき代名詞を直訳しないようにすることが重要な課題となる.直訳すべきでない代名詞を認識することは一見単純であるように思えるが,ゼロ代名詞化や他の表現への書き換えには様々な要因が絡んでいるため,代名詞を直訳してもよい場合とそうでない場合をどのように区別すればよいかはそれほど自明なことではない.なお,本稿では,紛れない限り,人称代名詞と限定的機能を持つ所有代名詞\cite{Quirk85}を単に代名詞と呼ぶ.ゼロ代名詞化に関する工学的な研究は,滑川ら\cite{Namekawa99}や宮ら\cite{Miya00}による報告がある程度で,これまであまり行なわれていない.宮らの方法では,機械翻訳システムの出力文から代名詞を消すかそのまま残すかの二値の判定が,代名詞とそれに付属する助詞の表記に着目して人手で記述した規則に基づいて行なわれる.しかし,二値の判定では次の文(J\ref{SENT:scold})のような場合に適切に対処できない.文(J\ref{SENT:scold})には,``she''が``Mary''を指しているという文(E\ref{SENT:scold})の文意を伝えないという問題がある\cite{Kanzaki94}.この問題に対処するために,文(J\ref{SENT:scold})から「彼女」を消すと「家を出る」の主語が「メアリー」であるのか「ジョン」であるのかが曖昧になるという問題が新たに生じる.主語の曖昧さが生じるのを抑え,かつ文(E\ref{SENT:scold})と同じ文意を伝えるためには,文(J\ref{SENT:scold}'')のように「彼女」を「自分」に置き換える必要がある.\begin{SENT3}\sentEMaryscoldedJohnbefore{\itshe}lefthome.\sentJ彼女が家を出る前に,メアリーはジョンを叱った.\NewsentJ$\phi_{she}$家を出る前に,メアリーはジョンを叱った.\YAJ自分が家を出る前に,メアリーはジョンを叱った.\label{SENT:scold}\end{SENT3}また,代名詞をどのように書き換えるかは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,統計的帰納学習法を利用して事例集から規則を自動的に作成するほうが適切であると考えられる.このようなことから本稿では,1)代名詞を消すか残すかの二値の判定ではなく,消すか残すかあるいは他の表現に置き換えるかの多値の判定を行ない,2)規則の記述を人手で行なうのではなく,決定木学習アルゴリズムを利用して事例集から規則を自動的に作成する方法を示す.以下,代名詞を直訳するとどのような問題が生じるかを\ref{sec:problems}\,節で整理する.次に\ref{sec:decision_tree}\,節で決定木学習に簡単に触れる.\ref{sec:corpus}\,節では決定木学習に必要な正解付きコーパスの作成について述べ,\ref{sec:feats}\,節で決定木学習に使用した属性について説明する.\ref{sec:experiment}\,節では,提案手法の有効性を検証するために行なった実験の結果について考察する. | |
V22N05-03 | \label{sec_intro}近年,ブログ等の個人が自由に情報を発信できる環境の爆発的な普及に伴い,膨大なテキスト情報がWeb上に加速度的に蓄積され,利用できるようになってきている.これらの情報を整理し,そこから有益な情報を得るためには,「誰が」「いつ」「どこで」「何を」といった情報を認識するだけでなく,文に記述されている事象が,実際に起こったことなのかそうでないことなのかという情報を解析する必要がある.我々はこのような,文中の事象に対する,著者や文中の登場人物による成否の判断を表す情報を事実性と呼ぶ.\eenumsentence{\item[a.]\underline{\mbox{商品Aを使い}}始めた。\item[b.]\underline{\mbox{商品Aを使う}}のは簡単ではなかった。\item[c.]\underline{\mbox{商品Aを使っ}}てみたい。\item[d.]\underline{\mbox{商品Aを使っ}}ているわけではない。\item[e.]\underline{\mbox{商品Aを使っ}}ているはずだ。}\label{ex_ie}(\ref{ex_ie})に示す例は,いずれも「商品Aを使う」という事象が含まれるが,その事実性は異なる.(\ref{ex_ie}a)と(\ref{ex_ie}b)は,事象が成立していると解釈できる一方で,(\ref{ex_ie}c)と(\ref{ex_ie}d)は,事象は成立していないと解釈できる.さらに(\ref{ex_ie}e)は,事象の成立を推量していると解釈できる.評判分析などの文脈で,商品Aを使っているユーザの情報のみを抽出したい場合,(\ref{ex_ie})に示した全ての文に対して,「商品Aを使う」と照合するだけでは,(\ref{ex_ie}c)や(\ref{ex_ie}d)といった,商品Aを実際には使っていないユーザの情報まで抽出されてしまう.そこで事実性解析を用いると,(\ref{ex_ie}a)や(\ref{ex_ie}b)が実際に商品Aを使っており,(\ref{ex_ie}c)や(\ref{ex_ie}d)が使っていない,(\ref{ex_ie}e)は使っていない可能性がある,ということを区別することができる.事実性解析は,評判分析だけでなく,含意関係認識や知識獲得といった課題に対しても重要な技術である~\cite{Karttunen2005,Sauri2007,Hickl2008}.事実性解析は,事象が実際に起こったかを解析する技術ではあるが,真に起こったかどうかを与えられた文のみから判断することは不可能である.例えば,「太郎は先に帰ったはずです。」という文に対して,「太郎は帰った」という事象が真に事実か否かは,「太郎」にしか分からない.そこで本研究では,事実性を,文中の事象の成否について,著者の判断を表す情報と定義する.ただし,実際には著者の判断も真にはわからないため,著者の判断を読者がどう解釈できるかによって事実性を表す.前述の例では,著者は事象「太郎は帰った」の成立を推量していると読者は解釈できる.事実性の付与対象となる事象は,\citeA{Matsuyoshi2010}と同様に,行為,出来事,状態の総称であると定義する.\eenumsentence{\item[a.]雨が\event{降っ}$_{\mathrm{出来事}}$たら、バスで\event{行き}$_{\mathrm{行為}}$ます。\item[b.]\event{混雑}$_{\mathrm{状態}}$していたら、別のところに\event{行き}$_{\mathrm{行為}}$ます。}\label{ex:event}(\ref{ex:event})に示す例では,「(雨が)降る」,「(バスで)行く」,「混雑する」,「(別のところに)行く」が全て事象である.\event{}で囲まれた述語は,それぞれの事象の中心となる語であり,事象参照表現(あるいは単に事象表現)と呼ぶ.アノテーションや解析において,事実性のラベルは事象表現に付与する.先行研究では,事実性だけでなく,時制などの関連情報についても,付与基準が議論されるとともに,コーパス構築が進められてきた~\cite{Sauri2009,Matsuyoshi2010,Kawazoe2011,Kawazoe2011_report}.日本語を対象とした事実性解析の研究は少なく,述部(本研究の事象表現に相当)に続く表現形式によるルールベースの解析~\cite{Umezawa2008SAGE}や,機械学習に基づく解析器~\cite{Eguchi2010_nlp}がある.前者はその性能は報告されていないが,後者の解析性能は,9種類の事実性ラベルの分類性能がマクロF値で48\%であり,実用上十分とはいえない.事実性解析の性能向上が困難である理由の一つは,事象表現に続く機能表現の多様性にある.詳しくは\ref{sec_factvalue}節で述べるが,例えば「\event{使わ}\underline{ない}」「\event{使う}\underline{わけない}」「\event{使わ}\underline{ねぇ}」「\event{使う}\underline{もんか}」のように,事象が成立しないことを示す機能表現(下線部)が多々ある.機能表現以外に,「\event{使う}のを\underline{やめた}」のように,文節境界を越えて事象の不成立を示唆する述語(下線部)の存在もあり,さらにこれらの要素の組み合わせが,事実性解析の性能向上を阻んでいる.本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533文に含まれる3,734事象に適用した結果の誤りを分析する.このとき全ての事象表現に続く機能表現に対して意味ラベルを人手で付与する.要素の組み合わせを解きほぐすために,3,734事象を,最も文末に近い主事象1,533事象と,それ以外の従属事象2,201事象に分割し,それぞれについて誤り分析を行う.誤り分析の結果,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.また,機能表現解析の問題を除けば,誤りの半数は副詞に起因するものであった.一方で,従属事象の事実性解析は,主事象に比べて考慮すべき要素が多いため,性能も低いことがわかった.従属事象でのみ考慮すべき要素は大きく二つあり,文節境界を越えて事実性に影響を与える述語と,従属事象に直接付随しない機能表現の影響である.前者は,既存の辞書のカバレッジを調査した結果,これを利用することで誤りの一部を解消できるものの,さらなる拡充が必要であることが分かった.後者は,問題となるケースは多様ではないことと,隣接する事象の機能表現が及ぼす範囲(スコープ)を精緻に判定することで概ね解決できることを確認した. | |
V08N01-04 | 情報検索の分野は,欧米において過去数十年の間に,英語を中心とした文書を対象に研究が盛んに進められ,高速な文字列検索アルゴリズムや自動索引づけなどに多くの成果が得られた.これらの技術が基礎となり,大規模な文書集合に対する検索技術,新しい評価技術の向上を目的として,TREC(TextREtrievalConference)\footnote{TRECワークショップホームページ:http://trec.nist.gov}などのコンテストが開催され,新しい技術の開発やこれまでの技術の改良などが活発に行われている.日本においても,情報抽出,検索技術に関する研究が盛んに行われ,数多くの優れた日本語情報検索システムが提案されている.このようなシステムを評価するための日本語テストコレクションの整備も進み\cite{kitani},個々の検索システムを容易に評価できるようになった.さらに,共通のデータベース,プラットフォームにおけるシステム評価の場として,IREX(InformationRetrievalandExtractionExercise)ワークショップ\footnote{IREXワークショップホームページ:http://cs.nyu.edu/cs/projects/proteus/irex/}が開催された.このワークショップには,情報検索(IR)と情報抽出(NE)の各課題に対して数多くのシステムが参加し,全体的な評価を通して様々な議論が行われた.IREXの目標のひとつとして,共通の基準における各検索システムの評価を基にした問題点の共有と,それによるこの分野の飛躍的な進歩,発展がある\cite{sekine99}.一般的に,情報検索システムの性能評価をする際には,提案された手法を利用したシステムと利用していないシステムとの比較を行う.比較する際,一つのシステムからみると,参加した数多くのシステムにおける評価結果の違いから,研究の新しい方向性や発展性が発見できる.しかし,IREXでは,数多くのシステムが参加しているため,ふたつのシステム間の比較実験では実験回数が莫大となり,共通点,相違点の整理が複雑になってしまう.また,他の比較手法として,使用されたシステムとは別の基準システムを作り,比較を行う手法も提案されている\cite{Hull93}.しかし,その場合,システム間の相違点が多くなり,直接的に何が精度向上の原因であるのかをとらえることが難しくなる.したがって,すべての検索システムを対象として,システムの構成要素を評価すると同時に,全体的なシステムの検索精度を評価するようなシステム指向の評価方法が必要となる.このような全体的な評価は,問題点を発見,解決するための議論を進める上で重要な課題であると考えられ,TRECやIREXでは様々な評価が行われている\cite{Lagergren98}\cite{Voorhees98SIGIR}\cite{Matuo99}.本論文では,IREXにおけるIR課題の本試験の結果,および参加した各システムについての,参加者が回答したアンケート結果を参考にして,IR課題におけるシステムの特徴と精度の関連性を独自の統計的な手法を用いて分析する.これまでは,手法を利用したシステムと利用していないシステムとの実験結果を比較することによって,その手法の有効性が評価されていた.これに対し,我々の提案する評価手法は,数多くのシステムにおける検索結果を基にして,システムに用いられた手法との関連性を客観的な相関係数として表し,検索システムに対し有効な手法を明確にしている.このような検索システムに対し有効な手法を示す評価は,これまでTREC7においても行われているが,比較に用いられたすべてのシステムで再現率・適合率曲線の違いがほとんど無い条件の下で行われている\cite{Voorhees98}.この条件において,比較に用いたシステムが利用した手法が示されているが,客観的にその手法が有効かどうかの判断は難しい.その点で,我々の評価手法はどのような再現率・適合率曲線に対しても客観的に有効な手法を示すことができる.さらに,我々の評価手法は,検索結果でのランクの上位に,関連のある文書を数多く検索するための有効な手法を示すことができる.この分析においては,IRシステムのアンケートの中でシステムの性能に大きく影響する次の3点\begin{itemize}\item索引づけ,索引構造\item検索式の生成\item検索モデル,ランクづけ\end{itemize}に注目して,これらの要素を実現するために用いられた手法が検索精度とどの程度関連があるのかを調査する.IREXでは,検索課題\footnote{検索課題の例としては,以下のようなものがある.\\$<$TOPIC$>$\\$<$TOPIC-ID$>$1001$<$/TOPIC-ID$>$\\$<$DESCRIPTION$>$企業合併$<$/DESCRIPTION$>$\\$<$NARRATIVE$>$記事には企業合併成立の発表が述べられており、その合併に参加する企業の名前が認定できる事。また、合併企業の分野、目的など具体的内容のいずれかが認定できる事。企業合併は企業併合、企業統合、企業買収も含む。$<$/NARRATIVE$>$\\$<$/TOPIC$>$}に,検索要求を簡潔に表現したDESCRIPTIONタグと,人間が判断可能な程度の詳細な検索要求の記述をしたNARRATIVEタグが用いられている.通常,WWWサイトなどに存在する検索エンジンに入力される索引語の数は2,3語と少ないために,DESCRIPTIONタグのみを検索実験に考慮する方が実用的である.しかし,DESCRIPTIONタグのみを利用した場合には曖昧さが生じてしまい,人間が可能な限り正確に検索できるという点においては,詳細に書かれているNARRATIVEタグの方が重要な情報であるといえる.実際,TRECなどにおいても,このような検索要求の長さに対する精度への影響が議論され,NARRATIVEタグの使用による精度の違いが分析されている\cite{Voorhees97}\cite{Voorhees98}\cite{Hull96}.このようなことから,IREXにおいても,検索式を作成する際のNARRATIVEタグの使用有無により,検索システムに与える影響が変化するものと考えられる.このことを明らかにするため,検索システムにおけるNARRATIVEタグの利用有無によりshortとlongに分け,それぞれの平均適合率と相関の高いシステムの特徴を調べる.再現率・適合率曲線に対し単回帰分析を行い直線として近似した場合,その切片が大きい時,ランクの上位に適合する文書を検索できる確率が高いと考えられる.また,傾きが平行に近いほど,システムは再現率の増加とともに起こる適合率の減少を抑えることができると考えられる.そこで,検索結果を平均して得られた再現率・適合率曲線に単回帰分析を行い直線として近似し,その切片と傾きがさまざまな手法のなかでどの手法に関連性が強いのかを調べる.また,同様に,shortとlongにおける切片と傾きとの相関が高いシステムの特徴を調べる.これらを分析することにより,本試験に参加したすべてのシステムで,検索質問をshortとlongに分けたそれぞれの場合に対して,傾き,切片から総合的に,どの手法と関連性が強いかを考察する.\vspace*{-0.3cm} | |
V26N02-02 | テキストのリーダビリティ評価は,人間の作文の評価だけでなく,機械による文生成の評価においても重要な問題である.日本語のリーダビリティ研究は表記や語彙の難易度など表層的な情報に基づいて,テキストの難易度の評価モデルとして研究が進められてきた\cite{渡邉-2017,李-2011,柴崎-2010,佐藤-2011}.しかしながら,既存のモデルのほとんどは読み手を陽に仮定していない.リーダビリティは,眼球運動に基づく読み時間により,直接的に評価できる.筆者らは視線走査装置に基づいた読み時間データを整備するだけでなく,統語・意味分類や情報構造との関連について調査してきた.単語や文節の統語・意味分類が読み時間にどのように影響を及ぼすかだけでなく,情報伝達に必要な情報の新旧と読み時間の関連について分析を進めてきた.\modified{情報の伝達においては,複数の述語を含む複文や重文を用いることが考えられる.}複文や重文は節境界を有し,節境界においては読み時間が変化するという先行研究がある.英語においては\cite{Just-1980,Rayner-2000}が,句末や節末において読み時間が長くなるwrap-upeffectと呼ばれる傾向について議論している.しかしながら,主辞が後置される日本語においては,補部が主辞より先に提示されることにより,主辞を予測することができ読み時間が短くなることが考えられる.本稿では,日本語の節境界が読み時間に対してどのような影響を与えるのかについて,探索的データ分析により調査する.具体的には,『現代日本語書き言葉均衡コーパス』(以下BCCWJ)\cite{Maekawa-2014-LRE}の読み時間データBCCWJ-EyeTrack\cite{Asahara-2019d}に対して,節境界アノテーションBCCWJ-ToriClause\cite{matsumoto-2018}を重ね合わせたものを,節境界情報を固定要因としたベイジアン線形混合モデル\cite{Sorensen-2016}を用いて検討を行う.分析においては詳細な節分類について読み時間がどう異なるかについて検討した.例えば,名詞修飾節においては,補足語修飾節(関係節ウチの関係)が,内容節(関係節ソトの関係)よりも節末において読み時間が短くなる傾向が見られた.補足節においては,名詞節の節末が,引用節の節末よりも読み時間が短くなる傾向が見られた.また,副詞節においては,因果関係節と付帯状況節とで読み時間のふるまいの違いが確認できた.これらの分析結果は,従前の言語処理において研究されてきたリーダビリティ評価において,\modified{眼球運動に基づく読み時間の評価の観点から}節レベルの統語構造に対して実証的な根拠を与えるものになる.以下,2節では関連研究について示す.3節では利用したデータの概要について示す.各データの詳細については元論文を参照されたい.4節では統計処理手法について述べ,5節で結果と考察を示す.最後にまとめと今後の研究の方向性について示す. | |
V12N03-03 | 近年のWroldWideWeb(WWW)の急速な普及により,世界中から発信された膨大な電子化文書へのアクセスが可能になった.しかしながら,そのような膨大な情報源から,必要な情報のみを的確に得ることは困難を極める.的確な情報を得るために,テキストを対象とした文書分類や情報の抽出などの様々な技術が注目され,研究されている.しかしながら,Web上に存在するのはテキスト情報だけではなく,表や画像など様々な表現形式が使用されている.ここで,表形式で記述された情報について着目する.従来の情報検索システムなどでは,表はテキストとして扱われることが多かった.表は属性と属性値によって構造化された情報であり,その特性を考えると,表をテキストとして扱うのではなく,テキスト部分と切り離し,表として認識し,利用することが情報検索システムなどの精度向上に繋がる.また表は情報間の関係を記述するのに適した表現形式であり,Web上に存在する文書から表を抽出することは,WebMiningや質疑応答システム,要約処理などのための重要なタスクの一つである\cite[など]{hurst,itai,pinto,shimada2,wang}.本稿では,電子化された情報の一つである,製品のスペック情報の抽出について議論する.一般に,パソコンやデジタルカメラ,プリンタなどの製品の機能や装備などのスペック情報は表形式で記述される.本稿ではこれらの表形式で記述されたスペック情報を性能表と呼ぶことにする.その例を図\ref{spec}に示す.性能表を扱う理由としては,\begin{itemize}\itemポータルサイトの存在\\現在,Web上には,数多くの製品情報に関するポータルサイトやオンラインショッピングサイトが存在する\footnote{価格.com(\verb+http://www.kakaku.com/+)やYahoo!Shopping(\verb+http://shopping.yahoo.co.jp/+)など.}.これらのサイトで,ユーザが製品を比較する際に最も重要な情報の一つが性能表である.多くの製品は頻繁に最新機種が発表され,その度に性能表を人手で収集するのはコストがかかる.膨大なWebページの中から製品のスペック情報を的確に抽出することは,そのようなポータルサイトの自動構築のために大きな意義を持つ.\item製品情報のデータベース化\\性能表は表形式で記述されているので,表領域が正しく特定されれば,属性と属性値の切り分けや対応付けなどの解析が比較的容易で,製品データベースの自動獲得が可能になる.これらのデータを利用し,ユーザの要求に合致した製品を選択するシステムなどの構築が可能になる\cite{shimada4}.\end{itemize}などが挙げられる.\begin{figure}\begin{center}\epsfile{file=base.eps,height=14.0cm}\end{center}\caption{パソコンの性能表の例}\label{spec}\end{figure}Web上での表の記述に関しては,いくつか問題点がある.その一つが,\verb+<+TABLE\verb+>+タグの一般的な使用方法である.Web上の表はHTMLの\verb+<+TABLE\verb+>+タグを用いて記述されるが,\verb+<+TABLE\verb+>+タグは表を記述する以外にも,レイアウトを整えたりする場合に頻繁に用いられる.ある特定の領域においては,\verb+<+TABLE\verb+>+の70\%がレイアウト目的で使われているとの報告もある\cite{chen}.そのため,HTML文書中の\verb+<+TABLE\verb+>+タグが表なのか,それとも他の目的で使用されているのかを判別する必要がある.また,実際のWeb文書では,\verb+<+TABLE\verb+>+の入れ子構造が頻繁に見られる.性能表抽出のタスクでは,入れ子構造になった\verb+<+TABLE\verb+>+の中で,どこまでが性能表を表しているかという表領域を特定する必要がある.提案手法では,(1)フィルタリング,(2)表領域抽出,の2つのプロセスによってWeb文書群から性能表を獲得することを試みる.処理の流れを図\ref{outline}に示す.ここで,フィルタリングとは,製品メーカのサイトからHTMLダウンローダで獲得したWeb文書群を対象とし,その中から性能表を含む文書を抽出することを指す.フィルタリング処理では,文書分類などのタスクで高い精度を収めているSupportVectorMachines(SVM)を用いる.また,少ない訓練データでもSVMと比較して高い精度を得ることができるといわれているTransductiveSVM(TSVM)とSVMを比較する.一方,表領域抽出とは,フィルタリング処理で得られた文書中から,性能表の領域のみを抽出することを意味する.表領域抽出処理では,フィルタリングの際にSVMおよびTSVMのための素性として選ばれた語をキーワードとし,それらを基に表領域を特定する.以下では,まず,2節で,本稿で扱う性能表抽出のタスクに最も関連のある表認識などの関連研究について説明する.3節では,フィルタリングに用いるSVMとTSVMについて述べ,学習に用いる素性選択の手法について説明する.続いて,4節で,各Web文書から表領域を特定する手法について述べ,5節で提案手法の有効性を検証し,6節でまとめる.\begin{figure}\begin{center}\epsfile{file=outline.eps}\end{center}\vspace{-3mm}\caption{処理の概要}\label{outline}\end{figure} | |
V17N04-06 | 近年の音声合成技術の進歩により合成音声によるカーナビのガイダンスやパソコンによるテキストの読み上げなど様々な場面で合成音声が聞かれるようになった.また,Webを読み上げるための取り組みが進められており,Webコンテンツを音声に変換するための議論がなされている\cite{SOUMU,Guidance,Dialogue}.音声合成の分野においては従来からTTS(Text-to-Speech)\cite{MITalk,TTS}により電子化されたテキストを音声に変換する試みがなされてきた.メール,電子図書,Webページに至るまで様々なテキストを合成音声によって流暢に朗読する仕組みが検討されている.そして近年では,テキストに制御タグを挿入して音声合成の韻律パラメータを制御するアプローチ(VoiceXML;RamanandGries1997;SSML)がなされている.\nocite{VoiceXML,Raman,SSML}韻律パラメータの制御により,従来の朗読調をベースとした合成音声をより表情豊かな音声に変えられることが分かっている.合成音声を音声対話など様々な分野で利用するためには音声に含まれる表現力を高めることが重要であり,そのために韻律パラメータの制御を行うための仕組みづくりが重要になってきている.我々は,韻律パラメータの制御を行うための記述言語MSCL(Multi-layeredSpeech/SoundSynthesisControlLanguage)\cite{MSCL}を開発し,記述による柔軟な韻律制御を実現した.読み上げ用の電子テキストに直接韻律制御コマンドを記述することで韻律制御が可能となった.本研究では,MSCLをより効果的に利用するための韻律制御コマンドの作成方法について述べ,専門的な知識がなくとも新たな韻律制御規則を作成可能にするアプローチについて1つの方向性を提案する.\subsection{記述言語による韻律制御}PML\cite{Ramming}から発展したVoiceXML\citeauthor{VoiceXML}は記述というスタイルにより,音声対話システムの制御を行うフレームワークであり,音声合成から音声認識に至るまでの制御を一元的に行うことで,電話の音声ガイダンスや自動応答を可能にしている.VoiceXMLのように制御タグにより音声合成の制御を行うことの利点は,テキスト処理の範疇で編集作業や情報の伝送が可能になることである.また,Webコンテンツなどの豊富な電子テキスト情報に制御コマンドを付与し読み上げを行うことが容易になる.インターネット上の豊富なテキスト情報を取り込み,テキスト処理と制御タグの挿入により柔軟な音声ガイダンスシステムが可能になる.しかし,従来の音声合成の記述言語では音声合成で用いる韻律パラメータの制御(以下,韻律制御)をするための制御タグを新たに定義することはできず,利用できるタグの数も限られている.例えば,SSMLなどでは\begin{verbatim}<voicegender="female">天気は晴れです</voice><prosodyrate="-10\end{verbatim}のように,声質の変更(gender)や話速(rate)などのパラメータの変更を行うことは可能であるが,複数のパラメータを同時に変更する場合は,タグの記述が膨大になり可読性が損なわれる可能性もある.韻律パラメータを直接指定する制御タグが主体であるためにタグの名称から韻律制御によって期待しうる効果(印象)を予測することができない.このように,従来法ではきめ細かな韻律制御や直感的な制御ができないといった問題があった.MSCLはきめ細かな韻律制御を行うコマンド群の層と直感的な韻律制御が可能になるコマンド群の層に分離し,韻律制御の自由度や使いやすさを高めている.次節においてMSCLについて述べる.\subsection{MSCLによるアプローチ}利用者が簡単に制作を行えるインタフェースの原則として以下の3点\cite{Stgif}にまとめられている.\begin{itemize}\item[ア.]初心者保護の原則:レポートとは何か\item[イ.]熟練者優遇の原則:レポートの必要十分条件\item[ウ.]上級利用移行支援の原則:利用者に対して特化手段を用意し利用を促進する枠組み\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{17-4ia7f1.eps}\end{center}\caption{MSCLの階層構造}\end{figure}MSCLは,音声合成で必要となるピッチやパワーなどの韻律パラメータ群であるP層と,その韻律パラメータを制御するためのコマンド群であるI層と韻律パラメータに1つの解釈を与えるコマンド群であるS層の3つの階層(図1)がある.I層のコマンドは韻律パラメータを直接指定可能であるため,熟練者はより詳細な音声合成の韻律制御が可能になる.S層のコマンドは効果を直感的に理解した上での韻律制御が可能になり,初学者でも利用可能になる.MSCLの利点をまとめると以下の通りである.\begin{itemize}\item記述というスタイルで合成音声に様々な表現力を与える\item階層構造の記述体系を持つことで,初学者から専門的知識を持つ利用者までの様々なレベルへの対応が可能になる\item新たなコマンドを定義し,利用者独自の韻律制御方法を生み出せる\end{itemize}図1中の韻律制御のための記述がそのまま制御コマンド名になっている.特にS層コマンドであれば直感的な利用が可能となり,I層のコマンドの組み合わせにより利用者が定義した新たな制御コマンドを作成することが可能になる.例えば,以下のように記述できる.\begin{verbatim}[duration](0.8){[〜\](20Hz){はい}}@define:相槌=duration,〜\(0.8,20Hz){}@相槌{はい}\end{verbatim}1行目は,I層コマンド“〜\”により最終母音「い」のピッチを20~Hz降下させており,さらに,``duration''より継続時間長を0.8倍して話速を上げている.この韻律制御をまとめて,「相槌」というS層のコマンド名に置き換えているのが2行目である.そして,3行目からは「相槌」というコマンド名を使うことで韻律制御可能となる.これらの利点により,MSCLはロボットを使った対話システム\cite{Yamato},メール読み上げシステム\cite{Nakayama},など多種多様な音声表現が必要な場面で利用されている.\subsection{MSCLにおける課題}これらの利点に対しMSCLの課題は,新たな韻律制御コマンドの作成が容易ではないことにある.韻律制御という営みは,Sesign\cite{Sesign}が示すように韻律パラメータの操作により合成音声の音程を上げたり,継続時間長を伸縮させたりすることである.例えば“疑問”であれば,最終母音のイントネーションを上昇パターンにさせることは良く知られている.また,文中のある単語について“目立たせる”合成音声を生成するためには,対象となる単語のピッチパターンのダイナミックレンジを広くすることが1つの方法\cite{Iwata}とされる.このようにSesignでは合成音声から目的とする印象を想起できるようになるまで韻律パラメータの操作を繰り返した後に韻律制御方法が決定されるため,利用者が効率的に編集作業を行うには韻律制御による効果を習熟する必要がある.MSCLにおいても韻律制御を行うには,韻律パラメータをどのように制御すれば良いか予め知る必要がある.韻律制御と印象の変化に関する知識を容易に獲得できれば編集の時間を短縮することが可能になる.特に制御コマンド名として効果が表現されていれば便利である.これまで韻律制御と印象の関連性については,感情音声と呼ばれる喜怒哀楽をイメージしながらサンプルテキストを読み上げた音声と平常時に読み上げた音声との韻律パラメータの違いを比較するものが多い\cite{Hirose,Arimoto}.しかし,韻律制御を行った合成音声に対しどのような印象が得られるかを検討した報告はあまりない.そこで,合成音声の韻律制御によって音声の印象がどのように変化するかを調べ,MSCLのS層のコマンドとして利用者に提供する.本研究では,韻律制御方法の提案と韻律制御と印象との関係を明らかにするとともに,効果的に韻律制御を行うための方法について述べる.\subsection{本研究のアプローチ}本研究は,韻律制御と印象との関係について明らかにすることで,音声学的な知識をあまり有さない利用者でもMSCLのコマンド作成が可能になるための1つの方向性を与えるものである.音声合成のための韻律制御という観点で言えば,大きく2つのアプローチが考えられる.\begin{itemize}\item[ア.]コーパスベースのアプローチ:コーパス毎に韻律パターンを保持し,適切なパターンを選択する\cite{Corpus}\item[イ.]韻律生成規則ベースのアプローチ:朗読調の韻律生成規則をベースに,新たな規則を加えることで物理パラメータを制御する\end{itemize}ア.はプリミティブな韻律制御規則を組み合わせて新たな制御コマンドを作るというMSCLのアプローチに適用することが困難である.イ.は物理パラメータの制御規則を制御コマンドとして置き換えることで,値の変更や組み合わせが可能になる.従って,ここではイ.のアプローチで進めていくことにする.まず,従来の音声合成の韻律生成規則によって生成された韻律パラメータに対し,一定の変化を与える制御規則を規定することで新たな韻律制御規則を作成する.次に韻律制御と印象の関係について聴取実験を行う.韻律パラメータを変化させることによって,聴取者が合成音声に対しどのような印象を持つかを連想法により分析する.また,韻律制御と言葉の意味の影響により印象がどのように変化するかを調べる. | |
V25N01-02 | 言語に関する能力を,客観的かつ自動的に把握する需要が高まっている.言語能力把握の需要がある場面の一つに,認知症スクリーニングがある.日本は世界に先駆けて超高齢社会に突入した.2013年の高齢化率は25.1\%にのぼり\footnote{内閣府平成26年5月「選択する未来」委員会.\\http://www5.cao.go.jp/keizai-shimon/kaigi/special/future/chuukanseiri/04.pdf},世界でも例を見ないスピードで高齢化が進行している.高齢化の進行に伴い,認知症高齢者の増加も見込まれる.2012年8月の厚生労働省発表によると,2010年における日常生活自立度II\footnote{「日常生活に支障を来すような症状・行動や意志疎通の困難さが多少みられても,誰かが注意していれば自立できる状態」を指す.}以上の認知高齢者数\footnote{65歳以上を指す.}は280万人にのぼり,将来推計として2025年には323万人,65歳以上の人口比率にして9.3\%にまで上昇するだろうと予測されている\footnote{認知症高齢者数について,http://www.mhlw.go.jp/stf/houdou/2r9852000002iau1.html}.また,日本における人口10万人当たりの若年性認知症者数(18〜64歳)は,47.6人にものぼるとされている\footnote{若年性認知症の実態等に関する調査結果の概要および厚生労働省の若年性認知症対策について.\\http://www.mhlw.go.jp/houdou/2009/03/h0319-2.html}.今や,認知症は我々にとって非常に身近なものとなっている.厚生労働省の調査によると\footnote{厚生労働省の認知症施策等の概要について.\\http://www.mhlw.go.jp/file/05-Shingikai-12301000-Roukenkyoku-Soumuka/0000031337.pdf},最初に認知症に気づくきっかけとなる症状の一つとして,言語障害がある.言語能力は長期にわたる学習や経験によって発達するものであり,一定レベルまで発達した後は,加齢によっても衰えにくいとされる\cite{Hampshire}.一方で,構文をあやつる能力は,70代後半を境に低下しはじめるという報告もある\cite{Kemper}.Kemperによると,英文における認知症の進行度は語彙能力,構文能力ともに相関関係にあり,症状が進行するにつれ,構文能力の顕著な低下がみられるという.つまり,認知症は言語能力,とりわけ語彙能力に,加齢の影響ではない何らかの特徴が表出する可能性をもつものである.もし言語能力を測り,その兆候を捉えることができれば,早期発見や療養に役立つのではないかと考えた.また,留学生の日本語能力評価においても,言語能力の自動測定への期待が高まっている.現在,多くの留学生が日本語教育機関において日本語を学んでいる.学習者の習熟度に対し,適切な評価を与えることが各教育機関に求められているが,言語能力の評価は,一概に容易とは言えない.具体的には,作文課題やスピーチテストなどの,「書く能力」「話す能力」の評価は,評価者の主観によって行われることが一般的であるが\cite{Kimura,Torii,Kanakubo},このような評価は評価者の能力や判断に大きく依存してしまうという問題を孕む.機械による客観的かつ自動的な評価が実現できれば,評価者による判断の揺れという問題を排除した尺度として活用できる可能性がある.近年,大規模なコホート研究によって,数十年の言語能力の経過を観察する試みが行われている.その結果,老化や認知症などと加齢によるさまざまな能力との関係は徐々に明らかになりつつある\cite{Kubo,Snowdon}.しかし,これらの取り組みには,人手でのテキストデータの作成・収集,テキストの分類,各評価スコアの算出などが必要であり,時間・金銭的コストが高い.また,テキストの分類には訓練をつんだ専門家が必要であるなど,言語能力測定のハードルが高い.そこで本研究では,言語能力測定システム「言秤(コトバカリ)」を提案する.言語能力測定における大きな課題の一つとして,分析対象となるテキストデータの作成がある.従来は,音声データの書き起こしなど,人手でのテキスト化が必要であり,多大な時間を要していた.提案システムでは,音声認識システムにより,言語能力の被測定者の発話データを自動的にテキスト変換することで,コストの大幅な軽減を行う.ただし,音声認識システムの認識精度には限界があり,常に正しい認識結果が得られるとは限らない.我々はこれまでに,テキストデータに基づいて定量的に言語能力を測定する指標(以降,言語能力指標と表記する)を提案してきた\cite{Aramaki2}.また,提案指標を用いたテキスト分析の結果,一部の指標(TTR(Type・Token割合)およびJEL(日本語学習語彙レベル))によって認知症者の特徴的な傾向などを観察できる可能性を示した\cite{Shikata,Aramaki2}.このうち,TTRは,Type(異なり語数)とToken(延べ語数)の比率(Type/Token)であるため,TTRスコアは語の内容ではなく,出現回数のみに基づいて算出される指標であり,発話されたのがどのような語であるかという点については関与しない.そのため,TTRを用いた場合,たとえ語の内容の認識結果が誤っていたとしても,算出されるスコアに問題は生じにくいと考えられる.よって,提案システムでは,先行研究における提案指標を採用し,特にTTRスコアに着目することで,音声認識による認識誤りの影響を受けにくく,さらに人手作業を排除した定量的なスコア算出を実現する.本提案のポイントを以下に整理する.\begin{description}\item[分析テキスト作成コストの軽減]音声認識システムを組み込むことにより,音声を録音/入力するだけで,言語能力の測定を可能にする.\item[スコアリングコストの軽減]定量的に算出可能な言語能力指標を採用することにより,認識誤りを許容し,さらにスコア算出のための人間の介在を省略可能にする.\end{description}本論文では,採用する言語能力測定指標と提案システムについて概説した後,低コストな言語能力測定の要となる音声認識システムの利用可能性について,検証実験の結果から議論する. | |
V06N07-03 | GeorgeA.Millerは1956年に人間の短期記憶の容量は7±2程度のチャンク\footnote{チャンクとはある程度まとまった情報を計る,情報の認知単位のこと.}(スロット)しかないこと,つまり,人間は短期的には7±2程度のものしか覚えられないことを提唱した\cite{miller56}.本研究では,京大コーパス\cite{kurohashi_nlp97}を用いて日本語文の各部分において係り先が未決定な文節の個数を数えあげ,その個数がおおよそ7±2程度でおさえられていたことを報告する.この結果は,人間の文の理解過程において係り先が未決定な文節を短期記憶に格納するものであると仮定した場合,京大コーパスではその格納される量がちょうどMillerのいう7±2の上限の9程度でおさえられており,Millerの7±2の提唱と矛盾しないものとなっている.またYngveによって提案されている方法\cite{yngve60}により英語文でも同様な調査を行ない,NP程度のものをまとめて認識すると仮定した場合,必要となる短期記憶の容量が7±2の上限の9程度でおさえられていたことを確認した.近年,タグつきコーパスの増加により,コーパスに基づく機械学習の研究が盛んになっているが\cite{murata:nlken98},タグつきコーパスというものは機械学習の研究のためだけにあるのではなく,本研究のような言語の数量的な調査にも役に立つものである.現在の日本の言語処理研究ではコーパスを機械学習の研究に用いるものがほとんどであるが,本論文のようにコーパスの様々な使い道を考慮するべき時代がきていると思っている. | |
V17N04-08 | 現在,機械翻訳システムの分野において,対訳データから自動的に翻訳モデルと言語モデルを獲得し統計的に翻訳を行う,統計翻訳が注目されている.翻訳モデルは,原言語の単語列から目的言語の単語列への翻訳を確率的に表現するモデルである.言語モデルは,目的言語の単語列に対して,それらが起こる確率を与えるモデルである.翻訳モデルには,大きくわけて語に基づく翻訳モデルと句に基づく翻訳モデルがある.初期の統計翻訳は,語に基づく翻訳モデルであった.語に基づく翻訳モデルでは,原言語の単語から目的言語の単語の対応表を作成する.対応する単語が無い場合はNULLMODELに対応させる~\cite{IBM}.しかし,翻訳文を生成する時,NULLMODELに対して,全ての単語の出現を仮定する必要がある.これが翻訳精度が低下する原因の一つになっていた.そのため現在では句に基づく翻訳モデルが主流になっている~\cite{PSMT}.句に基づく翻訳モデルは,原言語の単語列から目的言語の単語列の翻訳に対して確率を付与する.また,NULLMODELは使用しない.そして,原言語の単語列から目的言語の単語列への翻訳を,フレーズテーブルで管理する.しかし,フレーズテーブルのフレーズ対はヒューリスティクを用いて自動作成されるため,一般にカバー率は高いが信頼性は低いと考えられる.また,フレーズテーブルのフレーズ対は,確率値の信頼性を高めるため,短いフレーズ対に分割される.そのため,長いフレーズ対は少ない.ところで,日英翻訳では,過去に手作業で作成した日本語の単語列から英語の単語列への翻訳対が大量に作成されている.この翻訳対の信頼性は高いと考えられる.しかし自動作成されたフレーズ対と比較すると,カバー率は低い.そこで,本研究では,それぞれの長所を生かすために,プログラムで自動作成したフレーズ対に手作業で作成された翻訳対を追加することで翻訳精度の向上を目指した.本研究では,手作業で作成した原言語の単語列から目的言語の単語列への翻訳対を,自動的に作成したフレーズテーブルに追加する.この追加されたフレーズテーブルを利用して日英翻訳の精度向上を試みる.実験では,日英重複文文型パターン辞書~\cite{tori}の対訳文対から得られた翻訳対を利用する.手作業で作成された約13万の翻訳対に翻訳確率を与え,プログラムで自動作成したフレーズテーブルに追加する.この結果,BLEUスコアが,単文では12.5\%から13.4\%に0.9\%向上した.また重複文では7.7\%から8.5\%に0.8\%向上した.また得られた英文100文に対し,人間による対比較実験を行ったところ,単文では,従来法が5文であるのに対し提案法では23文,また重複文では,従来法が15文であるのに対し提案法では35文,翻訳精度が良いと判断された.これらの結果から,自動作成されたフレーズテーブルに手作業で作成された翻訳対を追加する,提案手法の有効性が示された. | |
V05N01-02 | 従来の自然言語処理研究の多くは,言語の論理的側面に注目したものであった.しかし,計算機が人間と同じように自然言語を取り扱うことができるようになるためには,言語の論理的な取り扱いだけでなく,言語が人間の感性に及ぼす働きの実装が不可欠である.このような観点から,我々は感性を取り扱うことのできる自然言語処理システムの開発に向けた基礎研究のひとつとして,待遇表現の計算モデルに関する研究を行っている.待遇表現とは,話し手が,聞き手及び話題に含まれる人物と自分との間に,尊卑,優劣,利害,疎遠等どのような関係があるかを認識し,その認識を言語形式の上に表したものである(鈴木1984).本研究ではこれらの関係を総称して{\bf待遇関係}と呼び,待遇表現に対して心理上持つ丁寧さの度合いを{\bf待遇値}と呼ぶ.さまざまな待遇表現を柔軟に取り扱うことができる自然言語処理システムを構築するためには,待遇表現の構成要素と待遇表現全体の待遇値の関係を記述するモデルが必要である.しかし,数学的な形式化に重点を置いた研究(水谷1995),心理実験による待遇表現の計量化に重点を置いた研究(荻野1984),あるいは丁寧さを考慮した文生成プログラムの開発(田中1983)などの従来の待遇表現に関する研究においては,このようなモデルの提案,及び心理実験に基づくモデルの検証は行われていなかった.本研究では,話し手及び聞き手以外の人に関する話題が含まれないような発話内容に関する待遇表現に限定した上で,待遇表現に語尾を付加した際の待遇値の変化に関する計算モデルを提案する.モデルの妥当性の検証を行うため,(1)ある事柄について{\bf知っている}という意図を伝える際に用いられる待遇表現のグループに対し,語尾:``よ''を付加した際の待遇値変化,及び(2)聞き手が会議などで{\bf発言するか否か}を聞き手に質問する際に用いられる待遇表現のグループに対し,語尾:``ます?''を付加した際の待遇値変化を求める心理実験を行った.実験の結果,いずれのグループにおける待遇値変化もモデルから予測される傾向に従い,モデルの妥当性が支持された. | |
V03N04-07 | 自然言語の機械による処理方法の一つに,人間が与えた規則を用いて解析する方法がある.この方法では,一般に知識が複雑になるほど精密な解析ができるが,この複雑化に伴い知識獲得が難しくなるため,解析の対象となる話題を限定することがほぼ必須となる.この点において,人間により与えられた規則にのみ基づく解析は,限界にきているとの見方もある.これに対して,自然言語に関する統計的情報を自然言語処理に利用する研究が盛んに行われている\cite{utsu,kudo,mich}.人間によって与えられた規則を元に解析を行う方法においても,規則の適用される確率を統計的に調べておくことにより良い結果が得られることが多く,統計的な情報を自然言語処理に用いることは処理の効率化に効果があるとみられる.筆者らは既に,統計情報を自然言語処理に利用する方式の一つとして,コーパスに基づいて日本語文法を自動獲得する方法を提案している\cite{yoko2}.この獲得法は,まず構文木情報の付加されたコーパスから多数の文の構文木を作成し,それぞれの節点にランダムに非終端記号を割り当て,その後この割当てをエントロピーにより評価し,エントロピーが最小となるようシミュレーテッド・アニーリング法により割り当てを変更するものである\cite{shan,asai,patr}.この方法を新聞記事の文法の獲得に適用した所,得られた文法は終端記号と非終端記号との間の置き換え規則のエントロピーが比較的高いことがわかった.従って,この獲得法の単位として形態素より長い単位---認知単位---を利用することによりエントロピーを下げれば,パーザの動作効率を高めることができると期待される.本論文ではこのような知見に基づき,形態素より長い単位を人間による知覚実験の結果から定義し,文法の自動獲得に応用した,新しい方法を提案する. | |
V21N01-04 | 本稿では語義曖昧性解消(WordSenseDisambiguation,WSD)をタスクとした領域適応の問題が共変量シフトの問題と見なせることを示す.そして共変量シフトの解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決を図る.共変量シフトの解法では確率密度比の算出が鍵となるが,ここではNaiveBayesで利用されるモデルを利用した簡易な算出法を試みた.そして素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う.この手法を本稿の提案手法とする.自然言語処理の多くのタスクにおいて帰納学習手法が利用される.そこではコーパス\(S\)からタスクに応じた訓練データを作成し,その訓練データから分類器を学習する.そしてこの分類器を利用することで当初のタスクを解決する.このとき実際のタスクとなるデータはコーパス\(S\)とは領域が異なるコーパス\(T\)のものであることがしばしば起こる.この場合,コーパス\(S\)(ソース領域)から学習された分類器では,コーパス\(T\)(ターゲット領域)のデータを精度良く解析することができない問題が生じる.これが領域適応の問題であり\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.},近年活発に研究が行われている\cite{da-book}.WSDは文\(\boldsymbol{x}\)内の多義語\(w\)の語義\(c\inC\)を識別する問題である.\(P(c|\boldsymbol{x})\)を文\(\boldsymbol{x}\)内の単語\(w\)の語義が\(c\)である確率とすると,確率統計的には\(\arg\max_{c\inC}P(c|\boldsymbol{x})\)を解く問題といえる.例えば単語\(w=\)「ボタン」には少なくとも\(c_1:\)服のボタン,\(c_2:\)スイッチのボタン,\(c_3:\)花のボタン(牡丹),の3つの語義がある.そして文\(\boldsymbol{x}=\)「シャツのボタンが取れた」が与えられたときに,文中の「ボタン」が\(C=\{c_1,c_2,c_3\}\)内のどれかを識別する.直接的には教師付き学習手法を用いて\(P(c|\boldsymbol{x})\)を推定して解くことになる.WSDの領域適応の問題は,前述したように,教師付き学習手法を利用する際に学習もとのソース領域のコーパス\(S\)と,分類器の適用先であるターゲット領域のコーパス\(T\)が異なる問題である.領域適応ではソース領域\(S\)から\(S\)上の条件付き分布\(P_S(c|\boldsymbol{x})\)は学習できるという設定なので,\(P_S(c|\boldsymbol{x})\)やその他の情報を利用して,ターゲット領域\(T\)上の条件付き分布\(P_T(c|\boldsymbol{x})\)を推定できれば良い.ここで「シャツのボタンが取れた」という文中の「ボタン」の語義は,この文がどのような領域のコーパスに現れても変化するとは考えづらい.つまり\(P_T(c|\boldsymbol{x})\)は領域に依存していないため,\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)が成立していると考えられる.今\(P_S(c|\boldsymbol{x})\)は推定できるので,\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)が成立していれば,\(P_T(c|\boldsymbol{x})\)を推定する必要はないように見える.ただしソース領域だけを使って推定した\(P_S(c|\boldsymbol{x})\)では,実際の識別精度は低い場合が多い.それは\(P_S(\boldsymbol{x})\neP_T(\boldsymbol{x})\)から生じている.\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)だが\(P_S(\boldsymbol{x})\neP_T(\boldsymbol{x})\)という仮定の下で,\(P_T(c|\boldsymbol{x})\)を推定する問題は共変量シフトの問題\cite{shimodaira2000improving,sugiyama-2006-09-05,sugiyama-book}である.本稿ではWSDの領域適応の問題を共変量シフトの問題として捉え,共変量シフトの解法を利用してWSDの領域適応を解決することを試みる.訓練データを\(D=\{(\boldsymbol{x_i},c_i)\}_{i=1}^N\)とする.共変量シフトの標準的な解法では\(P_T(c|\boldsymbol{x})\)に確率モデル\(P(c|\boldsymbol{x};\boldsymbol{\theta})\)を設定し,次に確率密度比\(r(\boldsymbol{x_i})=P_T(\boldsymbol{x_i})/P_S(\boldsymbol{x_i})\)を重みにした以下の対数尤度を最大にする\(\boldsymbol{\theta}\)を求めることで,\(P_T(c|\boldsymbol{x})\)を構築する.\[\sum_{i=1}^{N}r(\boldsymbol{x_i})\logP(c_i|\boldsymbol{x_i};\boldsymbol{\theta})\]また領域適応に対してはDaum{\'e}の手法\cite{daume0}が非常に簡易でありながら,効果が高い手法として知られている.Daum{\'e}の手法は,データの表現を領域適応に効果が出るように拡張し,拡張されたデータを用いてSVM等の学習手法を利用する手法である.ここでは拡張する手法を「素性空間拡張法(FeatureAugmentation)」と呼び,拡張されたデータを用いてSVMなどで識別までを行う手法を「Daum{\'e}の手法」と呼ぶことにする.拡張されたデータに対しては任意の学習手法が利用できる.つまり素性空間拡張法により拡張されたデータに対して,共変量シフトによる解法を利用することも可能である.本稿ではこの手法を提案手法とする.実験では現代日本語書き言葉均衡コーパス(BCCWJコーパス\cite{bccwj})における3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を利用する.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれらのコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.すべての領域である程度の頻度が存在する多義語16単語を対象にして,WSDの領域適応の実験を行う.領域適応としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りが存在する.結果\(16\times6=96\)通りのWSDの領域適応の問題に対して実験を行った.その結果,提案手法はDaum{\'e}の手法と同等以上の正解率を出した.本稿で用いた簡易な確率密度比の算出法であっても共変量シフトの解法を利用する効果が高いことが示された.より正確な確率密度比の推定法を利用したり,SVMを利用するなどの工夫で更なる改善が可能である.また教師なし領域適応へも応用可能である.WSDの領域適応に共変量シフトの解法を利用することは有望であると考えられる. | |
V10N03-05 | 本論文では,SENSEVAL2の日本語翻訳タスクに対して帰納論理プログラミング(InductiveLogicPrograming,以下ILPと略す)を適用する.背景知識として分類語彙表を利用することで,正解率54.0\,\%を達成した.この値は,訓練データを新たに作成しない翻訳タスク参加の他システムと比較して優れている.SENSEVAL2の日本語翻訳タスクは,TranslationMemory(以下TMと略す)と呼ばれる日英対訳対が与えられ,テスト文中の該当単語を英訳する際に利用できるTMの例文番号を返すタスクである\footnote{厳密には,英訳自体を解答としてもよいが,ここではこの解答形式は考慮しない.}\cite{sen2}.これは英訳を語義と考えた場合の多義語の曖昧性解消問題となっており,分類問題の一種である.このため従来から活発に研究されている帰納学習手法を用いて解決可能である.おそらく大規模かつ高品質な訓練データを用いたシステムが,コンテストで優秀な成績を納めるはずである.しかし翻訳タスクでは大規模かつ高品質な訓練データを用意するコストが高い.TMは1つの単語に対して平均して21.6例文がある.今仮にある単語Aの例文として\(id_1\)から\(id_{20}\)までの20例文がTMに記載されているとする.新たに訓練データを作成する場合,単語Aを含む新たな文を持ってきて,\(id_1\)から\(id_{20}\)のどれか1つのラベルをその事例に与える必要がある.〇か×かの二者択一は比較的容易であるが,20個のラベルの中から最も適切な1つを選ぶのは非常に負荷のかかる作業である.この理由のために,実際のコンテストにおいて,大規模かつ高品質な訓練データを用意する方法をとったシステムは1つ(Ibaraki)だけであった.ここでは訓練データを新たに作成せずに,日本語翻訳タスクを解決することを目標とする.訓練データを新たに作成しないとしても,TMの例文は訓練データとして扱える.ただしTMの例文を訓練データと見た場合,その量は少量と言わざるをえない.つまり問題は,少量の訓練データからどのようにして精度の高い分類規則を獲得するかである.そのための戦略としてILPを用いる.少量の訓練データからどのようして分類規則を学習したらよいかは,機械学習における1つの重要な課題である.その解決方法として背景知識の利用が提案されている\cite{ipsj-kaisetu}.背景知識とは,訓練データには明示されない問題固有の知識であり,広く捉えれば,人間の持つ常識的知識と考えて良い.一種の知識データベースである.問題はその背景知識を,どのように学習手法に取り入れてゆくかである.その解決のために提案されているのがILPである.ILPは訓練データを述語論理の形式で表し,そこから分類規則に相当する規則(述語論理の形式では節に対応)を導出する.知識データベースは述語論理の形式によって自然に表現できるので,背景知識の利用の観点からはILPを用いた学習戦略が優れている\cite{furukawa}.更にILPの背景知識では,複雑なグラフ構造を持ったものも表現できるので,近年,CMUの機械学習チームはWebページの文書分類にILPを利用している\cite{webkb}.更にいくつかの自然言語処理への応用も知られている\cite{cohen}\cite{califf}\cite{shimazu}.本論文では,ILPの処理系としてMuggletonによるProgolを利用する\cite{muggen2}.Progolによって多義語の曖昧性解消を行う.そして背景知識としては分類語彙表\cite{bunrui-tab}を利用する.以下2章で多義語の曖昧性解消をILPで行う方法を示す.3章では分類語彙表をどのように背景知識として組み込むかを説明し,4章で実験,5章で考察を述べ,最後にまとめる. | |
V04N02-02 | 自然言語処理における重要な問題の一つに,形態\hspace{-0.1mm}$\cdot$\hspace{-0.1mm}構文\hspace{-0.1mm}$\cdot$\hspace{-0.1mm}意味といった言語に関する様々な曖昧性の問題がある.一般に,意味的な曖昧性を解消するためには,意味に関するさまざまな情報を規則化し記述しておく必要がある.しかし,意味は文脈に依存して決まるため,あらゆる文脈に対応できるすべての意味を予め規則として網羅的に記述しておくことは難しい.CollinsEnglishDictionary,Rogetのシソーラス,分類語彙表など,機械可読辞書として電子化されたものがあるが,辞書の記述は語の定義が言語学者によりまちまちであるため,現実の文に対処できる有用な意味情報を得ることは難しい.そこで,意味的な曖昧性を解消するためには,解消手法と同時に,文脈に依存した情報をどのように獲得するかが重要となる.こうしたことを背景に,最近コーパスから意味的に近い語群の情報や,共起関係の情報などを抽出する研究が盛んに行なわれている\cite[など]{Church1991,Hindle1990,Tsujii1992,Sekine1992,Smadja1993}.これらのアプローチは知識獲得のためのアルゴリズムを提案することで,コーパスからその分野に依存した知識を自動的に抽出するというものである.本稿では,単一言語コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法について述べる.2章では,関連した研究について述べる.3章ではコーパスから多義解消に必要な情報を抽出する手法について述べる.4章では得られた情報を基に,文中に含まれる多義語の曖昧性を解消する手法について述べる.5章では丹羽らの提案した文脈ベクトルを用いた名詞の多義解消手法\cite{Niwa1994}を動詞に適用した結果と比較することで,本手法の有効性を検証する. | |
V24N05-04 | 一般に,自然言語処理システムでは単語を何らかの数値ベクトルとして表現する必要がある.単純にベクトル化する方法としてはone-hot表現がある.これは単語の種類数が$N$の場合,$N$次元ベクトルを用意し,単語$w$が$i$番目の種類の単語であれば,$N$次元ベクトルの$i$番目だけを1に,他は0にして$w$をベクトル化する方法である.one-hot表現によるベクトル化は単にベクトル化しただけであり,ベクトル間の関係はその単語間のなんらかの関係を反映しているわけではない.処理の意味を考えれば,単語のベクトルはその単語の意味を表し,ベクトル間の関係は,単語の意味の関係を反映したものになっていることが望ましい.このような背景下で,Mikolovはword2vecを発表し\cite{Mikolov1,Mikolov-2013},単語の意味を低次元密なベクトルとして表現する分散表現が大きな成功を収めた.その後,自然言語処理の様々なタスクにおいて,分散表現が導入され,既存のシステムを改善している.また同時に近年,自然言語処理の分野でも深層学習の利用が活発だが,そこでは単語のベクトル化に分散表現が用いられる\cite{okazaki}.つまり,現在,自然言語処理システムにおける単語のベクトル化には分散表現を用いることが一般的な状況となっている.分散表現は,単語分割されたコーパス\footnote{日本語の場合,'mecab-Owakati'により,容易にテキストコーパスをword2vecの入力形式に変換できる.}があればword2vec\footnote{https://github.com/svn2github/word2vec}やGloVe\footnote{https://nlp.stanford.edu/projects/glove/}などの公開されているツールを用いて簡単に構築できる.また深層学習で利用する場合は,ネットワークの一部として分散表現を学習できる.このため分散表現のデータ自体の品質に関心が持たれることは少ない.ただし分散表現を利用したシステムでは,分散表現の品質がそのシステムの精度に大きな影響を与えている.また深層学習では,学習時間や得られるモデルの品質の観点から,分散表現を学習時に構築するよりも,既存の学習済みの分散表現を用いる方が望ましい.このような観点から容易に利用できる高品質の分散表現データがあれば,様々な自然言語処理システムの構築に有益であることは明らかである.以上の潜在的な需要に応えるために我々は国語研日本語ウェブコーパス(以下,NWJC)\cite{asahara2014archiving}を利用して分散表現を構築し,それをnwjc2vecと名付けて公開している\footnote{http://nwjc-data.ninjal.ac.jp/}.NWJCは約258億語からなるコーパスである.1年分の新聞記事中のプレーンな文のデータが約2,050万語\footnote{2008年度の毎日新聞記事から,文としてなりたつと考えられるものを抽出し,unidicを基に形態素解析したものから算出した.}であることを考えると,NWJCは1,200年分以上の新聞記事に相当し,超大規模コーパスといえる.そのためそのコーパスから構築されたnwjc2vecが高品質であることが期待できる.本稿ではnwjc2vecを紹介するとともに,nwjc2vecの品質を評価するために行った二種類の評価実験の結果を報告する.第一の評価実験では,単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出する.第二の評価実験では,タスクに基づく評価として,nwjc2vecを用いて語義曖昧性解消及び回帰型ニューラルネットワーク(RecurrentNeuralNetwork,以下RNN)による言語モデルの構築を行う.なおここでの言語モデルとは確率的言語モデルであり単語列に対する確率分布を意味する.構築した言語モデルはパープレキシティにより評価できるので,その評価値により構築の基になった分散表現データを評価する.どちらの評価実験においても,新聞記事7年分の記事データから構築した分散表現を用いた場合の結果と比較することで,nwjc2vecが高品質であることを示す. | |
V12N05-02 | 近年,コーパスを利用した機械翻訳の研究においては,翻訳システムに不足している翻訳知識を人手で増強していく際のコストを軽減する目的で,対訳コーパスやコンパラブルコーパス等の多言語コーパスから様々な翻訳知識を獲得する手法の研究が行なわれてきた~\cite{Matsumoto00a}.これまでに研究されてきた翻訳知識獲得の手法は,大きく,対訳コーパスからの獲得手法とコンパラブルコーパスからの獲得手法に分けられる.通常,対訳コーパスからの獲得(例えば,\cite{Gale91a})においては,文の対応の情報を利用することにより,片方の言語におけるタームや表現について,もう一方の言語における訳の候補が比較的少数に絞られるため,翻訳知識の獲得は相対的には容易といえる.ただし,そのような対訳コーパスを人手で整備する必要がある点が短所である.一方,コンパラブルコーパスからの獲得(例えば,\cite{Rapp95a,Fung98a})では,各タームの周囲の文脈の類似性を言語横断して測定することにより,訳語対応の推定が行われる.情報源となるコーパスを用意するコストは小さくて済むが,対訳コーパスと比較すると,片方の言語のコーパス中のタームや表現の訳がもう一方の言語のコーパスに出現する可能性が相対的に低いため,翻訳知識の獲得は相対的に難しく,高性能に翻訳知識獲得を行うのは容易ではない.そこで,本論文では,翻訳知識獲得の目的において,人手で整備された対訳コーパスよりも利用可能性が高く,一般のコンパラブルコーパスよりも翻訳知識の獲得が容易である情報源として,日英二言語で書かれた報道記事に着目する.近年,ウェブ上の日本国内の新聞社などのサイトには,日本語だけでなく英語で書かれた報道記事も掲載されており,これらの英語記事においては,同一時期の日本語記事とほぼ同じ内容の報道が含まれている.これらの日本語および英語の報道記事のページにおいては,最新の情報が日々刻々と更新されており,分野特有の新出語(造語)や言い回しなどの翻訳知識を得るための情報源として,非常に有用である.そこで,本論文では,これらの報道記事のページから日本語および英語など,異なった言語で書かれた文書を収集し,多種多様な分野について,分野固有の人名・地名・組織名などの固有名詞(固有表現)や事象・言い回しなどの翻訳知識を自動または半自動で獲得するというアプローチをとる.本論文のアプローチは,情報源となるコーパスを用意するコストについては,コンパラブルコーパスを用いるアプローチと同等に小さく,しかも同時期の報道記事を用いるため,片方の言語におけるタームや表現の訳がもう一方の言語の記事の方に出現する可能性が高く,翻訳知識の獲得が相対的に容易になるという大きな利点がある.\begin{figure}\begin{center}\epsfile{file=FIG/pic01.ai,scale=0.6}\end{center}\vspace*{-.0cm}\caption{日英関連報道記事からの翻訳知識獲得のプロセス}\label{fig:pic01}\end{figure}本論文の翻訳知識獲得のアプローチにおいて,日英関連報道記事から翻訳知識を獲得するプロセスの一般的な流れを図~\ref{fig:pic01}に示す.まず,翻訳知識獲得のための情報源収集を目的として,同時期に日英二言語で書かれたウェブ上の新聞社やテレビ局のサイトから,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する.この際には,既存の対訳辞書,翻訳ソフトの翻訳知識を利用することにより,日本語記事と英語記事の間の関連性を測定する.そして,取得された関連記事対に対し,内容的に対応する翻訳部分の推定を行い,その推定範囲から二言語間の訳語対応を推定し,訳語対の獲得を行う.ここで,従来のコンパラブルコーパスからの訳語対獲得のアプローチにおいては,原理的には,コンパラブルコーパスに出現する全ての日本語タームおよび英語タームの組を訳語対応の候補としていた.一方,本論文のアプローチでは,予備調査の結果~\cite{Utsuro03b,Horiuchi03aj}をふまえて,関連報道記事の組において共起した日本語ターム,および,英語タームの組を収集し,これを訳語対応の候補としており,この点が特徴的である\footnote{予備調査の結果~\cite{Utsuro03b,Horiuchi03aj}においては,関連報道記事の組において共起した日本語ターム,および,英語タームの組を訳語対応の候補とすることにより,不要な訳語対応の候補を大幅に削減できることが分かっており,本論文のアプローチが適切であることの裏付けとなっている.}.ただし,本論文で述べる手法の範囲では,現在のところ,関連記事中で内容的に対応する翻訳部分の推定は行なっておらず,関連記事対全体から訳語対応を推定している.また,訳語対応を推定する尺度としては,関連記事組における訳語候補の共起を利用する方法を適用し,評価実験を通して,この方法が有効であることを示す.特に,評価実験においては,訳語対応を推定すべき英語タームの出現頻度の分布に応じて,訳語対応推定性能がどのように変化するかを調査し,その相関を評価する.以下,\ref{sec:clir}~節では,翻訳知識獲得のための情報源収集を目的として,言語を横断して,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する処理について述べる.次に,\ref{sec:msr}~節では,関連記事組の集合から訳語対応を推定する手法について述べる.\ref{sec:eval}~節において,実験を通して提案手法の評価を行ない,\ref{sec:related}~節において,関連研究について詳細に述べる. | |
V11N02-04 | 対訳コーパスの充実に伴い,コーパスから自動学習した知識を用いる機械翻訳システムが提案されてきている\cite{Brown:SMT1993,Menezes:PAandTranslation2001,Imamura:PatternGeneration2002}.しかし,対訳コーパスを無制限に用いて翻訳知識を自動構築すると,コーパスに内在する翻訳の多様性に起因して冗長な知識が獲得され,誤訳や曖昧性増大の原因となる.翻訳の多様性はコーパスサイズの拡大と共に増加する.たとえば,対訳コーパスは大規模になるに従い,通常,同一の原文であるにも関わらず異なった翻訳文が含まれる.また,文脈や状況に依存した特異な翻訳も大規模コーパスでは増加する.我々の対象は,このような10万文以上を含んだ大規模対訳コーパスである.本稿では,このような翻訳の多様性に対し,機械翻訳に適した対訳(制限対訳と呼ぶ)に制限することを試みる.制限対訳には様々な指標が考えられるが,本稿では特に直訳性に着目する.そして直訳性を利用した2つの知識構築法を提案する.第一は,翻訳知識構築の前処理としての,直訳性を用いた対訳文フィルタリング,第二は一つの対訳文を直訳部/意訳部に分割し,部分に応じた汎化手法を適用する.このような制限を行いながら機械翻訳知識を自動構築することにより,機械翻訳の訳質が向上することを示す.以下,第\ref{sec-translation-variety}章では翻訳の多様性が引き起こす問題点について述べ,第\ref{sec-controlled-translation}章では機械翻訳に適した対訳とは,どのような対訳であるのか,議論する.続いて第\ref{sec-translation-literalness}章では,制限対訳の指標のうち,直訳性に着目し,その測定手法について提案する.第\ref{sec-construction-methods}章では直訳性を利用した機械翻訳知識構築方法について述べ,第\ref{sec-translation-experiments}章でその評価を行う. | |
V14N04-03 | \label{はじめに}言語処理技術を利用した文章の推敲や校正の支援に関する研究が行われている.この研究分野を次の5段階に分けて考える.\begin{description}\item[表記レベル]誤字の検出と修正,表記揺れの指摘など.\item[統語レベル]統語構造の複雑さに起因する読みづらさの指摘など.\item[意味レベル1]欠落した格要素の推定や,照応先の特定が困難な場合の指摘.\item[意味レベル2]情報不足(論理の飛躍や説明が不足しているもの),情報過多(表現が冗長)の指摘.\item[文脈・構成レベル]文間のつながりに関する理解しづらさの指摘.文の構成による論旨の展開についての指摘など.\end{description}まず,「表記レベル」に関しては,自然言語処理の教科書\cite{tanaka}に詳しく解説されているように,研究開発が完成段階に達し\cite{ibuki},コンピュータのアプリケーションソフトとして実装されている\cite{kasahara}.次の「統語レベル」に関しても,係り受けの複雑さに起因する読みづらさを指摘し,書き換え候補を生成する研究が行われ,応用段階に到達している\cite{yokobayashi}\cite{suganuma2006}.以上の「表記レベル」と「統語レベル」の課題に対しては,文を言語解析し,その際の解析困難性の程度を誤りや読みづらさの指標にするという手法が広く用いられている.この手法が使われる理由は,表記レベルと統語レベルに対応した言語解析である形態素解析および係り受け解析の現状の解析精度が十分に高いためであると考えられる.それに対し,次の「意味レベル1」では欠落した格要素の推定や照応詞の照応先の特定の困難さを算出する必要がある.しかしながら,それに対応した格解析や照応解析といった意味解析技術の精度が現状では不十分なため,解析困難の理由が,解析技術の精度不足に起因するのか,原文側の問題に起因するのか区別がつかず,指摘の要否判定ができない.さらに,「意味レベル2」に含まれる情報不足や情報過多の指摘に関しては,対応する言語解析技術も定まっておらず,今後の技術と考えられている.このように,「意味レベル1,2」やその先の「文脈・構成レベル」の検出・支援の技術は研究が進展していないのが現状である.本論文は,「意味レベル2」に含まれる情報不足と情報過多の指摘のうち情報不足の指摘を扱う.以下,文章作成の理論の中で,この課題の位置付けを考える.言語表現とそれを用いる使用者や文脈との関係を研究する分野である語用論\cite{Green}と会話における意志疎通の原理を扱ったGriceの理論\cite{Grice}がある.これはコミュニケーションが成り立つための原理と条件を与える協調の原理についての内容であり,仕事文(仕事に用いる文を仕事文と称する\footnote{本論文では,岩波新書「仕事文の書き方」\cite{高橋昭男}にならい,仕事の場面で用いる文を仕事文と呼ぶ.これに近い概念の「論説文」は,仕事目的以外の,例えば教育用の論説文もあるため,仕事文と完全には一致しない.}.)が満たすべき条件を与える基礎理論である.協調の原理に従うために,いくつかの特定の条件(格率という)に従わなければならない.格率は量,質,関係,様態の4カテゴリにまとめられる.そのうちの量に関して,次の2つの格率に従う必要がある.\begin{enumerate}\item要求に見合うだけの情報を与える発言を行う.\item要求されている以上の情報を与えるような発言を行ってはならない.\end{enumerate}(1)の格率を満たさなければ,情報不足の問題が生じ,(2)の格率を満たさなければ,情報過多の問題を生じる.このうち,本論文で扱う課題は,量に関する1つ目の格率を満たさないために生じる情報不足の課題である.文章講座に関する一般書籍にも情報不足に関する解説が見られる.例えば書籍「仕事文の書き方」\cite{高橋昭男}では,仕事文において正確な文章を書くために,情報不足に注意することを述べている.この書籍では情報不足による論理の飛躍の例として,次に示す入学用ランドセルの広告文を取り上げている.\vspace{10.5pt}\begin{center}\fbox{\parbox{38zw}{ここ数年,児童の数が急激に減っています.そのため,品不足になる恐れがありますので,お早めにお求めください.}}\end{center}\vspace{10.5pt}\noindent第1文と第2文の間に論理の飛躍があって読みづらいため,間に言葉を補い,次のように修正すべきと述べている.\vspace{10.5pt}\begin{center}\fbox{\parbox{38zw}{ここ数年,児童の数が急激に減っており,{\bfそれに対応して,メーカーでは,製造数を大幅に減らしています.このような事情から,人気商品については,}品不足になる恐れがありますので,お早めにお求めください.(文字強調筆者)}}\\\end{center}\vspace{10.5pt}量の格率の2条件を満足しないために生じる情報不足と情報過多の問題の中で,本研究では情報不足の問題のみを扱い,情報過多の問題は扱わない.その理由について述べる.本研究では,ビジネス分野の文章作成支援を目指して,仕事文を対象とする.そのため,情報不足の場合には,文が難解になることに加え,論理の飛躍によって誤解を生じさせると言う深刻な事態を招くのに対し,情報過多の場合には,冗長な情報を無視するのに読解の負担がかかるものの,誤解を生じる可能性は低いため,深刻さの程度は低い.したがって,コンピュータによる文章推敲支援の課題として,情報不足の検出と指摘の課題を扱うことが有用であると考える.本研究では,この課題を情報不足が読者に受容されるかどうかを判定する問題として扱い,コーパスベースの統計的言語処理に基づくアプローチを用いた手法を開発する. | |
V16N03-04 | インターネットの普及にともない,多種多様な電子情報が至るところに蓄積され,溢れている.我々は,インターネットを介して,時と場所を選ばず,即座にそれらの情報にアクセスすることができるが,その量は非常に膨大である.「情報爆発」というキーワードのもと,わが国でも文部科学省,経済産業省が新しいプロジェクトを立ち上げ,新技術の開発に取り組み始めている.この膨大な量の情報を人手で処理することは,不可能に近い.情報には文書,画像,音声,動画など様々なものがあるが,自然言語で書かれた文書情報は,その中で最も重要な情報の1つである.文書情報を機械的に処理する技術の研究,言い換えると自然言語処理技術の研究が極めて重要になっているのはそのためである.自然言語処理技術は,2つに大別される.コーパス(統計)ベースの手法とルール(文法規則)ベースの手法である.自然言語処理技術の1つである音声認識の精度のブレイクスルーがあったことにより,最近では,コーパスベースの手法が自然言語処理技術の世界を席巻している.これは網羅性のある文法規則を開発することが困難であったことが主な要因としてあげられる.これに対し,コーパスベースの手法は,そこから得られた統計データに文法規則性が反映されており,コーパスの量を増やすことで,文法規則性をより精密に反映させることができるという考えに基いている.ところが統計データからは陽に文法規則が取り出されるわけではなく,文法規則を取り出し,それをどう改良すべきかは分からない.文法規則は機械(コンピュータ)で扱うことができる規則でなければならない.多種多様な分野の日本語の文書処理を行う文法規則の数は,およそ数千の規模になると言われている.ところがこのような日本語の文法規則を言語学者ですら作成したという話をまだ聞かない.これに対し,コーパスベースの手法による日本語文の文節係り受け解析の精度は90\%に達する\cite{kudo:2002,uchimoto:99}.これがルールベースの方法が自然言語処理技術の中心ではなくなってきた大きな理由である.ところが,最近,コーパスベースの自然言語処理法も解析精度に飽和現象が見られる.精度をさらに向上させようとすれば,現存するコーパスの量を1桁以上増やさなくてはならないといわれている.これは,音声認識精度の向上でも問題になりはじめているが,コーパスの量を1桁以上増やすことは容易なことではない.この限界を越える技術として,闇雲にコーパスの量を増やすのではなく,ルールベースの方法を再考すべき時期に来ていると考えている.本論文では,一般化LR(GeneralizedLR;GLR)構文解析\cite{deremer:82,aho:86,tomita:91}に注目する.一般化LR構文解析は,文法(CFG)規則をLR構文解析表(LR表)と呼ばれるオートマトンに変換し,効率的に解析を行う\footnote{一般化LR構文解析は,構文解析結果の順序付けに確率一般化LRモデル\cite{inui:00,briscoe:93,charniak:96,jelinek:98}を用いることができるので,ルールベース手法にコーパスベース手法を融合したハイブリッドな方法であるといえる.}.このLR表には,CFG規則のほかに品詞(終端記号)間の接続制約(adjacentsymbolconnectionconstraints;ASCCs)を反映させることもできる.品詞間の接続制約を反映させることにより,接続制約に違反する解析結果を受理しないLR表を作成できるだけでなく,LR表のサイズ(状態数や動作(アクション)数)を縮小することもでき,その結果,構文解析の使用メモリ量や解析所要時間の削減,統計データを取り入れた場合の解析精度向上の効果の増大が期待できる.品詞間接続制約をCFG規則に直接反映させることも可能であるが,非終端記号の細分化によって規則数が組み合わせ的に増大し,CFG作成者への負担やLR表のサイズの増大を招く.品詞間接続制約のLR表への組み込み手法は,これまでにも提案されているが\cite{tanaka:95,li:95},従来の手法では,LR表中の不要な動作を十分に削除できない問題があった.本論文では新しい組み込み手法を提案し,従来の手法では削除できなかった不要な動作も削除できることを実験により示す.本論文の構成は以下のとおりである.第\ref{sec:mslr}節では,まず,一般化LR構文解析アルゴリズムを採用しているMSLRパーザ\cite{shirai:00}について説明し,従来の品詞間接続制約のLR表への組み込み手法の問題点を述べる.その問題点を踏まえ,第\ref{sec:improvement}節で新しい組み込み手法を提案し,第\ref{sec:evaluation}節で評価実験を行う.第\ref{sec:completeness}節では,提案アルゴリズムの完全性について考察を行う.最後に,第\ref{sec:conclusion}節で結論と今後の課題について説明する. | |
V06N06-02 | インターネット,イントラネットが急速に拡大し,情報洪水と呼ばれる程,多くの情報が氾濫している.氾濫する情報を効率良く入手する技術として,従来から,要約や抄録に関する研究が行なわれている\cite{tamura,hara,yamamoto}.これらの多くは,主に一つのドキュメントの内容を要約することに重点を置いているため,新聞やニュースのようなイベントに対して複数のドキュメントが存在する場合,時間的なイベントの変化のようなエピソード的な情報を構造化しにくいという問題がある\cite{yoshida}.情報を構造化して要約する手法としては,ドキュメントに対する重要項目をテンプレートとして準備し,テンプレートを用いて抽出した情報から要約を行なう手法がある\cite{mckeown,ando}.また,要約のためのテンプレートを,与えられた話題に関するドキュメント集合から自動的に抽出する手法も提案され,重要度を考慮したテンプレートの抽出が可能となっている\cite{yoshida}.実際のオフィス業務においては,イベントの経過情報や状況把握など分析的な情報選別のために,要約や抄録情報が求められる.この場合,ユーザの関心や意図が多岐に渡り,かつ,対象とする関連情報が大量に存在する.そのため,重要度を考慮するだけでなく,ユーザの様々な視点や観点から抄録情報をロバストに生成するフレームワークと,大量にある情報を大局的に把握するための要約が必要となる.一般に,要約(Abstract)とは,文書の中心的な話題を簡潔にまとめたものであり,抄録(Extract)とは文書から何らかの基準で文を抜き出しだしたものである.要約は,(1)indicative:読むか読まないか(2)informative:内容の要約(3)critical:要約+批評(4)comparative:サーベイというレベルに分けることができるが,内容の理解が必要となり,現在の技術では困難なものが多い\cite{paice}.抄録は,何らかの手かがりを元に重要な文を抜き出すことで,各文にスコアを付けてスコアの高いものを抜き出すことが多い.手法としては,キーワードの頻度によるもの,タイトルのキーワードを用いるもの,文の位置情報を用いるもの,構文関係を用いるもの,手がかりとなるキーワードを用いるもの,文の関係に着目するもの,などの方法が提案されている.エピソード抄録は,係り受け関係と固有名詞やパターン表現を手がかりとして,情報の要素をより詳細にインデクスして,時間的または位置的に情報をアレンジして抄録を作成する手法である.本稿では,時間表現,固有名詞,動作表現,動詞の格フレームに着目して,テキストに含まれるWho(だれが)・When(いつ)・Where(どこで)・What(なにを)・Why(なぜ)・How(どのように)・Predicate(どうした)といういわゆる5W1H情報を抽出して,時間や場所をソートキーとしたエピソード抄録,5W1H項目にシソーラスを適用して上位概念で要約する鳥瞰要約を提案する.5W1H情報は,日常の出来事を理解するためのキーとなっている概念であり,出来事の内容の核心部分を表現する.5W1H情報に着目することによって,オフィス業務における有効な抄録情報と大局情報を要約として生成することが可能となる.本報告では,まず,オフィス業務で求められる抄録と要約について説明し,次に,5W1H情報を用いたエピソード抄録と鳥瞰要約について説明する.そして,5W1H情報抽出の手法について述べ,エピソード抄録を新聞記事とセールスレポートに適用した事例と,鳥瞰要約を新聞記事情報に適用した事例を報告する. | |
V05N04-06 | バリアフリーというキーワードの下に各種福祉機器の開発やパソコンソフトの開発が企業や大学で進められている.なかでも視覚障害者向けには点字ピンディスプレイや音声合成装置などを用いて,コンピュータによる積極的な情報処理教育,職業訓練が行われている.このためにはコンピュータのマニュアルや教科書等を点字に翻訳する必要があるが,点字翻訳ボランティアの数は少なく,年間,一人のボランティアが翻訳できる専門書は3,4冊程度である.日本語を点字に翻訳するシステムは過去にいくつか提案されており,市販されているものもある.日本アイ・ビー・エムの嘉手川らは約77000語の基本単語辞書を用いて分かち書きと漢字かな変換を行うシステムを開発した\cite{kadekawa}.筑波技術短期大学の河原は市販の点字翻訳プログラムの誤りを解析し,ICOTの形態素解析辞書を用いて点字翻訳結果の改良を行うシステムについて報告している\cite{kawahara}.このような状況のなかで,点字翻訳ボランティアにとって最も時間がかかり,難しいとされている分かち書きを自動的に行い,かつ,誤っている可能性のある箇所を指摘して初級点字翻訳ボランティアの分かち書きを支援する方法について考察し,試作システムを構築したのでそれについて報告する\cite{Suzukietal1997a},\cite{Suzukietal1997b},\cite{Suzukietal1997c}.一方,対話システムとしては,最近,情報機器との自然なコミュニケーションを目指して様々な対話システムやユーザインタフェースの研究が行われている\cite{hatada}.ここでは筆者らの提案する対話型システムに最も類似した機能をもつと考えられる,畑田らのOCRの誤り修正支援システムとの比較検討を行う. | |
V07N04-07 | \label{sec:introduction}これまでに開発されている機械翻訳システムの多くはトランスファ方式に基づいており,原言語の性質だけに依存する解析辞書・規則と,原言語と目的言語の両方の性質に依存する対照辞書・規則が個別に記述されている.他方,翻訳対象言語対と翻訳方向を固定した上で,解析知識の記述を,原言語の性質だけでなく目的言語の性質も考慮に入れて行なうという設計方針もある.このような方針を採ると,ある原言語(例えば日本語)の解析知識を,異なる目的言語へのシステム(例えば日英システムと日中システム)で共用できるというトランスファ方式の利点が失われ,別の目的言語へのシステムを開発する場合には新たな解析知識の記述が必要になる.しかし,当面,ある特定の原言語から特定の目的言語への翻訳に焦点を絞れば,以下のような利点が得られる.\begin{enumerate}\item原言語の表現と目的言語の表現を比較的表層のレベルで対応付けることができる.例えば動詞と補足語との結合関係は,翻訳対象と翻訳方向を日本語テキストから英語テキストへの翻訳に固定した場合,日本語の助詞と英語の前置詞との対応として記述できる.従って,結合関係を深層格として抽象化する必要がなくなり,深層格の認定基準の設定などの困難が避けられる.\item翻訳対象言語対と翻訳方向を固定しない場合,ある目的言語の生成には必要ないが別の目的言語の生成には必要な情報も解析過程で抽出しておく必要がある.これに対して,翻訳対象と翻訳方向を固定すると,原言語を解析する知識を記述する際に目的言語の性質を考慮することが可能になるため,目的言語の生成に必要な情報のみを抽出すればよくなり,無駄な処理が避けられる.\end{enumerate}このようなことから,我々のシステムTWINTRANでは,目的を日英翻訳に限定した上で,英語の適切なテキストを生成するためには日本語テキストがどのように解析されていなければならないかという観点から辞書と全規則群を記述している.辞書では,英語に翻訳する際にこれ以上分解するとその意味が変化してしまう表現はそれ以上分解せずに一見出しとして登録する(\ref{sec:analysis:dict}\,節).構文解析規則では,動詞と補足語との結合関係を日本語の助詞とその英訳との対応に基づいて区別し,動詞型を日本語の結合価パターンと英語の結合価パターンとの対に基づいて設定する(\ref{sec:analysis:syn}\,節).また,日本語の連体従属節を英語の関係節に翻訳するための関係詞決定規則を設ける(\ref{sec:analysis:rel}\,節).日本語で明示することは希であるが英語では明示しなければならない言語形式上の必須情報(名詞句の定/不定性の区別や,動詞の主語や目的語になる代名詞など)を得るために,照応解析規則を陳述縮約パラダイム\cite{Jelinek95}に基づいて記述する(\ref{sec:analysis:integ:cor}\,節).TWINTRANと同じように日本語の解析知識を日英対照の観点から記述しているシステムとして,ALT-J/E\cite{Ikehara96,Nakaiwa97}や,US式翻訳システム\cite{Shibata96a,Shibata98}などがこれまでに報告されている.これらのシステムでも照応解析が行なわれているが,構造を持たない言語表現の間で成立する照応すなわち語と語の間の照応の解析に留まっている.これに対してTWINTRANでは,文や句など構造を持つ言語表現間の照応も扱う\footnote{より精度の高い解析を実現するためには,構造を持つ表現の意味をその部分から導き出す必要があるが,その実現は今後の課題である.}.機械翻訳システムにおける重要な課題の一つは,テキスト解釈の曖昧性を解消し妥当な解釈を一意に決定することである.曖昧性解消へのアプローチには,言語知識を絶対的な基準(制約)とみなす立場と,相対的な比較基準(選好)とみなす立場がある\cite{Nagao92}.前者では,ある解釈を受理するか棄却するかの判断は,その解釈と他の解釈を比較せずに行なわれる.これに対して後者では,ある解釈の選択は他の解釈との比較に基づいて行なわれる\cite{Wilks78,Tsujii88b,Shimazu89,Hobbs90,Den96}.TWINTRANでは後者の立場から,各規則に優先度を付与し,それに基づいて解釈の候補に優劣を付け,候補の中から最も優先度の高い解釈を選択することによって曖昧性の解消を行なう.テキスト解析では,形態素解析規則から照応解析規則に至るまでいくつかの種類の規則が利用され,それぞれ異なる観点から一つの解釈の良さが評価される.このとき,ある種類の規則による解釈の良さと他の種類の規則による解釈の良さが競合する可能性があるため,各観点からの評価をどのように調整するかが重要となる.TWINTRANでは,構文,共起的意味,照応に関する各規則による優先度の重み付き総和が最も高い解釈をテキストの最良解釈とする(\ref{sec:analysis:integ:balance}\,節).以下,\ref{sec:analysis:dict}\,節ないし\ref{sec:generation}\,節で各処理過程について説明し,\ref{sec:experiment}\,節で翻訳品質評価実験の結果を示す. | |
V07N04-05 | \label{sec:introduction}様々な状況で利用される機械翻訳システムが直面する現実の文には,システムが持つ言語知識では適切に解析できない様々な言語現象が現れる.このような現象を含む文は,人間にとっても適格でない(が理解できる)絶対的不適格文と,人間にとっては適格であるがシステムの処理能力を越えている相対的不適格文に分けられるが,両者を適切に扱える頑健なシステムが求められている\cite{Matsumoto94}.絶対的不適格現象のうち語句の欠落や主語述語の不一致などの構文レベルの現象へ対処することを目的とした手法としては,部分解析法\cite{Imaichi95}や制約緩和法\cite{Mellish89,KatoTsuneaki95}などがこれまでに提案されている.他方,我々は,相対的不適格文への対処に焦点を当て,機械翻訳システムの翻訳品質の向上を目指している.以降本稿では紛れない限り,相対的不適格文を単に不適格文と呼ぶ.構文レベルの不適格文すなわちシステムの解析能力を越えた構文構造を持つ文を扱うための代表的な手法には,1)対象テキストの分野を限定した専用文法を用いる手法\cite{Aizawa96}や,2)原文を書き換える手法\cite{Kim94,Narita94,Sagawa94,Shirai95,KatoTerumasa97}などがある.また,後者の手法に関連して,原文とそれを人間が書き換えた結果とを比較した差分から原文書き換え規則を学習する手法\cite{Yamaguchi98}も示されている.(1)と(2)の手法の設計方針は,システムの既存部分の変更を避け,新たな処理系を追加するという点で共通しているが,以下の点で異なっている.前者の手法では,システムの既存部分による処理は,可能な場合には,新たに追加した処理系による処理によって代行される.すなわち,新たな処理系による解析(分野依存の専用文法による解析)が成功した場合には,既存の処理系による解析(汎用文法による解析)は実行されない.これに対して後者では,新たに追加した処理系は既存部分の前処理系と位置付けられる.原文書き換えによる手法は,書き換えを構文解析の前に行なうか後に行なうかによって二つに分けられる.構文解析後に行なう場合\cite{Sagawa94,Shirai95}\footnote{白井らは,文献\cite{Shirai98}で,一部の書き換えを構文解析前に行なうように拡張を施しているが,書き換え規則の多くは構文解析後に適用される.}は,構文情報が得られているため,構文解析前すなわち形態素解析後に行なう場合に比べてより翻訳品質の高いシステムが実現できる可能性がある.しかし,実用的な機械翻訳システムにおいて原文書き換えの実行を構文解析終了後まで遅らせることは,処理効率の点では望ましくない.なぜならば,入力文全体を覆う構文構造が生成できず構文解析に失敗すること\footnote{以降本稿では,入力文全体を覆う構文構造が生成できないことを構文解析の失敗と呼ぶ.}が判明するのは構文解析規則をすべて適用し終えた後であるが,実用的な機械翻訳システムでは構文解析規則の規模は非常に大きくなっており,構文解析に要する時間は解析全体に要する時間の大半を占めているため,構文解析後の書き換えは処理の効率化につながりにくいからである.これに対して,構文解析が失敗しないようにあらかじめ原文を書き換えれば,すべての構文解析規則の適用が試みられる可能性は低くなるため,システム全体として効率の良い処理が実現できる.また,構文情報が(ほとんど)得られていない時点で行なう書き換えがどの程度有効であるかを明らかにすることも重要である.このような観点から本稿では,形態素解析で得られる情報と通常よりも簡単な構文解析\footnote{具体的には,\ref{sec:preedit:ruleformat:condition}\,節で述べる手続きによる処理を指す.}で得られる情報に基づいて原文書き換えを構文解析前に行なうことによって翻訳品質と共に翻訳速度を改善する手法を示す.以下,本稿で扱う書き換え対象を\ref{sec:object}\,節で整理する.次に\ref{sec:preedit}\,節で原文書き換え系の処理枠組について説明する.\ref{sec:experiment}\,節では,原文書き換え系を既存の英日機械翻訳システムに組み込み,システムの性能向上にどの程度貢献できるかを実験によって検証する.\ref{sec:relatedworks}\,節では関連研究との比較を行なう. | |
V15N02-05 | 近年,Webの普及や様々なコンテンツの増加に代表される不特定多数の情報の取得や不特定多数への情報の発信が容易になったことで,個人が取得できる情報の量が急激に増大してきている.個人が取得できる情報量は今後さらに増え続けるだろう.このような状況は,必要な情報を簡単に得られるようにする一方で不必要な情報も集めてしまう原因になっている.この問題を解決する方法として大量の情報の中から必要な情報だけを選択する技術が必要で,これを実現する手段として検索,フィルタリング,テキストマイニングが挙げられる.このような技術はスパムメールの排除やWebのショッピングサイトの推薦システム等で実際に使われている.本論文では大量の情報の中から必要な情報を取得する手段として人間の興味に着目し,文書に含まれる語句及び文書自体に興味の強弱を値として付与することを提案する.本論文では,不特定多数の人がどの程度興味を持つかに注目した.すなわち不特定多数を全体とした大衆に対する興味の程度である.興味の強弱を語句及び文書自体に付与することにより人間の興味(文書の面白さ,文書の注目度)の観点で情報を選別することが可能となるだけではなく,興味の強弱を値として与えることで興味がある・ないの関係ではなく興味の強さの程度を知ることができる.また,文書に含まれる語句に与えた興味の強弱の値から文書のどの部分が最も興味が強いか明らかになるため,文書のどの部分が興味の要因となるのか分析を行うことが可能である.このように語句の興味の強弱自体を明らかにすることは,例えばタイトル作成や広告等において同一の意味を示す複数の語句の中から興味が強い語句を選択する際の基準として利用できるため,興味を持ってもらえるように文書を作成する支援となることが期待できる.さらに,Web上でのアクセスランキングなどはアクセス数の集計後に知ることのできる事後の情報である.本論文の文書自体に付与する興味の強弱の値を利用することでこの順位を事前に予測することが可能となり,提示する文書の選択や表示順の変更などをアクセス集計前に利用することが期待できる.大衆の興味が反映されているデータに注目することでこのような大衆の興味を捉えることが出来ると考える.また興味を持つことになった原因と持たれない原因を分析する手がかりになると期待できる.本論文では,多くの人が興味を持つ文書を判断するため,まず興味の判断に必要な素性を文書から抽出する.次に抽出した素性に興味の強弱を値で推定して付与する.さらに興味の強弱の値が付与された素性から文書自体の興味の強弱を推定する.\ref{sec_興味}章にて本論文で対象とする興味,\ref{sec_関連}章にて関連研究,\ref{sec_rank}章で順位情報の詳細,\ref{sec_method}章で提案手法について述べ,\ref{sec_expeval}章で評価実験及び考察を行う.さらに\ref{sec_method2}章で提案手法の拡張について述べ,その評価を\ref{sec_evalexp2}章にて行う. | |
V20N05-03 | \label{sec:hajimeni}インターネットの普及により,個人がWeb上で様々な商品を購入したり,サービスの提供を受けることが可能になった.また,これに伴い,商品やサービスに対する意見や感想が,大量にWeb上に蓄積されるようになった.これらの意見や感想は,ユーザが商品やサービスを購入する際の参考にするだけでなく,企業にとっても商品やサービスの改善を検討したり,マーケティング活動に活用するなど,利用価値の高い情報源として広く認識されている.近年ではさらに,ユーザ参加型の商品開発が注目されるなど,ユーザと企業とがマイクロブログやレビューサイト等のソーシャルメディアを通して,手軽に相互にコミュニケーションを持つことも可能となっている.そして,このようなコミュニケーションの場においては,いわゆる「クレーム」と呼ばれる類のユーザの意見に対して企業側は特に敏感になる必要があり,ユーザが発言したクレームに対しては,適切に対応することが望まれている.しかしながら,このようなコミュニケーションの場では,次のような理由からユーザのクレームを見落としてしまう懸念がある.\begin{figure}[b]\input{03fig01.txt}\caption{クレームが含まれたレビューの例1}\label{fig:review}\end{figure}\begin{figure}[b]\input{03fig02.txt}\caption{クレームが含まれたレビューの例2}\label{fig:review2}\end{figure}\begin{itemize}\item見落とし例1:特に,マイクロブログ型サービスを通したコミュニケーションでは,多対一型のコミュニケーション,つまり,大勢のユーザに対して少数の企業内担当者が同時並行的にコミュニケーションを持つことが多く,そのため,一部のユーザが発言したクレームを見落としてしまう可能性がある.\item見落とし例2:特に,レビューサイトを通したコミュニケーションでは,ユーザは様々な意見をひとつのレビュー文書中に書き込むことが多く,その中に部分的にクレームが埋め込まれることがある(\fig{review}および\fig{review2}に例を示す.下線部がクレームを示す).この場合,レビューの中からクレームを見つける必要があるが,これらの一部を見落としてしまう可能性がある.\end{itemize}本論文では,上記のうち,2つ目の見落とし問題に対処すべく,レビューからクレームを自動検出する手法について述べる.より具体的には,まず,文単位の処理を考え,\tab{data_detail}のような内容を含む文を「クレーム文」と定義する.そして,レビューが入力された際に,そのレビュー中の各文のそれぞれに対して,それらがクレーム文かそうでないかを自動判定する手法について検討する.\begin{table}[b]\caption{クレーム文の定義}\label{tab:data_detail}\input{03table01.txt}\end{table}これまで,テキストからクレームを検出することを目的とした先行研究としては,永井らの研究\cite{nagai1,nagai2}がある.永井らは,単語の出現パタンを考慮した検出規則に基づいたクレーム検出手法を提案している.しかしながら,彼らの手法のように人手で網羅的に検出規則を作成するには,作成者がクレームの記述のされ方に関する幅広い言語的知識を有している必要がある.また,現実的に検出規則によって運用するには,膨大な量の規則を人手で作成・維持・管理する必要があり,人的負荷が高いという問題がある.この問題に対する解決策のひとつとして,教師あり学習によって規則を自動学習することが考えられるが,その場合でも,事前に教師データを準備する必要があり,単純には,教師データの作成に労力を要するという別な問題が発生してしまう.本論文では,上記のような背景を踏まえて,人的な負荷をなるべく抑えたクレーム検出手法を提案する.より具体的には,レビュー文書からクレーム文を自動検出する際の基本的な設定として,テキスト分類において標準的に利用されるナイーブベイズ・モデルを適用することを考え,この設定に対して,極力人手の負荷を軽減させるために,次の手続きおよび拡張手法を提案する.\begin{itemize}\item評価表現および文脈一貫性に基づく教師データ自動生成手法を提案する.従来,学習用の教師データを作成するには負荷の高い人手作業に頼らざるを得なかったが,本研究では既存の言語資源と既存の知見に基づくことで,人手作業に頼らずに教師データを自動生成する手法を提案する.\item次に,上記で生成された教師データに適したモデルとなるように拡張されたナイーブベイズ・モデルを提案する.上記の提案手法によって生成された教師データは自動化の代償として人手作成されたデータと比べて質が劣化せざるを得ず,標準的な分類モデルをそのまま適用するだけでは期待した精度は得られない.本研究では上記のデータ生成手法で生成されるデータが持つ特性を踏まえて,ナイーブベイズ・モデルを拡張する.\end{itemize}提案手法では,従来手法で問題となっていた検出規則の作成・維持・管理,あるいは,規則を自動学習するために必要となる教師データの作成にかかる人手負荷は全くかからない利点をもつ.本論文では,上記の手続きおよび拡張手法について,実データを用いた評価実験を通して,その有効性を検証する.本論文の構成は以下の通りである.まず\sec{gen}で教師データの自動生成手法について説明する.その後,\sec{model}でナイーブベイズ・モデルの拡張について説明し,\sec{exp}で評価実験について述べる.\sec{related}で関連研究を整理した後,\sec{owarini}で本論文をまとめる. | |
V03N04-05 | 自然言語処理のための言語リソースとして語彙辞書が最も基本となるが,構文構造の基本となる構成要素は,2文節間あるいは2単語間の係り受け構造である.係り受け関係は,CFG規則の最も単純な形式であるチョムスキ標準形と見なすことができる.通常この関係は共起関係と呼ばれている.本論文は,文法規則というよりは言語データの一種と見なせる共起関係を用いて日本語の係り受け解析を行い,かつ更新,学習機能を取り入れることにより,カナ漢字変換に見られるような操作性の良さを有する簡便な日本語係り受け解析エンジンを提示することを目的とする.これまで共起関係による自然言語解析には,\cite[など]{Yoshida1972,Shirai1986,TsutsumiAndTsutsumi1988,Matsumoto1992}の研究がある.\cite{Yoshida1972}は本論文に最も関係するもので係り受けによる日本語解析の基礎を与えるものである.\cite{Shirai1986}は日本語の共起関係の記述単位として品詞と個別単語との中間に位置すると見なせるクラスター分類で与えるとともに半自動的にインクリメンタルに共起辞書を拡大することを述べている.\cite{TsutsumiAndTsutsumi1988}は英語に関して動詞の格ペアーとして共起関係を捉えている.\cite{Matsumoto1992}は英語構文解析の規則に共起関係を抽出する補強項を付け加へ,2項以上の多項関係を解析時に自動的に抽出している.しかし,いずれのシステムも共起関係だけから実用規模の係り受け解析を構築したものはない.一般に共起関係は\cite{Yoshida1972}を除き係り側の自立語と付属語(機能語)列および受け側の自立語(終止形)で論じられることが多い.その際,係り側の付属語は両方の自立語の表層格(関係子)として考えられている.\cite{Yoshida1972}は二文節間の関係に着目して受け側も自立語と付属語列として考察した.さらに機械処理の観点から,付属語・補助用言・副詞などの語は個々の単語で記述し,他の語は品詞水準で扱った.これを準品詞水準と称している.本論文では,副詞も含めてすべて自立語は品詞で記述し,付属語列はリテラルで表現することにする.品詞に縮退させているためこれを縮退型共起関係あるいは省略して単に共起関係と呼ぶ.本論文では,実際の文章から機械的に抽出した係り受け関係を共起データとし,いわゆる文法規則の類を一切使用せずに係り受け解析システムを構築する.その際,共起関係の構文情報の中に連続性の概念を導入して,これまで文法的には曖昧であるとされていた構造も本質的に曖昧性が解消出来ているのではないが,実際の文章では出現頻度が少ないとか,分野を限定すれば同一文体が続く傾向があるために係り受けパターンを絞り込めるのではないかと予想して開発した.これは最近研究の盛んなコーパスに基づく統計的言語処理の一つの試みにもなる.また単純な形式の共起関係のみを用いて解析を行うため,日本語の係り受け解析で一文ごとに規則に相当する共起関係を学習する機能を持たせることができ,共起関係の更新機能と併用することで従来のものと比較して,柔軟性,拡張性に富んだシステムが得られる.以下,\ref{data-str}章では,構文構造と共起関係のデータ構造を定義する.\ref{new-ana}章では本共起関係を用いた学習機能付き日本語係り受け解析システムを説明する.\ref{eval}章では解析システムの実験結果を示し,評価を行う. | |
V26N02-08 | \label{sec:introduction}述語項構造解析は,様々な自然言語処理アプリケーションの土台となる技術である.本研究が対象とする日本語のような談話指向言語では,文から項が省略されることが多い\cite{kayama2013}.これらの省略された項は,ゼロ代名詞とみなされる.項は述語との係り受け関係があるか否かにより,係り受け関係有りかゼロ照応かに分けられる.ゼロ照応は,項がテキスト中に現れるか否かにより,文脈照応か,外界照応かに分けられる.文脈照応は,項が述語と同一文内に出現するか否かにより,文内照応か,文間照応に更に分けられる.\vspace{0.5\Cvs}{\small例1.1)\メールを\書いて$_{v_1}$\送ったよ$_{v_2}$.\quad読んでね$_{v_3}$.}\vspace{0.5\Cvs}例えば,例~(1.1)は,3つの述語($v_1$,$v_2$,$v_3$)と1つの明示的な項候補(メール)を含んだテキストである.例~(1.1)を述語項構造解析した結果は表~\ref{tab:pasa-result}のようになる.ここで,角括弧で囲まれた要素は外界照応,丸括弧は文内照応,二重丸括弧は文間照応である.$v_1$のヲ格の項である「メール」は,格標識「を」によって明示的に示されており,$v_1$との係り受け関係を持っている.このような名詞は,括弧をつけないで示している.また,ラベル\noneは,述語がその格に対して,項を取らないことを示している.\begin{table}[b]\caption{例(1.1)の述語項構造解析結果}\label{tab:pasa-result}\input{08table01.tex}\end{table}日本語述語項構造解析は,意味役割付与\cite{Zhou-End-2015,He-Deep-2017}タスクと類似しているが,ゼロ代名詞の照応解析と,表~\ref{tab:pasa-result}において角括弧で示されている外界照応の同定まで行う点において異なる.日本語述語項構造解析は,単語が省略されうるという点において,中国語やトルコ語,またロマンス語であるスペイン語,ポルトガル語のようなnull-subject言語におけるゼロ照応解析と類似している\cite{Iida-A-2011,Rello-Elliphant-2012,Chen-Chinese-2016,Yin-Chinese-2017}.過去の日本語述語項構造解析の研究では,形態素及び,構文解析から得られた様々な特徴を利用している\cite{Matsubayashi-Revisiting-2017,Hayashibe-Japanese-2011,Imamura-Predicate-2014,Shibata-Neural-2016,Ouchi-Joint-2015,Yoshikawa-Jointly-2013,Taira-A-2008}.近年のアプローチでは,中間解析を必要としないend-to-endの手法による解析もある\cite{Ouchi-Neural-2017,Matsubayashi-Distance-2018}.本論文は,日本語の文内述語項構造解析を対象とし,以下の2つの貢献をした.第一に,文内述語項構造解析において,外界照応の一部を取り入れるように問題を整理した点である.そのために,本研究では,外界照応を3つのサブカテゴリ,つまり,書き手である外界一人称(\exow),読み手である外界二人称(\exor),その他の外界三人称\footnote{今回使用したコーパスでは「外界一般」とされているが,本論文では,外界一人称,外界二人称と対比させ,外界三人称と呼ぶこととする.}(\exox)に分類する.日本語のような談話指向言語では,2者間で行われる会話の際,外界一人称,外界二人称が省略されることが多い.そのため,文内述語項構造解析においても外界一人称,外界二人称まで解析することは必要であると我々は考えている.例~(1.2)は,サブカテゴリ化の必要性を示している.\vspace{0.5\Cvs}{\small例1.2)\サンドイッチ\食べる$_{v}$}{\small\phantom{例1.2)}\(私は)サンドイッチを食べる./(あなたは)サンドイッチを食べる?}\vspace{0.5\Cvs}外界照応の書き手(\exow)と読み手(\exor)の両方が,動詞「食べる」の項候補であり,どちらを取るかにより文の意味が変わってくる.これら,2つの意味を区別するために外界照応のサブカテゴリ化が必要である.第二に,日本語述語項構造解析に分野適応の技術を導入する.\citeA{Surdeanu-The-2008}と,\citeA{Hajic-The-2009}は訓練データとテストデータの分野(メディア)が異なると,意味役割付与の性能が低下することを報告している.\citeA{Yang-Domain-2015}は,深層学習手法に分野適応を導入することでこの問題に対して取り組んだ.\citeA{Imamura-Predicate-2014}を除いて,日本語述語項構造解析の過去の研究のほとんどが,新聞記事という単一の種類のテキストのみを対象としていたため,分野依存性は問題ではなかった.対話文を解析するために\citeA{Imamura-Predicate-2014}は新聞記事を使って述語項構造解析器を訓練している.また,\citeA{Taira-Business-2014}は,ビジネスメール文を解析するために,新聞記事を使って述語項構造解析器を訓練している.その結果,係り受け関係にある述語項や,同一文内にある述語項の場合は,学習済みモデルを比較的流用できる可能性があるが,外界照応については訓練データが足りず解析精度が低いためモデルを作り直す必要があることを述べている.しかし,その他の種類のメディアのテキストについて,述語項構造解析を行った研究はこれまで行われていない.我々は様々な種類のメディアのテキストを日本語述語項構造解析の対象とするために,現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://pj.ninjal.ac.jp/corpus\_center/bccwj/en/}\cite{Maekawa-2014aa}を使用した.BCCWJには,紙媒体として,新聞記事,書籍,雑誌,白書といったメディアのテキスト,電子媒体として,インターネット上のQAテキスト,ブログテキストといった様々な種類のメディアから集められたテキストを含んでいる.我々は,約200万の単語から構成され,共参照と述語項関係が注釈付けされたBCCWJのコアデータセット(BCCWJ-PAS)を使用した.次章で詳述するが,外界照応の出現分布はメディアによって大きく異なるため,そのテキストのソースメディアを考慮する必要がある.本研究では,リカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)ベースのベースモデルから始め,以下の5種類の分野適応手法を導入し,各手法の有効性を評価\linebreakする.\begin{enumerate}\itemFine-tuning({\ttFT})手法では,まず,訓練データ全体を用いてモデルを学習させる.学習されたパラメータを初期値とし,ターゲット領域のメディアの訓練データを用いて第2段階の学習を行う.\itemFeatureaugmentation({\ttFA})手法では,全体で共有されるネットワークと分野固有のネットワークを同時に訓練する\cite{Kim-Frustratingly-2016}.分野共通の知識は共有のネットワークで,分野固有の知識は分野固有のネットワークで学習されることを期待している.\itemClassprobabilityshift({\ttCPS})手法では,項の種類毎に,項の出現確率の事前分布が分野によって異なることを考慮し,ネットワークが出力する確率にバイアスをかける.\itemVoting({\ttVOT})手法では,上記3つの手法による多数決をとり,出力を決定する.\itemMixture({\ttMIX})手法では,上記(1)から(3)の3つの手法を単一のネットワークに組み合わせる.\end{enumerate}各手法の詳細は,\ref{sec:domain-adaptation}節にて説明する.\subsection{本論文の構成}本論文は次のように構成されている.第~\ref{sec:problem-setting}章では,日本語述語項構造解析における既存研究と本研究の位置付け,コーパスを分析して得られた述語項構造解析の分野依存性について述べる.第~\ref{sec:deep-reccurent-model}章では,本研究において使用するリカレントニューラルネットワークベースのモデルについて詳述する.第~\ref{sec:domain-adaptation}章では,第~\ref{sec:deep-reccurent-model}章で提案したベースラインモデルに対して導入する5種の分野適応手法について詳述する.第~\ref{sec:experiment}章では第~\ref{sec:deep-reccurent-model}章,及び,第~\ref{sec:domain-adaptation}章で説明したベースラインと分野適応を行ったモデルに対しての評価実験結果とその考察を述べる.第~\ref{sec:conclusion}章では,評価実験・考察を踏まえ,今後の方向性を示し結論とする. | |
V03N04-01 | \label{sec:1shou}最近,国文学の分野においても,文学作品のテキストをコンピュータに入力し,研究に活用しようとする動きが盛んである~\cite{dbwest:95}.これは日本語処理可能なパソコンなどの普及により,国文学の研究者が,自分の手でデータを作成する環境が整ってきたことによる.すでに,多くの文学作品が電子化テキストとして作成され,蓄積され,流通され始めてきている.例えば,村上ら~\cite{murakami:89}による語彙索引作成を目的とした幸若舞の研究は,最も初期のものである.これは田島ら~\cite{tazima:82}により,万葉集を始めとする多くの文学作品の電子化テキスト作成の試みに引き継がれている.最近では,内田ら~\cite{utida:92}は情報処理語学文学研究会の活動を通じて,パソコン通信などにより電子化テキストの交換を行っている.また,伊井,伊藤ら~\cite{ii:93,ito:92}による国文学データベースの作成と電子出版活動も注目されている.とくに,源氏物語諸本の8本集成データベースや国文学総合索引の研究成果がある.一方,長瀬~\cite{nagase:90}は源氏物語の和英平行電子化テキストを作成し,オックスフォード大学に登録し公開した.また,出版社による電子化テキストの提供サービスも始まっている~\cite{benseisha:93,iwanami:95}.しかしながら,大きな問題がある.一般に,研究者は自分のためのデータを作っている.そのため,システム,文字コ−ド,外字処理,データの形式や構造などに関しての仕様が,研究者個人に依存している.さらに,蓄積した情報資源の流通をあまり意識していない.すなわち,苦労して蓄積したデータが活用されにくく,また同じ作品の重複入力の問題などが指摘されている.したがって,データ入力の共通基盤の確立と適切な標準化が必要である.とくに,文学作品の電子化テキストを作るためのデータ記述ルールが必要である.現在,人文科学のための定まったデータ記述のルールは無い.SGML:StandardGeneralizedMarkupLanguage~\cite{JIS:94}に基礎をおくTEI:TextEncodingInitiativeなどの活動~\cite{burnard:94}があるが,その成果は未だ実用化に至っていない.とりわけ,人文科学領域の日本語テキストへの適用は,国文学における数例~\cite{hara:95}を除けばほとんど無い.国文学研究資料館において,電子化テキストのデータ記述についての試みがなされてきている~\cite{yasunaga:92,yasunaga:94,yasunaga:95b,kokubun:92}.例えば,日本古典文学大系(岩波書店),噺本大系(東京堂出版)などの全作品の全文データベースの開発が進められている.また,最近では正保版本歌集「二十一代集」を直接翻刻~\footnote{国文学の用語はまとめて,付録\ref{sec:furoku1}で解説している.なお,国文学ではテキストを本文(ホンモン)と言う.以下では本文を用いる.}しながら,データベースに構築している.これらはテキストのデータベース化を指向したものであるが,テキストデータの記述のための基準文法が定められている.この基準文法をKOKIN(KOKubungakuINformation)ルールと呼んでいる.KOKINルールは国文学作品を対象とする電子化テキスト記述用のマークアップ文法である.本稿は,国文学作品テキストのデータ記述文法について述べている.第2章では,電子化テキストの目的と研究対象をまとめ,データ記述の考察上不可欠と考えられる本とテキストの情報構造を分析し,まとめている.第3章では,データ記述のルール化のための基本原則を考察している.作品とテキストの構造記述が必要なこと,及びテキスト表記の記述が必要なことなどをまとめている.第4章では,KOKINルールを3つの基本ルールに分けて定義し,それぞれについて考察している.第5章では,実際のデータ作成とそれに基づくデータベース作成の事例などから,KOKINルールを評価している.研究成果としては,すでに国文学研究資料館において,本文データベースとして試験運用が開始されている.研究者による利用結果からは,文学研究に有用であるとの評価を得,概して評判がよい.最後に,問題点などを整理している. | |
V04N01-04 | 英語前置詞句(PrepositionalPhrase,PP)の係り先の曖昧性は文の構造的曖昧性の典型例をなすものである.その解消は自然言語処理における難題の一つとしてよく知られている.この問題の解決法には,大略,構文構造に基づく手法,知識に基づく手法,コーパスに基づく手法,シソーラスに基づく手法がある.構文構造に基づく手法は,文の構成素の結び付き関係を構文情報によって決めようとするものである.この手法の代表例に,RightAssociation(Kimball1973)とMinimalAttachment(Frazier1978)がある.RightAssociationでは,文の構成素は右側に隣接する句と結び付く傾向があると考え,MinimalAttachmentでは,構成素はより大きな構造に係る傾向があると見る.こうして,前置詞句はRightAssociationでは名詞句(NP)に,MinimalAttachmentでは動詞句(VP)に係る傾向を示す.構文構造に基づく手法には係り先を決めるのが簡単で,意味分析や特定の知識に依存しないという利点がある.しかし,係り先決定の正解率は低く実用性も低い(Whittemore,FerraraandBrunner1990).知識に基づく手法は,世界知識や対話モデルを用いて曖昧性の解消を試みるものである(DahlgrenandMcDowell1986;JensenandBinot1987など).この手法では,ドメインを限定し,その範囲での知識の利用が有効にできれば高い正解率が得られる.しかし,現在の知識表現技術では知識の獲得が難しく,コスト面の問題もある.コーパスに基づく手法は,コーバスから諸種の情報を抽出した上で係り先の確率を計算し曖昧性を解消するものである.近年,大規模のタグつきコーバスの開発が進み,コーパスに基づく言語研究が活発になっている.Hindleら(1993)の提案した語彙選好(lexicalpreference)モデルは,コーパスから自動的に抽出した動詞,目的語となる名詞,それと前置詞の出現頻度によりLA(lexicalassociation)scoreを計算し,その値によって前置詞句が動詞か名詞のどちらに係るかを判断している.コーパスに基づく手法は曖昧性の解消の有望な方法であることが認められている.しかし,この手法は希薄なデータ(sparsedata)の問題を抱えている.また,現状ではコーパスの資源や計算量の膨大さの問題もある.シソーラスに基づく手法は,シソーラスや機械可読辞書の情報を利用し,あるいはシソーラスと例文を利用することによって,前置詞句の曖昧性の解消を行うものである(JensonandBinot1987;Nagao1992;隅田ら1994など).この手法では特定のドメインで高い正解率を達成している.しかし,ドメインを限定しない場合,単語の多義性によって係り先の決定率が著しく低下する傾向がある.また,シソーラスや辞書にはカバーする情報が分野によって不均一であることや意味の粒度の問題もある.本稿では概念情報に基づく曖昧性の解消手法(ConceptualInformationBasedDisambiguation,CIBD)を提案する.ここでは,まず言語知識と曖昧性解消に使っている世界知識から,いくつかの一般的な係り先決定ルール(選好ルールとよぶ)を抽出する.選好ルールは係り先決定に際し,概念情報をはじめ,語彙情報,構文情報と共起情報を利用している.もし,選好ルールによって一意的に係り先が決まらない場合は,コーパスから得られるデータにより係り先の確率計算をし,その結果により係り先を選択する.以下,最初に機械可読辞書から抽出する概念情報を使っての曖昧性解消について述べる.その後で,選好的曖昧性解消モデル(PreferentialDisambiguationModel)を提案し,選好ルールを述べる.最後に,この手法によって行った曖昧性解消の実験結果を示し,本手法の有効性を論ずる. | |
V25N03-02 | \label{introduction}ある二つの文について,それぞれの文がどのような意味を持ち,一方の文と他方の文とがどのような意味的関係にあるかという文間の関連性の評価は,情報検索や文書分類,質問応答などの自然言語処理の基盤を築く重要な技術である.これまでの自然言語処理における文の意味表現の方法は,ベクトル空間モデルが主流である.情報検索においては,単語や文字の出現頻度といった表層的な情報を用いて,統計的機械学習に基づいて文ベクトルを導出する手法が用いられてきた.また,さらに正確な文の意味表現を目指して,単語やフレーズといった構成要素を組み合わせて文の意味を計算するベクトル空間モデル~\cite{Find-similar,mitchell2010composition,DBLP:conf/icml/LeM14}が提案されてきた.近年では,深層学習を用いて高精度で文の意味表現を獲得する手法~\cite{MuellerAAAI2016,hill-cho-korhonen:2016:N16-1}が多く提案されている.これらの手法では,単語ベクトルや文字ベクトルを入力として学習を行い,文ベクトルを獲得しているが,獲得した文ベクトルが否定表現や数量表現などを含む文の意味を正確に表現しているかは自明ではない.たとえば,\textit{Tomdidnotmeetsomeoftheplayers}と\textit{Tomdidnotmeetanyoftheplayers}という文はほとんど単語が共通しており,\textit{some}や\textit{any}といった機能語は通常捨象されるか,ほぼ同じ単語ベクトルとして扱われる.しかし,前者は「\textit{Tom}は選手の何人かとは会わなかった(別の何人かの選手とは会った)」,後者は「\textit{Tom}はどの選手とも会わなかった」という意味を表しており,これらの文の意味の違いを単語や文字からの情報を用いてどのようにして捉えるかが課題となっている.そこで,統語構造を考慮したモデルなど,より高度な意味解析を取り入れたモデルの構築が期待されている.一方で,文の意味を論理式で表現し,論理推論によって高度な意味解析を行う手法~\cite{D16-1242,mineshima2016building,abzianidze:2015:EMNLP,abzianidze:2016:*SEM}は,論理式による意味表現と整合性の高い組合せ範疇文法(CombinatoryCategorialGrammar,CCG)~\cite{Steedman00}による頑健な統語解析の発展に伴い,近年研究が進められている.論理推論を用いた手法は,文ペアに対して一方の文を他方の文が内容的に含意しているかどうかを判定する含意関係認識のタスクで高精度を達成しており,様々な自然言語処理タスクへの応用が期待されている.一方で,論理推論を用いた手法は元来厳密な手法であり,部分的・段階的な含意関係や類似関係を扱うことが困難である.そこで本研究では,機械学習と論理推論とを組み合わせることで,柔軟かつ正確に文の関連性を学習する方法を検討する.具体的には,文の意味を論理式で表現し,2文間の双方向の含意関係について自然演繹による推論を試み,推論の過程と結果を抽出する.このとき,必要に応じて,文間の意味的関係を正しく判定するために必要な語彙知識を公理として追加して推論を試みる.語彙知識の利用によって文間の意味的関係が判定できれば,純粋な論理推論だけでは意味的関係を判定できない文ペアにおいても,部分的な推論過程から文の関連性を示す情報を抽出することが可能となる.抽出した推論の過程と結果に関する情報を用いて,文の関連性を学習する. | |
V24N05-03 | 日本語は比較的語順が自由な言語であるとされるが,多くの研究において日本語にも基本語順が存在していることが示唆されている\cite{Mazuka2002,Tamaoka2005}.しかし,どの語順を基本語順とみなすかについては意見が分かれる場合があり,二重目的語構文についても,二つの目的語の基本語順に関し多くの説が提案されている.具体的な争点としては,二重目的語構文の基本語順は「がにを」である\cite{Hoji1985}か,「がにを」と「がをに」の両方である\cite{Miyagawa1997}かや,後者の立場の類型として基本語順は動詞の種類に関係するという説\cite{Matsuoka2003}や,ニ格の意味役割や有生性が関わっているとする説\cite{Miyagawa2004,Ito2007}などが存在している.また,これらの研究の分析方法に関しても,理論研究\cite{Hoji1985,Miyagawa2004}に加え,心理実験\cite{Koizumi2004,Nakamoto2006,Shigenaga2014}や脳科学\cite{Koso2004,Inubushi2009d}に基づく実証的研究など,多くの側面からの分析が行われている.しかし,これらの分析手法はいずれも分析の対象とした各用例について人手による分析や脳波等の計測が必要となるため,分析対象とした用例については信頼度の高い分析を行うことができるものの,新たな用例に対し分析を行う場合には改めてデータを収集する必要があり,多くの仮説の網羅的な検証には不向きである.一方,各語順が実際にどのような割合で出現するかの傾向は,コーパスから大規模に収集することが可能である.コーパス中の個別の事例から,それが基本語順なのか,かき混ぜ語順なのかを自動的に判定するのは容易でないものの,大規模に収集した用例において多数を占める語順であるならば,その語順が基本語順である可能性が高いと考えられる.たとえば,(\ref{EX::Kanjiru})に示すように\footnote{(\ref{EX::Kanjiru}),(\ref{EX::Sasou})に示した用例数は本研究で収集した各語順の用例数を表している.具体的な収集手順は\ref{SEC::CollectExamples}節で説明する.},動詞が「感じる」,ニ格要素が「言葉」,ヲ格要素が「愛情」の場合,「にを」語順が97.5\%を占めていることから,この動詞と格要素の組み合わせの場合,「にを」語順が基本語順であると考えられる.一方,(\ref{EX::Sasou})に示すように,動詞が「誘う」,ニ格要素が「デート」,ヲ格要素が「女性」である場合は,「をに」語順が99.6\%を占めており,この語順が基本語順であると考えられる.\ex{{\bfにを}:言葉に愛情を感じる。[用例数:118(97.5\%)]\label{EX::Kanjiru}\\&{\bfをに}:愛情を言葉に感じる。[用例数:3(2.5\%)]}\vspace{-2ex}\ex{{\bfにを}:デートに女性を誘う。[用例数:4(0.4\%)]\label{EX::Sasou}\\&{\bfをに}:女性をデートに誘う。[用例数:923(99.6\%)]}そこで本研究では,二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとの仮定に基づき,100億文を超える大規模コーパスから収集した用例を用いた日本語二重目的語構文の基本語順に関する各種の仮説の検証を行う.日本語二重目的語構文の基本語順を解明することができれば,日本語二重目的語構文の統語構造や言語理解プロセスの解明における重要な手掛りとなることが期待できる.本研究で行う大規模コーパスに基づく分析は,コーパス中で多数を占める語順が基本語順と同じであるとは限らないことから,基本語順の解明に直結するとは言えないものの,心理実験や脳科学等などのよりコストの掛かる検証を行う前段階の検証として有用であると考えられる. | |
V15N03-05 | 我々は,人間と自然な会話を行うことができる知的ロボットの実現を目標に研究を行っている.ここで述べている「知的」とは,人間と同じように常識的に物事を理解・判断し,応答・行動できることである.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念(場所,感覚,知覚,感情など)を会話文章から判断し,適切な応答を実現しコミュニケーションをとっている.本論文では,それらの常識的な判断のうち,未知語の理解に着目し,研究を行っている.知的ロボットとの円滑なコミュニケーションを実現するにあたり,重要となる技術が自然言語処理である.近年,自然言語処理において,単語を意味的に分類したシソーラス\cite{NTT_Thesaurus:97},\cite{G.A.Miller:95}が数多く構築されている.これらのシソーラスは,情報検索や機械翻訳など多くの分野で利用されている.会話処理にシソーラスを用いた場合,会話文中にシソーラスに定義されていない単語(以下,未知語と呼ぶ)が含まれると,その会話文を理解することができない.そのため,未知語が大局的にどのような意味を持つのかを知る必要がある.未知語が所属するべきシソーラスのノードを提示することで,未知語の内容を簡明に表示することができると考える.これを実現するためには,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.これまで,ある概念から様々な概念を連想できるメカニズムを,概念ベース\cite{okumura:07}と関連度計算\cite{watabe:06}により構成し,実現する方法が提案されている.そこで本論文では,連想メカニズムおよびシソーラスの体系的特徴を基に未知語を所属するべき最適なノードへ分類する手法を提案する.これまでにも同種の研究がなされている.\cite{uramoto:96}では,言語データとしてISAMAP\cite{tanaka:87}を利用し,未知語をシソーラスに分類する手法としてコーパス中の出現回数などの統計情報を用いている.また\cite{maeda:00}では,言語データとしてNTTシソーラス\cite{NTT_Thesaurus:97}を利用し,未知語をシソーラスに分類する手法として統計的決定理論の1つであるベイズ基準を用いている.一方で\cite{sakaki:07}では,検索エンジンのヒット件数に対して$\chi^2$値を用いた関連度の指標を用いることで,シソーラスの自動構築を行う手法が提案されている.また\cite{bessho:06}では,コーパスにおける単語同士の共起頻度を用いて単語をベクトル表現で表すことで,概念ベースを作成している.そして,概念ベースに登録していない単語のベクトル表現を,意味空間への射影による手法および分散最小性に基づく手法を用いて推定し,概念ベースを拡張する方法が提案されている.このようにこれまでの研究は,コーパスやシソーラスなどの言語データに存在する単語と未知語の共起頻度を利用することで,両者の関連性を比較し,未知語を既存のシソーラスに分類するものである.そのため,これまでの研究は,用いる言語データに存在しない未知語の場合,共起頻度を獲得することができないため,対応できないという問題を抱えている.本論文では,共起頻度に加えて,ある概念から様々な概念を連想できる連想メカニズムを用いている.その結果,固有名詞を含んだ未知語に対応した柔軟なメカニズムの構築を実現している. | |
V23N03-02 | \textbf{仮説推論}(Abduction)は,与えられた観測に対する最良の説明を見つける,論理推論の枠組みのひとつである.仮説推論は,自然言語処理や故障診断システムなどを含む,人工知能分野の様々なタスクにおいて古くから用いられてきた(NgandMooney1992;Blythe,Hobbs,Domingos,Kate,andMooney2011;Ovchinnikova,Hobbs,Montazeri,McCord,Alexandrov,andMulkar-Mehta2011;井之上,乾,Ovchinnikova,Hobbs2012;杉浦,井之上,乾2012).\nocite{Ng92,Blythe11,Ovch11,Inoue12,Sugiura12}自然言語処理への応用のうち,代表的な先行研究の一つにHobbsら\cite{Hobbs93}の\textit{InterpretationasAbduction}(IA)がある.Hobbsらは,語義曖昧性解消,比喩の意味理解,照応解析や談話関係認識などの,様々な自然言語処理のタスクを,一階述語論理に基づく仮説推論により統合的にモデル化できることを示した.詳しくは\ref{sec:abduction}節で述べるが,IAの基本的なアイデアは,\textbf{談話解析}(文章に対する自然言語処理)の問題を「観測された文章(入力文)に対し,世界知識(言語の知識や常識的知識など)を用いて,最良の説明を生成する問題」として定式化することである.最良の説明の中には,観測された情報の背後で起きていた非明示的な事象,共参照関係や単語の語義などの情報が含まれる.例文``{\itJohnwenttothebank.Hegotaloan.}''に対して,IAによる談話解析を行う様子を図\ref{fig:ia}に示す.まず,入力文の論理式表現が観測として,世界知識の論理式表現が背景知識として与えられ,背景知識に基づいて説明が生成される.例えば,$\mathit{go}(x_1,x_2)$(\textit{John}が\textit{bank}に行った)という観測に対して,$\mathit{issue}(x,l,y)\Rightarrowgo(y,x)$($x$が$y$に対して$l$を発行するには,$y$は$x$の所に行かなければならない)という因果関係(行為の前提条件)の知識を用いて,$\mathit{issue}(x_2,u_1,x_1)$(\textit{bank}が\textit{John}に対して何か($u_1$)を発行した)という説明を生成している.これは,非明示的な情報の推定に相当する.また,この非明示的な情報を根拠の一つとして生成された説明$x_1=y_1$(\textit{John}と\textit{He}は同一人物)は,共参照関係の推定に相当する.以上のようにIAでは,談話解析の様々なタスクが,説明生成という統一的な問題に帰着される.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f1.eps}\end{center}\hangcaption{仮説推論による談話解析の例.点線の四角は観測を,実線の四角は背景知識を表す.変数対を繋ぐ点線はそれらがその仮説において同一の変数であることを表す.青い吹き出しは推論中で用いられている背景知識の元となった世界知識を表し,赤い吹き出しは得られた仮説に対する解釈を表す.}\label{fig:ia}\end{figure}仮説推論は,以下の様な点で談話解析の枠組みとして適していると考えられる:\begin{enumerate}\item入力から出力が導かれるまでの過程が,解釈可能な形で得られる.すなわち,どのような仮説を立てて,どのような知識を用いて観測を説明しているかが,図\ref{fig:ia}のような証明木という形で陽に得られる.\item様々な種類の世界知識を統一的,かつ宣言的に記述し利用することができる.すなわち,どのような種類の知識であっても,その知識を解析にどう利用するかの手続きを定義する必要がなく,論理式として宣言的に記述するだけで談話解析に利用できる.\item語義曖昧性解消や照応解析,プラン認識など,談話理解の様々なサブタスクを一つのモデルに集約して解くことにより,サブタスク間の相互依存性を自然な形で考慮できる.図\ref{fig:ia}においても,照応解析と語義曖昧性の解消が同時に起こっていることが確認できる.\end{enumerate}IAを始めとした仮説推論に基づく談話解析の研究は,1990年代が全盛期であったが,近年になって再び注目を浴びつつある\cite{Blythe11,Ovch11,Inoue12,Sugiura12}.これには,大きく2つの背景があると考えられる.ひとつめに,仮説推論を実用規模の問題に適用できる程度の,大規模な世界知識を取り揃える技術が昔に比べて大幅に成熟してきたことが挙げられる\cite{fellbaum98,framenetII,Chambers09,Scho10}.例えば文献\cite{Ovch11}では,WordNet\cite{fellbaum98}とFrameNet\cite{framenetII}を用いて約数十万の推論規則からなる背景知識を構築し,含意関係認識のタスクにIAを適用している.ふたつめの背景には,計算機性能の向上や効率的な仮説推論エンジンが提案された\cite{Mulkar07,Blythe11,Inoue11,Inoue12,Yamamoto15,Schuller15}ことにより,大規模知識を用いた論理推論が計算量の面で実現可能になってきたことが挙げられる.例えば\cite{Inoue12}では,約数十万の推論規則からなる背景知識を用いて含意関係認識のデータセットに対して推論を行い,先行研究より大幅に高速な推論を行えたことが報告されている.しかしながら,仮説推論における計算コストの問題は未だ完全に解決されたとはいえないのが実情である.詳しくは\ref{sec:prob}~節で詳述するが,とりわけ,主格関係や目的格関係などの単語間の統語的依存関係を表すためのリテラル(便宜的に「機能リテラル」と呼ぶ.形式的な定義は\ref{sec:prob:mr}節で与える)が知識表現に含まれる場合(例えば,$\mathit{john}(j)\land\mathit{get}(e)\land\mathit{dobj}(e,l)\land\mathit{loan}(l)$における\textit{get}と\textit{loan}の目的格関係を表す$\mathit{dobj}(e,l)$),推論時間が増大するという問題がある.最新の仮説推論エンジンである\cite{Yamamoto15}では,A*アルゴリズムに基づいて説明の構成要素(\textbf{潜在仮説集合})を列挙し,仮説推論の問題を「説明の構成要素の組み合わせ最適化問題」へ変換したのち,整数線形計画ソルバにより最良の説明を求める.しかし,機能リテラルが知識表現に含まれる場合,(1)機能リテラルをもとにした推論により,潜在仮説集合の中に,最良の説明になりえない構成要素が多く入り込んでしまい(例えば,$\mathit{foolish}(e_1)\land\mathit{smart}(e_2)\land\mathit{nsubj}(e_1,x)\land\mathit{nsubj}(e_2,y)$から,$e_1=e_2$を導く),組み合わせ最適化問題のサイズが無用に肥大化し,推論時間が増大する,(2)潜在仮説集合の生成をガイドするヒューリスティック関数の精度低下が起きてしまい,潜在仮説集合の生成における計算効率が低下する,という問題が起こる.このように,実タスクへの適用は未だ困難な状況であり,前述のような利点が本当にあるかどうか,検証する環境が完全に整っていない状況である.以上のような背景を踏まえ,本論文では,知識表現に機能リテラルを含む仮説推論において,機能リテラルの性質を利用して潜在仮説集合の生成手続きを改良し,効率的に最適解を求め,かつヒューリスティック関数の精度低下を抑制する手法を提案する.より具体的には,一つ目の問題に対しては,潜在仮説集合の生成を行う際に,最良の説明になりえない説明を事前チェックするように潜在仮説集合の手続きを拡張する.例えば,矛盾する二つの事象を等価とみなす説明の構成要素を生成する推論(前述の$e_1=e_2$など)を禁止することで,潜在仮説集合の肥大化を防ぐ.また,二つ目の問題に対しては,ヒューリスティック関数の中で,より良い説明の構成要素を優先的に探索するために用いられる\textbf{述語グラフ}の生成手法を工夫することにより対処する.問題の原因は,背景知識に頻出する機能リテラルがハブとなり,あらゆる説明の構成要素の候補が最良の説明の生成に寄与すると誤って判断されてしまうことにある.これに対し,述語グラフにおいて機能リテラルに繋がる一部の枝を適切に排除することにより,解の最適性を保持しながらヒューリスティック関数の精度を上げる手法を提案する.本論文における具体的な貢献は次の3点である.一つ目に,仮説推論の最新の実装であるA*-basedAbduction\cite{Yamamoto15}の手法に前述の枝刈りを導入する方法を示し,機能リテラルを知識表現に含む場合でも推論の規模耐性を維持する方法を示す.二つ目に,機能リテラルの性質に基づく探索空間の枝刈りが,ある条件のもとでは本来の解を損なわないことを示す.三つ目に,大規模な知識ベースと実在の言語処理の問題を用いて,A*-basedAbduction\cite{Yamamoto15}のシステムとの推論時間の比較を行い,提案手法を評価する.本論文での実験においては,提案手法が\cite{Yamamoto15}のシステムと比べ数十〜数百倍ほど効率的に解仮説が得られていることが確かめられた.仮説推論に基づく談話解析の枠組みを実タスクへ適用する上で,効率的な推論アルゴリズムの確立は必須の要件である.本研究の成果により,仮説推論に基づく談話解析の研究を進めるための環境整備が大きく前進すると考えられる.以降の節では,まず仮説推論とその実装に関する先行研究について述べたあと(2節),本論文で取り組む問題について述べ(3節),提案手法について説明する(4節,5節).次に,提案手法と既存手法の比較実験の結果について報告し(6節),最後に今後の展望を述べる. | |
V08N01-07 | 自然言語処理では,機械翻訳システムの研究開発を中心に,過去10年以上にわたって多大な投資が行われ,言語解析アルゴリズムなど,大きく発展してきた(田中穂積1989;長尾真1996;田中穂積1999)が,解析の過程で発生する表現構造と意味に関する解釈の曖昧性の問題は,依然として大きな問題となっている.日本語の構文解析では,特に,述語間の係り受け関係の曖昧さ(白井ほか1995)と並列構造の識別(黒橋,長尾1994)が問題とされているが,名詞句(冨浦ほか1995;菊池,白井2000)や複合語(小林ほか1996)の構造の曖昧さも大きな問題である.英語では,前置詞句の係り先の曖昧さ(隅田ほか1994)などがクローズアップされている.また,機械翻訳では,訳文品質低下の最大の原因は,動詞や名詞の訳語の不適切さにある(麻野間,中岩1999)とも言われており,訳語選択の問題(桐澤ほか1999)は,解決の急がれる問題の一つとなっている.ところで,このような解釈の曖昧性が発生する原因は,解析アルゴリズムにあるのではなく,解析に使用される情報や知識の不足にある(Ikehara1996).曖昧性は,解析の途中で生じた複数の解釈の候補の中から,正しい解釈が選択できないことであるから,選択に必要な情報がある場合は発生しない.これに対して,解析アルゴリズムは,与えられた情報を使用して解釈を決定する手順であるから,優れたアルゴリズムでも,不足している情報を補うことは不可能である.従って,曖昧性の問題を解決するには,不足する情報を見極め,それが,与えられた表現から得られないときは,辞書や知識ベースとして外部から補うことが必要である.ここで,与えられた表現の意味を決定する問題について考えると,要素合成法の原理に従えば,表現の意味は,それを構成する単語から合成されることになる.すなわち,辞書によって各単語の語義が与えられると,それらの組み合わせによって表現の意味が決定できることになる.このような観点からの研究としては,単語に対して詳細な語彙情報を用意し,それを組み合わせて表現の意味解釈を生成する生成意味論の方法(Pustejovsky1995),オントロジーをベースとした知識処理の方法(Nierenburgetal.1992;武田ほか1995),言語処理のための意味表現の研究(内海ほか1993)などがある.しかし,現実の言語表現では,個々の単語の役割と意味は,与えられた表現の中で,その単語が占める位置に依存して決定しなければならない場合も多く,そのため,表現構造に関する知識や情報が必要となる.事例から情報を得て処理を進める方法(長尾1984;佐藤1992;SumitaandIida1992),単語の共起関係の情報を使用する方法(小林ほか1996;麻野間,中岩1999;PivaAlves,et.al.1998),さらには,単語の共起関係をパターン化する方法(池原ほか1993;宇津呂ほか1993;Almuallimet.al.1994b;池原ほか1997)などは,いずれも表現の構造に関する情報を使用している.このように,表現構造に関する情報は,曖昧性解消のための重要な手がかりと言えるが,解析に先立ってこれらの情報を網羅的に収集することは容易でない.通常,自然言語において,語彙に関する情報は,高々,数十万語が対象と見られるのに対して,その組み合わせである表現の場合は,ほぼ無限と言える.また,表現構造には,広い範囲で一般化できるものや,個別的で汎用化の困難なものなどがあり,ばらつきが大きい.そこで,本論文では,コーパスなどの言語データから曖昧性解消に必要な表現構造の知識を収集するための方法の一つとして,言語表現とその解釈の関係を変数とクラスの組からなる構造規則として表現し,学習用標本から半自動的に収集する方法を提案する\footnote{本論文では,従来の還元論的な方法で解決できない曖昧性を解消することを目指しており,曖昧さが問題となる表現をいくつかの部分的な表現の組に分解することはせず,一体として扱う.}.本方式では,対象とする表現を字面による文字列部分と変数部分(他の単語に置き換え可能な部分で,制約条件を単語の属性で記述する)からなるパターンで表わし,そのとき使用された変数の組によって表現構造を定義する.ところで,このような構造規則によって多様な言語表現をカバーするには,大量の標本が必要であり,必要とされる規則数も大きいと予想される.また,多数の規則を相互矛盾なく定義するには,文法属性だけでなく,粒度のきめ細かな(属性数の多い)意味属性の体系が必要になると予想される.ここで,従来の学習技術との関係をみると,種々の帰納的学習の方法が提案されてきたが,学習事例数,意味属性数,生成される規則数が共に大きい問題では計算が難しい.大規模な木構造からなる意味属性を使用する点から見ると,本論文の問題は,従来の格フレーム学習(Almuallim,etal.1994b)と同種の問題であり,(Haussler1988)の方法の適用が期待される.しかし,この方法は,学習事例数の増大に弱く,数千件以上の学習事例では実用的でない.また,事例数に強い方法としては,(Quinlan1993)の決定木学習の方法が知られているが,この方法は,木構造で表現されるような属性間の背景知識を使用する場合には適用できない.この問題を解決する方法として,木構造をフラットな属性列にエンコーディングするなど,いくつかの方法(Quinlan1993;Almuallinetal.1994b;アルモアリムほか1997)が提案されているが,いずれも,事例数,属性数,規則数が共に大きい問題に対する適用は容易でない\footnote{Quinlanの方法では次元数$N$個分の意味属性の木を組み合わせて一つの新しい木を作るのに対して,(Almuallimetal.1994a)の方法は,意味属性の木を次元数×意味属性数のビット列に展開する.これに対して,(アルモアリム1997)の方法は,エンコーディングをせずに,予め,事例を属性木に「流し」,ノード上に事例情報を蓄えておくことにより,直接計算を可能とするものである.本論文のように,事例数,属性数,規則数が共に大きい問題の場合,計算量は,Quinlanの方法の方が小さい.しかし,この方法は,意味属性のレベルに対して粒度がバランスしていないときは,精度が保証されない.}.そこで,本論文では,実用性を重視する観点から新しい方法を提案する.本方式の構造規則は,構造定義に使用された変数の数に着目して,一次元規則,二次元規則などの次元規則に分類されるが,解析精度を落とさず,汎用的な構造規則から順に生成することを考え,一次元規則から順に生成する.また,得られた各次元の構造規則に対し,木構造で表現された文法属性と意味属性の意味的包含関係を利用した自動的な汎化の方法を示す\footnote{本論文の方法では,必ずしも,必要最小限の規則のセットが生成されるとは限らない.最近の計算機の記憶容量を考え,無理なく実装可能なルール数に収斂すればよいと考える.}.本論文では,提案した方法を日本語名詞句に適用してその効果を確認する.具体的には,「$AのBのC$」の形の名詞句の事例から名詞$A$の係り先を決定するための解析規則を生成し,生成した規則を解析に使用してその適用範囲(カバー率)と解析正解率を求める. | |
V08N03-07 | 日本語とウイグル語は共に膠着語である.膠着語には,概念などを表し単独で文節を構成することが可能な自立語と,単独で文節になることはなく,自立語に接続して,その自立語の文中での役割を示したり,自立語に新たな意味を付加する付属語の区分がある.膠着語では,付属語がよく発達しており,言語構造上重要な役割を果たす.これらの特徴は,日本語とウイグル語だけでなく,韓国語,トルコ語,モンゴル語などのアルタイ語系に属する言語に共通するものと考えられている\cite{JPORG}.このグループに属する言語間の機械翻訳については,グローバル化の流れの中で多言語間機械翻訳の重要性が高いにもかかわらず,これまでほとんど行われておらず,日本語と韓国語との翻訳について研究されているのが目立つに過ぎない.そのような状況の中で,ムフタル,小川らは,日本語--ウイグル語機械翻訳の研究を開始した.ムフタル,小川らは,これらの言語に共通する特徴を有効に利用した日本語--ウイグル語機械翻訳の研究を進めている\cite{SHURON}\cite{OGAWA2000}.その特徴の一つは語順の自由度である.日本語は語順が比較的自由であると言われ,例えば,(1)「私が本を買った」と(2)「本を私が買った」は,いずれも日本語として正しい表現である.これは,日本語では文節の役割が付属語によって示されるためである.この性質は同じ膠着語であるウイグル語にも見られ,(1)の直訳となる``m!enkitapnisetiwaldim''という表現も,``m!en''(私)と``kitap''(本)を入れ替えて(2)の直訳とする``kitapnim!ensetiwaldim''という表現も,いずれもウイグル語として可能である.そのため,日本語文をウイグル語へ翻訳する場合,日本語の語順そのままに翻訳が可能である.そこで,ムフタルらは,日本語文の形態素解析結果を逐語訳することを基本とした日本語--ウイグル語機械翻訳システムを開発している.特に\cite{OGAWA2000}では,動詞句の翻訳に焦点を当て,派生文法\cite{KIYOSE1991}を利用することで動詞付属語を含めた動詞句に対して自然なウイグル語訳を与えることを可能としている.ところで,日本語からウイグル語へ語順そのままでの翻訳が可能なのは,名詞付属語,特に格助詞によって文節の役割が明示されているからである.これも,日本語とウイグル語に共通する特徴の一つである.しかし,このことは,格助詞を正しく翻訳できなかった場合は翻訳文が意味不明なものになることを意味する.そこで,本論文では,日本語--ウイグル語機械翻訳の中での格助詞の取り扱いを検討する.格助詞は日本語だけでなくウイグル語にも存在し,例えば\cite{TAKEUTI}では,格語尾と呼ばれている.日本語の格助詞とウイグル語の格助詞には対応関係が見られるが,いわゆる多義性の問題が存在し,日本語の格助詞に複数のウイグル語格助詞が対応する場合がある.本論文では,単に格助詞を翻訳するだけでなく,こうした格助詞の多義性も考慮して適切な格助詞の翻訳を行う手法を提案する.日本語と他の膠着語との間の機械翻訳に関する研究では,日韓機械翻訳が盛んである\cite{KMT4,H_LEE1989,J_KIM1996_2,C_PARK1997}.これらの研究の多くは,日本語と韓国語の語順の類似性や,格形式の類似性を利用し,逐語訳を基本とする翻訳が進められており,比較的品質の良い翻訳を実現しているが,その一方で,語彙の多義性の解消が重要な課題であることが指摘されている\cite{KMT4}.多義性に関する研究については,\cite{H_LEE1989,J_KIM1996_2,C_PARK1997}などがあり,動詞の格パターンと意味解析を利用する手法\cite{H_LEE1989},入力文の前後に出現する単語との接続関係を利用する手法\cite{J_KIM1996_2},連語パターンを用いる手法\cite{C_PARK1997}などが提案されている.本論文では,品質の高い日本語--ウイグル語機械翻訳システムの構築を目指して,動詞の格パターンを利用した,格助詞の翻訳手法を提案する.まず,計算機用日本語基本動詞辞書IPAL\cite{IPAL}を用いて両言語の格助詞間の対応関係について詳細な調査を行うとともに,動詞の格パターンを獲得する.さらに,それを利用した格助詞の変換処理を実現し,評価実験を行った.評価実験に使用する日本語--ウイグル語機械翻訳システムは\cite{OGAWA2000}で提案されたシステムに,本論文で提案する格助詞変換処理のモジュールを加えたものである.この方法では,あらかじめ獲得した格パターンと格助詞の対訳の情報を,必要に応じて日本語--ウイグル語の対訳辞書のウイグル語動詞に付加する.実際の翻訳の過程は,まず,翻訳対象である日本語入力文を形態素解析し,それぞれの形態素をウイグル語に逐語訳する.この段階で,すべての単語にデフォルトのウイグル語訳が与えられる.次に,ウイグル語動詞に付加された格パターンと,入力文中に出現した格パターンとを比較し,デフォルト訳では不自然な訳語となる格助詞を適切な他の訳語に置き換える.最後に,訳出のウイグル語形態素を接続してウイグル語文を生成する.本論文では,ウイグル語における同じ格助詞の音便形を,すべて一つに統合して議論する.例えば,格助詞``g!e''は,音便変化により``!ga'',``k!e'',``!ka''などの形もとるが,本論文中では,すべて``g!e''と表記する.なお,実際の翻訳システムでは,最後のウイグル語文生成の段階で音便形に従って変化させる.また,ウイグル語には,日本語には存在しない人称接尾辞がある.例えば,同じ「買う」でも,「私が買う」``m!ensetiwali\underline{m!en}''と「彼が買う」``usetiwali\underline{du}''では,下線部に示すように,それぞれ別々の人称接尾辞が接続する.しかし,本論文中では,いくつかの例文を除いて三人称に統一して議論する.ウイグル語には,アラビア文字に似た32の文字があり,文は右から左へと書かれる.それとは別に,ローマ字表記を用いる場合もあり,本論文では,便宜上,ローマ字表記を用いることにする.不足する文字の代わりに,!c,!e,!g,!h,!k,!o,!s,!u,!zを用いる.ウイグル文字とローマ字表記の対応に関しては,付録Aを参照されたい.本論文の構成は以下の通りである.まず2章では,日本語--ウイグル語機械翻訳における格助詞の重要性とその問題点について指摘する.3章では,計算機用日本語基本動詞辞書IPAL\cite{IPAL}における格助詞の使用状況と,対応するウイグル語訳語の分布に関する調査結果を示す.4章では,本論文で提案する日本語--ウイグル語機械翻訳における格助詞の変換処理について述べ,5章で本手法に基づく実験結果を示す.6章は本論文のまとめである. | |
V25N02-01 | \label{s:introduction}機械翻訳システムでより多くの文を対象に翻訳精度を維持したい場合,その量に応じた大きさの語彙をシステムが取り扱う必要がある.語彙サイズは様々な機械翻訳手法の性能や効率に影響を及ぼすが,特に近年活発に研究されているニューラル翻訳モデル\cite{encdec}では,語彙サイズの増加に伴う影響が顕著である.図\ref{fig:nmt}はエンコーダ(Encoder:符号化器),デコーダ(Decoder:復号器)および注意機構(Attention)と呼ばれる個々のネットワーク構造からなる翻訳モデル\cite{bahdanau14,luong15}であり,ニューラル翻訳モデルとして典型的に使用される構造である.エンコーダは入力シンボル列を連続空間上のベクトル集合に変換し,この情報をもとにデコーダが出力シンボルを1個ずつ順に決定する.エンコーダとデコーダの内部構造はモデルによって様々であり,典型的には複数のリカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)を用いて構成される.注意機構はエンコーダが生成したベクトルに関する重み付き和を与えるモデルで,デコーダが次回のシンボル推定に使用する文脈情報を生成する.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f1.eps}\end{center}\hangcaption{エンコーダ・デコーダモデルに注意機構を導入した典型的なニューラル翻訳モデルの概観.このうち,出力層における内部ベクトルから単語への変換が大きな計算負荷となる.}\label{fig:nmt}\end{figure}ここで,ニューラルネットワークで単語等の離散的なシンボルを扱う場合,モデルの入出力層でシンボルと内部ベクトルとの相互変換を行う必要がある.この特徴は特に出力層側で問題となる.入力層側は毎回特定の単語が与えられるため,無関係な単語に関する計算は行われないのに対し,出力層側はあらゆる候補の中から妥当な出力単語を選択する必要があるためである.単語選択のアルゴリズムとして語彙サイズに対する時間・空間計算量の大きな手法を選択した場合,実質的な計算コストが語彙サイズに依存することとなり,翻訳モデルを構築・運用する上での問題となる.実際,ニューラルネットワークによる単語推定で最も単純かつ標準的な手法であるソフトマックス演算は,語彙に含まれる全単語のスコアを隠れ層の一次結合として愚直に計算するため,計算量は語彙サイズに比例する.このため,出力層の計算をいかにして軽量化するかが重要な課題であると言える.この問題はよく認識されており,\ref{sec:prior}で紹介するように,従来様々な解決手法が提案されてきた.出力層を改良するにあたっての着眼点は様々であり,従来手法が何を重点的に解決しようとしているかはそれぞれ異なる.この中で,特に重要と考えられる4つの観点を以下に示す.\begin{description}\item[翻訳精度]手法を適用した際,平均的な翻訳精度が大幅に低下してはならない.特に,単純なソフトマックスと比較して同等程度の性能が維持可能,あるいは,可能であればより高い性能を達成可能である手法が望ましい.\item[空間効率(使用メモリ量)]膨大なメモリを必要とする手法を実行するためには大規模かつシステムが専有可能な計算資源が必要であり,携帯デバイス等の計算資源の制約の強い機器での直接実行には適さない.多くの環境に搭載可能なシステムを構築するためには,手法自体が可能な限り少ないメモリ消費の下で動作可能である必要がある.\item[時間効率(実行速度)]可能な限り高速に動作する手法が望ましい.高速にパラメータを学習可能であればシステムをチューニングする利便性が向上し,また運用時に高速なシステムは計算資源やユーザへの負担を減少させることとなる.空間効率と同様に,運用時に強力な計算資源が使用可能とは限らず,このため非力なCPUでも効率的に動作可能な手法がより望ましい.\item[並列計算との親和性]運用時とは対照的に,パラメータの学習時にはGPU等の強い並列性を持つ計算資源を使用することができる場合がある.並列化の容易な手法であれば,学習時にこれらの強力な計算資源の恩恵に与ることが可能である.\end{description}これらの観点のうち,いずれの項目を特に重視するかが手法自体の特徴となる.提案手法では特に空間効率と時間効率に関して,モデルの定式化段階での計算量を削減することに主眼を置き,翻訳精度は既存手法で最も表現力の高いソフトマックスモデルと同等程度の実現を目標とした.提案手法による出力層はソフトマックスとは異なり,語彙中の単語に対して直接スコアを計算することは行わない.その代わり,各単語に一意な二値符号を割り当て,そのビット列を単語の表現として出力層で学習することで,間接的に単語の推定を行う.この手法を用いることで,最も理想的な場合で$2^n$種類の単語を$n$ビットのみを使用して表現することが可能となるため,その推定に必要な時間・空間計算量を語彙サイズ$V$に対して$O(\logV)$まで減少させることが可能となる.提案手法の基本的なアイデアはこのように単純だが,実験で示すように,単に二値符号のみを用いる手法では翻訳精度が従来手法と比べて大幅に低下してしまうという問題がある.本論文では更に,この問題に対して2種類の観点から提案手法を改良する手法を導入する.まず,従来のソフトマックスモデルを部分的に導入することで,高頻度語と低頻度語を分離して学習可能とする手法を提案する.また,二値符号そのものの頑健性を向上させるために,誤り訂正符号,特に畳込み符号\cite{convcode}による冗長化を施す.実験では,二値符号予測とこれらの改善手法について,難易度の異なる2種類の英日・日英翻訳タスクを用いて翻訳精度の比較を行った.この結果より,提案手法が従来のソフトマックスと遜色ない翻訳精度を達成可能であるとともに,出力層の動作に必要なパラメータ数,および計算時間の両面においてソフトマックスよりも優れていることを示す. | |
V04N01-03 | label{sec:Intro}近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.しかし,話し言葉の特徴である,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.我々は,適格文と不適格文を統一的に扱う{\bf統一モデル}\,(uniformmodel)に基づく話し言葉の解析手法を提案した\cite{伝:言処-投稿中}.そこでは,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べた.統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.我々の手法においては,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理がいずれも,最も{\bf優先度}\,(preference)の大きい依存関係解釈を求めるという形で実現される.そこで,不適格性による依存関係まで考慮した優先度の計算方法を開発することがキーとなる.本稿では,この統一モデルに基づく話し言葉の解析手法で用いるための優先度計算法について述べる.優先度の概念は,これまでにも,適格文の曖昧性を解消し最適な解釈を求める手法の中に取り入れられている.これらは以下の3つのアプローチに大別できる.\begin{description}\item[心理言語学的な知見に基づく手法]人間の構文・意味解析において観察される優先度決定の偏向を利用する.{\bf右結合原理}\cite{Kimball:Cog-2-1-15},{\bf最小結合原理}\cite{Frazier:Cog-6-291},{\bf語彙的選好}\cite{Ford:MRO-82-727}などが利用されている.\item[意味知識・世界知識に基づく手法]意味知識や世界知識を利用する.知識を人手で構築するもの\cite{Wilks:AI-6-53,Hirst:SIA-87,Hobbs:AI-63-69}と既存の辞書などを知識源とするもの\cite{Jensen:CL-13-3-251}がある.\item[コーパスに基づく(corpus-based)手法]優先度計算に必要な情報をコーパスから獲得する.{\bf統計}に基づく手法\cite{Jelinek:IBM-RC16374,Pereira:ACL92-128,Hindle:CL-19-1-103,Resnik:ARPA93}や{\bf用例}に基づく手法\cite{佐藤:人知-6-4-592,Sumita:IEICE-E75-D-4-585,Furuse:COLING92-645}がある.\end{description}本稿では,以下にあげる理由により,コーパスに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item心理言語学的な知見として得られているのは,構造的な選好など一部のものに限られ,特に,話し言葉の不適格性に関しては,ヒューリスティクスとして利用できる知見は得られていない.\item広範囲な意味知識や世界知識を人手で構築するのは困難である.また,世界知識の利用は構文・意味解析の範囲を越える.\itemこれに対し,コーパスからの優先度情報の獲得は,加工されたコーパスからであれば,容易に行なえ,かつ,情報の種類も限定されない.コーパスの加工を自ら行なう必要がある場合でも,知識自身を人手で構築するよりは負担が少ない.\end{enumerate}コーパスに基づく我々の優先度計算法では,依存関係解釈の優先度は,その解釈が学習データ中でどのくらいの頻度で生じているかに応じて与えられる.この際,学習データの希薄性(data-sparseness)の問題を回避するために,解釈の候補と完全に一致する事例だけでなく類似した事例も考慮される.類似性を適当に定義することにより,適格な文法・意味関係の優先度だけでなく,不適格性による依存関係の優先度も,同じ方法で計算できる.以下,まず\ref{sec:Uniform}\,節では,統一モデルに基づく話し言葉の解析手法の概略を説明する.次に\ref{sec:Corpus-based}\,節で,本稿で提案するコーパスに基づく優先度計算法を説明する.\ref{sec:Evaluation}\,節では,本手法を話し言葉の構文・意味解析システム上に実装し,その性能を評価することで本手法の有効性を検討する.最後に,\ref{sec:Conclude}\,節でまとめを述べる. | |
V17N01-02 | \label{sec:introduction}現在では,ウェブ上の文書をはじめとして,多種多様な文書に簡単にアクセスすることができる.ニュースやブログの記事にはさまざまな出来事が記述され,その中には数多くの地名が含まれている.地名等の固有名詞は辞書未登録語であることが多く,文書の自動処理における未知語処理の問題の主因の一つとなっている.地名は,人名や組織名等の他の固有名詞と比べてその要素に変動が少なく,詳細な辞書の作成が可能という特徴がある.地名については,地図作成や郵便業務等のため,どの国でも詳細な辞書が存在するため,これを利用することでその地名に付随する国や場所等の属性を得ることが可能である.しかし,文書中に出現する地名はその文書の記述言語を母語とする国の地名であるとは限らず,ニュース文書等にあっては理論上全世界のどの地名でも現れ得る.そのため,地名の特定にはすべての国の詳細な地名辞書を確認する必要があることとなり,これは,効率の面からも,辞書の記述方式や記述粒度の不統一の面からも,現実的であるとはいえない.外国も含めたエリア推定を行うには,(1)地名文字列の認識,(2)地名文字列の国推定,(3)地名文字列と場所との対応付け,の三段階の処理が必要である.例を挙げれば,(1)で``Sparta''という語を地名と認識し,(2)で所属国がギリシャかアメリカである可能性が高いと推定し,(3)でその文書中での``Sparta''がアメリカのウィスコンシン州の地名を指していることを示すとの手順である.このうち(1)の地名文字列の認識については固有名詞認識処理の研究が盛んに行われており,また(3)の地名文字列と場所との対応付けについては,前述の例のように複数の国に出現する可能性のある曖昧な地名を対象として,地名の辞書引きを行い文脈情報と照らし合わせて地名を特定する手法が主に研究されている.それに対して,(2)の地名文字列の国推定処理についてはほとんど研究されておらず,国がわからないため辞書引き対象とする辞書が特定できない場合には対応できていない.そこで本稿では,(3)の処理の前処理として,地名に対してその所属する国を十分に絞り込む手法を提案する.ここでの十分な絞込みとは,可能性のある国を三個以下に抑えることを意味する.``Sparta''という地名がギリシャとアメリカの両方にあるように,複数の国に同一の地名が存在する可能性があるなど,すべての地名について国を一意に絞り込むことは必ずしも正しいとはいえない.所属国候補の数を三個以下まで絞り込むことができれば,最終的な地名の判別は辞書ベースで行う等,他の手法との組合せによる精度の向上の実現が期待できる.本稿では,辞書を利用できない状況を想定しているため,地名の持つ表層情報のみを処理に用いる.これは,言語識別タスクの一つと位置づけることが可能であるが,地名は一般に二単語程度の短い単語列であり,利用できる情報が極端に少ないことが,通常の文章を対象とした言語識別と大きく異なる点である. | |
V07N02-05 | \label{sec:intro}本稿では,比喩の一種である換喩を統計的に解釈する方法を述べる.比喩は大別すると,直喩・隠喩的なものと換喩的なものとに分けられる\cite{Ye90}.まず,直喩・隠喩的な比喩とは,喩えるもの(喩詞)と喩えられるもの(被喩詞)との類似性に基づいた比喩である.たとえば,「あの男は狼のようだ」という直喩,あるいは,「あの男は狼だ」という隠喩は,喩詞である「狼」と被喩詞である「あの男」との間の何らかの類似性(獰猛さなど)に基づいている.ここで,直喩と隠喩との違いは,直喩が比喩であることを言語的に明示するのに対して,隠喩はそのようなことを明示しない点にある.一方,換喩的な比喩とは,喩詞と被喩詞との連想関係に基づいた比喩である.たとえば,「漱石を読む」という換喩は,「漱石の小説を読む」というように解釈できる.この場合,喩詞である「漱石」と被喩詞である「(漱石の)小説」との間には,「作者-作品」という連想関係が成立する\cite{yamanashi88}.比喩の処理は,検出と解釈の2段階に分けて考えることができる.まず,比喩の検出とは,与えられた言語表現が比喩であるかどうかを判定する処理である.次に,比喩の解釈とは,与えられた言語表現が比喩であるとして,その比喩の非字義的な表現から字義的な表現を求める処理である.たとえば,比喩の検出の段階では,「漱石を読む」が比喩であり,「小説を読む」が比喩でないことを区別する.また,比喩の解釈の段階では,既に比喩であることが分かっている「漱石を読む」という非字義的な表現から,「漱石の小説を読む」という字義的な表現を導出する.本稿では,直喩・隠喩的なものと換喩的なものとに大別できる比喩のうちで,換喩を対象とする.また,換喩の検出と解釈のうちでは,換喩の解釈を対象とする.なお,本稿の対象をこのようにした理由は,まず,第1に,直喩や隠喩や換喩などは,上述のように,一応区別できるものであるので,それらを別々のものとして,そのうちの一つを研究対象とすることは可能であるからである.次に,換喩の解釈を対象とする理由は,換喩の解釈は換喩のみを考慮すれば実現可能なのに対して,換喩の検出は直喩や隠喩なども考慮しなければ実現不可能なためである.すなわち,換喩を検出するには,まず,比喩を検出し,その後でその比喩が換喩かどうかを検出しなければならないので,換喩検出を直喩や隠喩と別々に研究することは困難であるのに対して,換喩の解釈の場合には,既に換喩が与えられたものとすれば,他の比喩のことは考慮せずに独立に研究できるためである.本稿では,換喩のなかでも,「$名詞A$,$格助詞R$,$述語V$」というタイプの換喩を対象とする.そして,以下の方針に基づいて,換喩を解釈する.\begin{enumerate}\item「$A$,$R$,$V$」というタイプの換喩が与えられたとき,与えられた喩詞$A$から連想される名詞群を求めるためにコーパスを利用する(\ref{sec:corpus}章).\item連想された名詞群のなかから,与えられた視点($R$,$V$)に適合するような名詞を被喩詞として統計的に選択する(\ref{sec:measure}章).\end{enumerate}たとえば,「一升瓶を飲む」という換喩が与えられたとすると,喩詞である「一升瓶」から連想される名詞として「酒,栓,...」をコーパスから求め,その中から「を飲む」という視点に適合する「酒」を被喩詞として選択する.一方,「一升瓶を開ける」という換喩に対しては,「一升瓶」から連想される名詞群は同じであるが,被喩詞としては「栓」を選択する.上述の(1)と(2)は本稿の手法を特徴付けるものである.そして,これらは\cite{yamamoto98}の方法を発展させたものと考えることができる.まず,(1)については,これまでの換喩の研究としては,連想される(名詞とは限らない)単語群を求めるために,意味ネットワークや規則などを利用したものがある\cite{iverson92:_metal,bouaud96:_proces_meton,fass88:_meton_metap}が,そのような知識は人手で構築するのが困難であるという欠点がある.それに対して,コーパスを利用すれば,意味ネットワークのような知識を人手で構築する必要はない.そのため,コーパスを利用すれば,相当多くの換喩を解析できる可能性がある.すなわち,コーパスに基づく手法の方が,意味ネットワークなどに基づく手法よりも,広い範囲の換喩を解析できる可能性が高い.なお,\cite{yamamoto98}は,名詞$A$から連想される名詞の候補として,「名詞$A$の名詞$B$」における$B$と,「名詞$A$名詞$B$」における$B$を用いていたが,本稿では,(i)「名詞$A$の名詞$B$」における$B$と,(ii)名詞$A$と同一文中に出現した名詞$B$とを連想される名詞の候補に用いる\footnote{(i)における名詞の候補は(ii)における候補に包含されるが,\ref{sec:measure}章で述べる統計的尺度の計算において別扱いを受ける.}.(ii)を用いることにより,\cite{yamamoto98}の方法ではカバーできない名詞を連想の候補として利用できることが期待できる.次に,(2)については,換喩の解釈を絞り込むための情報源として換喩の視点($R$,$V$)を利用していると考えられる.このような絞り込みは,従来の研究では,意味ネットワークや規則により実現されてきたが,本稿では,コーパスにおける統計情報を利用して実現する.なお,\cite{yamamoto98}は,換喩の解釈を絞り込むために,与えられた述語の格フレーム($R$,$V$)に適合する名詞のうちで喩詞$A$との共起頻度が最大のものを被喩詞として選ぶという方法を用いている.しかし,全ての述語について格フレームが利用できるとは限らないので,本稿では格フレームを利用せず,統計的手法に基づいて被喩詞を選択する手法を提案する.なお,格フレームが利用できる場合には,その格フレームに適合する名詞のみを候補として,本稿で提案する手法を適応すれば良いので,本稿で提案する手法と共に格フレームを利用することは容易である\footnote{\cite{yamamoto98}では,本稿と同様に,換喩の解釈のみを対象にしているが,入力される換喩としては,「名詞$A_1$,格助詞$R_1$,名詞$A_2$,格助詞$R_2$,$\ldots$,名詞$A_n$,格助詞$R_n$,述語$V$」を想定している.そして,その入力に含まれる名詞のなかで述語$V$の格の選択制限に合致しないものを喩詞と特定し,その喩詞の被喩詞を求めている.たとえば,「私が漱石を読む」という換喩の場合には,「漱石」が「読む」の選択制限を満たさないことを特定し,「漱石」の被喩詞として「小説」を求めている.一方,本稿では,喩詞が特定済みの入力を想定している.つまり,入力としては,「漱石を読む」のようなものを想定している.この点では,\cite{yamamoto98}の方法の方が優れている.このような喩詞の特定は今後の課題である.ただし,本稿の方法に加えて,格フレームを利用できれば,\cite{yamamoto98}と同様の方法を使うことにより,喩詞を特定できる.}.以下,\ref{sec:sort}章では,換喩の種類と本稿の対象とする換喩について述べ,\ref{sec:corpus}章では,喩詞に関連する名詞群をコーパスから求めるときに使う共起関係について述べ,\ref{sec:measure}章では,被喩詞らしさの統計的尺度について述べる.そして,\ref{sec:experiments}章において,提案尺度の有効性を実験により調べ,\ref{sec:discussion}章で,その結果を考察する.\ref{sec:conclusion}章は結論である.なお,付録の表\ref{tab:1}から表\ref{tab:5}には,提案尺度に基づいて換喩を解釈した結果がある. | |
V18N02-04 | 日本語や中国語のように,明示的な単語境界がない言語においては,自動単語分割は自然言語処理の最初のタスクである.ほとんどの自然言語処理システムは,単語単位に依存しており,自動単語分割器はこれらの言語に対して非常に重要である.このような背景の下,人手による単語分割がなされた文からなるコーパスを構築する努力\cite{京都大学テキストコーパス・プロジェクト,Balanced.Corpus.of.Contemporary.Written.Japanese}とともに,経験的手法による自動単語分割器や同時に品詞を付与する形態素解析器の構築\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法,形態素クラスタリングによる形態素解析精度の向上,文字クラスモデルによる日本語単語分割,A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese,最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--,Conditional.Random.Fields.を用いた日本語形態素解析}が試みられてきた.近年,自然言語処理が様々な分野に適用されている.特許開示書の自動翻訳,裁判記録の自動作成のための音声認識用の言語モデル作成,医療文章からの情報抽出などである.これらの応用では品詞は不要なので,本論文では品詞を付与しない単語分割を扱う.単語分割では,コーパス作成の労力を単語境界付与に集中することができるので,品詞付与が必要となる形態素解析を前提とするよりもより実用的であることが多い.現在の自動単語分割器は,一般的な分野のコーパスから構築されており,上述のような様々な分野の文を高い精度で単語分割できない.とりわけ,対象分野特有の単語や表現の周辺での精度の低下が著しい.これらの対象分野に特有の単語や表現は,処理すべき文において重要な情報を保持しているので,この問題は深刻である.このような問題を解決するためには,対象分野での単語分割精度の向上を図る必要がある.理想的方法は,ある程度の量の対象分野の文を,一般分野のコーパス作成と同じ単語分割基準に沿って人手で単語分割し,自動単語分割器を再学習することである.しかしながら,多くの実際の状況では,人による利用を想定した辞書が対象分野の唯一の追加的言語資源である.これらの見出し語は,単語分割基準とは無関係に選定されており,単語分割基準に照らすと単語ではないことが多い.本論文では,これらの見出し語のように,内部の単語分割情報が与えられておらず,かつ両端が単語境界であるという保証がない文字列を複合語と呼ぶ.本論文では,単語分割済みコーパスに加えて,複合語辞書を参照する自動分割器を提案する.ほとんどの複合語は両端が単語境界であり,内部に単語分割基準に従って単語境界情報を付与することで単語列に変換することが可能である.このために必要な人的コストは,適用分野の単語分割済みコーパスの作成に比べて非常に少ない.本論文ではさらに,単語列辞書を参照し精度向上を図る自動単語分割器を提案する.提案手法を用いることにより,一般に販売されている辞書(複合語辞書)を参照することで,付加的な人的コストなしに,ある分野における自動単語分割の精度を向上させることができる.また,単語列辞書を参照する機能により,コーパスを準備するよりもはるかに低い人的コストでさらなる精度向上を実現することが可能になる. | |
V06N07-01 | \label{sec:introduction}日本語の形態素解析は,日本語の自然言語処理にとって基本的なものであるので,多くの研究・開発が行われている.形態素解析システム\footnote{以下,システムとは,形態素解析システムのことであり,解析結果あるいは形態素解析結果とは,形態素解析システムの解析結果のことである}には,主に,人手で作成された規則に基づくシステム\cite[など]{kurohashi97,matsumoto97,washizaka97,fuchi98}と確率に基づくシステム\cite[など]{nagata94,mori98,yamamoto97}がある.本稿では,人手で作成された規則に基づく形態素解析システムを対象として,形態素解析の結果から半自動的に誤りを検出することを試みる.形態素解析結果から誤りが検出できた場合には,次のような利点がある.\begin{enumerate}\item{}形態素解析の誤りは,形態素解析システムの弱点を示していると考えられるので,誤りを分析することにより,システムの性能を向上できる可能性がある.\item{}形態素解析が誤るような表現を連語として登録することで,そのような誤りが再び起きないようにできる\cite{yamachi96,fuchi98}.\item{}形態素解析の誤りから誤り訂正規則を作成できるので,その規則を利用して形態素解析の精度を向上できる\cite{yokoh97,hisamitsu98}.\item{}形態素解析の誤りに基づいて,形態素解析の規則に割当てるコストを調整したり\cite{komatsu98},品詞分類を変更する\cite{kitauchi98}ことができる.\end{enumerate}これらのことから,形態素解析結果から誤りを検出することは,形態素解析システムの高精度化に役立つことがわかる.しかし,形態素解析の結果から誤りを見付けるのは,形態素解析の精度が97〜99%\cite{fuchi98}に達している現在では,困難になっている.ところが,従来の研究で,形態素解析結果の誤りを利用して形態素解析の精度を向上させようとしている研究では,それらの誤りを人手で発見すること,あるいは,人手で作成されたコーパスと形態素解析結果とを比較することにより発見することが前提になっている.そのため,形態素解析の誤りを発見することはコストが高い作業となっている.一方,本稿では,従来の研究で人手で発見されることが前提となっていた解析誤り(特に過分割)を,生のコーパスを形態素解析した結果から半自動的に抽出することを目指し,そのための統計的尺度を提案する.更に,本稿では,人手により誤りが修正済みのコーパスに対しても提案尺度を適用し,人手で除去しきれていない誤りを検出することも試みる.もし,人手修正されたコーパスから誤りを検出できたら,提案尺度はコーパス作成・整備の際の補助ツールとして役立つことになる.以下,\ref{sec:measure}章では,本稿が検出対象とする誤り(過分割)の定義を述べ,それを検出するための統計的尺度について述べる.\ref{sec:experiments}章では,提案尺度を,公開されている形態素解析システム\cite{kurohashi97,matsumoto97,washizaka97},および,人手で修正されたコーパス\cite{edr95,kurohashi98}に適用した結果について述べると共に,提案尺度を各種統計的尺度と定量的に比較する.\ref{sec:discussion}章では,提案尺度の有効性などを論じる.\ref{sec:conclusion}章は結論である. | |
V18N02-01 | 確率的言語モデルは,統計的手法による仮名漢字変換\cite{確率的モデルによる仮名漢字変換}\cite{Google.IME}\cite{漢字かなのTRIGRAMをもちいたかな漢字変換方法}や音声認識\cite{音声認識システム}\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}などに広く用いられている.確率的言語モデルは,ある単語列がある言語でどの程度自然であるかを出現確率としてモデル化する\footnote{単語の定義に関しては様々な立場がある.本論文では,英語などの音声認識の言語モデル\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}と同様に,ある言語においてなんらかの方法で認定される文字列と定義する.}.仮名漢字変換においては,確率的言語モデルに加えて,仮名漢字モデルが用いられる.仮名漢字モデルは,入力記号列と単語の対応を記述する.音声認識では,仮名漢字モデルの代わりに,発音と単語の対応を記述する発音辞書と音響モデルが用いられる.確率的言語モデルの推定のためには,システムを適応する分野の大量のテキストが必要で,その文は単語に分割されている必要がある.このため,日本語を対象とする場合には,自動単語分割や形態素解析が必要であるが,ある程度汎用性のあるツールが公開されており,辞書の追加などで一般的な分野の言語モデルが構築可能となっている.仮名漢字モデルや発音辞書における確率の推定には,実際の使用における単語の読みの頻度を計数する必要がある.しかしながら,読み推定をある程度の汎用性と精度で行うツールは存在しない\footnote{音声認識では発音が必要で,仮名漢字変換では入力記号列が必要である.これらは微妙に異なる.本論文では,この違いを明確にせず両方を意味する場合に「読み」という用語を用いる.}.したがって,仮名漢字モデルを比較的小さい読み付与済みコーパスから推定したり\cite{確率的モデルによる仮名漢字変換},後処理によって,一部の高頻度語にのみ文脈に応じた発音を付与し,他の単語に関しては,各発音の確率を推定せずに一定値としている\cite{音声認識システム}のが現状である.一方で,単語(表記)を言語モデルの単位とすることには弊害がある.例えば,「…するや,…した」という発声が,「…する夜,…した」と書き起こされることがある.この書き起こし結果の「夜」は,この文脈では必ず「よる」と発音されるので,「夜」と書き起こすのは不適切である.この問題は,単語を言語モデルの単位とする仮名漢字変換においても同様に起こる.これは,単語の読みの確率を文脈と独立であると仮定して推定(あるいは一定値に固定)していることに起因する.このような問題を解決するために,本論文では,まず,すべての単語を読みで細分化し,単語と読みの組を単位とする言語モデルを利用することを提案する.仮名漢字変換や音声認識において,単語と品詞の組を言語モデルの単位とすることや,一部の高頻度語を読みで細分化することが行われている\cite{確率的モデルによる仮名漢字変換}\cite{音声認識システム}.提案手法は,品詞ではなく読みですべての単語を細分化することとみなすこともできるので,提案手法は既存手法から容易に類推可能であろう.しかしながら,提案手法を実現するためには,文脈に応じた正確な読みを様々な分野のテキストに対してある程度の精度で推定できる必要がある.このため,提案手法を実現したという報告はない.単語を単位とする言語モデルのパラメータは,自動単語分割の結果から推定される.自動単語分割の精度は十分高いとはいえ,一定の割合の誤りは避けられない.この問題による悪影響を避けるために,確率的単語分割\cite{確率的単語分割コーパスからの単語N-gram確率の計算}という考えが提案されている.この方法では,各文字の間に単語境界が存在する確率を付与し,その確率を参照して計算される単語$n$-gramの期待頻度を用いて言語モデルを構築する.計算コストの削減のために,実際には,各文字間に対してその都度発生させた乱数と単語境界確率の比較結果から単語境界か否かを決定することで得られる擬似確率的単語分割コーパスから従来法と同様に言語モデルが構築される\cite{擬似確率的単語分割コーパスによる言語モデルの改良}.単語と読みの組を単位とする言語モデルのパラメータは,自動単語分割および自動読み推定の結果から推定される.自動単語分割と同様に,自動読み推定の精度は十分高いとしても,一定の割合の誤りは避けられず,言語モデルのパラメータ推定に悪影響がある.これを回避するために,確率的タグ付与とその近似である擬似確率的タグ付与を提案する.実験では,タグとして入力記号列を採用し,単語と入力記号列の組を単位とする言語モデルを用いる仮名漢字変換器を構築し,単語を単位とする言語モデルを用いる場合や,決定的な単語分割や入力記号付与などの既存手法に対する提案手法の優位性を示す. | |
V13N01-03 | 人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めたり適切な行動を取ることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関連のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.ここで,ある単語に関連のある様々な単語を連想できるためには,単語間の意味的類似性だけでなく,単語間に存在する常識的な関係も含めた単語間の距離を評価できる必要がある.単語間の意味的な類似度の計算や距離計算は,自然言語処理における基本要素技術である.本稿では,単語間の距離計算法を提案している.従来,単語間の距離は,単語同士が意味的にどの程度似ているかを表すものであるとして,「類似度」と呼ばれている.単語の意味的類似性には直接的類似性や間接的類似性があり,また,間接的類似性はさらに細かく分類される\cite{Utsumi}.直接的類似性は辞書的カテゴリの類似であるのに対し,間接的類似性は辞書的カテゴリ以外の類似である.たとえば,「大人」と「子供」は同じ「人」に分類されるため意味的に似ており,類似度は高いはずであるが,「子供」と「おもちゃ」は意味的には似ていないし,同じ分類には含まれないであろうから類似度は低くなるであろう.しかし,実際には「子供」から「おもちゃ」を連想できることから,両者の距離はある程度近いものと思われる.「子供とおもちゃ」のような何らかの関連があるもの同士にも距離を定義できるようにするため,本研究では,単語間の距離のことを「関連度」と呼んでいる.もちろん,関連度には類似度の性質も含まれている.すなわち,直接的類似性が高いものも関連度は大きいと考えられる.本研究では,直接的類似性や間接的類似性を問わず,人間が常識的にイメージする単語間の距離に近いほど,その関連度計算法は優れていると判断する.このような関連度を計算するには,従来用いられてきた単語間の意味的(あるいは分類的)上位下位関係を記述したシソーラス\cite{NTT}などでは困難である.また,ある文書空間内での共起情報を用いれば関連度を計算可能と思われるが,どのような文書空間を用いるべきかが問題となる.本研究では,文書空間として概念ベースを用いる.概念ベースは(後述するが),国語辞書や大量の新聞記事を用いて構築したものであり,仮想的な文書空間と捉えることができる.以下,2章では本研究で用いる概念ベースの構造について述べる.3章では,概念間の関連性の評価法に対する既存研究についてふれ,関連度計算法自体の評価の方法を述べる.4章では,本稿の主題である関連度計算法について従来法を述べ,評価考察を行った後,5,6章で新しい計算法についての提案と評価考察を行う.なお以下では,「単語」を「概念」あるいは「概念表記」と呼ぶ.これは,「単語」と言う言葉はその表記をさす場合とその単語の意味,すなわち,その単語が指し示す概念を表す場合があるため,それらを区別するために,表記を表す場合は「概念表記」,意味を表す場合は「概念」と呼ぶ.ただし,厳密な区別が困難な場合も多いので,その場合は「単語」と呼ぶこととする. | |
V16N03-02 | 一般家庭にもPC,ブロードバンドが普及し,ユーザは手軽に情報を収集できるようになってきている.しかし一方では,情報が過度に溢れ過ぎ,利用者の要求に合った情報を探し出す必要性が高まっている.その中で要求に適合した情報のみを選出するのではなく,情報をランキング付けして提示することも重要となっている.ランキング付けは,検索要求と検索対象との間の類似性や関連性をもとに行われ,これらを定量化することが求められる.その際,従来の情報検索でよく用いられているベクトル空間モデル\cite{Salton:75}などでは文書における単語の出現頻度や統計情報などを利用して検索要求と文書間の類似性を判断し,文書を選別している.このような手法は検索要求と文書内の各単語の表記が一致しない場合は関連性がないとの仮定にもとづいている.しかし,実際の文書において,語の表記が同じでも異なる意味を有したり(多義性),同じ意味でも語の表記が異なる場合(表記揺れ,同類義語)がある.さらに単語間には,互いに意味的な関連性を持って存在しており,表記だけを頼りに検索を行う手法ではユーザが入力する語によって検索結果が異なってしまう.そのためユーザが適切なキーワードを考えなければならない.その問題を解消するために,ユーザが入力したキーワードの意味を捉えた検索手法が必要である.このような背景から,本研究では文書における意味を捉えた検索を実現すべく,単語の意味特徴を定義した概念ベース\cite{okumura:07}を用いた検索手法を提案する.概念ベースを用いることによって,単語の表記のみでの検索方式とは異なり,意味を捉えた検索が可能になる.つまり,ユーザの入力語の表記的揺らぎに影響されず,意味的近さを定量化できる手法である.具体的には,概念ベースによって単語間の意味的な関連性を0から1までの数値として算出する.そして,その値をもとに検索要求と検索対象との類似度を画像検索等の分野で注目されている距離尺度であるEarthMover'sDistance(EMD)\cite{Rubner:00}により求める方法を提案する.また,概念ベースに存在しない固有名詞や新語に対して,Webをもとに新概念として定義し概念ベースを自動的に拡張する手法を提案する. | |
V03N03-02 | \label{sec:introduction}比喩は自然言語に遍在する.たとえば,李\cite{Yi82}によると,小説と新聞の社説とにおいて比喩表現の出現率に大差はない.また,比喩を表現する者(話し手)は,比喩により言いたいことを端的に表現する.したがって,自然言語処理の対象を科学技術文から評論や小説に拡大するためには,比喩の処理が必要である.比喩表現は,喩える言葉(喩詞)と喩えられる言葉(被喩詞)とからなる.話し手は,それを伝達か強意かに用いる\cite{Nakamura77a}.伝達のために比喩を用いるときは,伝達したい事柄が相手(聞き手)にとって未知であると話し手が判断したときである.たとえば,「湖」は知っているが「海」は知らない聞き手にたいして,「海というのは大きい湖のようなものだ」と言う場合である.強意のために比喩を用いるときは,伝達したい事柄の一つの側面を強調したいときである.たとえば,「雪のような肌」により「肌」の白さを強調する場合である.山梨\cite{Yamanashi88}は,(1)認定(2)再構成(3)再解釈の3段階により比喩が理解されると述べている.認定とは,ある言語表現が文字通りの意味ではない(比喩的意味である)ことに聞き手が気づくことをいう.再構成とは,喩詞と被喩詞と文脈とから比喩表現の意味を構成することである.再解釈とは,比喩表現の意味を被喩詞に対する新たな視点として認識し,被喩詞に対する考え方を聞き手が改めることである.本稿では,強意の比喩に対しての,聞き手の再解釈を考察の対象とする.ただし,再解釈を\begin{quote}\begin{description}\item[(3a)]被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を聞き手が認識する,\item[(3b)]その$\dot{\mbox{ず}}\dot{\mbox{れ}}$が聞き手の考え方に反映する\end{description}\end{quote}という2段階に分け,(3a)を対象にする.なお,対象とする比喩が強意の比喩であるので,聞き手にとって,喩詞の意味と被喩詞の意味とは既知である.本稿では,「AのようなB」という形の比喩表現を考察の対象とする.また,比喩表現が使われる文脈については考慮しない.第\ref{sec:formulation}章において,名詞の意味を確率により表現する.そして,比喩表現を捉える指標として明瞭性と新奇性とを定義する.これらは情報量に基づく指標である.明瞭性は比喩表現における属性の不確定さを示す指標であり,新奇性は比喩表現の示す事象の希少さに関する指標である.第\ref{sec:sd}章では,これら評価関数の妥当性を実験により示す.3種類の値,\begin{quote}\begin{description}\item[(1)]喩詞・被喩詞・比喩表現の属性集合(SD法による\cite{Osgood57})\item[(2)]喩詞・被喩詞・比喩表現における,属性の顕著性\item[(3)]比喩表現の理解容易性\end{description}\end{quote}を測定する.(1)から明瞭性と新奇性とを計算し,それらが属性の顕著性と比喩表現の理解容易性とを捉える指標として適当であることを示す.第\ref{sec:summary}章は結びである. | |
V14N03-09 | インターネットが普及し,ユビキタス社会が浸透するなか,人間がコンピュータと対話する機会も増加する傾向にある.これまでの対話システムは言語情報のみを扱い,そのパラ言語情報を扱うことは少ないため,人間同士の対話と比較すると,コンピュータとの対話ではコンピュータが得る人間の情報は少ない.本研究では音声の言語表現の特徴と音響的特徴から推定可能な感情を検出するために,感情の程度による言語表現の特徴および音響的変化を分析し,コンピュータと人間とのインタラクションにおける人間の感情および態度表出を捉えることを目指す.それにより,両者の円滑なコミュニケーションを図ることを目的としている.将来の具体的応用対象として考えられる対話を想定し,コールセンターなどへの自動音声応答システムにおける認識性能に対する不満からくる「苛立ち」や,真意が伝わらないことに対する「腹立ち」の表現などに着目して,ユーザの内的状態をその発話の言語表現および音響的な特徴から推定する可能性について検討する.本報告では,感情表現を含む音声データの収録方法および感情情報を付与する主観評価法および言語表現・音響的特徴をパラメータとした決定木による「怒り」の感情の程度を推定する実験手法に関して述べ,今後の分析手法の指針について報告する. | |
V05N02-04 | 日本語には単語間に明示的な区切りがないので,入力文を単語に分割し,品詞を付加する形態素解析は日本語処理における基本的な処理である.このような視点から,今日までに多くの形態素解析器が人間の言語直観に基づき作成されている.一方,英語の品詞タグ付けではいくつかのコーパスに基づく方法が提案され,非常に高い精度を報告している\cite{Grammatical.Category.Disambiguation.by.Statistical.Optimization,A.Stochastic.Parts.Program.and.Noun.Phrase.Parser.for.Unrestricted.Text,A.Simple.Rule-Based.Part.of.Speech.Tagger,A.Practical.Part-of-Speech.Tagger,Automatic.Stochastic.Tagging.of.Natural.Language.Texts,Equations.for.Part-of-Speech.Tagging,Parsing.the.LOB.corpus,Coping.with.Ambiguity.and.Unknown.Words.through.Probabilistic.Models,Tagging.English.Text.with.a.Probabilistic.Model,Some.Advances.in.Transformation-Based.Part.of.Speech.Tagging,Automatic.Stochastic.Tagging.of.Natural.Language.Texts,Transformation-Based.Error-Driven.Learning.and.Natural.Language.Processing:.A.Case.Study.in.Part-of-Speech.Tagging,Automatic.Ambiguity.Resolution.in.Natural.Language.Processing}.今日,多くの研究者が,英語の品詞タグ付けに関してはコーパスに基づく手法が従来のヒューリスティックルールに基づく手法より優れていると考えるに至っている.日本語の形態素解析に対しては,コーパスに基づく手法が従来のルールに基づく手法より優れていると考えるには至っていないようである.これは,コーパスに基づく形態素解析の研究には,ある程度の規模の形態素解析済みのコーパスが必要であり,日本語においてはこのようなコーパスが最近になってようやく簡単に入手可能になったことを考えると極めて自然である.実際,コーパスに基づく形態素解析に関しては現在までのところ少数の報告がなされているのみである\cite{確率的形態素解析,A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm,EDRコーパスを用いた確率的日本語形態素解析,HMMによる日本語形態素解析システムのパラメータ学習}.これらの研究で用いられているモデルはすべてマルコフモデル($n$-gramモデル)であり,状態に対応する単位という観点から以下のように分けられる.\begin{itemize}\item単語(列)が状態に対応する\cite{確率的形態素解析}.\item品詞(列)が状態に対応する\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm,EDRコーパスを用いた確率的日本語形態素解析,HMMによる日本語形態素解析システムのパラメータ学習}\end{itemize}確率的言語モデルという観点からは,単語を単位とすることは過度の特殊化であり,品詞を単位とすることは過度の一般化である.これらは,未知コーパスの予測力を低下させ,形態素解析の精度を下げる原因になっていると考えられる.我々は,この問題に対処するために,予測力を最大にするという観点よって算出したクラスと呼ばれる単語のグループを一つの状態に対応させ,基礎となる確率言語モデルを改良し,結果として形態素解析の精度を向上する方法を提案する.確率言語モデルとしてのクラス$n$-gramモデルは,最適なクラス分類を求める方法(以下,クラスタリングと呼ぶ)とともにすでに提案されている\cite{Class-Based.n-gram.Models.of.Natural.Language,On.Structuring.Probabilistic.Dependences.in.Stochastic.Language.Modeling,Improved.Clustering.Techniques.for.Class-Based.Statistical.Language.Modelling}.しかし,これらの文献で報告されている実験では,クラスタリング結果を用いたクラス$n$-gramモデルの予測力は必ずしも向上していない.これらに対して,文献(提出中)では削除補間\cite{Interpolated.estimation.of.Markov.source.parameters.from.sparse.data}を応用したクラスタリング規準とそれを用いたクラスタリングアルゴリズムを提案し,クラス$n$-gramモデルの予測力が有意に向上したことを報告している.本論文では,この方法を応用することで得られるクラス$n$-gramモデルを基礎にした確率的形態素解析器による解析精度の向上について報告する.また,未知語モデルに確率モデルの条件を逸脱することなく外部辞書を追加する方法を提案し,この結果として得られる未知語モデルを備えた確率的形態素解析器による解析精度の向上ついても報告する.さらに,上述の改良の両方を施した確率的形態素解析器と品詞体系と品詞間の接続表を文法の専門家が作成した形態素解析器との解析精度の比較を行なった結果について述べる. | |
V03N02-05 | 近年,電子化された大規模なテキストデータベース(コーパス)が身近に存在するようになり,その中から必要とする情報のみを高速に検索することができるテキスト検索システムの重要性が改めて認識されるようになってきた.また,検索の目的としても,単にある文字列を検索してくるというだけでなく,用例ベースの翻訳支援システムなどで要求されるように,ある言い回し,ある種の意味内容について検索してくるといった高度な検索が求められるようになってきた\cite{Kishimoto1994}.このような高度な検索のためには,検索対象であるテキストデータを解析して種々の情報をあらかじめ付加しておく必要がある(タグ付きコーパス).タグ付きコーパスとしては,形態素解析を行って単語に分割し,品詞情報を付加したものが作成されているが,前述のような検索要求に対しては,これではまだ不十分であり,構文情報を付加したデータが望まれる.しかし,長文を含む一般の大量のテキストに対して,安定的に高精度の構文解析を行うことは現状ではまだ困難である.我々は以前,人手により構文解析したコーパス(約3500文)を実験的に作成し,これを対象とした用例検索システムTWIXの構築を行ったが\cite{HyodoAndIkeda1994},実用的なレベルの大規模な構文付きコーパスを作成するには人手による方法では現実的ではない.そこで我々は,必ずしも常に完全な構文木ではないが,場合によっては部分的に曖昧さを残したままの解析木を,表層的な情報のみを用いて安定的に求める骨格構造解析手法を開発し,これを用いて構文付きコーパスを構築することを試みた.さらに,この構文付きコーパスを対象として,分類語彙表の意味分類を利用した意味コード化をも加え,類似用例検索システムの構築を行った.本システムでは,構文的制約(係り受け構造)を指定して検索できるので,単語レベルの検索では検索されてしまうような多くの不適切な用例を絞り込むことが可能となる.本研究では,講談社和英辞典およびオーム社科学技術和英大辞典の用例(約8万文)について,骨格構造解析により構文付きコーパスの作成を行なった.このうち200文を取り出して解析結果を評価したところ,骨格構造解析結果中に正しい解析木を含んでいるものは約93\%,その中で,係り先が曖昧な文節は約8\%であり,高い精度が得られることを確認した.また,このコーパスを対象として類似用例検索システムによる検索実験を行い,骨格構文構造を用いることの有効性,さらに意味コード化の有用性を確認した.以下では,2章で骨格構造解析と構文付きコーパスの作成方法について述べ,3章で類似用例検索システムの実現方法,4章で検索実験とそれについての考察を行う. | |
V25N04-05 | \label{sec:intro}並列構造は等位接続詞などの句を連接させる働きのある語にともなって,句や文が並列して出現する構造である.並列構造は自然言語において高い頻度で現れるが,並列構造が包含する句の範囲には曖昧性があり,また並列構造によって1文が長くなるため,自然言語解析を困難にしている主な要因となっている.近年,句構造や依存構造などの構文解析の手法は顕著に発展してきているが,並列構造を高い精度で解析する決定的な手法は確立されていない.並列構造の曖昧性が解消されることで構文解析の誤りを減らすだけではなく,科学技術論文の解析や文の要約,翻訳など広い範囲のアプリケーションでの利用が期待される.並列構造の構成要素である個々の並列句には二つの特徴がある.一つは並列構造内の個々の並列句はそれぞれ類似した意味・構造となる特徴であり,もう一つはそれぞれの並列句の入れ替え・省略を行っても文法上の誤りが生じることや元の文意を損なうことがなく,文として成立するという特徴である.並列句の範囲を同定するタスクにおいて,従来の研究では並列構造を同定するための重要な手がかりのうち,並列句の候補となる句のペアの類似度に基づくモデルが提案されてきた\cite{kurohashi-nagao:1994:CL,shimbo-hara:2007:EMNLP-CoNLL,hara-EtAl:2009:ACL-IJCNLP,hanamoto-EtAl:2012:EACL}.しかしながら,並列句は必ずしも類似するとは限らず,異なる種類の句が並列した場合や動詞句や文の並列では並列句はしばしば非類似となり,類似性のみを利用した手法では非類似の並列句をとらえることができなかった.また従来手法では類似度の計算に構文情報やシソーラスを用いて人手で設計された素性を利用しており,素性設計のコストや外部リソースの調達コストの点で問題がある.これらの問題を克服するために,Ficlerら\cite{ficler-goldberg:2016:EMNLP}は,並列句の類似性のみならず可換性に着目し,ニューラルネットワークによって類似性・可換性の特徴ベクトルを計算し,並列句範囲の同定を行うモデルを提案した.Ficlerらの手法では外部の構文解析器を用いて並列句範囲の候補を抽出したのち,候補に対してスコア付けをして範囲を同定するというパイプライン処理を行っている.Ficlerらの手法はPennTreebankでの並列句範囲の同定のタスクにおいて,既存の句構造の構文解析器を上回る精度を達成し,GENIAコーパスにおいても新保ら\cite{shimbo-hara:2007:EMNLP-CoNLL},原ら\cite{hara-EtAl:2009:ACL-IJCNLP}の並列句の類似性に基づく手法より高い性能を発揮した.Ficlerらの手法は従来の手法の欠点であった非類似となる並列句の範囲をとらえられない点や人手による素性設計のコストの点をいくらか解決しているものの,外部の構文解析器の出力に強く依存しており,解析器の誤りに起因する誤り伝搬やパイプライン処理による解析速度の低下の点で課題が残っている.本研究では,単語の表層形と品詞情報のみから並列句の類似性・可換性の特徴を抽出し,並列構造の範囲を同定する手法を提案する.また句を結びつける働きを持つかどうかが曖昧である語に対して,連接する並列句が存在しない場合の取り扱いや,並列句が存在しない場合を検出する方法についても示す.提案手法では,近年自然言語の解析で広く用いられている双方向型リカレントニューラルネットワークを使用して候補となる並列句の文脈情報を考慮した類似性・可換性の特徴ベクトルを計算する.実験の結果,PennTreebankにおける並列句の範囲同定のタスクにおいて,構文情報を用いない提案手法が構文情報を利用した既存手法と同等以上のF値を得た.さらにGENIAコーパスにおいては,類似となる傾向の高い名詞句の並列,非類似となる傾向の高い文の並列の両方について,提案手法が既存手法を上回る再現率を達成したことを示す.提案手法の貢献は,Ficlerらの手法のような構文解析の結果に依存したパイプライン処理やニューラルネットワークのアーキテクチャを使用することなく,原らの手法で課題となっていた非類似となる並列句の範囲同定の再現率を向上させ,全体として既存手法と同等以上の解析精度を達成したことである. | |
V06N04-03 | 現代日本語で「うれしい」「悲しい」「淋しい」「羨ましい」などの感情形容詞を述語とする感情形容詞文には,現在形述語で文が終止した場合,平叙文の際,一人称感情主はよいが二人称,三人称感情主は不適切であるというような,人称の制約現象がある\footnote{本稿で言う「人称」とは,「人称を表す専用のことば」のことではない.ムードと関連する人称の制約にかかわるのは「話し手」か「聞き手」か「それ以外」かという情報である.よって,普通名詞であろうと,固有名詞であろうと,ダイクシス専用の名詞であろうと,言語化されていないものであろうと,それがその文の発話された状況において話し手を指していれば一人称,聞き手を指していれば二人称,それ以外であれば三人称という扱いをする.\\a.太郎は仕事をしなさい.\\b.アイちゃん,ご飯が食べたい.(幼児のアイちゃんの発言)\\a.の「太郎」は二人称,b.の「アイちゃん」は一人称ということである.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(1)]\{わたし/??あなた/??太郎\}はうれしい.\item[(2)]\{わたし/??あなた/??太郎\}は悲しい.\end{itemize}\end{quote}\vspace{0.3cm}このとき,話し手が発話時に文をどのようなものと捉えて述べているかを表す「文のムード」\footnote{文のムードとは,話し手が,文を述べる際,どのような「つもり」であるのかを示す概念である.文を聞き手に対してどのように伝えるか(例えば,命令,質問など)ということと共に,話し手が,発話内容に対してどのように判断しているか(例えば確信,推量,疑念など)も文のムードである.これを「モダリティ」と呼ぶこともあるが,本稿では,こういった文の述べ方に対する概念的区分を,「ムード」と呼び,ムードが具体的に言語化された要素を「モダリティ」と呼ぶ.例えば「明日は晴れるだろう.」という文では,発話内容に対して推量していることを聞き手に伝え述べるというムードを持つのが普通であり,「だろう」は推量を表すモダリティである.}によって,感情形容詞の感情の主体(感情主)が,話し手である一人称でしかありえない場合と,やや不自然さはあるものの文脈によっては,二人称,三人称の感情主をとることが可能な場合がある\cite{東1997,益岡1997}.(3)(4)のように,話し手の発話時の感情を直接的に表現している「感情表出のムード」を持つ「感情表出文」(\cite{益岡1991,益岡1997}で「情意表出型」とされる文の一部)では,感情主は一人称に限定される.「感情表出のムード」とは話し手が発話時の感情を「思わず口にした」ようなものであり,聞き手に対してその発話内容を伝えようというつもりはあってもなくてもよいものである\footnote{感情表出文は,「まあ」「きゃっ」「ふう」など,発話者が自分の内面の感情を聞き手に伝達する意図なく発露する際に用いられる感嘆語と共起することが多いことから,聞き手への伝達を要しないものであることが分かる.\\きゃっ,うれしい.\\ふう,つらい.\\一方,「さあ」「おい」「よお」など,聞き手に何らかの伝達を意図する感嘆語と共起した場合,感情形容詞述語文であっても,感情表出文にはならない.\\さあ,悲しい.\\おい,寂しい.\\ただし,「まあ」などの感嘆語は感情表出文にとって必須ではない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(3)]まあ,うれしい.\item[(4)]ええ憎い,憎らしい・・・・・人の与ひょうを〔木下順二『夕鶴』〕\end{itemize}\end{quote}\vspace{0.3cm}一方,客観的に捉えた発話内容を述べ,聞き手に伝え述べるという「述べ立てのムード」(\cite{仁田1991}第1,2章参照)を持つ「述べ立て文」(\cite{益岡1997}で「演述型」とされる文)における人称の制約は弱い.一般的には,(益岡~1997(:4))で述べられている「人物の内的世界はその人物の私的領域であり,私的領域における事態の真偽を断定的に述べる権利はその人物に専属する.」という語用論的原則により,(5)(6)のような感情を表す形容詞(益岡によれば「私的領域に属する事態を表現する代表的なもの」)を述語にする文において「あなた」「彼女」に関する事態の真偽を断定的に述べることは不適格である\footnote{ここでは,語用論的に不適切であると考えられる文を,\#でマークし,文法的に不適切であることをあらわす*とは区別して用いる.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(5)]夫が病気になったら\{わたし/\#あなた/\#彼女\}はつらい.\item[(6)]海外出張は\{わたし/\#あなた/\#彼女\}には楽しい.\end{itemize}\end{quote}\vspace{0.3cm}しかし,このような語用論的原則は,文脈や文体的条件\footnote{文体的な条件によって人称制約が変わるというのは,小説などにおいて一般的な日常会話と語用論的原則が異なってくることから生じるものである.\cite{金水1989}参照}などにより,その原則に反した発話でも許される場合があるのである.(7)は感情主を数量子化したもの,(8)は小説という文体的条件による.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(7)]海外出張は誰にでも楽しい.\item[(8)]それをこさえるところを見ているのがいつも安吉にはたのしい.(中野重治『むらぎも』)\end{itemize}\end{quote}\vspace{0.3cm}こういった人称制約のタイプを語用論的な人称の制約とする.\cite{東1997}では,前者のように人称が限定されるタイプの人称制約を「必然的人称指定」,後者のように語用論的に限定される人称制約を「語用論的人称制限」と呼び区別した.(益~岡~1997(:2))でも情意表出型と演述型の人称制限の違いを,後者のみが日本語特有の現象と捉え,区別する必要を述べている.しかし,従来の研究においては,その「感情表出(情意表出)のムード」がどのようなものであるかということは明確に規定されておらず,また,どのように感情主が一人称に決定されるのかという人称決定のシステムも描かれてきていない\footnote{(益岡1997(:2))でも「悲しいなあ.」のような「内面の状態を直接に表出する文の場合,感情主が一人称に限られるのは当然のこと」とされている.}.そこで,本稿では,以下の手順で「感情表出文」について明らかにしていく.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(I)]人称の制約が文のムードと関係して生じていることを確認する(2.1)\item[(II)]感情表出文は,そのムードが述語主体を常に一人称に決定するものであることを定義づける.(2.2)\item[(III)]感情表出文として機能し解釈されるためには一語文でなければならないことを主張する.(3)\item[(IV)]感情表出文のムードの性質から(III)を導き出す.(4)\end{itemize}\end{quote}\vspace{0.3cm}また,ここでは,人称制約を受ける部分を「ガ格(主格)」ではなく,「感情主」という意味役割を伴うもので扱う.感情形容詞述語は「感情主」と「感情の対象」(時にはそれは「感情を引き起こす原因」)を意味役割として必要とするが,人称の制約を受ける感情主は,ガ格とニ格とニトッテ格で表される可能性があるからである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(9)]\underline{\{私/\#彼\}は}仕事が楽しい.\end{itemize}\end{quote}\vspace{0.3cm}(9)の「は」によって隠されている格を表わそうとすれば,三つの可能性があるが,どれも意味役割は感情主であり等価である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(10)]a\underline{私が}仕事が楽しいコト\\b\underline{私に}仕事が楽しいコト\\c\underline{私にとって}仕事が楽しいコト\end{itemize}\end{quote}\vspace{0.3cm}また,(10)aにおけるガ格「私が」「仕事が」で,人称の制約がかかるのは,感情主「私が」だけであり,意味役割が感情の対象である「仕事が」には人称の制約がかかることはない.さらに,(9)の主題は,感情主であるため人称の制約があるが,(11)の主題「仕事は」には人称の制約はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(11)]仕事は\{私/\#あなた\}は楽しい.\end{itemize}\end{quote}\vspace{0.3cm}このようなことから,本稿では人称制約に関わる名詞句と述語との関係を意味役割で捉える. | |
V21N03-01 | 機械翻訳システムの開発過程では,システムの評価と改良を幾度も繰り返さねばならない.信頼性の高い評価を行うためには,人間による評価を採用することが理想ではあるが,時間的な制約を考えるとこれは困難である.よって,人間と同程度の質を持つ自動評価法,つまり,人間の評価と高い相関を持つ自動評価法を利用して人間の評価を代替することが実用上求められる\footnote{本稿では,100文規模程度のコーパスを用いて翻訳システムの性能を評価すること,つまり,システム間の優劣を比較することを目的とした自動評価法について議論する.}.こうした背景のもと,様々な自動評価法が提案されてきた.BLEU\cite{bleu},NIST\cite{nist},METEOR\cite{meteor},WordErrorRate(WER)\cite{WER}などが広く利用されているが,そのなかでもBLEU\cite{bleu}は,数多くの論文でシステム評価の指標として採用されているだけでなく,評価型ワークショップにおける公式指標としても用いられており,自動評価のデファクトスタンダードとなっている.その理由は,人間による評価との相関が高いと言われていること,計算法がシステム翻訳と参照翻訳(正解翻訳)との間で一致するNグラム(一般的に$\mathrm{N}=4$が用いられる)を数えあげるだけで実装も簡単なことにある.しかし,BLEUのようにNグラムという短い単語列にのみに着目してスコアを決定すると,システム翻訳が参照翻訳のNグラムを局所的に保持しているだけで,その意味が参照翻訳の意味と大きく乖離していようとも高いスコアを与えてしまう.局所的なNグラムは一致しつつも参照翻訳とは異なるような意味を持つ翻訳をシステムが生成するという現象は,翻訳時に大きな語順の入れ替えを必要としない言語間,つまり,構文が似ている言語間の翻訳ではほとんど起こらない.例えば,構文が似ている言語対である英語,仏語の間の翻訳では大きな語順の入れ替えは必要なく,BLEUと人間の評価結果との間の相関も高い\cite{bleu}.一方,日本語と英語のように翻訳時に大きな語順の入れ替えが必要となる言語対を対象とすると,先に示した問題が深刻となる.例えば,Echizen-yaらは日英翻訳において,BLEU\cite{bleu},その変種であるNIST\cite{nist}と人間の評価との間の相関が低いことを報告している\cite{echizenya-wpt09}.文全体の大局的な語順を考慮する自動評価法としては,ROUGE-L\cite{ROUGEL},IMPACT\cite{impact}がある.これらの手法は参照翻訳とシステム翻訳との間で一致する最長共通部分単語列(LongestCommonSubsequence:LCS)に基づき評価スコアを決定する.LCSという文全体での大局的な語順を考慮していることから,英日,日英翻訳システムの評価において,Nグラム一致率に基づく自動評価法よりもより良い評価ができるだろう.しかし,Nグラム一致率に基づく自動評価法と同様,訳語の違いに敏感すぎるという問題がある.後に述べるが,NTCIR-9での特許翻訳タスクにおいては,人間が高い評価を与えるルールベースの翻訳システムに高スコアを与えることができないという問題がある.本稿では日英,英日という翻訳時に大きな語順の入れ替えを必要とする言語対を対象とした翻訳システムの自動評価法を提案する.提案手法の特徴は,Nグラムという文中の局所的な単語の並びに着目するのではなく,文全体における大局的な語順に着目する点と,参照翻訳とシステム翻訳との間で一致しない単語を採点から外し,別途,ペナルティとしてそれをどの程度重要視するかを調整できるようにすることで訳語の違いに対して寛大な評価を行う点にある.より具体的には,システム翻訳と参照翻訳との間の語順の近さを測るため,両者に一致して出現する単語を同定した後,それらの出現順序の近さを順位相関係数を用いて計算し,これに重み付き単語正解率と短い翻訳に対するペナルティを乗じたものを最終的なスコアとする.近年,提案手法と同じく語順の相関に基づいた自動評価法であるLRscoreがBirchらによって独立に提案されている\cite{birch-acl}.LRscoreは,参照翻訳とシステム翻訳との間で一致する単語の語順の近さをKendall距離で表し,それをさらに低レンジでのスコアを下げるために非線形変換した後,短い翻訳に対するペナルティを乗じ,さらにBLEUスコアとの線形補間で評価スコアを決定する.提案手法とLRscoreは特殊な状況下では同一の定式化となるが,研究対象としてきた言語対が異なることから,相関係数と語彙の一致に対する考え方が大きく異なる.提案手法がどの程度人間の評価に近いかを調べるため,NTCIR-7,NTCIR-9の日英,英日,特許翻訳タスク\cite{ntcir7,ntcir9}のデータを用いて検証したところ,翻訳システムの評価という観点から,従来の自動評価法よりも人間の評価に近いことを確認した.以下,2章ではBLEUを例として,Nグラムという局所的な語順に着目してシステムを評価することの問題点,3章ではLCSを用いてシステムを評価することの問題点を指摘する.そして,4章でそれら問題点の解決法として,訳語の違いに寛大,かつ,大局的な語順の相関に基づく自動評価法を提案する.5章で実験の設定を詳述し,6章では実験結果を考察する.最後に7章でまとめ,今後の課題について述べる. | |
V07N02-01 | コンピュータで利用する電子化文書データの増大に伴って,文書の自動分類に関する研究開発が非常に活発であり,文書全体の情報を利用して,類似度を計算するベクトルモデル\cite{長尾他1996,野村1999,徳永他1994}や確率モデル\cite{Fuhr1989}の技術が確立されてきた.しかしながら,実際の文書は,複数の話題や分野を混合して含み,検索したい内容は文書の一部分(断片)に存在する場合がほとんどであるので,文書全体を検索対象とするのではなく,検索要求に合致した文書断片のみを抽出するパッセージ検索技術が着目されている\cite{Callan1994,Kaszkiel1997,Melucci1998,望月他1999,Salton1993}.特に,人間は文書全体を読むことなしに,代表的な単語を見るだけで,<政治>や<スポーツ>などの分野を認知できることから,文書断片内の数少ない単語情報から分野を的確に決定するための分野連想語セットの構築は重要な研究課題である.文書全体の情報を利用するモデルでは,誤った重要語の多少の過剰抽出は補正されるが,本論文では,文書断片を対象とするので,誤った連想語を過剰抽出する割合を限りなく零にできる抽出法の実現を目標とする.連想語の水準に関連する研究として,統計情報を利用して単語の重要度(重み)を決定する方法\cite{Salton1988,Salton1983,Salton1973,徳永他1994},単語の重み付けを学習する方法\cite{福本他1999}があり,また単語の概念や意味情報を利用する方法\cite{亀田他1987,Walker1987},意味的に関係のある名詞をリンク付けする手法\cite{福本他1996}などが提案されている.しかしながら,これら手法では,本論文の目標である高い適合率(過剰抽出が少ないことを意味する)には十分な関心が払われていない.また,シソーラスなどの分類体系を利用する手法は,単語の統計情報のみに依存する手法に比べて精度向上が期待できるが,分類体系と単語間の対応関係を事前に構築しておいて,文書の特徴を学習する方法\cite{河合1992,山本他1995}では,データスパースネス\cite{福本他1996}の問題があり,十分な精度向上は得られていない.また,分類体系の特徴を規則として学習する手法\cite{Blosseville1992}では,高い精度を実現しているが,実験のデータ規模が小さく,解析も複雑であるので,現段階では実用性に難がある.更に,分類体系から分野決定するためのルールを機械学習する方法\cite{Apte1994}では,文書分類精度がBreakevenpoint(再現率と適合率が一致する値)で最高約0.80まで向上しているが,本研究が目標とする精度には達していない.また,複合語の連想語の決定に関連する研究として,複合語のキーワード抽出手法\cite{伊藤他1993,小川他1993,林他1997,原他1997}があるが,人手で修正した短単位語キーワードを利用して複合語キーワードを決定する手法は議論されていない.本論文では,固定された分野体系と学習データを利用し,誤った連想語の割合が数パーセント以下となる抽出法を提案する.本手法では,単語数が有限である短単位語の連想語を人手で修正し,この短単位語の連想情報を利用して,無限に造語される複合語の連想語を自動決定する.以下,2~章では分野連想語の水準と安定性ランクを説明し,3~章では学習データから連想語候補を自動決定する方法と短単位語の人手による修正法を述べる.4~章では複合語の連想語の決定法を提案し,5~章では180分野に分類された約15,000ファイルの実験結果により,提案手法の有効性を実証する.6~章では本論文をまとめ,今後の課題を述べる.\vspace{-2mm} | |
V08N01-06 | \label{sec:introduction}形態素解析は日本語解析の重要な基本技術の一つとして認識されている.形態素解析の形態素とは,単語や接辞など,文法上,最小の単位となる要素のことであり,形態素解析とは,与えられた文を形態素の並びに分解し,それぞれの形態素に対し文法的属性(品詞や活用など)を決定する処理のことである.近年,形態素解析において重要な課題となっているのは,辞書に登録されていない,あるいは学習コーパスに現れないが形態素となり得る単語(未知語)をどのように扱うかということである.この未知語の問題に対処するため,これまで大きく二つの方法がとられてきた.一つは未知語を自動獲得し辞書に登録する方法(例えば\cite{Mori:96}など)であり,もう一つは未知語でも解析できるようなモデルを作成する方法(例えば\cite{Kashioka:97,Nagata:99}など)である.ここで,前者の方法で獲得した単語を辞書に登録し,後者のモデルにその辞書を利用できるような仕組みを取り入れることができれば,両者の利点を生かすことができると考えられる.森らはn-gramモデルに外部辞書を追加する方法を提案している\cite{Mori:98}.ある文字列が辞書に登録されている場合にその文字列が形態素となる確率を割り増しするような方法である.しかし,わずかな精度向上に留まっていることから,n-gramモデルでは辞書の情報を利用する仕組みを容易に組み込むのは難しいのではないかと考えられる.本論文では,最大エントロピー(ME)モデルに基づく形態素解析の手法を提案する.この手法では,辞書の情報を学習する機構を容易に組み込めるだけでなく,字種や字種変化などの情報を用いてコーパスから未知語の性質を学習することもできる.ここで辞書の情報とは,辞書に登録されている語が複数の品詞をとり得る場合にどの品詞を選択するべきかといった情報を意味する.京大コーパスを用いた実験では,再現率95.80\%,適合率95.09\%の精度が得られた.本論文では,辞書の情報を用いない場合,未知語の性質を学習しない場合についても実験し,それぞれの精度に及ぼす影響についても考察する. | |
V21N02-08 | 述語項構造は,文章内に存在する述語と,その述語が表現する概念の構成要素となる複数の項との間の構造である.例えば次の文,\enumsentence{[太郎]は[手紙]を\underline{書い}た.}では,述語「書く」に対して,「太郎」と「手紙」がこの述語の項であるとされる.また,述語が表現する「書く」という概念の上でそれぞれの項の役割は区別される.役割を表すためのラベルは用途に応じて様々であるが,例えば,ここでの「太郎」には「ガ格」「動作主」「書き手」などのラベル,「手紙」には「ヲ格」「主題」「書かれる物」などのラベルが与えられる.このように,述語に関わる構成要素を構造的に整理する事によって,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解にとって重要な情報を抽出することができる.このため,述語項構造の解析は,機械翻訳,情報抽出,言い換え,含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている\cite{shen2007using,liu2010semantic}.述語項構造解析においても,近年,形態素解析や構文解析などで行われている方法と同様に,人手で作成した正解解析例をもとに統計的学習手法によって解析モデルを作成する方法が主流となっている\cite{marquez2008srl}.述語項構造を付与したコーパスとしては,日本語を対象にしたものでは,京都大学テキストコーパス(KTC)\cite{KUROHASHISadao:1997-06-24}の一部に付けられた格情報\cite{kawahara2002construction,河原大輔2002関係}やNAISTテキストコーパス(NTC)\cite{iida2007annotating,飯田龍2010述語項構造},GDAコーパス\cite{hashida05},解析済みブログコーパス(KyotoUniversityandNTTBlogCorpus:KNBC)\cite{橋本力2009},NTCの基準に従ってBCCWJコーパス(国立国語研究所)\nocite{bccwj}に述語項構造情報を付与したデータ(BCCWJ-PAS)\cite{komachi2011}などがあり,英語を対象にしたものでは,PropBank~\cite{palmer2005pba},FrameNet~\cite{Johnson2003},NomBank~\cite{meyers2004nombank},OntoNotes~\cite{hovy2006ontonotes}などが主要なコーパスとして挙げられる.過去十年間の述語項構造解析技術の開発は,まさにこれらのデータによって支えられてきたといって過言ではない.しかしながら,日本語の述語項構造コーパスは,その設計において未だ改善の余地を残す状況にあると言える.第一に,比較的高品質な述語項構造がアノテートされた英語のコーパスに比べて,日本語を対象とした述語項構造のアノテーションは,省略や格交替,二重主語構文などの現象の取り扱いのほか,対象述語に対してアノテートすべき項を列挙した格フレームと呼ばれる情報の不足などにより,作業者間のアノテーション作業の一致率に関して満足のいく結果が得られていない.例えば,現在ほとんどの研究で開発・評価に利用されているNTCに関して,飯田らは,作業者間一致率や作業結果の定性的な分析を踏まえれば,アノテーションガイドラインに少なからず改善の余地があるとしている\cite{飯田龍2010述語項構造}.また,我々は,述語項構造アノテーションの経験のない日本語母語話者一名を新たに作業者とし,KTC,NTCのアノテーションガイドラインを熟読の上で新たな日本語記事に対して述語項構造アノテーションを行ったが,KTC,NTCのどちらのガイドラインにおいても付与する位置やラベルを一意に決めることの出来ないケースが散見された.述語項構造のようにその他応用解析の基盤となる構造情報については,これに求められる一貫性の要求も高い.したがって,今後,述語項構造の分析や解析器の開発が高水準になるにつれて,既存のコーパスを対象とした学習・分析では十分な結果が得られなくなる可能性がある.そのような問題を防ぐためには,現状のアノテーションガイドラインにおいて判断の揺れとなる原因を洗い出し,ガイドラインを改善しつつ,アノテーションの一貫性を高めることで,学習・分析データとしての妥当性を高い水準で確保していく必要がある.第二に,より質の高いアノテーションを目指してガイドラインを改善することを考えた場合,それぞれの基準をどういった観点で採用したかが明確に見てとれるような,論理的で一貫したガイドラインが必要となるが,KTC,NTCなどの既存のアノテーションガイドライン\cite{ntcguideline,ktcguideline}や関連論文\cite{kawahara2002construction,河原大輔2002関係,iida2007annotating,飯田龍2010述語項構造}を参照しても,個々の判断基準の根拠が必ずしも明確には書かれていない.典型的に,アノテーションガイドラインの策定時に議論される内容はコーパス作成者の中で閉じた情報となることが多く,その方法論や根拠が明示的に示された論文は少ない.このため,付与すべき内容の詳細をどのように考えるかという,アノテーションそのものの研究が発展する機会が失われているという現状がある.また,KNBCやBCCWJ-PASのように既存のガイドラインに追従して作られるコーパスの場合,新規ドメインに合わせるなど一部仕様が再考されるものの,アノテーションの研究は一度おおまかにその方向性が決まってしまうと,再考するための情報の不足もあり,本質的に考えなければならない点が据え置かれ,さらに詳細が議論されることは稀である\footnote{公開されているガイドラインを確認する限りでは,KNBC作成時には格関係に関するガイドラインは再考されていない.BCCWJ-PASの仕様は,機能語相当表現の判別に辞書を用いる点と,ラベル付与の際に既存の格フレームを参照する点をのぞいて,NTCの仕様とおよそ同等である.}.そこで,本研究では,この二つの問題を解消するために,既存のコーパスのガイドラインにおける相違点や曖昧性の残る部分を洗い出し,どのような部分に,どのような理由で基準を設けなければならないかを議論し,その着眼点を明示的に示すことを試みた.具体的には,(i)既存のガイドラインに従って新たな文章群へあらためてアノテーションを行った結果に基づいて議論を行い,論点を整理したほか,(ii)新規アノテーションの作業者,既存の述語項構造コーパスの開発者,また既存の仕様に問題意識を持つ研究者を集め,それぞれの研究者・作業者が経験的に理解している知見を集約した.(iii)これらをふまえ,述語項構造に関するアノテーションをどう改善するべきか,どの点を吟味すべきかという各論とともに,アノテーション仕様を決める際の着眼点としてどのようなことを考えるべきかという議論も行った.本論文ではこれらの内容について,それぞれ報告する.次節以降では,まず,\ref{sec:related_work}~節で述語項構造アノテーションに関する先行研究を概観し,\ref{sec:ntc}節で今回特に比較対象としたNAISTテキストコーパスの述語項構造に関するアノテーションガイドラインを紹介する.\ref{sec:how-to-discuss}節で研究者・作業者が集まった際の人手分析の方法を説明し,\ref{sec:individual}~節で分析した事例を種類ごとに紹介する.さらに,\ref{sec:framework}~節で,述語項構造アノテーションを通じて考察した,アノテーションガイドライン策定時に考慮される設計の基本方針について報告し,\ref{sec:individual}~節で議論する内容との対応関係を示す.最後に\ref{sec:conclusion}~節でまとめと今後の課題を述べる.以降,本論文で用いる用語の意味を以下のように定義する.\begin{itemize}\itemアノテーション仕様:どのような対象に,どのような場合に,どのような情報を付与するかについての詳細な取り決め.\itemアノテーションスキーマ:アノテーションに利用するラベルセット,ラベルの属性値,及びラベル間の構造を規定した体系.アノテーション仕様の一部.\itemアノテーションフレームワーク:アノテーションにおいて管理される文章やデータベースの全体像,及びアノテーション全体をどのように管理するか,どのような手順で作業を行うかなどの運用上の取り決め.\itemアノテーションガイドライン:作業の手順や具体的なアノテーション例などを含み,実際のアノテーションの際に仕様の意図に従ったアノテーションをどのようにして実現するかを細かく指示する指南書.\itemアノテーション方式:特定のコーパスで採用される仕様,スキーマ,フレームワークのいずれか,もしくはその全体.\itemアノテーション基準:あるラベルやその属性値を付与,あるいは選択する際の判断基準.\itemアノテーション規則:アノテーション基準を守るべき規則として仕様やガイドラインの中に定めたもの.\end{itemize} | |
V19N04-03 | 本論文では対象単語の用例集合から,その単語の語義が新語義(辞書に未記載の語義)となっている用例を検出する手法を提案する.新語義の検出は語義曖昧性解消の問題に対する訓練データを作成したり,辞書を構築する際に有用である.また新語義の検出は意味解析の精度を向上させる\cite{erk}.また新語義の用例はしばしば書き誤りとなっているので,誤り検出としても利用できる.新語義検出は一般にWordSenseDisambiguation(WSD)の一種として行う方法,新語義の用例をクラスターとして集めるWordSenseInduction(WSI)のアプローチで行う方法\cite{denkowski},及び新語義の用例を用例集合中の外れ値とみなし,外れ値検出の手法を用いる方法\cite{erk}がある.ここでは外れ値検出の手法のアプローチを取る.ただしデータマイニングで用いられる外れ値検出の手法は教師なしであるが,本タスクの場合,少量の用例に語義のラベルが付いているという教師付きの枠組みで行う方が自然であり,ここでは教師付き外れ値検出の手法を提案する.提案手法は2つの検出手法を組み合わせたものである.第1の手法は代表的な外れ値検出手法であるLocalOutlierFactor(LOF)\cite{lof}を教師付きの枠組みに拡張したものである.第2の手法は,対象単語の用例(データ)の生成モデルを用いたものである.一般に外れ値検出はデータの生成モデルを構築することで解決できる.提案手法では第1の手法と第2の手法の出力の積集合を取ることで,最終の出力を行う.提案手法の有効性を確認するために,SemEval-2の日本語WSDタスク\cite{semeval-2010}のデータを利用した.従来の外れ値検出の手法と比較することで提案手法の有効性を示す.実験を通して,外れ値検出に教師データを利用する効果も確認する.またSVMによるWSDの信頼度を利用した外れ値検出も行い,WSDシステム単独では新語義の検出は困難であることも示す. | |
V10N05-08 | 大量の文書情報の中から必要な部分を抽出するために,自動要約技術などによって文書の量を制御し,短い時間で適確に内容を把握する必要性が高くなってきている.自動要約には,文書中の文を単位とし,なんらかの情報をもとに重要語を定義して各文の重要度を計算する方法がある.たとえば,文書中の出現頻度が高い単語は重要語になる可能性が高いという仮定のもとに,単語の重要度を計算する方法({\ittfidf}法)\cite{salton1989},自立語の個数を考慮して単語の重要度を計算する方法\cite{robertson1997},語彙的連鎖を用い重要度を計算する方法\cite{mochizuki2000}がある.新聞など文書の構造上の特徴から重要文を抽出する方法や,主張,結論,評価などの特別な語を含む文を重要文とする方法など,文書の重要な記述部分を示す語を含む文や,その文に含まれる単語の重要度を他の単語より上げる方法がある\cite{watanabe1996}.その他にも,接続詞,照応関係などから文間・単語間のつながりを解析し要約する方法,文書を意味ネットワーク化して,その上でコネクショニスト・モデルを用いて,接点の活性値の収束値を重要度として計算する要約方法\cite{Hasida1987,Nagao1998}などがある.要約文の表示には文書中の文単位で重要度を計算し,文書中での出現順にあわせて重要な文を提示していくという方法をとるものや,重要な語句・文・パラグラフなどの単位で抽出・表示するものが多い.複数の文を接続詞などでつなげてまったく新しい要約文書を生成するものは少ないが,文脈,文の重要部分,または構造を考慮して,重要文をさらに小さい単位で表示するシステムも出てきている\cite{nomura1999}.システムが抽出した要約文を評価する方法には,人間の被験者の要約と{\ittfidf}法などでシステムが抽出した要約とを再現率/適合率によって比較する方法\cite{Zechner1996},様々な手法で抽出された要約文を利用して,ある種のタスクを行ないその達成率で間接的に評価を行なう方法\cite{mochizukiLREC2000},要約は読み手の観点によって変化することに着目して複数の正解に基づいて評価する方法\cite{ishikawa2002}などがある.本論では,連想概念辞書をもとに,単語と単語の連想関係とその距離情報を使って文書中の単語の重要度を計算し,各文ごとの重要度を求め重要文の抽出を行なう.連想概念辞書は,小学校の学習基本語彙の名詞を刺激語とし,「上位概念」「下位概念」「部分・材料概念」「属性概念」「類義概念」「動作概念」「環境概念」の7つの課題に関して,大量の連想語を収集して構造化すると同時に,刺激語と連想語との距離が定量化されている\cite{Okamoto2001}.連想概念辞書の規模は見出し語が約660語,連想語が延べで約16万語である.単語の重要度の計算は,その単語の連想語もしくはその単語を連想する刺激語が文書中にあれば,二つの単語の距離から得られる値を使用して重要度を計算する.たとえば,「ガラパゴスには巨大な\underline{ゾウガメ}がいる.この\underline{カメ}は,島の中を悠然と歩いている.」のように「ゾウガメ」の上位概念である「カメ」を用いて言い換えている場合,「カメ」「ゾウガメ」の重要度を二つの単語間の距離に基づいて計算する.これによって,表層的に文書中の単語の出現頻度をもとにした重要度の計算では別の単語として処理されるが,本手法では上位/下位概念や部分・材料概念,属性概念,動作概念,環境概念などの連想関係も用いているので関連する単語の重要度を精密に計量することができる.次に人間を被験者として重要文を抽出する実験を行なう.被験者の観点によって抽出される重要文が違ってくる場合があるが,40人の被験者で実験を実施し,多くの被験者が上位に抽出している順番を重視して重要度を決定した.本論文では,既存の重要語抽出法と本手法での抽出結果とを,被験者による実験結果との一致度を比較することによって評価した. | |
V26N02-06 | 登場人物(キャラクタ)は小説,コミック,アニメ,ドラマ,映画などの物語世界における重要な構成要素の一つであり,ライトノベルのように「キャラクタ中心の物語」(メイナード2012)\nocite{maynard:2012}すら存在する.近年は,ユーザの命令に従ってタスクを実行したり,会話をしたりする対話エージェントにおいても,エージェントのキャラクタが重視されるようになり,マイクロソフトの「りんな」\footnote{https://www.rinna.jp/}をはじめとして,特定のキャラクタを冠した対話エージェントが数多く作られている\footnote{https://www.nttdocomo.co.jp/service/shabette\_concier/shabette\_chara/}$^{,}$\footnote{http://line.froma.com/}$^{,}$\footnote{http://mezamane.com/}$^{,}$\footnote{https://narikiri-qa.jp/oreimo-ayase/login.html}.物語でも対話エージェントでも,それぞれのキャラクタの発話には,それぞれのキャラクタらしさが表れる.特定の人物像(キャラクタ)と結びついた話し方の類型は役割語\cite{kinsui:2011:nihongo}と呼ばれ,「老人語」「幼児語」「お嬢様言葉」など,どのようなキャラクタがどのような表現を使うのか,文法的な特徴はあるか\cite{kinsui:2011}などについて,様々な研究が行われてきた.我々が目指しているのは,キャラクタらしさを表す言語的特徴をうまく捉えて,その特徴を備えた発話テキストを自動生成する仕組みを実現すること,そして,その仕組みを対話エージェントの発話の自動生成や,小説の自動生成\cite{sato:2015}に適用することである.我々はこれまで,文末表現をはじめとする機能語の語彙選択に着目し,例えば,「これはひどい\underline{な}」という発話を「これはひどい\underline{わね}」のように変換する手法\cite{miyazaki:paclic29,miyazaki:jsai2016}を提案してきた.しかしながら,機能語の語彙選択による表現力には限界がある.具体的な課題としては,性別や年代といった大まかなキャラクタらしさを表現することはできても,それ以上に細かなキャラクタらしさを表現することが難しい点が挙げられる.例えば,「これはひどいな」の文末表現「な」を「や」に置き換えて「これはひどいや」とすると,「どちらかというと男性らしい」「それほど高齢ではなさそう」という程度のキャラクタらしさは表現できても,これに加えて「もう少し粗野な感じにしたい」といった細かな調整は難しい.そこで,キャラクタらしさの表現力を高める方策として新たに着目したのが,「こりゃひでえや」(元の形:「これはひどいや」)のような,発話テキストに文字として現れる{\em音変化}である.音変化を任意の発話テキストに対して人為的に施す仕組みを作れば,これを利用してキャラクタらしさの表現力を高めることができると考えられる.この仕組み作りに向け,本研究では,テキストに文字として現れる音変化を{\em音変化表現}と名付け,日本語のキャラクタの発話に現れる音変化表現にどのような種類が存在するのかを調査する.具体的には,音変化表現と呼ぶべき事例を収集し,どのような環境下でどのような音変化が起きるかを示すパターンとして整理する.音変化表現のパターンを分類する目的は2つある.1つ目は,音変化表現の生成のためである.具体的には,どのような環境下でどのような音変化が起きるかを示すパターンを作成すれば,「ひどい」から「ひでえ」や「ひどーい」を生成するなど,音変化のない表現から音変化のある表現を人為的に生成することができると考えている.人為的に生成された音変化表現は,形態素解析用の辞書に登録して利用するなどの用途も考えられる.2つ目は,発話テキストに表れるキャラクタらしさの分析,および,発話テキストへのキャラクタらしさの付与のためである.一口に音変化表現と言っても,「ひでえ」と「ひどーい」とでは,その言葉を発する人物として想像されるキャラクタが大きく違ってくる.音変化表現をパターンとして分類することは,この違いを捉えるうえで非常に意味がある.小説やコミックの発話テキストの分析においては,発話に現れる音変化表現のパターンを調べることで個々のキャラクタの特徴を捉えることができ,対話エージェントの発話や小説のセリフの自動生成においては,特定のパターンの音変化表現を使用することで,生成する発話やセリフにキャラクタらしさを付与できるようになると考えている.音変化は従来より音声学や音韻論の観点から分析されており,『現代言語学入門2日本語の音声』\cite{kubozono:1999}で取り上げられているように,「早う」のようなウ音便が子音+母音の連続から子音が消えて母音が残る現象(e.g.,haya+ku→hayau→hayoo)であること(p.~40),幼児が「何ですか」を「何でちゅか」と言うのは発音器官が未発達なためにサ行の子音を破擦音の[t{\kern0em}\UTF{0283}{\kern-0.5em}]で代用する現象であること(p.~44),「すごい」と「すげえ」のような丁寧な発音とぞんざいな発音の間に見られる音変化は母音融合とそれに伴う代償延長で構成される現象であること(pp.~182--183),「書いておこう」が「書いとこう」に変化するのは母音で始まる音節を避けようとする現象であること(p.~218),「めえ(目)」のように近畿方言の1モーラ語が2モーラの長さに発音されるのは1モーラの長さの語を避けようとする制約による現象であること(p.~224)など,様々な現象について既に知られている.これに対し,本研究で行いたいのはテキスト処理の観点からの分析であり,テキストに文字として現れる音変化をテキスト処理で利用しやすい知識として整理するのが本研究の目的である.本研究では,音変化表現のパターンを提案するとともに,小説やコミックのキャラクタの発話を対象とした検証実験を通して,本研究で提案するパターンの網羅性を確認する.さらに,発話文の話者(キャラクタ)を推定する実験を通して,音変化表現のパターンが,発話のキャラクタらしさを特徴付けるための有効な手段となることを示す. | |
V18N01-01 | 日本語非母語話者が日本語の作文をする場合,共起表現知識が不足するため,不自然な文を産出することがある.日本語に言語直観のない非母語話者にとって,共起表現の適切さの判断は難しい.\cite{杉浦}は,母語話者と非母語話者の知識の決定的な違いは,記憶しているコロケーション知識の量と質の違いではないかと考え,非母語話者の作文の不自然さを説明している.このような非母語話者の問題に対して,第二言語習得の研究では,文の産出には,例文の提示\cite{Summers}や,語の用法・共起関係の学習\cite{Granger}が重要であると考えられている.しかし,日本語学習者に対する日本語知識の情報源として,国語辞典はあまり役に立たない.国語辞典は,難しい言葉の意味を調べたり,表記を確かめたりするのに使用され,母語話者にとって自明である語の用法や例文については十分に説明されていない.このため,日本語非母語話者でも日本語—母語辞書を併用することで見出し語の主要な意味を確認することはできるが,産出しようとしている共起表現が自然であるかどうかを判断することは困難である.そこで,動詞の見出し語に対して,共起する名詞と例文が示された日本語学習者のためのコロケーション辞典が作成されている\cite{姫野}.しかし,辞書に記述できる情報は限られているため,やはり,学習者が産出しようとしている表現が自然であるかどうかを確認できるとは限らない.しかも,日本語非母語話者が作文をする場合,自分が表現したい事柄に適した日本語の表現を思いつかないことがしばしばある.名詞は母語—日本語辞書である程度選択できるが,特に,動詞は難しい.母語で思いついた動詞を母語—日本語辞書で調べる,あるいは,類語辞書を利用して単語を拡張するということも考えられるが,そうして得られた動詞$v$を用いた表現が自然な表現であるかどうかは不明である(動詞$v$を,国語辞典,あるいは(姫野2004)の辞書で調べても,$v$を用いた表現が用例として記載されている可能性は前述のように低い).また,非母語話者の不自然なコロケーションは,辞書引きによる母語からの類推が原因で生じることがある\cite{滝沢}.さらに,そもそも母語からの類推による辞書引きで得られる単語は限られており,母語—日本語辞書および類語辞書を用いても適切な単語が見つからないことさえある.一方,\cite{Nishina}や\cite{Kilgariff}で提案されているシステムは,名詞から,その名詞との共起頻度の高い動詞や結びつきが強い(Dice係数などで判定)動詞を検索することができる.しかし,名詞と出現頻度の高い動詞や結びつきが強い動詞の中に自分が意図する動詞があるとは限らないため,そのような動詞の中から自分が意図する動詞を見つけるのは難しい.本研究では,コロケーションのうち日本語文を構成する最も基本的なものの一つである名詞$n$が格助詞\footnote{本稿では,動詞に係る名詞の格を表す可能性のある助詞として,「が」「を」「に」「で」「と」「へ」「から」「まで」を扱い,これを格助詞と呼ぶことにする.}$c$を伴って動詞\footnote{機能語「(さ)せる」(使役),「(ら)れる」(受身),「できる」(可能)については,動詞とこれらの機能語を合わせて一単語として扱う.}$v$に係っている共起表現$\tupple{n,c,v}$を対象とし,学習者が入力した共起表現$\tupple{n,c,v}$に対して,それから連想される適切な共起表現(代替共起表現\footnote{代替共起表現が入力された共起表現自身である場合もある.}と呼ぶ)の候補を提示する手法を提案する.本稿ではその手始めとして,共起表現$\tupple{n,c,v}$において$n,c$が正しいという前提の下,動詞のみを置き替えた代替共起表現の候補を提示する手法を扱う.これは,予備調査において,不自然な$\langle名詞—格助詞—動詞\rangle$共起表現を収集した結果,動詞の誤用が多かったため,学習者が作文する際,名詞の選択よりも動詞の選択の方が難しいと考えたからである.なお,代替共起表現中の置き替えられた動詞を代替動詞と呼ぶ.$n$,$c$が正しいという前提の下,学習者(日本語非母語話者)が適切な共起表現$\tupple{n,c,v'}$を産出する際の困難は,前述したように,\begin{itemize}\item辞書や自身の語彙知識に基づいて,自身が意図している意味を持つ動詞(表現したい内容を表す動詞)$v'$の候補を見つけること,\item候補動詞に対して,$\tupple{n,c,v'}$が共起として自然であるかどうかを判断すること\end{itemize}である.\ref{共起の自然さ}節で述べるように,共起表現が不自然であるという判断を下すことは難しいが,母語話者コーパスを利用すれば共起表現が自然であることはかなりの精度で判定することができる.一方,\ref{誤用と正用の関係}節で述べるように,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」と考えられる.これは,予備調査において,$v$と$v'$の共通点として,別の名詞—格助詞とであればどちらも共起できるケースがあることに気付いたからである.そこで本稿では,この仮説に基づき,母語話者コーパスを用いて$\tupple{n,c}$との共起が自然と判定される代替動詞候補を,学習者が入力した共起表現の動詞との出現環境の類似度の降順に提示する手法を提案する.これは,学習者が適切な共起表現を産出する際の二つの困難を克服するための情報を提供するものであり,作文支援システムとして有用と考えられる.なお,提示される候補動詞は,共起の自然さはある程度保証されるものの,学習者が意図した意味を持つ動詞とは限らないため,国語辞典や日本語—母語辞書を調べて,意図した意味を持つ動詞を学習者自身が候補動詞の中から選択する必要がある.日本語学習者の場合でも,国語辞典や日本語—母語辞書を用いることにより,候補動詞の主要な意味は把握でき,自身が意図した意味を持つ動詞かどうかの判断はできると考えているが,実際にそのような判断が可能かどうかは学習者の日本語能力にも依存する.このため,本研究では中級学習者をシステムの利用者として想定している.また,共起表現の誤用のうち,初級学習者に多い格助詞の誤りや中級学習者に多い動詞の自他の誤りなどの文法的誤りは,係り受け解析器の文法辞書を使って指摘・訂正が可能であるため対象としない.本稿では,学習者の作文から得られる誤用共起表現と,それを自然な表現に修正したもの(正用共起表現)の対からなるデータ(誤用・正用共起表現データ)を用いて,前述の仮説を検証する.同時に,シソーラスを用いた場合との比較から,誤用動詞に対する代替動詞候補を順序付けて提示するための尺度として,出現環境の類似度の方が意味的な類似度よりも有用であることを示す.また,同誤用・正用共起表現データを用いて,提案手法に基づいた共起表現に関する作文支援システムの実用性を検討する. | |
V14N03-01 | 「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,言語の研究においてしばしば自明視され,議論の前提とされる.たとえば「あのー,あなたは失格,なんです」という発言は,単に聞き手の失格(命題情報)を告げるだけのものではない.「失格は,聞き手にとってよくないことだ」という話し手の評価や,「聞き手にとってよくないことを聞き手に告げるのはイヤだ,ためらわれる」といった話し手の感情・態度をこの発言から読みとることは,多くの場合,難しくない.また,このような話し手の評価や感情・態度を早い段階(たとえば冒頭部「あのー」の段階)で読みとることによって,聞き手は,その後に続く,つらい知らせを受け入れる(つまり迅速で正確な情報伝達を実現させる)ための心の準備ができる.さらに「話し手が発話をためらっているのは,自分に気を遣ってのことだ」と意識することは,話し手との人間関係にとってもプラスに働くだろう.これらの観察からすれば,「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,疑問の生じる余地のない,この上なく正しい考えにも見える.だが,本当にそうだろうか?本稿は,話し手の言語行動に関するこの一見常識的な考え(便宜上「『表す』構図」と呼ぶ)が,日常の音声コミュニケーションにおける話し手の実態をうまくとらえられない場合があることを示し,それに代わる新しい構図(『する』構図)を提案するものである.データとして用いるのは,現代日本語の日常会話の音声の記録(謝辞欄に記した3つのプロジェクトによるもの)と,現代日本語の母語話者の内観である.コントロールされていない日常会話の記録をデータとしてとりあげるのは伝統的な言語学者や多くの情報処理研究者にはなじみにくいことかもしれないし,内観の利用も情報処理研究者や会話分析者には奇異に映るかもしれないが,最善のデータをめぐる議論はかんたんには決着がつかない.\pagebreakここでは,両者をデータとして併用している研究は他にも見られる(たとえばChafe1992:234を参照)とだけ述べておく. | |
V15N02-04 | \label{sec:intro}言い換えとは,ある言語表現を意味が等価な別の言語表現に変換する処理のことである.自然言語処理においては,言い換えはさまざまな応用をもっており,例えば,情報検索,機械翻訳,文章作成支援,文章読解支援などに応用されることが期待されている.\begin{table}[b]\caption{日本語表現の分類}\label{tab:classWord}\input{04table01.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{15-2ia4f1.eps}\caption{内容表現の言い換えと機能表現の言い換えを組み合わせた幅広い言い換え}\label{fig:phrasal}\end{center}\end{figure}日本語表現の言い換えは,これまで多くの研究者によって研究されてきた\shortcite{Inui2004}.これらの研究のほとんどは,内容語や複合語に関するものであり,例えば,複合名詞の言い換えに関する研究\shortcite{Sato1999,Kimura2002}や動詞句の言い換えに関する研究\shortcite{Kaji2004,Furihata2004}などがある.日本語の表現は,内容的・機能的という観点から,おおきく2つに分類できる.さらに,「表現を構成する語の数」という観点を加えると,表~\ref{tab:classWord}のように分類できる.ここで,{\bf複合辞}とは,「にたいして」や「なければならない」のように,複数の語から構成されているが,全体として1つの機能語のように働く表現のことである.われわれは,機能的というカテゴリーに属する機能語と複合辞を合わせて{\bf機能表現}と呼ぶ.内容表現の言い換えに関する研究に比べて,機能表現の言い換えに関する研究は著しく少ない.ほとんどすべての文および文節には,1つ以上の機能表現が含まれているのであるから,日本語表現を幅広く言い換えるためには,図~\ref{fig:phrasal}に示されるように,内容表現だけでなく,機能表現も言い換えることが重要である.このような理由により,本論文では,機能表現の言い換えに焦点をあてる.日本語の機能表現が持つ主な特徴は,各々の機能表現が多くの形態的異形を持っているということである.それぞれの異形は,常体,敬体,口語体,堅い文体という4つの文体のいずれかをとる.例えば,「なければならない」の異形には,「なくてはならない」,「なければなりません」,「なけりゃならない」,「ねばならん」などがあり,これら4つの表現の文体はすべて異なっている.これらの表現の文体は,順に,常体,敬体,口語体,堅い文体である.機能表現を言い換えるシステムは,言い換え先の機能表現の文体を制御できることが求められる.なぜならば,1つの文章においては,原則として,一貫して1つの文体を使い続けなければならないからである.例えば,文体が常体である文章においては,「なければなりません」や「にたいしまして」などの敬体の表現や,「なけりゃならない」や「とは言ったって」などの口語体の表現を使うことはできない.しかしながら,先行研究において提案されているいずれの機能表現言い換えシステムも,言い換え先の機能表現の文体を制御できる機構を持っていない.機能表現言い換えシステムが機能表現$f$を異なる機能表現$f^\prime$に言い換える場合,潜在的には$f^\prime$のすべての異形を生成できることが望まれる.なぜならば,この要請を満たすシステムは,文章作成支援などの応用において,多数のさまざまな言い換え候補を利用者に提示することができるからである.このようなシステムは,例えば,「見てくれるか」という入力に対して,「てもらえる」を含む言い換え候補として「見てもらえるか」だけでなく,「見てもらえないか」,「見てもらえませんか」,「見てはもらえないでしょうか」など,多くの興味深い言い換え候補を出力することができる.しかしながら,先行研究における機能表現言い換えシステムは,体系的に異形を扱っていないため,上記の要請を満たしていない.文章読解支援や文章作成支援などの応用においては,機能表現を言い換えるときに,言い換え先の機能表現の難易度(理解しやすさ)を制御できることが求められる.なぜならば,機能表現は,文の構造や意味を決定する重要な要素であるからである.文中に知らない機能表現が用いられていた場合,おそらく,読者は,その文の意味を正確に理解することができないだろう.難しい機能表現をやさしい機能表現へ言い換えることができれば,読者がその機能表現を知っており,文の意味を正しく理解することができることが期待される.先行研究において,機能表現の難易度を考慮したものは,土屋らの研究\shortcite{Tsuchiya2004}と本田らの研究\shortcite{Honda2007}のみである.土屋らは,機能表現をやさしく言い換えるための規則を半自動的に生成する手法と,その規則に基づいて機能表現を言い換えるシステムを提案している.本田らは,意味的に等価な機能表現の各々のクラスに対して,それぞれ1つの代表表現を定義することにより,機能表現を分かりやすい表現に言い換える手法を提案している.機能表現をやさしく言い換える場合,読者にふさわしい難易度の表現に言い換えることが望ましい.なぜならば,よりやさしい機能表現(典型的には,助詞)は,複数の意味を持っている傾向があるからである.必要以上にやさしく言い換えた場合,生成されたテキストが意味的に曖昧になってしまうおそれがある.これらの先行研究において提案されている言い換えシステムは,例えば,日本語初級者用や日本語中級者用などといった,難易度指定に応じて言い換えを行なうことはできない.機能表現を,文体指定や難易度指定を満たす,意味的に等価な機能表現に言い換える処理は,次の2つの変換の組み合わせによって実現することができる.\begin{enumerate}\item機能表現を意味的に等価な機能表現に変換する\item機能表現をその異形に変換する\end{enumerate}前者において,難易度指定を満たす機能表現のみを言い換え候補に採用し,後者において,文体指定を満たす異形のみを言い換え候補に採用すれば,目的の言い換えを達成することができる.本論文では,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,日本語機能表現を言い換える手法を提案する.前者の階層構造は,各々の機能表現に対して,すべての異形のリストを提供する.それぞれの異形には,文体の情報が記述されている.このリストは,上記の(2)の変換に必要である.後者の階層構造は,機能表現の意味的等価クラスを提供する.クラス内のそれぞれの機能表現には,難易度が付与されている.この意味的等価クラスは,上記の(1)の変換に必要である.本論文は,以下のように構成される.まず,第2章で,形態階層構造と意味階層構造を持つ機能表現辞書について説明する.次に,第3章で,本論文で提案する機能表現の言い換え手法を述べる.第4章で,実装した機能表現言い換えシステムについて説明し,続く第5章において,その評価を行なう.第6章で,関連研究について述べ,最後に,第7章でまとめを述べる. | |
V13N03-05 | 述語項構造とは述語とその項の間の意味的な関係を表現する構造の一つである.例えば,「彼が扉をひらく」という文中の述語「ひらく」の項構造は[agent,theme]のように表すことができる.agent,themeは項が述語に対してどのような意味的関係となっているかを表す意味役割である.また,所与の文章中の各述語に対して,(1)述語が取り得る項構造のうち最も文の解釈に適った項構造を選択し,(2)その構造の各項に対応する要素を同定することで述語項構造を出力する処理を項構造解析と呼ぶ.例えば,文「彼が扉をひらく」を述語項構造解析する場合には,述語「ひらく」に対して図\ref{fig:arg_dic}\,に示すような項構造辞書から対応する項構造を選択し,入力文の格要素を各項に割り当てて構造[agent:彼,theme:扉]を得る.項構造解析を高精度で実現すれば,「彼が扉をひらく」$\Leftrightarrow$「扉がひらく」のような交替に代表される表現の多様性を吸収でき,言い換えや情報抽出,質問応答などの自然言語処理技術を高度化できる.述語の項構造に関する研究は,\citeA{Fil:68}の格文法など古くから関心を集めている.これらの研究は,項構造辞書の作成,項構造タグ付きコーパスの作成,項構造解析の三つの研究に大別でき,項構造辞書作成の研究では,近年,\citeA{Dorr:97}によって項構造辞書作成の方法論が開発されている.この研究成果から大規模な項構造辞書を作成する基盤ができてきた.また項構造情報を含む詳細な動詞辞書FrameNet\cite{Frame:98}や項構造タグ付きコーパスPropBank\cite{Prop:02}も報告されている.項構造解析の研究は国際会議CoNLLにおけるSharedTask\footnote{http://www.lsi.upc.edu/\~{}srlconll/}として取り上げられるなど関心が集まっており,近年提案されている主な手法は教師なし手法と教師あり手法に大別できる.現状では,PropBankのような項構造タグ付きコーパスが作成されたこともあり,教師あり手法の研究が盛んである.教師なし手法では,\citeA{Lapata:Brew:99}のように項構造辞書の下位範疇化の構造を利用して擬似的に訓練事例を作成する手法などが提案されているが,一般に解析精度が低い.これに対して,\citeA{gildea:02:c},Haciogluら\citeyear{Kadri:03}やThompsonら\citeyear{Cyn:03}の提案する教師あり手法では,項構造タグが付与された学習コーパスから述語と文章中の要素との構文構造における位置関係などを素性として利用しており,教師なし手法よりも精度が高いという利点を持つ.しかし学習に用いるコーパス中の各述語に対し(i)取り得る項構造と項構造辞書中の項構造の対応付け,および(ii)選択した項構造の各項と文章中の要素の対応付け,という人手による項構造タグ付与作業が必要であるため作業コストが高いという問題がある.そこで本研究では,項構造タグ付き事例を効率的に作成する方法について議論する.項構造タグ付き事例の効率的な作成方法にはさまざまな方法が考えられるが,本論文では,学習に用いるコーパス中の各述語に項構造タグを付与する過程で生じる類似用例への冗長なタグ付与作業の問題に着目する.具体的には,大規模平文コーパスから抽出した表層格パターンの用例集合をクラスタリングし,得られたクラスタに項構造タグを付与することでタグ付与コストを削減する手法を提案する.提案手法では,(A)表層格パターン同士の類似性と(B)動詞間の類似性という2種類の類似性を利用してクラスタリングを行う.評価実験では,実際に提案手法を用いて8つの動詞の項構造タグ付き事例を作成し,それを用いた項構造解析の実験を行うことによって,提案手法のクラスタリングの性能や,人手でタグ付き事例を作成するコストと項構造解析精度の関係を調査した.\begin{figure}[t]\begin{center}\includegraphics[width=0.85\hsize]{clip013.eps}\end{center}\caption{動詞項構造辞書の一例(「ひらく」について)}\label{fig:arg_dic}\end{figure} | |
V07N02-07 | 近年のWWW(WorldWideWeb)などのインターネットの発展や電子化文書の増加により情報検索\cite{ir_tokunaga,ir_doukou,Fujita99}の研究は盛んになっている.これを背景に日本で情報検索コンテストIREXが行なわれた.われわれはこのコンテストに二つのシステムを提出していたが,記事の主題が検索課題に関連している記事のみを正解とするA判定の精度はそれぞれ0.4926と0.4827で,参加した15団体,22システムの中では最もよい精度であった.本論文は,この二つのシステムの詳細な説明と,これを用いた詳細な実験結果を記述するものである.われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデル\cite{2poisson}を用いている.しかし,この方法では検索のための手がかりとして当然用いるべき位置情報や分野情報などを用いていない.それに対しわれわれは2-ポアソンモデルにおいて位置情報や分野情報,さらに種々の詳細な情報などをも統一的に用いる枠組を考案し,これらの情報の追加により精度向上を実現できることを実験により確かめている.また,2-ポアソンモデルを用いる際にはまず,どのようなものをキーワードとするかを定める必要がある.本研究では,キーワードの抽出方法について4つのものを示し,それらの比較実験を行なっている. | |
V09N01-01 | \label{はじめに}日本語には語順の入れ替わり,格要素の省略,表層格の非表示などの問題があり,単純な係り受け解析を行っただけでは文の解析として十分とはいえない.例えば,「ドイツ語も話す先生」という文の場合,係り受け構造を解析しただけでは,「ドイツ語」と「話す」,「先生」と「話す」の関係はわからない.このような問題を解決するためには,用言と格要素の関係,例えば,「話す」のガ格やヲ格にどのような単語がくるかを記述した格フレームが必要である.このような格フレームは文脈処理(照応処理,省略処理)においても必須の知識源となる.これまで,重要な用言の典型的な格フレームについては,人手で辞書をつくるということも試みられてきた.しかし,格と同じ振る舞いをする「によって」,「として」などの複合辞があること,「〜が〜に人気だ」のように名詞+判定詞にも格フレームが必要なこと,専門分野ごとに用言に特別な用法があることなどから,カバレージの大きな実用的な辞書をつくるということは大変なことであり,人手による方法には限界がある.そこで,格フレーム辞書をコーパスから自動学習する方法を考える必要がある.しかし,格フレームの学習には膨大なデータが必要となり,現存するタグ付きコーパスはこのような目的からは量的に不十分である.そこで,本論文では,格フレーム辞書をタグ情報が付与されていない大規模コーパス(生コーパス)から自動的に構築する手法を提案する.格フレーム辞書を生コーパスから学習するためには,まず,生コーパスを構文解析しなければならないが,ここで解析誤りが問題となる.しかし,この問題はある程度確信度が高い係り受けだけを学習に用いることでほぼ対処することができる.むしろ問題となるのは用言の用法の多様性である(これはタグ付きコーパスから学習する場合にも問題となる).つまり,同じ表記の用言でも複数の意味,格要素のパターン(用法)をとり,とりうる格や体言が違うことがあるので,用言の用法ごとに格フレームを作成することが必要である.本論文では,これに対処するために,用言とその直前の格要素の組を単位として用例を収集し,それらのクラスタリングを行うという方法を考案した.用言とその直前の格要素の組を単位とするというのは,「なる」や「積む」ではなく,「友達になる」「病気になる」,「荷物を積む」「経験を積む」を単位として収集するということである.用言とその直前の格要素の組を単位として考えると,用言の用法はほとんど一意に決定される.この組み合わせは膨大になるので充分な量のコーパスが必要であるが,本研究では生コーパスから収集するので問題にならない.クラスタリングは,用法に違いはないが,用言の直前の単語が異なるために別の格フレームになってしまう用例をマージする処理である. | |
V02N03-04 | 自然言語には定型表現と呼ばれる単語間の共起性が強い表現が数多く存在する.定型表現を収集,整理しておくことは言語学的な観点からも機械処理の観点からも有益である.例えば「目を盗む」や「かたずを飲む」などの慣用表現は,その表現の意味が個々の構成語の意味からは作り出すことができない\cite{miyaji}.このために,機械処理ではそれら表現に例外的な処理を施す必要がある.また言語学的にも語の持つ意味の標準的用法と非標準的用法の境界を考察する上で,このような表現を網羅的に収集することが望まれる.また慣用表現ではなくとも,「に関して」「も少なくない」「て欲しい」などの定型表現では個々の構成語に分割して処理するよりも予め一語として捉えていた方が機械処理の面では実用的な場合が多い.また外国語習得の面でも,共起性の強い表現を単語のように,1つの概念に対応する固定した文字列として捉え,それらを記憶しておくことが効果的である.その他,音声認識,OCRにも,共起性の強い表現を記憶しておくことが,そこでの曖昧性の解消に役立つことが知られている\cite{church,kita}.定型表現は付属語的なものと,そうでないもののに大きく分けられ,後者の中に述語型定型表現が存在する.述語型定型表現とは「目を盗む」のように\begin{center}名詞+格助詞+動詞\end{center}のパターンになっている定型表現である.これら表現は定型表現の大きな部分を占め,また,通常の名詞動詞間の共起による解析との整合性が必要となる\cite{oku,suzuki}.さらに「将棋を指す」「碁を打つ」のように,同じの意味の動詞(play)でも名詞によって異なる表現を用いるコロケーションの問題を考察する上でも,述語型定型表現の収集が望まれる.このような理由から定型表現の中でも特に述語型定型表現を収集することは重要である.述語型定型表現を収集することは有益であるが,その収集は困難である.なぜなら,それら表現の客観的な定義は困難なため,個々の表現に対して人間の判断が必要となり,その収集には膨大な時間と手間がかかるからである\cite{syudo}.また人手による収集では,その網羅性,一貫性などの問題点もある.これらの点から定型表現や慣用表現の自動抽出の試みがなされているが\cite{smadja,shinnou},それら研究の多くは相互情報量を用いて共起の強さを測ることを基本としている\cite{church}.相互情報量は2つの単語がそれぞれ独立に現れる確率と同時に現れる確率との比を基に共起の強さを測る.基本的に相互情報量では2単語間が引き合う強さを総合して判断し,共起の強さを定めている.しかし言語的に考えれば,一方の単語がもう一方を引っぱるような片方向だけの強さを持っている場合でも,その表現に定型性があると考えることは自然である.本論文では上記の点を考察し,述語型の表現における名詞動詞間の共起性を測る新たな基準を提案する.概略述べると,まず,名詞あるいは動詞を固定して,共起している単語の集合を作り,その集合内で特異な高頻度の単語を取り出す.これによって,片方向から引っ張る強さの条件だけで抽出を行なうことができる.特異な高頻度の単語の判定法は,基本的に集合内の頻度の割合と,集合内の単語の種類数から判定する.判定の際に共起の強さを表す数値を与える.最終的にこの数値の上位部分を抽出とする.実験として,本論文で提案する基準を用いて,朝日新聞1か月分のコーパス(テキスト部分約9Mbyte)から「AをBする」の形の述語型定型表現の抽出実験を行ない,本手法の有効性を確認した.その結果,名詞を固定した場合に抽出できる表現と動詞を固定した場合に抽出できる表現には,ほとんど共通のものがなかった.また抽出の正解率はどちらの場合も相互情報量による抽出と同程度であった.一方,相互情報量による抽出の正解率は抽出数を増やしてゆけば当然下がる.このことから,同数の抽出を行なうことを考えると,本手法の場合,その半数の抽出の場合の正解率を保つことができ,相互情報量を用いた手法よりも広い範囲の定型表現を抽出できることがわかる. | |
V14N05-03 | 存在文はいかなる言語にも存在し,人間のもっとも原始的な思考の言語表現の一つであって,それぞれの言語で特徴があり言語により異なりが現れてくる.日本語と中国語でも,前者が存在の主体が有情物か非情物かで使われる動詞が異なる(「ある/いる」)のに対し,後者では所在の意味か所有の意味かで使われる動詞が異なる(「在/有」)など,大きな違いがある.日本と中国の言語学の分野では,存在文について論述があるが(飯田隆2001,西山佑司2003,金水敏2006,儲澤祥1997),日中機械翻訳の角度からの研究は殆ど見あたらない.また日中機械翻訳において現在の日中市販翻訳ソフトでは,存在文に関する誤りが多く見られる.本論文は言語学の側の文献を参考にしながら存在文に関する日中機械翻訳の方法について考察し,翻訳規則の提案,翻訳実験を行ったものである.\begin{itemize}\item[(1)]日中両言語における存在表現を対照的に分析し,異同を起こす原因に関しても検討を試みた.\item[(2)]中国語の存在動詞の選択とその位置の問題を中心に,機械翻訳における存在文の翻訳規則を提案した.\item[(3)]提案した翻訳規則を,手作業で及び我々が開発している翻訳システムで翻訳実験を行い,評価した.\item[(4)]関連する問題点と今後の課題について議論した.\end{itemize} | |
V15N03-03 | 質問応答技術は自然言語によって表現された質問に文書でなく情報そのもので回答する事を可能とするもので,情報アクセスの新しい形として期待されている\cite{Voorhees00}.事実に関する独立した質問に一問一答形式で回答するものを中心に研究が始められたが,近年は様々な面で研究の展開が見られ,そのひとつに対話性の重視があげられる.質問応答技術を牽引してきたといってよいTREC\cite{Voorhees05,TREC}では,TREC2001において対話的な利用を前提とした文脈処理の能力を評価する試みがなされている\cite{Voorhees01}.その後,TREC2004から,相互に独立した質問ではなく,あるトピックに関する一連の質問の集まりという形で課題を与えるようになっている\cite{Voorhees04}.文脈処理の能力を評価するものでないとはいえ,あるトピックに関して一連の質問を行うという利用場面が自然であると考えられている点が注目される.また,あるトピックに関する複数の質問にどの程度回答できるかを,複数文書要約の評価指標とすることが試みられており\cite{Mani98},ここでも,あるトピックに関する一連の質問に回答できることが重視されている.一連の質問に回答するという利用形態は質問応答システムの進むべき方向のひとつとしても議論されており,例えば,新人レポータがある事件の記事を執筆するために,彼の記事で答えられるべき大きな質問をより簡単な質問の集まりに言い換えてシステムに訊ねるという形で,アナリストやレポータが利用しうる質問応答システムへの発展が提案されている\cite{Burger01}.また,ARDAのAQUAINTprogram\cite{AQUAINT}ではアナリストが分析的に用いる質問応答システムの構築がその目的とされており,より積極的に対話的な質問応答の研究が進められている.質問の分解を含めて,分析的説明的な質問にどう答えるか,明確化等の利用者とのやりとりはどうするか等が研究の関心となっている\cite{Hickl04,Small03}.本稿では,あるトピックに関して対話的に行われる一連の情報アクセスを質問応答システムが支援する能力,情報アクセス対話の対話相手として情報を提供するために質問応答システムが持つべき能力を定量的に評価するためのタスク,IADタスク\footnote{IADは情報アクセス対話(InformationAccessDialogue)の頭文字からとった.}を提案する.質問応答システムが情報アクセス対話に参加するために必要となる様々な能力\cite{Burger01}の中で,IADタスクでは,そもそも情報アクセス対話を扱うためにはどのような質問に答えられる必要があるのか,そして,対話の実現の基本となる対話文脈を考慮した質問の解釈,つまり照応解消や省略処理等のいわゆる文脈処理はどの程度必要なのかに着目し,その能力を評価する.IADタスクは,情報アクセス技術に関する一連の評価ワークショップNTCIRWorkshop\cite{NTCIR}において,NTCIR-4のQAC2Subtask3\cite{Kato04,Kato05a},NTCIR-5のQAC3\cite{Kato05b,KatoJ06}として実施されたものに基づいている.対話的な質問応答というそもそものアイディアはNTCIR-3のQAC1Subtask3\cite{Fukumoto03}に遡るが,NTCIR-4のQAC2Subtask3での実施においてタスクの抜本的な改変を行い本稿で述べる形態を固め,同時にタスクの裏付けについての実験を行った.その後,そこでの経験を基に幾つかの洗練を行って,NTCIR-5のQAC3として実施している.ここで,評価タスクの提案という本稿の特殊性について一言述べておく.研究や技術の進展や加速のために共通の評価が必要であり.それを得るための評価タスクが重要であることは,議論の余地がまったくないとはいえないまでも\cite{Sekine05},大概の合意を得ていると思われる\cite{Ogawa02}.一方で個々の評価タスクについて考えると,ある評価タスクが価値あるものであるためには,それが評価する研究や技術が評価されるに値するものであり,かつ,その評価のために適切に設計されている必要がある.前者は研究や技術の価値の議論であり,後者も何をもって適切とするかが絡んで必ずしも明快な議論とはならない.本稿では,ここで提案するIADタスクにおいて高い評価を得たシステムあるいは技術が可能とする利用場面を示し,前者の根拠とする.加えて,後者については,少なくとも2回の実施を通じて明らかとなった問題について一定を解決を与えていることを根拠とする.設計ということで一部に恣意的な決定を含んでいるし,この評価タスクであらゆるデータが収集できるわけではない.実施できなければならないという現実性との妥協もある.そのような一連の留保を前提にしているとはいえ,本提案が,課題設定の独自性,評価に関する様々な配慮,情報収集のための仕組み等の点で,新規かつ有益なものであることを主張する.本稿の構成は以下の通り.\ref{Sec2}節でIADタスクの枠組みを説明する.タスク設計の中心となる質問シリーズを説明し,それがトピック推移の観点から収集型とブラウジング型に分類されることを述べる.加えて,IADタスクの枠組みの根拠となった実験結果を示し,このタスクによって評価される技術が可能とする質問応答技術の利用場面を示唆する.\ref{Sec3}節では,評価の枠組みとして,回答の列挙に複数の体系を許し回答の2種類の質を考慮した多段階評価手法を提案する.そして,なぜそのような枠組みが必要であるかを実例に基づいて説明する.\ref{Sec4}節ではより多くの情報を得るための補助的な仕組みとしての参照用テストセットについて説明し,それがシステムの文脈処理能力をある程度まで切り離した評価を可能とすることを示す.\ref{Sec5}節では関連する取り組みを述べ,それとの比較を通じて本提案の有効性を示し,特に収集型とブラウジング型への分類を含む質問シリーズの構成方法が重要であることを述べる.\ref{Sec6}節で全体をまとめる.また,IADタスクに対して,最先端のシステムがどのような結果を示すのかを付録にまとめた. | |
V09N03-06 | インターネットの急速な普及により,ユーザが閲覧可能なコンテンツは,爆発的に増大している.そのようなコンテンツを検索するために,yahoo!やinfoseekなど,いくつもの検索エンジンが登場してきている.そうした検索エンジンでは,ユーザがキーワードや文字列を論理式で与えることによって,検索を実行するのが一般的である.しかしながら,特に初心者ユーザにとっては,そうした検索エンジンへの条件の与え方がまだ十分に使いやすいものではなく,自然言語による対話を用いて検索を行ないたいという需要がある.情報検索対話に自然言語を用いる利点は,以下が挙げられる.\begin{itemize}\item自然言語は,ユーザにとって最も親しみやすく,自然なコミュニケーション手段である.なお,大語彙連続音声認識技術の向上により,キーボード入力を行なう負荷も軽減してきている.\item自然言語の修飾関係を利用することで,論理式よりも精度の高い検索を行なえる可能性がある.\itemいわゆる「パラフレーズ(表現の言い換え)」を行なうことにより,ユーザが思いついた表現が所望するコンテンツに含まれていない場合にも,その表現を検索結果に利用できる可能性がある.\item対話戦略などに当たるキーワード(例えば,旅行における出張など)に対し,キーワードとは異なる検索条件(出張では,例えば,宿泊料金をXXXX円以下とする)や応答内容(コンテンツのtitle(宿泊施設名)だけでなく,料金や立地条件)に展開することで,効率的に対話を進められる可能性がある.\end{itemize}しかしながら,情報検索というタスクに対して,現状の自然言語処理技術では,自然言語を用いた万能の検索対話を実現することは現状では困難である.また,上記のように有効な対話戦略はいくつか存在するが,そうした対話戦略を導入することにより,ユーザが対話システムに過度の対話能力を期待し,ユーザが期待する対話能力を対話システムが実現できていないことで,ユーザが混乱し,結果的に対話システムを過小評価する場合も少なくない.\bigskip一方,近年の(自然言語)対話システムでは,音声認識・合成技術や画像処理技術の向上により,より人間に近い振舞い(音声,顔の表情,感情など)を導入した「擬人化エージェント」を計算機とユーザとのインタフェースとして用いる研究が盛んになってきている(例えば,\cite{tosburg,nagao,densouken,toyohasi}など).上記の対話システムで擬人化エージェントを導入した主目的は,擬人化エージェントを導入することで,より自然なインタラクションを実現することであると考えられるが,対話の相手である擬人化エージェントは,通常ひとつ(ひとり)である.しかしながら,現実の世界での人間を対象とした情報検索においては,例えば,「○○の技術については,××の部署が担当しているが,その中でも△△氏が詳しいので,△△氏に聞こう」とか,「車を購入するのにどれにしようか迷っている.それぞれのディーラーの担当者に同じ条件を与えて,一番良い回答を出した車種にしよう」などということを知らず知らずのうちに行なっているものである.\bigskipそこで本稿では,ユーザが情報検索システムとの対話を行なう「窓口」を,情報提供者サイドが予め設定した異なる属性により異なる振る舞いを行なう「対話エージェント」として多数用意し,ユーザが対話エージェントを選択・切り替えることで,効率的な情報検索を実現する対話モデルを採用した.すなわち,現状の自然言語処理技術で解決できる(特定の用途に対しては効率的な方策を実現しているが,汎用的には実現できていない)能力を複数の「対話エージェント」(賢い対話エージェントもいるし,馬鹿な対話エージェントもいる)というアナロジーによって,ユーザに違和感なく受け入れさせ,ユーザに対話エージェントを使い分けさせることで,自然言語を用いた効率的な情報検索対話を実現することを目的とする.なお,本稿で述べる「対話エージェント」は,他の対話システムで実現されている擬人化エージェントのように,書き下された文字列以外のモダリティを保持していないが,情報検索に対して,個々の局面で異なる知識を保持した「個々の対話の相手」を示すアイコンとして複数用意し,ユーザが対話エージェントを使い分けることで,より効率的な情報検索の対話を実現することを試みた.ただし,本稿の対話エージェントでは,エージェント間での協調や交渉といった相互作用については,技術的に導入が可能であったが,本稿の主張と現状のマルチエージェントモデルの差異がわかりにくくなると判断し,導入していない.本稿では,まず,\ref{sec:curnld}章において,自然言語を用いた現状の情報検索対話の例を挙げ,現状の問題点について指摘する.次に\ref{sec:multia}章では,本稿で提案する複数の「対話エージェント」を導入した対話モデルについて説明し,\ref{sec:daev}章では,複数の対話エージェントを導入した対話モデルの評価について述べる. | |
V26N01-05 | \label{sec:introduction}対話システムがユーザ発話から抽出するべき情報は,背後にあるアプリケーションに依存する.対話システムをデータベース検索のための自然言語インタフェースとして用いる場合,対話システムはデータベースへのクエリを作成するために,ユーザ発話中で検索条件として指定されるデータベースフィールドとその値を抽出する必要がある.データベース検索対話において,ユーザ発話中からこのような情報を抽出する研究はこれまで多くなされてきた.例えば,\citeA{raymond2007generative,Mesnil2015,Liu2016a}は,ATIS(TheAirTravelInformationSystem)コーパス~\cite{Hemphill:1990:ASL:116580.116613,Dahl:1994:ESA:1075812.1075823}を用いて,ユーザ発話からデータベースフィールドの値を抽出する研究を行っている.ATISコーパスはWizard-of-Ozによって収集されたユーザと航空交通情報システムとの対話コーパスであり,各ユーザ発話中の表現には,出発地や到着日などのデータベースフィールドに対応するタグが付与されている.ATISコーパスを用いた研究の課題はタグの付与された情報を発話から精度よく抽出することである.これらの研究の抽出対象である出発地や到着日などの情報はユーザ発話中に明示的に出現し,直接データベースフィールドに対応するため,データベース検索のための明示的な条件となる.一方,実際の対話には,データベースフィールドには直接対応しないものの,クエリを作成するために有用な情報を含む発話が出現し,対話システムがそのような情報を利用することで,より自然で効率的なデータベース検索を行うことが可能になる.例として,不動産業者と不動産を探す客の対話を考える.不動産業者は対話を通じて客が求める不動産の要件を確認し,手元の不動産データベースから客の要件を満たす不動産を絞り込む.このとき,客の家族構成は,物件の広さを絞り込む上で有用な情報であろう.しかし,家族構成は物件の属性ではなく客の属性であるため,通常,不動産データベースには含まれない.客の家族構成のように,データベースフィールドには直接対応しないが,データベース検索を行う上で有用な情報を{\bf非明示的条件}と呼ぶ\cite{Fukunaga2018}.我々は,非明示的条件を「データベースフィールドに明示的に言及しておらず,『xならば一般的にyである』という常識や経験的な知識によってデータベースフィールドと値の組(検索条件)へ変換することができる言語表現」と定義する.例えば,「一人暮らしをします」という言語表現は,物件の属性について明示的に言及していない.しかし,『一人暮らしならば一般的に物件の間取りは1LDK以下である』という常識により,〈間取り$\leq$1LDK〉という検索条件に変換できるため,これは非明示的条件となる.一方,「賃料は9万円を希望します」や「築年数は20年未満が良いです」のような言語表現は,データベースフィールドに明示的に言及しているため,非明示的条件ではない.また,「渋谷で探しています」のようにデータベースフィールドが省略されている場合でも,省略の補完によって【エリア】というデータベースフィールドに明示的に言及する表現に言い換えることが可能である場合は非明示的条件とはみなさない.\citeA{Taylor1968}による情報要求の分類に照らすと,明示的な検索条件は,ユーザ要求をデータベースフィールドとその値という形式に具体化しているため,調整済みの要求(compromisedneed)に対応する.一方,非明示的条件は,ユーザ自身の問題を言語化しているが検索条件の形式に具体化できていないため,形式化された要求(formalisedneed)に対応する.非明示的条件を利用する対話システムを実現するためには,以下の2つの課題が考えられる.\begin{itemize}\item[(1)]非明示的条件を含むユーザ発話を,データベースフィールドとその値の組(検索条件)へ変換する.\item[(2)]ユーザ発話中から,(1)で行った検索条件への変換の根拠となる部分を抽出する.\end{itemize}課題(1)は,非明示的条件を含む発話からデータベースへのクエリを作成するために必要な処理である.図\ref{fig:dial_ex}に示す対話では,客の発話に含まれる「一人暮らし」という文言から,〈間取り$\leq$1LDK〉という検索条件へ変換できる.本論文では,課題(1)を,発話が関連するデータベースフィールドを特定し,そのフィールドの値を抽出するという2段階に分けて考え,第一段階のデータベースフィールドの特定に取り組む.1つのユーザ発話が複数のデータベースフィールドに関連することもあるので,我々はこれを発話のマルチラベル分類問題として定式化する.発話からフィールドの値を抽出する第二段階の処理は,具体的なデータベースの構造や内容が前提となるため,この論文では扱わず,今後の課題とする.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f1.eps}\end{center}\caption{対話と非明示的条件から検索条件への変換の例}\label{fig:dial_ex}\end{figure}課題(2)によって抽出された根拠はデータベースへのクエリに必須ではないが,システムがユーザへの確認発話を生成する際に役立つ.非明示的条件を検索条件へ変換する際に用いるのは常識や経験的な知識であり例外も存在するため,変換結果が常に正しいとは限らない.例えば,不動産検索対話において一人暮らしを考えている客が2LDKの物件を希望することもありうる.したがって,システムの解釈が正しいかどうかをユーザに確認する場合がある.この際,システムが行った解釈の根拠を提示することで,より自然な確認発話を生成することができる.図~\ref{fig:dial_ex}のやり取りにおいて,「一人暮らしをしたいのですが.」というユーザ発話をシステムが〈間取り$\leq$1LDK〉という検索条件へ変換したとする.このとき,単に「間取りは1LDK以下でよろしいですか?」と確認するよりも,「一人暮らしということですので,間取りは1LDK以下でよろしいですか?」とシステムが判断した理由を追加することでより自然な対話となる.また,対話として自然なだけではなく,ユーザがシステムの判断に納得するためにも根拠を提示することは重要である\cite{XAI-Gunning,XAI-Monroe}.このような確認発話を生成する際に,ユーザ発話中の「一人暮らし」という表現を〈間取り$\leq$1LDK〉の根拠として抽出することは有用である.また,非明示的条件を含むユーザ発話が与えられたとき,その非明示的条件に関連するデータベースフィールドについての質問を生成するためにも抽出した根拠を利用できる.例えば,図~\ref{fig:dial_ex}中のユーザ発話を【間取り】というデータベースフィールドへ分類し,その根拠として「一人暮らし」を抽出した場合,「一人暮らしということですが,間取りはいかがなさいますか?」という質問を生成できる.非明示的条件に対応できない対話システムでは,このようなユーザ発話に対して,ユーザ発話を理解できなかったという返答を行うか,まだ埋まっていない検索条件について質問を行うことしかできない.また,根拠を抽出し,蓄積することにより,対話中でどのような非明示的条件が出現しやすいかということを,システムの開発者が知ることができる.仮に,「一人暮らし」や「家族4人」のような客の家族構成の情報が頻繁に出現することがわかれば,システムの開発者は,家族構成に関係する情報をデータベースに新規に追加するという改良を施すことができる.本論文では,データベースフィールドへのマルチラベル分類と同時に,根拠抽出を行う.非明示的条件から検索条件への変換の根拠を各発話に対してアノテーションすることはコストが高いため,教師なし学習によって根拠抽出を行う.本論文の貢献は,データベース検索を行うタスク指向対話において,非明示的条件を含むユーザ発話をデータベースフィールドと値の組(検索条件)へ変換し,同時にその根拠をユーザ発話中から抽出する課題を提案することである.本稿では,この課題の一部であるデータベースフィールドへの分類と根拠抽出を行うために,(1)サポートベクタマシン(SVM),(2)回帰型畳込みニューラルネットワーク(RCNN),(3)注意機構を用いた系列変換による3種類の手法を実装し,その結果を報告する.本論文の構成は以下の通りである.2節では関連研究について述べ,本論文の位置付けを明らかにする.3節では本論文で利用するデータと問題設定について詳述する.4節ではデータベースフィールドへの分類とその根拠抽出手法について述べる.5節では評価実験の結果について述べ,6節で本論文をまとめる. | |
V03N03-05 | \footnotetext{井佐原均,HitoshiIsahara,郵政省通信総合研究所関西先端研究センター,KansaiAdvancedResearchCenter,CommunicationsResearchLaboratory,MPT}\footnotetext{内野一,HajimeUchino,日本電信電話株式会社NTTコミュニケーション科学研究所,NTTCommunicationScienceLaboratories,NipponTelegraphandTelephone}\footnotetext{荻野紫穂,ShihoOgino,日本アイ・ビー・エム株式会社東京基礎研究所,IBMResearch,TokyoResearchLaboratory,NihonIBM}\footnotetext{奥西稔幸,ToshiyukiOkunishi,シャープ株式会社情報システム事業本部情報商品開発研究所,InformationSystemsProductDevelopmentLaboratories,InformationSystemsGroup,SharpCorp.}\footnotetext{木下聡,SatoshiKinoshita,株式会社東芝研究開発センター情報・通信システム研究所,ResearchandDevelopmentCenter,CommunicationandInformationSystemsResearchLaboratories,Toshiba}\footnotetext{柴田昇吾,ShogoShibata,キヤノン株式会社情報メディア研究所,MediaTechnologyLaboratory,CANONINC.}\footnotetext{杉尾俊之,ToshiyukiSugio,沖電気工業株式会社研究開発本部関西総合研究所,ResearchandDevelopmentGroup,KansaiLaboratory,OkiElectricIndustryCo.,Ltd.,}\footnotetext{高山泰博,YasuhiroTakayama,三菱電機株式会社情報技術総合研究所,InformationTechnologyR\&DCenter,MitsubishiElectricCorp.}\footnotetext{土井伸一,Shin'ichiDoi,日本電気株式会社情報メディア研究所,InformationTechnologyResearchLaboratories,NECCorp.}\footnotetext{永野正,TadashiNagano,松下電器産業株式会社AV&CC開発センター東京情報システム研究所,ICSC,MatsushitaElectricIndustrialCo.,Ltd.}\footnotetext{成田真澄,MasumiNarita,株式会社リコー情報通信研究所,InformationandCommunicationR\&DCenter,RicohCo.,Ltd.}\footnotetext{野村浩郷,HirosatoNomura,九州工業大学情報工学部知能情報工学科,DepartmentofArtificialIntelligence,KyushuInstituteofTechnology}機械翻訳システムの長い歴史の中で、システム評価は常に大きな課題の一つであった。システムの研究開発が健全に進むためには、客観的かつ正確な評価法が必要となる。このため、ユーザの立場から評価を行うもの、開発者の立場から評価を行うもの、また、技術的側面から評価を行うもの、経済的側面から評価を行うものと、多くの研究者によって様々な視点からの評価法が検討されてきた。これらの検討に基づいて、(社)日本電子工業振興協会によって一連の機械翻訳システム評価基準が開発されてきた(野村・井佐原1992,NomuraandIsahara1992a,NomuraandIsahara1992b,日本電子工業振興協会1993)。本稿で提案する機械翻訳システムの評価法は、システムの改良を続ける開発者の立場から、機械翻訳システムの技術面を翻訳品質に注目して評価するものである。機械翻訳システムの訳文の品質面での評価に関しては、従来からのいわゆるALPACレポート型の評価法に加えて、近年、いくつかの提案がなされている。ある程度まとまった文章を翻訳し、そこから得られる理解の度合を評価しようとするものとして、ARPAによる機械翻訳システム評価(Whiteetal1994)や、TOEFLのテストを用いる方法(Tomita1992)が提案されているが、これらはシステム間の現時点での性能の比較評価には用いることが出来ても、評価結果を直接システム改良に結び付けることは困難である。これに対し、個別の例文を収集することにより評価用の例文集を作成し、その各例文の翻訳結果を評価し、対応する言語現象の処理能力を判定しようとする提案がいくつかなされている。これらのうちには、単に文を集めるのみで、その後の例文の利用法(評価過程)は個別の評価者に任せようというものから、本稿で提案するように、客観的評価のためにさまざまな情報を付加しようというものまで、いくつかの段階がある。わが国においては、(社)日本電子工業振興協会が既に昭和60年に機械翻訳例文資料として、翻訳における曖昧性に関する問題点に着目して、英文および和文を収集分類し公開している(日本電子工業振興協会1985)。また同協会は昭和62年度に、機械翻訳システムの技術レベルを評価するために、文の複雑さの定量化、文の複雑さや文体の定性的特徴の抽出、標準的例文の収集を行なった(日本電子工業振興協会1988,石崎・井佐原1988)。この他、英語を話す人間と日本語を話す人間との間にある言語理解法の違い(言い替えると、日本語と英語の発想法の違い)に注目して日本語の言語表現を分類し、それらの表現の翻訳能力を評価する試験文集を作成するもの(池原・小倉1990,池原他1994)や、言語学的観点から日本語および英語の言語表現の構造に注目し、その表現上の構造的特性を的確に表すような試験文集を作成すること(成田1988)が提案されてきた。後者は、個々の言語現象に対する翻訳の可否を示すことの必要性から、一定の内容の文の言い換えなどによって日本語および英語の言語表現と翻訳能力の関係を言語学者の立場から評価することを提案している。本稿で論じる機械翻訳システム評価用テストセットは、以上のような、ALPACレポート以来の品質評価に関する研究を踏まえて、誰でも客観的かつ実用的な評価を行なえる評価法の確立を目指し作成したものである。次節以下では、テストセットを用いた評価法の全体を流れる基本的な考え方、英日機械翻訳用テストセット、日英機械翻訳用テストセットについて、順次説明していく。 | |
V11N05-06 | 言い換えに関する研究\cite{sato_ronbun_iikae,yamamoto_nlp2001ws_true,murata_paraphrase_true,inui_iikae_tutorial}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであるが,本稿では言い換えの研究の統一的モデルとして,尺度に基づく変形による手法を示し\footnote{本稿は,文献\cite{murata_nlp2001ws_true}に基づいて作成したものである.本研究の主眼になっている尺度に基づく変形については,文献\cite{murata2000_1_nl}の脚注6においても述べている.},このモデルによって種々の言い換えを統一的に扱えることを示す.このモデルでは,多様な言い換えの問題の違いを,尺度で表現することで,言い換えを統一的に扱えるようになっている.このモデルには以下の利点が存在する.\begin{itemize}\itemシステム作成の効率化本稿の言い換えの統一的モデルでは,変形の尺度や変形規則を他のものに取り替えるだけで多様な言い換えを実現することができる.システム作成では,変形の尺度や変形規則以外のモジュールは一度作成してしまえば,多様な言い換えシステムで利用することができる.すなわち,システム作成のコストを軽減できるのである.また,変形規則も複数の言い換えシステムで共用できる場合があり,その場合もシステム作成のコストを軽減できる.\item言い換えの原理の理解容易性本稿の言い換えの統一的モデルでは,後で述べるように変形部と評価部という二つの構成要素からなる単純なモデルだけで,多種多様な言い換えを扱うことができるようになっている.本稿のモデルは単純で理解しやすく,大雑把に言い換えをどのようにすればできるかを考えるには,このモデルを基本におくと考えやすい.\item多様な言い換えの創出本稿の言い換えの統一的モデルでは,変形の尺度を変更することで,多様な言い換えを実現することができる.すなわち,尺度のみを考察し,新たな尺度を考えたときには,その尺度で変形を行なう新たな言い換えシステムを考えたことと等価になる.尺度のみを考察し,新たな尺度を考案することは比較的容易であるので,本稿の統一的モデルは,多様な新たな言い換えを思いつくことにも役に立つのである.\end{itemize}本稿ではまず,上述のような優れた利点を持つ言い換えの統一的モデルについて説明する.その後で,この統一的モデルに基づいて試作した言い換えシステムを紹介する.紹介する言い換えシステムは,文内圧縮システム,推敲システム,文章語口語変換システム,RL発音回避システム,質問応答システムである.これら多様なシステムを本稿の統一的モデルで具体的に作成できることを示すことで,本稿の統一的モデルで実際に多様な言い換えの問題を扱えることを示す. | |
V26N01-07 | Web上では日々多くのテキスト情報が発信されており,これまでに膨大な量のテキストが蓄積されている.この大量のテキストから,あるトピックについての知識を抽出するためには,関連するテキストの統合・要約・比較を行う情報分析技術が必要である.異なる時期に書かれたテキストや異なる時期について言及しているテキストを対象として分析を行うためには,テキストに含意されている時間情報を正しく解釈する必要があり,これまでに事象情報と時間情報の関係性という観点から多くの研究やタスクが行われてきた.例えばTempEval1,2,3では,事象−事象表現間,事象−時間表現間の時間的順序関係の推定が行われた\cite{TempEval-1,TempEval-2,TempEval-3}.また,SemEval15では複数のテキストから事象表現を抽出し,時系列に配置するタイムライン生成タスクが扱われた\cite{SemEval15-4}.このようなタスクにおいてモデルの学習やシステムの評価を行うため,テキスト中の事象情報と時間情報を関連付けたコーパスが作られてきた\cite{pustejovsky:TimeBankCorpus:03,cassidy:TimeBankDenseCorpus:2014,reimers:EventTimeCorpus:2016}.これらのコーパスでは開始・終了時が比較的明確な事象表現を対象にアノテーションが行われたが,テキストの時間情報理解のための手がかりはこれにとどまらない.本研究では,時間性が曖昧な表現を含めた,テキスト中の様々な表現がもつ時間情報を表現力豊かにアノテーションするための基準を提案する.先行研究における時間情報アノテーションのアプローチは2つに大別される.1つは事象間の時間的順序関係を付与する{\bf相対的なアノテーション方法}である.もう1つは各事象を時間軸に対応させる{\bf絶対的なアノテーション方法}である.前者は小説など時間情報の少ないテキストであっても情報量の多いアノテーションが可能である.後者は新聞などの時間情報の多いテキストにおいて少ないアノテーション量で正確に時間情報を表現できる.本研究は後者のアプローチを発展させるものであり,構築するコーパスはタイムライン生成など時間軸を用いてテキストの比較・統合を行うタスクにおいて学習/評価データとして使用することが可能である.本アノテーション基準の特徴は次の2つである.1つは,時間性をもち得る幅広い表現をアノテーション対象とすることである.多くの先行研究は,TimeML\cite{Sauri06timemlannotation}のガイドラインに従い,何か起きたことやその状態を表す一時性の強い表現である{\sl``event''}に対してアノテーションを行っている.そのため次の例の「出現しており」のような一時性の弱い表現にはアノテーションが行われない.\vspace{0.5\Cvs}\enumsentence{インターネット上では様々な事業が急速に{\itshape\bfseries出現しており},政府でさえ把握できていない.}\vspace{0.5\Cvs}しかし,一時性の弱い表現がもつ時間情報もテキスト解釈の手がかりとなり得る.この例の場合,「出現しており」が数年前から現在にかけての事象であるという時間情報をアノテーションすることも重要である.そこで本研究では先行研究より対象を広げ,テキスト中で時間性をもち得る全ての事象表現,すなわちテキスト中の述語または事態性名詞(サ変名詞,動詞連用形の名詞化,形容動詞語幹)を含む基本句全て(以降,対象表現と呼ぶ)をアノテーション対象とする.ここで基本句とは,京都大学テキストコーパスで定義されている単位で,自立語とそれに続く付属語のことである.本アノテーション基準のもう1つの特徴は,頻度や期間などの多様な時間情報を扱えることである.\cite{reimers:EventTimeCorpus:2016}は事象の起きる期間を開始点と終了点を用いて時間軸に対応付けたが,次の例で太字で示す「飛び飛びな時間」や「大きな区間の中のある一部の期間」に起きる事象を正確に時間軸に対応付けることはできなかった.\vspace{0.5\Cvs}\enumsentence{\label{ex:baseball}毎週日曜は球場で野球を{\itshape\bfseries見る}。}\enumsentence{\label{ex:trip}来週は3日間京都に{\itshape\bfseries出張する}。}\enumsentence{昔はよく一緒に{\itshape\bfseries遊んでいた}。}\vspace{0.5\Cvs}本研究では,テキスト中に含まれる多様な時間情報をより正確に時間軸に対応付けられる時間タグを導入する.多様な表現に対して表現力豊かにタグ付けすることで,個人のテキスト解釈や常識がタグの揺れとして現れる.本研究ではこのような揺れも時間がどのように解釈されているかを知る上で重要だと考えているため,最終的に複数のアノテータの付与した時間タグを1つに統合することはしない.代わりに,解釈の違いを尊重しつつ明らかなアノテーションミスのみを修正するアノテーション方法を導入する.本アノテーション基準を用いて,京都大学テキストコーパス中の113文書4,534対象表現に対してアノテーションを行った.その結果,対象表現の76\%に時間性が認められ,そのうち35\%(全体の26\%)で本稿で新たに提案する記法が用いられた.同コーパスには,既に述語項関係や共参照関係のアノテーションがなされているため,本アノテーションと合わせてテキスト中の事象・エンティティ・時間を対象とした統合的な時間情報解析に活用することが可能となる. | |
V05N03-05 | \label{sec:intro}コーパス,辞書,シソーラスなどの機械可読な言語データの整備が進んだことから,自然言語処理における様々な問題の解決に何らかの統計情報を利用した研究が盛んに行われている.特に構文解析の分野においては,構文的な統計情報だけでなく,単語の出現頻度や単語の共起関係といった語彙的な統計情報を利用して解析精度を向上させた研究例が数多く報告されている\cite{schabes:92:a,magerman:95:a,hogenout:96:a,li:96:a,charniak:97:a,collins:97:a}.ここで問題となるのは,このような語彙的な統計情報を構文的な統計情報とどのように組み合わせるかということである.このとき,我々は以下の2つの点が重要であると考える.\begin{itemize}\item解析結果の候補に与えるスコアが,構文的な統計情報のみを反映したスコアと語彙的な統計情報のみを反映したスコアから構成的に計算できることこのことによる利点を以下に挙げる.\begin{itemize}\item個々の統計情報を個別に学習できる構文的な統計情報を学習する際には,学習用言語資源として比較的作成コストの高い構文構造が付加されたコーパスが必要となる\footnote{Inside-Outsideアルゴリズム\cite{lari:90:a}に代表されるようなEMアルゴリズムを用いて,構文構造が付加されていないコーパスから構文的な統計情報を学習する研究も行われている.しかしながら,このような教師なしの学習は一般に精度が悪く,現時点では構文構造が付加されたコーパスを利用した方が品質の良い統計情報を学習できると考えられる.}.しかしながら,推定パラメタの数はそれほど多くはないので,比較的少ないデータ量で学習することができる.これに対して,語彙的な統計情報は,単語の共起に関する統計情報を学習しなければならないために大量の学習用データを必要とするが,構文構造付きコーパスに比べて作成コストの低い品詞付きコーパスを用いても学習することが十分可能である.このように,統計情報の種類によって学習に要する言語資源の質・量は大きく異なる.そこで,構文的な統計情報と語彙的な統計情報を異なる言語資源を用いて個別に学習できるように,それぞれの統計情報の独立性を保持しておくことが望ましい.\item曖昧性解消時における個々の統計情報の働きを容易に理解することができる例えば,曖昧性解消に失敗した場合には,構文的な統計情報と語彙的な統計情報を独立に取り扱うことにより,どちらの統計情報が不適切であるかを容易に判断することができる.\end{itemize}\item個々の統計情報を反映したスコアが確率的意味を持っていること構文的な統計情報を反映したスコアと語彙的な統計情報を反映したスコアを組み合わせて全体のスコアとする場合,両者のスコアの和を計算すればいいのか,積を計算すればいいのか,またどちらか片方に重みを置かなければならないのかなど,その最適な組み合わせ方は自明ではない.このとき,個々のスコアが確率的意味を持つように学習することにより,確率の積としてそれらを自然に組み合わせることができる.\end{itemize}ところが,語彙的な統計情報を利用して構文解析の精度を向上させる過去の研究の多くは以上の条件を満たしていない.例えば田辺らは,確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFG)における書き換え規則の非終端記号に,その非終端記号が支配する句の主辞となる単語を付加すること(以下,これをPCFGの語彙化と呼ぶ)によって語彙的従属関係をPCFGの確率モデルに反映させる方法を提案している~\cite{tanabe:95:a}.一方,英語を対象にPCFGを語彙化した研究としてはHogenoutら~\cite{hogenout:96:a},Charniak~\cite{charniak:97:a},Collins~\cite{collins:97:a}によるものがある.しかしながら,PCFGの語彙化によって構文的な統計情報と語彙的な統計情報を組み合わせる方法は,非終端記号に単語を付加することによって規則数が組み合わせ的に増大し,推定するパラメタ数も非常に多くなるといった問題点がある.また,構文的な統計情報と語彙的な統計情報を同時に学習するモデルとなっているが,先ほど述べたように両者は独立に学習できることが望ましい.PCFGをベースとしないSPATTERパーザ~\cite{magerman:95:a}やSLTAG~\cite{schabes:92:a,resnik:92:b}にも同様の問題が存在する.これらの研究は語彙的な統計情報を利用して解析精度の向上を図ってはいるが,構文的な統計情報と独立に学習する枠組にはなっていない.構文的な統計情報と語彙的な統計情報を独立に学習する枠組としてはLiによるものが挙げられる~\cite{li:96:a,li:96:b}.Liは,解析結果の候補$I$に対して,構文的な統計情報を反映させた確率モデル$P_{syn}(I)$と単語の共起関係を反映させた確率モデル$P_{lex}(I)$を別々に学習する方法を提案している.そして,語彙的な制約は構文的な制約に優先するといった心理言語学原理に基づき,まず$P_{lex}(I)$を$I$のスコアとして用い,一位とそれ以外の候補のスコアの差が十分に大きくなかった場合に限り$P_{syn}(I)$をスコアとして用いている.すなわち,構文的な統計情報と語彙的な統計情報をそれぞれ独立に学習してはいるが,これらを同時に利用して曖昧性解消を行っているわけではない.また,この2つのスコアの持つ確率的意味が不明確であり\footnote{$P_{syn}(I)$,$P_{lex}(I)$は確率と呼ばれてはいるが,どのような事象に対する確率なのかは不明である.},その最適な組み合わせ方は自明ではない.本研究では,構文的な統計情報と語彙的な統計情報を組み合わせる一方法として,統合的確率言語モデルを提案する~\cite{inui:97:b,inui:97:e,sirai:96:a}.この統合的確率言語モデルの特徴は,単語の出現頻度,および単語の共起関係といった2つの語彙的な統計情報を局所化し,構文的な統計情報と独立に取り扱う点にある.また,構文的な統計情報を構文構造の生成確率として,語彙的な統計情報を単語列の生成確率としてそれぞれ学習し,これらの積を解析結果の候補に対するスコアとすることにより,曖昧性解消に両者を同時に利用することができる.この統合的確率言語モデルの詳細については\ref{sec:model}節で述べる.\ref{sec:exp-stat}節ではこの統合的確率言語モデルの学習,およびそれを用いた日本語文の文節の係り受け解析実験について述べる.最後に\ref{sec:conclusion}節で結論と今後の課題について述べる. | |
V13N03-04 | \label{sec:intro}スライドを用いたプレゼンテーションは,意見を人々に伝えるのに大変効果的であり,学会やビジネスといった様々な場面において利用されている.近年,PowerPointやKeynoteといったプレゼンテーションスライドの作成支援をするソフトが開発・整備されてきているが,一からスライドを作成することは依然として大変な作業である.そこで,科学技術論文や新聞記事からプレゼンテーションスライドを自動(または半自動)で生成する手法が研究されている.Utiyamaらは,GDAタグで意味情報・文章構造がタグ付けされた新聞記事を入力としてプレゼンテーションスライドを自動生成している\cite{Utiyama99}.また,安村らは,科学技術論文の\TeXソースを入力として,プレゼンテーション作成を支援するソフトウェアを開発している\cite{Yasumura03j}.しかし,いずれの研究においても,入力テキストに文章構造がタグ付けされている必要があり,入力テキストを用意することにコストがかかってしまう.\begin{figure}[t]\fbox{\begin{minipage}[t]{\hsize}大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通により,一日45万人,ラッシュ時最大1時間12万人の足が奪われた.JR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間については,震災直後から代替バスによる輸送が行われた.国道2号線が開通した1月23日から,同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施された.1月28日からは,国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保された.\end{minipage}}\caption{入力テキストの例}\label{fig:text_example}\end{figure}\begin{figure}[t]\begin{center}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}鉄道の復旧\end{center}\begin{itemize}\item大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通\begin{itemize}\item一日45万人,ラッシュ時最大1時間12万人の足が奪われた\end{itemize}\itemJR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間\begin{itemize}\item震災直後から\begin{itemize}\item代替バスによる輸送\end{itemize}\item国道2号線が開通した1月23日から\begin{itemize}\item同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施\end{itemize}\item1月28日から\begin{itemize}\item国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保\end{itemize}\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\end{center}\caption{自動生成されたスライドの例}\label{fig:slide_example}\end{figure}本稿では,生テキストからスライドを自動生成する手法を提案する.入力テキストの例を図\ref{fig:text_example},それから自動生成されたスライドの例を図\ref{fig:slide_example}\,に示す.本稿で生成するスライドは,入力テキストから抽出したテキストの箇条書きから構成される.箇条書きを使うことによって,テキストの構造を視覚的に訴えることができる.例えば,インデントが同じ要素を並べることで並列/対比関係を表わすことや,インデントを下げることによって詳細な内容を表わすことなどといったことが可能となる.従って,生成するスライドにおいて,箇条書きに適切なインデントを与えるには,入力テキストにおける,対比/並列関係や詳細化関係などといった文または節間の関係を解析する必要がある.本稿では,入力テキストの談話構造を解析し,入力テキストから抽出・整形されたテキストを箇条書きにし,そのインデントを入力テキストの談話構造に基づいて決定することによりスライドを生成する.生成されたスライドは入力テキストに比べて見やすいものにすることができる.特に,テキストに大きな並列や対比の構造があると,見やすいスライドを生成することができる.図\ref{fig:slide_example}\,の例では,「震災直後から」,「国道2号線が開通した1月23日から」,「1月28日から」の対比の関係が解析され,それらが同じインデントで表示されることにより見やすいスライドが生成されている.また,図\ref{fig:slide_example}\,の例の「震災直後から」と「代替バスによる輸送」のように,各文から主題を取り出し,主題部と非主題部を分けて出力することにより,スライドを見やすくしている.特に対比関係の場合,何が対比されているのかが明確になる.本稿で提案するスライド生成の手法の概要を以下に示す.\begin{enumerate}\item入力文をJUMAN/KNPで形態素解析,構文解析,格解析する.\item入力文を談話構造解析の基本単位である節に分割し,表層表現に基づいて談話構造解析を行なう.\item入力文から主題部・非主題部を抽出し,不要部分の削除,文末の整形を行なう.\item談話構造解析結果に基づき,抽出した主題部・非主題部を配置することによりスライドを生成する.\end{enumerate}また,我々の手法は,プレゼンテーションスライドの作成支援を行なうだけでなく,自動プレゼンテーションを生成することができる.すなわち,テキストを入力とし,自動生成したスライドを提示しながら,テキストを音声合成で読み上げることにより,自動でプレゼンテーションを行なう.我々はこのシステムのことを,「text-to-presentationシステム」と呼んでいる(図\ref{fig:presentation_system}).難解な語や長い複合語は音声合成の入力に適しているとはいえないので,Kajiらの言い換え手法\cite{Kaji02,Kaji04}で書き言葉を話し言葉に自動変換してから音声合成に入力することにより,音声合成の不自然さを低減する.\begin{figure*}[t]\begin{center}\includegraphics[scale=0.55]{ttps-j.eps}\caption{text-to-presentationシステム}\label{fig:presentation_system}\end{center}\end{figure*}本稿の構成は以下のようになっている.\ref{sec:ds_analysis}\,章で談話構造解析について述べ,\ref{sec:topic_extract}\,章で入力テキストからスライドに表示するテキストを抽出する方法について述べ,\ref{sec:output_slide}\,章でスライドの生成方法を述べる.そして,\ref{sec:evaluation}\,章で実装したtext-to-presentationシステムと,自動スライド生成の実験の結果を報告する.\ref{sec:related_work}\,章で関連研究について述べ,\ref{sec:conclusion}\,章でまとめとする. | |
V17N04-05 | \resp{コミュニケーションの手段として,メールやWebの掲示板を日常的に利用するシーンは非常に多い.}メール\resp{やWebの掲示板}によるコミュニケーションの特徴として,非言語情報が欠落しているため,会話時に相手から感じる対人圧力が低くなり,気軽に考えていることを書き出すことができるメリットがあげられる\cite{sugitani20070320}.しかし一方で,\resp{メッセージ}の受け取り手は\resp{テキスト}の内容のみから相手の考えを読み取らなければならないため,ちょっとした言葉の誤解が,感情的な問題へと発展していくことがある\cite{小林正幸}.また,書き方によっては書き手の感情が伝わりにくいことがあったり\cite{katou20051020},書き手はそれほど怒っていないにもかかわらず,非常に怒っているようにとらえられたりと,過剰に感情が伝わってしまうこともある\cite{小林正幸}.このように,\resp{書き手が思っている程,伝えたいことが相手に伝わらない傾向があるため{\cite{citeulike:528278}},メールやWebの掲示板では相手に誤解を与えやすいというデメリットを持っているといえる.}そこで我々は上記の問題点を解決するため,\respeqn{テキスト}から読み手が想起する書き手の感情を推定し,推定結果を書き手に示すことで\resp{テキスト}を書き手に修正させ,相手に誤解を与えないようにするシステムの開発を目指した研究を行っている.このようなシステムを実現するためには,\resp{読み手が想起する書き手の感情をテキスト中の発話文}から推定する手法が必要となる.\respeqn{発話文}からの感情推定手法として,目良らは複数の事象の格フレームタイプのうち,どれに入力文が当てはまるかを判定し,該当した格フレームタイプに対応する情緒計算式を用いて発話者の感情が快か不快かを判定する手法を提案している\cite{mera}.この手法では,あらかじめ用意した情緒計算式のほかに,ユーザの嗜好情報を基にした単語に対する好感度データを用いる.単語に限らず,文の冒頭に現れる副詞や文末表現によって話し手の意図や心的態度を表すモダリティ\cite{modality2}も,感情推定に有用であることが考えられる.文末表現から情緒を推定する可能性についての検討を徳久らが行っており\cite{徳久雅人:20080131},文末表現と情緒の間に若干の相関がみられたと報告している.単語や文末表現に感情の属性を振ったとしても,単語や文末表現の組み合わせによって感情が変化すると考えられる.そのため,単語や文末表現を用いて感情推定を行うためには,これらの組み合わせに対応して感情を出力するルールの作成が必要になると考えられる.ルールの例として,例えば``嬉しい''という語に``喜び''の属性が割り振られていたとする.ここで``嬉しいことなんてひとつもない''という文の感情を推定する場合,推定結果としては``喜び''ではなく``悲しみ''や``怒り''といった感情が出力されるべきである.``喜び''の単語が含まれているからといって,単純に``喜び''を出力してよいわけではない.ここで``悲しみ''や``怒り''を出力するためのルールを作成しておくことで,感情推定が可能になる.しかし,このようなルールの作成は単語に感情の属性を割り振る作業以上にコストがかかると考えられる.この問題を解決する方法として,三品らは用例に基づく感情推定手法を提案している\cite{aiac}.この手法では,発話者が表現している感情ごとに\respeqn{発話文}を分類した感情コーパスを用い,入力文と最も類似度が高い発話文が含まれる感情コーパスの感情を推定結果として得る.類似度計算には機械翻訳システムの性能のスコアを求めるBLEU\cite{bleu}を用いている.この手法を実装するためには発話文を収集して感情ごとに分類した感情コーパスを構築すればよく,先に述べた例のようなルールを作成する必要がない.しかし,この手法は感情推定成功率が決して高くないため,類似度の計算式を改良する必要がある.この方法では入力文とコーパス中の各文の類似度を計算し,その最大値の文が持つ感情を出力している.そのため,次のような特異な文によって感情推定に失敗することがある.\begin{enumerate}\item感情が異なっていても,たまたま表現や文型が類似している文\label{enum:prob1}\itemコーパスを構築する際に誤って分類された文\label{enum:prob2}\end{enumerate}感情が異なるが類似している文の例として,``嫌悪''の文``嫌いなんです''と``喜び''の文``好みなんです''があげられる.ともに\resp{名詞の後に``なんです''}が続く形となっており,文型が類似している.ここで入力文として``好きなんです''が与えられたとき,入力文の``なんです''は二つの文に存在しており,形態素数も同じであるため,``嫌悪''と``喜び''の文とのBLEUスコアは同じになってしまう.その結果,``嫌悪''と``喜び''が出力されてしまう.この推定結果としては``喜び''のみが出力されることが適切であると考えられる.また,コーパスを構築する際には誤って分類される\respeqn{発話文}を完全に取り除くことは非常に困難であると考えられる.このことから,誤って分類された\respeqn{発話文}の影響を最小限に抑える手段が必要となる.本稿では三品らの手法を改善し,(\ref{enum:prob1})や(\ref{enum:prob2})の文による影響を抑え,感情推定成功率を向上させる手法を提案する.本稿では,まず\ref{sec:conventional}章で従来手法である``BLEUを類似度計算に用いた用例に基づく感情推定手法''について述べる.次に\ref{sec:proposed_method}章で,従来手法で用いられていた類似度計算式とは異なる新たな類似度計算式を提案する.また,この新たに提案する類似度計算式で,どのようにして従来手法の問題点を解決するかについて述べる.そして\ref{sec:ev}章では従来手法と提案手法の感情推定成功率の比較を行う.また三品らの方法とは異なる感情推定の従来法として,SVMを用いた感情推定を行い,結果を比較する.最後に\ref{sec:conclusion}章でまとめと今後の課題を述べる. | |
V06N06-07 | 近年テキストを自動的に要約する技術に関する研究が国内外で盛んになって来ている(HovyandMarcu1998;奥村,難波1998).自動要約に関する研究の歴史は,古く1950年代後半から研究されているが,対象のテキストから重要な部分を抜き出して要約とする重要部分特定の手法が中心であった.テキストの内容を理解しての自動要約は,難しくまだ現実的なシステムを作成するに至っていないのが現状である.また,最近,テキストの重要部分に注目するのではなく,不要部分を特定し,言い換え及び削除により,要約を行う研究も出てきている.本研究の目的は,長い文を短い文に分割する処理(今後「短文分割」と呼ぶ)を行ない,その短文分割の自動要約手法への影響を調査することである.短文分割に関する研究は,機械翻訳の研究で見られる.機械翻訳においては,長文は,文の係り受け構造の複雑さが増え,翻訳精度低下の原因の一つとされている.このため,短文分割を翻訳の前処理として行い,翻訳の精度を高めることを目的とした研究が行われている.金ら(金,江原1993)は,長文に現れる連用中止表現,引用,連体節,接続節などを分割点と認定している.また,木村ら(木村,野村,平川1993)は,単語数の多い文で,特定の言語表現を持つ場合に分割を行っている.特定の言語表現としては,動詞と助動詞の連用中止表現,接続助詞の「ので」などがある.本論文で用いる短文分割手法は,これらの手法と同様のものである.一方,関連研究としてはMarcuの研究がある(Marcu1997).Marcuは,手がかりとなる語句を使って要約の基本となる単位を決定し,談話構造を解析してその結果を自動要約に用いている.手がかり語としては,becauseなどの接続詞などを使っているため,節が基本単位となる場合があり,文より小さな単位を用いての要約を実現している.手がかり語がない場合は,文全体が1つの単位となる.Marcuの手法は,文より小さな単位を扱っているが,短文分割は行っていない.もう1つの関連研究として,簡易な文構造解析を行い,自動要約に役立てるものがある.構文解析の結果を利用して重要・不要部分を特定し,要約を作成するものである.日本語では三上らが,TVニュース原稿を題材として,構文解析を行い,文中の要素に重要度を与えて,重要要素や,削除すると文を壊してしまう恐れのある要素を重要として抽出している(三上,山崎,増山,中川1998).英語では,Grefestetteの研究があり,自身の開発したparserを使い,構文解析を行い,主節は従属節より重要であり,否定の表現も重要であるなどとして,重要部分を特定して文書の単純化を行っている(Grefenstette1998).これらの研究は簡易構文解析処理を行っているのに対し,本研究では,構文解析を行わずに,文字列や品詞の情報のみを利用して短文分割を行っている.上記の短文分割に関係した研究と比べて,本研究は,短文分割の手法は既存の手法と同様のものを用いており,その短文分割が自動要約の基本的手法にどれだけ効果があるのかに焦点を置いている.本研究は,聴覚障害者向けにサービスしようとしている字幕付きテレビニュースでの自動要約技術に関する研究の一環であり,自動的にテレビニュース原稿を要約する手法について,重要文抽出,文字数圧縮などをテーマに研究を進めて来ている(Wakao,Ehara,Sawamura,Abe,Shirai1997;Wakao,Ehara,Shirai1998).本稿で題材としているのは,TVニュース番組の電子化原稿である.ニュース番組原稿は,新聞記事と似ているが,両者を比較した場合,ニュース原稿のほうが1記事中の文数が少なく,且つ一文当たりの文字数が多いことが分かっている(江原,沢村,若尾,阿部,白井1997).ここで重要文を自動的に抽出することにより要約を作成すると,文数が少なく,一文が長いため,どうしても粗い要約となってしまう.この欠点を補正するために,短文分割を行い,その自動要約における基本的技術への効果を評価した.評価には,文の重要度における順位付けと文字数圧縮を取り上げた.文の順位付けでの評価では,まず,各文を人手及びシステムによりその文の重要度に応じて順位付けを行い,人手により重要と判定された文が,短文分割により分割された場合,分割された文の順位がどうなるかを調査した.次に,記事中の重要な文だけではなく,全部の文を対象として,文の順位付けにおける短文分割の自動要約への影響を調べるために,人手とシステムにより順位付けされた結果の類似度を算出し,短文分割の前後での変化を調べた.この類似度には,スペアマンの順位相関関係係数を用いた.また,文の不要部分を特定して,それを短い表現への言い換えや,削除により,文字数を削減する「文字数圧縮」においても短文分割の前後での圧縮率の違いを算出することにより,短文分割の効果を評価した.以下に,まず,本研究の対象とした原稿を紹介し,短文分割の条件,短文分割の自動要約の基本的技術への影響について記述する. | |
V04N04-03 | アスペクトとは,動きの時間的な局面を問題にして,どの局面をどのように(動きとして,あるいは状態として)とらえるか,ということを表すカテゴリーである.『国語学大辞典』\cite{Kokugo93}で「アスペクト」の項をひくと,\begin{quotation}動詞のあらわす動作が一定時点においてどの過程の部分にあるかをあらわす,動詞の形態論的なカテゴリー.たとえば,「よみはじめる」はよむ動作がはじまることを,「よんでいる」は進行の途中にあることを,「よんでしまう」は動作がおわりまでおこなわれることを,「よんである」は,動作終了後に一定の結果がのこっていることをあらわす.アスペクトは,時間にかかわるカテゴリーであるが,テンスとちがって,はなしの時点との関係は問題にしない.(後略)\end{quotation}とされている.当然のことながら,動詞句の実現するアスペクト的な意味は,動詞の性格と密接に関係する.金田一は,動詞を継続動詞と瞬間動詞にわけ,継続動詞が「している」になると進行態(進行中の意味)となり,瞬間動詞は既然態(結果の状態の意味)になるとした\cite{Kindaiti76}.このほか,結果動詞と非結果動詞,さらに,変化動詞,出現動詞,消滅動詞,設置動詞などと,さまざまな分類がなされてきた.英語においても,Vendlerによるactivities,achievements,accomplishments,statesというような分類\cite{Vendler57},あるいはComrieによるactions,states,processes,eventsのような分類がある\cite{Comrie76}.しかし,近年の研究は,動詞句の分類とそれぞれの意味を記述していく段階から,副詞的成分などの関わりを含め,アスペクト的な意味の決まり方のプロセスを整理する方向へと発展してきている.たとえば,森山は,「結婚している」という句が,通常,結果の状態をあらわすのに対し,「多くの友達が次々と結婚している」といった場合には,繰り返しとしての進行中と解釈されるなどの例を挙げ,最終的なアスペクトの意味が,格成分,副詞などを含めた包括的なレベル(森山氏はこれをアスペクトプロポジションAPと呼んでいる)において決められることを指摘している\cite{森山83,森山88}.本稿では,アスペクト形式\footnote{派生的にとらえられる文法的な形態素を形式と呼ぶ.本稿では,「シ始メル」などの複合動詞も含め,動詞に後続する要素をアスペクト形式とよぶ.}や副詞句の意味を時間軸におけるズーミングや焦点化といった認知的プロセスを表示するものとしてとらえ,動詞句の意味に対する動的な操作であると考える.次節では,これらの概念について,一般的な説明を与える.第3節では,動詞句の意味を素性によって表現し,それに対してアスペクト形式や副詞句が具体的にどのような操作をするかを明らかにする.第4節では,動詞句の意味をコーパスに現れた表層表現から推定し,6種類のクラスに分類する実験の方法と結果および評価を述べる.実験結果の評価は,最も基本的なアスペクトの形態である「シテイル」形の意味を自動的に決定する処理によって行なった.動詞句の分類自体は,客観的に評価することが難しいからである. | |
V05N04-08 | 韓国において日本語は技術の分野のみではなく,経済などの他の分野においても英語に次ぐ重要な言語の一つになっている.しかし,日本語が自由に操れる人は少ない.このような背景により,機械翻訳に関する研究が韓国に紹介され始めた80年代の初めから日韓機械翻訳に対する期待はかなり高い状況であった.このような期待が実り,90年代に入り,韓国,あるいは日本で開発された使用可能な日韓機械翻訳システム5種が市販されるようになった.しかし,現在市販されている商用日韓機械翻訳システムは,日本語と韓国語の言語構造の類似点などによる一般ユーザたちの高い期待とは裏腹にその翻訳品質は低いレベルにとどまっている.このような現実を踏まえ,日韓機械翻訳システムの活性化を達成するために,現在の日韓機械翻訳システムが持っている問題点を客観的に分析,評価し,その問題点の在処を解明し,解決法を探す必要がある.そのためには,現在の機械翻訳システムに対する客観的分析と評価が前提となる.本技術資料は,四つの商用日韓機械翻訳システムを分析・評価し,技術的現象を把握,その問題点を分析することにより今後の開発作業に有効ないくつかの提言を行うのに目的がある.このような努力の一環として,筆者は\cite{choiandkim}を発表した.しかし,その後,韓国国内では\cite{choiandkim}で評価対象にした各システムのアップグレードや新しいシステムの出現という状況の変化があったのため,現時点での分析・評価と\cite{choiandkim}で明らかになった問題点とを比較することにより,解決された問題と未解決の問題がどのようなものであるかを把握,短期的解決課題と長期的解決課題の性格をより明確にする必要が出てきた.翻訳システムの評価には様々な側面からの評価が必要であり,多様な評価法方が提案されている\cite{dijk,White,Whiteandconnel,井佐原}.本技術資料では\cite{arnold}で提示されたユーザサイドからの翻訳品質の評価といえるDeclarativeEvaluation,開発側からの評価であるといえるTypologicalEvaluation,経済的立場からのシステムの効用性の評価であるといえるOperationalEvaluationの三つの立場からの評価とシステムの性能向上度評価といえるProgressEvaluationを行う.評価のための評価にならないよう,実際の生活で機械翻訳が用いられるという状況を作るため,評価対象文を市販されている98種の日本語で書かれた文庫本から直接抽出し評価を行った.今回の評価結果と\cite{choiandkim}を比較すると,開発者側からの言語学的処理範囲の評価といえるTypologicalEvaluationではシステムによっては多少改善されたものが見られるが,機械翻訳処理技術の最も重要な部分であるといえる翻訳技術そのものには大きな進展は見られない.と同時に,ユーザ側からの翻訳品質の向上も\cite{choiandkim}とあまり変わらないことが明らかになった.これは今までの日韓機械翻訳システムの開発で用いられた方法である一般の文法書と一般辞書に基づく演繹的翻訳規則および知識水準ではこれ以上の発展は期待できないことを物語るものであると考えられる.この限界を乗り越えるためには実際の人間の言語生活で用いられる日本語—韓国語間の大量の対訳用例集の構築とそれを用いた日本語と韓国語の客観的で一貫性のある翻訳モデルの確立,大量の用例に基づく帰納的翻訳規則および知識の開発と蓄積が前提となる必要がある.効用性の評価といえるOperationalEvaluationではすべてのシステムが韓国語Windows95で運用されるようになり,日本語原文入力ツールの支援,インターネット翻訳支援などというように大きく進展したといえる. | |
V04N02-06 | 自然言語処理技術の一つに,文書の自動抄録がある.従来から行なわれている自動抄録は大きく分けて2つの手法,すなわち,1.文書の構造解析を行なう手法,2.文書の統計情報を用いた手法とに分類できる.1はスクリプトなどを使用して重要箇所を抽出する方法や,テキストの構文・意味解析を行なって談話構造を作成し,この構造から重要箇所を抽出する方法である\cite{Reimer1988},\cite{Tamura1989},\cite{Jacobs1990},\cite{Inagaki1991}.しかし,これらの方法では,ある特定の分野について書かれたテキストのみを対象としている場合が多いため,結果的に汎用性に欠けることが指摘されている\cite{Paice1990},\cite{Zechner1996}.2は電子化されたコーパスに対し統計手法を適用することで重要箇所を抽出する方法である.この場合,文に出現する各語に重み付けを行ない,そのスコアの高い文を重要箇所とする手法が多く用いられている.重み付けには,(a)ヒューリスティックスを用いたもの,(b)単語頻度などの情報を用いたもの(c)シソーラスなどの意味情報を用いたものなどがある.(a)は文書から得られるヒューリスティックスを用いて文の重み付けを行ない重要箇所を抽出する手法である.\cite{Paice1990},\cite{Paice1993},\cite{Kupiec1995}.ヒューリスティックスとしては,修辞関係\cite{Miike1994},タイトルに出現する語の情報\cite{Edmundson1969},文の出現位置\cite{Baxendale1958}などがある.これらは,分野を限定し特別に用意された知識を用いて重要箇所を抽出する研究と比べると汎用性があると言えるが,対象分野の変更に対しどの程度適用できるかは調査の余地がある.(b)はLuhnらにより提唱されたキーワード密度方式に代表される手法である\cite{Luhn1958}.Luhnらは,「一つの文献において,その主題と関係の深い語は概して文献中に繰り返し出現する」という前提に基づき,文献の内容に関係の深い数語のキーワードを抽出し,これらの語を高頻度で含む文を文献中から選定して抄録とした\cite{Luhn1958}.しかし,文献中どこにでも現れる一般語との区別がつきにくく,文献中におけるキーワード分布の偏りが小さくなってしまうことが指摘されている\cite{Suzuki1988}.鈴木らはこの問題に対処するため,文章中で隣接または近接している語の組のうち,出現頻度の高い組を高頻度隣接語と呼び,キーワード密度法により得られたキーワードと高頻度隣接語を共に多く含む文を抄録文の候補とする手法を提案した\cite{Suzuki1988}.しかし,キーワード及び隣接語の決定は人手により行なわれているため恣意的であり,また抄録を行なおうとするテキストごとにキーワードと隣接語を決定しなければならない.SaltonやZechnerらは,単語の頻度を基に計算されたTF$\ast$IDFを用いて語に重み付けを行なうことで重要箇所を抽出する手法を提案した\cite{Salton1993},\cite{Salton1994},\cite{Zechner1996}.これらの手法は,表記の統計情報だけを用いているため,鈴木らの手法と比べると重要箇所を抽出する際,人間の介在を必要としない.しかし,人間が対象とする記事のみから重要箇所を抽出できるのは,記事に関する様々な知識を用いているからであり,対象となる記事の頻度を基にした単語の機械的な処理による重み付けだけで重要箇所を適切に抽出できるかどうかは不明である.また,(c)は意味に関する統計情報を用いた手法である.佐々木らは,段落内,又は,段落間に跨る意味分類の出現パターンをシソーラスを用いて分析し,その結果をチャート形式で表現する結束チャートを提案した\cite{Sasaki1993}.鈴木らは,佐々木らの提案した結束チャートを利用することでキーワードを自動的に抽出する手法を提案している\cite{Suzuki1993}.鈴木らの手法では,文中に現れる語が多義語である場合には,それまでに現れた文中の語の累積頻度が最も高い意味コードをその語に割り当てている.しかし,佐々木,及び鈴木らのシソーラスを用いる手法の問題として,データスパースネスの問題がある.すなわち,シソーラスのカテゴリー自身が抽象的な語で定義されているため,文書の種類によっては,その語が文書に出現しない場合がある\cite{Niwa1995}.さらに,各段落のキーワード候補は,各段落に2回以上出現した語をその段落におけるキーワード候補としているが,{\itWallStreetJournal}のように経済が主となる報道の新聞記事では,評論や科学文献などと比べると,一つのパラグラフの語数が少ないため,一つのパラグラフ内で同一表層語が2回以上出現する現象は少なく,結果的に文書の種類によっては手法が適用できない場合がある.実際,今回の実験で使用した50記事に出現するパラグラフ数395のうち,一つのパラグラフ内で同一表層語が2回以上出現したパラグラフ数は168(42.5\%)であり,半数以上のパラグラフに対して佐々木らの手法が適用できなかった.本稿では,文脈依存の度合に注目した重要パラグラフの抽出手法を提案する.本稿の基本的なアイデアは,文書の重要箇所を適切に抽出するため,その文書がどの分野に属しているかという情報を利用するということである.例えば,ある記事に`株'が高頻度で出現したとする.その記事が`事件'の分野に属する一つの記事である場合には,`株'に関する事件の可能性が高いことから重要度の度合は強い.一方,`株式市場'の分野に属する一つの記事である場合には,この分野に属する他の記事にも`株'が高頻度で現れることから重要度は下がる.つまり`株'がある記事にとって重要であるかどうかは,その記事が設定された分野にどのくらい深く関わっているかに依存し,これは予め設定された分野に属する他の記事における`株'の頻度と比較することで判定が可能となる.我々は,分野固有の重要語の選定を行なうため,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対する重み付けを行なった.先ず,佐々木らがシソーラスを用いて語の意味を決定しているのに対し,我々は辞書の語義文を用いることで文書中の多義語の意味を自動的に決定する.次に主題に関連する単語の低頻度数の問題に対処するため,名詞同士のリンク付けを行なう.この結果に対し,文脈依存の度合を利用する.すなわち,我々はZechnerらがTF$\ast$IDFを用いて重み付けを行なっているのに対し,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対して重み付けを行なう.その際,鈴木らのように重要語を抽出する過程で人間の介在を必要としない.以下,2章では,文脈依存の度合いについて述べ,3章では語の重み付け手法を示す.4章では重み付けされた語を用いてパラグラフごとに文書のクラスタリングを行ない,重要パラグラフを抽出する手法について述べる.5章では実験について報告し,6章で実験結果に関する考察を行なう. |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.