id stringlengths 9 9 | text stringlengths 304 9.57k | title stringclasses 1 value |
|---|---|---|
V14N04-02 | 技術のグローバル化が進み,特許情報とその翻訳の重要性が広く認識されてきている.日米欧の特許庁では,情報共有,審査の迅速化の観点から,特許文書の相互利用を目指して三極間の協力が推し進められている.国内においても,人手による翻訳で公開特許公報の英文抄録(PAJ:PatentAbstractsofJapan)が作成されているほか,高度産業財産ネットワーク(AIPN:AdvancedIndustrialPropertyNetwork)が開発され,海外の特許庁において包袋書類(出願人が日本国特許庁に提出した明細書等の書類,及び,拒絶理由通知書等の特許出願の審査に係る書類等)が機械翻訳で英訳された形で提供されるようになった.特許は高度に専門的な文書で,新語や専門用語が多く含まれ,かつ,その内容が多岐にわたっている.「翻訳」という観点から見た場合,特許の文章には以下のような特徴がある.\begin{itemize}\item文が長い\\一般に特許文は,文章が長くなる傾向がある.例えば,遺伝子分野(IPC:C12N)の2004年出願の全データ11,781件から抄録部分の形態素数を集計したところ,日本語では一文が平均57形態素(105文字),英語では平均44形態素であった.日本語における読みやすい文の長さの目安がおよそ50文字以内といわれていることからも,特許の文が長くて理解しにくいものであることが分かる.文の長さとも関連して,特許文では並列構造が多く,係り受け関係が複雑であるという特徴もある.\item専門用語が多い\\特許では分野が細分化されており,分野ごとに多くの新語や専門用語が出現する.これらの語は,分野によって概念が違っていたり,単語の組み合わせで個々の単語とはまったく異なる概念を表したりすることがある.また,専門性の高い用語の中には用語辞書や対訳辞書に登録されていないものも多い.\end{itemize}このような特徴を持つ文書を翻訳するには,人手であれ,機械であれ,分野に特化した専門用語の対訳辞書が不可欠である.特に,機械翻訳などの言語処理においては,未知語や専門用語を正確に認識することが,翻訳品質だけでなく,構文解析の曖昧性解消や翻訳速度の向上にも大きく寄与することがわかっている\cite{Shimohata05}.しかしながら,専門性が高くなればなるほど,市販の辞書を入手することは困難になる.また,人手で辞書を構築する場合にも膨大な時間とコストがかかってしまう.一方で,特許にはIPC(InternationalPatentClassification)と呼ばれる体系的な分類コードが付与された大量な文書の蓄積がある.またその一部には,PAJや外国出願特許のように,翻訳されたテキストが存在する.そこで我々は,特許コーパスを用いて,専門用語およびその対訳を自動的に抽出することが可能であると考えた.ここで,本論文で用いる言葉の定義をする.本論文では,言語学的な単位として,1つの形態素からなる語を単語,複数の形態素からなる語を単語列と呼ぶ.また,術語学的な単位として,特定の分野においてある概念を表す単語及び単語列を専門用語,あるいは単に用語と呼ぶ. | |
V09N03-04 | \label{sec:introduction}自然言語解析では,形態素解析,構文解析,意味解析,文脈解析などの一連の処理を通して,入力テキストを目的に応じた構造に変換する.これらの処理のうち,形態素・構文解析は一定の成果を収めている.また,意味解析に関しても言語資源が整ってきており,多義性解消などの研究が活発に行なわれている\cite{kilgarriff98}.しかし,文脈解析は依然として未解決の問題が多い.文脈解析の課題の一つに,代名詞などの{\bf照応詞}に対する指示対象を特定する処理がある.自然言語では,自明の対象への言及や冗長な繰り返しを避けるために照応表現が用いられる.日本語では,聞き手や読み手が容易に推測できる対象(主語など)は,代名詞すら使用されず頻繁に省略される.このような省略のうち,格要素の省略を{\bfゼロ代名詞}と呼ぶ.そして,(ゼロ)代名詞が照応する実体や対象を特定する処理を{\bf照応解析}と呼ぶ.照応解析は,文間の結束性や談話構造を解析する上で重要であり,また自然言語処理の応用分野は照応解析によって処理の高度化が期待できる.例えば,日英機械翻訳の場合,日本語では主語が頻繁に省略されるのに対し,英語では主語の訳出が必須であるため,照応解析によってゼロ代名詞を適切に補完しなければならない\cite{naka93}.照応詞の指示対象は文脈内に存在する場合とそうでない場合があり,それぞれを{\bf文脈照応}(endophora),{\bf外界照応}(exophora)と呼ぶ.外界照応の解析には,話者の推定や周囲の状況の把握,常識による推論などが必要となる.文脈照応は,照応詞と指示対象の文章内における位置関係によって,さらに二つに分けられる.指示対象が照応詞に先行する場合を{\bf前方照応}(anaphora),照応詞が指示対象に先行する場合を{\bf後方照応}(cataphora)と呼ぶ.以上の分類を図~\ref{fig:ana_kinds}にまとめる\cite{halliday76}.ただしanaphoraはendophoraと同義的に用いられることもある.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/class-anaphora.eps,scale=1.0}\caption{照応の分類}\label{fig:ana_kinds}\end{center}\end{figure}照応解析に関する先行研究の多くは前方照応を対象にしている.これらは人手規則に基づく手法と統計的手法に大別できる.人手規則に基づく手法は,照応詞と指示対象候補の性・数の一致や文法的役割などに着目した規則を人手で作成し,照応解析に利用する\cite{bren87,hobbs78,kame86,mitk98,okum96,stru96,walk94,naka93,mura97}.これらの手法では,人間の内省に基づいて規則を作成するため,コーパスに現れないような例外的な言語事象への対処が容易である.その反面,恣意性が生じやすく,また,規則数が増えるにつれて規則間の整合性を保つことが困難になる.これに対して,1990年代には,コーパスに基づく統計的な照応解析手法が数多く提案された\cite{aone95,ge98,soon99,ehar96,yama99}.これらの手法は,照応関係(照応詞と指示対象の対応関係)が付与されたコーパスを用いて確率モデルや決定木などを学習し,照応解析に利用する.統計的手法ではパラメータ値や規則の優先度などを実データに基づいて決定するため,人手規則に基づく手法に比べて恣意性が少ない.しかし,モデルが複雑になるほど推定すべきパラメータ数が増え,データスパースネスが生じやすい.本研究は日本語のゼロ代名詞を対象に,確率モデルを用いた統計的な照応解析手法を提案する.本手法は,統語的・意味的な属性を分割して確率パラメータの推定を効率的に行なう点,照応関係が付与されていないコーパスを学習に併用してデータスパースネス問題に対処する点に特長がある.なお,本研究は日本語に多く現れる前方照応(図~\ref{fig:ana_kinds}参照)を対象とする.以下,\ref{sec:houhou}~章において本研究で提案するゼロ代名詞の照応解析法について述べ,\ref{sec:jikken}~章で評価実験の結果について考察し,\ref{sec:hikaku}~章で関連研究との比較を行なう. | |
V06N04-06 | 我々が日常行っているような自由な対話では,人はどのようにして対話を進めているのだろうか.人に物を尋ねる,仕事を依頼するなどの明確な目標がある場合には,対話の方針(対話戦略)は比較的たてやすいと思われる.しかしながら,職場や学校での食事やお茶の時間,家庭での団らんの時などのおしゃべり,また様々な相談(合意形成,説得から悩みごと相談まで)では,どのようなが対話戦略が可能なのだろうか.そもそも,そのような対話に「対話戦略」と呼べるようなものは存在し得るのだろうか.このような対話では,個々の参加者が対話の流れを意図的に制御しようとしても,なかなかうまく行かないことが多い.むしろ我々は,対話の流れの中で次々と心に浮かんでくる言葉の断片を発話により共有化して,参加者全員で対話を作り上げているように見える.一見,成り行きに任せてしまっているようにみえるこの特徴こそが,実は対話の本質ではないだろうか.我々は,以下の二つの特徴を対話の見逃してはならない重要な側面と考える.\begin{description}\item[対話の即興性]対話は,相手とのインタラクションの場の中で生まれる営みであり,それぞれの場で要求される行動を採りつつ,自己の目的を実現するという高度の戦略が必要とされる.単純に予め立てておいたプランに従って進行させようとしても,対話は決してうまくいかない.\item[対話の創造性]お互いの持っている情報を交換するだけでは,対話の本来の価値は発揮できない.対話をすることで,1+1から2以上のものを生み出すこと,相手の発話に触発されて新しい考えが浮かび上がり,またそれを相手に伝えることで,今度は相手の思考を触発すること,このような正のフィードバックが重要である.\end{description}\hspace*{-0.5cm}我々は,対話のこの二つの側面,「即興性」と「創造性」をあわせて,{\bf対話の創発性}と呼ぶことにする.一見効率がよいように思えるパック旅行では新しい経験は生まれない.きちっとした計画のない自由な旅行でこそ,新しい経験が生まれ,新しい世界が見えてくるといわれる.対話においても,明確な対話戦略のあるようなタスクでは,なかなか対話の創発性は現れてこないものである.そこで,我々は対話の創発性が観測されるような対話を収集することを狙いとして,単純な対話戦略ではうまく機能しない状況を設定して,そこで行われる対話を調べてみることとした.以下2章では,これまでに作られてきた対話コーパスとの比較で,我々の目的としている対話の特徴を述べる.3章では,我々が行った協調作業実験の詳細を述べる.4章では収録対話のデータ構造と基礎的統計データについて述べる.5章では収録されたデータの予備的な分析として,共話と同意表現の使われ方について述べる.最後に,6章で考察を行う.\vspace{-10mm}\newpage | |
V27N01-01 | 機械学習に基づく言語処理システムは,一般に,訓練に用いたテキストドメインと,実際に運用ないし評価を行うテキストドメインが異なる場合に精度が低下する.この,訓練時と運用・評価時のテキストドメインの異なりによる精度低下を防ぐという課題を,ドメイン適応問題と呼ぶ.以下では,訓練に用いるデータのテキストドメインを適応元ドメイン,運用ないし評価を行うデータのテキストドメインを適応先ドメインと呼ぶ.ドメイン適応が必要になる理由は,端的にいえば,訓練データと評価データが同一分布からのサンプルであるという統計的機械学習の基本的な前提が破られていることにある.このため,最も基本的なドメイン適応手段は,適応先ドメインのアノテーション付きコーパスを訓練データに追加してモデルを訓練しなおすこと,すなわち,いわゆる追加訓練によって,訓練データと評価データの分布を近づけることである.このように,追加訓練という明らかな解決法が存在するドメイン適応問題を,ことさら問題として取り上げるのには主に2つの理由がある.ひとつは工学的あるいは経済的な理由である.我々が言語処理技術を適用したいテキストドメインが多様であるのに対して,既に存在するアノテーション付きデータのドメインは限られており,かつ,ターゲットとなるドメインごとに新たにアノテーションを行うことには大きなコストが必要となる.また,単純な追加訓練を超えるドメイン適応技法の中には,大量に存在する適応先ドメインの生テキストを活用することでアノテーションのコストを抑えることを狙うものもあるが,本稿で取り上げる適応先ドメインの一つである教科書テキストのように,そもそも,生テキストですら大量に存在する訳ではないドメインもある.このため,既存のアノテーション付きデータに比べ相対的に少量しか存在しない適応先ドメインデータをどのように活用するかは,重要な技術課題となる.ドメイン適応問題が重要である2つ目の理由は,単一言語のデータには,明らかにテキストドメインを超えた共通性が存在するという点にある.例えば,教科書テキストを解析したい場合でも,モデルを新聞テキストで訓練することには,当然ある程度の有効性がある.簡単にいえば,「どちらも日本語だから」そのようなことが可能になるわけであり,およそ全てのドメイン適応技術はこの前提に基づいているが,しかし我々は「日本語とは何か」ということの数理的・統計的な表現を知った上でこれを行っている訳では当然ない.逆に言えば,ドメイン適応課題とは,あるタスクの精度向上という目的を通じた間接的な形であれ,「日本語とは何か・日本語テキストに共通するものは何か」の理解に近づくための一つの試みであるといえる.以上の2つの理由のいずれからも,最も基本的なドメイン適応手段である追加訓練が,どのような例に対して有効で,どのような例に対してそうでないのかを知ることには大きな意義がある.それを知るための基本的な方法は,追加訓練によって改善された誤りとそうでないものを一つ一つ観察し分類してゆくことだが,これを通じて,追加訓練によって全体として何が起こっているのかを把握することは必ずしも容易でない.そこで本稿では,追加訓練の効果を俯瞰的に観察・分析するための一手法を提示し,日本語係り受け解析タスクにおける追加訓練を例として,その効果の分析を行った結果を報告する.本研究における分析手法は,追加訓練前後の係り受け誤り例の収集・係り受け誤りの埋め込み・埋め込みのクラスタリングの3つのステップに分けられる.係り受け誤りの埋め込みは,クラスタリングを行うための前処理のステップであり,ニューラルネットに基づく係り受け解析器の内部状態を用いて,係り受け誤りを密な実数ベクトルで表現する.解析器の内部状態を用いることで,データにもとづいて導出された,係り受け解析タスクにおいて重要な特徴を抽出した表現に基づくクラスタリングを行うことができ,いわば,「解析器の視点」からの追加訓練の効果の分析が行えると期待できる.次に,こうして得られた埋め込みをクラスタリングすることで追加訓練の効果を俯瞰的に観察・分析する.具体的には,クラスタリング結果に対していくつかの統計的・定量的分析を行い,高次元の空間の点として表現された誤りの分布と,追加訓練による誤りの解消・発生の様子を観察する.さらに,適応先ドメインごとに,追加訓練の効果が特徴的に表れているクラスタや,効果が見られないクラスタに着目してその内容を観察することで,追加訓練の効果に関わるドメインごとの特徴を分析する.この際,一つ一つの誤り例だけでなく,まずクラスタとしてまとめて観察することで,追加訓練によって改善しやすい誤りや,ドメインごとに発生しやすい誤りを見出すことが容易になると考えられる.さらに,追加訓練の効果やドメイン間の差について,クラスタに含まれる誤りの観察をもとに仮説を立て,コーパス上の統計量にもとづきそれを検証することで,ドメイン適応の有効性に関わるテキストドメインの特徴を把握し,よりよい追加訓練手法のための基礎的な知見を得ることが期待できる.本稿では,適応元ドメインとして新聞記事,適応先ドメインとして理科教科書および特許文書を用いて上記の分析を行った結果を報告する.追加訓練の効果が特に強く認められたクラスタの誤りを詳細に分析した結果,「{$X$}は+{$V_1$}スル+{$N$}は/が/を+{$V_2$}スル」「{$X$}は+{$V_1$}スルと+{$V_2$}スル」(「{$V_k$}スル」は用言,{$N$}は体言)など,どのドメインにも出現する文型に対して,正しい構造の分布がドメイン間で異なることが学習されたためであると分かった.追加訓練が効果を上げる理由としては,大きく分けて,(a)適応元ドメインでは稀な構文が新たに学習されること,および,(b)表層的には類似した文型に対する正しい構文構造(の分布)が,適応元ドメインと適応先ドメインで異なることが学習されることの2つが考えられる.本研究の分析の結果からは,後者が追加訓練の主要な効果であることが示唆される.なお,本研究における分析手法は追加訓練と誤りの収集が可能な解析器であればニューラル解析器に限らず適用することができる.例えば,{\cite{weko_192738_1}}では\eijiSVM\Eijiを用いた解析器である\eijiCaboCha\Eiji{\cite{cabocha}}に対する追加訓練の影響を,ニューラル解析器から得られる埋め込み表現とクラスタリングを用いて分析している.ただし,本稿では誤り収集と埋め込み表現の作成は同じ解析器で行った.以下,\ref{sec:related_works}節で関連研究についてまとめ,\ref{sec:teian}節で分析手法について詳述する.\ref{sec:zikken}節で実験結果を述べ,\ref{sec:owarini}節でまとめと今後の展望を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2 | |
V03N01-01 | 文の意味を効率よく適切に理解するためには語義の曖昧性を文脈によって早期に絞り込むことが必要である.通常のボトムアップな手法による意味・構文解析方法では解の探索空間の広がりにより処理の爆発の問題が生じる.また局所的制約のみでは解を絞り切れず,誤った解を出力する問題もある.例としてしばしば引用される次の文\cite{Waltz85}について考えてみる.\begin{eqnarray}`John~shot~some~bucks.'\nonumber\end{eqnarray}shotとbucksの品詞および意味の曖昧性が各々数十通りあるため,数百通りの意味の組合せがあるとされている.しかし,Hunting(狩猟)やGamble(ギャンブル)などの文脈が与えられるとそれぞれ即座に意味が求まり,前者では「ジョンは牡鹿を銃で撃った.」という解釈がなされ,また後者では「ジョンは何ドルか賭けてすってしまった.」という解釈がなされる.文脈情報がないと効率的に解が得られないばかりか,正しい意味に収束さえしない可能性が大きい.近年この文脈依存性に関する二つの問題を解決するため,談話中の前後の脈絡としての一貫性,すなわち文脈を形成する知識の重要性が着目されつつある.それは文の表層から得られる文法的知識などの言語内知識,および一般常識や世界知識などの言語外知識に分けることができる.また意味が談話内の状況により制約を受けるか,発話された環境により制約を受けるかによって文脈情報を分けることもできる.たとえば,「昨日東京で雨が降った.」という発話がなされたとする.前者の「談話内の状況」は言及されている状況すなわち「昨日東京で」を指している.しかし,この発話が正直者によってなされたか,実際にはいつどこでなされたのか,緊急事態の発生の説明なのかなど,発話された時点の外界の状況が問題になる場合もある.このような「発話された環境による制約」は談話内の状況に加わり作用するもので重要ではあるものの,今後研究される部分としここでは扱わないという立場をとる.本研究ではテキストに絞り,特に物語を解釈する場合に限り,外界の状況によらない談話内の言語外知識による文脈情報の,曖昧性解消の処理効率への効果について絞り議論を行なう.言語外の知識に基づく文脈情報に依存したテキスト解釈の手法はいくつか提案されている.それらは知識の表現とそれにともなう処理方法の違いによって,文脈を記号的な知識として明示的に与える方法と,ネットワーク上の活性伝搬に基づくパターン的相互作用により文脈を非明示的に表現し曖昧性解消を効率的に実現する方法とに大きく分けることができる.前者の代表例としては,物語の一般的構成を文法規則として表す物語文法\cite{Rumelhart75}や,Schankらの文脈理解の研究\cite{Schank77,Schank81,Schank82}などがあげられる.特にSchankらは動詞を中心とした概念依存構造によって意味を表現し,文脈として場面に関する知識を予め持つスクリプトや,意図・目的と行動に関する知識としてのゴールとプラン,そして知識構造を抽象化し階層化して効率良く持つMOPsなどの重要性を論じている.また後者に関しては文ごとにネットワークを組み活性伝搬させる方法\cite{Waltz85,Tamura87},曖昧性を要素の意味内容や要素間の関係に内在させ表現上の組合せ爆発を抑える方法\cite{Hirst88,Okumura89,Kojima91},連想記憶による解の絞り込みと記号処理に基づく矛盾検出による曖昧性解消の効率化\cite{Tsunoda93}などが手法としてあげられる.これらの研究の問題点は,実際に知識を何から獲得し与えるかが不明確であること,実際のテキストにおける評価や問題点に対する考察がなされていないこと,そして他の手法との組合せに対する問題点,限界点が未整理であることである.これに対し,コーパスを利用し,多義性のある単語の周辺語の統計情報からシソーラス上のカテゴリのBayes確率を求め,意味を決定する方法\cite{Yarowsky92}がある.この研究では百科事典の中から知識を獲得し,百科事典の文中の単語に対する評価を行なっているが,一般のさまざまな種類のテキストに対してどの程度有用であるかは調査の余地がある.またトピックの入れ子の問題などの言語の複雑な事象に対応するためには,言語現象に応じて知識を分類し,適切な知識源を明らかにすることと,このような統計的手法を同時に研究することは意味があると思われる.したがって現在必要なことは,処理する知識の性質を想定した細分化,およびそれぞれの知識を用いた際の実際の文に対する効果の調査である.本論文では談話内の言語外知識をさらに連想処理の観点から分類し,その一部として場面知識を視覚辞書から構成し利用した場合の多義性解消の効率化に対する効果の評価および検討を行なう.視覚辞書は物の名前を,出てくる場面や対象物の形から引くことを目的に出版されている辞書である.日常生活に出てくる場面を網羅的に絵に描き,その中に登場する物の名前を対応づけて欄外に列挙してある.視覚辞書は数冊出版されているが,ここではOXFORD-DUDENのPictorialEnglishDictionaryを用いる.多義性解消機構の実装に際しては構文解析と意味解析は通常の記号処理手法を用いることを想定する.その中の意味辞書から語義を取り出す順番を決める方法の一つを提案する.場面を一つに固定した場合にそのような情報を使わない場合に比べ,正しい解にたどり着くまでの語義の検索回数(試行回数と定義する)がどの程度減少するかを物語文にて評価する.すなわち,各単語に意味が複数あったり,とりうる構文木が複数ある場合には,そのすべての組合せの数だけの解が候補となりうる.これらの組合せから解が一つずつ生成され,すべての制約条件を満たすかどうかが検証される.このため構文的曖昧性も考慮する必要があるが,他の方法あるいは本手法と他の方法を組み合わせることによって解決するものとして考え,ここでは陽には扱わないこととする.ここでは語の意味の選択の部分のみに着目し,一つの単語の複数の意味の中で,人間が正解と判断する解を出力するまでに検索された語義の数をここでの試行回数と定義する.実際の機械翻訳などのシステムでは,他に解を制約する知識によってシステム内部で検証を行なう場合に,前処理として尤もらしい語義を優先づけして出力するモジュールを目的としている.通常のパーザでは文脈情報が何もない場合には,各単語の意味はランダムに,あるいは静的に割り当てられている順番で辞書からとり出され検証される.これに対し,場面情報があれば,この取り出しの仕方を変え,場面の中でありそうな意味を先に取り出し,全体の処理の効率化をはかることができる.多義性解消などで文脈,特に場面情報の効果および問題点について調べた例は見当たらないようである.ここでは背景としての役割の部分に絞った場面の知識の構成方法を提案し,実験と考察を行なう.上のような語義検索の試行回数を減少させるということに対し,場面情報がどの位有効であるかを,物語文「赤毛のアン」の英語原作の中の台所の場面の中から抽出した単語に対して評価を行なう.以下,{\bf2.}では視覚辞書とシソーラスによる場面情報の構築方法について,{\bf3.}では場面情報を利用した多義語の優先順位づけの方法について,また{\bf4.}では例題にて試行回数の計算方法を示した後に実文中の単語にて有効性の評価を行なう.{\bf5.}では成功例,失敗例の原因についての考察を行なう. | |
V03N04-04 | \label{sec:はじめに}照応や省略の問題は,言語学および言語工学の問題として広く研究されている.特に,日本語では,主語が省略される場合が多く,一方,英語では主語が必須であるため,日英機械翻訳において,省略された主語(ゼロ主語)の照応先を同定し,補完することが問題となる.主語を補完せず,受動文に翻訳することも考えられるが,受動文よりは能動文のままの方が望ましい.また,日英機械翻訳の別の問題として,文が長すぎるという問題がある.長い文は,翻訳に失敗することが多く,人手による前処理でも,長文の分割は大きな部分を占めている.この問題に対処する手段として,長文を複数の短文に自動的に分割する自動短文分割がある.しかし,分割された短文には,主語が含まれないことが多く,ここでもゼロ主語の補完の問題が発生する.このような背景の下で,筆者らは,自動短文分割を利用した放送ニュース文の日英機械翻訳システムの中で,ゼロ主語の補完の問題を研究している.その基本的な考え方は確率モデルを用いるものである.ここで述べるゼロ主語の補完の問題は,従来から行われてきた,ゼロ主語の補完の問題とは,完全には一致していない.つまり,従来手法は,初めから異なる文の間で発生するゼロ主語を取り扱っており,ここでの問題は,短文分割によって人工的に生ずるゼロ主語を扱うものである\footnote{例えば,従来手法は,「太郎は食べようとした」「しかし食べられなかった」のように2文からなる表現に対して,後方の文のゼロ主語を考察するものが多い.しかし,ここでは,「太郎は食べようとしたが,食べられなかった」のように元は1文から成る文を2文に自動的に分割した後の表現を扱うので,従来手法の考察範囲とはずれがある.そこで,本稿の手法が従来の問題にそのまま適用できることはない.}.しかし,共通する部分も多いので,まず従来手法に検討を加える.ゼロ主語の補完に対する従来のアプローチは大きく3種類に分類できる.第1の方法は,「焦点」,「Centering」など,言語学における談話理論から得られる知見を利用するものである\cite{Yoshimoto88,Nakagawa92,Nomoto93,Walker94,Takada95,清水95}.この方法は,理論的な基礎づけがあるものの,比較的単純な文が対象であり,放送ニュース文のような複雑な文に適用した例は見あたらない.ニュース文に対するゼロ主語の補完には,従来の談話理論から得られる情報だけでなく,意味的なものなどさまざまな情報を広く考慮する必要がある.第2の方法は,待遇表現など主として文末に現われる情報を利用するものである\cite{Yoshimoto88,堂坂89,鈴木92}.しかし,本方法は対話文には有効であるものの,ニュース文には不適当である.第3の方法は,ゼロ主語のまわりの文脈から得られた各種情報をヒューリスティック規則にまとめるものである\cite{Carbonell88,村田95}.この方法は,確率モデルによる方法と同様,様々な情報が利用できる利点があるが,ヒューリスティック規則の作成や規則適用の優先度の付与を人手で行っており,恣意性がある.これらの従来手法に対して,確率モデルによる方法は,以下のような特徴を持つ.\begin{itemize}\itemゼロ主語の補完に有効な様々な情報を統一的に取り扱うことができる.\itemいったん学習データを作成した後は,自動的にモデルが構築できるので客観的であり,恣意性がない.\item確率モデルは言語工学のみでなく,多くの分野で利用されており,そこで得られた理論的知見や適用事例が利用できる.\end{itemize}確率モデルを用いたゼロ主語補完の方法としては,従来,多次元正規分布が用いられていた\cite{金94}.本稿では,これをいくつかの分布に拡張する.そして,それらの分布を用いたモデルについて,主語補完の精度を評価するとともに,誤った事例について考察を加え今後の課題を明らかにする.以下,\ref{sec:主語補完の方法}章では,主語補完の基本的な手順の説明を行う.\ref{sec:確率モデル}章では,本稿で考察する4種の確率モデルについて述べる.\ref{sec:補完実験}章では,ゼロ主語の補完実験の方法と結果について述べ,誤事例について考察する. | |
V10N01-05 | 大量の電子化文書が氾濫する情報の洪水という状況に我々は直面している.こうした状況を背景として,情報の取捨選択を効率的に行うための様々な手法が研究されている.近年,それらの研究の一つとして文書要約技術が注目を集めている.特にある話題に関連する複数の文書をまとめて要約する複数文書要約といわれる技術が関心を集めており,検索技術などと組み合わせることにより効率的に情報を得ることが期待できる.DocumentUnderstandingConference(DUC)\footnote{http://duc.nist.gov}や,TextSummarizationChallenge(TSC)\footnote{http://lr-www.pi.titech.ac.jp/tsc}\cite{article32}といった評価型ワークショップにおいても複数文書要約タスクが設定されており,その注目度は高い.複数文書要約も含め自動要約では,文書中から重要な情報を持つ文を抽出する重要文抽出技術用いて,その出力をそのまま要約とする手法\cite{article25,article38,article39}や,その出力から不要な表現の削除や置換,あるいは,新たな表現の挿入を行い,より自然な要約にする手法がある\cite{article47,article40}.いずれの場合にも,重要文抽出は中心的な役割を担っている.そこで本稿では,複数文書を対象とした重要文抽出に着目する.複数文書からの重要文抽出も,単一文書からの重要文抽出と同様に,ある手がかりに基いて文の重要度を決定し,重要度の高い文から順に,要約率で指定された文数までを重要文として抽出する.この際,複数の手がかりを扱うことが効果的であるが,手がかりの数が多くなると,人手によって適切な重みを見つけることが難しいという問題がある.本稿では,汎化能力が高いとされる機械学習手法の一種であるSupportVectorMachineを用いて,複数の手がかりを効率的に扱い,特定の話題に関連する複数文書から重要文を抽出する手法を提案する.評価用のテストセットとして12話題に関する文書集合を用意し,文書集合の総文数に対して10\,\%,30\,\%,50\,\%の要約率で重要文抽出による要約の正解データを作成した.人間による重要文の選択の揺れを考慮するため,1話題に対し3名が独立に正解データを作成した.このデータセットを用いた評価実験の結果,提案手法は,Lead手法,TF$\cdot$IDF手法よりも性能が高いことがわかった.さらに,文を単位とした冗長性の削減は,情報源が一つである場合の複数文書からの重要文抽出には,必ずしも有効でないことを確認した.以下,2章では本稿における重要文抽出の対象となる複数文書の性質について説明し,3章ではSupportVectorMachineを用いた複数文書からの重要文抽出手法を説明する.4章では評価実験の結果を示し,考察を行う.5章ではMaximumMarginalRelevance(MMR)\cite{article48}を用いて抽出された文集合から冗長性を削減することの効果について議論する. | |
V25N05-05 | \label{sec:introduction}ニューラル機械翻訳(NMT)\cite{NIPS2014_5346,Bahdanau-EtAl:2015:ICLR}は流暢な訳を出力できるが,入力文の内容を全て含んでいることを保証できないという問題があり,翻訳結果において入力文の内容の一部が欠落(訳抜け)することがある.欠落は単語レベルの内容だけでなく,節レベルの場合もある.NMTによる訳抜けを含む日英翻訳の翻訳例を図\ref{fig:example}に示す.この翻訳例では網掛け部の訳が出力されていない.内容の欠落は,実際の利用時に大きな問題となる.この他にNMTでは,入力文中の同じ内容を繰り返し訳出してしまうことがあるという問題もある.本稿は,これらの問題のうち訳抜けを対象として扱う.\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f1.eps}\end{center}\hangcaption{訳抜けを含むNMTによる日英翻訳結果の例.入力の網掛け部の訳が機械翻訳出力に含まれていない.参照訳の網掛け部は入力の網掛け部に対応する部分を表している.}\label{fig:example}\end{figure}従来の統計的機械翻訳(SMT)\cite{koehn-EtAl:2003:NAACLHLT,chiang:2007:CL}は,デコード中にカバレッジベクトルを使って入力文のどの部分が翻訳済でどの部分が未翻訳であるかを単語レベルで明示的に区別し,未翻訳の部分がなくなるまで各部分を一度だけ翻訳するため,訳抜けの問題および訳出の繰り返しの問題はほとんど\footnote{フレーズテーブルを構築するために対訳コーパスから抽出した部分的な対訳表現が完全であれば,翻訳時に訳抜けは発生しない.しかし,対訳文内の単語対応の推定誤りや対訳文での省略などにより,抽出した部分的な対訳表現には完全でないものも含まれるため,訳抜けが発生する場合もある.}起きない.しかし,NMTでは対訳間での対応関係は,アテンションによる確率的な関係でしか得られないため,翻訳済の原言語単語と未翻訳の原言語単語を明示的に区別することができない.このため,SMTでのカバレッジベクトルによって訳抜けを防ぐ方法をそのまま適用することは出来ない.入力文中の各単語位置に応じた動的な状態ベクトルを導入して,この状態ベクトルをソフトなカバレッジベクトル(カバレッジモデル)と見なす手法がある\cite{tu-EtAl:2016:P16-1,mi-EtAl:2016:EMNLP2016}.カバレッジモデルを用いる手法は,訳抜けの問題を軽減できる可能性がある.しかし,未翻訳部分が残っているかどうかを明示的に検出して翻訳の終了を決定しているわけではない.そのため,カバレッジモデルを用いても訳抜けが発生する問題は残る.本論文\footnote{本研究の一部は,言語処理学会第23回年次大会およびTheFirstWorkshoponNeuralMachineTranslationで発表したものである\cite{goto-tanaka:2017:NLP,goto-tanaka:2017:NMT}.}では,2種類の確率に基づく値に対して,訳出されていない入力文の内容に対する検出効果を調べる.検出方法の1つはアテンション(ATN)の累積確率を用いる方法である(\ref{sec:atn}節).もう1つは,機械翻訳(MT)出力から入力文を生成する逆翻訳(BT)の確率を用いる方法である(\ref{sec:bt}節).後者は,言語間の単語の対応関係の特定を必ずしも必要とせずに,MT出力に入力文の内容が含まれているかどうかを推定できるという特徴がある.また,2種類の確率に基づく値を訳抜けの検出に使う場合に,それぞれ値をそのまま使う方法と確率の比を用いる方法の2つを比較する.さらに,これらの確率をNMTのリランキングに応用した場合(\ref{sec:reranking}節)および機械翻訳結果の人手修正(ポストエディット)のための文選択に応用した場合(\ref{sec:sentence_selection}節)の効果も調べる.これらの効果の検証のために日英特許翻訳のデータを用いた評価実験を行い(\ref{sec:experiment}節),アテンションの累積確率と逆翻訳の確率はいずれも訳抜け部分として無作為に単語を選択する場合に比べて効果があることを確認した.そして,逆翻訳の確率はアテンションの累積確率より効果が高く,これらを同時に用いるとさらに検出精度が向上した.また,アテンションの累積確率または逆翻訳の確率をNMTの$n$-best出力のリランキングに用いた場合の効果がプレプリント\cite{DBLP:journals/corr/WuSCLNMKCGMKSJL16,DBLP:journals/corr/LiJ16}で報告されているが\footnote{これらの研究との関係は詳しくは\ref{sec:reranking_results}節および\ref{sec:related_work}節で述べる.},これらと独立した本研究でも同様の有効性を確認した.さらに,訳抜けの検出をポストエディットのための文選択に応用した場合に効果があることが分かった. | |
V21N03-05 | \label{sec:introduction}これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている.しかし近年,解析対象はWebデータなど多様化が進んでおり,これらのテキストに対しては既存の解析モデルで,必ずしも高い解析精度を得られるわけではない\cite{Kudo:Ichikawa:Talbot:Kazawa:2012j,Katsuki:Sasano:Kawahara:Kurohashi:2011j}.本稿では,そうしたテキストの一つである絵本を対象とした形態素解析の取り組みについて述べる.絵本は幼児の言語発達を支える重要なインプットの一つであり\cite{Mother-child:Ehon:2006},高い精度で解析できれば,発達心理学における研究や教育支援,絵本のリコメンデーション\cite{Hattori:Aoyama:2013j}などへの貢献が期待できる.\begin{table}[b]\caption{絵本の文の解析例}\label{tb:morph-ex}\input{1008table01.txt}\par\vspace{4pt}\small解析結果の出現形,原形,品詞を記載.\\ただし,\kyteaの配布モデルでは原形は出力されない.品詞は適宜簡略化して表示.\par\end{table}絵本の多くは子供向けに書かれており,わかりやすい文章になっていると考えられる.それにも関わらず,既存の形態素解析器とその配布モデルでは,必ずしもうまく解析できない.なお本稿では,\pos{モデル}を,既存の形態素解析器に与えるパラメタ群という意味で用いる.表~\ref{tb:morph-ex}に,既存の形態素解析器である\juman\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN,ver.7.0を利用.}\cite{juman:7.0j},\chasen\footnote{http://chasen-legacy.sourceforge.jp/,ver.2.4.4を利用.}\cite{chasen:2.4.4j},\mecab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html,ver0.996,辞書はmecab-ipadic-2.7.0-20070801を利用.}\cite{Mecab},\kytea\footnote{http://www.phontron.com/kytea/,ver.0.4.3を利用.}\cite{Mori:Nakata:Graham:Kawahara:2011j}とその配布モデルで絵本の文を解析した場合の例を示す.解析器によって誤り方は異なるが,すべて正しく解析できた解析器はなく,既存のモデルでは絵本の解析が難しいことがわかる.これは,一般的な形態素解析モデルを構築するときに用いられる学習データ(ラベルありデータ)と,解析対象である絵本のテキストでは傾向が大きく異なるためだと考えられる.このように,学習データと解析対象の分野が異なる場合には,形態素解析に限らず機械学習を用いる多くのタスクで精度が低下するため,それに対応するための様々な手法が提案されてきた.\citeA{Kamishima:2010j}は,この問題に対処するための機械学習の方針として,半教師あり学習,能動学習,転移学習の三つを挙げている.まず,半教師あり学習は,少数のラベルありデータを準備し,多数のラベルなしデータを活用して予測精度を向上させる手法であり,日本語では単語分割を行う手法が提案されている\cite{Hagiwara:Sekine:2012j}.能動学習は,より効率的な分類ができるように選んだ事例にラベルを付与する.日本語形態素解析では,確信度の低い解析結果に対して優先的に正解ラベルを付与していくことで,対象分野の解析精度を効率的に改善する方法が提案されている\cite{Mori:2012j,Neubig:Nakata:Mori:2011}.転移学習は,関連しているが異なる部分もあるデータから,目的の問題にも利用できる情報・知識だけを取り込んで,より予測精度の高い規則を得ることを目標とする\cite{Kamishima:2010j}.転移学習は,元の分野と対象分野のラベルありデータの有無によって分類ができる.本稿では,対象分野のラベルありデータが無い場合を教師なし分野適応,ある場合を教師あり分野適応と呼ぶ.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}が提案した,Web上のひらがな交じり文に対する形態素解析精度向上の手法では,大量のWeb上の生コーパスを利用しているが,対象分野のラベルありデータは用いておらず,教師なし分野適応の一種と言える.いずれの先行研究も優れた利点がある.しかし,本稿で対象とする絵本のように,これまで対象とされてきたコーパスと全く異なり,かつ,大量のデータの入手が困難な場合,これらの先行研究をそのまま適用しても高い精度を得ることは難しい.まず,絵本の大量の生コーパスが存在するわけではないため,Webデータを対象とする場合のような,大量の生コーパスを用いた半教師あり学習は適さないと考えられる.能動学習はすぐれた分野適応の方法であるが,本稿のように,ベースとなる初期モデルの学習に利用できる学習データと対象分野との差異が非常に大きい場合,解析誤りが多すぎ,結局ほぼ全文の解析結果を修正しつつラベルを付与する必要に迫られることになる.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}の方法は,ひらがな交じり文を対象としており,絵本の解析にも比較的適していると考えられる.しかし,絵本の場合,ひらがな交じりというより,全文がひらがなで記述されることも多く,高い精度で解析できるとは言えない.そもそも,対象分野のラベルありデータを十分に得ることができれば,通常,教師あり学習により高い精度が得られる.しかし,対象分野のラベルありデータを作成するためにも,何らかの形態素解析器による解析結果を修正する方法が一般的であり,そもそもの形態素解析精度が低いとラベルありデータの作成に,コストと時間が非常にかかることになる.そこで本稿では,既存の辞書やラベルありデータを,対象分野の特徴にあわせて自動的に変換し,それを使って形態素解析モデルを構築する教師なし分野適応手法を提案する.提案手法では,既存の言語資源を活用することで,コストと時間をかけずに,対象分野の解析に適した形態素解析モデルを得ることが出来る.また,こうして得た初期モデルの精度が高ければ,さらに精度を高めるための能動学習や,ラベルありデータの構築にも有利である.本稿では,提案手法で構築したモデルをさらに改良するため,絵本自体へのアノテーションを行って学習に利用した教師あり分野適応についても紹介する.以降,まず\ref{sec:target}章では,解析対象となる絵本データベースの紹介を行い,新聞などの一般向けテキストと絵本のテキストを比較し,違いを調査する.\ref{sec:morph-kytea}章では,本稿で形態素解析モデルの学習に利用する解析器やラベルありデータ,辞書,および,評価用データの紹介を行う.\ref{sec:bunseki}章では,絵本のテキストを漢字に変換した場合などの精度変化を調査することで,絵本の形態素解析の問題分析を行う.\ref{sec:morph}章では,\ref{sec:target}章,\ref{sec:bunseki}章の調査結果に基づき,解析対象である絵本に合わせて,既存の言語資源であるラベルありデータと辞書を変換する方法を提案する.\ref{sec:exp-adult}章では,これらを学習に用いる教師なし分野適応の評価実験を行い,提案手法による言語資源の変換の効果を示す.さらに,\ref{sec:exp-add-ehon}章では,絵本のラベルありデータを学習に利用する教師あり分野適応の評価実験を行う.また同時に,提案手法によって得られるラベルありデータが,どの程度の絵本自体のラベルありデータと同程度の効果になるかも評価する.\ref{sec:kousatsu}章では,前章までに得たモデルをさらに改良するための問題分析と改良案の提示を行い,提案手法の絵本以外のコーパスへの適用可能性についても考察する.最後に\ref{sec:conclusion}章では,本稿をまとめ,今後の課題について述べる. | |
V20N05-02 | \label{sec:intro}情報抽出や文書要約の分野において情報の可視化を目的として,テキスト中に出現する事象表現の表す事象が発生した時区間\modified{(TimeInterval)}を時間軸\modified{(Timeline)}上に写像することが行われている.このため\modified{には},テキスト中に出現する時間情報表現の正規化(時間軸への写像)のみならず,対象となる「文書作成日時と事象表現」や「時間情報表現と事象表現」,「二つの事象表現」間の時間的順序関係を付与することが必要になる.\modified{英語においては哲学者・言語学者・人工知能研究者・言語処理研究者が協力して時間情報を含む言語資源の整備を進めている\cite{TimeBank}.哲学者・言語学者は言語科学として(a)テキスト中の事象表現とその時間構造を形式的にどのように記述するかを探究することを研究目的とする.人工知能研究者・言語処理研究者は工学研究として(b)テキスト中の事象表現や時間的順序表現を同定し抽出する機械的なモデルの開発や評価を研究目的とする.前者にとって(b)は手段でしかなく,逆に後者にとって(a)は手段でしかない.しかしながら,共通の目標として時間情報の可視化\footnote{ここで「情報の可視化」とは,工学的な自動処理によるもののみならず,言語科学における形式意味論研究も含む.}を掲げ,前段落にあげたリサーチクエスチョンに対して,「アノテーション」と呼ばれる研究手法により共有言語資源を構築する試みが行われている.}\modified{一方,日本語においては時間情報を含む言語資源の整備は,人工知能研究者・言語処理研究者によるものが多く,研究目的も(b)の手段としてのものが多い.機械的なモデルの開発や評価を目的とすることが多く,計算機上に実現しやすい時間情報表現の切り出しや正規化レベルのアノテーションにとどまっている\cite{IREX,小西-2013}.時間的順序関係のアノテーションを行うためには,アノテーション対象となる事象構造の意味論的な形式的な記述の作業が必要となる.人工知能研究者・言語処理研究者にとっての手段とされる研究目的(a)が重要になる.}\modified{時間情報のアノテーションについては,英語のアノテーション基準TimeML\cite{TimeML}を元に国際標準化作業が行われてきた.成果物のISO-TimeMLは策定時に多言語に対してアノテーションすることを想定し,各言語の研究者がそれぞれ適応\footnote{ここで「適応」とは生物学における``種の環境に対応する形質の有無''の意味ではなく,工学における``対象の特性に対応する仕様やパラメータなどの変更''の意味である.}作業を実施してきた.}\modified{本研究では,研究目的として哲学者・言語学者の(a)の立場を取り,}『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下``BCCWJ'')\cite{BCCWJ}の一部に対し時間情報表現と事象表現の時間的順序関係を付与するために,事象表現の切り出しと分類を行った.\modified{時間情報表現アノテーションの形式的な基準である国際標準ISO-TimeMLの日本語適応作業をMAMAサイクル\cite{Pustejovsky-2012}(Model-Annotate-Model-Annotateサイクル.詳しくは\ref{subsec:anno}節で説明)を通して実施し,時間的順序関係付与に適した事象表現分類を行った.}さらに,\modified{複数人の時区間の時間的順序関係の認識の差異を評価することを目的として,}Allenの時区間論理\cite{allen-1983}(詳しくは\ref{subsec:timerel}節で説明)に基づ\modified{いた}テキストに出現する時間情報表現と事象表現の時間的順序関係\modified{のアノテーション}を\modified{複数人で実施した.MAMAサイクルを最小にし被験者実験的な設定でアノテーションを行い,得られたデータの傾向を分析し,複数人の作業者間の心的空間における時間構造の差異を評価した.}\modified{意味論レベルのアノテーションにおいて,多くの研究が形式意味論的な記述を目標とする.生成された言語を直接何らかの記号的な意味表現に写像するための方法論を確立するためにアノテーションのMAMAサイクルを実施するが,唯一無二の意味表現に写像することを目的とするためにアノテーション一致率という指標を良くする方向に最適化するきらいがある.一方,認知意味論の考え方においては,生成された言語表現を受容する人間の認知活動という要素を考慮し,人間の空間認知能力やカテゴリー化などの認知能力を評価する目的で,被験者実験などの研究手法が用いられている.テキストを刺激として与え,意味表現を記述させる被験者実験も広義のアノテーションと呼ぶことができる.}\modified{本研究では人間の時間的順序関係の認知能力の差異の評価を目的として,教示であるMAMAサイクルを必要十分レベルに極小化した,被験者実験としてのアノテーションを行う.結果,時区間の境界の一致が困難である一方,時区間の前後関係については69.5\%の一致率でアノテーションできることがわかった.}\modified{以下本論文の構成について述べる.\ref{sec:related}節では関連研究について述べる.\ref{sec:standard}節では策定した基準について述べる.\ref{sec:analysis}節でBCCWJにアノテーションした順序関係ラベルの分析を行い,結果を報告する.\ref{sec:conclusion}節で本論文のまとめを行う.} | |
V10N03-01 | \label{sec:intro}語義曖昧性解消(WordSenseDisambiguation,以下WSD)は機械翻訳,情報検索など,自然言語処理の多くの場面で必要となる基礎技術である\cite{ide:98:a}.SENSEVALはWSDのコンテストであり,WSDの共通の評価データを作成し,その上で様々なシステム・手法を比較することによってWSDの研究・技術を向上させることを目的としている.SENSEVALは過去2回行われている.第1回のSENSEVAL~\cite{kilgarriff:00:a}は1998年夏に,第2回のSENSEVAL-2~\cite{senseval2:00:a}は2001年春に行われた.SENSEVAL-2では,9言語を対象に37研究グループが参加した.日本語を対象としたタスクとしては,辞書タスクと翻訳タスクの2つが行われた.辞書タスクでは語の意味の区別(曖昧性)を国語辞典によって定義し,翻訳タスクではこれを訳語選択によって定義した.本論文は,SENSEVAL-2の日本語辞書タスクについて,タスクの概要,データ,コンテストの結果について報告する.まず,日本語辞書タスクの概要について述べる.SENSEVAL-2では,タスクをlexicalsampletaskとallwordstaskに大別している.lexicalsampletaskは特定(数十〜数百)の単語だけをWSDの対象とし,allwordstaskでは評価テキスト中のすべての単語を対象とする.日本語辞書タスクはlexicalsampletaskである.以下,本論文では,評価の対象として選ばれた単語を評価単語と呼び,評価単語の評価データ中での実際の出現を評価インスタンス,または単にインスタンスと呼ぶ.辞書タスクでは,単語の語義を岩波国語辞典~\cite{nisio:94:a}の語義立てによって定義した.参加者は,テキスト中の評価インスタンスに対して,該当する語義を岩波国語辞典の語釈の中から選択し,その語釈に対応したID(以下,語義ID)を提出する.評価テキストは毎日新聞の1994年の新聞記事を用いた.語義を決定する評価単語の数は100と設定した.また,評価単語のそれぞれについて100インスタンスずつ語義を決めるとした.すなわち,評価インスタンスの総数は10,000である.本タスクには3団体,7システムが参加した.本論文の構成は以下の通りである.\ref{sec:data}節では,辞書タスクで用いたデータの概要を述べる.\ref{sec:goldstandard}節では,正解データの作成手順について述べる.また,正解データを作成する際,1つの評価インスタンスに対して二人の作業者が独立に正しい語義を選択したが,そのときの語義の一致率などについても報告する.\ref{sec:contest}節では,参加者のシステムの概要やスコアなどについて述べ,コンテストの結果に関する簡単な考察を行う.最後に\ref{sec:conclusion}節では,本論文のまとめを行う. | |
V09N01-04 | \label{sec:intro}これまで,機械学習などの分野を中心として,複数のモデル・システムの出力を混合する手法がいくつか提案され,その効果が報告されている.それらの成果を背景として,近年,統計的手法に基づく自然言語処理においても,複数のモデル・システムの出力を混合する手法を様々な問題に適用することが試みられ,品詞付け~\cite{vanHalteren98a,Brill98a,Abney99a},名詞句等の句のまとめ上げ~\cite{Sang00a,TKudo00ajx},構文解析(前置詞句付加含む)~\cite{Henderson99a,Abney99a,KoInui00aj,Henderson00a}などへの適用事例が報告されている.一般に,複数のモデル・システムの出力を混合することの利点は,単一のモデル・システムでは,全ての現象に対して網羅的かつ高精度に対処できない場合でも,個々のモデル・システムがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデル・システムを実現できるという点にある.本論文では,日本語固有表現抽出の問題に対して,複数のモデルの出力を混合する手法を適用し,個々の固有表現抽出モデルがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデルを実現し,その効果を実験的に検証する.一般に,日本語固有表現抽出においては,前処理として形態素解析を行ない,形態素解析結果の形態素列に対して,人手で構築されたパターンマッチング規則や統計的学習によって得られた固有表現抽出規則を適用することにより,固有表現が抽出される~\cite{IREX99aj}.特に,統計的学習によって得られた固有表現抽出規則を用いる場合には,形態素解析結果の形態素列に対して,一つもしくは複数の形態素をまとめ上げる処理を行ない,同時にまとめ上げられた形態素列がどの種類の固有表現を構成しているかを同定するという手順が一般的である~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Sassano00a,Sassano00bjx,Yamada01ajx}.このとき,実際のまとめ上げの処理は,現在注目している位置にある形態素およびその周囲の形態素の語彙・品詞・文字種などの属性を考慮しながら,現在位置の形態素が固有表現の一部となりうるかどうかを判定することの組合わせによって行なわれる.一方,一般に,複数のモデル・システムの出力を混合する過程は,大きく以下の二つの部分に分けて考えることができる.\begin{enumerate}\item\label{enum:sub1}できるだけ振る舞いの異なる複数のモデル・システムを用意する.(通常,振る舞いの酷似した複数のモデル・システムを用意しても,複数のモデル・システムの出力を混合することによる精度向上は望めないことが予測される.)\item\label{enum:sub2}用意された複数のモデル・システムの出力を混合する方式を選択・設計し,必要であれば学習等を行ない,与えられた現象に対して,用意された複数のモデル・システムの出力を混合することを実現する.\end{enumerate}複数の日本語固有表現抽出モデルの出力を混合するにあたっても,これらの(\ref{enum:sub1})および(\ref{enum:sub2})の過程をどう実現するかを決める必要がある.本論文では,まず,(\ref{enum:sub1})については,統計的学習を用いる固有表現抽出モデルをとりあげ,まとめ上げの処理を行なう際に,現在位置の周囲の形態素を何個まで考慮するかを区別することにより,振る舞いの異なる複数のモデルを学習する.そして,複数のモデルの振る舞いの違いを調査し,なるべく振る舞いが異なり,かつ,適度な性能を保った複数のモデルの混合を行なう.特に,これまでの研究事例~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Yamada01ajx}でやられたように,現在位置の形態素がどれだけの長さの固有表現を構成するのかを全く考慮せずに,常に現在位置の形態素の前後二形態素(または一形態素)ずつまでを考慮して学習を行なうモデル(固定長モデル,\ref{subsubsec:3gram}~節参照)だけではなく,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なうモデル(可変長モデル~\cite{Sassano00a,Sassano00bjx},\ref{subsubsec:vgram}~節参照)も用いて複数モデルの出力の混合を行なう.次に,(\ref{enum:sub2})については,重み付多数決やモデルの切り替えなど,これまで自然言語処理の問題によく適用されてきた混合手法を原理的に包含し得る方法として,stacking法~\cite{Wolpert92a}と呼ばれる方法を用いる.stacking法とは,何らかの学習を用いた複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法である.本論文では,具体的には,複数のモデルによる固有表現抽出結果,およびそれぞれの固有表現がどのモデルにより抽出されたか,固有表現のタイプ,固有表現を構成する形態素の数と品詞などを素性として,各固有表現が正しいか誤っているかを判定する第二段の判定規則を学習し,この正誤判定規則を用いることにより複数モデルの出力の混合を行なう.以下では,まず,\ref{sec:JNE}~節で,本論文の実験で使用したIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX99aj}の日本語固有表現抽出タスクの固有表現データについて簡単に説明する.次に,\ref{sec:NEchunk}~節では,個々の固有表現抽出モデルのベースとなる統計的固有表現抽出モデルについて述べる.本論文では,統計的固有表現抽出モデルとして,最大エントロピー法を用いた日本語固有表現抽出モデル~\cite{Borthwick99aj,Uchimoto00aj}を採用する.最大エントロピー法は,自然言語処理の様々な問題に適用されその性能が実証されているが,日本語固有表現抽出においても高い性能を示しており,IREXワークショップの日本語固有表現抽出タスクにおいても,統計的手法に基づくシステムの中で最も高い成績を達成している~\cite{Uchimoto00aj}.\ref{sec:combi}~節では,複数のモデルの出力の正誤判別を行なう規則を学習することにより,複数モデル出力の混合を行なう手法を説明する.本論文では,正誤判別規則の学習モデルとしては,決定リスト学習を用い,その性能を実験的に評価する.以上の手法を用いて,\ref{sec:experi}~節で,複数の固有表現抽出結果の混合法の実験的評価を行ない,提案手法の有効性を示す.\cite{Uchimoto00aj}にも示されているように,固定長モデルに基づく単一の日本語固有表現抽出モデルの場合は,現在位置の形態素の前後二形態素ずつを考慮して学習を行なう場合が最も性能がよい.また,\ref{sec:experi}~節の結果からわかるように,この,常に前後二形態素ずつを考慮する固定長モデルの性能は,可変長モデルに基づく単一のモデルの性能をも上回っている(なお,\cite{Sassano00bjx}では,最大エントロピー法を学習モデルとして可変長モデルを用いた場合には,常に前後二形態素ずつを考慮する固定長モデルよりも高い性能が得られると報告しているが,この実験結果には誤りがあり,本論文で示す実験結果の方が正しい.).ところが,可変長モデルと,現在位置の形態素の前後二形態素ずつを考慮する固定長モデルとを比較すると,モデルが出力する固有表現の分布がある程度異なっており,実際,これらの二つのモデルの出力を用いて複数モデル出力の混合を行なうと,個々のモデルを上回る性能が達成された.\ref{sec:experi}~節では,これらの実験について詳細に述べ,本論文で提案する混合法が有効であることを示す. | |
V20N03-02 | \begin{figure}[b]\begin{center}\includegraphics{20-3ia2f1.eps}\end{center}\caption{情報抽出器作成までの流れ}\end{figure}震災時にツイッターではどのようなことがつぶやかれるのか,どのように用いられるのか,また震災時にツイッターはどのように役立つ可能性があるのか.震災当日から1週間分で1.7億にのぼるツイートに対し,短時間で概観を把握し,今後の震災に活用するためにはどうすればよいかを考えた.全体像を得た上で,将来震災が発生した際に,ツイッターなどのSNSを利用し,いち早く災害の状況把握を行うための,情報(を含むツイート)抽出器を作成することを最終目標とし,その方法を探った.この最終目標に至るまでの流れと,各局面における課題および採用した解決策を図1に示した.図1に課題として箇条書きしたものは,そのまま第3章以降の節見出しとなっている.信号処理や統計学の分野において多用される特異値分解は,例えばベクトルで表現される空間を寄与度の高い軸に回転する数学的な処理であり,値の大きな特異値に対応する軸を選択的に用いる方法は,次元圧縮の一手法としてよく知られている.機械学習において,教師データから特徴量の重みを学習することが可能な場合には,その学習によって重みの最適値が求められるが,教師なしのクラスタリングではこの学習過程が存在しないため,特徴量の重みづけに他の方法が必要となることが予想される.筆者らは,本研究の過程に現れるクラスタリングと分類において,古典的な類義語処理および次元圧縮のひとつとしての文書‐単語行列の特異値分解に加え,特異値の大きさを,特徴量に対する重みとして積極的に用いることを試した.現実のデータに対し,現象の分析や,知見を得るに耐えるクラスタリングを行うには,最終的に``確認・修正''という人手の介在を許さざるを得ない.この過程で,従来からのクラスタリング指標であるエントロピーや純度とは別の観点からも,文書‐単語行列に対して特異値分解や特異値による重みづけをすることに一定の効果があることを筆者らは感じた.クラスタリングに多かれ少なかれ見られるチェイニング現象(3.1.3節で詳細を述べる)を激しく伴うクラスタリング結果は,人手による確認・修正作業に多大な負担をもたらすのだが,このチェイニング現象は特異値分解に加えて特異値で重みづけを行うことで緩和される傾向にあることがわかったのである.そこで本研究では,人手による作業の負担を考慮した作業容易度(Easiness)というクラスタリング指標を提案し,人手による作業にとって好ましいクラスタリング結果とはどういうものか探究しつつ,文書‐単語行列の特異値分解と,特異値分解に加えて特異値で重みづけする提案手法の効果,および,従来の指標には表れない要素を数値化した提案指標の妥当性を検証することとする.以下,第2章では,テキストマイニングにおけるクラスタリング,分類,情報抽出の関連研究を述べる.第3章では,情報抽出器作成までの手順の詳細を,途中に現れた課題とそれに対する解決策とともに述べる.第4章ではクラスタリングの新しい指標として作業容易度(Easiness)を提案し,それを用いて,クラスタリングや分類を行う際に,特異値分解あるいは特異値分解に加えて特異値で特徴量の重みづけを行うことの有効性を検証する.第5章では,「拡散希望」ツイートの1\%サンプリングを全分類して得られた社会現象としての知見と,情報抽出器の抽出精度を上げるために行った試行の詳細およびそれに対する考察を述べる.尚,本論文の新規性は,タイトルにあるように「文書‐単語行列の特異値分解と特異値による重み付けの有効性」を示すことであり,関連する記述は3.1.3節および第4章で行っている.ただし,東日本大震災ビッグデータワークショップに参加して実際の震災時のツイートを解析したこと,すなわち研究用データセットではなく,事後ではあるが,現実のデータを現実の要請に従って解析したこと,によって得られた知見を残すことも本稿執筆の目的の一つであるため,情報抽出器作成の過程全てを記してある. | |
V23N02-02 | 近年,ビッグデータに象徴されるように,世の中のデータ量は飛躍的に増大しているが,教育分野ではそれらのデータをまだ十分に活用している状態には至っていない.例えば,Lang-8というSNSを利用した言語学習者のための作文添削システムがある.現在,このウェブサイトは600,000人以上の登録者を抱えており,90の言語をサポートしている.このサイトでは,ユーザーが目標言語で書いた作文を入力すると,その言語の母語話者がその作文を添削してくれる.このウェブサービスにより蓄積されたデータは,言語学習者コーパスとして膨大な数の学習者の作文を有している\footnote{http://lang-8.com}.それらは言語学習者コーパスとして調査や研究のための貴重な大規模資源となりえるが,それらを教師や学習者がフィードバックや調査分析などに利用したい場合,誤用タイプの分類などの前処理が必要となる.しかしながら,日本語教師のための学習者コーパスを対象とした誤用例検索システムを構築するというアプリケーションを考えると,誤用タイプに基づいて得られる上位の事例に所望の誤用タイプの用例が表示されればよい.つまり,人手で網羅的に誤用タイプのタグ(以後,「誤用タグ」と呼ぶ)を付与することができなくても,一定水準の適合率が確保できるのであれば,自動推定した結果を活用することができる.そこで,本稿では実用レベル(例えば,8割程度)の適合率を保証した日本語学習者コーパスへの誤用タグ付与を目指し,誤用タイプの自動分類に向けた実験を試みる.学習者の作文における誤用についてフィードバックを行ったり,調査分析したりすることは,学習者に同じ誤りを犯させないようにするために必要であり,学習者に自律的な学習を促すことができる\shortcite{holec,auto_umeda}.そのため,学習者の例文を誤用タイプ別に分類し,それぞれの誤用タイプにタグを付与した例文検索アプリケーションは教師や学習者を支援する有効なツールとなり得る.現在まで,誤用タグ付与作業は人手に頼らざるを得なかったが,\lh\hbox{}のようなウェブ上の学習者コーパスは規模が大きく,かつ日々更新されるため,人手によって網羅的に誤用タグを付与することは困難である.誤用タイプの自動分類を行うことで,誤用タグ付与作業を行う際,人手に頼らなくてもよくなり,人間が誤用タグ付与を行う際の判定の不一致や一貫性の欠如などの問題を軽減しうる.これまでは,このような誤用タグの自動付与というタスクそのものが認知されてこなかったが,自動化することで大規模学習者コーパスを利活用する道を拓くことができ,新たな応用や基礎研究が発展する可能性を秘めている.今回,誤用タグが付与されていない既存の日本語学習者コーパスに対し,階層構造をもった誤用タイプ分類表を設計し,国立国語研究所の\ty\hbox{}の事例に対してタグ付け作業を行った.次に,階層的に誤用タイプの分類を行う手法を提案し,自動分類実験を行った.誤用タイプ分類に用いるベースライン素性として,単語の周辺情報,統語的依存関係を利用した.さらに,言語学習者コーパスから抽出した拡張素性として1)正用文と誤用文の文字列間の編集距離,2)ウェブ上の大規模コーパスから算出した正用箇所と誤用箇所の置換確率を用い,それらの有効性を比較した.本研究の主要な貢献は,以下の3点である.\begin{itemize}\item誤用タグが付与されていない国語研の作文対訳DBに誤用タグを付与し,\ngc\hbox{}を作成した.異なるアノテーターによって付与されたタグの一致率が報告された日本語学習者誤用コーパスは,我々の知る限り他に存在しない.\item\ngc\hbox{}を対象に機械学習による誤用タイプ自動分類実験を行い,かつアプリケーションに充分堪えうる適合率を実現した(8割程度).英語学習者コーパスの誤用タイプの自動分類タスクは過去に提案されている\cite{swanson}が,日本語学習者コーパスの誤用タイプの自動分類タスクに取り組んだ研究はこれが初めてであり,将来的には学習者コーパスを対象とした誤用例検索システムを構築するアプリケーションの開発を目指しているため,その実現化に道筋を付けることができた.\itemタグの階層構造を利用した階層的分類モデルを提案し,階層構造を利用しない多クラス分類モデルと比較して大幅な精度向上を得られることを示した.また,英語学習者の誤用タイプ自動分類で提案されていた素性に加え,大規模言語学習者コーパスから抽出した統計量を用いた素性を使用し,その有効性を示した.\end{itemize} | |
V08N04-02 | \label{sec:intro}ある程度の長さの文章は,一般的に,複数のトピックからなる.そのような文章を切り分けて,それぞれの切り分けた部分が一つのトピックになるようにすることを,テキスト分割と呼ぶ.テキスト分割は,情報検索や要約などにおいて重要である.まず,情報検索においては,文書全体ではなく,ユーザの検索要求を満す部分(トピック)だけを検索した方が効果的である\cite{hearst93:_subtop_struc_full_lengt_docum_acces,salton96:_autom_text_decom_using_text,mochizuki2000}.また,要約においては,長い文書をトピックに分ければ,それぞれのトピックごとに要約を作成することにより,文書全体の要約を作成できるし,重要なトピックだけを選んで要約を作成することもできる\cite{kan98:_linear_segmen_segmen_signif,nakao00:_algor_one_summar_long_text}.これらの目的のために,多くの手法が研究されている\cite[など]{kozima93:_text_segmen_simil_words,hearst94:_multi_parag_segmen_expos_text,okumura94:_word_sense_disam_text_segmen,salton96:_autom_text_decom_using_text,yaari97:_segmen_expos_texts_hierar_agglom_clust,kan98:_linear_segmen_segmen_signif,choi00:_advan,nakao00:_algor_one_summar_long_text,mochizuki2000}.これらの手法の主な共通点は,これらの手法が,分割対象のテキスト(および辞書やシソーラス)しか分割に利用しないことである.たとえば,\cite{hearst94:_multi_parag_segmen_expos_text}は,テキスト内の単語分布の類似度しか分割に利用しない.言い換えれば,これらの手法は,その手法をテキスト分割に使用するにあたって,訓練データを必要としない.そのため,これらの手法は,訓練データの存在する分野に限られることなく,どんな分野の文章でも分割対象とすることができる.この点は重要である.なぜなら,情報検索や要約が対象とする文書は,分野を限定しない文書であるので,そのような文書に対応するためには,分野を限定しないテキスト分割の手法が必要であるからである.本稿で述べる手法も,これらの従来手法と同様に,訓練データを利用せずに,テキスト内の単語分布のみを利用してテキストを分割する.我々が,訓練データを利用しないテキスト分割手法を採用した理由は,我々が,テキスト分割の結果を利用して,長い文書を要約したり,講演のディクテーション結果を要約することを目的としているからである.そのためには,分野を限定しない(訓練データを利用しない)テキスト分割の方法が必要であるからである.本稿で述べる手法は,テキストの分割確率が最大となるような分割を選択するというものである.このようなアプローチは,分野を限定しないテキスト分割としては,新しいアプローチである.なお,従来の研究で,分野を限定しないテキスト分割の研究では,主に,語彙的な結束性を利用してテキストを分割している.その例としては,意味ネットワーク上での活性伝播に基づく結束性を利用するもの\cite{kozima93:_text_segmen_simil_words}や,単語分布の類似度(コサイン)を結束性としたもの\cite{hearst94:_multi_parag_segmen_expos_text}や,単語の繰り返し状況に基づいて結束性を計るもの\cite{reynar94:_autom_method_findin_topic_bound}や,文間の類似度としてコサインを直接使うのではなくコサインの順位を結束性の指標とするもの\cite{choi00:_advan}などがある.なお,テキスト分割の方法としては,訓練データを利用しない(分野を限定しない)方法の他に,訓練データを利用する方法もある.そのような方法の応用としては,複数ニュースを個々のニュースに分割するものがある\cite{allan98:_topic_detec_track_pilot_study_final_repor}.この場合には,分野が明確であり,また,訓練データも多量にあるので,訓練データを利用したシステムにより,ニュースの境界を推定し分割する手法が主流である\cite[など]{mulbregt98:_hidden_markov_model_approac_text,beeferman99:_statis_model_text_segmen}.しかし,そのような方法は,訓練データが利用できない分野については適用できないので,我々の目的である,テキスト分割の結果を利用して,長い文書を要約したり,講演のディクテーション結果を要約するためのテキスト分割手法としては適さない.以下,\ref{sec:model}章では,テキスト分割のための統計的モデルを述べ,\ref{sec:algorithm}章で,最大確率の分割を選択するアルゴリズムを述べる.\ref{sec:experiments}章では,まず,我々の手法を公開データに基づいて評価することにより,我々の手法が他の手法よりも優れた分割精度を持つことを示し,次に,我々の手法を長い文書に適用した場合の分割精度を述べる.\ref{sec:discussion}章は考察,\ref{sec:conclusion}章は結論である. | |
V25N02-03 | \label{sec:introduction}難解なテキストの意味を保持したまま平易に書き換えるテキスト平易化は,言語学習者や子どもをはじめとする多くの読者の文章読解を支援する.近年,テキスト平易化を同一言語内の翻訳問題と考え,統計的機械翻訳を用いて入力文から平易な同義文を生成する研究\cite{specia-2010,zhu-2010,coster-2011b,coster-2011a,wubben-2012,stajner-2015a,stajner-2015b,goto-2015}が盛んである.しかし,異言語間の機械翻訳モデルの学習に必要な異言語パラレルコーパスとは異なり,テキスト平易化モデルの学習に必要な単言語パラレルコーパスの構築はコストが高い.これは,日々の生活の中で対訳(異言語パラレル)データが大量に生産および蓄積されるのとは異なり,難解なテキストを平易に書き換えることは自然には行われないためである.そのため,公開されておりテキスト平易化のために自由に利用できるのは,EnglishWikipedia\footnote{http://en.wikipedia.org}とSimpleEnglishWikipedia\footnote{http://simple.wikipedia.org}から構築された英語のパラレルコーパス\cite{zhu-2010,coster-2011a,hwang-2015}のみであるが,SimpleEnglishWikipediaのように平易に書かれた大規模なコーパスは英語以外の多くの言語では利用できない.そこで本研究では,任意の言語でのテキスト平易化を実現することを目指し,生コーパスから難解な文と平易な文の同義な対(テキスト平易化のための疑似パラレルコーパス)を抽出する教師なし手法を提案し,獲得した疑似パラレルコーパスと統計的機械翻訳モデルを用いて英語および日本語でのテキスト平易化を行う.図~\ref{fig:abstract}に示すように,我々が提案するフレームワークでは,リーダビリティ推定と文アライメントの2つのステップによって生コーパスからテキスト平易化のための疑似パラレルコーパスを構築する.大規模な生コーパスには,同一の(あるいは類似した)イベントや事物に対する複数の言及や説明が含まれると期待でき,それらからは同義や類義の関係にある文対を得ることができるだろう.さらに我々はリーダビリティ推定によって難解な文と平易な文を分類するので,生コーパスから難解な文と平易な文の同義な対を抽出することができる.\begin{figure}[t]\begin{center}\includegraphics{25-2ia3f1.eps}\end{center}\caption{疑似パラレルコーパスと統計的機械翻訳モデルを用いたテキスト平易化}\label{fig:abstract}\end{figure}我々は2つの設定で提案手法の効果を検証した.まず先行研究と同様に,難解なテキストと平易なテキストのコンパラブルコーパスからテキスト平易化のためのパラレルコーパスを構築した.我々の提案する文アライメント手法は難解な文と平易な文のアライメント性能を改善し,高品質にテキスト平易化コーパスを構築できた.さらに,我々のコーパスで学習したモデルは従来のコーパスで学習したモデルよりもテキスト平易化の性能も改善できた.次に,コンパラブルコーパスを利用しない設定で,生コーパスのみからテキスト平易化のための疑似パラレルコーパスを構築し,フレーズベースの統計的機械翻訳モデルを用いてテキスト平易化を行った.平易に書かれた大規模コーパスを使用しないにも関わらず,疑似パラレルコーパスで学習したモデルは従来のコーパスで学習したモデルと同等の性能で平易な同義文を生成することができた.本研究の貢献は次の2つである.\begin{itemize}\item単語分散表現のアライメントに基づく文間類似度を用いて,難解な文と平易な文の文アライメントを改善した.\item生コーパスのみから教師なしで擬似パラレルコーパスを自動構築し,これがコンパラブルコーパスから得られる従来のパラレルコーパスと同等に有用であることを確認した.\end{itemize}これまでは,人手で構築された難解な文と平易な文のパラレルコーパス\footnote{https://newsela.com/data/}\cite{xu-2015},平易に書かれた大規模なコーパス(SimpleEnglishWikipedia),文間類似度のラベル付きデータ\footnote{http://ixa2.si.ehu.es/stswiki/index.php/Main\_Page}\cite{agirre-2012,agirre-2013,agirre-2014,agirre-2015},言い換え知識\footnote{https://www.seas.upenn.edu/{\textasciitilde}epavlick/data.html}\cite{ganitkevitch-2013,pavlick-2015,pavlick-2016}などの言語資源が豊富に存在する英語を中心にテキスト平易化の研究が進められてきたが,本研究ではこれらの外部知識を利用することなく生コーパスのみからテキスト平易化のための疑似パラレルコーパスを自動構築し,統計的機械翻訳を用いたテキスト平易化における有用性を確認した.生コーパスは多くの言語で大規模に利用できるので,今後は本研究の成果をもとに多くの言語でテキスト平易化を実現できるだろう.本稿の構成を示す.2節では,関連研究を紹介する.3節では,生コーパスから擬似パラレルコーパスを構築する提案手法を概説する.4節では,テキスト平易化のための文アライメントとして,単語分散表現のアライメントに基づく文間類似度推定手法を提案する.続いて,5節から7節で実験を行う.まず5節では,4節の提案手法を評価し,テキスト平易化のための最良の文アライメント手法を決定する.6節では,3節から5節に基づき,英語の疑似パラレルコーパスを構築し,テキスト平易化を行う.7節では,同様に日本語の疑似パラレルコーパスを構築し,テキスト平易化を行う.最後に8節で,本研究のまとめを述べる. | |
V14N03-05 | 日常生活の様々な体験において,その体験の素晴らしさを表現する言葉として,『感動』という言葉がしばしば用いられる.感動とは,『美しいものや素晴らしいことに接して強い印象を受け,心を奪われること』(大辞林\cite{Book_103})とあるように,体験に対する肯定的な評価であると共に,記憶の定着や感情の喚起を伴った心理状態の大きな変化である.そして,感動するような体験には,人のやる気を高めたり,価値観を変えたりするなどの効果があるといわれている\cite{Article_007}.また,このような感動を引き起こす対象としては,マスメディアが提供するドラマや映画,音楽などの割合が高いとされる\cite{Web_401}.本研究の目的は,放送番組の品質評価,とりわけ音の評価に,『感動』という言葉をキーワードとした評価指標を導入することにある.コンサートホールで演奏された音楽を聞くなど,音そのものに直接的に感動することもあれば,ドラマやスポーツ中継などのBGMや歓声,アナウンスなどの音が放送番組を盛り上げることで間接的に感動を喚起することもある.実際,音楽聴取における感情誘導効果や覚醒水準調整効果などの心理的な影響が,多くの実験によって確かめられており\cite{Book_101},音が引き起こす心理的な効果が,番組コンテンツの評価に与える影響は大きいと考えられる.従来の研究では,音の評価を行う際,言葉を使ってその評価を表現することが多い.難波ら\cite{Book_105}は,音の物理特性と人が受ける印象評価との関連を調べるために,形容詞対を用いたSD法による音色や音質の評価や,それに基づく音の分類を行っている.また,音響システムの展覧会などで配布される広告では,システムの目的や想定される購入者によって,音を表現する言葉を使い分けている.たとえば,映画を対象としたサラウンドシステムにおいては,『迫力』や『臨場感』,『低音の響き』,『余韻』といった言葉が多く使われている.これに対して,ピュアオーディオの分野では,『音像』や『サウンドステージ』,『静寂』,『実在感』,『反応のよさ』といった言葉が使われている.これらの言葉は,従来の研究では使われない評価語であるが,音響の特徴を表す表現として日常的に用いられ,映画音楽とクラシック音楽などの各コンテンツがもつ音の良さを表現しているものと思われる.広告が,消費者ニーズを満たすために洗練された表現を使い分けていることを考えると,コンテンツによって要求される音の印象評価の内容が異なることも考えられる.川上ら\cite{Inproc_201}は,感情語と『感動』を用いて音楽の印象評価を行ったが,印象評価としての『感動的な』音楽と,気分評価として実際に『感動した』音楽が異なることを指摘している.音楽の印象評価だけで音によって喚起される感動を一意に評価することは難しく,どういう人がどういう状況においてその音響特徴に良さを見出すのかを検討する必要がある.これは,ある状況において聴取者がその音をどのように聞きたいのかという価値観を調査することに他ならない.すなわち,現実の聴取場面を考えた場合,状況や音源,聴取者の心理状態や動機づけを無視して,物理的な音響特徴だけに焦点をあてて音の良さを論じることはナンセンスである.2005年秋の音響学会研究発表会において開かれた「なぜ音楽が心に響くのか」というスペシャルセッションでは,音楽に音の良さを見出している時の心理状態は,『感動する』の他に,『心に響く』,『心を躍らせる』,『深く内省する』,『揺り動かす』,『至高感』,『一体感』,『理解』,『共感』,『興奮』,『楽しい』,『悲しい』などの様々な言葉を用いて表現されていた\cite{Inproc_202}\cite{Inproc_204}.しかし,これらの言葉の語義や言葉から連想される心理状態は,かなり異なる.音の素晴らしさを表現する際,『感動』という言葉でまとめて記述することは可能であるが,どのように感動するのかを言及しなければ,用いる言葉の曖昧性から,音に対する評価が評定者間で一致しないことも考えられる.実際,感動は単一の感情価ではないが,喜びや悲しみといった感情を伴う\cite{Article_006}ことや,感動は感情の質ではなく,複合情動の総合的強度と相関がある\cite{Inproc_203}と言われており,研究者の中でも感動という心理状態の定義は曖昧である.そこで,我々は,『感動』という言葉で表現しようとしている心理状態を明確にするために,心理状態を言葉で評価するのではなく,言葉から心理状態を連想することで,『感動』という心理状態の分類を試みた.まず,アンケートを実施し,人が日常的にどういう対象に対して感動するのか,また,感動している心理状態をどういう言葉を用いて表現しているのかを調査した.さらに,アンケート結果から抽出した感動を表現する言葉(以下,感動語)を主観評価(一対比較)することによって,各々の感動語から連想される心理状態の類似度を求め,類似度ベクトルの距離に基づいて数学的に感動語を分類した.本稿では,感動を喚起した要因について考察するとともに,感動語間の類似度ベクトルに基づいて得られた感動語の分類結果について述べる. | |
V10N04-10 | \label{sec:intro}日英対訳コーパスは,機械翻訳などの自然言語処理において必要であるばかりでなく,英語学や比較言語学,あるいは,英語教育や日本語教育などにとっても非常に有用な言語資源である.しかしながら,これまで,一般に利用可能で,かつ,大規模な日英対訳コーパスは存在していなかった.そのような背景の中で,我々は,比較的大規模な日本語新聞記事集合およびそれと内容的に一部対応している英語新聞記事集合とから,大規模な日英対訳コーパスを作ることを試みた.そのための方法は,まず,内容が対応する日本語記事と英語記事とを得て,次に,その対応付けられた日英記事中にある日本語文と英語文とを対応付けるというものである.ここで,我々が対象とする日本語記事と英語記事においては,英語記事の内容が日本語記事の内容に対応している場合には,その英語記事は,日本語記事を元にして書かれている場合が多いのであるが,その場合であっても,日本語記事を直訳しているわけではなく,意訳が含まれていることが多く,更に,日本語記事の内容の一部が英語記事においては欠落していたり,日本語記事にない内容が英語記事に書かれている場合もある.また,記事対応付けを得るための日本語記事集合と英語記事集合についても,英語記事集合の大きさは日本語記事集合の大きさの6\,\%未満であるので,日本語記事の中で,対応する英語記事があるものは極く少数である.そのため,記事対応付けおよび文対応付けにあたっては,非常にノイズが多い状況のなかから,適切な対応付けのみを抽出しなくてはならないので,対応の良さを判断するための尺度は信頼性の高いものでなくてはならない.本稿では,そのような信頼性の高い尺度を,記事対応付けと文対応付けの双方について提案し,その信頼性の程度を評価する.また,作成した対応付けデータを試験的に公開したときの状況についても述べ,そのようなデータが潜在的に有用な分野について考察する.以下では,まず,対応付けに用いた日英新聞記事について概要を述べ,次に,記事対応付けの方法と文対応付けの方法を述べたあとで,それぞれの対応付けの精度を評価する.最後に考察と結論を述べる.また,付録には,実際に得られた文対応の例を示す. | |
V09N04-01 | 近年,Internet上の検索エンジンなど,情報検索システムが広く利用されるようになってきた.システムが提示する検索結果には,文書の表題やURIだけではなく,対応する文書の内容を示す短い要約文書が併せて提示されていることが多い.これは,利用者に対して要約文書を提示することが,原文書が実際に利用者の欲するものかを判断する際に有力な手掛かりとなるためである.この際,情報検索結果文書に対する要約の質の良さは,要約文書-検索質問間の関連性判定と原文書-検索質問間の関連性判定の一致の良さで測ることができよう.しかしながら,現在実用に供されている多くの検索エンジンでは,原文書の最初の数バイトを出力したり,検索要求文に含まれる語の周囲を提示するといった単純な方法が採用されている.このような単純な戦略により生成された要約の品質は関連性判定の観点からみると,十分な品質であるとは言い難い.そのため,多くの場合,利用者はシステムの提示した検索結果が適切なものであるかどうかを原文書を見て判断せざるを得ない.このような状況を改善するためには,関連性判定を重視した,より質の高い自動要約技術が必要となる.自動要約の手法としては,Luhn\cite{Luhn:TheAutomaticCreationOfLiteratureAbstracts}の研究に端を発する重要文抽出法が基本かつ主要な技術であり,依然として様々なシステムで利用されている.これは,文書の中から重要な文を,所望の要約文書の長さになるまで順に選び,それら抽出された文を文書中での出現順に並べて出力することで,要約とする手法である.このとき,文の重要度は,語の重要度,文書中での位置,タイトルや手がかり表現などに基づいて計算している\cite{奥村:テキスト自動要約に関する研究動向,奥村:テキスト自動要約に関する最近の話題}.その中でも,重要文は主要キーワードを多く含むという経験則により,語の重要度に基づく重要文抽出が最も基本的な手法となっている.特に,語の出現頻度は,簡単に求められ,語の重要性と比較的高い相関にあるために語の重みとして広く利用されている.語の出現頻度は個別文書によって決まる性質であるが,一方で,検索文書の要約においては,原文書が検索要求の結果として得られた複数の文書であることを考慮することが要約の品質向上につながる.例えば従来提案されている基本的な考え方として,検索要求中の語の重要度を高くするという「検索質問によるバイアス方式」がある\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}.この手法は直観的であり,かつ,比較的良好に機能するが,検索された文書自身の情報を考慮しないなど幾つかの欠点が存在する.以上の点を踏まえて,本稿では,検索文書集合から得られる情報を語の重みづけに利用し,検索文書の要約に役立てる新しい手法を提案する.検索質問によるバイアス方式とは異なり,我々の手法では語の重みづけにおいて検索質問の情報を陽に利用しない.その代わりに,複数の検索文書の間に存在する類似性の構造を階層的クラスタリングにより抽出し,その構造を適切に説明するか否かに応じて語に重みをつける.文書間の類似性構造を語の重みに写像する方法として,我々は,各クラスタ内での語の確率分布に注目し,情報利得比(InformationGainRatio,IGR)\cite{C4.5-E}と呼ばれる尺度を用いる.そして,この重みと従来提案されている他の重みづけを組み合わせることにより,最終的な語の重みとし,これを用いて各文の重要度を計算する.特に,情報利得比に基づく語の重みづけについては,次のように考えることができる.あるクラスタにおける語の情報量に注目した場合,そのクラスタを部分クラスタに分割した後のその語の持つ情報量の増分(情報利得)が,クラスタの分割自身により得られる情報量に比して大きければ,その語は部分クラスタの構造を決定する際に役立っていると考えられる.その度合を定量化した値が情報利得比である.情報利得比自身は機械学習において属性の品質の尺度として,すでに提案されているものである.また,種々のクラスタリングアルゴリズムの過程からすれば,文書のクラスタ構造の決定に際して,各々の語の確率分布が部分的な要因となっていることは自明である.しかしながら,あるクラスタ構造が確定した時に,ある語がそのクラスタ構造の決定に際して最終的に寄与したか否かに注目し,定量化するという研究は,我々の知る限り従来存在しない.そして,本稿は,その定量化において,情報利得比が利用できることを示すものである. | |
V08N01-03 | \label{sec:intro}現在,統計的言語モデルの一クラスとして確率文脈自由文法(probabilisticcontext-freegrammar;以下PCFG)が広く知られている.PCFGは文脈自由文法(context-freegrammar;以下CFG)の生成規則に確率パラメタが付与されたものと見ることができ,それらのパラメタによって生成される文の確率が規定される.しかし,すべてのパラメタを人手で付けるのはコストと客観性の点で問題がある.そこで,計算機によるコーパスからのPCFGのパラメタ推定,すなわちPCFGの訓練(training)が広く行なわれている.現在,構造つきコーパス中の規則出現の相対頻度に基づきPCFGを訓練する方法(以下,相対頻度法と呼ぶ)が広く行なわれているが,我々はより安価な訓練データとして,分かち書きされている(形態素解析済みの)括弧なしコーパスを用いる.括弧なしコーパスからのPCFGの訓練法としては,Inside-Outsideアルゴリズム\cite{Baker79,Lari90}が広く知られている(以下,I-Oアルゴリズムと略す).I-OアルゴリズムはCYK(Cocke-Younger-Kasami)パーザで用いられる三角行列の上に構築された,PCFG用のEM(expectation-maximization)アルゴリズム\cite{Dempster77}と特徴づけることができる.I-Oアルゴリズムは多項式オーダのEMアルゴリズムであり,効率的とされているが,訓練コーパスの文の長さに対し3乗の計算時間を要するため,大規模な文法・コーパスからの訓練は困難であった.また,基になるCFGがChomsky標準形でなければならないという制約をもっている.一方,本論文では,PCFGの文法構造(基になるCFG)が所与であるときの効率的なEM学習法を提案する.提案手法はwell-formedsubstringtable(以下WFST)と呼ばれるデータ構造を利用しており,全体の訓練過程を次の2段階に分離してPCFGを訓練する.\begin{description}\item\underline{\bf構文解析}:\\はじめにパーザによって与えられたテキストコーパスもしくはタグ付きコーパス中の各文に構文解析を施し,その文の構文木すべてを得る.ただし,構文木は実際に構築せずに途中で構築されるWFSTのままでとどめておく.\item\underline{\bfEM学習}:\\上で得られたWFSTから支持グラフと呼ばれるデータ構造を抽出し,新たに導出されたグラフィカルEM(graphicalEM;以下gEMと略記)アルゴリズムを支持グラフ上で走らせる.\end{description}WFSTは構文解析途中の部分的な解析結果(部分構文木)を格納するデータ構造の総称であり~\cite{Tanaka88,Nagata99},パーザはWFSTを参照することにより再計算を防いでいる.また,最終的にWFSTに格納されている部分構文木を組み合わせて構文木を出力する.表~\ref{tab:WFST}に各構文解析手法におけるWFSTを掲げる.なお,Fujisakiらも文法が所与であるとして,上の2段階でPCFGを訓練する方法を提案しているが\cite{Fujisaki89},その方法ではWFSTは活用されていない.\begin{table}[b]\caption{各パーザにおけるWFST.}\label{tab:WFST}\begin{center}\begin{tabular}{|l||l|l|}\hlineパーザ&\multicolumn{1}{c|}{WFST}\\\hlineCYK法&三角行列\\Earley法&アイテム集合(Earleyチャート)の集まり\\GLR法&圧縮共有構文森(packedsharedparseforest)\\\hline\end{tabular}\end{center}\end{table}提案手法の特長は従来法であるI-Oアルゴリズムの一般化と高速化が同時に実現された点,すなわち\begin{description}\item{\bf特長1:}従来のPCFGのEM学習法の一般化となっている,\item{\bf特長2:}現実的な文法に対してはI-Oアルゴリズムに比べてEM学習が大幅に高速化される,\item{\bf特長3:}提案手法が,PCFGに文脈依存性を導入した確率言語モデル(PCFGの拡張文法\footnote{Magermanらが\cite{Magerman92}で述べている``Context-freegrammarwithcontext-sensitiveprobability(CFGwithCSP)''を指す.具体的にはCharniakらの疑似確率文脈依存文法\cite{Charniak94b}や北らの規則バイグラムモデル\cite{Kita94}が挙げられる.}と呼ぶ)に対する多項式オーダのEMアルゴリズムを包含する\end{description}点にある.先述したように,I-OアルゴリズムはCYK法のWFSTである三角行列を利用して効率的に訓練を行なう手法と捉えることができ,提案手法のCYK法とgEMアルゴリズムを組み合わせた場合がI-Oアルゴリズムに対応する.一方,提案手法でEarleyパーザや一般化LR(以下GLR)パーザと組み合わせる場合,文法構造にChomsky標準形を前提としないため,本手法はI-Oアルゴリズムの一般化となっている({\bf特長1}).加えて,本論文ではStolckeの確率的Earleyパーザ\cite{Stolcke95}や,PereiraとSchabesによって提案された括弧なしコーパスからの学習法\cite{Pereira92}も提案手法の枠組で扱うことができる\footnote{より正確には,文法構造が与えられている場合のPereiraとSchabesの学習法を扱う.}ことを示す.また,{\bf特長2}が得られるのは,提案手法ではがWFSTというコンパクトなデータ構造のみを走査するためである.そして,LR表へのコンパイル・ボトムアップ解析といった特長により実用的には最も効率的とされる一般化LR法~\cite{Tomita91}(以下GLR法)を利用できる点も訓練時間の軽減に効果があると考えられる.そして{\bf特長3}は提案手法の汎用性を示すものであり,本論文では北らの規則バイグラムモデル\cite{Kita94}の多項式オーダのEMアルゴリズムを提示する.本論文の構成は次の通りである.まず節~\ref{sec:PCFG}でPCFG,CYKパーザ,I-Oアルゴリズム,およびそれらの関連事項の導入を行なう.I-Oアルゴリズムと対比させるため,提案手法をCYKパーザと\gEMアルゴリズムの組合せを対象にした場合を節~\ref{sec:GEM}で記述した.{\bf特長2}を検証するため,GLRパーザとgEMアルゴリズムを組み合わせた場合の訓練時間をATR対話コーパス(SLDB)を用いて計測した.その結果を節~\ref{sec:experiment}に示す.また,{\bf特長3}を具体的に示すため,節~\ref{sec:extensions}ではPCFGの拡張文法に対する多項式オーダのEMアルゴリズムを提示する.最後に節~\ref{sec:related-work}で関連研究について述べ,{\bf特長1}について考察する.本論文で用いる例文法,例文,およびそれらに基づく構文解析結果の多くは\cite{Nagata99}のもの,もしくはそれに手を加えたものである.以降では$A,B,\ldots$を非終端記号を表すメタ記号,$a,b,\ldots$を終端記号を表すメタ記号,$\rho$を一つの終端または非終端記号を表すメタ記号,$\zeta$,$\xi$,$\nu$を空列もしくは終端記号または非終端記号から成る記号列を表すメタ記号とする.空列は$\varepsilon$と書く.一方,一部の図を除き,具体的な文法記号を$\sym{S},\sym{NP},\ldots$などタイプライタ書体で表す.また,$y_n$を第$n$要素とするリストを\$\tuple{y_1,y_2,\ldots}$で表現する.またリスト$Y=\tuple{\ldots,y,\ldots}$であるとき,$y\inY$と書く.集合$X$の要素数,記号列$\zeta$に含まれる記号数,リスト$Y$の要素数をそれぞれ$|X|$,$|\zeta|$,$|Y|$で表す.これらはどれも見た目は同じだが文脈で違いを判断できる. | |
V09N03-07 | 近年,テキスト自動要約の研究が活発化するとともに,要約の評価方法が研究分野内の重要な検討課題の一つとして認識されてきている.これまで提案されてきた要約の評価方法は,内的な(intrinsic)評価と外的な(extrinsic)評価の2種類に分けることができる\cite{Sparck-Jones:1996}.内的な評価とは,システムの出力した要約そのものを,主に内容と読みやすさの2つの側面から評価する方法である.一方,外的な評価とは,要約を利用して人間がタスクを行う場合の,タスクの達成率が間接的に要約の評価となるという考え方に基づいて評価を行う方法である.本研究では,近年活発にその評価方法が議論され,改良が試みられている内的な評価,特に内容に関する評価方法に焦点を当てる.これまでの要約の内容に関する評価は,人手で作成した抜粋と要約システムの出力との一致の度合を,F-measure等の尺度を用いて測るのが典型的な方法であった.しかし,Jingら\cite{jing:98:a}は,要約のF-measureによる評価と外的な評価を分析し,F-measureには「テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価は大きく変化する」という問題があることを指摘している.この問題点を解決する方法がこれまでにいくつか提案されている.Radevら\cite{radev:00:a}は,文のutilityという概念を用いた評価方法を示している.文のutilityとは,そのテキストの話題に対する各文の適合度(重要度)を10段階で表したものであり,正解の文のutilityにどのくらい近いutilityの文を選択できるかで評価を行なう.しかし,このような適合性の評価は被験者への作業負荷が大きいという問題がある.Donawayら\cite{Donaway:2000}は,人間の作成した正解要約の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間のコサイン距離で評価するcontent-basedな評価を提案している.content-basedな評価では,指定された要約率の正解要約を一つだけ用意すれば評価可能であるため,utilityに基づく評価に比べ,被験者への負荷が少ない.しかし,この評価方法で2つの要約を比較する場合,どの程度意味があるのかについては,これまで十分な議論がなされていない.そこで,本研究では,まず,utilityに基づく評価の問題点を改良する新しい評価方法を提案する.一般に低い要約率の抜粋に含まれる文は高い要約率の抜粋中の文よりも重要であると考えられる.このような考えに基づけば,あるテキストに関して複数の要約率のデータが存在する場合,テキスト中の各文に重要度を割り振ることが可能であるため,utilityに基づく評価を疑似的に実現することができる.これまでの要約研究において,1テキストにつき複数の要約率で正解要約が作成されたデータは数多く存在する(例えば,\cite{jing:98:a})ことから,提案する評価方法に用いるデータの作成にかかる負荷は決して非現実的なものではなく,utilityを直接被験者が付与するより負荷は小さいと考えられる.本研究では,評価型ワークショップNTCIR2の要約サブタスクTSC(TextSummarizationChallenge)\cite{Fukushima:2001a,Fukushima:2001b}で作成された10\%,30\%,50\%の3種類の要約率の正解データを用いて,提案方法により評価を行う.この評価結果をF-measureによる結果と比較し,提案方法がF-measureによる評価を改善できることを示す.次に,本研究では,content-basedな評価を取り上げる.同様にTSCのデータを用いて,人間の主観評価の結果と比較し,これまで十分議論されていないその有用性に関する議論を行う.本論文の構成は以下のとおりである.次節では,まず,これまで提案されてきた内的な評価方法,特にF-measureの問題点の解消方法について述べる.3節では,本研究で提案する評価方法について説明する.4節では,F-measureと提案する評価方法を比較し,結果を報告する.また,content-basedな評価に関する調査についても述べる.最後に結論と今後の課題について述べる. | |
V15N04-03 | \label{hajimeni}近年,統計的言語処理技術の発展によりテキスト中の人名や地名,組織名といった固有表現(NamedEntity)を高精度で抽出できるようになってきた.これを更に進めて,「福田康夫(人名)」は「日本(地名)」の「首相(関係ラベル)」であるといった固有表現間の関係を抽出する研究が注目されている\cite{brin1998epa,agichtein2000ser,hasegawa2004dra,zelenko2003kmr}.固有表現間の関係が抽出できれば,テキストからRDF(ResourceDescriptionFramework)で表現される様な構造化データを構築することが可能となる.この構造化データを用いれば,例えば「大阪に本社がある会社の社長」といった「地名⇔組織名」と「組織名⇔人名」の関係を辿るような「推論」を行なうことができ,より複雑な情報検索,質問応答や要約に有益である.我々は,入力されたテキストから関係3つ組である[固有表現$_{1}$,固有表現$_{2}$,関係ラベル]を抽出する研究を進めている.例えば,「福田康夫氏は日本の首相です。」というテキストから[福田康夫,日本,首相]の関係3つ組を抽出する.この関係3つ組をテキストから抽出するには,(a)テキストにおける固有表現の組の意味的関係の有無を判定({\bf関係性判定})する技術と,(b)固有表現の組の関係ラベルを同定する技術が必要である.本論文では,(a)のテキスト内で共起する固有表現の組が,そのテキストの文脈において意味的な関係を有するか否かを判定する手法を提案する.ここでは,英語での関係抽出の研究であるACE\footnote{http://projects.ldc.upenn.edu/ace}のRelationDetectionandCharacterizationの指針に準じて,固有表現間の意味的関係について以下のように定義する.\vspace{1\baselineskip}\begin{itemize}\item次の2種類の単位文,(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』もしくは(2)『固有表現$_{1}$の〜は固有表現$_{2}$だ』で表現しうる関係が,テキストにおいて言及,または含意されている場合,単位文の要素となる二つの固有表現は意味的関係を有する.\end{itemize}\vspace{1\baselineskip}ここで,単位文(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』においては,格助詞を「が」「を」に固定しているわけでなく,任意の格助詞,『固有表現$_{1}$が固有表現$_{2}$で〜する』や『固有表現$_{1}$を固有表現$_{2}$に〜する』,でも良い.意味的関係を有する固有表現の組について例を示す.例えば「温家宝首相は人民大会堂で日本の福田康夫首相と会談した。」というテキストでは,『温家宝が福田康夫と会談した』,『温家宝が人民大会堂で会談した』,『福田康夫が人民大会堂で会談した』,『日本の首相は福田康夫だ』が言及されているため,「温家宝⇔福田康夫」,「温家宝⇔人民大会堂」,「福田康夫⇔人民大会堂」,「日本⇔福田康夫」の組が意味的関係を有する.また,「山田さんが横浜を歩いていると,鈴木さんと遭遇した。」というテキストでは,『山田が横浜を歩いていた』,『山田が鈴木と遭遇した』が言及されており,また『鈴木が横浜にいた』が含意されているため,「山田⇔横浜」,「山田⇔鈴木」,「鈴木⇔横浜」の組が意味的関係を有する.固有表現間の関係性判定の従来研究は,単語や品詞,係り受けなどの素性を用いた機械学習の研究が多い\cite{culotta2004dtk,kambhatla2004cls,zelenko2003kmr}.例えば,\citeA{kambhatla2004cls}らの研究では,与えられた二つの固有表現の関係の有無を判断するのに,係り受け木における二つの固有表現の最短パスと,二つの固有表現の間の単語とその品詞を素性として利用した手法を提案している.特に,係り受け木における二つの固有表現の最短パスを素性として利用することが,固有表現間の関係性判定に有効であることを報告している.しかし,{\ref{method}}で後述するように,実データ中に存在する意味的関係を有する固有表現の組のうち,異なる文に出現する固有表現の組は全体の約43.6\%を占めるにも関わらず,従来手法では,係り受けなどの文に閉じた素性だけを用いている.この文に閉じた素性は,異なる文に出現する固有表現間の組には利用できず,従来手法では,二つの固有表現の間の単語とその品詞だけを素性として利用するため,適切に意味的関係の有無を判別することができない.本論文では,係り受けなどの文に閉じた素性だけでなく,文脈的情報などの複数の文をまたぐ素性を導入した機械学習に基づく関係性判定手法を提案し,その有効性について議論する. | |
V07N03-02 | \label{sec:Introduction}自然言語処理は文中の多義の要素の曖昧性を解消する過程といえる.高品質の自然言語処理システムの実現には,辞書中に曖昧性解消のために必要な情報を適切に記述しておくことが必須である.本論文は,どのようにして異なった構文構造から同じ意味表現を生成するか,また,どのようにして意味的に曖昧な文から,それぞれの曖昧性に対応する意味表現を生成するかに焦点を当てて,日本語の連体修飾要素の振る舞いの取り扱いを論ずる.これらの問題の解決に向けて,連体修飾要素の形式的記述法を確立するために,生成的辞書の理論\cite{Pustejovsky95,Bouillon96}を採用し,拡張する\cite{Isahara99}.我々は日本語の連体修飾要素の意味的曖昧性の解消を,「静的な曖昧性解消(staticdisambiguation)」と「動的な曖昧性解消(dynamicdisambiguation)」の二つに分類した.静的な曖昧性解消が辞書中の語彙情報を用いて行えるのに対し,動的な曖昧性解消は,知識表現レベルでの推論を必要とする.本論文は主として,動的な曖昧性解消を論ずる.形容詞を中心とする日本語の連体修飾要素の分類については,語の用法の違いに着目して,IPAL辞書の記述結果から,連体,連用,終止といった用法の分布特性を述べた研究\cite{Hashimoto92j}や,統語構造の分析という観点から連体と連用の対応関係を分析した研究\cite{Okutsu97}などがある.また,連体修飾の意味関係という点からは,松本が分析を行って\cite{matsumoto93j}おり,被修飾名詞の連体修飾節との関係は,単に埋め込み文になるような関係だけではなくて,意味論的語用論的な要因が関係する場合があることを示した.本研究で用いている分類は,それぞれの用法の下での語の意味的なふるまいを分析し,そこで見られる多様な意味関係を体系的に整理したものである\cite{Kanzaki99}.Pustejovskyは,松本が論じたような語用論的な要素など,語の意味が実現する文脈をも語の意味記述として辞書中で形式的に取り扱おうとしている\cite{Pustejovsky95}.この理論を英語やフランス語の形容詞に適用した研究がいくつかなされている\cite{Bouillon96,Bouillon99,Saint98}が,これらは対象が感情を表す形容詞等に限定されている.本研究では,日本語の連体修飾要素を,上に述べたような分類の中に位置づけて,形式的な意味の取り扱いを試みている. | |
V12N05-05 | 我々は,人間と自然な会話を行うことができる知的ロボットの開発を目標に研究を行っている.ここで述べている「知的」とは,人間と同じように常識的に物事を理解・判断し,応答・行動できることであるとしている.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念(場所,感覚,知覚,感情など)を会話文章から判断し,適切な応答を実現しコミュニケーションをとっている.本論文では,それらの常識的な判断のうち,時間の表現に着目し研究を行っている.例えば,「もうすっかり葉が散ってしまいましたね」という表現に対して,人間であれば「秋も終わって冬になろうとしている」ことを理解し,「もう少ししたら雪が降りますね」などのように,自然なコミュニケーションとなる返答をする.しかし,これまでの会話・対話の研究においては「おうむ返し」が一般的であり,この場合「どうして葉が散ってしまったのですか」や「どのように葉が散ってしまったのですか」などのように,自然な会話が成立しているとはいえない返答をする.このように,人間と同じように自然な会話を実現するためには,語や語句から時間を連想する機能・システムは必要不可欠であると考える.このようなことを実現するためには,ある語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.これまで,ある概念から様々な概念を連想できるメカニズムを,概念ベース\cite{hirose:02,kojima:02}と関連度計算法\cite{watabe:01}により構成し実現する方法が提案されている.また,この連想メカニズムを利用し,ある名詞から人間が想起する感覚を常識的に判断するシステム\cite{horiguchi:02,watabe:04}について提案されている.そこで本稿では,連想メカニズムを基に,人間が日常生活で使用する時間に関する表現を理解し,適切な判断を実現する方法について提案する.これまでにも,コンピュータに時間を理解させる方法が研究されている.\cite{allen:84}や\cite{mcdermott:82}の時間論理を基に,時間的な関係や因果関係などについての推論,プランニングなどが行われている.また,\cite{tamano:96}では,事象の時間的構造に関する記述形式について提案がなされている.\cite{mizobuchi:99}では,時間表現を意味解釈するために,意味解釈を時点,時点区間などの概念に分類し,これらの分類に対して時間表現に対応する形式表現が定義されている.さらに,形態素列からなる時間表現を形式表現に変換するアルゴリズムが提案されている.このように,これまでの研究は,時間表現の記述形式に着目したものであり,様々な時間表現をある定義に沿って変換し,整理するものである.本研究では,時間表現の変換ではなく,語句からある時間を表現する語を連想することを特徴としている.具体的には,日常的な時間表現に着目し,知識として持っていない未知の表現にも対応できる柔軟なメカニズムの構築を実現している.さらに体言と用言の組合せパターンを一切持たずに語句から時間を推測するなど,時間の観点から,少ない知識を如何に多様に使用するかが本研究の特徴である. | |
V16N01-01 | label{sec:first}係り受け解析は日本語解析の重要な基本技術の一つとして認識されており,これまでに様々な手法が提案されてきた\cite{Kurohashi:94,SShirai:95,fujio_97,haruno,uchimoto_99,uchimoto_2000,kudo_2000,Kudo:2002,matsubara,Kudo:2004,Kawahara:naacl2006,Ohno:coling-acl2006}.しかし,そのほとんどは書き言葉を対象としたものであった.これに対し,本研究では,話し言葉,特に『日本語話し言葉コーパス(CSJ)\cite{furui}』のような長い独話を対象とする.ここでCSJとは,主に学会講演や模擬講演などの独話を対象に,約660時間(約750万語)の自発音声を収録した世界最大規模の話し言葉コーパスのことである.このコーパスには音声データだけでなく書き起こしも含まれており,コアと呼ばれる一部の書き起こしには,人手により形態素・係り受け・節境界・引用節・挿入節・談話構造など様々な情報が付与されている.一般に,話し言葉には特有の現象が見られるため,書き言葉と比べて話し言葉の係り受け解析は難しい.例えば,CSJを用いた実験によると,話し言葉特有の現象の影響をなくした場合とそうでない場合で,係り受け解析精度に大きな差があることが報告されている\cite{Uchimoto:lrec2006a}.特に,引用節・挿入節などの境界が認識されていない場合に係り受け解析精度の低下が著しい.そこで本論文では,引用節・挿入節を自動認定する方法,および,自動認定した引用節・挿入節の情報を係り受け解析に利用する方法を提案し,提案手法により係り受け解析精度が有意に向上することを定量的に示す. | |
V02N01-04 | 文章(文献)の執筆者の推定問題(authorshipproblem),あるいは執筆順序の推定や執筆時期の推定などの問題(Chronology)に対して,文章の内容や成立に関する歴史的事実の考証とは別に,文章から著者の文体の計量的な特徴を抽出し,その統計分析によって問題の解決を試みる研究が多くの人々に注目をあつめつつある.統計分析の手法を用いた文章の著者の推定や執筆の時期の推定などの研究は今世紀の初頭から行なわれていたが,本格的な研究が現れたのは今世紀の中ごろである.研究の全体像を把握するため今世紀の主な研究を表\ref{rri}に示した.\begin{table}[htb]\caption{{\dg著者の推定などの研究のリスト}\label{rri}}\begin{center}\renewcommand{\arraystretch}{}\footnotesize{\begin{tabular}{llll}\hline分析の対象となった文章&用いた情報&用いた情報,手法&研究者\\\hlineShakespeare,Bacon&単語の長さ&モード&Mendenhall,T.C.(1887)\\TheImitationofChrist&文の長さ&平均値,中央値など&Yule,G.U.(1939)\\TheImitationofChrist&語彙量&K特性値&Yule,G.U.(1944)\\Shakespeareetal.&単語の音節数&Shannonエントロピー&Fucks,W.(1952)\\Shakespeareetal.&音節数の接続関係&分散共分散の固有値,&\\&&Shannonエントロピー&Fucks,W.(1954)\\Shakespeareetal.&単語の長さの分布&平均値など&Williams,C.B.(1956)\\プラトンの第七書簡&文の長さ&平均値,中央値など&Wake,W.C(1957)\\WorkofPlato&文末の単語のタイプ&判別分析&Cox,D.R.etal.(1958)\\QuintusCurtiusSnodgrass&&&\\letter&語の長さの分布&$\chi^2$の検定,$t$検定&Brinegar,C.S.(1963)\\新約聖書の中のパウロの書簡&語の使用頻度&$\chi^2$検定&Morton,A.Q.(1965)\\源氏物語の宇治十帖&頁数,和歌数など&U検定,$\chi^2$検定&安本美典(1960)\\Federalistpaper&単語の使用頻度&線形判別分析,確率比&Mosteller,F.etal.(1963)\\由良物語&単語の使用頻度&線形判別分析,確率比&韮沢正(1965)\\ShakespeareandBacon&単語の長さの分布&分布の比較&Williams,C.B.(1975)\\Shakespeare&語彙量&ポアソン分布&Thisted,R.etal.(1976)\\源氏物語&頁数,和歌数等&因子分析&安本美典(1977)\\Shakespeare&単語の出現頻度&ポアソン分布,検定&Thisted,R.etal.(1987)\\紅楼夢&虚詞の使用頻度&主成分,&\\&&クラスターリングなど&Li,X.P.(1987,1989)\\日蓮遺文&品詞の使用率など&$t$検定,主成分,&\\&&クラスターリング&村上征勝他(1992,1994)\\\hline\end{tabular}}\end{center}\end{table}文章の著者の推定や文章の分類などを行なう際,文章に関するどのような著者の特徴を表す情報(特徴情報)を用いるかが問題解決の鍵である.今までの文章の著者の推定や文体の研究では著者の特徴を表す情報としては,単語の長さ,単語の使用頻度,文の長さなどがよく用いられている.日本文に関して,少し詳細に見ると,安本は直喩,声喩,色彩語,文の長さ,会話文,句読点,人格語などの項目を用いて100人の作家の100編の文章を体言型—用言型,修飾型—非修飾型,会話型—文章型に分類することを試み(安本1981,1994),また長編度(頁数),和歌の使用度,直喩の使用度,声喩の使用度,心理描写の数,文の長さ,色彩語の使用度,名詞の使用度,用言の使用度,助詞の使用度,助動詞の使用度,品詞数の12項目の情報を用いて源氏物語の宇治十帖の著者の推定を試みた(安本1958).韮沢は,「にて」,「へ」,「して」,「ど」,「ばかり」,「しも」,「のみ」,「ころ」,「なむ」,「じ」,「ざる」,「つ」,「む」,「あるは」,「されど」,「しかれども」,「いと」,「いかに」などの単語の使用率を用いて,「由良物語」の著者の判定(韮沢1965,1973)を行い,村上らは品詞の接続関係,接尾語などを用いて日蓮遺文の真偽について計量分析を行なっている(村上1985,1988,1994).このように,日本文に関して,文章の著者の推定を試みる研究はいくつかあるが,著者の推定などのための文章に関するどのような情報が有効となるかに関する基礎的な研究はほとんどない状況である.文章に関するどのような要素に著者の特徴が現れるかに関して,外国での研究ではいくつかあるが,それは言語によって異なると考えられるため,外国語での研究成果が日本語の場合もあてはまるのか,もしあてはまらないとすれば日本語の文章ではどのような要素に著者の特徴が現れるかというようなことが文体研究の重要な課題である.筆者は日本語の文章の著者の推定あるいは著者別に文章を分類する基礎的な研究として,文章の中のどのような要素が著者の文体の特徴になるかについて研究を進めている.コンピュータのハードウエアとソフトウエアの発展に伴い,コンピュータを利用することによって文章の中から膨大な情報が抽出できるようになった.しかし,今度はそのような膨大な情報の中からどの情報を用いるべきかという新しい問題が生じた.筆者らは文章の中に使用された読点について計量分析を行ない,読点の前の文字に関する情報で文章を著者別に分類する方法を提案し,この方法は文学作品だけではなく研究論文についても有効であることを実証した(金1993a,b,1994c,d,e).このような日本文に適応した著者の文体の特徴情報の抽出に関する研究は始まったばかりで決して十分とはいえない.ところで,コンピュータで著者の文体の特徴を抽出するためには計算機処理可能な文章のデータベースが必要であるが,そのようなデータベースが入手できなかったため,作成することにした.データベース化したのは井上靖,三島由紀夫,中島敦の短篇小説である.分析に用いた情報の安定性の考察及び用いた短い文章とのバランスをとるため,比較的長い文章はいくつかに分割して用いた.例えば,井上の「恋と死と波と」は二つに,中島の「弟子」は三つに,「李陵」は四つに分割して用いることにした.表\ref{list}に,用いた文章と発表年などを示した.\begin{table}[htb]\caption{{\dg分析に用いた文章のリスト}\label{list}}\begin{center}\small{\begin{tabular}{llccccc}\hline著者&文章名&記号&単語数&出版社&発表の年\\\hline井上靖&結婚記念日&I1&4749&角川文庫&1951\\&石庭&I2&4796&同上&1950\\&死と恋と波と(前半)&I3&4683&同上&1950\\&死と恋と波と(後半)&I4&4386&同上&同上\\&帽子&I5&3724&新潮文庫&1973\\&魔法壜&I6&3624&同上&同上\\&滝へ降りる道&I7&3727&同上&1952\\&晩夏&I8&4269&同上&同上\\三島由紀夫&遠乗会&M1&4984&新潮文庫&1951\\&卵&M2&4004&同上&1955\\&詩を書く少年&M3&4502&同上&1955\\&海と夕焼&M4&3359&同上&1955\\中島敦&山月記&L1&3226&新潮文庫&1942\\&名人伝&L2&3202&同上&1942\\&弟子(前の1/3)&L3&4078&同上&1943\\&弟子(中の1/3)&L4&4092&同上&同上\\&弟子(後の1/3)&L5&3727&同上&同上\\&李陵(前の1/4)&L6&4563&同上&1944\\&李陵(中の1/4)&L7&4561&同上&同上\\&李陵(中の1/4)&L8&4638&同上&同上\\&李陵(後の1/4)&L9&4458&同上&同上\\\hline\end{tabular}}\end{center}\end{table}この3人を選んだのは,OCR(光学読み取り装置)で文章を入力する場合に漢字の認識率が問題になるため,現代文の中で漢字の使用率がわりに高い中島の文章を用いてOCRでの入力テストを行なったのがきっかけであった.中島と同時期の作家として井上,三島を選んだ.データベースは分析に用いる文章をOCRで入力し,読み取りの誤りを訂正し,品詞コードなどを入力して作成した.表\ref{datas}に作成したデータベースの一部分を示した.単語の認定は「広辞苑」に従った.ただし,広辞苑にない複合動詞については複合された全体を1語とした.\begin{table}[htb]\caption{\dgデータベースの例}\label{datas}\begin{center}\footnotesize\renewcommand{\arraystretch}{}\begin{tabular}{l}\hline\\(2)/父(M)は(J)(27)/軍医(M)で(Z),(4)/当時(M)(5)/聯隊(M)の(J)\\(6)/ある(R)(6)/地方(M)の(J)(9)/小都市(M)を(J)(9)/転々と(F)\\(10)/し(D)て(J)(27)/おり(D),(11)/子供(M)を(J)(13)/自分(M)の(J)\\(14)/手許(M)に(J)(27)/置く(D)と(J),(16)/何回(M)も(J)\\(17)/転校させ(D)なけれ(Z)ば(J)(23)/なら(D)なかっ(Z)た(Z)ので(J),\\(19)/そう(F)(20)/し(D)た(Z)(23)/こと(M)から(J)(23)/私(M)を(J)\\(23)/郷里(M)に(J)(24)/置く(D)(25)/気(M)に(J)(26)/なっ(D)た(Z)\\(27)/もの(M)らしかっ(Z)た(Z).\\\\(3)/たとえ(F)(3)/田舎(M)の(J)(11)/小学校(M)でも(J),(7)/まだ(F)\\(6)/同じ(R)(7)/小学校(M)に(J)(14)/落着い(D)て(J)(9)/通わ(D)せ(Z)\\た(Z)(11)/方(M)が(J)(11)/教育上(M)(11)/いい(K)と(J)(13)/考え(D)\\た(Z)の(J)で(Z)(14)/ある(D).\\\\\hline\end{tabular}\end{center}\hspace*{0.8cm}{\footnotesize記号/は文節の境界線で,(数字)は(数字)の直後の文節が係る文節の番号で,(ローマ字)は品詞コードである.}\end{table} | |
V06N06-01 | 電子化されたテキストが世の中に満ち溢れ,情報洪水という言葉が使われるようになってからかなりの歳月を経ている.しかし,残念ながら,我々の情報処理能力は,たとえ処理しなければならない情報が増えたとしても,それほど向上はしない.そのため,自動要約技術などにより,読み手が読むテキストの量を制御できることが求められている.また,近年情報検索システムを利用する機会も増えているが,システムの精度の現状を考慮すると,ユーザは,システムの提示した候補が適切なものであるかどうかをテキストを見て判断せざるを得ない.このような場合,要約をユーザに提示し,それを見て判断を求めるようにすると,ユーザの負荷を減らす支援が行なえる.自然言語処理の分野では,近年頑健な解析手法の開発が進み,これと,上に述べたような,自動要約技術の必要性の増大が重なり,自動要約に関連した研究は,90年代の中頃になって,再び脚光を集め始めている.市販ソフトウェアも続々と発売されており,アメリカではDARPA支援のTipsterプロジェクトで要約が新しい研究課題とされたり\cite{hand:97:a},また,ACL,AAAIなどで要約に関するワークショップ,シンポジウムが相次いで開催され,盛況で活発な議論が交わされた.日本でも,98年3月の言語処理学会年次大会に併設して,要約に関するワークショップが開催され,それを機会に本特集号の編集が企画された.本稿では,このような現状を鑑み,これまでの(主に領域に依存しない)テキスト自動要約手法を概観する.また,これまでの手法の問題点を上げるとともに,最近自動要約に関する研究で注目を集めつつある,いくつかのトピックについてもふれる.本特集号の各論文が,テキスト自動要約研究として,どのような位置付けにあるかを知る上で,本稿が参考になれば幸いである\footnote{各論文の個別の紹介は,増山氏の編集後記を参照して頂きたい.}.要約研究は時に,情報抽出(InformationExtraction)研究と対で(あるいは,対比して)述べられることがある.どちらも,テキスト中の重要な情報を抜き出すという点では共通するが,情報抽出は,あらかじめ決められた「枠」を埋める形で必要な情報を抜き出す.そのため,領域に依存してあらかじめ枠を用意する必要があったり,また,領域に依存したテキストの特徴を利用した抽出手法を用いたりするため,領域を限定することが不可欠となる\footnote{情報抽出研究に関する解説としては,\cite{cowie:96:a,sekine:99:a}を参照されたい.また,DARPAが支援する情報抽出のプロジェクトであるMUC(MessageUnderstandingConference)に関しては,若尾の解説\cite{wakao:96:a}を参照して頂きたい.}.要約は,原文の大意を保持したまま,テキストの長さ,複雑さを減らす処理とも言えるが,その過程は,大きく次の3つのステップに分けられるとされる:テキストの解釈(文の解析とテキストの解析結果の生成),テキスト解析結果の,要約の内部表現への変形(解析結果中の重要部分の抽出),要約の内部表現の要約文としての生成.しかし,これまでの研究では,これらのステップは,テキスト中の重要箇所(段落,文,節,など)の抽出およびその連結による生成として実現されることが多かった.そのため,本稿では以後重要箇所の抽出を中心に解説する.2節では,まず重要箇所抽出に基づく要約手法について述べる.2.1節で重要箇所抽出に用いられてきた,さまざまな情報を取り上げ,それぞれを用いた要約手法について述べる.2.2節では,それらの情報を統合して用いることで,重要箇所を抽出する研究について概観する.2.3節では,重要箇所抽出に基づく要約手法の問題点について述べる.このようなテキスト要約手法が伝統的に研究されてきた一方で,近年要約を研究するに当たって考慮するべき要因として,以下の3つが提示されている\cite{sparck:98:a}.\begin{enumerate}\item入力の性質--テキストの長さ,ジャンル,分野,単一/複数テキストのどちらであるか,など\item要約の目的--どういう人が(ユーザはどういう人か),どういう風に(要約の利用目的は何か)\footnote{要約は一般に,その利用目的に応じて,次の2つのタイプに分けられることが多い\cite{hand:97:a}.\begin{description}\item[indicative:]原文の適切性を判断するなど,原文を参照する前の段階で用いる\item[informative:]原文の代わりとして用いる\end{description}},など\item出力の仕方\end{enumerate}たとえば,入力テキストのジャンルによっては,重要箇所抽出による要約が難しいものも考えられるし,また,要約というもの自体が考えにくいものもあり得る.ユーザの持つ予備知識の程度に応じて,要約に含める情報量は変えるべきであると考えられるし,また,利用目的が異なれば,その目的に応じた適切な要約が必要と考えられる.これまでの伝統的な要約研究は,このような要因に関して十分な考慮をしたものとは必ずしも言えない.しかし,これらの要因を考慮して,入力の性質,要約の目的に応じた適切な要約手法を開発する動きが活発になってきている.このような,自動要約に関する研究で最近注目を集めつつある,いくつかのトピックについても本稿ではふれる.3,4,5節ではそれぞれ,抽象化,言い換えによる要約,ユーザに適応した要約,複数テキストを対象にした要約に言及する.6,7節ではそれぞれ,文中の重要箇所抽出による要約,要約の表示方法について述べる.8節では,要約の評価方法について説明する. | |
V13N03-10 | 敬語は日本語の重要な特徴の一つとされており,日本語の敬語は単に依頼,要求あるいは人を示す代名詞において見られるだけでなく,言語体系,及び言語行動のほぼ全般にわたって発達している.このような特徴を持つ言語は日本語以外では,韓国語,チベット語,及びジャワ語等世界中に少数しか見られない\cite{Hayashi1974}.ところが現代の日本社会において,日本語の敬語に関する様々な誤用が指摘されてきている\cite{Kikuchi1997,Ishino1986}.日本社会における敬語の誤用は,言語によるコミュニケーションを通じた社会的人間関係の構築を妨げる場合がある.特にビジネスの場面における敬語の誤用は,時として円滑なビジネスを進める上での障害にもなり得る.このため,一般的には敬語の誤用はできるだけ避けることが望ましい.敬語の誤用を避けるには,敬語の規範に関する正しい知識の習得が不可欠である.このような知識習得を効率的に行うため,敬語学習を支援する計算機システムの実現が期待される.以上の背景の下,我々は日本語発話文に含まれる語形上の誤用,及び運用上の誤用を指摘するシステムを開発した.本システムは,日本語発話文,及び発話内容に関係する人物間の上下関係を表すラベルを入力とし,入力された日本語発話文における誤用の有無,誤用の箇所,及び誤用の種類(後者二つは誤用有りの場合のみ)を出力する.最近ではこれに類似した機能を搭載した日本語入力支援ツール等が開発されてきてはいるが,既存のシステムは主に語形上の誤用の一部のみを対象としており,運用上の誤用についても極めて限られた表現しか扱うことができなかった.本システムのように,発話文に含まれる敬語の誤用を指摘するシステムの構築にあたっては,(1)敬語の規範を何処に求めるか?及び(2)発話状況をどう取り扱うか?が問題になる.本研究では,以下の考え方に基づきこれらの問題に対処している.(1)敬語の規範敬語(正確には,敬語を含む言語一般)は時代の経過と共に変化する.例えば,``お話になられる''(二重敬語)等は伝統的な日本語学においては誤用とされてきたが,近年では必ずしも誤用としては認識しない人が少なからずいることが報告されている\cite{Bunkacho1999}.このため,現代の日本において幅広く社会のコンセンサスが得られている敬語の体系的規範はないと考えられる.この問題に対し本研究では,日本語学に関する様々な文献において共通して明示的あるいは暗示的に述べられていると解釈できる規範にできるだけ厳密に準拠する,という立場を取る.このため,現代の日本社会において敬語として概して許容されている表現であっても,本システムではその表現を規範的な敬語として見なさない可能性がある.しかしこのことは,少しでも誤用の可能性のある表現をできるだけ漏らさずピックアップできる,という利点として考えることもできる.(2)発話状況の取り扱い従来の敬語研究で指摘されているように,発話状況に応じた適切な敬語(即ち,運用上正しい敬語)を選択する際に考慮すべき主な要因には,発話に関わる人物間の上下関係(年齢差や社会的地位の違いに基づき話者が判断した上下関係,以下では``主観的上下関係''と呼ぶ),人物間の親疎,人物間のウチソト,及び各人物の体面に対して発話意図が及ぼすリスク,等がある.中でも人物間の主観的上下関係は,敬語が誤用である否かを判断する際の最も重要な要因であることが,日本語の敬語に関する多くの文献において明記あるいは暗示的に述べられている\cite[等]{Kikuchi1996,Kikuchi1997,Kabaya1998,Kokugoken1990,Kokugoken1992,Minami1987}.一方,このような判断の際に,人物間の親疎,人物間のウチソト,あるいは各人物の体面に対して発話意図が及ぼすリスクが,主観的上下関係より重要な要因であることを指摘した文献は殆どない.このことは,敬語の運用の規範に関わる要因としては,主観的上下関係が最も重要な要因であることを示唆する.従って本研究においては,敬語の運用上の規範を発話に関わる人物間の主観的上下関係のみに基づいて定義する.尚,実際の場面では人物間の主観的上下関係が殆ど同じ状況も想定されるため,実用的なシステムのためにはこのような状況も扱えることが望ましいが,今回は誤用指摘システム開発の最初のステップとして,明確な主観的上下関係の下での規範に焦点を当てることとし,上下関係が殆ど同じ状況の取り扱いは今後の課題としている.\bigskip以下では,本研究における``敬語の誤用''の定義を述べた後,それに基づいた誤用指摘システムについて述べる.更に,様々なテストデータを用いたシステムの妥当性の検証,及びシステムの今後の改善点等について述べる. | |
V13N03-09 | \label{sec:hajimeni}\subsection{背景}インターネットの普及により,インターネット上に膨大でかつ多種多様なテキスト情報が蓄積されるようになって久しい.インターネット上の膨大なテキスト情報を扱うための技術として,テキスト検索,自動要約,質問応答等さまざまな知的情報アクセス技術に関する研究が活発化しているが,同様にインターネット上の多様なテキスト情報のうち,これまであまり研究対象とされてこなかったものを扱うための技術も研究が活発化してきている.これまで研究対象とされてきたテキスト情報は,新聞記事,学術論文に代表されるように,事実を記述するものがほとんどであった.それに対し,チャット,Web掲示板,Weblog等の普及,利用者の増大に示されるように,インターネット上では,一般の個人が手軽に情報発信できる環境が整うとともに,個人の発信する情報に,ある対象に関するその人の評価等,個人の意見が多数記述されるようになってきている.この個人の評価に関する情報(\textbf{評価情報})をテキスト中から抽出し,整理し,提示することは,対象の提供者である企業やサイト運営者,また,対象を利用する立場の一般の人々双方にとって利点となる.このため,自然言語処理の分野では,近年急速に評価情報を扱う研究が活発化している.2004年春にはAAAIのシンポジウムとして評価情報を扱う最初の会議が開催された\cite{aaai2004a}.国内でも,2004年度の言語処理学会年次大会では,評価情報の抽出に関連する研究報告が数多く見られた.そこで本解説論文では,テキストから評価情報を発見,抽出および整理,集約する技術について,その基盤となる研究から最近の研究までを概説することを目的とする.上述したように,この研究領域ではここ数年で爆発的に研究が増大しているが,それらの研究を体系的に整理,概説する解説論文はいまだなく,研究の現状,あるいは今後の方向性を見極めるのに研究者が苦労しているのが現状である.本解説論文がその一助となれば幸いである.\subsection{テキスト評価分析とは?--本論文で扱う問題領域--}個人の記述する「意見」と言われるものにはさまざまなものが存在する.意見を下位分類するなら,少なくとも以下のようなものがその範疇に含まれることになる.\begin{itemize}\item評価を記述するもの,\item要望,要求,提案の表明,\item不安,懸念,不満,満足等の感情を表すもの,\item認識,印象を述べるもの,\item賛否の表明.\end{itemize}本解説論文では,このうち「評価を記述するもの」を対象とする研究を主に扱う.この分野でのこれまでの研究の多くは,以下の問題を解いているという風に要約できる:\begin{quote}\tab{example1}のような,ある対象の評価を記述しているテキスト断片に対して,その評価が,肯定的な評価(たとえば「良い」)であるか,あるいは,否定的な評価(例えば「悪い」)であるかを推定する.\end{quote}本稿では,このような評価に関する分析を{\bfテキスト評価分析}と呼び,{\bfテキスト評価分析}を取り巻く諸研究の現状を紹介する.この問題は,もう少し具体的には,肯定的な評価/否定的な評価の2値分類として定式化されることが多い.また,問題は,テキスト断片の粒度によって,次の3つに大別できる.\begin{itemize}\item語句レベル\item文レベル\item文書レベル\end{itemize}例えば,\tab{example1}は文レベルでの2値分類である.言うまでもなく,このテキスト断片の粒度ごとに問題の性質は大きく異なる.それぞれの詳細については,\sec{aa}で述べる.\begin{table}[t]\begin{center}\caption{評価を伴うテキスト例}\label{tab:example1}\cite{morinaga2002a}中のTable1から一部を抜粋して再録.\input{tab-example1.tex}\end{center}\end{table}\subsection{用語の整理}背景思想の違いの影響などもあり,テキスト評価分析で利用される用語は各研究者間で統一されているとは言い難い.そのため,しばしば同一概念が論文間において異なった用語で参照されている.本稿では,個人の評価に関する情報を\textbf{評価情報},評価情報の良い/悪いに関する軸を\textbf{評価極性}と呼ぶ.ある評価情報が良い評価をもつことを\textbf{肯定極性}をもつと呼び,逆に悪い評価をもつことを\textbf{否定極性}をもつと呼ぶ.また,肯定極性か否定極性をもつ評価情報がテキスト内で記述された表現を\textbf{評価表現}と呼ぶ.\tab{yougo}に,本稿での用語に対応する,紹介論文において使用される代表的な用語を示す.\tab{yougo}の\textbf{評価極性値}とは,肯定極性と否定極性の間を連続的に捉え,各評価極性の強さを数値化したものである.評価極性値は,[-1,1]の範囲の実数値として与え,正側が肯定極性,負側が否定極性に割り当てられることが多い.\begin{table}[b]\begin{center}\caption{用語の対応}\label{tab:yougo}\begin{tabular}{c|l}\hline\hline本稿での用語&紹介論文において使用される代表的な表現\\\hline{\bf評価情報}&sentiments,~~affectpartsofopinions,~~reputation,~~評判\\{\bf評価極性}&semanticorientations,~~polarity,~~sentimentpolarity\\{\bf肯定極性(肯定)}&positive,~~thumbsup,~~favorable,~~desirable,~~好評\\{\bf否定極性(否定)}&negative,~~thumbsdown,~~unfavorable,~~undesirable,~~不評\\{\bf評価極性値}&semanticorientationscore,~~SO-score\\{\bf評価表現}&sentimentexpression,~~wordwithsentimentpolarity\\\hline\end{tabular}\end{center}\end{table}\subsection{本論文の構成}本論文の構成は以下の通りである.まず,\sec{daizai}では,テキスト評価分析の題材となるテキストデータについて述べる.\sec{aa}では,テキスト評価分析を支える各要素技術に関する諸研究を紹介する.続く\sec{appl}では,テキスト評価分析の応用研究を紹介し,\sec{kanren}で,テキスト評価分析に関連するその他の話題を紹介する.最後に,\sec{kadai}で,テキスト評価分析で今後取り扱うべき課題を述べ,\sec{owarini}で本論文をまとめる. | |
V13N01-05 | \label{sec:introduction}英日機械翻訳システムなどの対訳辞書を拡張するための手段の一つとして,対訳コーパスなどから語彙知識を自動的に獲得する方法が有望である.適切な語彙知識を獲得するためには,(1)対訳コーパスにおいて英語表現と日本語表現を正しく対応付ける処理と,(2)対応付けられた{\EJP}を辞書に登録するか否かを判定する処理の二つが必要である.後者の処理が必要な理由は,対応付けられた{\EJP}には,辞書に登録することによって翻訳品質が向上することがほぼ確実なものとそうでないものがあるため,これらを選別する必要があるからである.例えば,対訳コーパスから次のような{\EJP}の対応付けが得られたとする.\begin{center}\begin{tabular}{ll}CustomsandTariffBureau&関税局\\MinshutoandNewKomeito&民主党や公明党\\MiyagiandYamagata&宮城,山形両県\\\end{tabular}\end{center}これらのうち第一の{\EJP}は辞書に登録すべきであるが,第二,第三の{\EJP}はそうではない.なぜならば,``MinshutoandNewKomeito''を我々の機械翻訳システムで処理すると「民主党,及び,公明党」という翻訳が得られるが,この翻訳と「民主党や公明党」とでは翻訳品質に大きな差はないと判断できるからである.また,第三の{\EJP}は,``Miyagi''と``Yamagata''が県名を表わしていない文脈では不適切となり,文脈依存性が高いからである.このように,翻訳品質が変化しなかったり,低下することが予想されたりする{\EJP}はふるい落とさなければならない.我々が{\EJP}の対応付けと選別を分けて考えるもう一つの理由は,前者はシステム依存性が低いのに対して,後者は依存性が高いという違いがあるからである.対応付けが正しいか否かは個々の機械翻訳システムにほとんど依存しない.このため,正しい対応付けを得るための判定基準を設定する際には特定のシステムを想定する必要がない.これに対して,対応付けられた{\EJP}(辞書登録候補)を登録するべきか否かは個々の機械翻訳システムに依存するため,選別は,特定の機械翻訳システムを想定した判定基準に基づいて行なわれなければならない.例えば,我々の機械翻訳システムには``theBankfor$ABC$''を「$ABC$銀行」のように訳す(前置詞``for''を訳出しない)規則が存在しない.このため,``theBankforInternationalSettlements''が「国際決済のための銀行」と訳されてしまう.従って,我々のシステムの場合はこの{\ENP}と「国際決済銀行」の対を辞書に登録すると判定するのが妥当である.しかし,もし前置詞``for''を訳出しないという規則を持つシステムが存在すれば,そのシステムにとっては登録する必要がないと判定するのが妥当であろう.従って,対応付けと選別とでは異なる正解判定基準を導入する必要がある.従来の研究では,異なる言語の表現同士を正しく対応付けることに焦点が当てられていることが多く\cite{Smadja96,Melamed99,Le00,Mcewan02,Tufis02,Utsuro02,Sadat03,Sato03,Yamamoto03,Ayan04,Izuha04,Sahlgren04},(正しく)対応付けられた表現対を辞書に登録するか否かを判定する処理について,選別のシステム依存性を認識した上で明確に議論した研究はほとんど見当たらない.専門用語とその対訳を獲得することを目的とした場合\cite{Dagan94,Resnik97,Tiedemann00}は,表現がある程度定式化していることが多いため,選別の必要性は低いかもしれない\footnote{(単言語の)専門用語の収集においても選別が必要であることを指摘した文献もある\cite{Sasaki05}.}.しかし,本稿では``NationalInstituteofInformationandCommunicationsTechnology''(情報通信研究機構)のような前置詞句と等位構造の両方または一方を持つ英語固有名詞句とそれに対応する日本語名詞句を対象とするが,このような英日表現対の場合には,選別処理は重要である.本稿では,対訳辞書に登録する目的で収集された英日表現対のうち,前置詞句と等位構造の両方または一方を持つ英語固有名詞句(以下では単に{\ENP}と呼ぶ)とそれに対応する日本語名詞句を辞書登録候補とし,この辞書登録候補を自動的に選別して適切な語彙知識を獲得する方法を提案する.辞書登録候補を正しく選別するという課題の解決策としては,(1)人間の辞書開発者が候補を選別する作業過程を分析し,その知見に基づいて選別規則を人手で記述する方法と,(2)機械学習手法を利用して,人間の辞書開発者が選別した事例集から選別器を自動的に作成する方法とがある.候補を登録するか否かは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,機械学習手法を利用するほうが実現が容易であると考えられる.このようなことから本稿では機械学習を利用した方法を採る.辞書登録候補は,翻訳品質の観点から,登録すれば翻訳品質が向上するものと,登録しても変化しないものと,登録によって低下するものの三種類に分けられる.このように分けた場合,翻訳品質が向上する候補は登録すべきものであり,翻訳品質に変化がない候補は登録する必要がないものであり,翻訳品質が低下する候補は登録すべきでないものであると言える.しかし,実際には,登録する必要がない場合と登録すべきでない場合はまとめて考えることができるので,行なうべき判定は登録するか否かの二値となる.この二値判定を行なうために{\SVM}を利用する. | |
V07N04-10 | 近年の音声認識,および機械翻訳の性能向上に伴い,これらの統合である音声翻訳システムの実現を目指した研究活動が活発に行われている\cite{Waibel1996}\cite{Stede1997}\cite{Carter1997}\cite{Sumita1999}\cite{NEC2000}.音声認識,機械翻訳などの各要素技術の性能向上だけでは,システム全体の性能の向上に限界がある.特に,音声認識結果は誤りを含む可能性が依然として高く,このような誤り含みの認識結果を適切に翻訳することは重要な研究課題の一つである.音声認識と文字認識を用いる言語処理には,認識誤りに対する頑健性の確保という共通の課題がある.文字認識の分野では,認識結果に対するポストプロセス的な誤り訂正の方式が研究されている\cite{Takeuchi1999}\cite{Shinnou1999}\cite{Nagata1998}\cite{Kukich1992}.一方,音声認識においては,正解を含めるのに必要な認識(訂正)候補の空間は文字認識の場合に比べて巨大であり,さらに音声認識では多くの場合,実時間での処理が求められるため,同様なアプローチによって有効な結果を得ることは難しいと考えられる.大語彙連続音声認識においては,音響モデル,言語モデルの精度向上と,デコーディングの効率化をバランスよく統合するアプローチとして,第1パスで簡易なモデルによる探索を行ない,第2パスでより詳細なモデルを用いて再探索・再評価を行なうような2パス探索による方法が良く知られている\cite{Kawahara2000}.さらに,統語的制約の適用によって誤り部分に対する品詞列の訂正結果を得る手法\cite{Tsukada1998}や,ConfusionMatrixとLexiconTreeに基づいて語彙の訂正結果を得る手法\cite{Coletti1999}が提案されている.音声認識結果に対するポストプロセス的な誤り訂正のアプローチとして,文字N-gramと誤りパターンに基づく誤り訂正を行なう手法\cite{Kaki1998}があるが,このような誤り訂正のアプローチは文字認識と比べるとあまり一般的ではない.困難な誤り訂正を行なわず,認識結果の妥当性判断によってシステムの頑健性を高める手法も検討されている.例えば,認識結果に対するConfidenceMeasureに基づいて,認識結果の出力を判断する手法\cite{Moreau1999}や,構成素境界解析から計算される意味的距離に基づいて,認識結果の正しい部分のみを翻訳する手法\cite{Wakita1998}が提案され,頑健性を向上することが確認されている.我々は,人間が会話において,発話の聞き取りがうまくいかなかった場合でも,話題に関する知識などを元にその内容を推測して聞き誤りを回復するように,コーパス中の用例から,誤りを含んだ認識結果と類似した表現を探し,誤り部分の訂正に生かすアプローチを検討してきた\cite{Ishikawa1998}\cite{Ishikawa1999}.我々の手法は,訂正候補の妥当性を音韻と意味の両方の観点から判断するもので,評価実験によってその有効性が確認された. | |
V08N04-01 | 本論文では,{\bf了解}の語用論的な分析を行う.語用論的な分析を可能にするために言語行為論の拡張を行い,それに基づいて{\bf了解}の分析を行う.了解の類義語として理解・納得などがある.理解は比較的浅い了解,納得は比較的深い了解を指すものであり,これらは了解の一形態である.本論文では,\begin{enumerate}\item一般に使われている了解\item理解\item納得\end{enumerate}\noindentのすべてを包含する用語として,{\bf了解}を用いることとする.了解は,様々な形態で顕現しうる.我々は,了解の顕現形態を図\ref{response}のように分類・定義する.すなわち,主として言語一文節による了解の顕現形態(例えば「はい」)を「あいづち」と呼び,「あいづち」および,「あいづち」以外の言語による了解の顕現形態(例えば「私もそう思います」)の双方を総括して「了解応答言語表現」と呼び,「了解応答言語表現」および言語によらない了解の顕現形態(例えば,うなずき)の双方を総括して「了解応答」と呼ぶ.図\ref{response}における実線矢印は包含関係を,破線矢印は例をそれぞれ示している.\begin{figure}[htbp]\begin{center}\atari(92,67)\caption{了解の顕現形態(Figure\ref{response}TheRepresentationofthe``Uptake'')}\label{response}\end{center}\end{figure}なお,あいづちの具体例としては,「はい」以外にも以下のものがある.\begin{quote}はーい,ええ,はあ,はー,そう,そうですね,そうですよね,そうそう,そうだね,そうよねー,なるほどね,うん,うーん,ふん,ふーん,ああ\end{quote}\noindentこれらは,実際の会話で具体的に観察されたものであり,頻繁に出現したものである.島津ら\cite{shimazu}は,会話における了解の顕現形態として「はい」を典型とする「間投詞的応答表現」を挙げている.彼らの研究では,非対面的会話を対象にしており,了解の顕現形態を図\ref{response}の「あいづち」(彼らの言うところの「間投詞的応答表現」)に限定している.しかし,対面的会話を対象にすると,了解の顕現形態は「間投詞的応答表現」を含む図\ref{response}のようになる.本論文では,了解応答の分析を通じて,了解の程度と過程を明らかにすることを目的とする.その際,分析対象とする了解応答は,あいづちである「はい」に限定する.従来,あいづちの分析では,国語学的あるいは文法的な分析が行われていた(例えば島津ら\cite{shimazu}による).本論文では,拡張言語行為論を用いて語用論的な分析を行う.ここでいう拡張言語行為論は,Searle\cite{searle}の言語行為論にいくつかの概念要素を追加し,既存の概念要素のいくつかを詳細化したものである.また,語用論の分野で周知の間接発話行為を詳細化したものでもある.まず第2節では,関連研究の概要を述べる.第3節ではSearleの言語行為論を概説し,第4節では拡張言語行為論の枠組みを与える.第5節では,拡張言語行為論の枠組みを用いて,あいづち「はい」による了解応答を分析し,さらに「はい」による了解の程度と過程を明らかにする.第6節では,本論文のまとめと発展的研究の可能性について述べる. | |
V06N01-01 | 日本語対話文における格要素の省略補完について述べる。主語や目的語などの表示が義務的でない日本語の言語処理においては、これら省略される\footnote{そもそも省略ではなく非存在とする解釈もあるが、ここでは格要素が明示されていないものすべてを「省略」と呼び、本論文の研究対象とする。}格要素を補う処理が重要である。格要素の省略は日本語に特有の現象ではなく、例えば韓国語、中国語などにも認められる。これら省略のある言語から英語やドイツ語など必須格を持つ言語への翻訳処理を行なう際には、補完処理(省略内容の推定処理)は重要な処理となる。また情報検索など、自然言語処理に関係する他の問題においても、省略補完処理は必要となる。省略された内容は、言語内、つまり省略位置以前のテキスト中に存在する場合と言語外に存在する場合に大きく分かれる。本論文では前者を文脈省略(endophoricellipsis)、後者を外界省略(exophoricellipsis)と呼ぶ。日本語の文脈省略補完に関しては従来から様々な研究がなされてきている。センタリング理論(centeringtheory)と呼ばれる一連の手法はこの一つである(最近の論文としては、例えば\cite{Strube}、\cite{Byron}、\cite{Walker}などを参照)。この理論では、`center'(談話のある時点において最も顕著な談話要素)という概念を導入することによって照応や省略の解決を行なう。また{}\cite{Dohsaka}は、日本語において発話から語用論的制約を抽出し、制約充足プロセスに基づいて文脈の下で解釈することによる文脈省略の補完手法を提案している。一方、外界省略も含めた補完手法に対しては、ヒューリスティックスなどによる経験的な解決手法を中心にいくつか提案されている。このうち日本語を対象にしたものとしては、村田ら\cite{村田}、江原ら\cite{江原}、Nakaiwaetal.\cite{Nakaiwa}の研究などがある。\cite{村田}は補完に関係する表層的な言語現象をヒューリスティックスで得点を付与し、それらの合計によって最尤の省略内容を補完している。この手法は多くの言語情報を利用した省略補完手法であるが、対話文に対しては十分な考慮がされておらず(\ref{節:比較}節を参照)、また得点の調整には困難を伴うことが予想される。また\cite{江原}は複文を単文に分割した際に生じる省略主語を補完するという問題に対して、経験的に8項目の特徴パラメータを設定して、確率モデルによる手法を提案している。一般の省略に対して有効であるか現時点では不明であり、少なくとも本研究の対象とは問題が異なるために確率モデルや特徴パラメータを再検討する必要がある。{}\cite{Nakaiwa}では用言意味属性と語用論的、意味論的制約を用いて外界省略の解消を行なっている。必要とする知識量が膨大であり、保守コストや他言語への適用を考えた場合に課題が残る。本論文の目的は、(1)対話における省略という現象の分析、問題設定(2)決定木と決定木学習による問題解決手法の提案(3)提案手法の特性の議論、の三点である。後述するように、対話においては外界省略の割合が高いが、このような状況下で我々はすべての省略を同一の枠組みで補完することは現実的でないと考える。また対話においてどのような問題設定が適当かはこれまで十分に議論されていない。そこでまず、対話における現象を分析し本論文における問題設定を{}\ref{節:現象}節において行なう。次に、{}\ref{節:手法}節で提案手法の説明を行なう。本論文では、省略補完知識の決定木(decisiontree)による表現、及び省略情報の正解付きコーパスから言語現象と補完すべき省略の関係を帰納的に機械学習し、これによって日本語対話文の格省略を補完する手法を提案する。本研究は機械学習手法の提案が目的ではないので一般的に知られている機械学習手法を利用し、どのような情報をどのように使用し、いかに機械学習させるべきかを提案する。論文の後半では、提案手法の特性を議論する。{}\ref{節:実験}節においては、提案手法の有効性を議論するために行なった実験について述べる。\ref{節:議論}節では決定木を観察することによって使用属性などに対する議論を行なう。両節での議論によって、提案手法がどのような特徴を持ち、またどのような限界があるのかを明確にする。最後に本論文の結論を{}\ref{節:結論}節で述べる。近年多くのテキストやシソーラスが機械可読化されてきており、多くの場合これらの言語資源は入手が可能となっている。本研究では、他の話題への適用性を考慮して、形態素分割されて品詞と省略情報が付与されたコーパス、及びシソーラスのみを用いて行なう手法を試みる。提案手法は、特定のコーパス、品詞体系、シソーラスをいずれも仮定しないため、大量の知識を作成、保守する必要性がなく、手作業による補完規則やパラメータの調整を行なう必要もない。また本手法では、構文解析も仮定しないため、構文解析の手法や精度とは独立である。本論文は、日本語対話文を英語やドイツ語に翻訳する際に必要となる処理を想定しており、省略内容の人称と数を補完するという問題設定を行なっている。また、省略の検出処理は他の処理部によって格要素の省略が正しく検出されると仮定する。なお、本論文は以前報告した文献\cite{NLPRS97}及び文献{}\cite{Coling-ACL98}の内容を基本にして議論、検討を行ない、新たにまとめたものである。 | |
V06N02-02 | 音声認識・文字認識の精度向上のため,より高い性能を持つ言語モデルを求めることは重要である.近年は,モデル構築やメンテナンスの容易さの点から,コーパスに基づく統計的言語モデルの研究が盛んである.大語彙ないしタスク非依存のシステムのための統計的言語モデルとして今日もっとも有望視されているものに,$n$-gramが挙げられる.$n$-gramは大量のテキストコーパスからの単純な数え上げによって得られる統計量であり,強力かつ頑健性に優れている.英語などのヨーロッパ系言語においては,$n$-gramの単位として単語を用いることが多い.大語彙のシステムでは単語はカテゴリ数が非常に大きくなるため,単語の代わりに品詞を用いる\cite{nagata94},または単語クラスタリングによって得られる単語クラスを用いることが多い.これらの言語においては単語は分かち書きされるため機械的に取り出すことができ,数え上げも容易に行える.これに対し,日本語や中国語には分かち書きの習慣がない.朝鮮語は文節ごとに分かち書きをするが,その分かち方は一定しないうえ,$n$-gramの単位としては大き過ぎて汎化性に難がある.よって,これらの言語を$n$-gramによってモデル化する際には,テキストコーパスに何らか\breakの前処理が必要である.これには次の可能性が考えられる.\begin{itemize}\item人手によって分割されたタグ付きコーパスを使う\item自動形態素解析システムによって単語に分割する\item経験的な統計基準によって文字列に分割する\end{itemize}このうちタグ付きコーパスを使う方法には,コーパス自体の入手が質的・量的な困難を伴うという欠点がある.形態素解析に基づく方法は有効であるが,モデルを学習するためにはまず形態素解析システムを用意せねばならないうえ,特定タスクに対して高い性能を得るためには予め辞書をチューニングする必要があると考えられ,メンテナンスのコストがかかる.また,形態素解析システムの文法規則によっては機能語が短めに分割される傾向があり,$n$-gramの性能を必ずしも最大にするものではない.これらの手法に対して,伊藤ら\cite{aito96}は統計的な基準によって文\mbox{字列の集合を選}定し,その文字列に分割されたテキストを使って$n$-gramを学\mbox{習する方法を提案している.文字}列を選定する基準としては,単純な頻度,および語彙の自動獲得のために提案されている正規\break化頻度\cite{nakawatase95}の高いものから選ぶ方式が\mbox{有効であったとされる.この方法は,形態素解}析を必要としない点で優れている.しかし,抽出すべき文字列の最適な個数を見出す方法については述べられていない.また,用いられている基準と言語モデルの能力との理論的関係は浅く,最良の分割方法である保証はない.さらに,この手法ではテキストが明示的に分割される.このため,接辞を伴った語や複合語などの長い文字列が抽出された場合,その文字列を構成するもっと短い語は出現しなかったのと同様な扱いを受けることになる.有限のテキストから汎化性の高い言語モデルを構築したい場合に,このような明示的な分割が最良の結果を与えるとは限らない.本論文では,高い曖昧性削減能力を持つ新しい言語モデルを提案する.このモデルは,superwordと呼ぶ文字列の集合の上の$n$-gramモデルとして定義される.superwordは訓練テキスト中の文字列の再現性のみに基づいて定義される概念であり,与えられた訓練テキストに対して一意に定まる.具体的な確率分布は,訓練テキストからForward-Backwardアルゴリズムによって求める.訓練テキストを明示的に分割せぬまま学習を行うため,長い文字列中の部分文字列を「再利用」することが可能となり,少量の訓練テキストでも効率の良いモデル化が期待できる.本論文ではまた,いくつかのモデルの融合による汎化性の向上についても検討する.実時間性が要求される大語彙連続音声認識システムにおいては,緩い言語モデルを用いて\mbox{可能性をしぼり込んだ後,詳細な言語モデルによって最終出力を導}く2パス処理が一般的である.本論文で提案するような字面の適格性を与える言語モデルは,ディクテーションシステムの第2パス,すなわち後処理用の言語モデルとして有用であるものと考えられる.また,文字$n$-gramを用いた認識手法\cite{yamada94}を本手法に応用することも可能である. | |
V12N03-05 | label{intro}照応現象に関する理論のうち,最も広く論じられているのは中心化理論(centeringtheory)である.中心化理論は,注意の中心,照応,結束性の間の相互作用を説明している.しかし,照応現象等の背後にある基本原理を明らかにするものではない.もし中心化理論の背後に何らかの基本原理が存在するならば,それは談話における発話者と受話者の行動決定を説明する原理であろう.その基本原理は,客観的に計量可能な尺度に基づいて述べられるべきである.しかし,中心化理論において重要な役割を担っている顕現性(salience)という概念は,客観的に計量可能な尺度として定式化されていない.顕現性とは,人間の注意状態に関連する何らかの尺度であるが,従来研究ではCfランキングというヒューリスティクスで近似される.本稿では,参照確率という計量可能な尺度として顕現性を定式化し,その計測手法を示す.一方,中心化理論の背後にある基本原理の説明として,Hasidaら\citeyear{hasida1995,hasida1996}が提唱する意味ゲーム(meaninggame)がある\footnote{Hasidaらのアプローチを最適性理論の上で発展させる試みも行われている\cite{rooy2003,kibble2003}}.意味ゲームとは,ゲーム理論に基づいて意図的なコミュニケーションを説明するモデルであり,発話者と受話者をプレイヤーとする2人ゲームである.Hasidaらは,顕現性を上記のように参照確率とみなし,照応詞の単純さをプレイヤーの利得の一部とみなすと,この意味ゲームモデルから中心化理論が導けることを示した.彼らはコミュニケーションの一例として特に照応を取り上げて,照応現象の説明はゲーム理論に帰着できると主張している.しかし,この主張の根拠は特定の事例に関する思考実験であり,実言語データに基づいて検証されていない.本稿では日本語の新聞記事コーパスを用いて照応の意味ゲームモデルを検証し,この主張が正しいことを示す. | |
V15N05-03 | label{hajime}インターネットの拡大により大量の文書情報が入手可能となった現在において,ユーザが自分の望む情報を手早く手に入れるための要素技術として要約が重要となってきている.近年の自動要約の研究では新聞記事や論説文,議事録,特許文書を対象とするものが多い.こうした文書は論理的な構造を持つため,その文書構造を利用した要約手法が提案され,一定の成果が上げられている\cite{yamamoto1995,hatayama2002}.一方で,より多くの人がインターネットを使うようになり,Web上で多くの文芸作品が公開され,自由に読むことができるようになった.さらに,著作権の切れた文学作品を電子テキスト化し公開している青空文庫\footnote{http://www.aozora.gr.jp}のようなインターネット電子図書館も存在している.こうした背景から電子化された多くの文学作品や物語から好みに応じた,読みたい作品を探す手段としての要約(指示的要約)の必要性があると考えられる.また,近年``あらすじ本''と呼ばれる複数の文学作品のあらすじをまとめて紹介している本が出版されていることから,その内容を簡潔にまとめた原文書の代わりとして機能する要約(報知的要約)まで必要とされていることが伺える.物語の指示的要約には結末を含まず,物語の展開においてある程度重要な箇所を含んでいることが必要とされる.これに対して,重要な箇所の推定は物語全体の構成を把握することが必要である.よって本研究では物語に対して報知的要約を作成する手法の構築を目標とする.これにより同時に指示的要約もカバーすることができると考える.物語は登場人物が遭遇した出来事と登場人物の行動の描写で構成されている.出来事は基本的に時系列順に記述されるため,論説文に見られるような,主張する事柄を中心としてその前後に根拠や前提を配置するといった論理的な構成はほとんど存在しない.さらに,論説文では著者の主張が述べられている箇所が重要であるとされ,“〜する必要がある”や“〜すべきである”といった文末表現を手がかり語として要約作成に利用することができる.しかし,物語ではどの箇所が重要であるかは全体の流れや他の箇所との関係から決定されるため,そのような手がかり語を定義することができない.従って,新聞記事や論説文を対象としているような要約手法では物語の要約に適応しないと考えられる.また,新聞記事の要約では背景となる前提知識を読者が保有しているために文章の繋がりが悪くてもある程度は推測によって補完することができるため,要約中に記事中の重要文がいくつか存在すれば要約として機能する.これに対して物語では背景となる前提知識は物語固有であることが多いため,その要約は対象とする物語の重要な要素を含むだけでなく要約中の整合性まで考慮しなければ要約として十分に機能することができない.整合性とは文書の意味的なまとまりの良さのことであり,本稿では話題間の繋がりの良さのことを示す.本研究では話題の繋がりに焦点を置いた物語要約システムを構築する.物語は登場人物の行動を中心に展開していくことから,まず登場人物を自動抽出して,それを軸に話題にまとまりのある重要箇所(\ref{method}章参照)を取り出す.さらに重要箇所間の繋がりを補完し読みやすさを向上させるために,局所的重要度を測定し重要箇所間の連結を考慮した文抽出を提案する.本手法を評価するために物語9作品を用いた複数人による人手の要約評価を行い,ベースラインとしてtf$\cdot$idfを利用した重要文抽出手法との比較を行う. | |
V13N04-03 | \label{sec:intro}我々の物の理解の仕方に関する知識は多くの自然言語処理タスクにおいて重要である.物をどのような観点から理解するかということを述べる{\bf属性}の知識はその一つである.例えば,「車」の属性は「重量」,「エンジン」,「ハンドル」,「操作感」,「製造会社」などである.言い換えれば,属性とは,我々があるものについて知りたいときにそれに対する値(本論文の言い方では,「答え」)が知りたくなるような項目である.従って,属性知識の応用としては,情報の要約\cite{yoshida_wda,yoshida_ai2004_en},質問応答\cite{Fleischman_2003,takahashi_2004}などが考えられる.また,最近では機械学習や単語クラスタリングの際の素性として有用であることも示されている\cite{almuhareb-poesio:2004:EMNLP}.このような属性知識は,WordNet\cite{WordNet}のように人手で作成することも可能であるが,作成コストとカバレッジが問題となる.本研究では,これらの問題を解決するため,与えられた概念クラスの{\bf属性語}\footnote{本研究では,属性が実際に言語で表現される時の文字列を属性語と呼ぶ.テキストからの自動獲得では,実際に獲得できるのは属性語であり,複数の属性語が同じ属性を表すことがあり得るが,これらの認識は本研究の対象外とする.}をWebから自動獲得する手法を提案する.属性語の自動獲得を目指した研究はそれほど多くはない.既存研究には,質問応答を念頭において〈対象,属性,値〉という事実の集合を獲得しようとするもの\cite{Fleischman_2003,takahashi_2004}や,情報要約の際に副産物的に属性的な単語を生成するもの\cite{yoshida_wda,yoshida_ai2004_en}などがあるが,概念クラスの属性語を明示的に獲得し,その精度を詳しく評価したものはなかった.我々は,属性知識の段階での問題の性質を明らかにし,属性語をあらかじめ高精度で獲得しておくことが,最終的には質問応答などのために値まで獲得する場合などでも大きく役に立つという考えから,属性語の獲得に焦点をしぼる.属性語は語彙知識の一つと言える.これまで語彙知識の自動獲得としては,上位下位関係の獲得\cite{Hearst_1992,Shinzato_2004_NAACL04_eng},全体部分関係の獲得\cite{Barland_ACL1999},言い換え関係の獲得\cite{Barzilay01}などが試みられてきた.上位下位関係や全体部分関係など名詞間の関係の獲得に関しては,目的の関係を特異的に示す言語的あるいは書式的なパターン,その他の統計的な手がかりを相補的に用いて獲得するアプローチがある程度の成功をおさめている\cite{Hearst_1992,Barland_ACL1999,Shinzato_2004_NAACL04_eng}.以下で概要を述べるが,本研究で提案する獲得手法もこの範疇に入る.本研究で提案する獲得手法では,クラス$C$(例えば,「車」)の属性語を獲得するために,まず,$C$を含む文書をWebから検索エンジンを用いて発見し,収集する\footnote{本論文では,混乱が無いと思われる場合には,クラスとクラスを表す語(クラス語)の両方を$C$と表記する.}.収集された文書から属性語の候補を抽出し,それらを言語的パターン・HTMLタグ・単語の出現に関する統計値を利用したスコアに従って順位付けし,スコアの高い候補を属性語として出力する.このスコアは,属性語に関する我々の観察が反映されるように設計されている.前述したように,言語的パターンは他の語彙知識獲得手法でも用いられてきた\cite{Fleischman_2003,almuhareb-poesio:2004:EMNLP,Hearst_1992,Barland_ACL1999,takahashi_2004}.特に,本研究で用いる言語的パターンは,「$C$の$A$」という助詞「の」を介したパターンである(ただし,$A$は属性語候補).このパターンは,直感的に有用と考えられ,関連研究である\cite{takahashi_2004}でも同様のパターンが用いられている.また,属性知識の特殊な場合である全体部分関係を英語を対象として獲得した\cite{Barland_ACL1999}でも「$A$of$C$」という類似したパターンが用いられている.この獲得手法の新規性は,広範なクラスに対して属性語を獲得することを目的としてWebを情報源として用いること,その際,クラスと関連の高い文書に注目するためWeb検索を用いること,それにともない,HTMLタグといったWeb特有の手がかりを利用できることにある.ただし,手法はできるだけ簡素になるようにした.標準的な言語パターンを用い,頻度やdf・idfなどの単純な積をスコアとして用いる.また,正解データの作成はコストがかかることから,\cite{Fleischman_2003}のような教師付き学習を用いるアプローチではなく,教師無しで獲得することを目指した.実験では,この提案手法で各クラスに対して上位20個の属性語を出力した時に,約73\%の適合率で厳密な属性語が獲得でき,約85\%の適合率で緩い属性語が獲得できることを示す\footnote{厳密な属性語・緩い属性語の違いについては本文で詳細を述べる.}.属性語獲得の研究では,属性語の定義,言い換えれば,獲得された属性語に対する評価基準が確立されていないことも問題になる.本研究では,質問解答可能性という考えに基づいた言語テストによる評価手順を示すことで,この問題の解決を目指す.属性語を定義するには,例えば「もし$A$が,$o$をクラス$C$に属するインスタンスとした場合に$v=A(o)$のように関数的に働き,$v$が$o$をクラス$C$の他のインスタンスから区別するのに重要であるならば,$A$は$C$の属性語である」のように分析的に定義することも可能であるが,このような分析的な定義は人手の評価で直接用いるには複雑で難しく,評価結果の信頼性も低くなると予測される.そこで,本研究では,いくつかの簡単な言語テストを用いた評価方法を提案する.言語テストは,評価者の直感を利用したYES-NOテストであり,評価者の負担が軽減され評価結果の信頼性も向上すると考えられる.提案する評価方法は「属性とは答えが知りたくなるような項目である」という我々の元々の直感を反映したもので,「その値を問うような質問文を生成でき,それに対して答えが存在するならば属性語である」という考え(質問解答可能性)に基づく.本研究ではこの考えに基づいた評価手順を設計する.属性語の判定のための言語テストはこれまでにも提案されている.例えば,Woodsは「the$A$of$o$is$v$」という表現が可能かどうかで判定できることを述べている\cite{Woods_1975}.しかし,この言語テストを自動獲得された属性語の評価に実際に適用した研究はこれまで行われていない.また,本文で詳しく述べる通り,この基準だけでは,特に日本語に置き換えたときに,重要でない語が属性語と判定されてしまうなどの誤判定が発生する可能性がある.本研究で提案する判定方法は,質問解答可能性の考え方に基づいた言語テストによって,より重要な属性語に焦点をあてるとともに,いくつかの補足的な言語テストを組み合わせることで,より正確な判定を目指したものである.最後に,いくつかの文献が指摘する通り,属性には「重さ」などの性質,「エンジン」などの部分,「操作感」などのtelic的属性,「製造会社」などのagent的属性など多くのサブタイプがある\cite{Guarino1992,GenerativeLexicon}.しかし,これらの区別が無いとしても,属性は前述した応用で有用であり,また,区別のための評価基準は複雑で安定した評価が困難になるということから,本研究ではこれらの区別は無視することにした.本論文の構成は以下の通りである.節\ref{sec:method}\,で,属性語獲得のための提案手法の詳細を述べる.次に,節\ref{sec:criteria}\,で属性語の評価基準とそれに基づく評価手順を示す.節\ref{sec:experiment}\,で,提案手法を提案評価手順で評価した実験の結果を示し,節\ref{sec:discussion}\,でいくつかの考察と今後の課題を述べる. | |
V16N04-04 | \subsection{本研究の背景}\label{ssec:background}近年,大学では文章能力向上のため,「文章表現」の授業がしばしば行われている.実際に作文することは文章能力向上のために有効であることから,多くの場合,学生に作文課題が課される.しかし,作文を評価する際の教師の負担は大きく,特に,指導する学生数が多いと,個別の学生に対して詳細な指導を行うこと自体が困難になる\footnote{筆者の一人は,1クラス30名程度のクラスを週10コマ担当している.延べ人数にして約300名の学生に対して,毎週添削してフィードバックすることは極めて困難であるため,半期に数回課題を提出させ,添削するに留まっている.}.{\modkまた,講義だけで,個別の指導がない授業形態では,学生も教師の指導意図をつかみにくく,ただ漠然と作文することを繰り返すといった受け身の姿勢になりがちである.}本研究は,上記のような現状に対処するために,大学における作文教育実習で{\modk活用できる}学習者向け作文支援システムを提案するものである.\subsection{既存システムの問題点}\label{ssec:problems}これまでに多くの作文支援システムが提案されてきた.支援手法という観点から既存の手法を分類すると,次のようになる.\begin{enumerate}\def\theenumi{}\item作文中の誤りを指摘する手法\item作文する際の補助情報を提供する手法\item教師の指導を支援する手法\item作文を採点する手法\end{enumerate}(a)の手法は,ワードプロセッサなどのスペルチェッカや文法チェッカとして,広く利用されている.また,より高度な文章推敲や校閲を支援するための手法\cite{umemura2007,笠原健成:20010515}も考案されている.教育分野への適用では,第2言語学習者向けの日本語教育分野での研究が盛んである.例えば,第2言語学習者の誤りを考慮して,文法誤りなどを指摘する手法\cite{chodorow2000,imaeda2003,brockett2006}がある.さらに,(b)の手法としては,文章作成時の辞書引きを支援する手法\cite{takabayashi2004},翻訳時にコーパスから有用な用例を参照する手法\cite{sharoff2006}などがある.これらは,学習者用というよりも,ある程度すでに文章技術を習得している利用者向けの手法である.(c)のアプローチは,学習者を直接支援するのではなく,作文指導を行う教師を支援することにより,間接的に学習者の学習を支援する手法である.この種のアプローチの例としては,教師の添削支援システム\cite{usami2007,sunaoka2006}に関する研究がある.これらの研究では,日本語教育の作文教育において,作文とそれに付随する添削結果をデータベースに蓄積し,教師の誤用分析などを支援する.(d)の手法は,小論文などの文章試験を自動的に採点することを目的に開発されている手法である.代表的なシステムとしては,英語の小論文を自動採点する,ETSのe-rater\cite{burstein1998}がある.また,e-raterを組み込んだオンライン作文評価システムCriterion\footnote{http://criterion.ets.org/}も開発されており,grammar,usage,mechanics,style,organization\&developmentという観点から作文を評価し,誤りの指摘などもあわせて行われる.なお,日本語でも,e-raterの評価基準を踏襲して,石岡らが日本語小論文評価システムJess\cite{ishioka-kameda:2006:COLACL}を構築している.また,井上らがJessをWindows用に移植し,大学において日本語のアカデミックライティング講座への導入を検討している\cite{井上達紀:20050824}.以上の手法のうち,学習者を直接支援対象としうる手法は,(a)(d)である.大学における作文実習に,これらの手法を適用することを考えた場合,次の二つの問題があると考える.\subsubsectionX{問題点1:意味処理が必要となる支援が困難なこと}大学の文章表現では,レポート,論文,手紙,電子メール,履歴書などを題材として,表記・体裁,文法,文章構成(例:テーマに即した文章の書き方,論理的な文章の書き方),要約の方法,敬語の使い方など,広範囲な文章技術を習得対象としている\cite{shoji2007,okimori2007}.それに対して,現状の作文支援システムは,表記・文法に関しては,手法(a)(d)で誤りの指摘が行われているが,意味的な解析が必要となる支援については,部分的に実現されるにとどまっている.例えば,前述のCriterionでは,導入部(introductionmaterial)や結論部(conclusion)などの文章要素を自動的に認識し,それぞれの部分の一般的な記述方法を表示することができる.しかし,現在の自然言語処理技術では,学習者の支援に耐えうるほどの精度で意味解析を行うことは難しい.そのため,作文課題に必要な記述が含まれているか\footnote{例えば,得意料理の作り方を記述する課題では,材料や料理手順に関する記述は必須的な内容であろう.},記述内容の説明が不足していないか,意味的な誤りや矛盾はないか,といった深い意味解析を必要とする支援は困難である.\subsubsectionX{問題点2:教師の指導意図をシステムの動作に十分反映できないこと}{\modk前述のとおり,教師が用意する作文課題には,学術的なものから実社会で役立つものまで様々なものがある.各課題を課す際には,学習者の作文の質を向上させるために,それぞれの目的に応じた到達目標やそれに応じた学習支援を設定する.したがって,}教師が実習で作文システムを利用するには,課題の内容に応じて,教師がシステムの支援内容をコントロールできなければならない.例えば,電子メールの書き方を習得するための課題であれば,電子メールに書かれるべき構成要素(例:本文,結び,signatureなど)が{\modk存在するか,また,}適切な順序で書かれているかを検査し,誤りがあれば,指摘するという支援が考えられる.このような支援を行うためには,電子メールに書かれるべき構成要素とその出現順序を,教師が規則として作文支援システム中で定義できなければならない.現状の作文支援システムの中では,手法(d)の作文採点システムが,作文評価用のパラメータの設定手段を持っている(自動採点システムにおける作文評価手法は\cite{石岡恒憲:20040910}に詳しい).例えば,Windows版Jessの場合は,修辞,論理構成に関する各種パラメータの採点比率,および,内容評価用の学習用文章をユーザが指定できるようになっている.このように,既存の規則のパラメータを設定することは可能である.{\modkしかし,教師が新たな規則を定義できるまでには至っておらず,教師の指導意図をシステムの動作に反映することは難しいのが現状である.}\subsection{本研究の目的}そこで,本研究では,上記の二つの問題を解決するための手法を提案し,作文支援システムとして実現する.まず,問題点1に対しては,「相互教授モデル」を導入する.このモデルでは,学習者,教師,システムが互いの作文知識を教授しあうことにより,学習者の作文技術を向上させる.従来のシステムのように,作文支援システムだけが学習者に作文技術を教授するのではなく,学習者・システム間,学習者同士で作文技術を教授しあうことにより,システム単独では実現できない,深い意味処理が必要で,多様な文章技術に対する支援を可能にする.また,問題点2に対しては,「作文規則」を用いる.この規則は,学習者の作文の構造,および,内容を規定するための規則である.教師は,作文課題に基づいて作文規則を決定する.システムは,作文規則に基づいて,学習者の作文をチェックし,誤りがあれば,それを指摘する.本稿では,作文規則の形式,作文への適用方法について示す.本論文の構成は,次のようになっている.まず,\ref{sec:system_structure}章ではシステムの構成について述べる.\ref{sec:model}章では相互教授モデルの提案を行い,\ref{sec:composition_rule}章では作文規則の定義と作文への適用方法を示す.さらに,提案手法の有効性を検証するために,\ref{sec:experiment}章で提案手法・従来手法による作文実験を行い,\ref{sec:evaluation}章で実験結果を評価・考察する.そして,最後に\ref{sec:conclusion}章でまとめを述べる.}{\mod | |
V25N01-04 | \label{Hajimeni}法務省の統計によれば日本の在留外国人数は第2次世界大戦以後,基本的に増加傾向にあり2016年12月には238万人,総人口の約1.9\%を占めるに至っている.外国人の比率は欧米諸国と比較して必ずしも高いとは言えないが,東京都新宿区では外国人の比率が10\%を超えるなど,日本でも大都市部などで欧米諸国並みの集中が発生している.日本人\footnote{本稿では便宜的に日本語母語話者を日本人と呼ぶ.また日本に一定期間以上居住する日本語非母語話者を外国人と呼ぶ.}と同等に日本語が使える国内在住の外国人は少数であり,彼らへの適切な情報提供は大きな課題となっている.外国人へはそれぞれの母語で情報を提供するのが理想である.実際,母語を使ったサービスはすでに多言語サービスの中で一部実現されており,例えばNHKは現在国内向けに5言語でニュースを放送している\footnote{英語,中国語,韓国語,スペイン語,ポルトガル語}.しかし母語での情報提供は10言語程度にとどまることが多く,国内の外国人の出身国数が190に達する状況に対応するには十分とは言えない.とはいえ外国人の全員をカバーするには膨大な数の翻訳が必要となり,コストや労力の大きさから実現は難しい\cite{kawahara:book:2007}.そこで母語ではなく,外国人に分かりやすい「やさしい日本語」で情報を伝えようという考え方が提唱されている\cite{SatoK:NihongoGaku:2004,IoriEtAL:kyouikuGakkai:2009}.その背景には,やさしい日本語を理解できる外国人が多いこと\cite{iwata:ShakaiGengo:2010},外国人の中からも母語の他にやさしい日本語による情報提供を望む声が上がっていることなどがある\cite{yonekura:housouKenkyuu:2012}.以上の背景の中,NHKは一般のニュースをやさしい日本語で提供できれば,外国人への有用な情報提供になると考えて研究を進め,2012年4月からWebでのサービス「NEWSWEBEASY」\footnote{\label{footnote:NWE}http://www3.nhk.or.jp/news/easy/index.html}を開始した.外国人に日本語でニュースを提供しようとするNEWSWEBEASYと同様のサービスは当時例がなく,著者らはまずやさしい日本語の作り方の原則を決め,Webで提供する内容を決めた.また書き換え作業にはやさしい日本語とニュース編集の知識が必要なことから日本語教師と記者の共同で進めることにした.方針の決定と並行して,日々の作業を円滑に進めるための支援システムを開発することにしたが,先行事例が乏しく明確にその仕様を決めることはできなかった.そこでプロトタイピングの手法\cite{SoftEng:book:2005}を採用し,とりあえず有効と思われる機能をできるだけ早く実装し,作業者の要望に応じて改善を加えることにした.以上の過程で作成したのが,日本語教師と記者の共同のニュースの書き換えを支援する「書き換えエディタ」と,ふりがな,辞書情報などを付与するための「読解補助情報エディタ」である.本稿では2つのエディタを総称してやさしい日本語のニュースの「制作支援システム」と呼ぶ.NHKでは制作支援システムのプロトタイプを2012年4月からの1年の公開実験期間中に利用し,不具合の修正,改良を加えた.そして書き換え作業が安定し,改修すべき項目が明らかになった2013年9月に本運用システムの開発を始め,2014年6月に新システムに移行した.このとき読解補助情報エディタに自動学習機能を加えたことにより,\ref{sec:systemMatome}節で詳述するように,制作支援システム全体は日々のやさしい日本語のニュースの制作の中で自然と利便性が増すようになった.やさしい日本語を使った情報提供は急速な広がりを見せている\footnote{\label{footnote:hirosaki}弘前大学の2015年4月の調査によると47都道府県すべてでやさしい日本語が活用されている.\\http://human.cc.hirosaki-u.ac.jp/kokugo/EJ1a.htm}.ほとんどの事例は佐藤らが公表している書き換え案文\footnote{脚注\ref{footnote:hirosaki}参照.}や庵らの文法\cite{iori:Book:2010,iori:Book:2011}など,いわゆる書物の知見を使ってほぼ人手で行われている.しかし今後やさしい日本語での情報提供を多様な人で効率的に進めるには,技術的な支援が必須になっていくと考えられる.実際,NEWSWEBEASYの制作フローを参考にしたやさしい日本語による自治体の情報提供のためのシステム開発が始まっている\cite{iori:book:2016}.本稿は類似した開発の参考になると考えている.以下,\ref{sec:kanren}章ではやさしい日本語の書き換えの関連研究を概観し,本研究の位置付けを示す.\ref{sec:service}章ではNEWSWEBEASYのサービス画面には,やさしい日本語のニュースのテキストとふりがななどの読解補助情報の2つの構成要素があることを述べる.\ref{NihongoGaiyou}章ではやさしい日本語の書き換え原則を概説し,当初の原則には網羅性の低さの問題があったことを指摘する.続く\ref{sec:taiseiToProcess}章では制作の体制およびプロセスを報告し,特に,やさしい日本語の書き換え原則の網羅性の低さをカバーするため,NEWSWEBEASYの制作を記者と日本語教師の共同作業で実施する体制を採ったことを述べる.さらに\ref{sec:systems}章では開発した「書き換えエディタ」と「読解補助情報エディタ」を説明する.書き換えエディタは,記者と日本語教師の共同作業特有の問題,書き換え原則の不十分さに対処していることを述べる.また読解補助情報エディタは,ふりがななどの読解補助情報を自動で推定し,これを修正した結果を自動学習する機能を持つことを説明する.続く\ref{sec:performance}章では,制作に関わる記者および日本語教師全員に対して実施したアンケートと書き換えエディタのログの分析を通じて2つのエディタの効果を示す. | |
V19N04-01 | 近年,質問応答や要約,含意認識などで,幅広い知識の必要性が高まっている.幅広い分野の一般的知識を記述したものに汎用オントロジーがある.オントロジーとは概念の意味と概念同士の関係を定義したものであり,特定の分野に偏らず幅広い分野に対応したオントロジーを汎用オントロジーという.概念間の関係には,is-a関係\footnote{``is-a関係''とは,Bisa(kindof)Aが成り立つときのAとBの関係をいう.}(上位‐下位概念)やpart-of関係(全体‐部分関係)など様々な種類がある.固有名詞や日々生まれる新しい語彙への即時対応を目指して,即時更新性と知識量の多さに優れたオンライン百科事典であるWikipediaを利用したis-a関係の汎用オントロジーの作成が注目されている\cite{Morita}.汎用オントロジーと言われるものには少なくとも2つのタイプがある.一つは,WordNet\cite{WordNet}のように,語と語の関係(synsetで表現される語義と語義の関係)を表現するものと,日本語語彙大系\cite{goitaikei}のように,ある語の上位概念をさまざまな粒度で表現したもの(語を階層的に分類したもの)である.前者は,上位下位関係を構成している単語対をたくさん獲得する方法であり,例えば「紅茶はお茶の一種で,紅茶にはアールグレーやダージリンがある」というような,ある単語を中心として上位概念と下位概念を表現する用語の集合を獲得する(ある単語の近傍の単語の集合を密に獲得する)目的に適している.またこのような目的のために,7.1節で述べるようにWikipediaからis-a関係の抽出の研究も行われている.本研究では後者のタイプの汎用オントロジーを目指す.このタイプの汎用オントロジーからは,葉節点にある概念(Wikipediaの記事の見出し)の上位語を,トップレベルとして設定した10個程度の上位概念まで,細かな粒度から荒い粒度まで順に,葉節点の概念を分類する用語が並んでいるような知識表現が得られる.このようなオントロジーの典型的な応用は,クエリログの解析のためにアイドルの名前を集めたり,アニメのタイトルのリストを作るといった用語リストを作ることである.特に,何らかのアプリケーションのために,「日本の今」を反映するような固有表現辞書を作る場合に有効である.Wikipediaの記事にはカテゴリが付与され,そのカテゴリは他のカテゴリとリンクして階層構造を作っている.しかしオントロジーと違い,Wikipediaのカテゴリ間,カテゴリ‐記事間のリンクの意味関係は厳密に定義されていない.そこで,Wikipediaのリンク構造からis-a関係のリンクを抽出する,以下のような研究が行われている.\begin{itemize}\item[1.]Wikipediaのカテゴリ間のリンクからis-a関係のリンクを抽出し,is-a関係のリンクでつながる部分的なカテゴリ階層を複数抽出する研究\cite{Ponzetto,Sakurai,Tamagawa}\item[2.]WordNetや日本語語彙大系のような既存のオントロジーに,Wikipediaのカテゴリや記事を接続する研究\cite{Suchanek,Kobayashi,Kobayashi2}\item[3.]既存のオントロジーの下位に,Wikipediaから抽出した部分的なカテゴリ階層と記事を接続する研究\cite{Shibaki}\end{itemize}\noindent1〜3の手法はis-a関係のリンクの抽出や既存のオントロジーの接続に文字列照合を用いるため,適合率は高いが再現率が低い.手法2では,Wikipediaのカテゴリ階層の情報が失われる.手法3はWikipediaのカテゴリ階層の情報をオントロジーに組み込めているが,上位階層に既存のオントロジーを用いているため,多くのカテゴリ階層の情報が失われる.また手法3は既存のオントロジーとWikipediaのカテゴリの接続部分を人手で判定しているため半自動の手法である.本研究では,Wikipediaの階層構造を出来るだけそのまま生かし,新たに定義した上位カテゴリ階層にWikipediaを整形した階層を接続することで1つに統一されたis-a関係のオントロジーを自動で構築する(図\ref{fig:image}).目標とするオントロジーの特徴は主に以下の2点である.\begin{itemize}\item[1.]Wikipediaの各記事名に対して,上位下位関係に基づく順序が付いた上位語のリストをWikipediaのカテゴリ階層から作成する.\item[2.]Wikipediaの記事名の全体集合を,網羅的(broadcoverage)かつ重なりなく(disjoint)分類できるような,上位下位関係に基づく階層的な分類体系をWikipediaのカテゴリ階層から作成する.\end{itemize}\noindent本手法では初めに,Wikipediaの上位のカテゴリ階層を削除する.またカテゴリ間とカテゴ\mbox{リ‐}記事間のis-a関係でないリンク(以下,not-is-a関係)を高い精度で削除し,残ったリンクをis-a関係とみなすことでWikipediaをis-a関係のリンクのみでつながる階層へ整形する.次にそれらの階層を新たに定義した深さ1の上位階層の下位に接続することで,1つに統一された階層を再構成する.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f1.eps}\end{center}\caption{本手法で構築する汎用オントロジーの一部}\label{fig:image}\vspace{-4pt}\end{figure}本研究では,(1)全概念を網羅していることを明確化するため(2)標準的な構造(3)計算機処理しやすい,という理由から,体系が統一された汎用オントロジーの構築を目指す.\begin{enumerate}\item一般に,「人オントロジー」「組織オントロジー」など個別のオントロジーを作成してもそれらのオントロジー間の関係は並列とは限らない.また今回作成した9つで概念のどれだけを網羅しているのかも分かりにくい.我々は,(ほぼ)全概念を9種類の排他的な意味属性で網羅していることを明確化するため,一つのオントロジーとして構築した.\itemこれまでに提案されているオントロジーである日本語語彙大系なども同様の形式であり,このような構造にすることによる恣意性,特殊性はない.本研究はオントロジーのあるべき表現構造の議論を行うのが主眼ではないため,最も標準的な構造のオントロジー構築を目指した.\item計算機で処理する上で全体が統一された一つの構造となっているほうが便利であり,また柔軟性がある.汎用オントロジーとして構築したものの一部(例えば「人」オントロジーのみ)を利用することは可能だが,一般に逆は可能とは限らない.\end{enumerate}本研究で作成するオントロジーの利用例として質問応答システムを取り上げる.集合知によって作成された百科事典であるWikipediaは,一般的な(常識的な)知識を記述したものであり,Wikipediaの記事名の集合は,多くの人が興味を持つ「もの」と「こと」のリストと考えられる.本研究で構築するオントロジーを用いると,記事名に関して用途に応じて様々な粒度での分類や記述が可能になる.例えば質問応答システムにおいて,「ドラゴンボールとは何か?」という質問に対して,その上位語「格闘技漫画」「冒険作品」「週刊少年ジャンプの漫画作品」はいずれも回答となる.また上記項目2のように一つの統一された階層分類になっていることで,任意の2つの記事名に対して必ず共通の上位語が存在し,共通の上位語に至るまでの上位語は2つの記事名の違いを特徴付けることができる.例えば「ONEPIECEと名探偵コナンの違いは?」という質問に対して,共通の上位語である「漫画作品」と,それぞれの上位にある語「週刊少年ジャンプの漫画作品」,「週刊少年サンデーの漫画作品」を使って,「どちらも漫画作品だが,ONEPIECEは週刊少年ジャンプの漫画で,名探偵コナンは週刊少年サンデーの漫画」というような回答が可能になる.本論文では以降,\ref{sec:onto_wiki}章でオントロジーとWikipediaについて説明した後,3章で本研究で提案する汎用オントロジー構築手法を示す.次に\ref{sec:zikken}章で実験条件,\ref{sec:kekka}章で実験結果,\ref{sec:kousatsu}章で考察を述べる.そして\ref{sec:kanren_kenkyu}章でWikipediaからのオントロジーを構築する関連研究について紹介し,最後に\ref{sec:ketsuron}章で本論文の結論を述べる. | |
V17N01-01 | \label{sec:introduction}機械翻訳システムの研究開発において,システムの翻訳品質の評価は重要なプロセスの一つである.人手による翻訳品質評価では,機械翻訳システムによる翻訳(以下,{\MT})に対して{\ADE}と{\FLU}の二つの側面から評価値が付与される\cite{Sumita05}.{\ADE}は,原文によって読者に伝わる情報のうちどの程度が翻訳文によって伝わるかを測る尺度である.一方,{\FLU}は,翻訳文が目的言語の文としてどの程度流暢(自然)であるかを原文とは独立に測る尺度である.本研究では,対象を英日機械翻訳に絞り,まず,現状の一般的な英日機械翻訳システムの翻訳品質を把握するために,市販されている英日機械翻訳システムで得られた{\MT}を{\ADE}と{\FLU}の側面から評価した.その結果,\ref{sec:experiment:setting}節で述べるように,{\ADE}の評価値に比べて{\FLU}の評価値のほうが低く,{\MT}の{\FLU}を向上させることがより重要な課題であることが判明した.このため,特に{\FLU}の向上に重点を置いたシステム改善を支援することを目的として,{\FLU}の評価の効率化を図るための自動評価手法を提案する.{\FLU}を低下させる要因はいくつか考えられるが,その一つに不自然な逐語訳がある.辞書と規則に基づく方式の機械翻訳システムは,現状では,逐語訳をすべきでない場合でもそのような訳し方をすることがある.このため,{\MT}には不自然な逐語訳が含まれている可能性が高い.従って,{\MT}と人間による翻訳(以下,{\HUM})における逐語訳の違いを捉えることによって{\MT}の{\FLU}(の一部)の自動評価が可能になると期待できる.既存の自動評価手法の中には,機械学習によって識別器を構築する手法\cite{Oliver01,Kulesza04,Gamon05,Tanaka08}がある.この手法では,良い翻訳とは{\HUM}に近いものであり,そうでない翻訳とは{\MT}に近いものであると仮定される.このような仮定の下で,対訳コーパスにおける{\HUM}(正例)と,原文を機械翻訳システムで翻訳して得られる{\MT}(負例)とを訓練事例として識別器が構築される.この識別器を用いて,評価対象の{\MT}から抽出した素性に基づいて,その{\MT}が良い翻訳であるかそうでないかの二値判定が行なわれる.本研究では,このような先行研究に倣い,{\HUM}と{\MT}を訓練事例とした機械学習によって構築した識別器を用いて自動評価を行なう.このような自動評価手法においては,{\HUM}での逐語訳と{\MT}での逐語訳の違いを適切に捉えることができる手がかりを機械学習で用いる素性として選ぶ必要がある.本稿では,このような素性として{\align}結果を利用することを提案する.具体的には,\ref{sec:feats}節で述べるように,英文と{\HUM}の間,および英文と{\MT}の間で{\align}を行ない,その結果を機械学習のための素性とする.従来,{\FLU}の評価には$N$グラムが用いられることが多いが,{\HUM}と{\MT}での逐語訳の違いを捉えるには$N$グラムよりも{\align}結果を利用するほうが適切であると考えられる.検証実験の結果,提案手法によってシステムレベルでの自動評価が可能であることが示唆された.また,{\SVM}\cite{Vapnik98}による機械学習で各素性に付与される重みに基づいて{\MT}に特徴的な素性を特定できるため,このような素性を含む文を観察することによって文レベルでの{\MT}の特徴分析を行なうこともできる. | |
V10N02-02 | アンケート調査は,さまざまな社会的問題を解決するために,問題解決に関連する人々あるいは組織に対して同じ質問を行い,質問に対する回答としてデータを収集・解析することによって,問題解決に役立つ情報を引き出していくという一連のプロセスである\cite{arima:87}.質問に対する回答には選択型と自由記述型があるが,一般には回答収集後の解析のコストを避けるために,選択型のアンケートを行うことが多い.したがって,従来は選択型アンケートを行うための予備調査として小規模に実施する,あるいは選択型アンケートの中で調査者が想定できなかった選択項目,例えば選択肢以外の「その他」に相当する回答と位置付けられていた.しかし,近年,インターネットの普及やパブリック・インボルブメントに対する関心の高まりから,想定できる意見を選んでもらうのではなく,回答者の自由な個々の意見を聞くことが重視されている.その結果,自由回答が選択型アンケートと同様に大規模に実施されるようになってきている\cite{voice_report:96}.また,狭義にはアンケート調査によって得られる自由回答とは異なるが,企業のホームページの掲示板やコールセンターなどに寄せられる消費者のメールや意見,地方自治体や政府のホームページに集まる住民からのメールは,自由回答同様に意見集約の対象とみなすことができる\cite{nasukawa:01,yanase:02}.われわれは,これらの意見も自由回答と同様に扱えると考えている.アンケートの自由回答は,このように交通計画や都市計画の分野をはじめ\cite{suga:97,matsuda:98,takata:00},テレビ番組に対する視聴者の印象\cite{hitachi:00}などマーケティング・リサーチ対象としても注目されている.自由回答の解析は,回答の内容にしたがった人手による分類作業(コーディング)と因子分析などによる解析を軸に行われる.コーディングの際に広く一般的に用いられるKJ法は,回答を一件ずつ読んで類似する内容の回答ごとにグルーピングするため,大量のアンケート結果に対しては多大なコストがかかる.作業コストの大きさに加え分類時の判断の主観性についても懸念されている.また,回答を回収しても,解析されないまま終わることが多いことも指摘されている\cite{arima:87}.本研究のねらいは,これらのコーディングの過程にテキスト処理の技術を取り入れることにより,人手作業のコストを軽減し,意見集約の対象データとして,自由回答に記述された意見を活用することである.テキストからの情報抽出や,要約・自動分類などの要素技術が蓄積されてきている言語処理技術を用いれば上記の問題を解決できる可能性がある.テキスト分類は,分類カテゴリを検索質問とみなした場合,情報検索と同じ問題と考えることができる.したがって,テキストと分類カテゴリの類似度計算,テキストに対してもっとも類似しているカテゴリの付与といった自動分類の基本的な手続きにおいて,ベクトル空間モデルを用いた場合\cite{salton:88},確率モデルを用いた場合\cite{robertson:76,iwayama:94},規則に基づくモデルを用いた場合\cite{apte:94}など情報検索の基礎技術を利用できる.言語処理におけるテキスト分類では,新聞記事テキストが対象になることが多い.新聞を対象とする分類の場合,多岐に渡る内容を類似する記事ごとにまとめることが目的となる.新聞記事全体を対象にする場合には経済・社会・政治・スポーツなどの分野に,それらの各分野を対象とする場合には,さらに詳細化した内容に分類される.アンケート調査の自由回答テキストは一般に,上記に挙げた新聞の分野に基づく分類項目よりも,さらに分野に特化したテーマにおいて,そのテーマに対する様々な意見や提案が述べられている\cite{voice_report:96}.同じ設問に対する回答であっても,内容語が必ずしも一定でなく,また,先に述べたとおり設問に対して回答者がどのような意見を持っているのかといった回答者の意図が重要になってくる.しかし,従来の自由回答テキストの処理では,分析・分類対象を表す特徴的キーワードによる研究が主である\cite{suga:97,oosumi:97,li:01}.尚,「意図」という用語については,さまざまな分野で異なった定義がなされている.言語行為論のように発話(回答)の意味を聞き手に対して命令や謝罪といった意図を話者が伝えようとする行為と捉える立場もある\cite{searle:69}.統語論では「表現意図を言語主体が文全体にこめるところの,いわゆる命令・質問・叙述・応答などの内容のこと」と定義され,文の表現形式と対応させている\cite{kokken:60}.また,人工知能や言語処理において対話理解の手法であるプラン認識では,意図は信念と同様話者の心的状態であり,信念と欲求から作られる,「何かをするつもりである」ものとする.このように「意図」の定義はさまざまであるが,本論文での意図は,統語論における意図の考え方に近く「表層の情報から得られる調査者の回答者に対する態度」とする.意図を判定する手がかりになる表現形式があると考え,表層的な情報から意図の抽出および分類が行えると考えている.近年,自然言語処理の分野においても,アンケートの設問に対してどのようなことが回答されているかという観点から,すなわち回答者が何を答えているかという観点から自由回答をデータとして言語処理を行う際の問題点が議論され始めている\cite{lebart:98}.この流れは,従来のような高頻度語や内容語を分析の手がかりとする分類手法では不十分であり,内容だけでなく内容に対して「どのように捉えているか」「どのように考えているか」といった回答者の意図を把握するための分類を行う必要があることを示している.\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip001.eps,width=\columnwidth}\caption{自由回答アンケートからの意図抽出処理アプローチ}\label{fig:figure1}\end{center}\end{figure}以上を踏まえ,本研究では\fig{figure1}に示したように,内容を表す名詞だけでなく,自由回答に現れた文末表現や接続表現に着目し,分析的に研究を進めている\cite{inui:98:a,inui:01:a,inui:01:b}.\cite{inui:01:a}では,文末表現の類型を意味の違いと単純に結びつけずに,回答に対して「てほしい」という表現を加えた文に言い換えることができるかどうかによる判定を導入することによって表層の表現にこだわらず,回答者の要求意図を特定する方法を提案している.また,\cite{inui:01:b}では,人の推論プロセスを規則化することにより,要求意図が明示されていない意見から要求意図を取り出す方法について提案している.同時に,学習を用いた自動分類の可能性についても研究を進めている\cite{inui:98:b,inui:01:c}.このように本研究では,人手による分析・規則作成の手法と統計的手法を並行して進めながら自由回答から回答者の意図を抽出する手法について,より適切な処理を目指している.また,\fig{figure1}の曲線矢印に示すように,それぞれの作業プロセスの結果をフィードバックしている.本論文では回答者の意図を考慮した統計的手法による自動分類についての実験とその結果の考察について報告する.自由回答テキスト約1000文に対し,タグ付与実験によって決めた賛成,反対,要望・提案,事実といった,回答が意図するタグ(以下「意図タグ」と呼ぶ)を各回答文に付与する.これらのデータに対し表層表現の類似性に着目することによって,最大エントロピー法(ME法)を用いた分類実験を行う.分類結果をもとに,自由回答テキストから回答者の意図を抽出し分類するための手がかりとなる表現,および表現間の関係について考察する. | |
V11N05-03 | 近年,機械翻訳に関する研究が進み,日本語や英語をはじめとし,韓国語,中国語,フランス語など,主要な言語に関してはある程度実用的なシステムが構築されつつある.その反面,そうした研究の進んでいない言語や,機械翻訳の対象となっていない言語が残されているのも事実である.こうした言語においては,言語現象を学習するためのモノリンガル・コーパスや,翻訳知識を得るためのバイリンガル・コーパスなどが充分に蓄積されておらず,また,翻訳の要である対訳辞書の整備も進んでいないことが多い.そうした,比較的マイナーな言語に関する機械翻訳として,日本語--ウイグル語機械翻訳システム\cite{ogawa}が研究されている.このシステムにおいては,その原型となった日本語形態素解析システム\cite{ogawa2}の日本語辞書が,語彙として約25万語,形態素として約35万語を収録しているのに対して,日本語--ウイグル語対訳辞書\cite{muhtar2003}は語彙数約2万語,形態素数約3.6万語\footnote{漢字表記の語彙に対しては,その読みが別の形態素として登録されるため,語彙数と形態素数に差が生じる.}と少ないため,翻訳可能な文の数が限られてしまうという問題がある.このように,対訳辞書の規模は,そのシステムが処理できる文数と直接関わる重大な要素である.しかしながら,一般に辞書の構築はコストが高く,登録単語数を増やすことは容易ではない.これに対して,人間が翻訳作業をする場合を考えると,翻訳者は知らない単語を対訳辞書で検索するが,その単語が辞書に記載されていない場合,同じ意味の別の表現に言い換えて辞書を引く.本研究では,人間のこの行動を模倣し,対訳辞書に登録されていない自立語を,登録されている単語だけから成る表現に言い換えることにより,訳語の獲得を目指す.これにより,二言語間の言語知識が必要な問題を一言語内で扱える問題にすることができる.言い換えに関する研究は,近年,盛んに進められている\cite{yama01}.これに伴って,言い換えの目的に応じた種々の言い換え獲得手法が提案されている.これらの内,本研究で扱う自立語の言い換えに関するものに注目すると,概ね次の二つの手法に分けることができる.一つは,単語の用法や出現傾向,概念などの類似性を評価し,類似する表現を集める手法である\cite{hindle}\cite{cui}\cite{kasahara}.これらの中には言い換えを獲得することを直接の目的としないものもあるが,集められた類似表現を言い換え可能な語の集合と見做すことができる.もう一つは,国語辞書などにおいて単語の語義を説明している語義文を,その見出し語の意味を保存した言い換えと見做して利用する手法である.これに属する手法としては,語義文から見出し語との同等句を抜き出し,直接言い換える手法\cite{kajichi}\cite{ipsj02}や,2つの単語間の意味の差を,単語の語義文における記述の差異として捉え,言い換えの可否を判定する手法\cite{fuj00}\cite{fujita}が挙げられる.従来,自立語の言い換え処理は,この二つの分類のどちらか一方の手法を適用して言い換えを得る,一段階の処理として扱われてきた.これに対して,Murataら\cite{murata}は,言い換え処理を次の二つのモジュールに分割した.一つは,用意した規則を元に,入力表現を可能な限り変換するモジュールであり,もう一つは,変換された表現の内,言い換えの目的に最も適ったものを選び出す評価モジュールである.ただし,変換のための規則は,言い換えの前後で意味が変わらないものであることを保証する必要がある.処理を分割することによって,評価モジュールにおける評価の観点を変えることが可能となり,様々な言い換え目的に対して,汎用的な言い換え処理モデルを提供できるとしている.しかし,この手法では,あらかじめ変換規則を検証しておく必要があるほか,従来の言い換え獲得処理に関する手法を柔軟に適用できないという問題がある.そこで,本研究では,この言い換え処理の段階分けの考え方をさらに進めて,可能な限り類似表現を収集する{\bf収集段階}と,収集された言い換え候補について,言い換えの目的に適う表現を選び出す{\bf選抜段階}とに分けることを考える.このように分割することにより,各段階において,類似度に基づく手法と語義文に基づく手法とを別々に適用できる.さらに,言い換えの対象となる単語に合わせて,その組み合わせ方を変えることができる.本論文では,収集段階に語義文に基づく手法を,選抜段階に類似度に基づく手法を用い,両者を組み合わせることによって適切な言い換えを獲得する手法について提案する.さらに,獲得した言い換えを日本語--ウイグル語翻訳システムで翻訳し,それを辞書に追加することによる対訳辞書の拡充実験も行った.以下,本論文では,第2章において現在までに研究されている言い換え処理技術について,その概要を述べて整理する.次に第3章において,言い換え処理を収集段階と選抜段階に分割し,それぞれに第2章で述べた従来の研究を適用する手法について提案する.第4章においては,第3章で提案した言い換え手法を用いた実験と,さらに対訳辞書の拡充実験について報告する.最後に,第5章は本論文のまとめである. | |
V09N02-03 | 本論文では,コーパスから事象間の関係を抽出する問題において,事象間の一対多関係を推定する問題を取り上げた.コーパスから事象間の関係を推定する場合,それらの事象は共起出現することに基づく推定を行うことが多い.しかし,そこで用いられている手法は暗黙のうちに,推定する関係が一対一関係であると想定しているものがほとんどである.しかし抽出すべき事象間の関係は一対一関係であるとは限らず,あらかじめ関係が一対多関係であることがわかっている場合もある.このような場合,これまでの一対一関係を前提とした手法が有効であるかどうかは明らかではない.一方,データベースにおいて連想規則を抽出する問題において,その規則が表す事象間の関係が一対多関係であることを考慮した手法が用いられている\cite{Agrawal96}.しかし,この手法がコーパスから事象間の関係を推定する問題に効果的であるかどうかは明らかではない.ここで,事象間の関係が一対多関係である場合,それらの事象が持つ出現パターン間の関係は一致ではなく,包含関係であることが観測される.そこで,本論文では,出現パターンの包含関係に強いとされる類似尺度を探し,この条件にあてはまる類似尺度として,文字認識の分野で提案されている補完類似度\cite{Hagita95}に着目した.そして,この類似尺度をコーパスから事象間の一対多関係を抽出する問題に適用し,その有効性を評価する.さらに,評価実験を通して,これまでにコーパスから事象間の関係を推定することに用いられている類似度やデータベースにおいて連想規則を発見することに用いられる尺度と,補完類似度との間で性能の比較を行う.これまでに用いられている類似尺度として,平均相互情報量,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数を選んだ.これらは関係の抽出に用いられる代表的な類似尺度である.また,一対多関係を推定する問題において,非対称性を持つ尺度と対称性を持つ尺度との性能差を測るために,平均相互情報量を改良し,非対称性を持たせた非対称平均相互情報量を定義し,比較対象とする尺度に加えた.実験対象となる事象としては地名(都道府県市郡名)を選んだ.地名は実世界において一対多関係を持つ事象である.実験は,人工的に生成したデータ集合と実データに対して行った.人工的に生成したデータ集合は実在する地名の一対多関係から擬似的に関係を取り出し,それをデータとして生成したデータ集合である.このデータ集合において,現存する一対多関係を再現する能力を測定した.実データを用いた実験では,実際の新聞記事における地名の出現パターンから現存する一対多関係を推定する能力を測定した.これらの実験の結果において,補完類似度はこれまでのコーパスからの関係抽出に用いられてきた類似尺度よりも優れ,連想規則の抽出に用いられる類似尺度よりもよい特性を示した.この論文は以下のような構成になっている.まず2節に,一対多関係を推定する問題を定義するために必要な要素を定義する.次に3節では,評価対象とする類似尺度の概要と,補完類似度,これと比較対象となる尺度,平均相互情報量,自己相互情報量,非対称平均相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度を示す.4節では,実験の概要と,モデルに従って生成された人工的なデータにおける実験,実データを用いた実験を示す.5節で考察し,6節で関連研究を示す.最後に7節でまとめる. | |
V04N03-03 | \label{sec:intro}近年,膨大な電子化された情報の中から必要な情報を検索する技術の必要性が高まっている.インターネットの爆発的な普及に伴って,ユーザが求める情報を持つwwwサーバを検索するシステムが,実際,数多く出現してきている.しかし,これらの検索システムのほとんどは,ユーザが入力した検索キーワードそのものを含むテキスト(に対応したwwwサーバ)を検索するシステムである.検索キーワードに意味的に類似している単語まで考慮した\footnote{単に,キーワードを同義語・類義語のリストを使って展開する従来手法では,不十分であり,類似の度合に従って文書を整列させて上位のものだけユーザに提示出来なくてはならない.キーワード「画家」に対して,同義語「画伯」や類義語「イラストレーター」,「デザイナー」や上位概念である「絵描き」,「芸術家」などまでも含むものを検索し,類似度順に出力することが望まれる.}検索(以下,類似検索と呼ぶ)は出来ない.一方,シソーラスに基づく意味的類似性を使った,翻訳,解析,文書検索などの研究が行なわれてきている.ただ,これらの先行研究には(1)シソーラスの階層構造が平衡していると仮定しているという問題と(2)単語の多義性の解消を行なっていないという問題があった.本論文では,階層構造が平衡していないシソーラスにも適用できる,より一般的な単語間の意味的類似度を提案する.本提案では各単語が担う概念間の最下位共通上位概念が有する下位概念の総数が少ないほど,単語間の類似度が大きくなる.筆者らは,この意味的類似度と大規模シソーラスの一つであるEDRシソーラスを使って,類似検索システムを実装した.さらに,精度を向上させるために,単語の多義解消手法をこの検索システムに導入した.本類似検索システムは,単語間の物理的近さと単語の重要度を用いた拡張論理型の従来システムに基づいている.この従来システムとの比較実験を行ない,意味的類似性と多義解消を用いた提案の類似検索手法\footnote{本手法では,類義語を検索可能にすることによって再現率を上げ,その範囲内で,多義によるノイズを排除し適合率を上げることを目指している.さらに再現率を重視する場合には関連語まで含めて検索することが必要と考えられる.}によって再現率・適合率が向上したことを確認した.以下,\ref{sec:method}節で,提案した意味的類似度,採用した多義解消手法,それらを用いた類似検索,ベースとなる拡張論理型検索について示し,\ref{sec:experiment}節で前節で述べた類似検索手法による適合率・再現率の改善及び多義解消手法の比較について示し,\ref{sec:conclusion}節でまとめる. | |
V24N01-02 | label{sec:intro}絵本の読み聞かせは幼児の言語発達を促す重要な情報の1つと考えられる\cite{Mol:2008,Reese:1999,Whitehurst:1988}.例えば,読み聞かせを開始する月齢が早いほど,2才や4才の時点での言語理解や発話の能力が高くなること\cite{Debaryshe:1993:joint,Payne:1994:role},そして8ヶ月時点での絵本の読み聞かせが多い方が,12,および,16ヶ月時点での語彙が発達していること\cite{Karrass:2005:effects}などが示されている.また,読み聞かせでは,読み手と聞き手という少なくとも2者が存在し,絵本という共通の対象がある.このような状況において,聞き手である幼児は自分以外の他者と同一の対象に注意を向ける共同注意(jointattention)という行動を頻繁にとることが知られており\cite{Karrass:2003:predicting},それが言語発達に影響する可能性などが指摘されている\cite{Tomasello:1986:joint}.こうしたインタラクションによる効果以外にも,例えば,\citeA{Sulzby:1985:children}は,日常の会話でほとんど出現しない語彙やフレーズが絵本に多数含まれていることが幼児の言語発達を進めることを指摘している.さらに,絵本の読み聞かせは言語発達を促すだけではなく,読み手と子どものコミュニケーションを促したり,登場人物の感情を推定したりするなど,情操教育にも役立つと考えられる\cite{Sato:Horikawa:Uchiyama:2016j,Furumi:Koyamauti:Ooba:2014j}.このように,絵本を読むことは,言語発達と情操教育の両面での効果が期待できる.しかし絵本には,赤ちゃん向けの絵本から,年長児(5才児)以上を対象とする絵本,大人向けの絵本まで存在し,その内容も難しさも様々である.そのため,子どもの興味や発達段階にあった絵本を選ぶのは難しい.親など日常的に接している保護者が子どもに絵本を選ぶ場合,書店や図書館などで手にとって確認すれば,その子に読めそうかどうか,興味を引きそうかどうかは分かるかもしれない\changedB{が,非常に多くの絵本を1冊1冊手に取って確認するのは}容易ではない.また,ある程度大きな子どもであれば,子ども自身でも絵本を選べるかもしれない.しかし,書店や図書館では,多くの本は背表紙が見える向きでずらりと並べて置かれている.そのため,表紙が目立つように置かれてる一部の絵本の中から手に取りやすい傾向がある.多くの書店や図書館では,目立つ場所に置く本を定期的に入れ替えたり,季節やテーマに応じた本の展示コーナーを作ったり,定期的に読み聞かせの会を開いたりするなど,絵本と出会うための様々な工夫がされている.こうした取り組みでは,本に詳しい書店員や司書の方が選んだ本を紹介してくれるため,良い本と出会いやすいという利点がある.しかし,タイミング良くその時にその場所に足を運ばなければ,手に取る機会を逃してしまうという状況は変わらない.また,そうして手にとった本がその子に合った読みやすさではない場合,簡単すぎてつまらなかったり,あるいは難しすぎて途中で投げ出してしまったりということが起こり易い.内容も,多くの子ども達には人気があるとしても,子ども1人1人を考えた時に,ちょうど興味のある内容であるとは限らない.このように,興味のある内容でちょうど良い読みやすさの本と出会えない場合,本をあまり読まなくなってしまったり,同じ本ばかり繰り返して読んだりすることもある.もちろん,繰り返して読むことは決して悪いことではない.お気に入りの本を繰り返して読みたがる時期もあるし,同じ本でも子どもの成長とともに理解が深まったり,最初とは違う読み方ができるようになることもあるだろう.しかし,同じ本ばかり読んだり借りたりする理由が,「他に興味を引く本が見つからないから」だったら問題である.しかも,0〜3才くらいまでの幼い子どもの場合は,そもそも自分で本を選ぶことも難しい.そこで我々は,子どもに内容と読みやすさがぴったりな絵本を見つけるためのシステム「ぴたりえ」を開発している.幼い子どもには入力インタフェースの利用が難しいため,親や保育士,司書などの大人が利用することを想定している. | |
V03N04-08 | 現在,機械による文解析の処理単位としては,形態素が利用されることが多いが,これは,形態素を用いることにより辞書の語数を制限でき,計算機の記憶を経済的に利用できるという利点があるからである.bigramによる解析方式は,文解析や音声認識など様々な分野において高い評価を得ているものの\cite{jeli,naka},文字や形態素を単位としたbigramによる解析は,単位が小さすぎて,文の局所的な性質を解析しているのに過ぎないと考えられる.しかし,trigramや4-gram以上になると,しばしば計算機の記憶容量の限界を超えてしまい,実用的ではない.筆者らは,知覚実験により,人間による文解析には,形態素より長い単位が用いられていることを既に明らかにしている\cite{yoko,yoko0}.従って,人間の場合と同様の長い単位を解析に用いれば,機械においても高い処理効率が得られると期待される.本論文は,このような観点から,bigramの単位として認知単位を用いる方法を提案するものである.形態素より長い単位を解析に用いる方法は,他にもいくつか報告されている.例えば,音声認識の分野において,伊藤らは休止を単位とした解析を行う方法を提案している\cite{ito}.また,テキスト処理において,文法的な解析が難しい発話を処理するために,発話を部分的に構文解析する方法なども提案されている.しかし,これらの解析に用いられている長い単位は,解析の効率化のために便宜上導入されたもので,比較的専用の用途にのみ使用できるものである.人間における文解析処理が複数段階の処理からなると仮定すれば,認知単位はその複数段階の処理において主に単位として利用されていると考えられる.従って,機械における処理を同様に多段に分けて考えるとすれば,認知単位はこの多くの段階において単位として汎用的に利用できることが期待される.機械の処理が,形態素解析,構文解析,意味解析,談話解析からなるとすれば,認知単位を利用することにより構文解析の処理を効率化できることが既に筆者らにより実証されている\cite{yoko0}.本論文では,認知単位を利用することにより形態素解析に相当する処理の効率化を行なう方法を提案し,認知単位の有効性を実証する. | |
V13N03-02 | 自然言語処理において高い性能を得ようとするとき,コーパスを使った教師あり学習(supervisedlearning)は,今や標準的な手法である.しかしながら,教師あり学習の弱点は一定量以上のタグ付きコーパスが必要なことである.仮によい教師あり学習の手法があったとしても,タグ付きコーパス無しでは高い性能は得られない.ここでの問題は,コーパスのタグ付けは労力がかかるものであり,非常に高くつくことである.この点を克服するためいくつかの手法が提案されている.最小限教師あり学習\footnote{``minimally-supervisedlearning''をさす.全ての事例に対してラベルを与えるのではなく,極めて少量の事例に対してのみラベルを与える手法.例えば\cite{Yarowsky1995,Yarowsky2000}などがある.}や能動学習(activelearning)(例えば\cite{Thompson1999,Sassano2002})である.これらに共通する考え方は,貴重なラベル付き事例を最大限に活かそうということである.同じ考え方に沿う別の手法として,ラベル付き事例から生成された{\em仮想事例}(virtualexamples)を使う手法がある.この手法は,自然言語処理においてはあまり議論されていない.能動学習の観点から,LewisとGale\shortcite{Lewis1994}が文書分類での仮想事例について少し触れたことがある.しかしながら,彼らはそれ以上仮想事例の利用については踏み込まなかった.このとき考えられた利用方法は,分類器(classifier)が自然言語で書かれた仮想的な文書例を作り,人間にラベル付けさせるものだったが,それは現実的ではないと考えられたからである.パターン認識の分野では,仮想事例はいくつかの種類について研究されている.SVMsとともに仮想事例を使う手法を最初に報告したのは,Sch\"{o}lkopfら\shortcite{Schoelkopf1996}である.彼らは,手書き文字認識タスクにおいて精度が向上したことを示した(第~\ref{sec:vsv}節でも述べる).このタスクでの次のような事前知識(priorknowledge)に基づいて,ラベル付き事例から仮想事例を作り出した.その事前知識とは,ある画像を少しだけ修正した画像(例えば,1ピクセル右にシフトさせた画像)であっても元の画像と同じラベルを持つということである.また,Niyogiらも事前知識を使って仮想事例を作り,それにより訓練事例の数を拡大する手法について議論している\cite{Niyogi1998}.我々の研究の大きな目的は,コーパスに基づく自然言語処理において,Sch\"{o}lkopfら\shortcite{Schoelkopf1996}がパターン認識で良好な結果を報告している仮想事例の手法の効果を調べることである.コーパスに基づく自然言語処理での仮想事例の利用については,バイオ文献中の固有表現認識を対象にした研究\cite{Yi2004}があるが,対象タスクも限られており,研究が十分に進んでいるとは言えない状況である.しかしながら,仮想事例を用いるアプローチを探求することは非常に重要である.なぜなら,ラベル付けのコストを削減することが期待できるからである.特に,我々はSVMs\cite{Vapnik1995}における仮想事例の利用に焦点をあてる.SVMは自然言語処理で最も成功している機械学習の手法の一つだからである.文書分類\cite{Joachims1998,Dumais1998},チャンキング\cite{Kudo2001},係り受け解析\cite{Kudo2002}などに適用されている.本研究では,文書分類タスクを自然言語処理における仮想事例の研究の最初の題材として選んだ.理由は大きく二つある.一つには,機械学習を用いた文書分類を実際に適用しようとすると,ラベル付けのコストの削減は重要な課題になるからである.もう一つには,ラベル付き事例から仮想事例を作り出す方法として,単純だが効果的なものが考えられるからである(第~\ref{sec:vx}節で詳細に述べる).本論文では,仮想事例がSVMを使う文書分類の精度をどのように向上させるか,特に少量の学習事例を使った場合にどうなるかを示す. | |
V13N04-02 | 確率的言語モデルは,文字列を出力とする言語処理において幅広く用いられている.音声認識システム\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}の多くが,解選択において,音響モデルとともに確率的言語モデルを参照する.文字誤り訂正\cite{Context-Based.Spelling.Correction.for.Japanese.OCR}や仮名漢字変換\cite{確率的モデルによる仮名漢字変換}においても,確率的言語モデルを用いる方法が提案されている.さらに,機械翻訳\cite{A.Statistical.Approach.to.Machine.Translation}や文書の整形\cite{講演の書き起こしに対する統計的手法を用いた文体の整形}などにも応用されている.多くの確率的言語モデルは単語や単語列の頻度に基づいており,これは正しく単語に分割された例文(単語分割済みコーパス)に対して計数される.この単語分割済みコーパスは,一般的と考えられる分野においては既に利用可能となっているが,新たに確率的言語モデルを用いる分野(医療現場やコールセンターでの音声認識など)の言語資源としては,単語に分割されていない例文(生コーパス)やその分野の単語リストのみが利用可能であることが多い.このような状況の下での一般的な対処は,単語リストを語彙に加えた自動単語分割システム\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}により生コーパスの各文を単語に分割し,可能な限り多くの文の分割結果を人手で修正し,自動解析の結果と合わせて単語分割済みコーパスとすることである.単語分割の修正量は,多ければ多いほど統計結果の信頼性が増し,確率的言語モデルの能力は高くなる.しかしながら,単語分割の修正作業にはコストや時間がかかるので,コーパスの一部分を修正の対象とし,残りの部分に関しては自動分割の結果をそのまま用いるということがしばしば行なわれる.文単位で修正する場合には,文法の専門家でさえも正確な単語分割が容易でない機能語列などの箇所が必然的に含まれることになるが,このようなの箇所での分割方針を作業者に徹底することは非常に困難であり,作業効率の著しい低下を招く.加えて,文単位で順に修正していくことが,限られた作業量を割り当てる最良の方法であるかということも疑問である\cite{Unsupervised.and.Active.Learning.in.Automatic.Speech.Recognition.For.Call.Classification}.本論文では,コーパスの修正を一文単位ではなく単語単位とし,修正箇所を単語リストなどで与えられる適応分野に特有の単語の周辺に集中することを提案する.これにより,上述のような困難を回避することが可能となり,さらに,適応分野に特有の単語の統計的な振る舞いを捕捉するという,適応分野のコーパスを利用する本来の目的にコーパス修正の作業を集中することが可能となる.このようにして得られるコーパスは一部分の単語境界情報のみが正確である文を含む.このようなコーパスから有限の語彙に対して確率的言語モデルを推定するために,本論文では,生コーパスから無限の語彙に対して確率的言語モデルを推定する方法\cite{Word.N-gram.Probability.Estimation.From.A.Japanese.Raw.Corpus}を語彙が有限の場合に応用する方法について述べる.実験では,生コーパスの単語境界の人手による修正の程度や方法を複数用意し,その結果得られるコーパスから推定される確率的言語モデルの予測力やそれに基づく仮名漢字変換の精度を計算した.実験の結果,単語リストの各単語に対して2箇所の出現のみを人手でマークする方法では,単語数の割合にして生コーパス全体の5.22\%の修正により,単語数の割合にして生コーパス全体の45.00\%の文を文単位で修正した場合と同程度の仮名漢字変換の精度を達成することができた.また,単語リストの各単語に対して全ての出現箇所を人手でチェックすることで,コーパス全体に対して自動分割の結果を人手で修正するのと同程度の予測力と変換精度を達成できた.この結果から,適応分野に特有の語彙の出現箇所に修正のコストを集中することにより,少ない作業量で効率良く確率的言語モデルを分野適応できるといえる. | |
V09N05-07 | インターネットの普及により,電子化されたテキストの入手が容易になってきた.それらのテキストをより効率的かつ効果的に利用するために,多くの言語処理技術が研究,提案されてきている.それに伴い,言語処理の研究分野は注目を浴び,言語処理学会でも年々会員が増加し,事務作業が増加する傾向にある.このような増加傾向から考えると,今の言語処理学会の状況では,事務処理の負担が処理能力を越えてしまい,その結果,事務作業が滞ることが予想される.もし,事務作業が滞れば,学会の活気や人気に水をさすことになってしまう可能性があり,その結果,学会の将来に悪影響を与えると考えられる.そのため,事務処理の効率化は必須である.学会の差別化,効率化を図るため,電子化された投稿論文の査読者への割り当てを行なう際に言語処理技術を利用した報告が出てきている.例えば,投稿論文を最適な査読者に割り当てることを試みたもの\cite{Susan1992,Yarowsky1999}などである.ただし,これらの論文は適切な査読者を決定することを目的としているだけであり,事務処理の効率化については論じられていない.そのような中で,2000年言語処理学会第\6回年次大会プログラムを作成する機会を得た.大会プログラム作成において作業効率向上に寄与する言語処理技術を明確にすることを目的として,いくつかの言語処理技術を用いて第\5回大会の講演参加申込データに対して,大会プログラム自動作成実験を行い,それらの技術の有効性を比較した.そして,その実験結果を基に第\6回年次大会プログラム原案を作成した.大会プログラムを作成するには,講演参加申込を適当なセッションに分割し,セッション名を決める作業が必要である.それには,講演参加申込の内容(タイトルとアブストラクト)をすべて確認してから作成作業をするのが一般的であるが,講演数が増加している現在,講演申込内容をすべて確認し,大会プログラムを手動で作成するのは大変な作業である.この作業を省力化するために,アブストラクトは読まずに,タイトルだけを利用し,大会プログラムを作成することも可能であると考えられるが,タイトルだけを利用した場合,たとえ講演参加申込に記述されている講演分野を利用したとしても適切なセッションに割り当てられない場合が存在すると考えられる.また,タイトルだけでは,適切なセッション名を決めることも困難である.我々はそのような作業を支援し,効率化する方法を本稿で提案する.我々の手法を利用すれば,大会の発表傾向にあったセッション名を決定できるだけでなく,適切なセッションに講演申込を割り振ることも可能となる.そのため,事務作業の負担を軽減することが可能となるだけでなく,講演者の興味にあうセッションを作成できる.以下,\ref{yaya}章でその一連の実験について報告する.\ref{gogo}章で第\6回年次大会プログラム作成の詳細について説明する.そして,\ref{haha}章で大会後に行なったアンケート調査の結果を報告し,\ref{mumu}章で今後の大会プログラム作成の自動化および事務処理の効率化に向けた考察を行なう. | |
V10N05-02 | \label{one}近年,音声認識技術や言語処理技術,計算機の処理能力の向上により,情報検索をはじめとする各種タスクを音声認識を介して実現する音声対話インタフェースへの期待が急速に高まっている\cite{NielsenAndBaekgaard1992,Godden1994,Zue1994,ZeiglerAndMazor1995,Godden1996,FergusonAndAllen1998,Nakano1999}.同時に,音声対話インタフェース実現のための対話制御方式も数多く提案されている\cite{Niimi1995a,Niimi1995b,Niimi1997,Niimi1998,KikuchiAndShirai2000,Chu-Carroll2000}.音声による入力は,操作に熟練を必要としないため利用者にとっては使い勝手が良く,入力速度はキー入力に比べ3〜4倍,手書き文字入力に比べ8〜10倍速いと言われている\cite{Hurui1998}.更に,他の器官を同時に使っての並行作業が可能であるという利点を有する.また,サービス提供者にとってはオペレータコストの削減に繋がる.実用サービスのフロントエンドとして音声認識を適用するためには,不特定多数の話者の入力に対して,迅速かつ正確に応答する必要がある.音声認識の性能は,発話様式によって大きな影響を受けることが指摘されている\cite{MurakamiAndSagayama1991}.最も単純なシステム主導,一問一答形式の単語認識でも,対象単語数が増えるほど誤認識は避けられず処理時間を要する.更に,音声認識は利用される環境や発話状況により誤認識を生じる場合も多く,公衆電話網は帯域が狭いため認識精度が落ちる.我々は,顧客が入力する住所や姓名の確定をタスクとする音声対話インタフェースの実現に向け,検討を進めている.音声認識技術においてエンジンの出力結果が正しいか否かを判断するには,発話者本人に正誤を確認するしか方法はない.特に,不特定多数の話者が入力する住所や姓名などの大語彙を認識対象とする場合,正確な応答を返すことは困難である.音声対話インタフェースの現状は,(1)~個々の質問において利用者が予期しない対象への誤認識が多い~(2)~正誤確認と誤認識を修正するための再入力要求が繰り返される,という2つの要因から利用者満足度が獲得できていない.従って,音声対話インタフェースの実用化のためには,上記2つの要因解決が必須となる.本稿は,上記要因~(1)~の解決に焦点を当て,人間が発話を聞き取る際の傾向に着目し「思い込み応答」という聞き取り結果の確認手法を提案する.そして思い込みによる認識結果の確認が,入力対象が大語彙であっても利用者にストレスを与えないことを検証する.この思い込み応答は音声入力の応答に特化したものではないが,本稿では音声入力を例として以下議論を進める.その他への適用については\ref{six}\,章の今後の課題で述べる.以下\ref{two}\,章では,大語彙を対象とした音声対話インタフェースの現状の課題について述べる.\ref{three}\,章では人間の対話における思い込み戦略を検証し,\ref{four}\,章では,市販の認識エンジンを用いて思い込み対象の選択方法について分析する.\ref{five}\,章では,思い込み戦略を取り入れた聞き取り確認手法を提案し,実装及び評価を通してその有効性を検証する.最後に\ref{six}\,章にて,まとめ及び今後の課題について述べる. | |
V09N01-02 | label{No1}近年,聴覚障害者の重要なコミュニケーション手段の1つである手話と,健聴者のコミュニケーション手段である日本語とのコミュニケーション・ギャップの解消を目的とする手話通訳システムや手話の学習支援システムなどの研究が各所で盛んに行われている\cite{Adachi1992a}.これら手話を対象とした自然言語処理システムを実現するための重要な要素技術の1つである手話の認識や生成処理技術は,動画像処理の研究分野であるが,対象が限定されているため,動画像構成の単位を明確に規定できる可能性があり,手話の知的画像通信や手話画像辞書への特徴素の記述法が提案されている\cite[など]{Kurokawa1988,Kawai1990,Sagawa1992,Terauchi1992,Nagashima1993,JunXU1993}.また,日本語文の手話単語列文への言語変換処理に関する基礎検討としては,\cite[など]{Kamata1992,Adachi1992b,Adachi1992c,Kamata1994,Terauchi1996}が報告されている.さらに,手話表現の認識結果を基に日本語文を生成する研究としては,\cite[など]{Sagawa1992,Abe1993}がある.なお,これらの処理精度に影響を与える電子化辞書の構成方法に関しては,\cite[など]{Adachi1993,Nagashima1993,Tokuda1998}が提案されている.さて,2言語間の対訳電子化辞書システムを構築する場合の重要な要素技術の1つとして,原言語側と目標言語側との双方向から単語を検索できる機能の実現が挙げられる.ここで,手話単語を対象とした場合の課題の1つは,視覚言語としての特徴から,手指動作表現を検索キーとし,対応する日本語の単語見出し(以後,本論文では,日本語ラベルと略記する.)を調べる手段をどのように実現するかという点である.すなわち,視覚情報としての手指動作特徴をどのように記号化して,検索要求に反映させ,検索辞書をどのように構成するかという問題といえる.この問題に対する従来のアプローチは,手の形,動き,位置などの手指動作特徴の属性を詳細な検索項目として用意し,これらの項目間の組合せとして検索条件を設定し,同様に,これらの検索項目を基に手話単語を分類したデータベースを検索辞書としていた\cite[など]{KatoYuji1993,Naitou1994}.この検索アプローチは,手話言語学における手話単語の表記法(単語の構造記述におけるコード法)に基づいている\cite{Kanda1984,Kanda1985}.しかし,これらの表記法と分類観点は,本来,個々の手話単語の表現を厳密に再現(記述)することを目的としているため\cite{Stokoe1976},項目数が多く,また,項目間の類似性もあり,初心者には難解なコード体系といえる.そのため,このアプローチによる検索システムの問題点が,\cite{Naitou1996}により指摘されている.それによると,手の形,動き,位置などの検索条件を指定する場合,\begin{enumerate}\item検索項目間に類似性が高いものがあり,利用者が区別しにくく,\item検索条件や検索項目が多くなると,利用者は選択操作が煩わしくなり,\end{enumerate}\noindent結果として選択ミスを生じ,満足のゆく結果が得られないとされる.これは,利用者が認知した手話表現の手指動作特徴を再生し,検索条件に設定する場合に,不必要な検索条件までも指定してしまう点に原因があるといえる.一方,認知された外界の情報を,ある表現形式(表象)から別の表現形式に変換することを,一般に,コーディング(符号化)と呼ぶ.また,視覚的な特性を持つ「視覚的コード」と言語的な特性を持つ「言語的コード」を重要視する「二重コード説」によると,写真などの視覚情報を記憶する場合に,視覚的コーディングに加え,「赤い色をした車」のように言語的コーディングも同時に行われているとされる\cite{Ohsima1986}.さらに,単語は文字(あるいは音素)の組み合わせで構成されるが,例えば,(1)「キ」を提示した後で,それは「キ」あるいは「シ」だったのかを質問した場合と,(2)「テンキ」を提示した後で,それは「テンキ(天気)」あるいは「テンシ(天使)」だったのかを質問した場合とでは,(2)の方が成績が良いとされ,文字の弁別が単語という文脈内で規定された方がより正確に記憶するとされる「単語(文脈)優位性効果\cite{Reicher1969}」が知られている.これら認知科学の成果を手話単語の検索問題に当てはめて考えてみると,人間が手指動作表現を認知する場合,「両手を左右に動かす」というように,言語文として言語的コーディングを行い記憶しているとすれば,記憶された言語的コード,すなわち,手指動作特徴を記憶した際の文脈環境を保持する言語文そのものを検索キーとするアプローチが考えられる.本論文では,検索条件を細かく指定する従来の方法とは異なり,手話単語の手指動作特徴を日本語文で記述した手指動作記述文を検索条件とみなし,辞書にある類似の手指動作記述文を類似検索し,検索結果に対応付けられている日本語ラベルを提示する方法を提案する.本手法の特徴は,手話単語の手指動作特徴間の類似性を手指動作記述文間の類似性と捉え,入力された手指動作記述文と辞書に格納された手指動作記述文との類似度を計算する点にある.すなわち,「{\bf手話単語の検索問題を文献検索問題と捉えたアプローチ}」といえる.また,この手指動作記述文は,一般に,市販の手話辞典に記載されており,手話の学習者の多くが,慣れ親しんでいる文形式と捉えることができる.なお,本提案手法に関連する研究として,翻訳支援を目的とした対訳用例の類似検索に関する研究が幾つか報告されている\cite[など]{NakamuraNaoto1989,SumitaEiichiro1991,SatoSatoshi1993,TanakaHideki1999}.これらにおいては,文間の類似度の計算に用いる照合要素として,文字を対象とする方式と単語を対象とする方式に大別することができる.また,これらの要素間の照合戦略としては,出現順序を考慮しながら共有要素を計算する方式(以後,順序保存と略記する.)と,出現順序を考慮しない計算方式(以後,順序無視と略記する.)に大別することができる.ここでは,照合要素が文字列と単語列という違いはあるが,順序無視と順序保存の照合戦略を用いた代表的な2つの手法について概説する.\cite{SatoSatoshi1993}は文字の連続性に着目した文間の類似性を基準に,「最適照合検索」として,順序保存を採用した検索システム(CTM1)\cite{SatoSatoshi1992}と順序無視を採用した(CTM2)の検索効率を比較し,ほぼ同等であるが順序無視の方が若干優位としている.一方,\cite{TanakaHideki1999}は,放送ニュース文の単語列を対象に,AND検索に順序保存の制約条件を加え,長文に対する効果的な用例検索法を提案し,順序保存の方が優位としている.なお,両者とも類似性を計る指標として,語順(あるいは文字の出現順序)を考慮するアプローチの重要性を指摘している.このことは,文構造の類似性を表層情報として得られる文形式(単語の配列順序)の類似性を文間の類似度に加味することの意義を示唆している.以下,2章で,手指動作記述文の特徴について述べ,3章では,手指動作記述文間の類似度と手話単語の検索方法について述べ,4章で,提案手法の妥当性を検証するために行った実験結果を示す.5章では,実験により明らかとなった問題点について議論し,今後の課題について述べる.最後に,6章で,まとめを行う. | |
V20N04-01 | 近年,新聞やWeb上のブログだけではなく,ツイートや音声対話ログなど様々な分野のテキスト情報を利用することが可能である.これらの多様なテキストから欲しい情報を抽出する検索技術や,有益な情報のみを自動で抽出・分析するテキストマイニング技術では,表現の違いに頑健な意味を軸にした情報抽出が求められている.たとえば,お客様の声を分析するコールセンタマイニング(e.g.,那須川2001)では,下記のa,bの表現を,「同義である」と正しく認識・集計する必要がある.\eenumsentence{\itemメモリを\underline{消費している}\itemメモリを\underline{食っている}}\eenumsentence{\itemキーボードが\underline{壊れた}\itemキーボードが\underline{故障した}}検索においても,「キーボード壊れた」で検索した際に,「キーボード故障した」が含まれているテキストも表示されれば,よりユーザの意図を理解した検索が行えると考えられる.テキストマイニングのようなユーザの声の抽出・分析において重要となるのは,「消費している」,「壊れた」などといった述部である.述部は,文情報の核を表しており,商品の評判(e.g.,満足している)や苦情(e.g.,壊れた,使いにくい),ユーザの経験(e.g.,堪能した)や要望(e.g.,直してほしい)などを表す.しかし,あらゆる分野,文体のテキストを対象とした場合,述部の多様性が顕著になる.たとえば,「正常な動作が損なわれる」という出来事を表現する場合,新聞などフォーマルな文書では「故障する」と表現されることが多いが,ブログなどインフォーマルな文書では「壊れる」と表現されることが多い\footnote{2007年の毎日新聞では,「故障する」と「壊れる」の出現頻度の比が「1:2.5」である.一方,2007年4月のブログでは「故障する」と「壊れる」の出現頻度の比が「1:42」であり,「壊れる」と「故障する」は意味が完全に1対1対応するわけではないものの,出現頻度の比がテキストによって大きく異なる.}.テキストの種類により同じ出来事でも異なる文字列で表現されるため,異なる分野のテキストを統合した情報抽出や,テキストマイニングを行う場合は,述部の同義性を計算機で正しく認識して分析しなくてはいけない.述部の同義性を計算機で識別することができれば,テキストマイニングなどにおいて,同義表現を正しくまとめ上げ,高精度に集計・分析を行うことが可能となる.また,検索技術においては,表現が異なるが同じことを表しているテキストを拾い上げることができ,再現率の向上が期待できる.本稿では,日本語の述部に焦点を置き,異なる2つの述部が同義か否かを判別する述部の同義判定手法を提案する.既存の手法では,単一のリソースにのみ依存しているために,まとめ上げられる述部の数が少ないという再現率の問題や,異なる意味のものまで誤ってまとめ上げてしまうという精度の問題がある.そこで本稿では,述部の言語的構造を分析し,同義述部の認識という観点で必要な「述部の語義(辞書定義文)」,「抽象的な意味属性(用言属性)」,「文脈(分布類似度)」,「時制・否定・モダリティ(機能表現)」といった言語情報を複数の言語リソースから抽出することで,精度と再現率の双方のバランスをとった述部のまとめ上げを行う.なお,本稿では「消費/し/て/いる」などの「内容語+機能表現」を述部と定義し,「メモリを‐消費している」と言った「項‐述部」を単位として述部の同義判定を行う.本稿の構成は次のとおりである.2節では,関連研究とその問題点について論じる.3節では,述部の言語構造について論じる.4節では,本稿の提案手法である複数の言語的特徴を用いた同義判定について述べる.5節では,同義述部コーパスについて述べる.6節,7節では述部の同義判定実験とその考察を行う.8節は結論である. | |
V05N02-01 | 直接翻訳方式は普通の変換翻訳方式で行なっている構文解析や意味解析の部分を省略あるいは簡素化でき,類似性のある言語間の翻訳によく用いられていた.現在,知られているほとんどの日韓,韓日翻訳システムが直接翻訳方式を採用しているのも両言語の類似性を活かすためである.最近,構文解析分野や意味解析分野など,言語処理技術の全般的な発達とコンピュータのハードウェア性能が向上した時点で直接翻訳方式を用いるのは,翻訳に必要な膨大な情報の損失とつながり,比較的多くの翻訳情報が得られる変換方式や多言語間の翻訳ができる中間言語方式を勧奨しているが(長尾真1996),日韓機械翻訳においては翻訳に必要な情報があまり多くない.(金泰錫1991)によると,実際になんの情報もなく両国語の単語を1:1に対応させた場合にもある程度の理解できる訳語が出来上がったと報告しており,我々はもう少しの追加情報を用いれば,相当な品質の訳語が生成できると期待している.最近,このような類似性を用いた日韓直接翻訳システムが商用化し始めた.最初の商用システムは1983年,FUJITSUと韓国のKAISTが共通に開発したATLAS−J/Kであり,その後,多くの商用システムが続々登場した.日韓機械翻訳システムの代表的な商用システムには日本の高電社が開発した“j−Seoul”および日立情報ネットワークが開発した“HICOM/MT”などが挙げられる.また韓国でもユニ−ソフトが開発した“5徑博士”や創信コンピュータの“ハングルがな”などが市販されている.しかし,(崔杞鮮1996)によると,これらのシステムは訳語の品質が満足できる程度まで至らず,形態素解析,多義性,対訳語選定,品詞判定,未登録単語の処理などの部分でまだ多くの問題点を持っていると報告している.日韓直接翻訳には大きく分けて(1){\bf多義性処理},(2){\bf述部の様相および活用処理}が問題と残っている(金政仁1996).(李義東1989;金政仁1992;EunJaKim1993;朴哲済1997)は(1)問題の先行研究であり,相当の成果を上げたが,より良い結果を目指して現在も多義性解消のための研究が活発に進行されつつある.(2)問題の先行研究として(李義東1990)は,日本語述部の様相情報に文法的な意味を付与して処理する手法を提案した.まず,日本語述部での様相情報の意味から韓国語述部の生成に適する意味に変換する.そのとき,意味省略,意味転移,語順調整を行ない,意味対応テーブルを作る.意味対応テーブルには日本語述部を構成する様相情報たちからすべての組み合わせを取り出し,日韓述部の意味対応ペアとして記述する.だから,この手法は様相情報の組み合わせに依存するので意味対応ペアの数が多くなる短所を持つ.そして,(金泰錫1992;金政仁1996)は韓国語の述部の様相情報および活用形態を前後単語との意味接続関係によってあらかじめテーブル形式に用意して翻訳を行なう翻訳テーブル方式を提案した.しかし,この方式は,両国語間の活用語の対応ルールが作成しにくいことを前提とし,複雑な活用規則を考慮せず,表層語を1:1に対応させる宣言的な処理を選んでいる.そして,表層語が1:nに対応するときは1:1の関係を作るため,前後単語との接続規則や形態が異なるn個の韓国語の表層語を辞書に用意しなければならない.また,様相情報や活用形態を区分せず,一度に処理するので異形態の対訳語の数が相対的に増える問題があった.ここで,本稿では,韓国語述部を構成する広範囲な様相情報を,抽象的で意味記号的な意味資質に表現した後,テーブル化した様相テーブルを用いた両国語の述部処理を提案する.様相テーブルは様相情報の意味を表わす意味記号,韓国語表層語,活性化チェックフィールドで構成する.様相テーブルは日韓述部翻訳のPIVOTのような役割を担当し,述部生成のとき,韓国語表層語は様相テーブルから取り出す.そして,様相テーブルの様相資質から韓国語表層語を対応させた後,表層語の結合処理で音韻調和処理,音韻縮約処理,分かち書きを行ない,自然な述部を生成する.すなわち,様相テーブルは述部情報らの組み合わせに依存しないので,(李義東1990)の意味対応テーブルより簡潔な表記ができる.また,(金泰錫1992;金政仁1996)では一遍に行なった述部の様相情報処理や活用処理を分離して処理する.本システムは(EunJaKim1993,朴哲済1997)の変換過程をそのまま用いており,述部に生じる多義はすでに解消されているものとし,本稿では意味が決まった様相情報から述部の自然な生成を目標とする.そして,本稿でのハングルに対する発音はYaleローマ字表記法に基づいて表記する. | |
V07N05-04 | label{sec:introduction}本稿では、人手で記述された文法及び統計情報を用いて日本語の係り受け関係を求める手法について述べる。特に、文法とヒューリスティクスにより文節の係り先の候補を絞った時に構成することができる新しいモデルを提案し、それにより高い係り受けの精度(文節正解率88.6$\%$)が得られることを示す。我々のグループでは、何らかの意味表現を構成できるような高機能な構文解析器を実現することを最終目標とし、HPSG\cite{PollardSag94}の枠組みに基づいた文法を作成している。現状では意味表現の構成こそできていないが、新聞や雑誌などの実世界の文章の殆どに対して構文木を出力できる、被覆率の高い日本語文法SLUNG\cite{Mitsuishi98}を開発した。しかしながら、文法的に可能な構造を列挙するだけでは、曖昧性が大きいため、実用に耐えない。また、今後の課題である意味構造の自動学習のためにも、曖昧性の解消が要求される。本研究では、文法を用いた構文解析の結果の曖昧性解消を目的として、文節単位の係り受け解析によって、最も可能性の高い統語構造を選択できるようにする。また、係り受け解析を行う際に文法を用いることが精度の向上に寄与している。係り受け解析は以下のような手順でなされる。\begin{itemize}\itemまず、文法SLUNGで構文解析し、各文節の係り先の候補を、文法が許す文節に絞る。\item文法により絞った係り先候補が4つ以上存在する場合、それを係り元から見て(1)最も近い文節、(2)二番目に近い文節、(3)最も遠い文節の3つに制限する。これは、上記の三文節のいずれかが正解となる場合が98.6$\%$を占めるという観察に基づいている。この制限により、以下で考える統計モデルにおいて、係り先の候補は常に3つ以下であるとみなせる\footnote{候補が1つの場合は、係り先をその文節に決定できるため、候補が2つまたは3つの時にのみ確率を計算する。}。\item係り元文節がそれぞれの候補に係る確率を、{\bf3つ組/4つ組モデル}を用いて求める。このモデルは、係り元の文節と、2つまたは3つの係り先候補の全てを同時に考慮するという特徴があり、最大エントロピー法\cite{Berger96}を用いて推定される。\item文法が出力するそれぞれの部分木(文節間の係り受けに相当する)に上記の統計値を割り当てて、最も高い優先度が割り当てられた文全体の構文木が選択される。\end{itemize}本研究で用いるモデルと他の研究でのモデルの違いについてであるが、従来の統計モデル\cite{Uchimoto99}\cite{Haruno98}\cite{Fujio99}では、係り元文節$i$・係り先文節$j$に対して、係り元文節の属性$\Phi_i$及び係り先文節の属性$\Psi_{i,j}$(係り元と係り先の文節間の属性を含む)を前件として、係り受けが成立する(Tが出力される)条件付き確率\begin{equation}P(i\rightarrowj)=P(\mbox{T}\mid\Phi_i,\Psi_{i,j})\label{equ:naive0}\end{equation}\refstepcounter{enums}を求めていた。これに対し、本研究で用いる3つ組/4つ組モデルでは、係り元文節$i$の候補$t_n$に関して、$i$の属性を$\Phi_i$、$t_k$及び$i$と$t_k$の文節間の属性を$\Psi_{i,t_k}$とするとき、$\Phi_i$と全ての$t_k$に対する$\Psi_{i,t_k}$を前件として、$n$番目の候補が選ばれる条件付き確率\begin{eqnarray}P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2})&(候補が2つのとき:n=1,2)\label{equ:triplet0}\refstepcounter{enums}\\P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2},\Psi_{i,t_3})&(候補が3つのとき:n=1,2,3)\label{equ:quadruplet0}\end{eqnarray}\refstepcounter{enums}を求める。上記の(\ref{equ:triplet0}),~(\ref{equ:quadruplet0})式をそれぞれ3つ組モデル・4つ組モデルと呼ぶ。なお、ここでの$n$番目の候補とは、表層文中で係り元から数えて$n$番目の文節ではなく、文法的に許される係り先のうち2つまたは3つに絞ったものの中で、係り元から$n$番目に近い文節である。\ref{sec:related}~節では、従来の統計方式の日本語係り受け解析に関する関連研究、本研究で用いる日本語文法、及び最大エントロピー法を紹介する。\ref{sec:ourmodel}~節では、上記で概観した我々の手法を順に詳しく述べる。\ref{sec:result}~節の実験結果で、対照実験の結果とともに3つ組/4つ組モデルの有効性を示す。そして、\ref{sec:observations}~節で、具体的なパラメータの観察や他研究との比較を行う。 | |
V11N05-07 | 言い換えに関する研究\cite{sato_ronbun_iikae,murata_paraphrase_true,inui_iikae_tutorial,murata_paraphrase_nlp2004}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであり,近年,その重要性は多くの研究者の認めるところとなっている.また,これと同時に,言い換え表現の自動獲得の研究も重要視されつつある.本稿では言い換え表現の一種である同義表現を自動獲得する研究について述べる.本稿では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することで,同義表現を抽出する.例えば,「あべこべ」という語の定義文を考えてみる.大辞林では,\begin{quote}「順序・位置などの関係がさかさまに入れかわっていること。」\end{quote}となっており,岩波国語辞典では,\begin{quote}「順序・位置・関係がひっくり返っていること。」\end{quote}となっている.これらの定義文は同じ「あべこべ」という語の定義文であるため,同義な内容を記述した文であり同義なテキスト対と見ることができる.これを照合すれば,\begin{quote}「さかさまに入れかわっている」\hspace*{1cm}$\Updownarrow$「ひっくり返っている」\end{quote}といった同義な表現対が得られる.本稿の手法は大雑把には以上のとおりで,このように同義な内容を記述する複数の辞書の定義文を照合することで同義表現を獲得するのである.本研究の価値をあらかじめ整理すると以下のようになる.\begin{itemize}\item同義なテキスト対から同義表現を抽出する研究はいくつかあるが,複数の辞書の定義文を同義なテキスト対として,そこから同義表現を獲得する先行研究はない.本稿は,複数の辞書の定義文からどのくらいの同義表現を抽出できるかの目安を与えるものとなる.\item本稿では,同義表現の抽出に役に立つ,新しい尺度を提案する.本稿の実験で,この尺度がいくつかの比較手法よりも有効であることを確認する.この尺度は,他の同義表現の抽出の研究にも利用できる有用なものである.\end{itemize} | |
V09N02-01 | \subsection{研究背景}今日ある検索システムは,索引語を用いたキーワード検索が主流となっている.検索漏れを防ぐために,キーワードに指定した語の同意語や関連語も自動的に検索対象にするといった工夫が凝らされているものも幾つか存在する.しかし,一般にキーワードによる絞込みは難しく,検索結果からまさに必要とする情報に絞り込むには,その内容についての説明文などを検索要求と比べる必要があった.例えば,判例検索システムで今担当している事件に似ている状況で起こった過去の事件の判例を調査するとき,当該事件を記述する適切な5つ位のキーワードを指定してand検索をしても,該当して表示される判例数は100件程度になり,この中から当該事件の当事者の関係や諸事実の時間的・因果的関係などが最も類似している事件の判例を人手で探すには大変な労力が必要となる.検索システムが有能な秘書のように,必要な情報の説明を文章で与えるだけで検索対象の要約などの解説文の内容を考慮して最適な情報を掲示してくれると,ユーザの検索労力は大幅に軽減される.この検索を支援する研究のポイントは,2つの文章に記述されている内容の類似性を如何に機械的に計算するかである.本研究の詳細に入る前に,文章の類似性を評価することを要素として含むこれまでの研究についてまず述べることにする.篠原\cite{sinohara}らは,一文ごとの要約を行う目的で,コーパスから類似した文を検索しこれとの対比において省略可能な格要素を認定する手法を提案している.ここでの文章間の類似性の計算方法は,2文間に共通する述語列を求め,これに係っている格要素について,それらが名詞である場合,その意味属性を元に対応関係を,同一関係,同義関係,類似関係に分け,類似度の算出式を設定し,総合的な文間の類似度を求めている.ただし,ここでは,格が表層格であり,文間の関係や述語間(用言間)の格(時間的順序,論理関係,条件関係など)についての類似性は考慮されていない.黒橋ら\cite{kurohashi}は,係り受け構造解析における並列構造の範囲の同定において,キー文節前後の文節列同士の類似性を,自立語の一致,自立語の品詞の一致,自立語の意味的類似度,付属語の一致を元に計算し,類似度最大の文節列の組を求める方法を提案している.宇津呂ら\cite{uturo}は,用例間の類似度を用いて構造化された用例空間中を効率よく探索することにより,全用例探索を行わずに類似用例を高速に検索する手法について提案している.ここでは類似度テンプレートを用いた用例高速化に重きを置いている.この研究においては文章間の類似度を対応する語同士の表層格の対応および格要素の名詞の意味カテゴリの類似度をもとに計算している.兵藤ら\cite{hyoudo}は,表層的情報のみを用いて安定的かつ高精度に構文解析を行う骨格構造解析を用いて辞典の8万用例文について構文付きコーパスを作成し,これを対象として類似用例文検索システムを構築している.ここでの類似用例文検索では,入力された検索対象文を構文解析し,自立語,意味分類コード,機能語を対象とした索引表を作成し,それを用いて検索の絞込みを行い,次に索引表にコード化されている構造コード中の文節番号,係り受け文節番号,文節カテゴリコードを参照して用例文との構造一致があるかを検査している.田中ら\cite{tanaka}は,用例提示型の日英翻訳支援システムにおける検索手法として入力キーワードの語順とその出現位置の感覚を考慮した手法を提案している.検索手法としては,入力文字列を形態素解析して自立語を抽出し,これをキーワードとしAND検索を行っている.この際,AND検索だけでは不必要な文を拾いやすいので語順と変異を考慮した検索を行っている.これにより構文解析した結果と同じような効果を得ることができるとしている.村田ら\cite{murata}は,自然言語でかかれた知識データと質問文を,類似度に基づいて照合することにより,全自動で解を取り出すシステムを開発している.ここでの文間の類似度計算には,自立語同士の類似度については基本的にIDFの値を用い,同義語の場合はEDRの概念辞書などを用い,質問側の文節が疑問詞などを含む文節の場合は意味制約や選考に従った類似性を用いている.日本語文章を検索インタフェースに用いている研究には,京都大学総合情報メディアセンターで公開されているUnixの利用方法に関する藤井ら\cite{kyoudai}のアドバイスシステムがある.このシステムは質問文の構文木と解説文の条件部の構文木を比較し,一致点に対して重みを付けて合計することによって類似度を求め,最も類似する解説文の結果部を表示するというものである.一方,法律文を対象とした自然言語処理の研究としては,平松ら\cite{hiramatu}の要件効果構造に基づいた統語構造の解析や高尾ら\cite{takao}の並列構造の解析の研究がある.前者では,法律文の論理構造を的確に捉えるために,条文中の要件・効果などを表す表層要素を特定し,これを用いた制限言語モデルを単一化文法として記述し,これに基づく法律文の構文解析を行い,解析木と素性構造を出力している.後者では,前者の研究を受けて,係り受け解析時の並列構造の同定において,経験則に基づく制約を用いて間違った構文構造を除去し,次に並列要素の長さ,表層的・深層的類似性などに基づく評価を行い,並列構造の範囲を推定している.なお,ここでの並列構造の類似性判定においては黒橋らの方法を用いている.このように,これまでの研究における文の類似性は,述語を中心として,それに構文的に係っている語についてその表層格と意味素を基に計算しているものである.これらでは,2つの文章中の対応する語間の論理的や時系列的やその他の意味的な関係による結合の類似性については比較の対象外になっており,本研究の目的とする文章に記述されている事実の内容的な類似性を評価するには十分でない.\subsection{研究目的}本研究では,意味解析を用いた情報検索の一手法を提案する.具体的には「判例」を検索対象とし,自然言語で記述された「問い合わせ文」を検索質問とした判例検索システムJCare(JudicialCAseREtrieverbasedonsemanticgraphmatching)を開発する.判例検索は社会的にも有用性が高いので,これを検索対象とした.本システムでは,自然語意味解析により「問い合わせ文」と「判例」の双方を意味グラフに展開し,意味的に同型な部分グラフを求めることで類似度を算出する.これにより両者の内容にまで踏み込んだ検索を実現する.検索対象は「判例」の中でも「交通事故関連の判例」に絞り込む.「交通事故」の判例には,被告,原告,被害者などの``当事者''が存在し,それぞれの``当事者''が相互に「関係」を持つという特徴がある.この特徴により,照合時における比較基準が設定しやすくなる. | |
V16N04-03 | 経済のグローバル化に伴い,英語が言わば国際共通語となった現在,日本人の英語によるコミュニケーション能力を向上させることは,国際的なビジネスの場などでの発表や交渉・議論を効果的に行うためには極めて重要な課題である.このような能力を向上させるためには,従来型の学習方法に加え,情報通信技術を応用したeラーニングによる学習の効率化が有効な解決策となりうる.ここで,英語によるコミュニケーションに必要な能力について注目する.英語による円滑なコミュニケーションを行なうには,以下に述べる種々の英語に関連した能力を総合的に向上させる必要がある.\begin{itemize}\item英語表現を正確に聞き取る能力\item英語表現を正確に発音する能力\item語順や単語を適切に選んで英語文を構成する能力(英語表現能力)\end{itemize}これらの個別の能力の内,発音と聴き取りに関しては,既にeラーニングシステムの研究開発が進んでおり,一定の成果を上げている\cite{hirose_2001,yamada_ica_2004}.その反面,英語表現能力を扱ったeラーニングシステムに関する取り組みは少ない.そこで本研究では,英語学習者コーパスの開発と英語表現能力を扱うeラーニングシステムの研究開発について取り組んでいる.英語表現能力をeラーニングにおいて扱う場合,従来の授業型の英語学習で教師により行なわれている「学習者の習熟度に適合した課題の選択」と「翻訳誤りの指摘とその訂正」という機能を自動化する必要がある.これらの2つの機能を自動化する上で,まず,的確に英語表現能力を自動測定する手法の確立が必要である.英語表現能力の測定においては,課題文を提示してその英訳文の適切性を評価する手法が一般的であるが,正解訳は一意に決定できないことから,学習者の作成した英文の評価は人手による主観的な評価によるのが現状である.英訳文の質を客観的に評価する手法については,機械翻訳の分野で,課題文に対する複数の正解訳文(以下参照訳と略称する)を予め用意しておき,編集距離や単語$n$グラムの一致度を用いて評価する手法が検討されている.このような評価手法は,統計的翻訳システムの評価においては,主観評価値と一定の相関を示すことが実証されているが\cite{papineni-EtAl:2002:ACL},その反面,ルールベースなどの機械翻訳の方式によっては,必ずしも適切な指標とはならないことも指摘されている\cite{burch_eacl_2006}.このような手法が英語学習者の翻訳文の評価においても有効であれば,英語表現能力の測定を自動化することが可能となる.この点を検証するためには,様々な英語能力を持つ英語学習者が翻訳した英訳文が必要である.現状の大規模学習者コーパスとしては,NICTJLEコーパス\cite{izumi}や,JEFLLコーパス\cite{JEFLL}があるが,これらは比較的自由度の高い会話やエッセイ方式によりデータ収集が行われているため,同一日本語文に対する複数の被験者による英訳文や,英語母語話者が翻訳した複数種類の英訳文を集積していないなど,英語表現能力の自動評価の検討を行うには,必ずしも十分満足できるものではない.そのため,まず,学習者の英語表現能力を自動評価する手法に対する検討のための基盤となる学習者コーパスを開発した.これは,学習者の英語表現能力の客観的評価手法の研究を行うための基盤として,TOEICスコアで表現される様々なレベルの英語能力を持つ英語学習者が同一の日本語文を翻訳した英訳文のデータを収集したコーパスである.本論文では,まず,この学習者コーパスの収集方法に関する説明を行なう.次に,収集したコーパスの基本的な統計量について示すとともに,被験者による英訳難易度,英訳の平均文長,英訳の平均単語長などの特徴量と,TOEICスコアとの関係に関する分析を行なう.最後に,本コーパスの訳質自動測定への応用について述べる.以下,\ref{sec:corpus}では開発した学習者コーパスの収集方法について述べ,\ref{sec:analysis}では,コーパスの基礎的な分析結果について述べる.\ref{sec:apli}では,本コーパスの訳質自動測定への応用について述べ,最後に,\ref{sec:conc}では全体をまとめる. | |
V10N04-04 | 自然言語には一つの意味内容を指し示すのに様々な表現を用いることができるという特徴がある.これは同義異表記の問題と呼ばれ,多くのアプリケーションの高精度化を妨げる原因の一つである.例えば情報検索や質疑応答といったアプリケーションでは,検索質問と文書が異なる表現を用いて記述されている場合,それらが同じ意味内容を表しているかどうかを判定する必要がある.また,計算機上で正しく推論を行うためには,推論ルールと実際の文の間の表現の違いを吸収しなくてはならない.そこで,言い換えという「同じ意味内容を表す複数の表現を結びつける変換」を自然言語処理の基礎技術として使い,この問題を解決しようとする考え方が現われてきた\cite{Sato99,Sato01,Kurohashi01}.このような背景から,近年では言い換え処理の重要性が認識されはじめ,さかんに研究が行われている.テキストを平易に言い換えてユーザの読解補助を行うアプリケーションが注目を集めていることも,言い換え研究が盛んに行われている一つの理由である\cite{Takahashi01}.近年の計算機やネットワークの発達によって,我々は膨大な電子テキストにアクセスすることが可能となったが,一方で年少者やノンネイティブなど,その恩恵を十分に受けることができないユーザが存在している.そのため,このようなアプリケーションへのニーズは今後増加し,言い換え処理の重要性も高まると考えられる. | |
V03N01-02 | 複合名詞は名詞を結合することによって数限りなく生成できるので,全てを辞書に登録することは不可能である.したがって,辞書に登録されている名詞の組み合わせとして複合名詞を解析する手法が必要である.そのためには,複合名詞をそれを構成している名詞に分割し(複合名詞の形態素解析),名詞間の係り受け構造を同定しなくてはならない.例として,「歩行者通路」という複合名詞をとりあげる.「歩行者通路」の分割可能性として少なくとも「歩行/者/通路」,「歩/行者/通路」の2通りが考えられる.さらに,前者の分割の結果に対して[[歩行,者],通路]と[歩行,[者,通路]]の2通りの係り受け構造が,後者については[[歩,行者],通路]と[歩,[行者,通路]]の2通りの係り受け構造が考えられる.このなかから正しい係り受け構造[[歩行,者],通路]を選択しなくてはならない.日本語のように語と語の間に区切り記号のない言語では,まず,複合名詞の分割が困難である.また,複合名詞は名詞の並びによって構成されているので,品詞などの統語的な手係りが少なく,係り受け構造の解析も困難である.したがって何らかの意味的な情報を用いることが必要である.そのために方法として,名詞をいくつかの意味的なクラスに分け,それらのクラスの間の係り受け関係に関する情報を用いて複合名詞の構造を解析することが考えられる.たとえば,宮崎らは,語が表す概念に関する知識,概念間の係り受けに関する規則を人手で記述し,これらを用いて複合名詞の係り受け構造を解析する方法を提案している~\cite{miyazaki:84:a,miyazaki:93:a}.AI関係の新聞記事のリード文に現れる複合名詞で未定義語を含まない語167語の解析に適用し精度94.6\%で解析できている\footnote{この結果はNTT通信研究所が独自に作成した辞書や知識ベースを用いて得た結果であるので,一般に手に入る辞書や知識ベースを用いて得た結果と簡単に比較できない.}\cite{miyazaki:93:a}.この方法では,係り受けが成立する名詞意味属性の組を表に記述し,その表を用いて係り受けを解析している.この表からは,係り受けが可能か不可能かを知ることはできるが,複数の係り受けの可能性がある場合にどちらが尤もらしいかといったことを知ることはできない.対象領域を拡大したり語彙を増やした場合,このような成立/不成立のような2値の情報で正しく係り受け解析が行なえるか検討の余地がある\footnote{現在のバージョンでは構造的曖昧性のある複合名詞に対して候補それぞれに評価値をつける方向で拡張がなされている.}.また,高い精度を得るためには,係り受け規則や名詞意味属性の体系を領域にあわせて調整することが不可欠である.このように人手で知識を記述する場合には以下の問題がある.\begin{itemize}\item新しい言語現象に対応するための規則や知識の拡張や保守が容易でない.\item領域ごとに知識を用意するのはコストが高い.\end{itemize}これらの問題を解決するためには,複数の候補に何らかの優先度をつける方法と自動的に知識を獲得する方法の2つが必要である.そのような方法を研究しているものに,藤崎らの研究がある~\cite{nishino:88:a,takeda:87:a}.藤崎らは,複合名詞の分割にHMMモデルを用い,係り受け構造を解析するために統計的クラスタリングによって得た語のクラスと確率付き文脈自由文法を用いている.平均語長4.2文字の漢字複合語を精度73\%で解析している.以下の問題点がある.\begin{itemize}\item複合名詞の分割を統計的な方法(HMM)のみで行なっているため,存在しない語を含む分割結果が得られることがある.\item統計的に得た語のクラスが,語の直観的な意味的クラスを反映しないことがあるので構造解析の結果を用いて意味解析を行なう場合に障害になる.\item複合語は1文字語と2文字語から構成されると仮定している.\end{itemize}藤崎らの方法は複合名詞の統計的な性質のみを用いている点が問題である.語の意味クラスについては,すでに言語学者が作成した意味分類辞書(たとえば,分類語彙表~\cite{hayashi:66:a})がある.このような知識も積極的に利用すべきである.本論文では,既存の意味分類辞書とコーパスから自動的に抽出した名詞間の意味的共起情報を用いて複合名詞の係り受け構造を解析する方法を提案する.Churchらは,大量の語と語の共起データから相互情報量を計算することで意味的なつながりの程度を評価できることを示している~\cite{church:91:a}.この場合の問題は,正しい共起データを大量に獲得することが困難なことである.統語的,意味的曖昧性が解消されていない共起データでは正しい統計情報は獲得できない.自動的に大量の正しい共起データを獲得する方法を考えなくてはならない.本論文では,大量の共起情報をコーパスから高い精度で自動的に獲得するために4文字漢字語を利用する.まず,4文字漢字語16万語から意味クラスの共起データを抽出した.抽出した共起データから統計的に名詞間の意味的関係の強さを計算する.そのための尺度として相互情報量を基にした評価尺度を提案する.この尺度と複合名詞の構造に関するヒューリスティクス,機械可読辞書から得られる言語知識を用いて複合名詞を解析する.評価のために新聞や用語集から抽出した漢字複合名詞を解析し,平均語長5.5文字の漢字複合名詞を約78\%の精度で解析できた.実際の文章では,漢字複合名詞の平均語長は約4.2文字であることを考慮すると,我々の方法による係り受け構造の解析精度は約93\%と推定される.本論文の構成は以下の通りである.\ref{sec:acq}章で共起データの獲得方法について,\ref{sec:anl}章で複合名詞の解析方法について述べる.\ref{sec:rsl}章で提案した方法を用いて複合名詞を解析した実験と結果について述べる.\ref{sec:imp}章では\ref{sec:rsl}章での結果に基づきヒューリスティクス導入による解析方法の改良について述べ,\ref{sec:rsl2}章で改良した方法による解析結果について述べる. | |
V09N03-05 | 計算機による要約の試みでは,文章中の重要と思われる部分を抽出することを中心に研究されてきた.しかし,要約は人間の高度に知的な作業であるため,計算機により重要と認定された部分を列挙するだけではなく,要約文章の結束性,構成などの点で課題があることが認識されてきている\cite{Namba00,Mani99revise}.人間が作成するような要約は,結束性,構成などが適切で,要点を適正に網羅しているといった高度な要件を満たしていると考えられるが,このような要件を計算機で満たすためにはどのような要素技術が必要であるかが明らかになっているとはいえない.我々は,このような現状に対し,どのような要約文章なら読みやすく適切であるかを,人間が実際にどのような要約を作成するかを調査した上で,計算機でも実現が可能なレベルの要約操作に細分化し,整理することが必要であると考える.しかし,人間が行う要約の操作はそれほど単純ではなく,表層的な表現の言い換え,構文的言い換えといった様々なレベルの操作が考えられる.このような多様なレベルの言い換えを考慮した上で,要約文が生成される元になった文を,要約元文章から選びだす作業は,人手により対応づけするしかないようにもみえるが,人手による対応付けは,客観的な対応基準や作業コストの両面からみて問題がある.このような流れの中で,例えば,Marcu\cite{MarcuPair}は論文とそのアブストラクトのように,要約とその元文章が組になっている文章集合から,要約の各文が要約元文章のどの文から生成されたかを,コサイン類似度を用いて自動的に対応付ける手法を提案している.また,日本語の自動要約の研究では加藤らがDPマッチングの手法を用いて,局所的な要約知識を自動的に抽出する研究を行っている\cite{kato99}.彼らの研究では,放送原稿とその要約を使用しているため,要約文書は元文原文の残存率が高く,語や文節レベルの言い換えといった局所的な要約知識の獲得に限定して効果をあげているが,人間が行う,より一般的な要約作成に必要な知識獲得を行うためには,その手法の拡張が必要となってくる.本研究では,このような背景から,要約元文章中における文の統語的な依存関係を手がかりに要約文との文・文節対応付けを行い,その結果に基づいて要約操作に関連する言い換え事例を収集し,要約で行われている文再構成操作がどのようなものであるかを調査した. | |
V20N02-04 | 文書分類においてNaiveBayes(NB)を利用するのは極めて一般的である.しかし,多項モデルを用いたNB分類器では,クラス間の文書数に大きなばらつきがある場合に,大きく性能が下がるという欠点があった.そのため,\citeA{Rennie}は「クラスに属する文書」ではなく「クラスに属さない文書」,つまり「補集合」を用いることによりNBの欠点を緩和したComplementNaiveBayes(CNB)を提唱した.しかし,CNBはNBと同じ式,つまり事後確率最大化の式から導くことができない.そこで我々は,事後確率最大化の式から導くことのできるNegationNaiveBayes(NNB)を提案し,その性質を他のBayesianアプローチと比較した.その結果,クラスごとの単語数(トークン数)が少なく,なおかつクラス間の文書数に大きなばらつきがある場合には分類正解率がNB,CNBをカイ二乗検定で有意に上回ること,また,これらの条件が特に十分に当てはまる場合には,事前確率を無視したCNBも同検定で有意に上回ることを示す.また,NNBは,Bayes手法以外の手法であるサポートベクターマシン(SVM)よりも,時に優れた結果を示した.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節でBayes手法のテキスト分類の関連研究について紹介する.\ref{Sec:NegationNaiveBayesの導出}節では提案手法であるNNBの導出について述べる.\ref{Sec:実験}節では本研究で用いたデータと実験方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる. | |
V15N05-07 | \label{sec:introduction}近年,国際化の流れの中で,多くの言語を頻繁に切り替えて入力することが多くなってきている.例えば,自然言語処理の分野では,``namedentity''や``chunking''といった英語の表現が,そのままの形で日本語文中に出現することも多い.このように同一{\text}内に複数の言語が混在する{\text}を,本論文では「多言語{\text}」と呼ぶ.言語入力には,ユーザーが入力したキー列を,その言語での文字列に変換するために,{\eminputmethodengine}(IME)と呼ばれるソフトウェアが欠かせない.例えば,日本語のローマ字入力のIMEは,ユーザが``tagengo''というキー列を入力した時,これを``多言語''という文字列に変換する役割を担う.IMEは,日本語や中国語など,漢字への変換に限定されたものとして捉えられることも多いが,本論文では,以後,単純に,キー列から文字列への変換を担うソフトウェアという意味で用いる.従来は,入力する言語を切り替えるたびに,このIMEをユーザが手動で切り替えていた.しかし,これでは,言語を切り替える際のユーザの負担が大きく,特に言語を切り替え忘れた時に打ち直しの問題が生じていた.そこで,本論文では,{\tes}の切り替えを自動化してユーザーの負担を軽減する,{\name}という多言語入力システムを提案する\cite{typeanyijcnlp}.このシステムは,ユーザーのキー入力と{\tes}を仲介し,ユーザーが入力しているキー列から言語を自動的に判別して,{\tes}を切り替える.これによって,{\tes}の切り替えによるユーザーの負担が,大幅に減少すると見込まれる. | |
V04N01-06 | 日本語文章における代名詞などの代用表現を含む名詞の指す対象が何であるかを把握することは,対話システムや高品質の機械翻訳システムを実現するために必要である.そこで,我々は用例,表層表現,主題・焦点などの情報を用いて名詞の指示対象を推定する研究を行なった.普通の名詞の指示対象の推定方法はすでに文献\cite{murata_noun_nlp}で述べた.本稿では指示詞・代名詞・ゼロ代名詞の指示対象の推定方法について説明する.代名詞などの指示対象を推定する研究として過去にさまざまなものがあるが\cite{Tanaka1}\cite{kameyama1}\cite{yamamura92_ieice}\cite{takada1}\cite{nakaiwa},これらの研究に対して本研究の新しさは主に次のようなものである.\begin{itemize}\item従来の研究では代名詞などの指示対象の推定の際に意味的制約として意味素性が用いられてきたが,本研究では対照実験を通じて用例を意味素性と同様に用いることができることを示す.一般に意味素性つきの格フレームの方が用例つきの格フレームよりも作成コストがかかるので,用例を意味素性と同様に用いることができることがわかるだけでも有益である.\item連体詞形態指示詞の推定には意味的制約として「AのB」の用例を用いる.\item「この」が代行指示になりにくいという性質を利用して解析を行なう.\item指示詞による後方照応を扱っている.\item物語文中の会話文章の話し手と聞き手を推定することで,その会話文章中の代名詞の指示対象を推定する.\end{itemize}論文の構成は以下の通りである.\ref{wakugumi}節では,本研究の指示対象を推定する枠組について説明する.次に,その枠組で用いる規則について,\ref{sec:sijisi_ana}節,\ref{sec:pro_ana}節,\ref{sec:zero_ana}節で指示詞,代名詞,ゼロ代名詞の順に説明する.\ref{sec:jikken}節では,これらの規則を実際に用いて行なった実験とその考察を述べる.\ref{sec:owari}節で本研究の結論を述べる. | |
V15N01-02 | 手話はろう者の間で生まれ広がった自然言語であり,ろう者にとっての第一言語である\cite{Yonekawa2002}.そのため手話による情報アクセスやサービスの提供はろう者の社会参加にとって重要であるが,手話通訳者は不足しており,病院や職場,学校などで手話通訳を必要とする人々に十分な通訳サービスが提供されているとはいえない.これらを支援するシステムの実現が期待されている.音声言語では機械翻訳をはじめとして,言語活動を支援するさまざまの自然言語処理技術が研究開発されている.ところが,手話はこれまで自然言語処理の領域では研究対象としてほとんど取り上げられていない.手話には広く一般に受け入れられた文字による表現(テキスト表現)が存在しないため,これまでのテキストを対象とした自然言語処理技術が手話に対して適用できないことがその要因としてあげられる.そこで我々は,手話言語をテキストとして書き留める方法について検討し,「日本語援用手話表記法」を提案した\cite{Matsumoto2006,Matsumoto2005c,Ikeda2006,Matsumoto2004a,Matsumoto2004b,Matsumoto2005a,Matsumoto2005b}.本論文では,この表記法で表現された手話を目的言語とする日本語—手話機械翻訳システムについて述べる.手話テキストから手話動画像等への変換(音声言語におけるテキスト音声合成に相当する)もまた大きな課題であるが,本論文ではこの課題は扱わない.手話のテキスト表現を導入したことにより,手話テキストから手話動画像等への変換を,テキスト音声合成の問題と同じように,本研究とは別の一つの大きな問題領域としてとらえることができる.このように音声言語の翻訳の場合と同じように翻訳過程を二つの領域にモジュール化することによって,手話の翻訳の問題が過度に複雑になることを避けることができる.\nocite{Matsumoto2005a,Matsumoto2005b,Matsumoto2004a,Matsumoto2004b}\ref{sec:JSL}節で述べるように日本の手話には日本手話と日本語対応手話および中間型手話がある.これらの間には必ずしも明確な境界があるわけではないが,本論文で対象として念頭に置いているのは日本手話である.日本手話は日本語の影響を強く受けているものの,日本語とは別の言語である.語彙は日本語と1対1に対応しておらず,文法的にも独自の体系を持っている.例えば,日本語において内容語に後置される機能語や前置される修飾語が,手話では独立した単語としてではなく,内容語を表す手の動きや位置の変化(内容語の語形変化),顔の表情などによって表現される場合がある.また,動詞の主語・目的語・道具などの内容語も,動詞を表す手の形や動きの変化として動詞の中に組み込まれる場合がある.したがって,日本手話への翻訳は単に日本語の単語を手話単語に置き換えるだけでは不十分であり,外国語への翻訳と同等の仕組みが必要となる.本研究では,日本語から種々の言語への翻訳を目的として開発が進められているパターン変換型機械翻訳エンジンjaw\cite{Shie2004}を核とし,手話に対する計算機内部での表現構造,日本語から手話表現構造への翻訳規則,表現構造から手話テキストへの線状化関数を与えることにより,日本語から手話への機械翻訳システムjaw/SLの作成を試みた.以下,2節では目的言語である手話と,我々が定義した手話表記法の概略を述べる.3節で機械翻訳エンジンjawの翻訳方式について,4節で手話を目的言語とした翻訳システムjaw/SLについて述べ,5節で翻訳実験と現状の問題点について述べる. | |
V13N03-01 | 近年,統計ベース翻訳\cite{Brown1993}や用例ベース翻訳\cite{Nagao1984}など大量のテキストを用いた翻訳手法(コーパスベース翻訳)が注目されている.我々は,用例ベース翻訳に焦点を当て研究を行っている.用例ベース翻訳の基本的なアイデアは,入力文の各部分に対して\textbf{類似}している用例を選択し,それらを組み合わせて翻訳を行うことである.ここでいう\textbf{類似}とは,通常,入力文とできるかぎり大きく一致していればいるほど(一致する単語数または文節数が多いほど)よいと考えられてきた.これは,用例が大きくなればなるほど,より大きなコンテキストを扱うことになり,正確な訳につながるからである.そのため,これまでの用例ベース翻訳は,大きな用例を優先する指標/基準を用いて用例を選択してきた.一方,統計ベース翻訳は,翻訳確率を緻密に計算するため,基本的には,翻訳用例を小さな語/句単位に分解して学習を行う.もちろん,最近の統計ベース翻訳では,より大きな単位を取り扱う試みも行われている.例えば,Och\cite{Och1999}等は,アライメントテンプレートという単位を導入し,語列をまとめて学習した.また,他にも多くの統計翻訳研究が語よりも大きな単位を学習に取り込む試みを行っている\cite{Koehn2003,Watanabe2003}.しかし,入力文とできる限り大きく一致した用例を用いる用例ベース翻訳と比べると,あらかじめ翻訳単位を設定する統計ベース翻訳の扱う単位は依然として小さいと言える.簡単に言うと,統計ベース翻訳と用例ベース翻訳は,以下の2点で異なる.\begin{enumerate}\item用例ベース翻訳は,用例のサイズ(一致する単語数または文節数)を重視している.統計ベース翻訳は用例の頻度を重視している.\item用例ベース翻訳は,経験則による指標/基準にもとづいて動作している.統計ベース翻訳は確率的に定式化されている.\end{enumerate}本研究では,用例ベース翻訳の問題は,(2)経験則による指標/基準を用いている点だと考える.経験則による指標/基準は,調整や修正が困難であり,また,アルゴリズムが不透明になる恐れがある.そこで,本研究では,用例ベース翻訳を定式化するために,用例ベース翻訳のための確率モデルを提案する.提案する翻訳モデルは,統計ベースのそれとは異なり,語や句単位の小さな単位から,文全体まで,あらゆるサイズをカバーした翻訳確率を計算する.この枠組みの上では,大きなサイズの用例は安定した翻訳先を伴うため,高い翻訳確率を持つと考えられる.したがって,翻訳確率が高い用例を選ぶことで,自然と用例のサイズを考慮した用例の選択が可能となる.また,提案する翻訳確率は容易に拡張可能であり,用例と入力文のコンテキストの類似度を確率モデルに取り込むことも可能である.実験の結果,提案手法は,従来の経験則に基づいた翻訳システムよりも僅かに高い精度を得て,用例ベース翻訳の透明性の高いモデル化を実現することに成功したので報告する.提案手法は言語ペアを特定しないが,本稿は日英翻訳方向で説明し,実験を行った.本稿の構成は,以下のとおりである.2章では,提案するモデルの基本的アイデアについて説明する.3章では,アルゴリズムについて述べる.4章では,実験について報告する.5章では,関連研究を紹介し,6章に結論を述べる. | |
V18N04-02 | \label{sec:1}\modified{言語解析器の作成時,タグ付きコーパスを用いて構造推定のための機械学習器を訓練する.しかし,そのコーパスはどのくらい一貫性をもってタグ付けられるものだろうか.一貫性のないコーパスを用いて評価を行うとその評価は信頼できないものとなる.また,一貫性のないコーパスから訓練すると,頑健な学習モデルを利用していたとしても解析器の性能は悪くなる.}本稿では,人間による日本語係り受け関係タグ付け作業に関して,\modified{どのくらい一貫性をもって正しくタグ付け可能かを評価する}新しいゲームアプリケーション``shWiiFitReduceDependencyParsing''(図\ref{fig:swfrdp})を提案する.ゲームのプレーヤーはWiiバランスボードの上に立ち,係り受け解析対象の文を読み,画面中央の文節対に対して\mmodified{2}種類の判断「係らない(SHIFT)」もしくは「係る(REDUCE)」の判断を選択し,体重を左右のどちらかに加重する.\modified{係り受け構造のタグ付けにおける非一貫性は次の3つに由来すると考える.1つ目は,係り受け構造が一意に決まるが,作業者が誤るもの.2つ目は,複数の可能な正しい構造に対して,基準により一意に決めているが,作業者が基準を踏襲できなかったもの.3つめは,複数の可能な正しい構造に対して,基準などが決められていないもの.}\begin{figure}[b]\begin{minipage}[t]{205pt}\includegraphics{18-4ia920f1.eps}\caption{shWiiFitReduceDependencyParsing}\label{fig:swfrdp}\end{minipage}\hfill\raisebox{26pt}[0pt][0pt]{\begin{minipage}[t]{205pt}\includegraphics{18-4ia920f2.eps}\caption{ExampleSentences}\label{fig:examplesentences}\end{minipage}}\end{figure}\modified{ここでは,1つめの非一貫性つまりタグ付けの正確性について検討する.}このゲームアプリケーションを用いて,埋め込み構造に基づくガーデンパス文(図\ref{fig:examplesentences})のタグ付け困難性を評価する心理言語実験を行う.対象となる文は統語的制約のみによりその係り受け構造が一意に決定できる.しかしながら,被験者は動詞の選択選好性によるバイアスにより係り受け構造付与を誤ってしまう傾向があり,本稿ではその傾向を定量的に調査する.また,同じガーデンパス文を,各種係り受け解析器で解析し,現在の係り受け解析モデルの弱点について分析する.人間の統語解析処理については,自己ペースリーディング法・質問法・視線検出法などの手法により心理言語学の分野で調査されてきた\cite{Mazuka1997a,Tokimoto04}.しかしながら,これらの心理言語学で用いられてきた手法は,読む速度を計測したり,文の意味を質問により事後確認したりする手法であり,コーパスに対する係り受けのタグ付けに直接寄与しない.一方,提案する手法では人間の係り受け判断をより直接的に評価し,また\modified{体重加重分布}に基づいて解析速度を追跡することができる.以下,\ref{sec:2}節では日本語係り受け解析手法について概説する.\ref{sec:3}節では用いたガーデンパス文について説明する.\ref{sec:4}節では人間による係り受け解析の調査に用いたゲームについて紹介する.\ref{sec:5}節では実験結果と考察を示し,\ref{sec:6}節にまとめと今後の展開について示す. | |
V26N04-03 | ニューラル機械翻訳は従来手法の句に基づく統計的機械翻訳に比べて,文法的に流暢な翻訳を出力できる.しかし訳抜けや過剰翻訳などの問題が指摘されており,翻訳精度に改善の余地がある\cite{koehn-knowles:2017:NMT}.このような問題に対して句に基づく統計的機械翻訳では,対訳辞書を用いてデコーダ制約\cite{koehn-EtAl:2007:PosterDemo}を実装することにより翻訳精度を改善していたが,ニューラル機械翻訳では対訳辞書を有効活用するアプローチが明らかではない.ニューラル機械翻訳において対訳辞書を使用して翻訳精度を向上させる先行研究として,モデル訓練時に対訳辞書を用いて単語翻訳確率にバイアスをかける手法\cite{arthur-neubig-nakamura:2016:EMNLP2016}があげられる.この手法ではモデルの訓練が対訳辞書に依存しているため,辞書の更新や変更は容易ではない.本稿ではニューラル機械翻訳システムの翻訳精度の向上を目的として,単語報酬モデルにより対訳辞書をニューラル機械翻訳に適用する手法を提案する\footnote{本稿はIWSLT$2018$で発表した論文\cite{takebayashi}に比較実験と分析を追加したものである.}.単語報酬モデルは正しい翻訳文に出現すると期待される単語集合を辞書引きにより入力文から予測する``目的単語予測''と,得られた単語集合を用いてそれらの出力確率を調整する``単語報酬付加''から構成される.提案手法は訓練済みの翻訳モデルのデコーダにおいて,予測された単語の翻訳確率に一定の増分を加えるのみであるため,既存の翻訳モデルを再訓練する必要がない.このため,本手法は既存の訓練済みニューラル機械翻訳システムのデコーダに実装することで機能し,また辞書の更新や変更も容易に行える利点がある.日英と英日方向の翻訳実験を行った結果,対訳辞書を用いた単語報酬モデルは翻訳精度を有意に改善できることを示した.また,テスト時のデコーディングの際に既存手法\cite{arthur-neubig-nakamura:2016:EMNLP2016}と組み合わせると,それぞれを単一で用いたときよりも翻訳精度が向上することを実験的に示した.本稿の構成は以下の通りである.まず$2$章で提案手法が前提とする注意機構付きのエンコーダ・デコーダモデルについて説明したのち,$3$章で提案手法である単語報酬モデルについて述べる.$4$章では実験設定を述べ,$5$章では対訳辞書の性質が提案手法に与える影響を検証するため,シミュレーションによる辞書を用いた実験を行う.$6$章では実際に利用可能な対訳辞書を用いて提案手法の性能を示し,$7$章では既存手法との比較を行う.$8$章では関連研究について議論し,$9$章で本稿のまとめとする. | |
V27N01-02 | \label{intro}近年,文書情報に対する情報要求は複雑化,高度化しており,そのような要求を満たすアクセス技術として質問応答が注目されている.質問応答とは,利用者の自然言語による質問に対して情報源となる文書集合から解答そのものを抽出する技術であり,複雑高度な情報要求を自然言語で表現できる点に特徴がある.しかしながら,従来の質問応答に関する研究では,「アメリカの大統領は誰ですか?」といった比較的簡単な形式の質問を扱うものが多く,質問の確信に至るまでの背景や経緯を複数文にわたって説明したりする現実世界の質問状況とは異なる場合がある.そのような現実世界における質問に対する質問応答を目的とした取り組みは,TRECのLiveQA~\cite{trec}やNTCIRのQALab~\cite{shibuki2014,shibuki2016,shibuki2017},「ロボットは東大に入れるか」プロジェクト(以下,「東ロボプロジェクト」)\cite{torobo}などで盛んに行われている.現実世界における質問のように,質問の背景を複数文にわたって説明する記述や,解答が複数文を含む文章となるような質問の例として,大学入試問題が挙げられる.大学入試問題には大学入試センター試験と二次試験があり,二次試験の世界史分野には数十字から数百字以内で解答を記述する論述問題が含まれていることがある.QALabでは,世界史の大学入試問題を対象としており,特に二次試験の論述問題への自動解答が挑戦的な課題として設定されている.先行研究\cite{sakamoto-system}では,情報要求の存在する抽出型の複数文書要約としてこの課題を位置づけ,教科書や用語集等の知識源から句点区切りの単位でテキストを抽出・整列して論述問題に解答する質問応答システムを提案している.知識源に使用される用語集は見出し語と語釈部に分かれて構成されており,語釈部には見出し語が明示されていないため,語釈部を句点で区切った文(以下,「語釈文」という)だけをそのまま解答文に含めてしまうと,何について述べているかわからない文になってしまう.また,論述問題において解答に含めなければならない指定語句が見出し語となっている場合,語釈文だけから解答を構成すると大きく減点されてしまう.このような背景から,上述の既存システムでは,用語集の語釈文を解答の材料として抽出した際には,見出し語を文頭に主題として付け加えた文を生成し,これを解答の一部とする手法を提案している.しかしながら,この手法によって生成された文は,文法的に誤りがある場合や,解答文に適していない場合がある\footnote{\ref{problem}節に後述する.}.これらの問題を解消するためには,\begin{enumerate}\renewcommand{\theenumi}{(\roman{enumi})}\renewcommand{\labelenumi}{(\roman{enumi})}\item見出し語を語釈文に埋め込むことができるか,否か,すなわち,語釈文の述語の省略された項をゼロ代名詞とみなした場合,見出し語がその先行詞となるか,否かを判定する.見出し語を埋め込むことができる,すなわち,見出し語が先行詞となるのであれば,見出し語の表層格を推定する.\label{enum:one-0}\item問題文ならびに論述文章の前後の文等から何を主題にするかを決定し,それに応じて格交替などを行い論述問題の解答の一部とする.\label{enum:two-0}\end{enumerate}ことが必要である.本稿では,\ref{enum:one-0}に掲げた課題を解決するために,語釈文中の各動詞に着目し,それが見出し語に照応するゼロ代名詞を持つか否かを判定するとともに,持つ場合にはその表層格を推定する手法を検討する.\ref{enum:two-0}については,今後の課題とする.また,提案手法は,教師あり学習に基づく手法となっているため,訓練事例を必要とするが,用語集の形式をした事例は数に限りがあり,特定の表層格で埋め込む場合の事例が限られていることが観察された.そのため,訓練事例数が少ないという問題を解消するために,擬似訓練事例の自動生成を行う.本稿の以降の章では次の内容を述べる.2章では既存の世界史論述解答システムの概要とその問題点を述べ,本研究で提案する解決策を述べる.3章では世界史用語集に関して予備調査を行った結果について述べる.4章では本研究の関連研究について述べる.5章では見出し語に照応するゼロ代名詞とその表層格を推定する手法を提案する.6章では実験結果を報告し,7章で考察,8章でまとめとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{27-1ia2f1.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1}\label{fg:2008question}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f2.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1に対する解答例}\label{fg:2008answer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第2章%%%%%%%%%% | |
V21N02-07 | \label{sec:introduction}国立国語研究所を中心に開発された『現代日本語書き言葉均衡コーパス(BCCWJ)』\cite{前川2008}\footnote{現代日本語書き言葉均衡コーパスhttp://www.ninjal.ac.jp/corpus\_center/bccwj/}は17万ファイル以上のXML文書に短単位・長単位の二つのレベルの形態論情報アノテーションを施した,1億語を超える大規模なコーパスである.コーパスの構築期間は5年以上に及んだ.BCCWJの形態論情報付与には,新たに開発された電子化辞書UniDic\footnote{UniDichttp://sourceforge.jp/projects/unidic/}が用いられたが,UniDicの見出し語はBCCWJ構築と並行して整備されたため,コーパスの形態論情報の修正とUniDicの見出し語登録は整合性を保ちつつ同時並行で進める必要があった.また,BCCWJの形態論情報アノテーションでは全体で98\%以上の高い精度が求められ,これを実現するためには自動解析結果に対して人手による修正を施して精度を高める必要があった.1億語規模のコーパスにこうしたアノテーションを施すためには,作業体制も大きな規模になり,コーパスのアノテーターは最大で20人ほどが同時にフルタイムで作業に当たった.作業は国語研究所の内部だけでなく,外注業者等の研究所外部からも行われる必要があった.こうした作業環境を構築するためにはアノテーションを支援するコーパス管理システムが必要とされる.このような大規模なコーパスへのアノテーションを支えるため,筆者らは,形態論情報がタグ付けされた大規模なコーパスと辞書の見出し語のデータベースとを関連付け,整合性を保ちつつ,国語研究所の内部だけでなく,研究所外部からも多くの作業者が同時に編集していくことを可能にするシステムを新たに開発した.本論文は,この「形態論情報データベース」の設計・実装・運用について論ずる.本研究の貢献は,1億語規模の日本語コーパスに形態論情報アノテーションを施し,修正することを可能にした点にある.従来のコーパス管理ツールではこれが実現できなかったが,本システムによりBCCWJの形態論情報アノテーションが可能になり,BCCWJを構成する全てのデータは本システムのデータベースから出力された.また,本システムによってUniDicの見出し語のデータ整備を支援し,UniDicの見出し語と対応付けられた人手修正済みの学習用コーパスを提供した.これにより,形態素解析辞書UniDicの開発に貢献した.このシステムは,現在では「日本語歴史コーパス」{\kern-0.5zw}\footnote{日本語歴史コーパスhttp://www.ninjal.ac.jp/corpus\_center/chj/}の構築にも活用されている.以下,2章で本論文の前提となる情報について確認した後,3章で関連する先行事例との比較を行う.そのうえで,4章で本システムの概要を説明し,5章で辞書データベース部,6章でコーパスデータベース部の設計・実装・運用について述べる.また,7章で辞書とコーパスを修正するためのクライアントツールについて説明する. | |
V02N03-01 | 言語表現には万人に共通する対象のあり方がそのまま表現されているわけでなく,対象のあり方が話者の認識(対象の見方,捉え方,話者の感情・意志・判断などの対象に立ち向かう話者の心的状況)を通して表現されている(言語が対象−認識−表現からなる過程的構造をもつ)ことは,国語学者・時枝誠記によって提唱された言語過程説\cite{Tokieda1941,Tokieda1950}として知られている.時枝の言語過程説によれば,言語表現は以下のように主体的表現(辞)と客体的表現(詞)に分けられ,文は,辞が詞を重層的に包み込んだ入れ子型構造(図1参照)で表される.\begin{itemize}\item\underline{主体的表現}:話者の主観的な感情・要求・意志・判断などを直接的に表現したものであり,日本語では助詞・助動詞(陳述を表す零記号,すなわち図1に示すように肯定判断を表すが,表現としては省略された助動詞を含む)・感動詞・接続詞・陳述副詞で表される.\item\underline{客体的表現}:話者が対象を概念化して捉えた表現で,日本語では名詞・動詞・形容詞・副詞・連体詞・接辞で表される.主観的な感情・意志などであっても,それが話者の対象として捉えられたものであれば概念化し,客体的表現として表される.\end{itemize}時枝の言語過程説,およびそれに基づく日本語文法体系(時枝文法)を発展的に継承したのが三浦つとむである.三浦は,時枝が指摘した主体的表現と客体的表現の言語表現上の違いなどを継承しつつ,時枝が言語の意味を主体的意味作用(主体が対象を認識する仕方)として,話者の活動そのものに求めていたのを排し,意味は表現自体がもっている客観的な関係(言語規範によって表現に固定された対象と認識の関係,詳細は2章を参照のこと)であるとした関係意味論\footnote{対象,表現,話者などのような言語上の実体ではなく,それらの関係で意味を定義する考え方は状況意味論\cite{Barwise1983}と共通する点がある.しかし,状況意味論が「言語に関する社会的な約束事である言語規範に媒介された表現の意味」と「表現の置かれた(発話された)場の意味」とを区別せず,むしろ「場の表現」の側から意味を説明しているのに対して,三浦文法は両者を分けている.}\cite{Miura1977,Ikehara1991}を提唱し,それに基づく新しい日本語文法,三浦文法\cite{Miura1967a,Miura1967b,Miura1972,Miura1975,Miura1976}を提案している.三浦文法は,細部についての分析が及んでいない部分も多々ある未完成な文法であるが,従来の自然言語処理の研究では見逃されていた人間の認識機構を組み込んだより高度な自然言語処理系を実現するための新しい視点を与えてくれるものと期待される\cite{Ikehara1987,Ikehara1992,Miyazaki1992a,Miyazaki1992b}.そこで,上記のようなより高度な自然言語処理系を実現するための第一歩として,三浦文法に基づく日本語形態素処理系を実現することを目指し,三浦文法をベースに日本語の品詞の体系化を行い,規則の追加・修正が容易で拡張性に富む形態素処理用文法を構築した.本論文では,まず三浦文法の基本的な考え方について述べ,次にそれに基づき作成した日本語の品詞体系,および品詞分類基準を示すと共に,形態素処理用の新しい文法記述形式を提案する.さらにそれらの有効性を論じる.\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=63.5mm}\end{center}\vspace*{-0.2mm}\caption{時枝の入れ子型構造}\label{fig:tokieda}\end{figure}\begin{figure}\vspace*{-0.2mm}\begin{center}\epsfile{file=fig2.eps,width=56.0mm}\end{center}\vspace*{-0.2mm}\caption{言語過程説(三浦)の言語モデル}\label{fig:miura}\end{figure} | |
V09N04-02 | 本稿では,テキスト要約の自動評価手法について述べる.テキスト自動要約に関する研究は,テキスト中の表層的な情報から重要な箇所を判断し重要な部分のみを抽出するLuhn等,Edmundson等の研究\cite{H.P.Luhn.58,H.P.Edmundson.69}に始まり,現在も様々な方法が提案されている\cite{C.D.Paice.90,C.Aone.98}.ここ数年はインターネットの急速な普及に伴って,国内外での研究活動が非常に活発になっている\cite{M.Okumura.99J,I.Mani.00}.テキスト要約の研究において,評価の重要性は言うまでもない.最も信頼性が高いのは要約の経験者が直接要約を見て評価する方法であるが,コストが非常に大きいというデメリットがある.このためより低コストで効率の良い方法として,要約の経験者によって作成された要約を正解とし,正解との一致度を機械的に評価する方法が一般によく用いられる.しかし,要約は観点や戦略などの違いから,同じテキストに対しても複数の要約者から得られる結果は多様であることが知られている\cite{G.J.Rath.61,K.S.Jones.96,H.Jing.98,K.Saito.01J}.要約タスクにおいて唯一の理想的な要約が存在するという前提は現実には成り立たず,それゆえ唯一の正解に基づく評価では,対象の評価結果が正解との相性に影響され易いという問題がある.本稿では,このような従来法の問題点を踏まえ,複数の正解に基づく信頼性の高い評価法の提案を行なう.さらに,正解として用いる要約集合の満たすべき条件について,要約の品質と網羅性の観点から検討を試みる.提案手法は重要文抽出結果を評価することを前提に定式化されているが,手法の基本的アイデアや検討内容の多くはテキスト要約一般に共通するものである. | |
V06N03-04 | 係り受け解析は日本語文解析の基本的な方法として認識されている.日本語係り受けには,主に以下の特徴があるとされている\footnote{もちろん,例外は存在するが\cite{sshirai:jnlp98},その頻度は現在の解析精度を下回り,現状では無視して構わないと考える.つまり,これらの仮定の基に解析精度を向上させた後に,そのような例外に対し対処する手法を考えればよいのではないかと思う.また,(4)の特徴はあまり議論されてはいないが,我々が行なった人間に対する実験で90\%以上の割合で成立する事が確認された.}.我々はこれらの特徴を仮定として採用し,解析手法を作成した.\begin{itemize}\item[(1)]係り受けは前方から後方に向いている.(後方修飾)\item[(2)]係り受け関係は交差しない.(非交差条件)\item[(3)]係り要素は受け要素を一つだけ持つ.\item[(4)]ほとんどの場合,係り先決定には前方の文脈を必要としない.\end{itemize}このような特徴を仮定した場合,解析は文末から文頭に向けて行なえば効率良く解析ができると考えられる.以下に述べる二つの利点が考えられるためである.今,文節長Nの文の解析においてM+1番目の文節まで解析が終了していると仮定し,現在M番目の文節の係り先を決定しようとしているとする(M$<$N).まず,一つ目の利点は,M番目の文節の係り先は,すでに解析を終了しているM+1番目からN番目の文節のいずれかであるという事である.したがって,未解決な解析状態を積み上げておく必要はないため,チャートパーザーのように活性弧を不必要に多く作る必要はないし,一般的なLRパーザー等で利用されているようなスタックにそれまでの解析結果を積んで後の解析に依存させるという事をしなくて済む.別の利点は,M番目の文節の解析を開始する時点には,M+1番目からN番目の係り受け解析はなんらかの形式において終了しており,可能な係り先は,非交差条件を満足する文節だけに絞られるという事である.実験では,この絞り込みは50\%以下になり,非常に有効である.また,この論文で述べる統計的手法と文末からの解析手法を組み合せると,ビームサーチが非常に簡単に実現できる.ビームサーチは解析候補の数を絞りながら解析を進めていく手法である.ビーム幅は自由に設定でき,サーチのための格納領域はビーム幅と文長の積に比例したサイズしか必要としない.これまでにも,文末からの解析手法はルールベースの係り受け解析において利用されてきた.例えば\cite{fujita:ai88}.しかし,ルールベースの解析では,規則を人間が作成するため,網羅性,一貫性,ドメイン移植性という点で難がある.また,ルールベースでは優先度を組み入れる事が難しく,ヒューリスティックによる決定的な手法として利用せざるを得なかった.しかし,本論文で述べるように,文末から解析を行なうという手法と統計的解析を組み合せる事により解析速度を落す事なく,高い精度の係り受け解析を実現する事ができた.統計的な構文解析手法については,英語,日本語等言語によらず,色々な提案が80年代から数多くあり\cite{fujisaki:coling84}\cite{magerman:acl95}\cite{sekine:iwpt95}\cite{collins:acl97}\cite{ratnaparkhi:emnlp97}\cite{shirai:emnlp98}\cite{fujio:emnlp98}\cite{sekine:nlprs97}\cite{haruno:nlpsympo97}\cite{ehara:nlp98},現在,英語についてはRatnaparkhiのME(最大エントロピー法)を利用した解析が,精度,速度の両方の点で最も進んでいる手法の一つと考えられている.我々も統計的手法のツールとしてMEを利用する.次の節でMEの簡単な説明を行ない,その後,解析アルゴリズム,実験結果の説明を行なう. | |
V07N03-04 | 日本語とウイグル語は言語学上の区分において,共に膠着語に分類され,両言語の間には語順がほぼ同じであるなどの様々な構文的類似点が見られる.そのため,日本語--ウイグル語機械翻訳では,形態素解析が終了した段階で各単語を対応するウイグル語に置き換える,いわゆる逐語翻訳によって,ある程度の翻訳が可能となる\cite{MUHTAR}.ところで,学校文法をはじめとする多くの日本語文法では,文の中心的役割を果たす動詞が活用することを前提としている.しかし,ウイグル語の動詞は活用しないと考えられてきたため,両言語間の翻訳の際には,活用の有無の違いを考慮する必要があった.それに対して,\cite{MUHTAR}は推移グラフの利用を提案したが,実際の処理の際には扱いにくいという問題がある.一方,Bloch\cite{BLOCH}を源流とする音韻論に基づく文法は,活用を用いることなく日本語の動詞の語形変化を表現することが可能である.本論文では,それらの中でも,動詞の語形変化を体系的に記述することに成功している派生文法\cite{KIYOSE1}\cite{KIYOSE2}を使用する.派生文法は,日本語の膠着語としての性質に着目した文法であり,動詞の語形変化を語幹への接尾辞の接続として表現する.さらに,ウイグル語も同じ膠着語であるので,その語形変化も派生文法で記述可能であると考えられる.原言語である日本語と目標言語であるウイグル語の双方を共に派生文法で記述することができれば,その結果,両言語間の形態論的類似性がより明確になり,単純でかつ精度の高い機械翻訳の実現が期待できる.特に,本論文で扱う動詞句の翻訳においては,複雑な活用処理をすることなく,語幹と接尾辞をそれぞれ対応する訳語に置き換えることにより,翻訳が可能になると考えられる.そこで,本論文ではウイグル語の動詞句も派生文法に基づいて記述することにより,活用処理を行うことなく,簡潔にかつ体系的に日本語からウイグル語への動詞句の機械翻訳を実現する手法を提案する.膠着語間の機械翻訳に関する研究としては,日本語と韓国語との間の研究\cite{H_LEE1990}\cite{S_LEE1992}\cite{J_KIM1996_2}\cite{J_KIM1998}が多くなされている.それらでは,日本語および韓国語の動詞がともに活用することを前提に翻訳が行われているが,両言語において活用変化の仕方が異なる点が問題とされている.例えば,日本語の学校文法においては,活用形が未然形,連用形,終止形,連体形,仮定形,命令形の6つに分類されるが,これは日本語独自の分類であり,韓国語の活用形の分類とは一致しない.そのため,両言語の活用形の間で対応をとる必要があるが,日本語の連用形は文中における機能が多岐に渡るため,韓国語の活用形と1対1に対応させることは困難である.また,日本語の学校文法が用言の活用を五段活用および上下一段活用の2種類の規則活用とカ変およびサ変の不規則活用に分類しているのに対して,韓国語には種々の不規則動詞が存在し,その変化の仕方は日本語と異なる.そうした日本語と韓国語の比較については,文献\cite{J_KIM1996_2}が詳しい.そのため,これまでの日本語--韓国語機械翻訳の研究においては,日本語の語形変化の処理と韓国語の語形変化の処理を別々に行っている.それに対して本研究では,日本語およびウイグル語の動詞は共に活用しないとしているため,活用形の不一致は問題とならない.また,動詞句の形成には派生文法に基づく同一の規則を用いるため,日本語とウイグル語の語形生成を同じ規則で扱うことが可能である.また,日本語と韓国語との間の翻訳においては,もう一つの問題として様相表現の違いが指摘されてきた.これは,様相表現を表わす接尾辞の接続順序が日本語と韓国語で異なるために生じる問題であり,この問題を解決するために,意味接続関係によって記述された翻訳テーブルを使用する方式\cite{J_KIM1996_2}や,様相情報の意味をテーブル化し,PIVOTとして用いる方式\cite{J_KIM1998}などが提案されている.日本語とウイグル語では,様相表現を表す接尾辞の接続順序は同じであるため,そうした点も問題とはならない.しかし,日本語とウイグル語には,同じ意味役割を果していても,互いに品詞の異なる単語が存在する.そのため,それらの単語の翻訳においては,単純に置き換えただけでは不自然な翻訳文が生成される.本論文では,この問題はウイグル語の語形成の性質を利用することによって解決できることを示す.具体的には,日本語形態素解析の結果を逐語翻訳した後,ウイグル語単語の接続情報を用い,不自然な並びとなる単語列を他の訳語に置き換えることによって,より自然なウイグル語文を生成する.さらに,本研究では形態素解析システムMAJO\cite{OGAWA1999}を利用して日本語--ウイグル語機械翻訳システムを作成した.MAJOは派生文法に基づいて日本語の形態素解析を行うシステムである.MAJOの辞書は,本来,日本語単語とその品詞および意味情報の3項組で構成されているが,この機械翻訳システムでは,意味情報の代わりにウイグル語訳語を与え,日本語--ウイグル語対訳辞書として利用した.その結果,MAJOの出力結果は,そのまま日本語からウイグル語への逐語翻訳となっている.さらに,このMAJOの出力結果に前述の訳語置換を適用するモジュール,および,ウイグル語特有の性質に合わせて,最終的な出力文を整形するモジュールをそれぞれ作成した.このように,機械翻訳システムを独立のモジュールから構成する設計としたが,これにより派生文法で記述された他の膠着語との間の機械翻訳システムの実現にも応用可能であると考えられる.なお,本論文で使用する派生文法は音韻論的手法の一種であり,入力文を音素単位で解析するため,日本語の表記の一部にローマ字を用いる.また,ウイグル語の表記においても,計算機上で扱うときの簡便さから,本来のウイグル文字ではなく,そのローマ字表記を用いる.そこで,日本語とウイグル語との混同を避けるため,以下では,日本語の単語は「」,ウイグル語の単語は``''で囲んで区別する.本論文の構成は以下の通りである.まず2章では,学校文法に基づく日本語--ウイグル語逐語翻訳の例とその問題点を指摘する.3章と4章では,派生文法に基づいて日本語とウイグル語の動詞句をそれぞれ記述し,5章で派生文法に基づく日本語--ウイグル語逐語翻訳手法を示す.6章では,単純な逐語翻訳だけでは不自然な翻訳文が生成される問題を取り上げ,7章で,その問題に対する解決法である訳語置換表を提示する.また,8章で日本語--ウイグル語機械翻訳システムの実現について述べ,9章では,実験によるそのシステムの性能評価について述べる.10章は本論文のまとめである. | |
V21N05-02 | 本論文では,語義曖昧性解消(WordSenseDisambiguation,WSD)の領域適応に対して,共変量シフト下の学習を試みる.共変量シフト下の学習では確率密度比を重みとした重み付き学習を行うが,WSDのタスクでは算出される確率密度比が小さくなる傾向がある.ここではソース領域のコーパスとターゲット領域のコーパスとを合わせたコーパスをソース領域のコーパスと見なすことで,この問題に対処する.なお本手法はターゲット領域のデータにラベル付けしないため,教師なし領域適応手法に分類される.WSDは文中の多義語の語義を識別するタスクである.通常,あるコーパス$S$から対象単語の用例を取り出し,その用例中の対象単語の語義を付与した訓練データを作成し,そこからSVM等の分類器を学習することでWSDを解決する.ここで学習した分類器を適用する用例がコーパス$S$とは異なるコーパス$T$内のものである場合,学習した分類器の精度が悪い場合がある.これが領域適応の問題であり,自然言語処理ではWSD以外にも様々なタスクで問題となるため,近年,活発に研究されている\cite{da-book,mori,kamishima}.今,対象単語$w$の用例を${\bmx}$,$w$の語義の集合を$C$とする.${\bmx}$内の$w$の語義が$c\inC$である確率を$P(c|{\bmx})$とおくと,WSDは$\arg\max_{c\inC}P(c|{\bmx})$を求めることで解決できる.領域適応では,コーパス$S$(ソース領域)から得られた訓練データを用いて,$P(c|{\bmx})$を推定するので,得られるのは$S$上の条件付き分布$P_S(c|{\bmx})$であるが,識別の対象はコーパス$T$(ターゲット領域)内のデータであるため必要とされるのは$T$上の条件付き分布$P_T(c|{\bmx})$である.このため領域適応の問題は$P_S(c|{\bmx})\neP_T(c|{\bmx})$から生じているように見えるが,用例${\bmx}$がどのような領域で現れたとしても,その用例${\bmx}$内の対象単語$w$の語義が変化するとは考えづらい.このため$P_S(c|{\bmx})=P_T(c|{\bmx})$と考えられる.$P_S(c|{\bmx})=P_T(c|{\bmx})$が成立しているなら,$P_T(c|{\bmx})$の代わりに$P_S(c|{\bmx})$を用いて識別すればよいと思われるが,この場合,識別の精度が悪いことが多い.これは$P_S({\bmx})\neP_T({\bmx})$から生じている.$P_S(c|{\bmx})=P_T(c|{\bmx})$かつ$P_S({\bmx})\neP_T({\bmx})$という仮定は共変量シフトと呼ばれる\cite{sugiyama-book}.自然言語処理の多くの領域適応のタスクは共変量シフトが成立していると考えられる\cite{da-book}.ソース領域のコーパス$S$から得られる訓練データを$D=\{({\bmx_i},c_i)\}_{i=1}^N$とおく.一般に共変量シフト下の学習では確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$を重みとした以下の重み付き対数尤度を最大にするパラメータ${\bm\theta}$を求めることで,$P_T(c|{\bmx})$を構築する.\[\sum_{i=1}^{N}w({\bmx_i})\logP_T(c_i|{\bmx_i};{\bm\theta})\]共変量シフト下の学習の要は確率密度比$w({\bmx})$の算出であるが,その方法は大きく2つに分類できる.1つは$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求め,その比を求めることで$w({\bmx})$を求める方法である.もう1つは$w({\bmx})$を直接モデル化する方法である\cite{sugiyama-2010}.ただしどちらの方法をとっても,WSDの領域適応に対しては,求められる値が低くなる傾向がある.この問題に対しては,確率密度比を$p$乗($0<p<1$)したり\cite{sugiyama-2006-09-05},相対確率密度比\cite{yamada2011relative}を使うなど,求めた確率密度比を上方に修正する手法が存在する\footnote{これらの手法は正確には確率密度比を1に近づける手法であるが,多くの場合,確率密度比は1以下の値であるため,ここではこれらの手法も確率密度比を上方に修正する手法と呼ぶことにする.}.本論文では$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求める手法を用いる際に,ターゲット領域のコーパスとソース領域のコーパスを合わせたコーパスを,新たにソース領域のコーパス$S$と見なして確率密度比を求めることを提案する.提案手法は必ずしも確率密度比を上方に修正する訳ではないが,多くの場合,この処理により$P_S({\bmx})$の値が減少し,結果的に$w({\bmx})$の値が増加する.なお,本論文で利用する手法は,ターゲット領域のラベル付きデータを利用しないために,教師なし領域適応手法に属する.当然,ターゲット領域のラベル付きデータを利用する教師付き領域適応手法を用いる方が,WSDの識別精度は高くなる.しかし本論文では教師なし領域適応手法を扱う.理由は3つある.1つ目は,教師なし領域適応手法はラベル付けするコストがないという大きな長所があるからである.2つ目は,共変量シフト下の学習はターゲット領域のラベル付きデータを利用しない設定になっているからである.3つ目は,WSDの領域適応の場合,対象単語毎に領域間距離が異なり,コーパスの領域が異なっていても,領域適応の問題が生じていないケースも多いからである.領域適応の問題が生じている,いないの問題を考察していくには,ターゲット領域のラベル付きデータを利用しない教師なし領域適応手法の方が適している.実験では現代日本語書き言葉均衡コーパス(BalancedCorpusofContemporaryWrittenJapanese,BCCWJ\cite{bccwj})における3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を利用する.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれらのコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.すべての領域である程度の頻度が存在する多義語16単語を対象にして,WSDの領域適応の実験を行う.領域適応としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りが存在する.結果$16\times6=96$通りのWSDの領域適応の問題に対して実験を行った.その結果,提案手法による重み付けの効果を確認できた.また,従来手法はベースラインよりも低い値となったが,これは多くのWSDの教師なし領域適応では負の転移が生じていない,言い換えれば実際には領域適応の問題になっていないことから生じていると考えられる.考察では負の転移と重み付けとの関連,また負の転移と関連の深いMisleadingデータの存在と重み付けとの関連を中心に議論した. | |
V21N06-02 | 従来の紙版の国語辞典\footnote{国語辞典は,対象や規模により多種類のものが存在する.著者らが研究対象としているものは,小型国語辞典(6〜9万語収録)と呼ばれ,「現代生活に必要な語,使用頻度の高い語」の収録と記述とに重きがおかれているものである(柏野2009).}は紙幅の制約などから,用例の記述は必要最小限に厳選されていた.しかし,電子化編集が容易になり,国語辞典データ\footnote{『岩波国語辞典』(岩波書店)はCD-ROM版が市販され,さらに,電子化データ(岩波国語辞典第5版タグ付きコーパス2004)が研究用に公開されている(http://www.gsk.or.jp/catalog.html).}や種々のコーパスが活用できるようになった今,新たな「コーパスベース国語辞典」の構築が可能になった.ここで,「コーパスベース国語辞典」とは,従来の紙版の国語辞典の記述に加え,コーパス分析から得られる豊富な用例,そのほか言語のさまざまな辞書的情報を詳細に記述する,電子テキスト版の国語辞典のことである.紙幅によって制約されていた記述量の制限をなくし,辞書記述の充実をはかることがねらいである.そうした「コーパスベース国語辞典」は,人にも計算機にも有用性の高いものと期待される.しかし,単に情報を増やせばよいというものではなく,有用な情報を的確に整理して記述することが不可欠である.著者らはそのような観点から,その用例記述の際に見出し語のもつ文体的特徴を明記することにより,より利用価値の高い「コーパスベース国語辞典」を構築することを目指している.文体的特徴の記述は,語の理解を助け,文章作成時にはその語を用いる判断の指標になり得るため,作文指導や日本語教育,日本語生成処理といった観点からの期待も高い.従来の国語辞典では,文体的特徴として,「古語,古語的,古風,雅語,雅語的,文語,文語的,文章語,口語,俗語」などのように,位相と呼ばれる注記情報が付与されてきた\footnote{そのほか,使用域についてその語が用いられる専門分野を示すことが試みられている.}.本論文では,そのような注記が付与されるような語のうち,「古さ」を帯びながら現代語として用いられている語に着目する.本論文ではそのような語を「古風な語」と呼び,次の二点を満たすものと定義する.\begin{itemize}\item[(a)]「時代・歴史小説」を含めて現代で使用が見られる.\item[(b)]明治期以前,あるいは,戦前までの使用が見られる.\end{itemize}(a)は,現代ではほとんど使われなくなっている古語と区別するものである.(b)は「古風な語」の「古さ」の範囲を定めるものである.本論文では,現代語と古語との境と一般にされている明治期以前までを一つの区切りにする.また,戦前と戦後とで文体変化が大きいと考えられるため,明治期から戦前までという区切りも設ける.しかしながら,一般には,戦前までさかのぼらずとも,事物の入れ替わりや,流行の入れ替わりにより,減っていったもの,なくなっていったものに「古さ」を感じることは多い.例えば,「ポケベル」「黒電話」「ワープロ」「こたつ」などである.こういった,近年急速に古さを感じるようになっている一連の語の分析も辞書記述の一つの課題と考えるが,本論文で取り上げる「古風な語」は,戦前までさかのぼって「古さ」を捉えることとし,それ以外とは区別する.「古風な語」に注目する理由は,三点ある.一点目は,現代語の中で用いられる「古風な語」は少なくないにも関わらず,「古語」にまぎれ辞書記述に取り上げ損なってしまう危険性のあるものであること.二点目は,その「古風な語」には,文語の活用形をもつなど,その文法的な扱いに注意の必要なものがあること.三点目は,「古風」という文体的特徴を的確かつ,効果的に用いることができるよう,十分な用法説明が必要な語であるということ,である.「古風な語」には,例えば,「さ【然】」がある.これは,「状態・様子がそうだという意を表す語。」(『岩波国語辞典』第7版,岩波書店)であり,現代では,「さほど」「さまで」「さばかり」「さしも」「さも」…のように結合して用いられる.その一つ,「さもありなん」(そうなるのがもっともだ)は,「さも」+「あり」+文語助動詞「ぬ」の未然形「な」+文語助動詞「む」である「ん」,から成る連語である.枕草子(128段)に,「大口また、長さよりは口ひろければさもありなむ」と使われている.一方,国立国語研究所『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下,BCCWJと記す\footnote{BCCWJの詳細は,山崎(2009,2011),前川(2008,2013)を参照.})には,全体で34件の用例があり,いずれも,現代文脈での使用である.「まさか和久さんが指導員として復帰してるなんて思わなかったから。でも、\textbf{さもありなん}、という気もする。」(君塚良一(1950年代生まれ)/丹後達臣,『踊る大捜査線スペシャル』扶桑社,1998年)などである.同じように,「なきにしもあらず」「いわずもがな」「推して知るべし」…など,現代文脈で用いられる文語調の表現は他にもあり,BCCWJの現代文脈でそれぞれの用例を得ることができる.「古風な語」は,これまでにも現代日本語における特徴的な語として着目されてきた.実際,多くの国語辞典では,現代文脈で使われる古さを帯びている語については,「古語」とはせず,「古語的」「古風」「雅語」「文語」「文語的」といった注記が付されている.しかし,これらの注記を横断的に俯瞰することや,「古風な語」の使用実態とその辞書記述との関連を検討する試みは,これまで行われていなかった.以上の問題を解決するために,本論文では,まずは「古風な語」の調査語として,電子化版が市販されている『CD-ROM岩波日本語表現辞典—国語・漢字・類語—』(2002年)収録の『岩国』(第6版)に「古語的」「古風」と注記されている語を用い,現在刊行されている国語辞典で「古風な語」がどのように取り上げられているかを横断的に俯瞰する.次に,現代語のコーパスであるBCCWJに収録されている約3,000万語分の書籍テキストを用いて,その使用実態を分析し(柏野,奥村2010,2011),それに基づき,文脈の特徴や用例を『コーパスベース国語辞典』に記述する方法を提案し,その有用性を論じる. | |
V06N03-06 | label{sec:intro}計算機上の文書データが増大するにつれ,膨大なデータの中からユーザの求める文書を効率よく索き出す文書検索の重要性が高まっている.文書検索では,ユーザが情報要求を検索要求として表現する.検索システムは,検索要求の内容と各文書の内容との類似度を計算し,値の高い順に文書を並べて表示する.この類似度は,一般に検索要求内のタームとマッチするタームの文書中の重要度を基に計算される.各タームの重要度は,「ある文書に多く出現し,文書集合全体ではあまり出現しないタームほど,その文書中で重要なタームである」という仮定に基づき,文書中の各タームの出現頻度($tf$)および,そのタームの文書集合全体での出現文書頻度の逆数($idf$)に基づいて計算する場合が多い\cite{salton:88b}.伝統的な検索手法では,文書全体を1つのまとまりとして考え,文書中の各タームの重要度を文書全体における重要度として計算する.しかし,実際の文書,特に長い文書は様々な話題を含むため,文書中の各部分によって話題が異なる場合も多く見られる.話題の違いは,その話題が述べられている部分に出現するタームの違いとして現われる.例えば,あるタームが文書中の一部分では頻出し,他の部分ではほとんど出現しないという状況もある.このような文書に対しては,文書全体を分割できない1つの単位とするのでは,各タームの重要度を計算するには充分ではなく,各話題を表わす部分を別々に扱って各タームの重要度を計算することが必要になる.こうした点から,最近の研究では,パッセージを用いた検索が注目されている\cite{Salton:93,Callan:94,Hearst:93,Knaus:94,Moffat:94,Kaszkiel:97,Melucci:98}.パッセージ検索は,文書全体を1つの単位とした検索とは異なり,パッセージという単位を使用して,検索要求と文書の類似度計算を行なう.各タームの重要度は,パッセージにおける重要度として計算する.そのため,パッセージ検索と文書全体での検索では,同じ検索要求と文書に対し,異なる単位によって類似度を計算することになり,統合的に用いることが可能である.パッセージ検索では,どのようにパッセージを決定するかという新たな問題が発生する.良いパッセージが決定できれば検索の精度も向上すると考えられるので,これは重要な問題である.パッセージとは一般的には文書中で連続した一部分のことを言うが,パッセージ検索においては,単に連続した一部分というだけでは充分ではなく,文書中で検索要求の内容と強く関連する内容を持つ意味的なまとまりを形成する必要がある.また,ユーザによって求める情報が異なり,その要求は検索要求によって反映されるという文書検索の性質から,文書検索におけるパッセージは,検索要求が入力された時点で検索要求に応じて動的に計算される方が望ましい.さらに,検索要求に関連する部分が全ての文書で一定のサイズであるということは考え難いことから,パッセージのサイズが検索要求や文書に応じて柔軟に設定されることも良いパッセージの決定につながると考えられる.本研究では検索要求が入力された時点で検索要求と各文書に応じて意味的なまとまりを持つパッセージを動的に決定する手法を示す.意味的なまとまりは,語彙的連鎖\cite{Morris:91}の情報を使用して獲得する.語彙的連鎖(lexicalchain)とは,語彙的結束性(lexicalcohesion)\cite{Halliday:76}と呼ばれる意味的な関連を持つ単語の連続のことをいう.語彙的連鎖は文書中に複数存在し,1つの連鎖の範囲内では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.そのため,文書内で検索要求と関連する話題が述べられている部分を語彙的連鎖の情報を使用して計算できるので,意味的にまとまったパッセージを得ることができる.本研究では,語彙的連鎖を使用することで検索要求に応じた良いパッセージが抽出でき,そのパッセージを使用することで検索精度が向上することを示す.また,上記の主張の有効性を調べるため,いくつかの実験を行う.以下,\ref{sec:passage}節ではパッセージ検索研究の概要について述べ,\ref{sec:lexchain}節では語彙的連鎖の計算方法について述べる.\ref{sec:ourpassage}節では本研究で提案する語彙的連鎖に基づくパッセージ検索手法について述べる.\ref{sec:experiment}節では実験に関して述べ,結果の考察をする. | |
V17N04-03 | 自然文検索や翻訳,レコメンデーションなどに使用可能な解析システムを実現した.2000年に(南1974;白井1995)を参考にして文節に強さを決めて,同じ強さの文節では,連用修飾格は直後の用言に,連体修飾格は直後の体言に係るという規則を用いて構文解析プログラムを開発した.しかし実際の構文構造は,文節を飛び越して係る場合が見受けられた.文法的な情報だけでは不十分だと考え,意味的な情報の導入を検討した結果,シソーラスを組み込んで用語同士の意味的な距離を測って,その距離によって係り先を決定する手法を開発した.この解析システムを自然文検索に用いる場合,同じ内容のことを言っているのにいくつもの書き方が許されていることからしばしば検索漏れが発生する.この異形式同内容に対応するため,用語の標準化,係り受けの正規化を実現した.さらに,翻訳などで使用することを考えて,文節意図(4.1で述べる)を把握しやすくするために係り受けとそれに続く付属語の並びをまとめた形で管理した.手作業で収集した辞書に手作業でいろいろな情報を付加して機能を実現するという方式で開発した.統計的な手法は用いていない.文末に試用サイトのURLを示したので試用していただきたい. | |
V12N06-02 | 自由に閲覧することができる電子化文書の数が膨大になるにつれ,その中からユーザが必要とする情報を効率的に探し出すことが困難になってきている.このため,ユーザからの質問に対して明確な回答を自動的に提示する質問応答(QA)技術が注目されている.質問応答に用いる知識を人工言語で記述したUC\cite{thesis:wilensky84}などの質問応答システムでは,十分な記述力をもつ人工言語の設計のむずかしさ,知識ベースの高い作成コストといった問題があった.そこで,大量の電子化文書が利用可能になった1990年代からは,自然言語で記述された文書を質問応答システムの知識として利用しようとする研究が行われている\cite{proc:hammond95}.近年では,TREC\cite{web:TREC}やNTCIR\cite{web:NTCIR}といった評価型ワークショップも行われ,新聞記事やWWW文書などを知識として用いる質問応答システムの研究もさかんである.しかし,これらの研究の多くは事実を問う質問(what型の質問)を対象としていて,方法や対処法を問う質問(how型の質問)を扱うものは\cite{proc:higasa99}\cite{proc:kiyota02}などまだ少ない.これは,事実を問う質問に答えるための知識に比べ,方法や対処法を問う質問に答えるための知識(「こんな場合にはこうする」など)を獲得することがむずかしいからである.日笠らや清田らは,方法や対処法を問う質問に答えるための知識としてFAQ文書やサポート文書が利用できることを示した\cite{proc:higasa99}\cite{proc:kiyota02}.しかしこれらの研究では,FAQ文書やサポート文書がもつ文書構造を利用することを前提としていた.FAQ文書やサポート文書以外の,より多くの文書を知識として利用するためには,文書構造以外の手がかりを利用する方法について研究しなければならない.そこで本研究では最初に,方法や対処法を問う質問(how型の質問)に質問応答システムが答えるための知識を,メーリングリストに投稿されたメールからその質問や説明の中心になる文(重要文)を取り出すことによって獲得する方法について述べる.次に,メーリングリストに投稿されたメールから獲得した知識を用いる質問応答システムについて報告する.作成したシステムは自然な文で表現されたユーザの質問を受けつけ,その構文的な構造と単語の重要度を手がかりに質問文とメールから取り出した重要文とを照合してユーザの質問に答える.最後に,作成したシステムの回答と全文検索システムの検索結果を比較し,メーリングリストに投稿されたメールから方法や対処法を問う質問に答えるための知識を獲得できることを示す. | |
V24N02-04 | 近年Twitter等を代表とするマイクロブログが普及し,個人によって書かれたテキストを対象とした評判分析や要望抽出,興味推定に基づく情報提供など個人単位のマーケティングのニーズが高まっている.一方このようなマイクロブログ上のテキストでは口語調や小文字化,長音化,ひらがな化,カタカナ化など新聞等で用いられる標準的な表記から逸脱した崩れた表記(以下崩れ表記と呼ぶ)が多く出現し,新聞等の標準的な日本語に比べ形態素解析誤りが増加する.これらの崩れ表記に対し,辞書に存在する語にマッピングできるように入力表記を正規化して解析を行うという表記正規化の概念に基づく解析が複数提案され,有効性が確認されている\cite{Han2011,Han2012,liu2012}.日本語における表記正規化と形態素解析手法としては,大きく(1)ルールにもとづいて入力文字列の正規化候補を列挙しながら辞書引きを行う方法\cite{sasano-kurohashi-okumura2013IJCNLP,oka:2013,katsuki:2011},(2)あらかじめ定めた崩れ表記に対し,適切な重みを推定するモデルを定義し,そのモデルを用いて解析を行う方法(KajiandKitsuregawa2014;工藤,市川,Talbot,賀沢2012)が存在する.\nocite{kaji-kitsuregawa:2014:EMNLP2014,kudo:2012}(1)では事前に定めた文字列レベルの正規化パタンに基づいて崩れた文字列に対し正規文字列を展開しながら解析するシンプルな方法が提案されている.(2)においては鍜治ら\cite{kaji-kitsuregawa:2014:EMNLP2014}は形態素正解データから識別モデルを学習し,崩れ表記を精度よく解析する方法を提案した.工藤ら\cite{kudo:2012}は崩れ表記の中でもひらがな化された語に着目し,教師なしでひらがな語の生成確率を求める手法を提案した.(1),(2)いずれの手法においても,崩れ表記からの正規表記列挙に関しては人手によるルールやひらがな化などの自明な変換を用いているが,実際にWeb上で発生する崩れ表記は多様でありこれらの多様な候補も考慮するためには実際の崩れ表記を収集したデータを用いて正規化形態素解析に導入することが有効と考えられる.本研究では,基本的には従来法\cite{katsuki:2011,oka:2013}と同様の文字列正規化パタン(「ぅ→う」)等を用いて辞書引きを拡張するという考え方を用いるが,文字列正規化パタンを人手で作成するのではなく,正規表記と崩れ表記のアノテーションデータから自動的に推定される文字列アライメントから統計的に求める.また,文字列正規化パタンと,ひらがな化・カタカナ化などの異文字種展開を組み合わせることによって正規化の再現率を向上させる.さらに,今回の手法では可能性のある多数の正規化文字列を列挙するため,不要な候補も多く生成される.これらの不要な候補が解析結果に悪影響を及ぼさないようにするため,識別学習を用いて文字列正規化素性や文字種正規化素性,正規語言語モデルなどの多様な素性を考慮することにより,崩れ表記の正規化解析における再現率と精度の双方の向上を試みる.本研究の対象範囲は,音的な類似という点で特定のパタンが存在すると考えられる口語調の崩れ表記や,異表記(小文字化,同音異表記,ひらがな化,カタカナ化)とした.これらを対象とした理由は,\cite{saito-EtAl:2014:Coling,kaji-kitsuregawa:2014:EMNLP2014}などでも示されているように,音的な類似性のある崩れ表記が全体の中で占める割合が大きいとともに今回の提案手法で統一的に表現できる現象であったためである. | |
V25N01-05 | \label{intro}医療現場で生成される多様なデータ(以下,\textbf{医療データ}と呼ぶ)の大部分は自然言語文であり,今後もその状況はただちに変わりそうにない.医療データの利活用としては,診療への応用,もしくは学術研究や政策への応用が挙げられるが,現在,盛んに医療データの利活用の重要性が叫ばれているのは,後者の二次利用である\cite{研究開発の俯瞰報告書2017}.二次利用されることが期待される医療データとしては,\textbf{健診データ}や\textbf{診療報酬データ}がある.健診データは健康診断の際に作成されるデータであり,検査名と検査値から構成される.健診データは受診者が多く,組織で一括して収集されるため,大規模な医療データとしてよく用いられる.一方,診療報酬データは医療費の算定のために用いられるデータであり,医療行為がコード化されたものである.このデータは厚生労働省が収集し管理するため,同じく大規模な医療データとしてよく用いられる.両データは,数値やコードから構成される構造化されたデータのためコンピュータでの扱いは容易であるが,詳細な情報が含まれていないことが解析の限界となっていた.そこで,より詳細な情報が含まれる\textbf{診療録},\textbf{退院サマリ},\textbf{症例報告}といったテキスト化された医療データの活用に注目が集まっている.診療録とは,病院において患者が受診した際や入院時の回診の際に記述されるテキストであり,詳細な患者情報が記述される.また,退院サマリとは,退院時に記述される情報であり,入院中の診療録の要約である.症例報告も退院サマリと同じく入院時の要約であるが,学会に報告されるものである.他にも,病院内にはテキスト化された医療データが存在しており,本稿ではこれらのテキスト化された医療データ全般を指し,\textbf{電子カルテ}と呼ぶ.電子カルテは,自然言語文が中心となる非構造データであるため,扱いは困難であるが,詳細な情報が記述されており,その量は年々増加しつつある.この動きは,1999年に医療データであっても,一定の基準を満たした電子媒体への保存であれば,記録として認められる,という法改正が行われて以降,特に急速に進展した.2008年には,400床以上の大規模病院で14.2\%,一般診療所で14.7\%であった電子化率は,2014年には,400床以上の大規模病院で34.2\%,一般診療所で35.0\%と倍以上に増加している\footnote{厚生労働省医療施設調査より(http://www.mhlw.go.jp/toukei/list/79-1.html)}.このまま増加すれば,ほとんどの病院で電子カルテが用いられるであろう.電子化の第一の目的は,病院の運営の効率化によるコスト削減であるが,副次的な利用法として,これまで膨大な労力をかけて行われてきた調査への応用が期待されている.例えば,医薬品の安全に関わる情報や疫学的情報の収集をより大規模かつ容易に実行可能にしたり,これまで不可能であった医療情報サービスも構築可能にすると期待されている.しかし,このような期待は高まるものの,具体的な成功事例は乏しい.これは,電子カルテに多く含まれる自然言語文の扱いが困難であることが原因で,電子カルテの情報を最大限に活用するには自然言語処理が必須となる.本研究では病名のアノテーション基準を提案し,45,000例もの症例報告を材料としてアノテーションを行う.このアノテーションでは,症例報告の対象患者の疾患や症状についての情報を整理することを目指し,単に病名のみをマークするだけでなく,症状が患者に発生しているかどうかの区別まで行う.海外では,医療分野における同様のコーパスは政府の協力のもと開発,公開がされているが,日本では公開された大規模コーパスは存在せず,コーパスの仕様についても十分な資料がなかった.本稿では,日本で初となる大規模な医療分野のコーパス開発の詳細について述べる.本研究が提案するアノテーションは,症例報告のみならず,さまざまな医療テキストへ利用可能である汎用的なものである.また,これが実行可能なアノテーションであることを示すために,複数のアノテーター間における一致率やその問題点などの指標を示し,フィージビリティの検討を行った.最後に,病名アノテーションを利用して構築した病名抽出器についても紹介する.本コーパスの特徴は,以下の2点である.\begin{enumerate}\item従来,小規模な模擬データが配布されるにとどまっていた利用可能な医療分野のコーパス\cite{mednlp10,mednlp11,mednlp12}と比較し,約45,000テキストという大規模なデータを構築した点.\item単に用語の範囲をアノテーションしただけでなく,用語で示された症状が実際に患者に生じたかどうかという\textbf{事実性}をアノテーションした点.\end{enumerate}特に,症状の事実性を記述することは応用を考えると重要である.例えば,以下のような2つの応用システムを用いたシナリオを想定できる.\begin{description}\item[【医薬品副作用調査シナリオ】]ある医薬品Aと医薬品Bがどれくらい副作用を起こすかを比較したいとする.この場合,医薬品Aと医薬品Bで検索して得られたテキストセットAとテキストセットBをつくり,それぞれに出現する副作用と関連した病名の頻度を比較すればよい.だが,これを実際に行うと,「副作用による軽度の\textless\texttt{P}\textgreater咳嗽\ignorespaces\textless\texttt{/P}\textgreaterは認めたが、\textless\texttt{N}\textgreater間質性肺炎\ignorespaces\textless\texttt{/N}\textgreaterは認めなかった。」\footnote{\textless\texttt{P}\textgreaterで示した病名は事実性のあるもの,\textless\texttt{N}\textgreaterで示した病名は事実性のないものを表す.詳しくは4.2節.}といったように,想定はされるが実際には起こっていない副作用も記述される.よって,事実性を判定する必要が生じる.\item[【診断支援シナリオ】]診断を行う際には,ガイドラインに沿って症状の有無を調べ,合致する診断を下す.これはフローチャートになっており,例えば,意識消失,痙攣あり,嘔吐あり,発熱ありの際に考えられる症状には心筋炎,脳梗塞,脳炎など曖昧性があるが,ここで血液検査を行って炎症所見のない場合は心筋炎が除外される.このような場合,診断がガイドラインに沿っていることを明確にするために,事実性のない症状についても記述される(この例では「炎症所見なし」).よって,診断支援のデータとして用いる場合には,事実性を判定する必要が生じる.\end{description}本研究の貢献は以下の通りである.\begin{enumerate}\item医療テキストへのアノテーションについての詳細な仕様を示した.\item実際にアノテーションした結果について,一致率や問題点などのフィージビリティを議論した.\item本研究で構築したコーパスを用いて病名抽出器を構築し,アノテーションの妥当性を検証した.\end{enumerate}\vspace{1\Cvs} | |
V03N03-04 | 入力文の構文構造を明らかにする構文解析手法には,大きく分けて,1)可能な構造をすべて生成する手法と,2)可能な構造に優劣を付け,そのうち最も適切なものだけを,または適切なものから順に生成する手法,の二つがある.前者の手法として,これまでに,一般化LR法\cite{Tomita85}やSAX\cite{Matsumoto86},LangLAB\cite{Tokunaga88}などの効率の良い手法が数多く提案されている.しかしながら,これらの手法を,機械翻訳システムなどの実用を目指した自然言語処理システムに組み込むことは,必ずしも適切ではない.なぜならば,通常,可能な構文構造の数は膨大なものになるため,それらをすべて意味解析などの構文解析以降の処理過程に送ると,システム全体としての効率が問題になるからである\footnote{文献\cite{Tomita85}には,構文構造の曖昧さをユーザとの対話で解消する方法も示されている.}.意味的親和性や照応関係に関する選好なども考慮に入れて全体で最も適切となる解釈は,最も適切な構文構造から得られるとは限らないので,システム全体で最も適切な解釈を得るためには,最悪の場合,可能な構造をすべて生成しなければならない.しかし,より適切な構文構造がシステム全体で最も適切な解釈の構成要素となる可能性が高いと期待されるので,適切でない構造は生成しなくてもよい可能性が高い.従って,可能な構造のうち最も適切なものだけをまず生成し,構文解析以降の処理からの要請があって初めて,次に適切な構造を生成するための処理を開始する後者の手法のほうが,システム全体の効率の観点からは望ましい.後者の手法を実現するためのアプローチでは,費用が付与された部分構造を状態とする状態空間において,目標状態のうち費用の最も小さいものを発見するという探索問題として構文解析を捉えるのが自然である.このように捉えると,確立された種々の探索戦略を構文解析に応用することができる.本稿では,可能な構造のうち生成費用の最も小さいものだけをまず生成し,必要ならば可能な構造が尽きるまですべての構造を生成費用の昇順に生成する構文解析法を提案する.基本的な考え方は,チャート法のアジェンダ\cite{Kay80}を$\A^*$法の探索戦略\cite{Nilsson80}に従って制御することである\cite{Yoshimi90}.チャート法は,良く知られているように,重複処理を行わない効率の良い構文解析の枠組みである.解析過程において生成されうる部分構造に,構文規則に付与された費用に基づいて計算される生成費用を付与するとともに,その構造を構成要素として持つ全体構造を生成するまでの費用を,$\A^*$法の最適性条件を満たし実際の費用になるべく近くなるように推定して付与し,競合する部分構造のうちその生成費用と推定費用の和が最も小さいものに対する処理を優先的に進めれば,効率の良い構文解析が実現できる.本稿の手法と同じように,適切な構造を優先的に生成する手法として,これまでに,Shieberの手法\cite{Shieber83}やKGW+p\cite{Tsujii88},島津らの手法\cite{Shimazu89}などが提案されている.これら関連する研究との比較は\ref{sec:comparison}節で行なう. | |
V23N02-01 | \textbf{系列アラインメント}とは,2つの系列が与えられたときに,その構成要素間の対応関係を求めることをいう.系列アラインメントは特にバイオインフォマティクスにおいてDNAやRNAの解析のために広く用いられているが,自然言語処理においてもさまざまな課題が系列アラインメントに帰着することで解かれている.代表的な課題として\textbf{対訳文アラインメント}\cite{moore02:_fast,braune10:_improv,quan-kit-song:2013:ACL2013}があげられる.対訳文アラインメントは対訳関係にある文書対が与えられたときに,文書対の中から対訳関係にある文のペアをすべて見つけるタスクである.統計的機械翻訳においては,対訳コーパスにおいてどの文がどの文と対訳関係にあるかという文対文での対応関係が与えられているという前提のもとで学習処理が実行されるが,実際の対訳コーパスでは文書対文書での対応付けは得られていても文対文の対応付けは不明なものも多い.そのため,対訳文書間での正しい対訳文アラインメントを求めることは精度のよいモデルを推定するための重要な前処理として位置づけられる.統計的機械翻訳以外の,例えば言語横断的な情報検索~\cite{nie1999cross}などの課題においても対訳文書間の正しい文アラインメントを求めることは重要な前処理として位置づけられる.また,対訳文アラインメントのほかにも,対訳文書に限定されない文書間の対応付けタスクも系列アラインメントとして解かれている~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}.自然言語処理のタスクにおける系列アラインメント問題を解く手法は,対応付けの\textbf{単調性}を仮定する方法とそうでない方法とに大別される.単調性を仮定する系列アラインメント法は特に対訳文アラインメントにおいて広く用いられる方法であり,対訳関係にある二つの文章における対応する文の出現順序が大きく違わないことを前提として対応付けを行う.すなわち,対訳関係にある文書のペア$F$,$E$に対し,$F$の$i$番目の文$f_i$に$E$の$j$番目の文$e_j$が対応するとしたら,$F$の$i+1$番目の文に対応する$E$の文は,(存在するならば)$j+1$番目以降であるという前提のもとで対応付けを行っていた.この前提は,例えば小説のように文の順序が大きく変動すると内容が損なわれてしまうような文書に対しては妥当なものである.一方で単調性を仮定しない方法は~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}などで用いられており,文間の対応付けの順序に特に制約を課さずに系列アラインメントを求める.図~\ref{fig:prevwork}は,それぞれ単調性を仮定した系列アラインメント,仮定しない系列アラインメントの例を表している.白丸が系列中のある要素を表現しており,要素の列として系列が表現されている.図では2つの系列の要素間で対応付けがとられていることを線で示している.単調性を仮定した対応付け手法では,対応関係を表す線は交差しない.一方で仮定しない手法では交差することが分かる.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f1.eps}\end{center}\caption{既存の系列アラインメント法によるアラインメント例}\label{fig:prevwork}\end{figure}系列アラインメントにおいて単調性を仮定することは,可能なアラインメントの種類数を大きく減少させる一方で,動的計画法による効率的な対応付けを可能とする.先述したように,対訳文アラインメントを行う際に単調性を仮定することは多くの対訳文書に対しては妥当な仮定である.しかし,単調性を仮定することが妥当でない対訳文書も存在する.例えば文献~\cite{quan-kit-song:2013:ACL2013}では,単調性が成り立たない文書の例として法令文書を挙げている.そのほかにも例えば百科事典やWikipediaの記事のように一つの文書が独立な複数の文のまとまりからなる場合には,文のまとまりの出現順序が大きく変動しても内容が損なわれないことがある.このような文書においては,文の順序が大きく変動しないという前提は必ずしも正しいものではないため,既存の単調性を仮定した系列アラインメント法では正しい対訳文アラインメントが行えない可能性が高い.一方で,単調性を仮定しない既存のアラインメント法では非単調な対応付けを実現できるものの,対応付けの\textbf{連続性}を考慮することが難しいという問題がある.対応付けの連続性とは,$f_i$が$e_j$と対応付けられているならば,$f_{i+1}$は$e_j$の近傍の要素と対応付けられる可能性が高いとする性質のことである\footnote{\ref{sec:setpart}節以降の提案手法の説明では,説明を簡単にするために,対応付けに順方向の連続性がある場合,すなわち$f_i$と$e_j$が対応付けられているならば$f_{i+1}$は$e_{j}$より後ろにある近傍の要素と対応付けられやすい場合のみを扱っている.しかし,実際には提案法は順方向に連続性がある場合と同様に逆方向の連続性がある場合の対応付けを行うこともできる.逆方向の連続性とは,$f_i$と$e_j$が対応付けられているならば,$f_{i+1}$は$e_{j}$以前の近傍の要素と対応付けられる可能性が高いとする性質のことである.}.もし対応付けにおいて連続性を考慮しないとすると,系列$F$中のある要素$f_i$とそれに隣接する要素$f_{i+1}$とが,それぞれ$E$中で離れた要素と対応付けられてもよいとすることに相当する.対応付けの単調性を仮定できるような対訳文書の対訳文アラインメントについては,明らかに対応付けの連続性を考慮する必要がある.さらに,単調性が仮定できないような文書のペアに対する対訳文アラインメントにおいても,ある文とその近傍の文が常に無関係であるとは考えにくい.以上より,文アラインメントにおいては連続性を考慮することが不可欠である.また,対訳文アラインメント以外の系列アラインメントを用いるタスクにおいても,対応付けの対象となる系列は時系列に並んだ文書等,何らかの前後のつながりを仮定できるものが多いことから,連続性を考慮する必要がある.単調性を仮定できない文アラインメントの例を示す.図\ref{fig:hourei}は,文献~\cite{quan-kit-song:2013:ACL2013}の検証で用いられているBilingualLawsInformationSystem(BLIS)\footnote{http://www.legistlation.gov.hk}コーパスに含まれる対訳文書における文アラインメントの例である.BLISは香港の法令文書の電子データベースであり,対訳関係にある英語・中国語の文書を保持している.図に示す対訳文は用語の定義を行っている箇所である.両言語の文を比べると,定義する用語の順番が英語と中国語とで異なっており,結果として,局所的には連続なアラインメントが非単調に出現する対訳文書となっている.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f2.eps}\end{center}\caption{法令文書における非単調な対訳文アラインメントの例}\label{fig:hourei}\end{figure}本論文では系列の連続性を考慮しつつ,かつ非単調な系列アラインメントを求めるための手法を提案する.このような系列アラインメント法は,単調性を仮定できない文書対の対訳文アラインメントを求める際に特に有効であると考える.仮に文書$F$の文が$E$の任意の文と対応してもよいとすれば,ある文のペアの良さを評価するスコアを適切に設定することによって,問題を二部グラフにおける最大重みマッチング問題\cite{korte08:_combin_optim}として定式化して解くことができる.しかし,$F$のある文が$E$の任意の文と対応してもよいという前提では,近傍の文間のつながりを無視して対応付けを行うことになる.実際の文書ではすべての文がその近傍の文と無関係であるとは考えにくいため,正しい対応付けが行えない可能性が高い.そこで,提案手法では対訳文アラインメントを組合せ最適化の問題の一つである\textbf{集合分割問題}として定式化して解く.集合分割問題は,ある集合$S$とその部分集合族$S_1,\ldots,S_N$が与えられたときに,スコアの和が最大となるような$S$の分割$\mathcal{D}\subseteq\{S_1,\ldots,S_N\}$を見つける問題である.ここで$\mathcal{D}$が$S$の分割であるとは,$S=\cup_{S_i\in\mathcal{D}}S_i$かつ$i\neqj$ならば任意の$S_i,S_j\in\mathcal{D}$について$S_i\capS_j=\emptyset$となることをいう.2つの系列$F$,$E$のある部分列に対する単調な系列アラインメントの集合を$S_1,\ldots,S_N$として表現することで,部分列に対するアラインメントの集合$S_1,\ldots,S_N$から系列全体の分割となるような部分集合を選択する問題として$F$,$E$全体に対する系列アラインメントを求めることができる.また,本論文では集合分割問題としての系列アラインメントの定式化とともに,その高速な求解法も同時に示す.提案する集合分割問題に基づく定式化を用いると,系列$F$,$E$に含まれる要素の数が増加するに伴い,急激に厳密解の求解に時間がかかるようになるという課題がある.これは,それぞれの系列に含まれる要素の総数を$|F|$,$|E|$とすると,集合分割問題に出現する変数の数\footnote{集合分割問題における変数の数は,可能な$F$,$E$の部分系列のペアの総数と等しい.詳細は\ref{sec:setpart}章を参照.}が$O(|F|^{2}|E|^{2})$となるためである.集合分割問題はNP困難であり,変数の数が増加すると各変数に対応する重みの計算および整数線形計画法ソルバを用いた求解に時間がかかるようになる.本論文ではこの課題に対処するために,多くの変数が問題中に出現する大規模な線形計画問題を解く際に用いられる,\textbf{列生成法}\cite{lubbecke05:_selec_topic_colum_gener}を用いることで高速な系列アラインメントを実現する近似解法も同時に提案する.列生成法は大規模な問題の解を,出現する変数の個数を制限した小さな問題を繰り返し解くことによって求める手法である.列生成法を用いることによって,そのままでは変数の数が膨大となり解くことができなかった問題を解くことができる.なお,列生成法を用いることで線形計画問題の最適解を得られることは保証されているが,整数線形計画問題については解を得られることは必ずしも保証されていない.そこで本論文では列生成法で得られた近似解を実験によって最適解と比較し,よい近似解が得られていることを確認する.なお,以下では説明を簡単にするために特に対訳文書の対訳文アラインメントに話題を限定して説明を進める.ただし,系列の要素間のスコアさえ定まれば提案法を用いて任意の系列のペアに対する系列アラインメントを行うことが可能である. | |
V07N02-03 | 語彙とは“ある言語に関し(その一定範囲の)あらゆる語を一まとめにして考えた総体”(水谷,1983,p.1)のことである.したがって,日本語なら日本語という特定の1言語に限っても,その内容は一まとめにくくる際の観点をどのように設定するかによって変化しうる.大きく見れば,語彙は時代の進行にそって変化するし,同時代の語彙にも地域,職業,社会階層などによって集団としての差異が存在する.細かく見てゆくならば,個人によっても語彙は違うであろうし,特定の書籍,新聞,雑誌等,言語テキストそれぞれに独自の語彙が存在すると言ってよい.さらに,個人で見ても,その語彙のシステム(心内語彙=mentallexicon)は,発達・学習によって大きく変化し,さらに特定の時点における特定の状況に対応した微妙な調整によって,常に変化しつづけていると考えることができる.こうした語彙の多様性は,ごく簡単に整理すれば,経時的な変動と,それと連動しつつ,表現の主体,内容,形式のバラエティに主に関わる共時的な変動という,縦横の軸からとらえることができる.本研究では,新聞という一般的な言語テキストを対象に,経時的,共時的の両面に関して語彙の系統的な変動を抽出することを試みる.具体的には1991年から1997年までの毎日新聞7年分の電子化テキストを用いて,そこで使われている全文字種の使用状況の変動について,面種と時系列の2つの面から調べる.毎日新聞を対象にしたのは,紙面に含まれる記事の内容が広く,難度も標準的であり,現代日本の一般的な言語表現を観察するのに適していると考えられること,面種等のタグ付けが施されたテキストファイルが利用できること,研究利用条件が整っていて,実際に多くの自然言語処理研究で利用されているため,知見の蓄積があることなどによる.語彙について調べることを目標に掲げる研究で,文字を分析単位としている理由は,日本語の場合,文字が意味情報を多く含んでいて単語レベルに近いこと(特に漢字の場合),単語と違って単位が明確なために処理が容易であること,異なり数(タイプ)が多すぎないので悉皆的な調査も可能であることである.目標と方法の折り合うところとして,文字という単位にまず焦点を当てたのである(電子テキストを用いて,日本語の文字頻度の本格的な計量を行った例としては,横山,笹原,野崎,ロング,1998がある).面種による変動を調べるのは,1種類の新聞の紙面で,どの程度,語彙(本研究では実際には文字)の内容に揺れ(変位)があるかを吟味することをねらいとする.全体で一まとめにして“毎日新聞の語彙”とくくれる語彙の集合を紙面の種類によって下位カテゴリに分割しようとする試みであるとも言える.経済面とスポーツ面とで,使われている語彙に差異があるだろうということ自体は,容易に想像がつくが,本研究では,こうした差異がどの程度まで広範に確認されるかを検討する.テキストのジャンルによる使用語彙の差を分析したものとして,国立国語研究所(1962),Ku\v{c}era\&Francis(1967)を挙げることができる.前者は,1956年に刊行された90の雑誌から抽出した50万語の標本に対して評論・芸文,庶民,実用・通俗科学,生活・婦人,娯楽・趣味の5カテゴリを設定し,後者は1961年にアメリカ合衆国で出版された本,新聞,雑誌等から抽出した100万語のコーパスに報道記事,宗教,恋愛小説等の15カテゴリを設定している.ただし,いずれも対象としているテキストの種類が多岐にわたるだけに語彙の差が検出しやすい条件にあると見ることができるが,カテゴリ間に見られる差についての検討は十分なものではない.本研究の場合,新聞1紙の中でどの程度の内容差を検出できるかを,文字という単位で悉皆的に分析するところに特色がある.語彙の時系列的な変動に関しては,世代,時代といった長い時間幅であれば,様々に研究されているが,7年間という,この種の分析としては短い時間幅で,どのような変動が観察されるかを詳細に分析するところに本研究の独自性がある.本研究では,7年全体での変動としてのトレンドに加えて,循環性のある変動として月次変動(季節変動)も調べる.時系列的な微細な分析は,経済,自然の分野では多くの実例があるものの,言語現象への適用は未開拓である.実際,言語テキストの月単位,年単位でのミクロな分析は,近年の大規模電子コーパスの整備によってようやく現実的なものとなったという段階にあるにすぎない.新聞での用字パタンに時系列な変動が存在すること自体は予想できる.たとえば,“春”という文字は春に,“夏”という文字は夏に多用されそうである.しかし,そもそも,“春”なら“春”の字がある時期に多用されるといっても,実際のパタンがどうであるのか,また,こうした季節変動が他の文字種を含めてどの程度一般的な現象であるのかというのは調べてみなければわからない.時系列変動の中でも,月次変動に関しては,筆者らは既に新聞のカタカナ綴りを対象とした分析(久野,野崎,横山,1998;野崎,久野,横山,1998),新聞の文字を対象とした分析(久野,横山,野崎,1998)を報告している.そこでは,月ごとの頻度プロフィールの相関をベースに,隣接月次の単語・文字の使用パタンが類似したものとなり,12ヵ月がほぼ四季と対応する形でグルーピングできることを示したが,本報告では,個々の文字をターゲットとして時系列的変動の検出を試みる.この時系列変動の調査は,トレンドに関しては,近年における日本語の変化の大きさについて考えるための基礎資料となるという点からも意味が大きい.また,月次変動,季節変動については,日本の場合,風土的に四季の変化が明確であり,その変化をめでる文化をもち,様々な生活の営みが1年の特定時期と結びついているという点から,分析の観点として有効性が高いことが期待される.以下では,面種変動,時系列変動という順序で,分析結果を報告する.実際の分析は,両方を行き来し,重ね合せながら進めたが,面種変動の方が結果が単純であり,また,時系列変動の分析では面種要因を考慮に入れる操作をしているという事情による. | |
V04N01-05 | \label{sec1}自然言語処理システムにおいては,処理する言語に関する情報をどれほど豊かにそなえているかが,そのシステムの性能に大きな影響を与える.とくに分かち書きをしない日本語では,その形態素解析だけのためにも膨大な量の辞書データをそろえる必要がある.しかし,辞書データの蓄積は,自動的に行うことが困難であり,人手による膨大な時間と労力を必要とする.幸い,最近では公開の辞書データの入手も可能となってきたが,それでもなお,新しい文法体系を試みるような場合には,その辞書を用意するのに手間がかかりすぎて,本題の研究にかかれないことがおきる.本稿では,辞書データがほとんどない状態から始めても,大量の日本語テキストを与えることで,形態素に関する辞書データを自動的に蓄積する方法を与えることを目的とする.具体的には,形態素に関する種々の規則と,統計的知識を利用して,未知の形態素の切出しとその品詞,活用種類,活用形などの推定を行う.推定するたびにその信頼性を評価し,大量のテキストを走査するうちに十分高い信頼性を得るに至ったものを,正しい形態素として辞書に登録する.現在までに,計算機によって自動的に辞書情報を獲得するいくつかの研究が行われてきている\cite{Kokuritu,Suzuki}.また,べた書き日本語文の形態素解析における曖昧さと未知語の問題を統計的手段によって解決しようとする試みもある\cite{Nagata,Simomura}.文献\cite{Nagata}では,品詞のtrigramを用いて言語を統計モデル化し,効率的な2-passN-best探索アルゴリズムを採用している.また,字種のtrigramを利用して未知語処理を行っている.文献\cite{Simomura}では,単語をノードとする木の最小コストパス探索問題として形態素解析をモデル化している.その上で,実際に単語接続確率モデルに基づいてコストを設定し形態素解析を実現している.ここでの研究の目的は,辞書データがほとんどないところから始めても未知語が獲得していける方法を提供することにある.実際に実験システムを構成して,比較的簡易な機構によって目的が達成できることを確認した.本論文の構成は次のようになっている.まず初めに,2章でシステムの概要について述べる.3章,4章では,形態素の連接関係に着目し,形態素と形態素属性を獲得する方法について説明する.5章では,獲得した情報を保管し,十分な信頼性をもつに至ったとき辞書に登録する方式を説明する.最後に,6章で,本手法による実験結果を提示し,まとめを行う. | |
V16N02-02 | 英語教育の現場でもICT(InformationandCommunicationTechnology)の活用により様々な取り組みがなされている.近年ではE-learningのように学習者が教科書ではなく,まずはコンピュータ端末に向かうような形態での学習環境も一部で行われている.しかし大学を含め,CALL教室などが未整備となっている教育機関は少なくない.またE-learningのための教材作成が英語教育に直接関係する教師自身によって行われることは現実的にはほとんどなく,先進的な取り組みを行っている教育機関などにおいても既存のコースウェアが利用される場合が多い.教室で接する学習者のために教員自らがオーサリングソフトなどを利用して積極的に教材を作成するという事例は,英語教員全体の人数からすると極めて少数であると思われる.近年,パソコンは爆発的に普及してきており,現在ではほぼ全ての英語教員が日常の業務や教材作成でパソコンを利用することが当たり前のこととなった.しかし大多数の英語教員のパソコン利用スキルは基礎的なワープロ操作に限られると言っても過言ではない.結果,ワープロソフトによる教材作成と,E-learningやCALL環境のための教材作成の間にある溝はなかなか埋まりそうにないというのが現状である.一方,計算機科学の発展に伴い,言語処理技術に関する研究も急速に増加しつつある.そしてこれらの知見を教育や学習に生かすことを目標とする研究も盛んに行われている.しかしここで一つの疑問が浮かぶ.言語処理技術と教育・学習の連携は,いわゆる文系の一般の教員が,極端に言えば翌日の授業からでも応用可能な形で提供されていると言えるのだろうか.言語処理技術の教育・学習への応用を試みる際,まずはその方法論が優先される.そしてその実装は簡易なプロトタイプにとどまり,実際の使用に耐えうるシステムの構築は別途行わなければならない場合も多い.しかし,たとえどんなに軽微なものであったとしてもCUIベースの処理やプログラミング言語の知識を必要とする手法を一般の英語教員に求めることはほぼ絶望的である.例えばPerl言語を用いたテキスト処理などでさえも,その実行環境をインストールするといった時点で一般の英語教員のコンピュータ利用スキルからすれば十分にハードルが高いことは間違いない.また「UNIX環境」といった文言でさえ,一般の英語教員を遠ざけるには十分な材料となる.これらのアプリケーションがCGIなどを介してWeb上で提供される場合も同様である.通常これらは教育工学などの分野に関心がある一部の英語教員が,データ分析などの研究目的で利用することが多く,授業に生かすという用途からは残念ながらほど遠いという印象がある.それでは,仮に言語処理技術を教材作成に簡便に応用できるような仕組みが提供されていればどうなるであろうか.例えば教科書に準拠した補助プリントなどを作る場合など,少しでも教員の負担を減らすことができればきっと喜ばれるに違いない.そして草の根的であったとしても,言語処理技術と教育・学習の連携がこれまで以上に有機的に行われていくことが予想される.本研究では一般の英語教員でも簡単に使えることを念頭に,様々な状況での実際の英語授業や自習環境で利用できるプリント教材およびE-learning教材の作成支援を行う2種類のツールを開発した.これらのツールは無料で公開しており,GUI環境での簡単な操作で,任意の英文から様々な教材を短時間で作成することができる.利用者である一般の英語教員はこれらをダウンロード,解凍し,フォルダ内に含まれている実行ファイルを起動するだけでよい.つまり別途ソフトウェアを購入する必要もなく,プログラミング言語の実行環境をインストールするというような負担もない.また,これらのツールでは言語処理技術によるデータ処理結果をデータベース・ソフトウェアによって教材に加工するが,内部設計はツール利用者である一般の英語教員には見せない形になっている\footnote{ソースファイル相当以上の内容を知ることができるデータベースデザインレポートも公開している.FileMakerでの開発に通じている者であれば内部設計の把握や改変も可能.}.言語処理のアルゴリズムやデータベース・ソフトウェアについての知識は一切必要としない.以下,2節では,データベース・ソフトウェアの基本的な特徴を確認し,本研究で使用したFileMakerについて概観する.3節では連携事例Iとして,言語処理技術を活用したPhraseReading教材作成支援システムを紹介し,これを応用したプリント教材の自動作成について述べる.4節では連携事例IIとして,任意の英文テキストに対して語彙レベルタグや品詞タグを付与するプログラムを紹介し,この処理結果を用いたE-learning教材作成について述べる. | |
V20N04-03 | 現在の自動要約の多くは文を単位にした処理を行っている\cite{okumura05}.具体的には,まず入力された文書集合を文分割器を用いて文集合に変換する.次に,文集合から,要約長を満たす文の組み合わせを,要約としての善し悪しを与える何らかの基準に基づいて選び出す.最後に,選び出された文に適当な順序を与えることによって要約は生成される.近年では,複数文書の自動要約は最大被覆問題の形で定式化されることが多い\cite{filatova04,yih07,takamura08,gillick09,higashinaka10b,nishikawa13}.これは,入力文書集合に含まれる単語のユニグラムやバイグラムといった単位を,与えられた要約長を満たす文の集合によってできる限り被覆することによって要約を生成するものである.最大被覆問題に基づく要約モデル\footnote{本論文では,自動要約のために設計された,何らかの目的関数と一連の制約によって記述される数理計画問題を特に要約モデルと呼ぶことにする.これは自動要約のための新しい要約モデル(数理計画問題)の開発と,何らかの要約モデルに対する新しい最適化手法の提案を陽に切り離して議論するためである.また,特定の要約モデルとその要約モデルに対する具体的な一つの最適化手法を合わせたものを要約手法と呼ぶことにする.}(以降,最大被覆モデルと呼ぶ)は,複数文書要約において問題となる要約の冗長性をうまく取り扱うことができるため,複数文書要約モデルとして高い能力を持つことが実証されている\cite{takamura08,gillick09}.しかし,その計算複雑性はNP困難である\cite{khuller99}ため,入力文書集合が大規模になった場合,最適解を求める際に多大な時間を要する恐れがある.本論文で後に詳述する実験では,30種類の入力文書集合を要約するために1週間以上の時間を要した.平均すると,1つの入力文書集合を要約するために8時間以上を要しており,これではとても実用的とは言えない.一方,ナップサック問題として自動要約を定式化した場合,動的計画法を用いることで擬多項式時間で最適解を得ることができる\cite{korte08,hirao09b}.ナップサック問題に基づく要約モデル(以降,ナップサックモデルと呼ぶ)では,個別の文に重要度を与え,与えられた要約長内で文の重要度の和を最大化する問題として自動要約は表現される.この問題は個別の文にスコアを与え,文のスコアの和を最大化する形式であるため,要約に含まれる冗長性が考慮されない.そのため,最大被覆モデルとは異なり冗長な要約を生成する恐れがある.最大被覆モデルとナップサックモデルを比較すると,前者は複数文書要約モデルとして高い性能を持つものの求解に時間を要する.一方,後者は複数文書要約モデルとしての性能は芳しくないものの高速に求解できる.本論文では,このトレードオフを解決する要約モデルを提案する.本論文の提案する要約モデルは,動的計画法によって擬多項式時間で最適解を得られるナップサック問題の性質を活かしつつ,要約の冗長性を制限する制約を陽に加えたものである.以降,本論文ではこの複数文書要約モデルを冗長性制約付きナップサックモデルと呼ぶことにする.冗長性を制限する制約をナップサックモデルに加えることで冗長性の少ない要約を得ることができるが,再び最適解の求解は困難となるため,本論文では,ラグランジュヒューリスティック\cite{haddadi97,umetani07}を用いて冗長性制約付きナップサックモデルの近似解を得る方法を提案する.ラグランジュヒューリスティックはラグランジュ緩和によって得られる緩和解から何らかのヒューリスティックを用いて実行可能解を得るもので,集合被覆問題において良好な近似解が得られることが知られている\cite{umetani07}.本論文の貢献は,新しい要約モデル(冗長性制約付きナップサックモデル)の開発,および当該モデルに対する最適化手法の提案(ラグランジュヒューリスティックによるデコーディング)の両者にある.冗長性制約付きナップサックモデルの,最大被覆モデルおよびナップサックモデルに対する優位性を表\ref{tb:comp}に示す.提案する要約モデルを提案する最適化手法でデコードすることで,最大被覆モデルの要約品質を,ナップサックモデルの要約速度に近い速度で得ることができる.\begin{table}[t]\caption{冗長性制約付きナップサックモデルの優位性}\label{tb:comp}\input{03table01.txt}\end{table}以下,2節では関連研究について述べる.3節では提案する要約モデルについて述べる.4節では,デコーディングのためのアルゴリズムについて述べる.5節では提案手法の性能を実験によって検証する.6節では本論文についてまとめる. | |
V07N01-01 | まず,言い間違いの原因について考察してみる.フロイト\cite{freud1917a}は言い間違いの原因として身体的理由と精神的理由を挙げている.フロイトは身体的理由として,\begin{enumerate}\item気分が悪い・疲れ気味である\itemあがっている\item注意が他にそれている\end{enumerate}\noindentを挙げている.1は確かに身体的理由であるが,2と3はむしろその場の精神的理由である.フロイトが言いたいことは,確かに上記のような身体的理由があるにしろ,言い間違いが生じている時は必ず何らかの深層心理的・無意識的理由があるということである.フロイトは深層心理的・無意識的理由のない言い間違いはありえない,つまり偶然生じる言い間違いはあり得ないと断言している.さらにフロイトは言い間違いで探索すべき概念の範囲として,似た言葉(発音・言語類似・言語連想)と反対の意味の言葉を挙げている.しかしながら,あまりよく知らない単語であったり,関心が薄い単語であれば言い間違えることが考えられる.また,ラカンの流れを汲むNasioは,無意識は相互作用であり,コミュニケーションあるいは精神分析の中でしか無意識は存在しないと言っている\cite{nasio1995a}.これは精神分析者が被精神分析者の無意識を被精神分析者に示し,理解させ,相互に了解しながら精神分析が進んでいくということを意味しているものと思われる.その無意識の兆候の一つとして挙げられるのが言い間違いである.つまり言い間違いのすべてが無意識を顕現化しているものではない.このような無意識を第三者が観察することで見い出すことは可能であろうか?もし可能であれば,会議支援につながる.会議参加者が意識的には気づいていないが無意識的に重要だと思っていることを会議へフィードバックすることができるからである.しかるに言い間違いは無意識の兆候を示しているのであるから,言い間違いを調べることによって会議支援ができることが期待できる.しかし,前述のような精神分析的方法は分析者の解釈がどうしても必要であり,かなりの能力が必要となり,誰にでもできるというわけにはいかない.しかも,その解釈にはかなり主観的要素がつきまとう.実際の言い間違いの利用方法には,\begin{enumerate}\item解釈しない(客観的)\item解釈する(主観的)\end{enumerate}\noindentの二種類が考えられる.前者は言い間違えた事実だけを客観的に使う方法であり,後者は言い間違いを解釈して使う方法である.我々は,解釈には分析者にかなりの能力が必要であり,利用の条件が厳しくなり,また,分析者の主観性が強く現れすぎて,結果が恣意的になると考え,前者の方法を採用する.言い間違いに関する用語を定義しておく.言い間違いにはいわゆる言い間違い,言い淀み,言い直しなどが含まれる.本論文では,言い淀みとは不要な語句(感動詞を含む)が挿入された発話を指すことにし,言い直しとは途中で発言が中断され別の語句に発話し直したことを指すことにし,言い間違いとは言い淀み・言い直し以外の言い間違いのことを指すことにする.ソフトウエアの要求獲得会議のコーパスから言い間違いの例を挙げると,\begin{verbatim}言い淀み:「電話で何だけ,留守番電話みたいに」言い直し:「たとえば何らかのシステムが出て,出たとしても」言い間違い:「自分の手帳でやってや書くでしょう」\end{verbatim}\noindentのようになる.なお,言い直しの例で,「出て」を言い直す前の単語,「出た」を言い直した後の単語と呼ぶことにする.言い直し以外の言い間違いを利用するためにはどうしても解釈する必要が出てくる.我々は客観的に分析するという観点から,主として,言い直しに限って分析を進める.さらに言い直しは,客観的に判断できる,形態論的な観点から,\begin{enumerate}\item\label{どの文法単位の言い直しか?}どの文法単位の言い直しか?\begin{enumerate}\item\label{単語レベルの言い直し}単語レベルの言い直し\item\label{文節レベル以上の言い直し}文節レベル以上の言い直し\end{enumerate}\item\label{言い直しの間に他の発話が入っているか?}言い直しの間に他の発話が入っているか?\begin{enumerate}\item\label{直後の言い直し}直後の言い直し\item\label{他の発話が入った言い直し}他の発話が入った言い直し\end{enumerate}\end{enumerate}\noindentに分類される.もちろん,\ref{どの文法単位の言い直しか?}と\ref{言い直しの間に他の発話が入っているか?}の間には重複があり得るので,全体では四通りに分類できる.それぞれ,単独の場合の例を,実際の発話から挙げておく.まず,\ref{単語レベルの言い直し}の例としては,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}\noindentが挙げられる.この例は,文脈から「メモ」を「電話の取り次ぎ」に言い直したことがわかる.次に,\ref{文節レベル以上の言い直し}の例としては,\begin{quote}離席の,リフレッシュルームに電話番号はないわけだから,\end{quote}\noindentが挙げられる.この例は,「離席の」という名詞と格助詞からなる文節を「リフレッシュルームに」に言い直している.このように,\ref{単語レベルの言い直し}と\ref{文節レベル以上の言い直し}との違いは,言い直す前の語句が単語か文節かの違いである.次に,\ref{直後の言い直し}の例としては,先ほどの,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}\noindentが挙げられる.また,\ref{他の発話が入った言い直し}の例としては,\begin{quote}ファッ……だからE−mailからFAXは簡単だよね.\end{quote}\noindentが挙げられる.この例では,「ファックス」が「E−mail」に言い直され,両方の語句の間に「だから」が挿入されている.このように,\ref{直後の言い直し}と\ref{他の発話が入った言い直し}の違いは,言い直された語句の間に他の語句が挿入されたかどうかの違いによる.前述のように,言い直しのすべてが無意識の兆候になっているかどうかは若干の疑念がある.そこで本論文では,第2節で,言い直す前の単語と言い直した後の単語のどちらにより関心があるかを調べる.次に,第3節で,言い直しをソフトウエアの要求獲得に使う考え方について述べる.次に,第4節で,言い直しを利用した,要求獲得方法論について述べる.第5節では,本要求獲得方法論を例題を挙げて説明する.第6節では,全体のまとめと今後の課題について述べる. | |
V07N05-05 | \label{sec:introduction}我々は,1998年10月から自然言語解析用ツール「MSLRパーザ・ツールキット」を公開している~\footnote{{\tthttp://tanaka-www.cs.titech.ac.jp/pub/mslr/}}.MSLRパーザ(MorphologicalandSyntacticLRparser)は,一般化LR法の解析アルゴリズムを拡張し,単語区切りのない言語(日本語など)を主に対象とし,形態素解析と構文解析を同時に行うパーザである\footnote{MSLRパーザは,分かち書きされた文(英語文など)を解析する機能も持っているが,もともとは単語区切りのない文を解析することを目的に作られた.}.本論文では,MSLRパーザ・ツールキットの特徴と機能について述べる.MSLRパーザを用いて文を解析する場合には,以下の3つが必要になる.\begin{quote}\begin{description}\item[文法]品詞を終端記号とする文脈自由文法.主に構文解析に用いる.\item[辞書]単語とそれに対応した品詞を列挙したデータで,形態素解析の基本単位を集めたものである.辞書の品詞体系は文法の品詞体系と一致していなければならない.\item[接続表]品詞間の接続制約を記述した表.品詞間の接続制約とは,ある2つの品詞が隣接できるか否かに関する制約である.\end{description}\end{quote}本ツールキットでは,文法・辞書・接続表を自由に入れ換えることができる.すなわち,ユーザが独自に開発した文法や辞書を用いて,MSLRパーザによって文の解析を行うことが可能である.また,MSLRパーザ・ツールキットには日本語解析用の文法,辞書,接続表が含まれている.したがって,文法等を持っていないユーザでも,ツールキットに付属のものを用いて日本語文の形態素・構文解析を行うことができる.MSLRパーザはC言語で実装され,動作するOSはunixのみである.具体的には,以下のOSで動作することが確認されている.\begin{itemize}\itemSunOS5.6\itemDigitalUnix4.0\itemIRIX6.5\itemFreeBSD3.3\itemLinux2.2.11,LinuxPPC(PC-Mind1.0.4)\end{itemize}MSLRパーザを動作させるために必要なメモリ使用量・ディスク使用量は,使用する文法や辞書の規模に大きく依存する.例えば,ツールキットに付属の日本語解析用文法(規則数1,408)と辞書(登録単語数241,113)を用いる場合,50Mbyteのメモリと10Mbyteのディスク容量を必要とする.本ツールキットを用いた形態素・構文解析の流れを図~\ref{fig:overview}に示す.MSLRパーザの解析アルゴリズムは一般化LR法に基づいているため,まず最初にLR表作成器を用いて,文法と接続表からLR表を作成する.MSLRパーザは,作成されたLR表と辞書を参照しながら入力文の形態素・構文解析を行い,解析結果(構文木)を出力する.\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=overview.eps,width=0.9\textwidth}\end{epsf}\begin{draft}\atari(127,36)\end{draft}\caption{MSLRパーザを用いた形態素・構文解析の流れ}\label{fig:overview}\end{center}\end{figure}本ツールキットの主な特徴と機能は以下の通りである.\begin{itemize}\itemMSLRパーザは,形態素解析と構文解析を同時に行う.まず最初に形態素解析を行い,その出力をもとに構文解析を行う逐次的な方法では,形態素解析の段階では文法などの構文的な制約を考慮しない場合が多く,その後の構文解析の段階で不適当と判断されるような無駄な解析結果も出力される.これに対し,MSLRパーザは形態的な情報(辞書,接続表)と構文的な情報(文法)を同時に用いて解析を行うため,このような無駄な解析結果を生成することはない.\itemLR表作成器は,接続表に記述された品詞間の接続制約を組み込んだLR表を作成する.すなわち,LR表を作成する段階で品詞間の接続制約を考慮し,接続制約に違反する構文木を受理しないLR表を作る.さらに,品詞間の接続制約を組み込んだ場合,接続制約を組み込まない場合と比べてLR表の状態数・動作数を減らすことができ,メモリ使用量も小さくすることができるという利点がある.\item品詞間の接続制約は,接続表という形式で記述する代わりに,文法に組み込むことも可能である.しかしながら,接続制約を文法に組み込んだ場合,規則数が組み合わせ的に増大する.このため,文法作成者の負担が大きくなり,また作成されるLR表の大きさも大きくなるために望ましくない.このような理由から,本ツールキットでは,接続表と文法を独立に記述する枠組を採用している.\item平文を入力とした解析の他に,係り受けに関する部分的な制約を加えた文を入力とした解析を行うことができる.例えば,「太郎が渋谷で買った本を借りた」という文を解析する際に,次のような括弧付けによる制約を付けた文が入力されたときには,括弧付けと矛盾した解析結果は出力しない.\begin{displaymath}\tt[太郎が渋谷で買った]本を借りた\end{displaymath}すなわち,「太郎が」が「借りた」に係る以下のような解析結果は,Aの括弧付けが入力の括弧付けと矛盾(交差)しているために出力しない.\begin{displaymath}\tt[[太郎が][_A\;[[渋谷で][買った]][[本を][借りた]]]\;{}_A]\end{displaymath}この機能は,例えば前編集により係り受けに関する部分的な制約をあらかじめ文に付加してから解析を行い,構文的曖昧性を抑制する場合などに利用できる.\item確率一般化LRモデル~\cite{inui:98:a,sornlertlamvanich:99:a}(ProbabilisticGeneralizedLRModel,以下PGLRモデル)を取り扱うことができる.PGLRモデルとは,一般化LR法の枠組において構文木の生成確率を与える確率モデルである.PGLRモデルに基づく構文木の生成確率は,統計的な意味での正しさの尺度を構文木に与えることができるので,構文的な曖昧性の解消に利用することができる.\end{itemize}以下では,ここに挙げた本ツールキットの特徴と機能について詳しく説明する.\ref{sec:tablegenerator}節では品詞間の接続制約を組み込むLR表作成器について述べ,\ref{sec:parser}節ではMSLRパーザの概略について述べる.最後に\ref{sec:conclusion}節で本論文のまとめとMSLRパーザ・ツールキットの今後の開発方針について述べる. | |
V06N02-07 | \vspace{-2mm}テキスト音声合成システムの言語処理部における重要な課題の一つに,ポーズ挿入処理が挙げられる.ポーズ挿入処理は,音声化され,出力されたテキストの内容を人間が感覚的,意味的に捉えやすくするために,テキスト中の適当な位置に適当な長さのポーズを与える,テキスト音声合成に必須の技術であり,入力テキストの書き手が意識して挿入した句読点以外にも構文構造とポーズ挿入位置の関係が研究されてきた.従来の研究から,ポーズは構文的区切りと一致する\cite{杉藤1988},また特定の句構造\mbox{において}ポーズが挿入され易い\cite{海木1996}という知見が得られている.この他にも,文節間の係り受け距離と文節の長さが,ポーズ挿入の有効な手がかりになるという知見\cite{箱田1980},さらに,係り受け関係,句読点,文中における位置情報を加えることで精度が高まると期待できるとの報告\cite{箱田1989}もある.しかし,これらは係り受け距離や係り受け関係\mbox{などのテキ}スト情報が既に得られているとの前提に立った報告であり,実際にそれらのテキスト情報を求めるためには構文解析処理が別途必要となる.一般に構文解析処理は,大量の言語知識データを要する,テキストから精度の高い統語構造の自動抽出が困難,処理が重くなる,などといった問題から,実働するシステムにおいては,簡易なテキスト解析で得られる単語の品詞やモーラ数など,形態素解析レベルで得られる情報や,局所的な数文節に着目した簡易な係り受け解析が広く用いられている\cite[など]{宮崎1986,浅野1995,鈴木1995,澗潟1996,塚田1996,Tsukada1996,海木1996}.係り受けの範囲については,隣接する数文節の範囲内に限定できるとの報告\cite{箱田1989,鈴木1995},実際の文章において,隣り合う2文節の係り受けが\mbox{連続する場合が多いという}\mbox{報告\cite{丸山1992,張1997}があり},隣接2文節,もしくは局所的\mbox{な数文節間の係り受}け解析結果を用いた方法でかなり高精度のポーズ挿入が実現できることが明らかになっている.しかしながら,人間が聞いて理解しやすい構文的まとまりは,複数の文節によって様々なパタンで構成されており,上記方法でも限界はある.例えば,小説や随筆など,一文がある程度長く,文の構造が複雑なものになると,係り受けが3文節以上に跨る文の存在は少なくない.予め係り受けの範囲を3文節に限定してしまうことで,構文的まとまりの一節中にポーズが挿入されるなど不自然な読み上げを頻出する場合がある.一方,別のアプローチの一つに,コーパスを利用した統計的なポーズ挿入位置の予測方法が報告されている.文献\cite{Iwata1990}では,隣接2単語の接続のしやすさを\mbox{コーパスを用い}てスコア化し,それを用いたポーズ挿入方法を提案している.また,文献\cite{Doi1994}では,副助詞や接続助詞などの文法的役割に着目し,コーパスを用いてそれらの語彙の後に来るポーズの長さをレベル化し,それを用いたポーズ挿入方法を提案している.さらに文献\cite{藤尾1997}では係り受け情報付きコーパスの学習とポーズ情報付きコーパスの再学習によりフレーズ境界前後の形態情報とポーズ長の関係を統計的に得る方法を提案している.しかし,これらの方法は予め大量の学習用データを要し,さらにデータの分野依存が大きいと考えられる.本稿では,大量の学習用データに頼らず,長距離の係り受け解析をする,軽量・高速な構文解析処理を用いたポーズ挿入手法について報告する.本手法では,解析の範囲を文の長さや文節数で限定せず,一文を単位とした係り受け解析の情報を利用する.また,本手法をPC上で実動するレベルのテキスト音声合成システムに実装して,その効果を確認した. | |
V19N03-04 | label{sec:hajimeni}法は章節/条項号という階層を有する,基本的に構造化された文書であり,国(国会)の制定する法律,地方自治体(議会)が制定する条例の二つがある.前者に規則を加え法規,後者に規則を加え例規と総称される.日本国内で法律を制定する主体は国家のみだが,条例を制定する地方自治体は多数存在する.そのため,同一の事柄について規定する多数の例規が地方自治体ごとに存在することになる.例えば,各県の象徴であり,旗に用いられる県章を定めた条例は全都道府県で制定されており,青少年の保護育成を目的とする条例は,長野県を除く46都道府県で制定されている.これら同一事項に関する条例は相互に類似しているものの,地方自治体の置かれた状況が異なるため,随所に相違点が存在している.一例として,青少年の保護育成を目的とした条例では,青少年の深夜外出を制限しているが,その制限される時間が異なっている事が挙げられる.東京都や愛媛県では午後11時から午前4時を深夜と定義している一方,高知県では午後10時から午前4時を深夜としている.また,大阪府では外出を制限する時間帯を年齢によって変えており,16歳未満の場合は午後8時から午前4時まで外出を制限される.このような違いを明確化するため例規比較が行われる.例規比較は,自治体間の違いを明らかにする教育・研究活動以外にも,企業法務や自治体法務においても発生する業務である.自治体法務における例としては,例規を制定・改正する際の参考資料作成,さらには自治体合併時に全例規を擦り合せて一つに纏めるための準備作業が挙げられる.特に自治体合併時には,対象となる全自治体の全例規に対する例規比較を短時日に行う必要がある仕事量の多い法務となっている\cite{加藤幸嗣:2006-05,伊佐美浩一:2005-05,伊佐美浩一:2005-08,藤井真知子:2007-07-31}.現在,この例規比較は専門家が手作業で実施しているため,計算機を利用した作業の省力化が望まれている.そこで本研究では,条文対応表の作成支援を目的とし,与えられた2つの例規の条文対応表を計算機で作成する手法の検討及び,得られた条文の対応関係の尤もらしさについての評価を行う.法を計算機で扱う研究は,法律の専門家を模倣するエキスパートシステムに関する研究として,人工知能研究の派生領域として発達してきた.本分野初期の国際会議として,1987年より隔年開催されているInternationalConferenceonArtificialIntelligenceandLaw\cite{ICAIL}と,1988年より毎年開催されているInternationalConferenceonLegalKnowledgeandInformationSystem\cite{JURIX}がある.日本では平成5年度から9年度の文部省化学研究費重点領域研究「法律エキスパートシステムの開発研究」において促進された\cite{吉野一}.この期間を通してインターネット上における法律の閲覧が可能となり,特に判例を計算機で利用する知的システムに関する多数の研究が実施された.法律や例規以外の法関係の文書に対する情報科学との融合研究としては,特許における公開特許公報中の請求項と発明の詳細な説明文との対応付けを行う研究が行われている\cite{ronbun2-4,ronbun2-2}.また,法律用語のオントロジー構築に対する研究も行われた\cite{山口高平:1998-03-01}.そして,日本においても2007年より人工知能学会全国大会の併設ワークショップとしてInternationalWorkshoponJuris-informatics(JURISIN:JURISINformatics)が毎年開催されている.自治体の情報化を支援する企業も多数存在し,例規のインターネット上での公開支援にとどまらず,例規改正の編集過程に基づき,改正前後の差異を表現した新旧対照表を自動作成する事も可能となっている\cite{kakuda}.現在では,官報を基に法務省行政管理局が整備した法令データ提供システムが日本の法令を提供している\cite{eGov}.また,多くの法律の英対訳も名古屋大学の日本法令外国語訳データベースシステムを通じて提供されている\cite{JaLII}.現在では法律だけでなく,多くの自治体が例規をインターネット上に公開するようになった.しかし例規を対象とした情報科学との融合研究は少なく,これまでに例規を分類する研究\cite{原田隆史2009}が存在するに留まっている.そのため,例規の条文対応表の自動作成に関する研究は本論文が嚆矢である.米国の連邦法と州法とで整合性の取れていない条文の発見を目的とした,法律体系の中から関連する条文を網羅的に抽出する研究がある\cite{ronbun3-1}.この研究は類似する条文を抽出する点で,例規の条文対応を推定する本研究と類似している.しかしながら,彼らの研究は米国における領域知識の利用を前提としている事及び,不整合性検出のために数値や単位に特化した処理を追加している点で日本の例規を対象とした条文対応表への適用は困難である.条文対応表は,条文を一般の文書と見なした場合,類似文書を探す研究と見なしうる.類似文書の探索に関する研究としては,英語で記された複数のコーパス間の類似する文を抜き出す研究や\cite{ronbun1-1}や,コーパス内に存在する類似文のクラスタを抜きだす研究がある\cite{ronbun1-3}.また日本語を対象とした研究も挙げられる\cite{ronbun2-1,ronbun2-3}.これらの論文では同一事象に対して記述された記事の抽出及び,記事の要約をその目的としている.これらはよく整備されたコーパスや類義語辞典を用いたり,豊富に収集された事例に基づく機械学習によりその性能向上を図っている.そのため研究事例のない例規を対象とした本研究に直接利用する事は困難である. | |
V17N01-05 | \label{Introduction}日本語と英語のように言語構造が著しく異なり,語順変化が大きな言語対において,対訳文をアライメントする際に重要なことは二つある.一つは構文解析や依存構造解析などの言語情報をアライメントに組み込み,語順変化を克服することであり,もう一つはアライメントの手法が1対1の単語対応だけでなく,1対多や多対多などの句対応を生成できることである.これは一方の言語では1語で表現されているものが,他方では2語以上で表現されることが少なくないからである.しかしながら,既存のアライメント手法の多くは文を単純に単語列としてしか扱っておらず\cite{Brown93},句対応は単語対応を行った後にヒューリスティックなルールにより生成するといった方法を取っている\cite{koehn-och-marcu:2003:HLTNAACL}.Quirkら\cite{quirk-menezes-cherry:2005:ACL}やCowanら\cite{cowan-kuucerova-collins:2006:EMNLP}はアライメントに構造情報を統合しようとしたが,前述の単語列アライメントを行った後に用いるに留まっている.単語列アライメント手法そのものの精度が高くないため,このような方法では十分な精度でアライメントが行えるとは言い難い.一方で,アライメントの最初から構造情報を利用する手法もいくつか提案されている.Wata\-nabeら\cite{Watanabe00}やMenezesとRichardson\cite{Menezes01}は構文解析結果を利用したアライメント手法を提案しているが,対応の曖昧性解消の際にヒューリスティックなルールを用いている.YamadaとKnight\cite{yamada_ACL_2001}やGildea\cite{Gildea03}は木構造を利用した確率的なアライメント手法を提案している.これらの手法は一方の文の木構造に対して葉の並べ替え,部分木の挿入・削除といった操作を行って,他方の文構造を再現するものであるが,構文情報の利用が逆に強い制約となってしまい,文構造の再現が難しいことが問題となっている.YamadaとKnightはいったん木構造を崩すことによって,Gildeaは部分木を複製することによってこの問題に対処している.我々はこのような木構造に対する操作は不要であり,依存構造木中の部分木をそのままアライメントすればよいと考えた.またCherryとLin\cite{Cherry03}は原言語側の依存構造木を利用した識別モデルを提案している.しかしながらこの手法はアライメント単位が単語のみであり,一対一対応しか扱えないという欠点がある.phrase-basedSMTでいうところの“句”はただの単語列に過ぎないが,NakazawaとKurohashi\cite{nakazawa:2008:AMTA}は言語的な句をアライメントの最小単位とし,句の依存関係に着目したモデルを提案しているが,そこでは内容語は内容語のみ,機能語は機能語のみにしか対応しないという制約があり,また複数の機能語をひとまとまりに扱っているという問題もあり,これらがしばしば誤ったアライメントを生成している.本論文ではNakazawaとKurohashiの手法の問題点を改善し,単語や句の依存関係に注目した句アライメントモデルを提案する.提案手法のポイントは以下の3つである.\begin{enumerate}\item両言語とも依存構造解析し,アライメントの最初から言語の構造情報を利用する\label{point1}\itemアライメントの最小単位は単語だが,モデル学習時に句となるべき部分を自動的に推定し,句アライメントを行う\label{point2}\item各方向(原言語$\rightarrow$目的言語と目的言語$\rightarrow$原言語)の生成モデルを二つ同時に利用することにより,より高精度なアライメントを行う\label{point3}\end{enumerate}本モデルは二つの依存構造木において,一方の依存構造木で直接の親子関係にある一組の対応について,他方のそれぞれの対応先の依存関係をモデル化しており,単語列アライメントで扱うのが困難な距離の大きな語順変化にも対応することができる.言い替えれば,本モデルは木構造上でのreorderingモデルということができる.また本モデルはヒューリスティックなルールを用いずに,句となるべき部分を自動的に推定することができる.ここでいう句とは必ずしも言語的な句である必要はなく,任意の単語のまとまりである.ただし,Phrase-basedSMTにおける句の定義との重要な違いは,我々は木構造を扱っており,単語列としては連続でなくても,木構造上で連続ならば句として扱っているという点である.また我々のモデルはIBMモデルのような各方向の生成モデルを両方向分同時に用いてアライメントを行う.これはアライメントの良さを両方向から判断する方が自然であり,Liangら\cite{liang-taskar-klein:2006:HLT-NAACL06-Main}による報告にもあるように,そうした方が精度よいアライメントが行えるからである.ただし,Liangらの手法がIBMモデルと同様に単語列を扱うものであるのに対し,提案手法は木構造を扱っているという重要な違いがある.またLiangらの手法では部分的に双方向のモデルを結合するに留まっており,アライメントの結果としては各方向それぞれ独立に生成されるが,我々の方法ではただ一つのアライメントを生成するという違いもある.最近の報告では生成モデルよりも識別モデルを用いた方がより高精度なアライメントが行えるという報告がなされているが,学習用にアライメントの正解セットを用意するコストがかかってしまう.そこで我々は教師なしでモデル学習が行える生成モデルを用いた.モデルは2つのステップを経て学習される.Step1では単語翻訳確率を学習し,Step2では句翻訳確率と依存関係確率が推定される.さらにStep2では単語対応が句対応に拡張される.各StepはEMアルゴリズムにより反復的に実行される.次章では我々の提案するアライメントモデルを,IBMモデルと比較しながら定義する.\ref{training}章ではモデルのトレーニングについて説明し,\ref{result}章では提案手法の有効性を示すために行った実験の結果と結果の考察を述べ,最後に結論と今後の課題を述べる. | |
V21N01-03 | \label{sec:introduction}電子化されたテキストが利用可能になるとともに,階層的文書分類の自動化が試みられてきた.階層的分類の対象となる文書集合の例としては,特許\footnote{http://www.wipo.int/classifications/en/},医療オントロジー\footnote{http://www.nlm.nih.gov/mesh/},Yahoo!やOpenDirectoryProject\footnote{http://www.dmoz.org/}のようなウェブディレクトリが挙げられる.文書に付与すべきラベルは,タスクによって,各文書に1個とする場合と,複数とする場合があるが,本稿では複数ラベル分類に取り組む.階層的分類における興味の中心は,あらかじめ定義されたラベル階層をどのように自動分類に利用するかである.そもそも,大量のデータを階層的に組織化するという営みは,科学以前から人類が広く行なってきた.例えば,伝統社会における生物の分類もその一例である.そこでは分類の数に上限があることが知られており,その制限は人間の記憶容量に起因する可能性が指摘されている\cite{Berlin1992}.階層が人間の制約の産物だとすると,そのような制約を持たない計算機にとって,階層は不要ではないかと思われるかもしれない.階層的分類におけるラベル階層の利用という観点から既存手法を整理すると,まず,非階層型と階層型に分けられる.非階層型はラベル階層を利用しない手法であり,各ラベル候補について,入力文書が所属するか否かを独立に分類する.ラベル階層を利用する階層型は,さらに2種類に分類できる.一つはラベル階層を候補の枝刈りに用いる手法(枝刈り型)である.典型的には,階層を上から下にたどりながら局所的な分類を繰り返す\cite{Montejo2006,Qiu2009full,Wang2011IJCNLPfull}.枝刈りにより分類の実行速度をあげることができるため,ラベル階層が巨大な場合に有効である.しかし,局所的な分類を繰り返すことで誤り伝播が起きるため,精度が低下しがちという欠点が知られている\cite{Bennett2009}.もう一つの手法はパラメータ共有型である.この手法では,ラベル階層上で近いラベル同士は似通っているので,それらを独立に分類するのではなく,分類器のパラメータをラベル階層に応じて部分的に共有させる\cite{Qiu2009full}.これにより分類精度の向上を期待する.これらの既存手法は,いずれも複数ラベル分類というタスクの特徴を活かしていない.複数ラベル分類では,最適な候補を1個採用すればよい単一ラベル分類と異なり,ラベルをいくつ採用するかの加減が人間作業者にとっても難しい.我々は,人間作業者が出力ラベル数を加減する際,ラベル階層を参照しているのではないかと推測する.例えば,科学技術文献を分類する際,ある入力文書が林業における環境問題を扱っていたとする.この文書に対して,「林業政策」と「林業一般」という2個のラベルは,それぞれ単独でみると,いずれもふさわしそうである.しかし,両者を採用するのは内容的に冗長であり,よりふさわしい「林業政策」だけを採用するといった判断を人間作業者はしているかもしれない.一方,別のラベル「環境問題」は「林業政策」と内容的に競合せず,両方を採用するのが適切を判断できる.この2つの異なる判断は,ラベル階層に対応している.「林業政策」と「林業一般」は最下位層において兄弟関係にある一方,「林業政策」と「環境問題」はそれぞれ「農林水産」と「環境工学」という異なる大分類に属している.このように,我々は,出力すべき複数ラベルの間にはラベル階層に基づく依存関係があると仮定する.そして,計算機に人間作業者の癖を模倣させることによって,(それが真に良い分類であるかは別として)人間作業者の分類を正解としたときの精度が向上することを期待する.本稿では,このような期待に基づき,ラベル間依存を利用する具体的な手法を提案する.まずは階層型複数ラベル文書分類を構造推定問題として定式化し,複数のラベルを同時に出力する大域モデルと,動的計画法による厳密解の探索手法を提案する.次に,ラベル間依存を表現する枝分かれ特徴量を導入する.この特徴量は動的計画法による探索が維持できるように設計されている.実験では,ラベル間依存の特徴量の導入により,精度の向上とともに,モデルの大きさの削減が確認された.本稿では,\ref{sec:task}節で問題を定義したうえで,\ref{sec:proposed}節で提案手法を説明する.\ref{sec:experiments}節で実験結果を報告する.\ref{sec:related-work}節で関連研究に言及し,\ref{sec:conclusion}節でまとめと今後の課題を述べる. | |
V14N03-07 | 授業改善は現在多くの大学において極めて重要な課題となっている.大学がこれまで以上に多くの学生の興味を引き出しながら,教育の水準を高めなければならないからである.このためこれまでにも様々な授業改善の研究が試みられた(たとえば赤堀侃司1997;伊藤秀子ら1999,田中毎実ら2000など).また授業改善は教育技法の問題だけでなく,大学のカリキュラムの構成や教師資質の改善(FacultyDevelopment)の問題でもある.大学では自己点検自己評価あるいは外部評価などが行われ,中でも学生による授業評価は大学改革の中核として注目されている.しかし多くの大学で行われる学生による授業評価は,学生にマークシートを記入させる方式で行われることが多く,選択枝にない学生の自由な意見が反映され難い.そこで学生の自由な意見を収集することになるが,たとえば授業について学生に自由な意見を書かせた場合,何らかの方法でその内容を分析し授業改善に反映させなければならない.本研究では,学生に携帯メールを使って授業の自由な感想文を送らせ,その文章を感情評価基準を使って分類する方法で授業を評価し,授業改善に対する考察を行った. | |
V20N03-05 | 近年,TwitterやFacebookなどのソーシャルメディアが社会において大きな存在感を示している.特に,Twitterは情報発信の手軽さやリアルタイム性が魅力であり,有名人のニュース,スポーツなどの国際試合の勝利,災害の発生などの速報,アメリカ大統領選挙に代表される選挙活動,アラブの春(2010年,2011年)やイギリスの暴動(2011年)など,社会に大きな影響を与えるメディアになっている.2011年3月に発生した東日本大震災においても,安否確認や被災者支援のために,ソーシャルメディアが活躍した.Twitter上ではリアルタイムな情報交換が行われているが,誤った情報や噂も故意に,あるいは故意ではなくとも広まってしまうことがある.東日本大震災での有名な例としては,「コスモ石油の火災に伴い有害物質の雨が降る」や「地震で孤立している宮城県花山村に救助が来ず,赤ちゃんや老人が餓死している」などの誤情報の拡散が挙げられる.このような誤情報の拡散は無用な混乱を招くだけでなく,健康被害や風評被害などの2次的な損害をもたらす.1923年に発生した関東大震災の時も,根拠のない風説や流言が広まったと言われているが,科学技術がこれほど進歩した2011年でも,流言を防げなかった.このような反省から,Twitter上の情報の\addspan{信憑性}を判断する技術に注目が集まっている.しかしながら,情報の\addspan{信憑性}をコンピュータが自動的に判断するのは,技術面および実用面において困難が伴う.コンピュータが情報の\addspan{信憑性}を推定するには,大量の知識を使って自動推論を行う必要があるが,実用に耐えうる知識獲得や推論手法はまだ確立できていない.また,情報の\addspan{信憑性}は人間にも分からないことが多い.例えば,「ひまわりは土壌の放射性セシウムの除去に効果がある」という情報が間違いであることは,震災後に実際にひまわりを植えて実験するまで検証できなかった.さらに,我々は情報の\addspan{信憑性}と効用のトレードオフを考えて行動決定している.ある情報の\addspan{信憑性}が低くても,その情報を信じなかったことによるリスクが高ければ,その情報を信じて行動するのは妥当な選択と言える.そこで,我々はツイートの\addspan{信憑性}を直接判断するのではなく,そのツイートの情報の「裏」を取るようなツイートを提示することで,情報の価値判断を支援することを考えている.図\ref{fig:map}に「イソジンを飲めば甲状腺がんを防げる」という内容のツイート(中心)に対する,周囲の反応の例を示した.このツイートに対して,同意する意見,反対する意見などを提示することで,この情報の根拠や問題点,他人の判断などが明らかになる.例えば,図\ref{fig:map}左上のツイート「これって本当???」は,中心のツイートに対して疑問を呈しており,図\ref{fig:map}左下のツイート「これデマです.RT@ttaro:イソジンを飲めば甲状腺がんを防げるよ.」は,中心のツイートに対して反論を行っている.これらのツイート間の関係情報を用いれば,中心のツイートに対して多くの反論・疑問が寄せられているため,中心のツイートの信憑性は怪しいと判断したり,右下のツイートのURLの情報を読むことで,追加情報を得ることができる.\begin{figure}[t]\begin{center}\includegraphics{20-3ia16f1.eps}\end{center}\caption{返信・非公式リツイート,もしくは内容に基づくツイート間の論述関係}\label{fig:map}\vspace{-0.5\Cvs}\end{figure}Twitterにおいて特徴的なのは,ツイート間に返信\footnote{メールで返信を行うときに,返信元の内容を消去してから返信内容を書く状況に相当する.Twitterのメタデータ上では,どのツイートに対して返信を行ったのかという情報が残されている.}や非公式リツイート\footnote{メールで返信を行うときに,返信元の内容を引用したままにしておく状況に相当する.\addspan{元のツイートをそのままの形でフォロワーに送る(公式)リツイートとは異なりTwitterが提供している機能ではないが,サードパーティ製のクライアントでサポートされており頻繁に利用されている.}}などの\addspan{形式を取った投稿が可能な}点である.例えば,図\ref{fig:map}左上のツイートは中心のツイートに対する発言であること,図\ref{fig:map}左下と右上のツイートは中心のツイートを引用したことが記されている.これに対し,図\ref{fig:map}右下のツイートは,返信や非公式リツイートの\addspan{形式を取っていないため,中心のツイートを見て投稿されたものかは不明である.}本研究では,返信や非公式リツイートの形式を取ったツイート(返信ツイート)に着目し,ツイート間の論述的な関係を認識する手法を提案する.具体的には,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると考え,これらの態度を推定する分類器を教師有り学習で構築する.評価実験では,返信で表明される態度の推定性能を報告する.さらに,既存の含意関係認識器をこのタスクに適用し,直接的に返信関係のないツイート間の論述的な関係の推定を行い,その実験結果を報告する. | |
V14N01-02 | 人間の言語能力をコンピュータ上に実現することを狙った自然言語処理については,近年盛んに研究されている.しかし,かな漢字変換方式の日本語ワープロのように実用システムとして成功した例はまれで,多くは実験システムの域にとどまっている.実際,自然言語の壁は厚く,多くの研究者が従来の言語理論と実際の自然言語との間にギャップがあると感じている.事実,従来の計算言語学は強化されてきたとはいえ,自然言語の持つ論理的な一側面しか説明できず,現実の言語に十分に対応できていない.英語に比べて語順が自由で省略の多い日本語は,句構造解析には不向きとされ,係り受け解析が一般的となっている.また,係り受けが交差する入れ子破りが起こる表現は,係り受け解析では扱えるが,句構造解析による木構造では扱えない.さらに,文内で独自の統語・意味構造をもつ複合名詞や名詞句は,これらに適した個別的な構造解析法を模索する必要がある.現在,主流となっている文節構文論(学校文法)に基づく構文解析では以下の例に示すように構文解析結果が意味と整合性が良くなく,時枝文法風の構文解析の方が解析結果に則って意味がうまく説明できることが指摘されている\cite{水谷1993}.\begin{itemize}\item「梅の花が咲く.」\\この文は「梅の/花が/咲く.」と文節に分割でき,係り受け解析では,「梅の」が「花が」に係り,「花が」が「咲く」に係るが,図\ref{fig:umenohana}に示すように「梅の」は「花」のみに係ることが望ましい.\begin{figure}[b]\centering\includegraphics[width=5.5cm]{umenohana.eps}\caption{「梅の花が咲く.」の入れ子構造}\label{fig:umenohana}\end{figure}\item「山を下り,村に着いた.」\\この文は「山を/下り/村に/着いた.」と文節に分割でき,係り受け解析では,「山を」が「下り」に,「下り」が「着いた」に,「村に」が「着いた」に係るが,図\ref{fig:yamakudari}に示すように「下り」と「着い」をともに「た」が受けることが望ましい.\begin{figure}[t]\centering\includegraphics[width=9cm]{yamakudari.eps}\caption{「山を下り,村に着いた.」の入れ子構造}\label{fig:yamakudari}\par\vspace{20pt}\includegraphics[width=6cm]{sakanaturi.eps}\caption{「魚を釣りに行く.」の入れ子構造}\label{fig:sakanaturi}\end{figure}\item「魚を釣りに行く.」\\この文は「魚を/釣りに/行く.」と分割でき,係り受け解析では,「魚を」が「釣りに」に係り,「釣りに」が「行く」に係るが,図\ref{fig:sakanaturi}に示すように「魚を」は「釣り」のみに係ることが望ましい.この際,「釣り」が連用形名詞であり,名詞と動詞の品詞の二重性をもつことに注意が必要である.\end{itemize}元来,構文解析は文の意味を正しく解析するために行うのであるから,日本語文パーザには意味と親和性のある統語構造を出力することが要求される.日本語文解析全体としては,形態素解析に始まり,構文解析,意味解析と続く流れを想定している.ここで,構文解析と意味解析は分離しているが,構文解析は意味解析を助ける構造を出力することが求められる.すなわち,助詞・助動詞などの機能語,形式名詞から作り出される文の骨格,いわば構造が持つ意味を的確に捕らえておくことが必要である.構文解析そのものは,意味情報を導入することにより多義が発生することを避け,表層的情報・統語的情報のみを用いて解析するものとする.この方針は,長尾\cite{長尾1996}の「文は何らかの新しい情報(知識)を伝えるものであるから,文の構造を理解するために前もって意味的な情報が必要であると仮定することには本質的に問題がある.たとえば未知の分野の専門書などを読む場合,その内容(意味)は文の構造から理解できるという状況が考えられる.」との見解とも一致する.従来から日本語構文解析の主流となっている,係り受け解析に基づくKNP\cite{黒橋他1994}が既に作成されており,句構造の流れをくむHPSGを用いた日本語文解析についての研究\cite{大谷他2000}なども行われている.係り受け解析との対比は以降の章で詳細を述べる.上記のHPSG関連の研究は,主に日本語単文をHPSGで取り扱う上での問題点とその解決策について示したものであり,単文だけでなく,複文,重文などを対象とし,語の単位と機能を整理し直した構文解析の体系を作り出そうとしている本研究の目標と異なるものである.さらに,本論文で提案するパーザでは構文解析と意味解析を分離しており,HPSGのように構文解析と意味解析と融合するのではないため,本論文では特に比較を行わない.本論文では,上記のような日本語構文解析上の問題を解決するものとして,従来の研究では見逃されていた言語の過程的構造\cite{池原他1987,池原他1992,宮崎他1992}に目を向け,三浦の言語モデル(関係意味論に基づく三浦の入れ子構造)とそれらの基づく日本語文法体系(三浦文法)をベースにした意味と親和性のある統語構造を出力する日本語文パーザの枠組みを提案し,その有効性について論じる.最後に,本論文中で意味との整合性が良くないとして取り上げたパターンの出現頻度が低くないことおよびパーザが最低限の解析能力を持つことを実験により検証する. | |
V07N02-04 | \label{sec:introduction}固有表現(NE=NamedEntity)抽出は情報抽出における基礎技術として認識されているだけでなく,形態素,構文解析の精度向上にもつながる重要な技術である.米国では1980年代からMUC(MessageUnderstandingConference)\cite{Muc:homepage}のようなコンテストが行なわれ,その技術の向上が図られてきた.日本においても1998年からコンテスト形式のプロジェクト「IREX(InformationRetrievalandExtractionExercise)」が始められ,そのタスクの一つとして固有表現抽出が盛り込まれた.このタスクで固有表現として抽出するのは,「郵政省」のように組織の名称を表すもの,「小渕恵三」のように人名を表すもの,「神戸」のように地名を表すもの,「カローラ」のように固有物の名称を表すものおよび,「9月28日」,「午後3時」,「100万円」,「10\%」のように日付,時間,金銭,割合を表す表現である.このように,固有名詞的表現だけでなく,時間表現,数値表現も抽出の対象としているため,本論文ではそれらをすべてまとめて固有表現と呼ぶ.このような固有表現は多種多様で,次々と新たに生み出されるためそのすべてを辞書に登録しておくことは不可能である.また,同じ表現でも,あるときは地名としてまたあるときは人名として使われるというようにタイプに曖昧性がある.そのため,テキストが与えられたときその中でどの部分がどのタイプの固有表現であるかを同定するのは容易ではない.固有表現を抽出する方法には大きく分けると,人手で作成した規則に基づく方法と学習に基づく方法がある.固有表現の定義は抽出したものを何に応用するかによって異なってくるものであるため,前者の方法では定義が変わるたびに規則を人手で作成し直す必要がありコストがかかる.後者の方法は学習コーパスを作る必要があるが,データスパースネスに強い学習モデルを使えばそれほど大量のコーパスがなくても高い精度が得られる.そこで我々は後者の方法をとることにした.この学習に基づく方法は英語での固有表現抽出の研究でも用いられている.例えば,HMM\cite{Bikel:97,Miller:98},決定木モデル\cite{Cowie:95},ME(最大エントロピー)モデル\cite{Borthwick:98},共起情報\cite{Lin:98},誤り駆動の書き換え規則\cite{Aberdeen:95}などに基づくシステムがある.学習に基づく方法としてMUCのコンテストで最も精度が高かったのはHMMに基づくNymbleという名のシステムである.このシステムは基本的に以下のような手法をとっている.まず学習では,MUCのNEタスクで定義された「PERSON」や「ORGANIZATION」などの固有表現およびそれ以外を表す「NOT-A-NAME」をそれぞれ状態として持つ状態遷移図を用意し,ある状態で,ある単語が入力されたときにどの状態に移るかを状態遷移確率として求める.そして,解析する際には,ビタビアルゴリズムを用いて,入力された単語列が辿り得る状態のパスうち,最適なパスを探索し,順次,辿った状態を出力することで固有表現を抽出する.他の学習手法を用いたシステムも確率の計算方法は違うが同様の手法をとっていることが多い.Borthwickらは,この学習に基づくシステムおよび人手で作成した規則に基づくシステムの中から,それぞれMUCで比較的精度の高かったシステムを選びそれらを学習に基づく方法によって統合することによってより高い精度を得ている\cite{Borthwick:98}.あるデータに対しては人間のパフォーマンスを越えるような結果も得られている\cite{Borthwick_muc:98}.学習に基づく方法は固有表現抽出の研究以外に形態素解析や構文解析においてもよく用いられている\cite{Uchimoto99_jinbun}.学習モデルとしてはMEモデルを用いたものが優れた精度を得ていることが多く\cite{ratnaparkhi:emnlp96,ratnaparkhi:emnlp97,Uchimoto:eacl99},データスパースネスに強いため,我々は固有表現抽出においてもこのMEモデルを用いることにした.さらに後処理として,誤り駆動により獲得した書き換え規則を用いる.この書き換え規則を用いる手法は形態素解析でも用いられている\cite{Brill:95,Hisamitsu:98}.固有表現の定義はIREX固有表現抽出タスク(IREX-NE)の定義\cite{irex:homepage}に基づくものとする.その定義によると,固有表現には「日本」や「国立/公文書/館」(/は形態素の区切りを表す)のように一つあるいは複数の形態素からなるもの,あるいは「在米」の「米」,「兵庫/県内」の「兵庫県」のように形態素単位より短い部分文字列を含むものの2種類がある.前者の固有表現は,固有表現の始まり,中間,終りなどを表すラベルを40個用意し,各々の形態素に対し付与すべきラベルを推定することによって抽出する.ラベルの推定にはMEモデルを用いる.このMEモデルでは学習コーパスで観測される素性と各々の形態素に付与すべきラベルとの関係を学習する.ここで素性とはラベル付与の手がかりとなる情報のことであり,我々の場合,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞の情報のことである.ラベルを推定する際には,入力文を形態素解析し,MEモデルを用いてそれぞれの形態素ごとにそこで観測される素性から各ラベルの尤もらしさを確率として計算し,一文全体における確率の積の値が高くなり,かつラベルとラベルの間の連接規則を満たすように各々の形態素に付与するラベルを決める.一文における最適解の探索にはビタビアルゴリズムを用いる.一方,後者の固有表現のように形態素単位より短い部分文字列を含む固有表現は上記の方法では抽出できないので,MEモデルを用いてラベルを決めた後に書き換え規則を適用することによって抽出する.書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.一つあるいは複数の形態素からなる固有表現についても同様に書き換え規則を適用することは可能であるが,本論文ではMEモデルについてはラベル付けの精度に重点を置き,書き換え規則についてはできるだけ簡便な獲得方法を用いて効果をあげることに重点を置く.本論文ではIREX-NE本試験に用いられたデータに対し我々の手法を適用した結果を示し,さらにいくつかの比較実験からMEモデルにおける素性と精度の関係,学習コーパスの量と精度の関係,さらに簡便な方法を用いて自動獲得した書き換え規則がどの程度精度に貢献するかを明らかにする. | |
V06N06-06 | 本論文では,文,文章上の特徴,および文章の解析により得られた構造上の特徴をパラメタとして用いた判定式による文章の自動抄録手法を示す.さらに,抽出された文の整形や照応を考慮した文章要約手法について述べる.近年のインターネットなどの発展により,大量の電子化された文書が我々の周りに溢れている.これら大量の文書から必要とする情報を効率良く高速に処理するために,キーワード抽出や文章要約,抄録といった研究が行なわれている.それらのためには,計算機を用い,必ずしも深い意味解析を行なわずに文章の表層的特徴から解析を行なう方法が有効である.文章抄録とは文章から何らかの方法で重要である文を選び出し,抽出することである.山本ら\cite{Masuyama:95}は照応,省略,語彙による結束性など多くの談話要素から重要文を選択していく論説文要約システム(GREEN)を発表している.このシステムは談話要素を利用したものではあるが,文章の局所的な特徴を基に文を抽出するもので,本研究の立場からすれば文章全体の構造に基づく抽出と,電子化された大量のコーパス利用を考慮した抽出手法や手法の評価が必要と考える.また,亀田\cite{Kameda:97}は重要文の抽出の際に文章の中で小さなまとまりを示す段落や,一種の要約情報である文の見出しに着目する手法を提案,実現しているが,重要度計算の調整は人手により,系統的でないところが感じられる.さて,重要文の抽出に用いられるテキスト中の表層的特徴については,\cite{Okumura:98}にサーベイがある.これによると,Paice\cite{Paice:90}の分類として,(1)キーワードの出現頻度によるもの,(2)テキスト,段落中の位置情報によるもの,(3)タイトル等の情報によるもの,(4)文章の構造によるもの,(5)手がかり語によるもの,(6)文や単語間のつながりによるもの,(7)文間の類似性によるものがあげられている.本研究での手法は,上記のかなりの要素を組み合わせてパラメタとして利用している.いくつかの観点からのパラメタを組み合わせるという同様な手法として,\cite{Watanabe:96},\cite{Nomoto:97}がある.それぞれ,重回帰分析,決定木学習により訓練データから自動学習するものである.われわれの手法は,構造木に関する情報を特に重視している.人間は,目的の意見,主張を読み手に伝えるために,意識下/無意識下に文章構成の約束に基づいて文章生成を行なっているが,それらの文章に論証性を持たせるためのものが文章構造である.また逆に,文章を理解し論旨を捉える際に文章構造を活用していると考えられる.したがって,文章の抄録にあたり,論旨を捉え,文章構造を理解した上で重要文を抽出していく手法は人間の文章抄録の流れに沿っており,ごく自然であると考えられる.実際,\cite{Marcu:97}では,人間の手による生成ではあるが文間の関係を解析した修辞構造生成後の文抽出の再現率,適合率は良好と報告されている.われわれの手法でも,修辞構造を含めた文章構造解析による情報を利用する.文章構造解析には田村ら\cite{Tamura:98}の分割と統合による構造解析手法を利用する.文章抄録には,構造解析で用いたパラメタに加えて,得られた文章構造上の情報についてのパラメタにより文抽出のための判定式を作り,それを基にして抄録を作成する.判定式とパラメタの重みの決定は重回帰分析に基づき,その訓練のため,およびシステムの評価のための基準データは,被験者に対するのべ350編の抄録調査による.なお,実験の対象とした文章は,均一な文章が容易に入手可能であるとの理由から,新聞の社説を用いる.一方,原文から単に文を選ぶだけの文章抄録では,選択された文間の隣接関係が不自然になる場合がある.また,たとえ選択された一文でも文内には冗長な表現が残っている場合がある.そこで,自動要約に向けては,抄録後になんらかの文章整形過程が必要である.本研究では,抄録の整形過程としての照応処理と,一文の圧縮処理を行なう.以下,第2章では文章抄録,要約のための文章構造解析について述べ,第3章では文章の自動抄録の手法について説明する.第4章では,提案の手法について再現率,適合率により評価検討を行う.最後に付録として,抄録の整形過程について述べ,実際に要約した文章例を示す. | |
V17N02-03 | label{sec:intro}自然言語処理や言語学においてコーパスは重要な役割を果たすが,従来のコーパスは大人の文章を集めたものが中心で子供の文章を集めたコーパスは少ない.特に,著者らが知る限り,書き言葉を収録した大規模な子供のコーパスは存在しない.\ref{sec:problems}節で詳細に議論するように,子供のコーパスの構築には,子供のコーパス特有の様々な難しさがある.そのため,大規模な子供のコーパスの構築は容易でない.例えば,ChildLanguageDataExchangeSystem(CHILDES)~\cite{macwhinney1,macwhinney2}の日本語サブコーパスであるHamasakiコーパス~\cite{hamasaki},Ishiiコーパス~\cite{macwhinney1,macwhinney2},Akiコーパス~\cite{aki},Ryoコーパス~\cite{ryo},Taiコーパス~\cite{tai},Nojiコーパス~\cite{macwhinney1,macwhinney2}は,全て話し言葉コーパスである.また,対象となる子供の数は1人である(表~\ref{tab:previous_corpus}に,従来のコーパスの概要を示す.英語コーパスについては,文献~\cite{chujo}に詳しい).言語獲得に関する研究や自然言語処理での利用を考えた場合,コーパスは,子供の人数,文章数,収集期間の全ての面で大規模であることが望ましい.\begin{table}[b]\caption{従来の子供のコーパス}\label{tab:previous_corpus}\input{04table01.txt}\end{table}一方で,様々な分野の研究で子供の作文が収集,分析されており,子供のコーパスに対する需要の高さがうかがえる.例えば,国立国語研究所~\cite{kokken}により,小学生の作文が収集され,使用語彙に関する調査が行われている.同様に,子供の作文を対象とした,文章表現の発達的変化に関する分析~\cite{ishida},自己認識の発達に関する分析~\cite{moriya}なども行われている.更に,最近では,子供のコーパスの新しい利用も試みられている.石川~\cite{ishikawa}は,英語コーパスと子供のコーパス(日本語)を組み合わせて,小学校英語向けの基本語彙表を作成する手法を提案している.掛川ら~\cite{kakegawa}は,子供のコーパスから,特徴的な表現を自動抽出する手法を提案している.坂本~\cite{sakamoto}は,小学生の作文の分析に基づき,共感覚比喩一方向性仮説に関する興味深い考察を行っている.これらの研究は,いずれも子供のコーパスを利用しているものの,言語データの収集とコーパスの構築は独自に行っている.そのため,コーパスは一般には公開されておらず,研究や教育に自由に利用できる状態にはない.したがって,大規模な子供のコーパスの一般公開は関連分野の研究の促進に大きく貢献すると期待できる.また,研究者間で共通のコーパスが利用できるため,研究成果の比較も容易となる.そこで本論文では,子供のコーパス構築の難しさ解消し,効率良く子供のコーパスを構築する方法を提案する.そのため,まず,子供のコーパスを構築する際に生じる難しさを整理,分類する.その整理,分類に基づき子供のコーパスの構築方法を提案する.また,提案方法を用いて実際に構築した「こどもコーパス」についても述べる(表~\ref{tab:pupil_corpus}に「こどもコーパス」の概要と特徴を示す).「こどもコーパス」は,小学5年生81人を対象にして,8ヵ月間言語データを収集したコーパスである.その規模は39,269形態素であり,形態素数と人数において公開されている書き言葉の子供コーパスとして最大である\footnote{教育研究目的での利用に限り「こどもコーパス」を公開している.利用希望者は,第一著者に連絡されたい.今後は,Webページなどで同コーパスを公開する予定である.}.規模以外に,「こどもコーパス」には,作文履歴がトレース可能という特徴がある.作文履歴がトレース可能とは,いつ誰が何を書いたか,および,どのように書き直したかの履歴が参照可能であることを意味する.なお,本論文では,特に断らない限り,子供とは小学生のことを指すこととする.したがって,以下では,小学生のコーパス構築を念頭に置いて議論を進める.以下,\ref{sec:problems}節では,子供のコーパスを構築する際に生じる難しさを整理,分類する.\ref{sec:proposed_method}節では,\ref{sec:problems}節の議論に基づき,効率良く子供のコーパスを構築する方法を提案する.\ref{sec:pupil_corpus}節では,「こどもコーパス」の詳細を述べる.\begin{table}[h]\caption{「こどもコーパス」の概要と特徴}\label{tab:pupil_corpus}\input{04table02.txt}\end{table}\vspace{-1\baselineskip} | |
V10N02-07 | 本論文はフリーの特異値分解ツールSVDPACKC\cite{svdpackc}を紹介する.その利用方法を解説し,利用事例として多義語の曖昧性解消問題(以下,語義判別問題と呼ぶ)を扱う.情報検索ではベクトル空間モデルが主流である.そこでは文書とクエリを索引語ベクトルで表し,それらベクトル間の距離をコサイン尺度などで測ることで,クエリと最も近い文書を検索する.ベクトル空間モデルの問題点として,同義語(synonymy)と多義語(polysemy)の問題が指摘されている.同義語の問題とは,例えば,``car''というクエリから``automobile''を含む文書が検索できないこと.多義語の問題とは,例えば,ネットサーフィンについてのクエリ``surfing''に対して,波乗りに関する文書が検索されることである.これらの問題は文書のベクトルに索引語を当てることから生じている.そこでこれら問題の解決のために文書のベクトルを潜在的(latent)な概念に設定することが提案されており,そのような技術を潜在的意味インデキシング(LatentSemanticIndexing,以下LSIと略す)と呼んでいる.LSIの中心課題はどのようにして潜在的な概念に対応するベクトルを抽出するかである.その抽出手法にLSIでは特異値分解を利用する.具体的には索引語文書行列\(A\)に対して特異値分解を行い,その左特異ベクトル(\(AA^{T}\)の固有ベクトル)を固有値の大きい順に適当な数\(k\)だけ取りだし\footnote{ここでは索引語ベクトルを列ベクトルとしている.また\(A^{T}\)は\(A\)の転置行列を表す.},それらを潜在的な概念に対応するベクトルとする\cite{kita-ir}.LSIは魅力的な手法であるが,実際に試してみるには,特異値分解のプログラムが必要になる.低次元の特異値分解のプログラムは比較的簡単に作成できるが,現実の問題においては,高次元かつスパースな行列を扱わなくてはならない.このような場合,特異値分解のプログラムを作成するのはそれほど容易ではない.そこで本論文では,この特異値分解を行うためのツールSVDPACKCを紹介する.このツールによって高次元かつスパースな行列に対する特異値分解が行え,簡単にLSIを試すことができる.またLSIの情報検索以外の応用として,語義判別問題を取り上げSVDPACKCの利用例として紹介する.実験ではSENSEVAL2の日本語辞書タスク\cite{sen2}で出題された単語の中の動詞50単語を対象とした.LSIに交差検定を合わせて用いることで,最近傍法\cite{ishii}の精度を向上させることができた.また最近傍法をベースとした手法は,一部の単語に対して決定リスト\cite{Yarowsky1}やNaiveBayes\cite{ml-text}以上の正解率が得られることも確認できた. |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.