id
stringlengths
9
9
text
stringlengths
120
1.29k
title
stringclasses
1 value
V16N03-01
本稿では,Wikipediaの記事構造を知識源として,高精度で大量の上位下位関係を自動獲得する手法について述べる.上位下位関係は情報検索やWebディレクトリなど,膨大なWeb文書へのアクセスを容易にする様々な技術への応用が期待されており,これまでにも様々な上位下位関係の抽出手法が開発されてきた.本稿では,Wikipediaの記事構造に含まれる節や箇条書きの見出しから,大量の上位下位関係候補を抽出し,機械学習を用いてフィルタリングすることで高精度の上位下位関係を獲得する手法を開発した.実験では,2007年3月の日本語版Wikipedia2.2~GBから,約77万語を含む約135万対の上位下位関係を精度90\%で獲得することができた.
V22N04-03
本論文では,隠れ層の再帰的な構造により,過去のアラインメント履歴全体を活用するリカレントニューラルネットワーク(RNN)による単語アラインメントモデルを提案する.ニューラルネットワークに基づくモデルでは,従来,教師あり学習が行われてきたが,本論文では,本モデルの学習法として,Dyerらの教師なし単語アラインメント\cite{dyer11}を拡張して人工的に作成した負例を利用する教師なし学習法を提案する.提案モデルは,IBMモデル\cite{brown93}などの多くの従来手法と同様に,各方向で独立にアラインメントを学習するため,両方向を考慮した大域的な学習を行うことができない.そこで,各方向のモデルの合意を取るように同時に学習することで,アラインメントの精度向上を目指す.具体的には,各方向のモデルのwordembeddingの差を表すペナルティ項を目的関数に導入し,両方向でwordembeddingを一致させるようにモデルを学習する.日英及び仏英単語アラインメント実験を通じて,RNNに基づくモデルは,フィードフォワードニューラルネットワークによるモデル\cite{yang13}やIBMモデル4よりも単語アラインメント精度が高いことを示す.さらに,日英及び中英翻訳実験を通じて,これらのベースラインと同等かそれ以上の翻訳精度を達成できることを示す.
V10N05-07
カスタマサービスとして,ユーザから製品の使用方法等についての質問を受けるコールセンターの需要が増している.ユーザからの質問に的確に応答するためには,次々に開発される新製品の知識が必要となる.応対するオペレータは,過酷な業務のため定着率が低く,企業にとってもレベルの高い人材を継続して維持することは,人件費や教育などのコストがかかり,問題となっている.\\本研究は,ユーザが自ら問題解決できるような,対話的ナビゲーションシステムを実現する基礎技術を開発することにより,コールセンターのオペレータ業務の負荷を軽減することを目的とする.Web上での質問応答システムにおいてユーザが初期に入力する自然言語による状況説明や質問文を分析したところ,20文字以下の質問文が7割を占めていた.一方,コールセンターでは,オペレータが,過去のユーザとのやり取りの結果を,質問と応答の要約文として蓄積している.そこで,本研究では,ユーザが初期に入力する20文字前後の比較的短い質問文を対象とし,その質問文から,コールセンターで蓄積した過去の質問の要約文を引き出し,それに予め付与された応答をそのまま回答する手法を採用する.しかし,ユーザの与える20文字以下の短い質問文と蓄積された要約文との単純なマッチングでは,多数の要約文が引き出されることが多いため,システムからユーザに新たなキータームの入力を促してユーザの意図する適切な要約文に速やかに到達できるような対話的ナビゲーション技術の開発が最も重要な研究課題となっている.対話的ナビゲーションを実現するために,ユーザが初期に入力した質問文中のどのようなタームが最適な要約文の検索に重要であるかを判定する方式として,入力した質問と要約文とのマッチングが成功したものから一定の基準によってタームを変更する方式(サクセスファクタ分析方式と呼ぶ)を開発した.この分析の結果から,主辞を修飾するタームをユーザの質問文に対して対話的に補うことがマッチングの精度に大きく影響し,極めて有効なことを実験的に明らかにした.
V20N03-04
東日本大震災初期,Twitterに寄せられた膨大なツィートには,緊急性の高い救助要請候補が多数含まれていたものの,他の震災関連ツィートや「善意のリツィート」によって,通報されるべき情報が埋もれてしまった.この様な状況を解消するために,筆者らは2011年3月16日,Twitter上の救助要請情報をテキストフィルタリングで抽出し,類似文を一つにまとめ一覧表示するWebサイトを開発・公開した.本論文では,本サイト技術のみならず,通報支援活動プロジェクト{\tt\#99japan}との具体的な連携・活用事例についても詳述する.なお{\tt\#99japan}は,救助状況の進捗・完了報告を重視するTwitterを用いた活動であると共に,発災2時間後に2ちゃんねる臨時地震板ボランティアらによって立ち上げられたスレッドに由来する.
V15N05-08
日本語係り受け解析においては,工藤らの相対的な係りやすさを考慮した日本語係り受け解析モデルが,決定的解析アルゴリズムや文脈自由文法のパージングアルゴリズムに基づく手法を上回る精度を示している.決定的解析手法では係り先候補文節を同時に一つしか考慮しないが,工藤らの相対モデルではすべての係り先候補文節間の選択選好の強さをlog-linearモデルで推定している.これに対し本稿では,同時に対象とする係り先候補文節を二候補に限定し,選択選好を二つの候補同士の対戦からなるトーナメントで直接表現したモデルを提案する.京大コーパスVersion4.0を使用した実験において,提案手法は従来手法を上回る精度を示した.
V21N03-02
近年,計算機技術の進歩に伴って大規模言語データの蓄積と処理が容易となり,音声言語コーパスの構築と実用化の研究が盛んに行われている.我々は,speakingstyleに関心を持つ利用者に音声言語コーパスを探しやすくさせるために,音声言語コーパスのspeakingstyleの自動推定を目指している.本研究では,1993年にEskenaziが提唱したspeakingstyleの3尺度を導入し,従来の文体・ジャンルの判別や著者推定などの自然言語処理の分野で用いられた言語の形態論的特徴を手がかりとし,音声に付随する書き起こしテキスト(本論文では転記テキストと呼ぶ)に着目したspeakingstyle推定モデルの構築を試みた.具体的な手続きとしては,はじめに様々な音声言語コーパスから音声に付随する転記テキストを無作為に抽出する.次にこれらの転記テキストを刺激として用い,3尺度のspeakingstyleの評定実験を行う.そして,評定結果を目的変数,転記テキストの品詞・語種率と形態素パタンを説明変数とし,重回帰分析により3尺度それぞれの回帰モデルを求める.交差検定を行った結果,本研究の提案手法によって3尺度の内2尺度のspeakingstyle評定値を高い精度で推定できることを確認した.
V26N03-01
本稿では,様々なサービスを有する小型計算機に言葉による命令を受理させる手法について述べる.小型計算機における発話文解析では,サービスのための規定の発話文を必ず受理すること,および,ユーザからの発話文を追加的に学習することを低い計算コストで行うことが要求される.そこで,サービスごとに語義やチャンクを正確に区別するため,サービスごとにパージング結果を格納するアレイを設け,強化学習を用いて発話文解析を進める手法を提案する.実験において自動車旅行を支援する車載器の発話文解析に応用したところ,軽量に動作し,クローズドテストにおいて0.99,オープンテストにおいて0.81という精度で発話文解析が可能であることを確認した.
V03N01-04
日本語文章における名詞の指す対象が何であるかを把握することは,対話システムや高品質の機械翻訳システムを実現するために必要である.そこで,本研究では名詞の指示性と修飾語と所有者の情報を用いて名詞の指示対象を推定する.日本語には冠詞がないことから,二つの名詞が照応関係にあるかどうかを判定することが困難である.これに対して,我々は冠詞にほぼ相当する名詞の指示性を表層表現から推定する研究を行なっており\cite{match},この名詞の指示性を用いて名詞が照応するか否かを判定する.例えば,名詞の指示性が定名詞ならば既出の名詞と照応する可能性があるが,不定名詞ならば既出の名詞と照応しないと判定できる.さらに,名詞の修飾語や所有者の情報を用い,より確実に指示対象の推定を行なう.この結果,学習サンプルにおいて適合率82\%,再現率85\%の精度で,テストサンプルにおいて適合率79\%,再現率77\%の精度で,照応する名詞の指示対象の推定をすることができた.また,対照実験を行なって名詞の指示性や修飾語や所有者を用いることが有効であることを示した.
V13N03-07
本論文で提案する{\em関連用語収集問題}は,与えられた専門用語に対し,それと強く関連する用語集合を求める問題である.この問題を解くためには,ある用語が専門用語であり,かつ,入力用語と強く関連するかどうかを判定する方法が必要となる.本研究では,ウェブのサーチエンジンのヒット数から計算したJaccard係数もしくは$\chi^2$統計量を用いて,この判定を行なう.作成した関連用語収集システムは,候補語収集モジュールと関連用語選択モジュールの2つのモジュールから構成される.候補語収集モジュールは,サーチエンジンを利用して,入力用語が出現するウェブページを収集し,それらのページから関連用語の候補語を収集する.関連用語選択モジュールは,Jaccard係数あるいは$\chi^2$統計量の値に基づき,候補語の中から入力用語に強く関連する用語を選択する.実験により,作成したシステムが入力用語に強く関連する十数語の専門用語を収集できることが確かめられた.
V21N02-01
近年,コーパスアノテーションは多様化し,多層アノテーションを統合利用する仕組みが欠かせない.とくに話し言葉コーパスでは,言語・非言語に関する10種類以上もの単位とそれらの相互関係を統合し,複数の単位を組み合わせた複雑な検索を可能にする必要がある.本研究では,このような要請に応えるため,(1)マルチモーダル・マルチチャネルの話し言葉コーパスを表現できる,汎用的なデータベーススキーマを設計し,(2)既存のアノテーションツールで作成された,種々の書式を持つアノテーションを入力とし,汎用的なデータベーススキーマから具現化されたデータベースを構築するツールを開発する.話し言葉の分野では,広く使われている既存のアノテーションツールを有効に利用することが不可欠であり,本研究は,既存のアノテーションツールやコーパス検索ツールを用いたコーパス利用環境を構築する手法を提案する.提案手法は,開発主体の異なる複数の話し言葉コーパスに適用され,運用に供されている.
V14N01-04
キーワード抽出は情報検索に不可欠な技術の一つである.例えば,検索速度の短縮や検索精度の改善に利用される.既存のキーワード抽出法としては,語の統計情報や文書の構文上の特徴に基づくものなどがある.その中で,辞書を一切用いず,反復度と呼ばれる統計量のみに基づくキーワード抽出法がある.この方法には,文書数に上限があるとき複合語が一般的な語に分割されて,長いキーワードとして抽出できないという問題がある.そこで本論文では,質問拡張のアイデアを利用して複数文書への繰り返し出現という考えを導入する.そして,この考えを元にキーワード抽出法を提案する.結果として,提案したキーワード抽出法のF値は上がった.また,これまでに取れなかったキーワードが取れるようになった.結論として,キーワード抽出における文書拡張の有用性を報告する.
V07N04-08
本論文では,日本語の語順の傾向をコーパスから学習する手法を提案する.ここで語順とは係り相互間の語順,つまり同じ文節に係っていく文節の順序関係を意味するものとする.我々が提案する手法では,文節内外に含まれるさまざまな情報から語順の傾向を自動学習するモデルを用いる.このモデルによって,それぞれの情報が語順の決定にどの程度寄与するか,また,どのような情報の組み合わせのときにどのような傾向の語順になるかを推測することができる.個々の情報が語順の決定に寄与する度合は最大エントロピー(ME)法によって効率良く学習される.学習されたモデルの性能は,そのモデルを用いて語順を決めるテストを行ない,元の文における語順とどの程度一致するかを調べることによって定量的に評価することができる.正しい語順の情報はテキスト上に保存されているため,学習コーパスは必ずしもタグ付きである必要はなく,生コーパスを既存の解析システムで解析した結果を用いてもよい.本論文ではこのことを実験によって示す.
V07N04-01
本稿の目的は自然言語の時間の相-アスペクト-に対し,個別の言語から独立した論理的意味を与えることである.近年のアスペクトの意味論では,アスペクトは共通のイベント構造に対してその異なる部位にレファランスを与えるものであると説明される.本稿でもまずこの理論を概観するが,その際アスペクトの形式化において常に問題となる用語および概念の混乱を,本稿で扱う範囲で整理・統合する.次に従来的な点と区間の論理に代わってアロー論理を導入し,アローを両端が固定されない向きをともなった時間区間であるとしてアスペクトの解析に適用する.アローを含む動的論理はそれ自身既にアローとその端点の関係が含まれる上に,論理の側で順序や包含の関係が表現できるために,従来的な述語論理によるアスペクトの形式化に比べてはるかに簡潔な表現が可能である.さらにアローと時点の関係をつけることで,時間的に束縛されていない事象の原型がアスペクトを伴う表現にシフトされる過程を動的な推論規則として説明できる.
V25N05-03
日本語は冠詞のない言語である.日本語名詞句の情報の状態は,テキストに陽に表出せず,限られた文脈情報や世界知識のみに基づく手法では推定することは難しい.情報の状態は情報の新旧や定・不定などの観点で分析される.しかしながら,日本語の言語処理においては,この概念が適切に扱われていない.そこで,\modified{本稿では,まず,日本語名詞句の情報状態について解説する.}次に,読み時間を手がかりとして,名詞句の情報の状態(新旧・定不定)を推定することを検討する.\modified{具体的には}日本語名詞句の情報の状態が文の読み時間にどう影響するかについて調査する.結果,名詞句の\modified{読み手の側}の情報状態(情報)が読み時間に対して影響を与えることを明らかにしたので報告する.
V07N03-05
文章に付与されたキーワード集合のような内容語(ターム)の並びを「タームリスト」と呼ぶ.本論文では,翻訳先言語のコーパスのみを用いて,各タームに対する訳語候補のなかから最適なものを選択する「翻訳多義解消」の新たな方法を提案する.本手法では,各タームに対する訳語候補を一つずつ集めてできる組み合わせのうち,含まれる訳語同士の意味的関連性が最も高い組を選択する.単語間の意味的関連性の尺度は各単語が翻訳先言語コーパスにおいてどの程度近い文脈に出現するかを数値化したものである.翻訳実験の結果,翻訳多義のある単語に対する平均正解率77.4\%を達成した.
V21N03-07
日本語では用言の項が省略されるゼロ照応と呼ばれる現象が頻出する.ゼロ照応は照応先が文章中に明示的に出現する文章内ゼロ照応と,明示的に出現しない外界ゼロ照応に分類でき,従来のゼロ照応解析は主に前者を対象としてきた.近年,Webが社会基盤となり,Web上でのテキストによる情報伝達がますます重要性をましている.そこでは,情報の送り手・受け手である著者・読者が重要な役割をはたすため,Webテキストの言語処理においても著者・読者を正確にとらえることが必要となる.しかし,文脈中で明確な表現(人称代名詞など)で言及されていない著者・読者は,従来の文章内ゼロ照応中心のゼロ照応解析では多くの場合対象外であった.このような背景から,本論文では,外界ゼロ照応および文章の著者・読者を扱うゼロ照応解析モデルを提案する.提案手法では外界ゼロ照応を扱うために,ゼロ代名詞の照応先の候補に外界ゼロ照応に対応する仮想的な談話要素を加える.また,語彙統語パターンを利用することで,文章中で著者や読者に言及している表現を自動的に識別する.実験により,我々の提案手法が外界ゼロ照応解析だけでなく,文章内ゼロ照応解析に対しても有効であることを示す.
V06N06-04
ニュース原稿を1文ごとにそれぞれ要約する手法について報告する.1文が長く,1記事中の文数の少ないニュース原稿に対して文を抽出単位とする要約手法を用いることは,大きく情報が欠落する可能性があり,適切でない.そこで,本要約手法では修飾部および比較的冗長と考えられる部分を削除することにより,1文ごとの要約を行う.また,1文を部分的に削除する際に構文構造が破壊されることを防ぐため,ニュース文要約に特化した簡易構文解析手法を利用している.字幕文は,画面上を一方的に流されるという性質から,適切な長さに要約されている必要があり,読みやすく,原稿の情報が正確に伝わり,冗長さが解消されている必要がある.このため,被験者32名に対し,本手法による要約文についてのアンケートを行うことにより,自然さ,忠実さ,非冗長さの3つの視点から評価を行った.その結果,理想的な要約を100\%とした場合で,自然さ81.5\%,忠実さ74.3\%,非冗長さ83.3\%という評価値を得た.
V04N03-05
本論文では,文字連鎖を用いた複合語同音異義語誤りの検出手法とその評価について述べる.ワードプロセッサによって作成された日本語文書には,変換誤りに起因する同音異義語誤りが生じやすい.同音異義語誤りは,同じ読みの単語を誤った単語へと変換してしまう誤りである.このため,推敲支援システムにおいて同音異義語誤りを検出する機能を実現することは重要な課題の1つとなっている.我々は,意味的制約に基づく複合語同音異義語誤りの検出/訂正支援手法を提案した.しかし,この手法においてもいくつかの短所が存在する.本論文では,これらの短所を補うための手法として,文字連鎖を誤り検出知識として用いた複合語同音異義語誤りの検出手法について述べる.文字連鎖は,既存の文書を解析することなしに容易に収集することができる.また,本手法は文字連鎖のみを用いているので,複合語同音異義語誤りに限らず,文字削除誤りなどの別のタイプの誤りに適用することも可能である.さらに本論文では,本手法の有効性を検証するために行った評価実験の結果についても述べ,意味的制約を用いた複合語同音異義語誤り検出/訂正支援手法との比較についても述べる.
V04N01-07
本稿では,文とその後方に位置する名詞句との照応を,複雑な知識や処理機構を用いず,表層的な情報を用いた簡単な処理によって解析する方法を提案する.文と名詞句の構文構造を支配従属構造で表現し,それらの構造照合を行ない,照合がとれた場合,照応が成立するとみなす.構造照合に用いる規則は,文が名詞句に縮約されるときに観察される現象のうち,主に,用連助詞から体連助詞への変化,情報伝達に必須でない語の削除に着目して定義する.このような簡単な処理によって前方照応がどの程度正しく捉えられるかを検証するための実験を,サ変動詞が主要部である文と,そのサ変動詞の語幹が主要部である名詞句の組を対象として行なった.実験では,新聞記事から抽出した178組のうち133組(74.7\%)について,本手法による判定と人間による判定が一致した.また,構造照合で類似性が最も高いと判断された支配従属構造の組を優先解釈として出力することによって,入力の時点で一組当たり平均3.4通り存在した曖昧性が1.8通りへ絞り込まれた.
V24N04-01
対話行為の自動推定は自由対話システムにおける重要な要素技術のひとつである.機械学習を用いた既存の対話行為の推定手法では,機械学習に用いる特徴のセットを1つ設定するが,この際に個々の対話行為の特質は十分に考慮されていなかった.機械学習の特徴の中にはある特定の対話行為の分類にしか有効に働かないものもあり,そのような特徴は他の対話行為の分類精度を低下させる要因になりうる.これに対し,本論文では対話行為毎に適切な特徴のセットを設定する.まず,28個の初期の特徴を提案する.次に,対話行為毎に初期特徴セットから有効でない特徴を削除することで最適な特徴セットを獲得する.これを基に,入力発話が対話行為に該当するかを判定する分類器を対話行為毎に学習する.最後に,個々の分類器の判定結果ならびに判定の信頼度から,適切な対話行為をひとつ選択する.評価実験の結果,提案手法は唯一の特徴セットを用いるベースラインと比べてF値が有意に向上したことを確認した.
V02N04-03
本稿では,動詞の語尾変化について体系的な扱いが可能な派生文法に基づいて,日本語形態素解析システムのための形態素文法を記述した。但し,派生文法における音韻単位での扱いを日本語の文字単位の扱いに変更する方法を示し,より形態素解析処理に適した形で記述した.さらに,これを実働する形態素解析システムに適用し,EDRコーパスと比較することによって精度を測定した.
V17N01-06
行為—効果関係,行為—手段関係のような事態間の関係を大規模コーパスから自動的に獲得する.共起パターンを利用する手法では,事態を表現する述語間で共有される項を認識することが難しいため,述語間で共有される名詞(アンカー)を用いて共有項を獲得し,共起パターンを用いて獲得した所与の関係を満たす述語対と共有項を組み合わせることで,共有項と共に事態間関係を獲得する.このとき2種類の異なるアンカーを用いることで,精度を保ったまま再現率を向上できることを確認した.
V09N02-05
差分検出を行なうdiffコマンドは言語処理の研究において役に立つ場面が数多く存在する.本稿では,diffを使った言語処理研究の具体的事例として,差分検出,書き換え規則の獲得,データのマージ,最適照合の例を示す.diffコマンドはUNIXで標準でついているため,これを用いることは極めて容易である.本稿は言語処理の研究を行なう上でdiffコマンドが実用的でありかつ有用であることを示すものである.
V10N01-04
本論文では,情報検索のための表記の揺れに寛容な類似尺度を提案する.情報検索において,検索対象となるデータがさまざまな人によって記述されたものであるため,同じ事柄であっても表記が異なり,入力した文字列で意図した情報を得ることができない場合がある.人間ならば,表記が多少異なっていて(表記の揺れがあって)も柔軟に対応し,一致していると判断できるが,計算機はこの柔軟性を備えていない.表記の揺れに対応することができる尺度として編集距離が知られているが,実際にこの尺度を単純に類似尺度に変換したものを用いて情報検索を行ってみたが,性能がでなかった.そこで,本論文では,この単純な類似尺度を情報検索に適した表記の揺れに寛容な類似尺度に拡張することを試み,その結果,この拡張によって検索性能が向上したことを示す.さらに,提案する類似尺度を組み込んだ情報検索システムを構築し,多くの情報検索システムに用いられている一般的な類似尺度と同等以上の検索性能を実現できたことを示す.
V14N05-07
日本語には,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ機能表現という表現が存在する.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.そして,この表現が存在することによって,機能表現の検出は困難であり,機能表現を正しく検出できる機能表現検出器が必要とされている.そこで,本論文では,日本語機能表現を機械学習を用いて検出する手法を提案する.提案手法では,SupportVectorMachine(SVM)を用いたチャンカーYamChaを利用して,形態素解析結果を入力とする機能表現検出器を構築する.具体的には,形態素解析によって得られる形態素の情報と,機能表現を構成している形態素の数の情報,機能表現中における形態素の位置情報,機能表現の前後の文脈の情報を学習・解析に使用することにより,F値で約93\%という高精度の検出器を実現した.さらに,本論文では,機能表現検出器の解析結果を入力として,機能表現を考慮した係り受け解析器を提案する.提案手法では,SupportVectorMachine(SVM)に基づく統計的係り受け解析手法を利用して,機能表現を考慮した係り受け解析器を構築する.具体的には,京都テキストコーパスに対して,機能表現の情報を人手で付与し,機能表現の情報を基に文節の区切りや係り先の情報を機能表現を考慮したものに変換した.そして,SVMに基づく統計的係り受け解析の学習・解析ツールCaboChaを用いて,変換したデータを学習し,機能表現を考慮した係り受け解析を実現した.評価実験では,従来の係り受け解析手法よりもよい性能を示すことができた.
V21N02-05
「誰がいつどこで何をする」という文に「ない」や「ん」,「ず」などの語が付くと,いわゆる否定文となる.否定文において,否定の働きが及ぶ範囲をスコープと呼び,その中で特に否定される部分を焦点と呼ぶ.否定の焦点が存在する場合,一般にその焦点の箇所を除いた文の命題は成立する.それゆえ,自然言語処理において,否定の焦点が存在するか,および,どの部分が否定の焦点になっているかを自動的に判定する処理は,含意認識や情報抽出などの応用処理の高度化のために必要な技術である.本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し,構築した否定の焦点コーパスについて報告する.否定文において否定の焦点を判断するための基準を提案し,否定の形態素および焦点の部分にアノテーションすべき情報について議論する.否定の焦点の判断には,「は」や「しか」などのとりたて詞や前後の文脈などが手がかりとなるため,これらを明確にアノテーションする.我々は,提案するアノテーション体系に基づいて,楽天トラベルのレビューデータと『現代日本語書き言葉均衡コーパス』内の新聞を対象としてアノテーションコーパスを構築した.本論文では,コーパス内に存在する1,327の否定に対するアノテーション結果を報告する.
V15N03-04
本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案する.基本的なアイデアは「定型文」「箇条書き」「表」といった記述形式を利用するというものである.本手法に必要なのは少数の規則だけであるため,人手をほとんどかけずに評価文を収集することが可能である.また,任意のHTML文書に適用できる手法であるため,様々なドメインの評価文を収集できることが期待される.実験では,提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた.
V15N02-02
同義語の同定は,情報検索,テキストマイニングなどのテキスト処理を行う上で必要な作業である.同義語辞書を作成することにより,テキスト処理の効率や精度の向上を期待できる.特定分野における文書には,専門の表現が多く用いられており,その中には,分野独特の同義語が多量に含まれている.例えば,日本語の航空分野では,漢字・ひらがなだけでなく,カタカナ,アルファベット,およびそれらの略語が同義語として用いられている.この分野の同義語は,汎用の辞書に登録されていないものが多く,既存の辞書を使用できないので,辞書を新たに作成する必要がある.また,辞書作成後も常に新しい語が発生するので,辞書の定期的な更新が必要となるが,それを人手で行うのは大変な作業である.本論文では,同義語辞書作成を半自動化するシステムを提案する.システムは,クエリが与えられると意味的に同じ候補語を提示する.辞書作成者は,その中から同義語を選択して,辞書登録を行うことができる.候補語のクエリに対する類似度は,同義語の周辺に出現する語の頻度情報を文脈情報とし,その余弦から計算する.文脈情報のみでは十分な精度が得られない場合,既知の同義語を知識としてシステムに与えることにより,文脈語の正規化を行い,精度を向上できることを確認した.実験は,航空分野の日本語のレポートを対象とし,システムの評価には平均精度を用いて行い,満足できる結果が得られた.
V26N04-02
近年,多くの自然言語処理タスクにおいて単語分散表現が利用されている.しかし,各単語に1つの分散表現を生成するアプローチでは,多義語における各語義が一つの分散表現に集約されてしまい,それらを区別することができない.そのため,先行研究では品詞やトピックごとに異なる分散表現を生成するが,語義を区別するには粒度が粗いという課題がある.そこで,本研究では各単語に対してより粒度の細かい複数の分散表現を生成するための2つの手法を提案する.1つ目は,依存関係にある単語を手がかりとして,予め複数の分散表現を生成しておく手法である.2つ目は,文脈中の全ての単語を考慮して語義に対応する分散表現を動的に生成する双方向言語モデルを利用する手法である.単語間の意味的類似度推定タスクおよび語彙的換言タスクにおける評価実験の結果,より細かい粒度で分散表現を生成する提案手法が先行研究よりも高い性能を発揮することを示した.
V14N03-13
近年の情報処理技術の発達に伴い,従来の情報処理の分野ではほとんど取り扱われなかった人間の感性をコンピュータで処理しようとする試みが盛んになってきた.擬人化エージェントや感性ロボットが人のように振舞うためには,人間が表出する感情を認識し,自ら感情を表出することが必要である.我々は,感性ロボットに応用するための感情認識技術について研究している.自然言語会話文からの感情推定を行う試みは,多くの場合,表面的な感情表現のみに絞って行われてきた.しかし,人間の発話時には常に何らかの感情が含まれていると考えられる.そこで,本稿では,感情語と感情生起事象文型パターンに基づいた感情推定手法を提案し,実験システムを構築する.そして,本手法の有効性を調べるため,シナリオ文を対象にその評価実験を行った.
V18N04-03
本論文では,形態素解析の問題を単語分割と品詞推定に分解し,それぞれの処理で点予測を用いる手法を提案する.点予測とは,分類器の素性として,周囲の単語境界や品詞等の推定値を利用せずに,周囲の文字列の情報のみを利用する方法である.点予測を用いることで,柔軟に言語資源を利用することができる.特に分野適応において,低い人的コストで,高い分野適応性を実現できる.提案手法の評価として,言語資源が豊富な一般分野において,既存手法である条件付き確率場と形態素$n$-gramモデルとの解析精度の比較を行い,同程度の精度を得た.さらに,提案手法の分野適応性を評価するための評価実験を行い,高い分野適応性を示す結果を得た.
V07N01-03
言語処理の研究には名詞句の指示性の推定という問題がある.名詞句の指示性とは,名詞句の対象への指示の仕方のことで,指示性としては総称名詞句,定名詞句,不定名詞句の三種類が主に設けられている.この指示性は,日英機械翻訳の冠詞生成や同一名詞句の照応解析に役に立つ.名詞句の指示性の先行研究では,表層の手がかり語を利用した規則を利用して解析し,複数の規則が競合した場合は規則により各指示性に得点を付与し合計点の最も大きい指示性を解としていた.この規則に記述している得点は人手で付与しており,人手の介入が大きい方法となっていた.本稿では,この人手で付与していた得点部分を機械学習の手法で自動調節することで,人手のコストを削減することに成功したことについて記述している.
V20N03-08
災害は被災地住民の健康に多大な影響を及ぼし,その対応に際し保健医療分野に膨大な文書を生じる.そこで,災害時の保健医療活動を支援するため,自然言語処理による各種文書の効率的処理が期待されている.本稿では,保健医療の観点から,そうした情報の特性を被災者,被災者集団,支援者のそれぞれについて整理したうえで,自然言語処理が有効と考えられる諸課題を列挙する.そのうえで,2011年に発生した東日本大震災において筆者らが関わった日本栄養士会支援活動報告,石巻圏合同救護チーム災害カルテ,医療や公衆衛生系メーリングリスト情報の3つの事例を紹介し,「健康危機管理」に自然言語処理が果たしうる貢献について検討する.これらの事例に示されるように,災害時には保健医療に関わる膨大なテキストが発生するものの,保健医療分野の専門家は大量の自由記載文を効率的に処理する手段を有していない.今後,東日本大震災において生じたデータを活用し,保健医療情報における大量の自由記載文を効率的に処理する備えを行っておくことが望ましい.
V20N02-06
時間情報表現は,テキスト中に記述される事象の生起時刻を推定するための重要な手がかりである.時間情報表現を含む数値表現の抽出は,固有表現抽出の部分問題として解かれてきた.英語においては,評価型国際会議が開かれ,時間情報表現のテキストからの切り出しだけではなく,曖昧性解消・正規化のための様々な手法が提案されている.さらに,時間情報と事象とを関連づけるアノテーション(タグづけ)基準TimeMLの定義や新聞記事にアノテーションを行ったコーパスTimeBankの整備が進んでいる.一方,日本語においては時間情報処理に必要なアノテーション基準の定義及びコーパスの整備が進んでいない.本稿では,TimeMLの時間情報表現を表す\timexiiiタグに基づいた時間情報のアノテーション基準を日本語向けに再定義し,『現代日本語書き言葉均衡コーパス』(BCCWJ)コアデータの一部にアノテーションを行った.問題点を検討し,今後事象の生起時刻を推定するために必要な課題を考察する.
V17N02-02
本論文では,日本語書き言葉を対象とした述語項構造と照応関係のタグ付与について議論する.述語項構造解析や照応解析は形態素・構文解析などの基盤技術と自然言語処理の応用分野とを繋ぐ重要な技術であり,これらの解析のための主要な手法はタグ付与コーパスを用いた学習に基づく手法である.この手法を実現するためには大規模な訓練データが必要となるが,これまでに日本語を対象にした大規模なタグ付きコーパスは存在しなかった.また,既存のコーパス作成に関する研究で導入されているタグ付与の基準は,言語の違いや最終的に出力したい解析結果の粒度が異なるため,そのまま利用することができない.そこで,我々は既存のいくつかのタグ付与の仕様を吟味し,述語項構造と共参照関係のアノテーションを行うためにタグ付与の基準がどうあるべきかについて検討した.本論文ではその結果について報告する.また,京都コーパス第3.0版の記事を対象にタグ付与作業を行った結果とその際に問題となった点について報告する.さらにタグ付与の仕様の改善案を示し,その案にしたがい作業をやり直した結果についても報告する.
V09N04-03
本論文では,格フレーム辞書を用いて原文の重要語句を抽出し,抽出された語句を再構成することにより要約文を生成する新聞記事要約手法を提案する.この手法に基づいて新聞記事自動要約システムALTLINEを試作し,人手要約との比較により評価を行なった.この結果,提案手法によって人間の要約に匹敵する要約文が生成できることが分かった.
V11N02-05
機械翻訳システムによる翻訳を人間による翻訳に近づけるために取り組むべき課題を明らかにしようという試みの一環として,本稿では,ニュース記事から無作為抽出した英文を英日機械翻訳システムで翻訳した結果と,これらの英文を人間が翻訳した結果を照らし合わせ,両者の間で使用されている動詞の馴染み度の分布に違いがあるかどうかを計量的に分析した.動詞の馴染み度を測る尺度としては,NTTの単語親密度データベースを利用した.分析の結果,機械翻訳システムによる翻訳と人間による翻訳の間で単語親密度の分布に統計的有意差は認められず,使用されている動詞の馴染み度に関しては両者の間で違いがないということが示唆された.従って,格要素などとの共起関係を考えず動詞だけに着目した場合,調査対象とした機械翻訳システムでは動詞の翻訳品質は一定のレベルに達していると判断できる.
V23N04-02
構文情報を考慮する機械翻訳手法である統語ベース翻訳では,構文解析器の精度が翻訳精度に大きな影響を与えることが知られている.また,構文解析の精度向上を図る手法の一つとして,構文解析器の出力を学習データとして用いる構文解析器の自己学習が提案されている.しかし,構文解析器が生成する構文木には誤りが存在することから,自動生成された構文木が常に精度向上に寄与するわけではない.そこで本論文では,機械翻訳における自動評価尺度を用いて,このような誤った構文木を学習データから取り除き,自己学習の効果を向上させる手法を提案する.具体的には,解析された$n$-best構文木それぞれを用いて統語ベース翻訳を行い,それぞれの翻訳結果に対し,自動評価尺度でリスコアリングする.この中で,良いスコアを持つ構文木を自己学習に使用することで,構文構造はアノテーションされていないが,対訳が存在するデータを用いて,構文解析・機械翻訳の精度を向上させることができる.実験により,本手法で自己学習したモデルを用いることで,統語ベース翻訳システムの翻訳精度が2つの言語対で有意に向上し,また構文解析自体の精度も有意に向上することが確認できた.
V07N04-12
手話言語は,主に手指動作表現により単語の表出・受容を行う視覚言語としての側面を持つ.そのため,手話単語を構成する手指動作特徴の要素(例えば,手の形,手の位置,手の動き)の一部を変更することで別の手話単語を構成できる特徴がある.特に,手指動作特徴の一つの要素だけが異なる単語対を手話単語の最小対と呼ぶ.また,手指動作特徴の類似性が意味の類似性を反映している場合がある.このように,類似の手指動作特徴を含む手話単語対は意味関係を内包する可能性があるなど,手話単語の分類を行うための重要な手がかりの一つとなると考える,すなわち,類似の動作特徴を含む手話単語対は言語学的に重要であるばかりでなく,手話単語の検索処理や登録・編集処理機能を実現する上でも重要な知識データと捉えることができる.本論文では,類似した手指動作特徴を含む手話単語対を与えられた手話単語の集合から抽出する方法として,市販の手話辞典に記述されている手指動作記述文間の類似性に着目し,この手指動作記述文間の類似性を手話単語間の手指動作特徴の類似性と捉え,手指動作記述文間の類似度計算に基づき最小対を抽出する方法を提案する.実験により,提案手法の妥当性を示す結果が得られた.
V24N01-03
計算機による対訳表現抽出を可視化することにより,対訳辞書の構築や翻訳を支援するツールBilingualKWICを開発した.本ツールは,入力されたキーワードに対する対訳表現を自動的に推定し,それらを含む原言語文と対象言語文をそれぞれKWIC形式で表示することにより,ユーザの翻訳作業などを支援する.技術的には,形態素解析などを利用せずに文字列情報だけから対訳を抽出するため,どのような言語対にも適用可能であり,さらには単語以外の表現に対しても対訳を表示することが可能である.また対訳表現をKWIC形式で表示することにより,システムの抽出誤りに対する修正を容易にするだけでなく,派生表現の獲得や複数の対訳表現の比較も可能としている.本稿では,BilingualKWICの特徴と開発経緯について述べる.
V16N03-03
事物の数量的側面を表現するとき,数詞の後に連接する語を一般に助数詞と呼ぶ.英語などでは名詞に直接数詞が係って名詞の数が表現されるが,日本語では数詞だけでなく助数詞も併せて用いなければならない.名詞と助数詞の関係を正しく解析するためには,助数詞が本来持つ語彙としての性質と構文中に現れる際の文法的な性質について考慮する必要がある.本稿では,数詞と助数詞の構文を解析するためのLexical-FunctionalGrammar(LFG)の語彙規則と文法規則を提案し,その規則の妥当性と解析能力について検証した.提案した規則によって導出される解析結果(f-structure)と英語,中国語のf-structureをそれぞれ比較することによって,日本語内での整合性と多言語間との整合性を有していることが確認できた.また,精度評価実験の結果,従来のLFG規則に比べて通貨・単位に関する表現では25\%,数量に関する表現では5\%,順序に関する表現では21\%のF値の向上が認められた.
V06N04-02
本稿では,音声を用いて人間と機械が対話をする際の対話過程を,認知プロセスとしてとらえたモデルを提案する.対話システムをインタラクティブに動作させるためには,発話理解から応答生成までを段階的に管理する発話理解・生成機構と,発話列をセグメント化し,焦点および意図と関連付けて構造的にとらえる対話管理機構とが必要である.さらに,入力に音声を用いた音声対話システムでは,音声の誤認識によるエラーを扱う機構を組み込む必要がある.本稿で提案するモデルは,発話理解・生成機構における各段階での処理を具体化し,それらと対話管理機構とのやりとりを規定することによる統合的な認知プロセスモデルとなっている.それらの処理の中に,音声の誤認識によって生じ得るエラーを具体的に記述し,その対処法を網羅的に記述している.このモデルを実装することによって,ある程度のエラーにも対処できる協調的な音声対話システムの実現が期待できる.
V19N05-04
近年,ウェブの情報を用いて,感染症などの疾病状態を監視するシステムに注目が集まっている.本研究では,ソーシャルメディアを用いたインフルエンザ・サーベイランスに注目する.これまでの多くのシステムは,単純な単語の頻度情報をもとに患者の状態を調査するというものであった.しかし,この方法では,実際に疾患にかかっていない場合の発言を収集してしまう恐れがある.また,そもそも,医療者でない個人の自発的な発言の集計が,必ずしもインフルエンザの流行と一致するとは限らない.本研究では,前者の問題に対応するため,発言者が実際にインフルエンザにかかっているもののみを抽出し集計を行う.後者の問題に対して,発言と流行の時間的なずれを吸収するための感染症モデルを提案する.実験においては,Twitterの発言を材料にしたインフルエンザ流行の推定値は,感染症情報センターの患者数と相関係数0.910という高い相関を示し,その有効性を示した.本研究により,ソーシャルメディア上の情報をそのまま用いるのではなく,文章分類や疾患モデルと組み合わせて用いることで,さらに精度を向上できることが示された.
V15N03-06
現在,文書の要約をユーザへ提示することで支援を行う自動要約の研究が盛んに行われている.既存研究の多くは語や文に対して重要度を計算し,その重要度に基づいて要約を行うものである.しかし我々人間が要約を行うときには文法などの知識やどのように要約を行ったら良いのかという様々な経験を用いているため,我々は人間が要約に必要だと考える語や文と相関のあるような重要度の設定は難しいと考える.さらに人間が要約を行う際は様々な文の語や文節など織り交ぜて要約を作成するため,文圧縮や文抽出の既存研究ではこのような人間が作成する要約文は作ることができない.そこで本論文ではこれらの問題点を解決し,人間が作成するような要約を得るため用例利用型の要約手法を提案した.この要約手法の基本的なアイデアは人間が作成した要約文(用例)を模倣して文書を要約することである.提案手法は類似用例文の獲得,文節の対応付け,そして文節の組合せの3つの過程から構成される.評価実験では従来法の一つを比較手法として挙げ,自動評価と人手による評価を行った.人手の評価では要約文が読みやすいかという可読性の評価と要約の内容として適切であるかという内容適切性の評価を行った.実験結果では自動評価及び人手による評価共に従来法に比べ,本手法の方が有効であることが確認できた.また本研究で目的としていた複数文の情報を含んだ要約文が作成されたことも確認できた.
V10N05-04
本稿では,ニュース記事から無作為抽出した英文を英日機械翻訳システムで翻訳した結果と,これらの英文を人間が翻訳した結果を照らし合わせ,両者の間にどのような違いがあるのかを計量的に分析した.その結果,次のような量的な傾向があることが明らかになった.(1)人間による翻訳に比べ,システムによる翻訳では,英文一文が複数の訳文に分割されにくい傾向が見られる.(2)システムによる翻訳と人間による翻訳の間で訳文の長さの分布に統計的有意差が認められる.(3)用言の連用形と連体形の分布に有意差が認められ,システムによる翻訳のほうが人間による翻訳よりも複雑な構造をした文が多いことが示唆される.(4)体言と用言の分布には有意差は認められない.\\さらに,動詞と名詞に関して比較検討を行ない,システムによる翻訳を人間による翻訳に近づけるために解決すべき課題をいくつか指摘した.
V13N03-06
語彙・構文的言い換えの中には,形態・構文的パターンに基づいて一括りにできるものの,表現を構成する語の統語・意味的な特性に依存して言い換えの可否や言い換え方が決まる現象が少なくない.本論文では,そのような言い換えを語彙構成的言い換えと呼ぶ.たとえば,複合語を構成語に分解するような言い換え,機能動詞構文の言い換え,態や格の交替,種々の動詞交替,語彙的派生などは語彙構成的言い換えの範疇に含まれる.我々は現在,これら語彙構成的言い換えに関わる語の統語・意味的な特性を明らかにするため,および言い換え生成技術の定量的評価のために,個々の言い換えクラスごとに言い換え事例集(言い換えコーパス)を構築している.本論文では,言い換え前後の表現の形態・構文的パターンと既存の言い換え生成システムを用いて言い換え事例を半自動的に収集する手法について述べる.また,日本語の機能動詞構文の言い換え,動詞の自他交替を対象とした予備試行の結果を報告する.
V20N03-07
マイクロブログの普及により,ユーザは様々な情報を瞬時に取得することができるようになった.一方,マイクロブログでは流言も拡散されやすい.流言は適切な情報共有を阻害し,場合によっては深刻な問題を引き起こす恐れがある.これまで,マイクロブログ上の流言拡散に関する分析は多かったが,ある流言がどのような影響を引き起こすかについての考察はない.本論文では,東日本大震災直後のTwitterを材料とし,どのような流言が深刻な影響を与えるかを,有害性と有用性という観点からの主観評価および修辞ユニット分析により分析した.その結果,震災時の流言テキストの多くは行動を促す内容や,状況の報告,予測であること,また,情報受信者の行動に影響を与えうる表現を含む情報は,震災時に高い有用性と有害性を持つ可能性があることを明らかにした.
V07N05-01
係り受け解析は日本語解析の重要な基本技術の一つとして認識されている.依存文法に基づく日本語係り受け解析では,文を文節に分割した後,それぞれの文節がどの文節に係りやすいかを表す係り受け行列を作成し,一文全体が最適な係り受け関係になるようにそれぞれの係り受けを決定する.本論文ではそのうち,係り受け行列の各要素の値を計算するためのモデルについて述べる.アプローチとしては,主にルールベースによる方法と統計的手法の二つのものがあるが,我々は利用可能なコーパスが増加してきたこと,規則の変更に伴うコストなどを考慮して,統計的手法をとっている.統計的手法では行列の各要素の値は確率値として計算される.これまでよく用いられていたモデル(旧モデル)では,その確率値を計算する際に,着目している二つの文節が係るか係らないかということのみを考慮していた.本論文では,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮するモデルを提案する.このモデルをME(最大エントロピー)に基づくモデルとして実装した場合,旧モデルを同じくMEに基づくモデルとして実装した場合に比べて,京大コーパスに対する実験で,全く同じ素性を用いているにもかかわらず係り受け単位で1\%程度高い精度(88\%)が得られた.
V17N01-11
従来の情報検索に特化されたシソーラスではなく,構文解析や用語標準化などの自然言語処理を目的とする420,000語規模のシソーラスを開発した.各用語の持つ関係語の数が膨大なため,観点(ファセット)を導入して分類し,探しやすくしたシソーラスである.さらに,差別語,表記の揺れなども区別できる.シソーラスを作成する際の留意点・課題もまとめた.パッケージソフトのカスタマイズ機能およびインターネットや他の辞書との連動機能,用語の標準化などについても紹介した.
V07N03-03
形態素解析処理において,日本語などのわかち書きされない言語と英語などのわかち書きされる言語では,形態素辞書検索のタイミングや辞書検索単位が異なる.本論文ではこれらの言語で共通に利用できる形態素解析の枠組の提案と,それに基づいた多言語形態素解析システムを実装を行った.また,日本語,英語,中国語での解析実験も行った.
V23N05-03
質問応答システムが高い精度で幅広い質問に解答するためには,大規模な知識ベースが必要である.しかし,整備されている知識ベースの規模は言語により異なり,小規模の知識ベースしか持たない言語で高精度な質問応答を行うためには,機械翻訳を用いて異なる言語の大規模知識ベースを利用して言語横断質問応答を行う必要がある.ところが,このようなシステムでは機械翻訳システムの翻訳精度が質問応答の精度に影響を与える.一般的に,機械翻訳システムは人間が与える評価と相関を持つ評価尺度により精度が評価されている.そのため,この評価尺度による評価値が高くなるように機械翻訳システムは最適化されている.しかし,質問応答に適した翻訳結果は,人間にとって良い翻訳結果と同一とは限らない.つまり,質問応答システムに適した翻訳システムの評価尺度は,人間の直感に相関する評価尺度とは必ずしも合致しないと考えた.そこで本論文では,複数の翻訳手法を用いて言語横断質問応答データセットを作成し,複数の評価尺度を用いてそれぞれの翻訳結果の精度を評価する.そして,作成したデータセットを用いて言語横断質問応答を行い,質問応答精度と翻訳精度との相関を調査する.これにより,質問応答精度に影響を与える翻訳の要因や,質問応答精度と相関が高い評価尺度を明らかにする.さらに,自動評価尺度を用いて翻訳結果のリランキングを行うことによって,言語横断質問応答の精度を改善できることを示す.
V07N04-13
本稿では,重要文抽出によるテキスト自動要約のための各種重要度を比較した.特に,タイトルとの類似度の高い文から抽出するという要約方法を想定し,各種の類似度を比較した.類似度としては,共起関係を利用する方法と利用しない方法とを試みた.その結果,共起関係を利用する方法の方が高精度な要約が作成できた.また,要約の手法としては,他に,本文の先頭数文を抽出する方法と,単語の重要度の総和を文の重要度とする方法も試みたが,これらの方法よりも,タイトルとの類似度に基づく方法の方が高精度であった.これらの結果は,共起関係を利用した類似度が自動要約に有効であることを示している.
V02N01-03
日本語文章要約システム\Gについて報告する.一般に,質の良い文章要約を行うためには,ある一つの言語現象だけをとらえた談話解析だけでは不十分である.なぜなら,談話に関わる言語現象は相互に関連しているからである.本研究ではこの観点から,日本語での様々な表層的特徴をできるだけ多く利用して,日本語文章の要約を試みる.本稿では実際に計算機上で試作した論説文要約システム\Gに関して,これで用いられている論説文要約の手法の紹介と,これによって出力された文章の評価を行う.
V05N04-05
クロス言語検索手法GDMAXは,日本語入力から英語ドキュメントの検索を可能にする.GDMAXは,対訳辞書によって入力キュエリから翻訳キュエリ候補を生成し,キュエリからそれぞれの言語のコーパスにおけるキュエリタームの共起頻度を成分とする共起頻度ベクトルを生成する.入力共起頻度ベクトルと翻訳共起頻度ベクトルとの距離によって,翻訳キュエリ候補をランキングし,上位の英語キュエリ集合を検索キュエリとする.この手法によって,一つの対訳だけでなく適切な複数の訳語集合を英語キュエリとして得ることができる.ウォールストリートジャーナルやAP通信など2ギガの英語ドキュメントについて適合率と再現率で評価したところ,理想訳と比べて約62\%の精度を得て,対訳辞書のすべての訳語候補を用いる場合と比べて12\%,機械翻訳による訳語選択と比べて6\%高い精度を得ることができた.
V09N05-05
自然言語の意味を理解するコンピュータの実現には,入力された語から関連の強い語を導き出す連想システムが必要と考える.本研究の目的はこのような連想システムの主要要素である概念ベースの構築である.我々の開発した連想システムは電子化辞書から作られた概念ベースと,語間の関係の深さを定量化する関連度計算アルゴリズムから構成される.概念ベースでは語の意味を語の持つ意味の特徴を表す語(属性)とその語に対する重要性を表す重みの集合で定義している.本研究においては,概念を概念ベースによって定義される語の連鎖としてモデル化している.機械構築された最初の概念ベースは不適切な属性が多く,重みの信頼性も低い.本稿ではこの機械構築された概念ベースを出発点とし,雑音属性を除去し,より適切な重みを付与するために,属性信頼度の考えに基づく新しい精錬を提案している.さらに,人間の感覚による評価とテストデータの関連度を用いた実験によって提案方式の有効性を示した.
V10N04-02
音声対話システムが話し言葉に対応するためには,言い直し,助詞落ち,倒置などの不適格性とよばれる現象に対処する必要がある.これらの不適格性の中で特に問題となるのは,言い直しあるいは自己修復と呼ばれている現象である.しかし,自己修復に関する既存の手法は,自己修復を捉えるモデルと,その修正処理に問題点がある.本論文では,それらの問題点を改善した新しい手法を提案する.そして,提案手法を音声対話コーパスに適用した結果を基に,提案手法の有効性と問題点について考察する.
V14N01-05
参照表現とは,特定の物体を他の物体と混同することなく識別する言語表現である.参照表現の生成に関する従来の研究では,対象物体固有の属性と異なる2つの物体間の関係を扱ってきた.しかし外見的特徴の差異が少なく他の物体との関係が対象物体の特定に用を成さない場合,従来の手法では対象物体を特定する自然な参照表現を生成することはできない.この問題に対して我々は知覚的群化を利用した参照表現の生成手法を提案しているが,この手法が扱える状況は強く限定されている.本論文では,我々が提案した手法を拡張し,より一般的な状況に対応できる参照表現の生成手法を提案する.18人の被験者に対する心理実験をおこない,本論文の提案手法を実装したシステムが適切な参照表現を生成できることを確認した.
V25N01-03
本稿では,オンラインショッピングサイト出店者に対して書かれたレビュー(以下,店舗レビュー)内の各文を,言及されているアスペクト(例えば,商品の配送や梱包)とその評価極性(肯定,否定)に応じて分類するシステムについて述べる.店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでないため,まず店舗レビュー100件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した.その結果,14種類のアスペクトについて書かれていることがわかった.そして,この調査結果をもとに1,510件の店舗レビューに含まれる5,277文に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文を分類するシステムを開発した.本システムを用いることで,任意のアスペクトについて,その記述を含むレビューへ効率良くアクセスしたり,その評判の時系列変化を調べたりすることが可能になる.
V03N02-03
コンピュータを用いて,文学研究を進めるための検討を行った.これには,研究過程の中核である研究ファイルの組織化が必要で,そのモデルを定義した.モデルは研究過程で利用され,生成される様々な情報資源の構造認識による組織化である.モデルの検証のために,具体的な文学テーマを設定し,その実装を行い,評価した.その試みとして電子本「漱石と倫敦」考の研究開発を進めている.研究者による評価実験では,概して評判がよい.例えば,漱石の作品倫敦塔を読む場合に,各種参照情報を随時に利用できること,メモなどを自由に書き込むことができ,自分の研究環境の整備がコンピュータ上で可能であることが評価されている.さらに,モデルは実際の文学研究に有効であること,とくに教育用ツールとして効果的であるとの評価が得られた.
V07N05-02
自然言語処理において,言語の諸相を見据えた宣言的な文法にもとづく構文解析は必須である.実用的な文法体系を構築するため,我々は最近の主辞駆動句構造文法の成果を実装することにより,NAISTJPSGという単一化にもとづいた日本語句構造文法を構築した.NAISTJPSGでは,日本語の様々な特徴の検討を経て,それらの間の規則性を局所的な制約として記述することで,文法の原理,スキーマおよび素性が設計されている.また,個別言語の現象として,格助詞の分布・サ変動詞構文の意味的局所性・連体修飾節における格を伴った修飾句の係り先について,それらの語彙情報に関心を持って我々は分析した.(i)格助詞が現れるか否かは,言語的対象を説明する素性体系の一部である型階層化された格素性にもとづいて説明できる.(ii)サ変動詞構文は形態的には複雑な構造でありながら意味的には単純な関係を含んでいるが,そのような不整合は語彙記述および単一化といった一般的な機構によって解消される.(iii)連体修飾に関してコーパスを調査することで,いくつかの修飾--被修飾の関係は述語的な形態素を導入することにより削減することができる.
V02N01-01
機械翻訳システムを使用して現実の文書を翻訳する場合,通常,翻訳対象文書に合った利用者辞書が必要となる.特に,高品質翻訳を狙った機械翻訳システムでは,各単語に対して,約2,000種以上の分解精度を持つ単語意味属性の付与が必要であると言われており,一般の利用者が,このような精密な情報を付与するのは困難であった.そこで本論文では,利用者が登録したい日本語名詞(複合名詞を含む)と英語訳語を与えるだけで,システムがシステム辞書の知識を応用して,名詞種別を自動的に判定し,それに応じた単語の意味属性を付与する方法を提案する.本方式を,新聞記事102文とソフトウエア設計書105文の翻訳に必要な利用者辞書作成に適用した結果,自動推定方式では,専門家の付与した意味属性よりも多くの属性が付与されるが,40〜80\%の再現率が得られることが分かった.また,人手で作成した利用者辞書を使用する場合と同等の訳文品質が得られることが分かった.以上の結果,利用者辞書作成への単語の登録において,最も熟練度の要求される単語意味属性付与作業を自動化できる見通しとなった.
V26N03-04
ヒトの文処理のモデル化としてHaleによりサプライザルが提案されている.サプライザルは文処理の負荷に対する情報量基準に基づいた指標で,当該単語の文脈中の負の対数確率が文処理の困難さをモデル化するとしている.日本語において眼球運動測定を用いて文処理の負荷をモデル化する際に,統語における基本単位である文節単位の読み時間を集計する.一方,単語の文脈中の生起確率は形態素や単語といった単位で評価し,この齟齬が直接的なサプライザルのモデル化を難しくしていた.本論文では,この問題を解決するために単語埋め込みを用いる.skip-gramの単語埋め込みの加法構成性に基づき,文節構成語のベクトルから文節のベクトルを構成し,隣接文節間のベクトルのコサイン類似度を用いて,文脈中の隣接尤度をモデル化できることを確認した.さらに,skip-gramの単語埋め込みに基づいて構成した文節のベクトルのノルムが,日本語の読み時間のモデル化に寄与することを発見した.
V25N01-01
本論文では,テキストマイニング技術を用いて,株主招集通知の情報をデータベースに格納する業務の効率化を実現するための応用システムの研究について述べる.効率化したい業務とは,株主招集通知に記載されている議案の開始ページを予測し,その開始ページにおける議案の議案タイトルと議案内容を分類する業務である.本研究では,これらの業務を株主招集通知のテキスト情報を用いて自動的に行うシステムを開発し,実際に運用している.本研究によって実装したシステムと従来の人手による作業の比較実験の結果,作業時間は1/10程度に短縮された.議案分類の手法としては,学習データから抽出した特徴語の重みを用いた分類,多層ニューラルネットワーク(深層学習)を用いた分類,抽出した議案タイトルを用いた分類の三手法を用いた.さらに,各手法の評価を行い,各手法の議案ごとの有効性を確認した.
V10N05-05
用例ベース翻訳を実現するためには,大量の用例が必要である.本研究は,対訳文を用例として利用できるようにするために,対訳文に対して句アライメントを行なう手法を提案する.従来の句アライメントでは,語アライメントを得てから,その情報をもとに句アライメントに拡張する手法が方式が多かった.本手法では基本句という文節に相当する単位を導入して,基本句間のアライメントを行なう.実験を行なった結果,良好な結果を得た.
V10N02-06
従来,ベクトル空間法において,ベクトルの基底数を削減するため,ベクトルの基軸を変換する方法が提案されている.この方法の問題点として,計算量が多く,大規模なデータベースへの適用が困難であることが挙げられる.これに対して,本論文では,特性ベクトルの基底として,単語の代わりに単語の意味属性(「日本語語彙大系」で規定された約2,710種類)を使用する方法を提案する.この方法は,意味属性間の包含関係に基づいた汎化が可能で計算コストもきわめて少なく,容易にベクトルの次元数を圧縮できることが期待される.また,単語の表記上の揺らぎに影響されず,同義語,類義語も考慮されるため,従来の単語を基底とする文書ベクトル空間法に比べて,検索漏れを減少させることが期待される.BMIR-J2の新聞記事検索(文書数約5,000件)に適用した実験結果によれば,提案した方法は,次元数の削減に強い方法であり,検索精度をあまり落とすことなく,文書ベクトルの基底数を300〜600程度まで削減できることが分かった.また,単語を基底とした文書ベクトルの方法と比べて高い再現率が得られることから,キーワード検索におけるKW拡張と同等の効果のあることが分かった.
V12N01-01
構文解析において,多様な言語現象を扱うためには大規模な文法が必要となるが,一般に人手で文法を開発することは困難である.一方,大規模な構文構造付きコーパスから様々な統計情報を取り出し,自然言語処理に利用する研究が多くの成果をあげてきており,構文構造付きコーパスの整備が進んでいる.このコーパスから大規模な文脈自由文法(CFG,以下,文法と略す)を抽出することが考えられる.ところが,コーパスから抽出した文法をそのまま用いた構文解析では多数の解析結果(曖昧性)を作り出すことが避けられないことが問題であり,それが解析精度の悪化や解析時間,使用メモリ量の増大の要因ともなる.効率的な構文解析を行うためには,曖昧性を増大させる要因を分析し,構文解析の段階では曖昧性を極力抑えるよう文法やコーパスを変更する必要がある.本論文では,構文解析で出力される曖昧性を極力抑えた文法を開発するための具体的な方針を提案し,その有効性を実験により明らかにしている.
V04N04-04
日本語の談話理解を考える際には,文脈,すなわち「会話の流れ」を把握する必要がある.一般的に日本語では,「会話の流れ」を明示する語として,順接・逆接・話題の転換・因果性,などを表す接続(助)詞が用いられることが多い.これらの語は,スケジュール設定など何らかの話題・目的が存在する会話だけではなく,雑談などの場合でも,聞き手が「会話の流れ」を把握するために利用しているものと考えられる.本技術資料では,「だって」や「から」などの接続表現によって,因果関係の前件および後件の関係が談話中で明示されている場合を対象とし,そのような因果関係が談話中で示す特徴について検討する.この検討から,いくつかの観察結果が得られるが,それについて自由会話コーパスを用いた検討を行ない,実際にそのような特徴が成立することを確認した.この結果は,接続表現に依存する前件と後件の順序関係,および前件と後件の隣接性という2項目にまとめることができ,機械的処理による談話理解への足掛かりと考えられる.
V10N05-06
本論文では,三種類の異なるコーパスに対する我々の自動要約システムの評価と,その要約データの分析結果について述べる.我々は重要文抽出に基いた要約システムを作成し,そのシステムを用いて日本語・英語双方の新聞記事を対象にした要約評価ワークショップに参加し,良好な評価結果を得た.また日本語の講演録を対象として重要文抽出データを人手によって作成し,そのデータに対して要約システムの実験・評価を行った.さらにシステムの評価結果に加えて,重要文抽出に用いられる主な素性の振舞い・素性の組合せによる重要文の分布の違いなどを各々の要約データにおいて分析した結果を示した.
V13N03-08
日本手話をテキストとして表現するための表記法を提案する.本表記法の検討に至った直接の動機は,日本語-日本手話機械翻訳を,音声言語間の機械翻訳と同様,日本語テキストから手話テキストへの翻訳(言語的な変換)と,翻訳結果の動作への変換(音声言語におけるテキスト音声合成と同様に手話動画の合成)とに分割し,翻訳の問題から動作合成の問題を切り離すことにある.この翻訳過程のモジュール化により,問題が過度に複雑化するのを防ぐことをねらいとする.同時に,手話を書き取り,保存・伝達する手段としての利用も念頭に置いている.本表記法で記述される手話文は,手話単語,および,複合語等の単語の合成,句読点,非手指要素による文法標識で構成される.手話単語は,単語名とそれに付加する語形変化パラメータ(方向や位置,その他の手話動作によって付加される語彙的,文法的情報を表す)で表す.我々の表記法は,基本的に手話の動作そのものを詳細に記述するのではなく,動作によって表される意味内容を記述することをめざした.ただし,機械翻訳を念頭に置いているため,動作への変換のための便宜にも若干の考慮を払った.本表記法の記述力を検証するため,手話を第一言語とする手話話者による手話映像720文を解析し,この表記法での記述を試みた.全体で671文を記述することができた.十分表記できないと判断した49文(51表現)を分析し,問題点について考察した.
V18N02-02
本論文では,コサイン係数,ダイス係数,ジャッカード係数,オーバーラップ係数に対し,簡潔かつ高速な類似文字列検索アルゴリズムを提案する.本論文では,文字列を任意の特徴(tri-gramなど)の集合で表現し,類似文字列検索における必要十分条件及び必要条件を導出する.そして,類似文字列検索が転置リストにおける$\tau$オーバーラップ問題として正確に解けることを示す.次に,$\tau$オーバーラップ問題の効率的な解法として,CPMergeアルゴリズムを提案する.CPMergeは,検索クエリ文字列中のシグニチャと呼ばれる特徴と,解候補が枝刈りできる条件に着目し,$\tau$オーバーラップ問題の解候補を絞り込む.さらに,CPMergeアルゴリズムの実装上の工夫について言及する.英語の人名,日本語の単語,生命医学分野の固有表現の3つの大規模文字列データセットを用い,類似文字列検索の性能を評価する.実験では,類似文字列検索の最近の手法であるLocalitySensitiveHashingやDivideSkip等と提案手法を比較し,提案手法が全てのデータセットにおいて,最も高速かつ正確に文字列を検索できることを実証する.また,提案手法による類似文字列検索が高速になる要因について,分析を行う.なお,提案手法をライブラリとして実装したものは,SimStringとしてオープンソースライセンスで公開している.
V06N02-06
本研究では大規模コーパスが利用可能な新聞の読み上げ音声の認識のための精度の良い言語モデルの構築を実験的に検討した.N-gram言語モデルの改善を目指し,以下\mbox{の3つの点に注目した}.まずN-gram言語モデルはタスクに依存するので,タスクに関する大量のデータベースを用いて構築される必要があることに注目し,共通の大量データベースによる言語モデルをもとに,同一ジャンルの過去の記事を用いるタスク\mbox{適応化の方法とその有効性を示す}.次に,新聞記事は話題が経時的に変化するので,数日間〜数週間の直前の記事内容で言語モデルの適応化を行\mbox{なう方法とその有効性を}\mbox{示す.最後}に新聞テキストには,使用頻度の高い(特殊)表現や,固定的な言い回しな\mbox{どの表現(以下},定型表現と呼ぶ)が多いことに注目し,複数形態素から成る定型表現を抽出し,\mbox{これを1形態素として捉えた上で},\mbox{N-gram言語モデルを構築する方法を検}討し,有用性を示す.
V14N03-03
本研究の目的は,これまで言語学的には感動詞,言語心理学的には発話の非流暢性として扱われてきた,フィラーを中心に,情動的感動詞,言い差し(途切れ)といった話し言葉特有の発話要素を,人の内的処理プロセスが音声として外化した「心的マーカ」の一部であると捉え,それらが状況によってどのような影響を受けるかを分析し,対応する内的処理プロセスについて検討することであった.実験的統制のもと,異なる条件(役割や親近性,対面性,課題難易度)が設定され,成人男女56名(18--36歳)に対して,ペアでの協調問題解決である図形説明課題を実施し,対話データが収集された.その結果,1)それぞれの出現率は状況差の影響を受けたこと,2)出現するフィラーの種類別出現率に差があることが示された.これらの結果が先行研究との対比,内的処理プロセスと心的マーカの対応,そして結果の応用可能性という観点から考察される.
V06N05-03
\quad本稿では,データベースから関連する論文を自動的に収集し,人間が特定分野のサーベイ論文作成する作業を支援するシステムを示す.本研究では,サーベイ論文作成支援の際,論文の参照情報に着目する.論文の参照情報とは,論文中でその論文と参照先論文との関係について記述されている箇所(参照箇所)から得られる情報のことで,参照先論文の重要点や,参照元と参照先論文間の相違点を明示する有用な情報が得られる.サーベイ論文作成には2つの処理(1)特定分野の論文の収集(2)論文間の相違点の検出が必要であると考えられる.本研究では参照情報を利用することでこれらの処理が部分的に実現可能であることを示す.具体的には,ある論文が他の論文を参照する時の参照の目的を,cuewordを用いて解析し,論文の参照・被参照関係にリンク属性(参照タイプ)を付与する.結果として,参照箇所抽出ではRecall79.6\%,Precision76.3\%の精度が得られた.また,参照タイプ決定では83\%の精度が得られた.これらの参照タイプを利用し,ある特定分野の論文を自動的に収集するのに近い処理が可能になった.また,ユーザに論文間の参照関係を表すグラフ,グラフ中の個々の論文のアブストラクト,論文間の相違点の記述された参照箇所を提示するシステムを構築した.このシステムを利用することで特定分野の論文が自動収集され,また収集された論文集合の論文間の相違点が明らかにされるため,参照情報がサーベイ論文作成の支援に有用であることが示された.
V02N03-03
機械翻訳システムでは動詞の訳語を選択するために格フレームがよく利用される.格フレームは従来主として人手で記述されていたが,一貫性を保って記述するのが難しいこと,格フレームを部分的に変更した場合に起こる影響が把握しにくいことなどの重大な問題があった.そこでこれらの問題を解決するため,本論文では格フレームを決定木の形で表し(これを格フレーム木と呼ぶ),これを英日の対訳コーパスから統計的な帰納学習プログラムを利用して学習することを提案する.本論文ではまず,この提案によって上記の問題が軽減される根拠を述べた後,本論文で作成した英日対訳コーパスについて述べる.続いて7つの英語動詞について格フレーム木の獲得実験を2つ報告する.最初の実験は,格要素の制約として英語の単語を使う格フレーム木を学習したものである.これにより得られた格フレーム木を観察したところ,人間の直観に近く,かつ直観を越えた非常に精密な訳し分けの情報が得られたことが明らかになった.次に,この格フレームの一般性を高めるために,英語の単語の代わりに意味分類コードを制約として利用する手法を提案し,これに基づいて格フレーム木を学習する実験を行った.得られた格フレーム木で未学習のデータの動詞の訳語を決定する評価を行ったところ,2.4\%ないし32.2\%の誤訳率が達成された.この誤訳率と,先の英語単語を利用した格フレーム木での誤訳率との差は13.6\%ないし55.3\%となり,意味分類コードが有効に機能したことが示された.
V26N04-01
複単語表現(MWE)は統語的または意味的な非構成性を有する複数の単語からなるまとまりである.統語的な依存構造の情報を利用し,かつ意味理解が必要なタスクでは,単語ベースの依存構造よりもMWEを考慮した依存構造,即ちMWEを統語的な単位とする依存構造の方が好ましい.広範囲の連続MWEを依存構造で考慮するために,本稿ではOntonotesコーパスに対して新たに形容詞MWEを注釈し,複合機能語と形容詞MWEの双方を考慮した依存構造コーパスを構築した.また,意味理解が必要なタスクでは句動詞などの非連続な出現を持ちうるMWE(動詞MWE)の認識も重要である.依存構造の情報は動詞MWE認識で有効な特徴量として働くと期待されるため,本稿では連続MWEを考慮した依存構造と動詞MWEの双方を予測する問題に取り組む.前者については以下の3つのモデルを検討する:(a)連続MWE認識と,MWEを考慮した依存構造解析のパイプライン,(b)連続MWEの範囲を依存関係ラベルとして符号化したhead-initialな依存構造を解析するモデル,および(c)連続MWE認識と上記(b)の階層的マルチタスク学習モデルである.実験の結果,連続MWE認識ではパイプラインモデルとマルチタスクモデルがほぼ同等のF値を示し,head-initialな依存構造の解析器を1.7ポイント上回った.動詞MWE認識では系列ラベリングベースの認識器を上述のマルチタスクモデルに組み込むことでF値が1.3ポイント向上した.
V21N05-04
線形計画問題において変数が整数値を取る制約を持つ整数計画問題は,産業や学術の幅広い分野における現実問題を定式化できる汎用的な最適化問題の1つであり,最近では分枝限定法に様々なアイデアを盛り込んだ高性能な整数計画ソルバーがいくつか公開されている.しかし,整数計画問題では線形式のみを用いて現実問題を記述する必要があるため,数理最適化の専門家ではない利用者にとって現実問題を整数計画問題に定式化することは決して容易な作業ではない.本論文では,数理最適化の専門家ではない利用者が現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説する.
V26N02-04
all-words語義曖昧性解消(以下all-wordsWSD(wordsensedisambiguation))とは文書中のすべての単語の語義ラベルを付与するタスクである.単語の語義は文脈,すなわち周辺の単語によって推定でき,周辺の単語同士が類似している場合中心の単語同士の語義も類似していると考える.そこで本研究では,対象単語とその類義語群から周辺単語の分散表現を作成し,ユークリッド距離を計算することで対象単語の語義を予測した.また,語義の予測結果をもとにコーパスを語義ラベル列に変換し,語義の分散表現を作成した.語義の分散表現を用いて周辺単語ベクトルを作成し直し,再び語義の予測を行った.コーパスには分類語彙表番号がアノテーションされた『現代日本語書き言葉均衡コーパス』(BCCWJ)を利用した.本研究では分類語彙表における分類番号を語義とし,類義語も分類語彙表から取得した.本研究では,提案手法とランダムベースライン,PseudoMostFrequentSense(PMFS),Yarowskyの手法,LDAWNを比較し,提案手法が勝ることを示した.
V14N01-03
本稿では,日本語フレームネットを背景に,述語項構造における項の意味役割を推定する統計モデルの定義,および獲得手法を提案する.本モデルの目的は,表層格では区別できない意味の区別である.本モデルは文と述語から述語項構造を同定して意味役割を付与すべき項を抽出し,それらに適切な意味役割を付与する.評価実験の結果,尤度が閾値を超える意味役割のみを付与する条件の下,意味役割を付与すべき項がわかっている文に対して精度77%,再現率68%,また,意味役割を付与すべき項がわかっていない文に対して精度63%,再現率43%で意味役割推定を実現し,本手法の有効性を示した.また,同一の表層格をもつ項に対して,複数の異なる意味役割の付与を実現した.
V27N01-05
%本論文では『分類語彙表増補改訂版データベース』に対する単語親密度推定手法について述べる.分類語彙表に収録されている96,557項目に対する評定情報をYahoo!クラウドソーシングを用いて収集した.1項目あたり最低16人(異なり3,392人)の研究協力者に,内省に基づいて「知っている」「書く」「読む」「話す」「聞く」の評定情報付与を依頼した.研究協力者の評定情報から単語親密度をベイジアン線形混合モデルにより推定した.また,推定された単語親密度と分類語彙表の語義情報との関連性について調査した.
V12N04-06
日英パラレルコーパスにおける日本語と英語それぞれを原言語として翻訳した2つの韓国語コーパスを用いて,原言語が翻訳に及ぼす影響を調べた.コーパスにはATRのBTEC(162,308文)を使った.2つの韓国語コーパスは,日英パラレルコーパスからの翻訳であり,内容は一致している.それにも関らず,韓国語両コーパス間の同一文は3\%以下であり,正書法が統一されていない点を考慮しても,同一または同一とみなせる文は全体の8.3\%程度である.本研究では,両コーパスにおける違いを原言語の影響と予想し,分析した結果を報告する.
V20N03-06
東日本大震災では,「コスモ石油の爆発で有害物質の雨が降る」などの誤情報の拡散が問題となった.本研究の目的は,東本日大震災後1週間の全ツイートから誤情報を網羅的に抽出し,誤情報の拡散と訂正の過程を分析することである.本稿では,誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を認識する手法を提案する.具体的には,訂正パターンを人手で整備し,訂正パターンにマッチするツイートを抽出する.次に,収集したツイートを内容の類似性に基づいてクラスタリングし,最後に,その中から誤情報を過不足なく説明する1文を選択する.実験では,誤情報を人手でまとめたウェブサイトを正解データとして,評価を行った.また,誤情報とその訂正情報の拡散状況を,時系列で可視化するシステムを構築した.本システムにより,誤情報の出現・普及,訂正情報の出現・普及の過程を分析できる.
V08N01-01
ベクトル空間モデルは情報検索における代表的な検索モデルである.ベクトル空間モデルでは文書を索引語の重みベクトルで表現するが,文書ベクトルは一般に要素数が非常に多く,スパースなベクトルになるため,検索時間の長さや必要なメモリの量が大きな問題となる.本論文では,この問題を解決するため,ベクトル空間モデルにおけるベクトルの次元圧縮を行う手法としてランダム・プロジェクションを用いた検索モデルを提案する.その有効性を評価するために,評価用テストコレクションであるMEDLINEを利用して,検索実験を行った.その結果,ランダム・プロジェクションはLSI(LatentSemanticIndexing)に比べ高速で,かつ同等な検索性能を持つ次元圧縮手法であることが確認された.また,ランダム・プロジェクションで次元圧縮に必要な行列を得るために,球面$k$平均アルゴリズムで得られる概念ベクトルの利用を提案する.同様に検索実験を行った結果,任意のベクトルを用いた検索性能に比べ改善され,概念ベクトルが検索性能の向上に有効であることが確認された.
V14N02-03
中国語構文解析では,これまで,句構造文法(PhraseStructureGrammar)で文の構造を取り扱ってきた.しかし,句構造文法規則は規則間の衝突による不整合が避けられず,曖昧性は大きな問題となっている.そこで,本論文では述語を中心とし,全ての構文要素を文のレベルで取り扱う文構造文法SSG(\underline{S}entence\underline{S}tructure\underline{G}rammar)を提案し,それに基づき,中国語の文構造文法規則体系を構築した.構築した文法規則をチャート法を拡張した構造化チャートパーザSchart上に実装し,評価実験を行なった.実験により,中国語SSG規則は規則間の整合性がよく,品詞情報と文法規則だけで,解析の曖昧性を効果的に抑止し,確率文脈自由文法(PCFG)に基づく構文解析より高い正解率が得られた.
V14N03-02
「です・ます」は,丁寧語としての用法のみならず場面に応じてさまざまな感情・態度や役割の演出などの表示となる.これは「です・ます」が持つ「話手と聞手の心的距離の表示」という本質と,伝達場面における話手/聞手のあり方とその関係の変化によって生じるものと考えられる.本稿では「です・ます」をはじめ聞手を必須とする言語形式を,コンテクストとは独立して話手/聞手の〈共在〉の場を作り出す「共在マーカー」と位置づけ,コンテクストにおける聞手の条件による「共在性」と組み合わせることで伝達場面の構造をモデル化した.コミュニケーションのプロトタイプとしての〈共在〉の場では,「です・ます」の本質的な機能が働き心的距離「遠」の表示となる.これに対して〈非共在〉の場では,典型的には「です・ます」は出現しない.しかし,〈非共在〉の場合でも共在マーカーが使用されると話手のストラテジーとして疑似的な〈共在〉の場が作り出される.この場合,共在マーカーとしての役割が前面に出ることによって聞手が顕在化し,話手/聞手の関係が生じて「親・近」のニュアンスが生まれる.「です・ます」が表す「やさしい」「わかりやすい」「仲間意識」などの「親・近」の感情・態度は〈非共在〉を〈共在〉にする共在マーカーの役割によって,「卑下」「皮肉」といった「疎・遠」の感情・態度は〈共在〉での心的距離の操作による話手/聞手の関係変化によって説明できる.
V23N05-05
統計的機械翻訳において,特定の言語対で十分な文量の対訳コーパスが得られない場合,中間言語を用いたピボット翻訳が有効な手法の一つである.複数のピボット翻訳手法が考案されている中でも,特に中間言語を介して2つの翻訳モデルを合成するテーブル合成手法で高い翻訳精度を達成可能と報告されている.ところが,従来のテーブル合成手法では,フレーズ対応推定時に用いた中間言語の情報は消失し,翻訳時には利用できない問題が発生する.本論文では,合成時に用いた中間言語の情報も記憶し,中間言語モデルを追加の情報源として翻訳に利用する新たなテーブル合成手法を提案する.また,国連文書による多言語コーパスを用いた実験により,本手法で評価を行ったすべての言語の組み合わせで従来手法よりも有意に高い翻訳精度が得られた.
V15N05-05
本稿では,自動獲得した知識を用いた日本語共参照解析システムを提案する.日本語における共参照の多くを占める名詞句間の共参照の解析では,語彙的知識が重要となり,中でも同義表現知識が非常に有効となる.そこでまず,大規模なコーパスおよび国語辞典の定義文から同義表現の自動獲得を行い,自動獲得した同義表現を用いた共参照解析システムを構築する.さらに,より精度の高い共参照解析システムの構築のため,自動構築した名詞格フレームを用いた名詞句の関係解析を行い,その結果を共参照解析の手掛りとして使用する.新聞記事およびウェブテキストを用いた実験の結果,同義表現,および,名詞句の関係解析結果を用いることにより,共参照解析の精度は向上し,手法の有効性が確認できた.
V15N05-04
言葉の意味処理にとってシソーラスは不可欠の資源である.シソーラスは,単語間の上位下位関係という,いわば縦の関連を表現するものである.我々は意味処理技術の深化を目指し,縦の関連に加えて,単語が使用されるドメインという,いわば横の関連を提案する.本研究では基本語を対象に,ドメイン辞書を半自動で構築した.本手法に必要なのは検索エンジンへのアクセスのみで,文書集合や高度に構造化された語彙資源等は必要ない.さらに,基本語ドメイン辞書の応用としてブログ自動分類を行った.各ブログ記事は,記事中の語にドメインとIDF値が付与され,最もIDF値の高いドメインに分類される.基本語ドメイン辞書に無い未知語のドメインは,基本語ドメイン辞書,Wikipedia,検索エンジンを利用して,リアルタイムで推定する.結果として,ブログ分類正解率94.0\%(564/600)と,未知語ドメイン推定正解率76.6\%(383/500)が得られた.
V06N07-04
日本語ニュースを局所的要約する際に必要となる要約知識を,コーパスから自動獲得する手法について述べる.局所的要約とは注目個所の近傍の情報(局所的情報)を用いて行なう要約をいう.局所的情報には注目個所そのものやその前後の単語列などがある.本手法では要約知識として置換規則と置換条件を用い,これらを原文−要約文コーパスから自動獲得する.はじめに原文中の単語と要約文中の単語のすべての組み合わせに対して単語間の距離を計算し,DPマッチングによって最適な単語対応を求める.その結果より,置換規則は単語対応上で不一致となる単語列として獲得する.一方,置換条件は置換規則の前後nグラムの単語列として獲得する.原文と要約文にそれぞれNHKニュース原稿とNHK文字放送の原稿を使って実際に要約知識を自動獲得し,得られた要約知識を評価する実験を行った.その結果,妥当な要約知識が獲得できることを確認した.
V20N05-04
本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)の領域適応に対する手法を提案する.WSDの領域適応の問題は,2つの問題に要約できる.1つは領域間で語義の分布が異なる問題,もう1つは領域の変化によりデータスパースネスが生じる問題である.本論文では上記の点を論じ,前者の問題の対策として学習手法にk~近傍法を補助的に用いること,後者の問題の対策としてトピックモデルを用いることを提案する.具体的にはターゲット領域から構築できるトピックモデルによって,ソース領域の訓練データとターゲット領域のテストデータにトピック素性を追加する.拡張された素性ベクトルからSVMを用いて語義識別を行うが,識別の信頼性が低いものにはk~近傍法の識別結果を用いる.BCCWJコーパスの2つの領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行い,提案手法の有効性を示す.別種の領域間における本手法の有効性の確認,領域の一般性を考慮したトピックモデルをWSDに利用する方法,およびWSDの領域適応に有効なアンサンブル手法を考案することを今後の課題とする.
V23N01-04
複雑化する機械翻訳システムを比較し,問題点を把握・改善するため,誤り分析が利用される.その手法として,様々なものが提案されているが,多くは単純にシステムの翻訳結果と正解訳の差異に着目して誤りを分類するものであり,人手による分析への活用を目的とするものではなかった.本研究では,人手による誤り分析を効率化する手法として,機械学習の枠組みを導入した誤り箇所選択手法を提案する.学習によって評価の低い訳出と高い訳出を分類するモデルを作成し,評価低下の手がかりを自動的に獲得することで,人手による誤り分析の効率化を図る.実験の結果,提案法を活用することで,人手による誤り分析の効率が向上した.
V11N04-04
本稿では,機械翻訳システムの辞書に登録されておらず,かつ(対応付け誤りを含む)対訳コーパスにおいて出現頻度が低い複合語を対象として,その訳語を抽出する方法を提案する.提案方法は,複合語あるいはその訳語候補の内部から得られる情報と,複合語あるいはその訳語候補の外部から得られる情報とを統合的に利用して訳語対候補に全体スコアを付ける.全体スコアは,複合語あるいはその訳語候補の二種類の内部情報と二種類の外部情報に基づく各スコアの加重和を計算することによって求めるが,各スコアに対する重みを回帰分析によって決定する.読売新聞とTheDailyYomiuriの対訳コーパスを用いた実験では,全体スコアが最も高い訳語対(のうちの一つ)が正解である割合が86.36\%,全体スコアの上位二位までに正解が含まれる割合が95.08\%という結果が得られ,提案手法の有効性が示された.
V04N03-04
本論文では,言語のクラスタリングに関する新しい手法を提案する.提案する手法では,まず各言語の言語データから確率的言語モデルを構築し,次に確率的言語モデルの間に導入した距離に基づき,元の言語に対するクラスタリングを実行する.本論文では,以上の手法を$N$-gramモデルの場合について詳しく述べている.また,提案した手法を用いて,ECI多言語コーパス(EuropeanCorpusInitiativeMultilingualCorpus)中の19ヶ国語のテキスト・データから,言語の系統樹を再構築する実験を行った.本実験で得られた結果は,言語学で確立された言語系統樹と非常に似ており,提案した手法の有効性を示すことができた.
V05N01-07
自然言語では,動詞を省略するということがある.この省略された動詞を復元することは,対話システムや高品質の機械翻訳システムの実現には不可欠なことである.そこで本研究では,この省略された動詞を表層の表現(手がかり語)と用例から補完することを行なう.解析のための規則を作成する際,動詞の省略現象を補完する動詞がテキスト内にあるかいなかなどで分類した.小説を対象にして実験を行なったところ,テストサンプルで再現率84\%,適合率82\%の精度で解析できた.このことは本手法が有効であることを示している.テキスト内に補完すべき動詞がある場合は非常に精度が良かった.それに比べ,テキスト内に補完すべき動詞がない場合はあまり良くなかった.しかし,テキスト内に補完すべき動詞がない場合の問題の難しさから考えると,少しでも解析できるだけでも価値がある.また,コーパスが多くなり,計算機の性能もあがり大規模なコーパスが利用できるようになった際には,本稿で提案した用例を利用する手法は重要になるだろう.
V21N06-04
本論文では,形態素解析で使用する辞書に含まれる語から派生した表記,および,未知オノマトペを対象とした日本語形態素解析における効率的な未知語処理手法を提案する.提案する手法は既知語からの派生ルールと未知オノマトペ認識のためのパターンを利用し対象とする未知語の処理を行う.Webから収集した10万文を対象とした実験の結果,既存の形態素解析システムに提案手法を導入することにより新たに約4,500個の未知語を正しく認識できるのに対し,解析が悪化する箇所は80箇所程度,速度低下は6\%のみであることを確認した.
V24N04-02
本研究では,金融分野に特化した極性辞書の作成を目的とし,ニュースデータと株式価格データから極性辞書の作成を行う.株式価格情報から単語のポジティブ/ネガティブの情報を獲得するため,ニュース記事が言及している銘柄の株式価格変動を算出する.株式価格変動をニュース記事の教師情報として,教師あり学習を行ったのち,学習器から単語の極性情報を抽出することで,単語に対して重み付き極性値の付与を試みた.そして,作成した極性辞書を用いて,学習に用いたメディアのニュース記事分類と他メディアのニュース記事分類を行うことにより,本研究手法の有効性を検証した.検証の結果,ニュース記事配信日の株式リターンに関して,将来のニュース記事を分類できること,また,異なるメディアのニュース記事も分類できることを示した.一方で,ニュース記事配信日から2営業日以上離れると,ニュース記事分類が困難であることが示された.
V19N02-01
日本語を含めた多くの言語において,複合名詞内部の単語境界は空白で分かち書きされない.こうした複合名詞を構成語列へと分割する処理は,多くの自然言語処理の応用において重要な基礎技術となる.日本語の場合,片仮名語は生産性が高く未知語が多いことから,特に片仮名複合名詞の扱いが技術的な問題となる.この問題の解決を図るため,本論文は片仮名複合名詞の言い換えと逆翻字を分割処理に利用する方法を提案する.実験では,言い換えと逆翻字をラベルなしテキストから抽出し,その情報を利用することによって,分割精度が統計的に有意に向上することを確認した.
V25N04-01
本稿では『現代日本語書き言葉均衡コーパス』のコアデータに対する文節係り受け・並列構造情報\modified{の}アノテーションについて述べる.統語構造のアノテーションに対して,文節係り受け情報と並列・同格構造\modified{を}分離してアノテーションする方法を提案する.さらに節境界を越える係り受け関係について,節の分類に基づきスコープを決めることでよりアノテーションの精緻化を行う.実作業の工程上の問題などにも言及しながら,アノテーション基準を概説する.また,アノテーションデータの基礎統計量について示す.
V14N05-05
日本語には,「にたいして」や「なければならない」に代表されるような,複数の形態素からなっているが,全体として1つの機能語のように働く複合辞が多く存在する.われわれは,機能語と複合辞を合わせて機能表現と呼ぶ.本論文では,自然言語処理のための日本語機能表現辞書について提案する.日本語の機能表現が持つ主な特徴の1つは,個々の機能表現に対して,多くの異形が存在することである.計算機が利用することを想定した辞書を編纂する場合,これらの異形を適切に扱う必要がある.われわれが提案する辞書は,機能表現の異形を体系的に整理するために,見出し体系として,9つの階層からなる階層構造を用いる.現在,この辞書には,341の見出し語と16,771の出現形が収録されており,既存の機能表現リストと比較した結果,各々の見出し語に対して,ほぼすべての異形が網羅されていることが確かめられた.
V14N04-01
本論文では,構文木をクエリとして与え,構文木付きコーパスからクエリと同じ構文木を部分木として含む文を検索する手法を提案する.構文木付きコーパスは,関係データベースに格納する.このような構造検索の過去の研究では,クエリの節点数が増加すると,検索時間が大幅に増加する問題があった.本論文で提案する手法は,節点数が多いクエリを部分木に分割し,漸進的に検索することで検索を効率化する.クエリの分割の単位やその検索順序は,検索対象となるコーパス中の規則の出現頻度をもとに自動的に決定する.本手法の有効性を確認するために7種類のコーパスを用いて評価実験を行ったところ,4種類のコーパスで分割の有効性が確認できた.
V13N01-01
高精度の機械翻訳システムや言語横断検索システムを構築するためには,大規模な対訳辞書が必要である.文対応済みの対訳文書に出現する原言語と目的言語の単語列の共起頻度に基づいて対訳表現を自動抽出する試みは,対訳辞書を自動的に作成する方法として精度が高く有効な手法の一つである.本稿はこの手法をベースにし,文節区切り情報や対訳辞書などの言語知識を利用したり,抽出結果を人間が確認する工程を設けたりすることにより,高精度で,かつ,カバレッジの高い対訳表現抽出方法を提案する.また,抽出にかかる時間を削減するために,対訳文書を分割し,抽出対象とする文書量を徐々に増やしながら確からしい対訳表現から段階的に抽出していくという手法についても検討する.8,000文の対訳文書による実験では,従来手法は精度40\%,カバレッジ79\%であったのに対し,言語知識を利用した提案手法では,精度89\%,カバレッジ85\%と向上した.さらに人手による確認工程を設けることにより,精度が96\%,カバレッジが85\%と向上した.また,16,000文の対訳文書による実験では,対訳文書を分割しない方法では抽出時間が約16時間であったのに対し,文書を4分割する方法では,約9時間に短縮されたことを確認した.