id
stringlengths
9
9
text
stringlengths
120
1.29k
title
stringclasses
1 value
V14N04-04
本稿では,格フレームに基づき構文・格解析を統合的に行う確率モデルを提案する.格フレームは,ウェブテキスト約5億文から自動的に構築した大規模なものを用いる.確率モデルは,述語項構造を基本単位とし,それを生成する確率であり,格フレームによる語彙的な選好を利用するものである.ウェブのテキストを用いて実験を行い,特に述語項構造に関連する係り受けの精度が向上することを確認した.また,語彙的選好がどの程度用いられているかを調査したところ,60.7\%という高い割合で使われていることがわかり,カバレージの高さを確認することができた.
V15N04-04
本研究は,実データに基づいた形容詞の観点からみた概念体系の自動構築をめざし,その一環として,形容詞概念の階層関係構築に焦点を当てたものである.包含関係の尺度によって上位下位関係を求め,その単語間の上位下位関係に基づき概念階層を自動構築した.結果については,カバー率などの表層的な面と,階層の作られ方についての質的な面での評価を行った.階層の質的な面での評価にあたって,概念の継承関係と事例(形容詞)の各概念の成員としての連続性という観点から心理実験を行い,既存の人手によって作られたEDR辞書の階層と比較した.実験手法はScheffeの一対比較法を用いた.その結果,自動構築がよい,あるいは既存の辞書と有意差がないと判断された階層は,全体の43\%となった.抽出した概念数の不足や階層構築の際の問題点など課題も抱えているが,自動生成の階層が既存辞書の階層に対して,その結果の半分弱の階層で問題を提起するという意味で,ベースラインとなる数値と考える.
V14N02-01
本論文ではWeb上の情報を利用し,自動的に関連語のシソーラスを構築する手法を提案する.検索エンジンを利用し,$\chi^2$値による語の関連度の指標を用い,従来のWebを用いた関連度の指標の問題点を解決する.また,新しいクラスタリング手法であるNewman法を用いて語のネットワークをクラスタリングすることで,従来手法より適切に関連語を同定する.コーパスおよび既存のシソーラスから生成した関連語正解セットを用い,提案手法の効果についての検証を行う.
V09N03-01
統計的クラス分類器としての決定リストは,近年自然言語処理における様々な分野でその有効性を示している.決定リストを構成する上で最も重要な問題の一つは,ルールの信頼度の算出法である.決定リストを用いた多くの研究では,最尤推定法と簡単なスムージングにより信頼度を算出しているが,理論的な根拠に欠け推定精度も高くないという問題がある.そこで本論文では,ベイズ学習法を利用してルールの信頼度を算出する手法を示す.さらに,証拠の種類ごとに異なる事前分布を利用することで,より正確な信頼度の推定が可能になり,決定リストの性能が向上することを示す.本手法の有効性を確かめるために,語義曖昧性解消の問題に決定リストを適用して実験を行なった.英語に関してはSenseval-1のデータを用い,日本語に関しては疑似単語を用いた.その結果,ベイズ学習による信頼度推定手法が,ルールの確率値の推定精度を高め,決定リストの分類性能を向上させることを確認した.
V10N03-04
本論文では,Nigamらによって提案されたEMアルゴリズムを利用した教師なし学習の手法を,SENSEVAL2の日本語翻訳タスクで出題された名詞の語義の曖昧性解消問題に適用する.この手法は,ラベルなしデータをラベルを欠損値とする観測データ,その観測データを発生させるモデルをNaiveBayesモデル,このモデルの未知パラメータをラベル\(c\)のもとで素性\(f\)が起る条件付き確率\(p(f|c)\)に設定して,EMアルゴリズムを用いる.結果として,モデルの識別精度が向上する.ここでは識別のための素性として,対象単語の前後数単語の原型や表記という簡易なものに設定した.実験では,ラベル付き訓練データのみから学習したNaiveBayesの正解率が58.2\,\%,同データから学習した決定リストの正解率が58.9\,\%(Ibarakiの公式成績)であったのに対し,ラベル付き訓練データの他にラベルなし訓練データを用いた本手法では,61.8\,\%の正解率を得た.また訓練データの一部の不具合を修正することで,NaiveBayesの正解率を62.3\,\%に改善できた.更に本手法によりそれを68.2\,\%に向上させることができた.
V10N01-03
レレバンスフィードバックは検索者が与えた検索条件を利用してシステムが選択する文書(サンプル文書)について,検索者が必要文書と不要文書を選択し,フィードバックすることで,より正確な文書検索を実現する手法である.レレバンスフィードバックによる検索精度はフィードバックの対象となるサンプル文書の選択方法によって異なる.通常のレレバンスフィードバックでは検索要求との関連が最も強いと推定される文書をサンプルとするレレバンスサンプリングが用いられるが,これに対して必要文書か不要文書かを分類するのが難しい文書をサンプルとするuncertaintyサンプリングが提案され,より高い検索精度が得られると報告されている.しかしいずれのサンプリング手法も複数の類似した文書をサンプルとして選択することがあるため,検索精度が十分に向上しない恐れがあった.本稿ではレレバンスサンプリングおよびuncertaintyサンプリングを改良する手段としてunfamiliarサンプリングを提案する.unfamiliarサンプリングは既存のサンプリング手法において,新たにサンプルとして加える候補と既存のサンプルの文書間距離を評価し,既存サンプルの最近傍であればサンプルから排除する.この処理により,既存サンプルと類似した文書が排除されることにより検索精度が向上される.レレバンスフィードバックを用いた文書検索においては,少数のサンプル文書で高い精度を得ることが重要になる.本稿ではAdaBoostにおいてRocchioフィードバックを弱学習アルゴリズムとして用いる手法を提案し,これをRocchio-Boostと呼ぶ.NPLテストコレクションを用いた実験の結果,unfamiliarサンプリングによるサンプリング手法の改良とRocchio-Boostにより従来のRocchioフィードバックとレレバンスサンプリングに対して平均適合率を6\,\%程度向上できることが分かった.
V12N05-07
本研究では、数十文字程度の長さで携帯端末向けに配信されている新聞記事と数百文字程度の長さのWeb新聞記事の両者を約3年に渡って収集した。こうして収集したコーパスから文末表現の縮約などの言い換え表現の抽出を機械的に行った。まず、Webから収集した携帯向け新聞記事とWeb新聞記事からなるコーパスに対して記事単位の対応付けを行い、次に文単位の対応付けを行った。次に携帯向け記事文の文末の表現を形態素解析を用いて抽出し、その文に対応するWeb新聞記事の文を集める。そしてWeb新聞記事の文の文末から形態素ごとに言い換え先表現を抽出し、それに対して頻度等を用いた得点付け、および必要な名詞を欠落させてしまう不適切な言い換えの除去を行うことにより言い換え表現の抽出精度向上を図った。
V08N02-01
本論文では決定リストを弱学習器としたアダブーストによる日本語単語分割法を提案する.日本語単語分割は,入力文の各文字の間に単語区切りを置くか置かないかの問題とみなすことで,分類問題として定式化できる.この分類問題を決定リストを利用して解くことで単語分割が行える.ここでは決定リストで利用する属性に辞書情報を含めない.そのためここでの単語分割は未知語の問題を受けないという長所がある.更に単語分割を分類問題として解く場合,近年研究の盛んなアダブーストの手法を適用できる.アダブーストを用いることで,決定リストの精度を高めることができる.実験では,京大コーパス(約4万文)を利用して決定リストを作成した.この決定リストによる単語分割の正解率は97.52\%であった.この値は、同じ訓練データから構築したtri-gramモデルに基づく単語分割法での正解率92.76\%を大きく上回った.またアダブーストを利用することで精度が98.49\%にまで向上させることができた.また作成した単語分割システムは未知語の検出能力が高いことも確認できた.
V09N01-03
本稿では,音声対話システムがシステム知識として保有するデータベースの内容に依存して,できるだけ短い対話でユーザの必要とする情報を伝達するためのデュアルコスト法と呼ぶ対話制御法を提案する.音声対話システムは,音声認識誤りのために,ユーザ要求内容を確定することを目的とした「確認対話」を実施する必要がある.長い確認対話は対話の円滑な流れを阻害するので,確認対話は簡潔であることが望ましい.ユーザは対話時点でのシステム知識の内容を知らないので,システムが詳しい情報を保有していない事柄に関して詳細な情報を要求する場合が頻繁に起きる.そのような場合にも,従来法ではユーザ発話内容を逐一確認するので,無駄な確認が増えてしまうという問題があった.この問題を解決するために,確認コストと情報伝達コストと呼ぶ2種類のコストを導入する.確認コストは確認対話の長さであり,音声認識率に依存する.情報伝達コストは,確認対話でユーザ要求を確定した後,ユーザに情報を伝達する際のシステム応答の長さであり,システム知識の内容に依存する.デュアルコスト法は,この2つのコストの和を最小化することにより対話を制御する方法であり,従来法が避けることができない無駄な確認対話を回避しながら,短い対話でユーザ要求に応じた情報を伝達することができる.
V20N02-08
本稿ではマルコフロジックを利用した日本語述語項構造解析について述べる.日本語述語項構造解析に関する従来研究の多くは,格毎に独立した解析器を用意し,他の述語項関係との依存関係を無視したまま解析を行っていた.これに対し,本研究では同一文内にある全ての述語項候補を同時に考慮して解析する手法を提案する.この手法は複数の述語項関係の間にある依存関係を考慮した上で,文内における全ての述語項関係の候補から,最適な状態を見つけ出すことができる.さらに,本研究では,述語の項として妥当でないものを削除するための新たな論理的制約を考案し,ゼロ照応も含めて正しい項を効果的に見つけ出すことができるように工夫した.NAISTテキストコーパスにおける実験で,本研究の提案手法は,大規模データを利用せずに,従来手法と同等の結果を達成した.
V12N01-04
本論文では,チャット対話の対話構造を解析する手法を提案し,その実現可能性について論じる.まず,発言間の二項関係である継続関係と応答関係に対話構造を分解し形式化する.継続関係とは,質問やそれに対する応答を構成する同一話者による発言間の関係である(例えば,1つの質問を構成する2つの発言「あなたは」と「学生ですか?」の関係,あるいは1つの応答を構成する2つの発言「はい」と「そうです」の関係).応答関係とは,質問と応答のような異なる話者による発言間の関係である.これらの関係に基き、発言をまとめあげることで対話構造を解析する.本研究では,この問題をある発言とそれに先行する発言との間に継続関係または応答関係があるか否かの2値分類問題に分解し,コーパスベースの教師あり機械学習を試みた.解析対象は,対話構造を付与したコーパスである(2人対話と3人対話の合計69対話,11905発言).本手法による対話構造全体の正解との一致率は,2人対話87.4\%,3人対話84.6\%であった.
V16N01-05
辞書の定義文を基にした上位語情報の抽出手法を提案し,その結果に基づく単語オントロジーの自動生成を試みた.提案するのは再帰的語義展開による情報抽出手法である.本手法では定義文を再帰的に展開し,巨大な単語集合として定義文を再定義する.このとき,定義文中に上位語が含まれるという仮定を利用すれば,非常に多くの単語を上位語候補とすることができる.この手法では上位語となる尤もらしさの指標を得ることができるため,これを利用して多数の候補の中から上位語を効率よく選択できるようになる.本手法を適用した上位語抽出実験では,構文解析を用いた既存手法を上回る精度を示した.更に本論文では,取り出された上位語情報を用いて単語オントロジーの自動生成を試みた.自動生成の手法はまだ完全なものではないが,実験結果は上位語情報の有用性を示すものであり,今後のオントロジー自動生成の可能性を示している.
V16N05-04
大規模コーパスから事態表現間の意味的関係の知識の獲得を目的として,実体間関係獲得手法として提案されたEspressoを事態間関係に適用できるように拡張した.この拡張は主に2つの点からなり,(1)知識獲得のために事態表現を定義し,(2)事態間関係に適合するように共起パターンのテンプレートを拡張した.日本語Webコーパスを用いて実験したところ,(a)事態間関係獲得に有用な共起パターンが多数存在し,パターンの学習が有効であることがわかった.また行為—効果関係については5億文Webコーパスから少なくとも5,000種類の事態対を約66\%の精度で獲得することができた.
V25N05-02
ニューラル機械翻訳では,従来の統計的機械翻訳に比べ文法的に流暢な文が生成されるが,出力結果に未知語が含まれることがしばしば指摘される.この問題に対処する方法としては,学習コーパス中の低頻度語を分割したり,未知語に位置情報を付け加えるなどの方法があるが,どれも日英翻訳では効果が低い.そこで本論文では,アテンションから構成した単語アライメント表を用いて出力文中の未知語と対応する入力文中の単語を見つけ,その単語を翻訳した単語で未知語を置き換えることで未知語をなくす手法を提案する.本論文の有効性を示すためにASPEC,NTCIR-10の2種類のコーパスを用いて実験を行った結果,本論文で提案する単語アライメント表の構成法を用いると,未知語を全く発生させず,かつ,BLEU値を向上させることができた.
V07N04-02
韓国語の言語処理,特に韓国語を原言語もしくは目的言語とする機械翻訳における,韓国語の言語体系と形態素処理手法を提案する.本論文の韓国語体系の特徴は,機械処理を考慮した体系であるという点にある.すなわち,形態素解析の解析精度や機械翻訳における品詞設定の必要性に応じて,韓国語各品詞に対して仕様の検討を行ない,設計を行なった.また分かち書きや音韻縮約といった韓国語の特徴をどのように機械処理すべきかについても述べる.韓国語形態素解析では,品詞と単語の混合n-gramによる統計的手法を基本としながら,韓国語固有の問題に対しては残留文字などの概念を導入するなどして独自の対応を施した.以上の品詞体系と形態素解析エンジンによって,単語再現率99.1\%,単語適合率98.9\%,文正解率92.6\%という良好な解析精度が得られた.また韓国語生成処理では,特に分かち書き処理についてどのような規則を作成したのかについて提案を行なう.以上の形態素体系と処理の有効性は,機械翻訳システムTDMTの日韓翻訳,韓日翻訳部に導入した際の翻訳精度という形で文献\cite{古瀬99}において報告されている.
V26N03-02
我々は,高齢者のQualityofLife(QOL)を家族に伝えることで,高齢者と離れて住む家族とのコミュニケーションを活性化することを目指している.高齢者のQOL表出発話(高齢者のQOLを推定するのに有用な手がかりを含んだ発話)の生成を補助するシステム構築に向けて,本論文では(1)QOLラベルつき対話コーパスを構築するための方法論を提案し,(2)QOLラベルを用いた特定のQOL情報を伝達する応答の生成について議論する.具体的には,模擬的なワーカを用いることの妥当性を予備実験により示した上で,クラウドソーシングを効果的に利用して高齢者が主体となる高齢者のQOL表出発話を大規模に収集し,QOLラベルつき対話コーパスを構築した.構築したコーパスを用いた応答生成実験により,「着くとすぐに本を読んでいるよ」のような家族の発話に対する高齢者の応答候補として,高齢者のQOLが《健康満足感(positive)》の場合は「今度本を読んであげよう」,《健康満足感(negative)》の場合は「私は新聞を読むのも億劫だよ」など,QOL情報の伝達に役立つ応答が生成されることを確認した.
V03N03-03
機械学習により日英翻訳のための英語動詞選択ルールを獲得する手法を提案する.英語動詞選択ルールの学習手法としては,既に,翻訳事例のみから獲得する手法が知られている.この従来の翻訳事例のみから獲得する手法では,ルールの正解率を向上させるために,多数の事例を必要とする.しかし,現実には,動詞出現頻度の偏りにより,全動詞に十分な翻訳事例を収集する事は極めて困難である.そこで,本論文では,人手作成のルールと収集された少数の翻訳事例から,英語動詞選択ルールを獲得する修正型の学習手法を提案する.具体的には,本手法は,(1)人手作成のルールから仮の事例(仮事例)を生成し,(2)その仮事例と現実の事例を訓練事例として,既存の学習アルゴリズム(内部学習アルゴリズム)に入力する,の2ステップから構成される.内部学習アルゴリズムの出力が,最終的に獲得されたルールである.評価を目的として,NTTが開発中の日英機械翻訳システムALT-J/Eの英語動詞選択ルールを本手法により実験的に学習した.その結果,学習されたルールは,実事例のみから学習されたルールや人手作成のルールより高い正解率を示し,本提案手法の有効性を確認できた.
V10N03-07
本稿では,2001年に行なわれたSENSEVAL2コンテストの日本語辞書タスクでのわれわれの取り組みについて述べる.われわれは機械学習手法を用いるアプローチを採用した.この研究では数多くの機械学習手法と素性を比較検討し用いている.コンテストには,我々は,サポートベクトルマシン法,シンプルベイズ法,またそれらの組み合わせのシステム二つの合計4システムを提出し,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.現在もっとも性能の高いシステムは二つのシンプルベイズ法を組み合わせたシステムであり,その精度は0.793である.また,本稿では素性を変更した実験もいくつか追加で行ない,各素性の有効性,特徴を調査した.その調査結果では文字列素性のみを用いても比較的高い精度が得られるなどの興味深い知見が得られている.また,関連文献も紹介し,今後の多義解消の研究のための有益な情報を提供した.
V20N02-02
ロボットと人間の双方でより円滑なコミュニケーションを行うためには,ロボットにも人間のような会話能力が求められると考える.人間の会話はあいさつや質問応答,提案,雑談など多岐に渡るが,ロボットがこういった会話,例えば何かしらの情報を持った雑談のように能動的な会話を行うには,新聞記事のようなリソース中の表現を会話テンプレートに埋め込むという方法が考えられる.しかし新聞記事中の語と会話に用いられる語の馴染み深さには違いがある.例えば新聞記事中の「貸与する」という語は,会話に用いる場合には「貸す」という表現の方が自然である.つまり,人間にとって違和感のない会話のためのリソースとして新聞記事を用いるには,難解語を平易な表現へ変換する必要があると考える.そこで本稿ではロボットと人間との自然な会話生成を担う技術の一端として,新聞記事中の難解な語を会話表現に見あった平易な表現へと変換する手法を提案する.提案手法では人間が語の変換を行う際の処理になぞらえ,1つの語を別の1語で変換する1語変換および文章で変換する$N$語変換を組み合わせることでより人間にとって自然に感じる変換を行い,その有効性を示した.結果として変換すべき難解語を75.7\%の精度で平易な表現に,81.1\%の精度で正しい意味を保持した表現に変換することが出来た.
V09N04-04
検索結果のふるいわけに適した要約生成手法を開発した.多くの要約システムでは重要文選択という手法を採用しているが,この方法による要約は長く複雑な文になりがちである.我々が開発した句表現要約手法は,短い句を列挙することで,そのような長い文を読む際に生じる負荷を軽減する.各句は,(1)係り受け解析により単語間の関係を抽出,(2)係り受け関係からコアになる関係を選択,(3)句に意味のまとまりを持たせるのに必要な関係を付加,(4)このようにして作られたグラフから表層句を生成,という手順で作られる.この手法の効果を評価するため,タスクベース評価法の改良を行った.この方法では,検索が必要になった背景を含めたタスクの詳細まで規定すること,ひとつの要約を10名の評価者で評価して個人差の影響を少なくすることにより,正確性を増している.また,適合性の評価に複数のレベルを設けることで,様々な状況における適合率・再現率の評価を可能にした.この方法で評価したところ,句表現要約が情報検索結果のふるいわけに最も適していることがわかった.この結果は,生成された句が比較的短く,文書中の重要な概念を広くカバーするということから得られたものと考えられる.
V20N02-07
既存のテキストのみからなる辞書に対し,インターネット上にある膨大な画像を関連付けることができれば,文字列情報からだけでは得られない,視覚的な情報を利用できるようになり,用途が広がると期待できる.そのため,本稿では,辞書の出来る限り広い語義に対して画像を付与することを考える.作成・維持コストを考えれば,なるべく自動的に画像を付与することが望ましいが,大量の辞書エントリに対して,高い精度で画像を付与することは容易ではない.また,そもそもどういった語義には画像を付与できるのか,あるいはできないのかといった調査が大規模になされた例はなく,画像が付与できる語義を自動的に判別することも困難である.そこで本稿では,まず語義別に画像が付与された辞書を人手で構築することを第一の目標とする.その上で,画像が付与できる語義とできない語義について,品詞や意味クラスとの関連性に着目して分析する.具体的には,名詞,動詞,形容詞,形容動詞,副詞を含む25,481語,39,251語義を対象に画像付与実験と分析を行ない,その結果,全語義の94.0\%は画像付与が可能であること,品詞や意味クラスに応じて画像付与の可否が変わることを示す.また,幅広い語義に適切な画像を付与するため,インターネットから画像検索によって画像を獲得する.検索時に重要となるのが検索語である.本稿の第二の目標は,語義毎に適切な画像を得るための検索語を調査することである.本稿では,複数の検索語の組合せ(以下,検索語セット)の中から最も適切な画像を得られる検索語セットを作業者に選択してもらい,適切な検索語セットがない場合には修正してもらう.こうして最終的に利用された検索語セットを分析し,提案手法の改良点を探る.さらに,検索語セットの優先順位の決定方法も提案,その妥当性を示すことを本稿の第三の目標とする.新しい辞書への適用等を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.提案手法では,対象語義がメジャーな語義かどうかで優先順位を変化させる.実験では,2種類の評価方法を通してその妥当性を示す.
V24N02-01
本論文では,分布仮説に基づく同義語獲得を行う際に,周辺単語の様々な属性情報を活用するために,文脈限定Skip-gramモデルを提案する.既存のSkip-gramモデルでは,学習対象となる単語の周辺単語(文脈)を利用して,単語ベクトルを学習する.一方,提案する文脈限定Skip-gramモデルでは,周辺単語を,特定の品詞を持つものや特定の位置に存在するものに限定し,各限定条件に対して単語ベクトルを学習する.したがって,各単語は,様々な限定条件を反映した複数の単語ベクトルを所持する.提案手法では,これら複数種類の単語ベクトル間のコサイン類似度をそれぞれ計算し,それらを,線形サポートベクトルマシンと同義対データを用いた教師あり学習により合成することで,同義語判別器を構成する.提案手法は単純なモデルの線形和として構成されるため,解釈可能性が高い.そのため,周辺単語の様々な単語属性が同義語獲得に与える影響の分析が可能である.また,限定条件の変更も容易であり,拡張可能性も高い.実際のコーパスを用いた実験の結果,多数の文脈限定Skip-gramモデルの組合せを利用することで,単純なSkip-gramモデルに比べて同義語獲得の精度を上げられることがわかった.また,様々な単語属性に関する重みを調査した結果,日本語の言語特性を適切に抽出できていることもわかった.
V08N03-05
代名詞を含む英文を日本語として適格で自然な文に翻訳するためには,英語の代名詞を日本語の代名詞としてそのまま表現せず,ゼロ代名詞化したり他の表現に置き換えたりする必要がある.ゼロ代名詞化に関しては,人手で記述された規則による方法が既に提案されている.本稿では,1)ゼロ代名詞化に加え,他の表現に置き換えるべき場合も扱い,2)規則を人手で記述するのではなく,決定木学習によって自動的に学習する方法を示す.学習に利用する属性は,ゼロ代名詞化に関してこれまでに解明されている言語学的制約や,ゼロ代名詞の復元に関する工学的研究で着目された手がかりを参考にして選択した.提案手法を我々の英日機械翻訳システムPowerE/Jによる訳文に対して適用したところ,ゼロ代名詞化するか否かの判定を行なう場合の精度が79.9\%,ゼロ代名詞化するか否かに加え他の表現に書き換えるか否かの判定も行なう場合の精度が72.2\%となり,人手で記述された規則の精度に近い精度が得られた.また,選択した属性には,書き換え精度を低下させる属性は含まれておらず,ゼロ代名詞化に関する言語学的制約だけでなく,ゼロ代名詞の復元に関する手がかりも利用できることが明らかになった.
V22N05-03
事実性は,文中の事象の成否について,著者や登場人物の判断を表す情報である.事実性解析には,機能表現や,文節境界を越えて事実性に影響を与える語とそのスコープなどの4種類の問題が含まれており,性能の向上が容易ではない.本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533文に含まれる3,734事象に適用した結果の誤りを分析した.このとき全ての事象表現について,付随する機能表現に対して人手で意味ラベルを付与した.その結果,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.従属事象の事実性解析では,後続する述語やスコープといった従属事象特有の誤りが多く見られた.それらの要素についてさらなる分析を行い,今後の事実性解析の指針を示した.
V08N01-04
本論文では,IREXワークショップにおける情報検索課題(IR)の本試験の結果,および,参加したすべてのIRシステムについてのアンケートをもとに,平均適合率,再現率・適合率曲線を直線回帰させた傾きと切片がシステムに用いられた手法とどのような相関関係をもっているのかを調査し,それぞれの手法がシステムの性能に与える影響の大きさを示した.その結果,多くの手法について,再現率0.0での適合率の値と適合率の減少量にトレードオフの関係が存在し,検索システムに用いる手法の選択の難しさが現れた.また,NARRATIVEタグの使用有無により,同様に相関関係を調査し,NARRATIVEタグの有効性とシステムの性能に与える影響の大きさを示した.その結果,NARRATIVEタグを利用する場合,それに適した有効な手法を選択することが重要であることが分かった.
V26N02-02
本論文では,リーダビリティ評価を目的として,日本語テキストの読み時間と節境界分類の対照分析を行う.日本語母語話者の読み時間データBCCWJ-EyeTrackと節境界情報アノテーションを『現代日本語書き言葉均衡コーパス』上で重ね合わせ,ベイジアン線形混合モデルを用いて節末で,どのように読み時間が変わるかについて検討した.結果,英語などの先行研究で言われている節末で読み時間が長くなるというwrap-upeffectとは反対の結果が得られた.他の結果として,節間の述語項関係が読み時間の短縮に寄与することがわかった.
V12N03-03
ネットワークの普及により,今までは紙面で伝えられていた情報の電子化が進んでいる.本稿では,それら電子化された情報の一つである,製品のスペック情報の抽出について議論する.現在,製品情報を収集し,利用しているポータルサイトが数多く存在するため,膨大なWebページの中から製品のスペック情報を的確に抽出することは,そのようなポータルサイトの自動構築のために大きな意義を持つ.製品のスペック情報は,殆どの場合,表形式で記述されている.Web上の表はHTMLの\verb+<+TABLE\verb+>+タグを用いて記述されるが,\verb+<+TABLE\verb+>+タグは表を記述する以外にも,レイアウトを整えたりする場合に頻繁に用いられる.ある特定の領域においては,\verb+<+TABLE\verb+>+の70\%がレイアウト目的で使われているとの報告もある.そのため,HTML文書中の\verb+<+TABLE\verb+>+タグが表なのか,それとも他の目的で使用されているのかを判別する必要がある.提案手法では,SupportVectorMachines(SVM)を用いて,Webページ中に存在する表領域が製品スペックかどうかの判定を行う.TransductiveSVMを用いて,訓練データの削減についても考察する.パソコン,デジタルカメラ,プリンタの3種類の製品について,実験を行い,それぞれの製品について高い再現率と適合率を得た.訓練データが少ない場合,TransductiveSVMを用いた手法の方が,通常のSVMと比べ,精度が改善されることを確認した.
V17N04-06
音声合成をより使いやすくかつ表現力豊かにするために,我々は階層型音声合成記述言語MSCLを開発した.MSCLは記述という方法によりニュアンスや心情,感情などを合成音声に付加することが可能である.MSCLはS層,I層,P層の3つの階層を有し,初学者から音声学的知識を有する者まで対応可能にする.一方,MSCLのS層が提供する新たなコマンドの作成手法そしてI層に備わる韻律制御コマンドによって生じる聴感上の効果(印象)の検討はMSCLにおける課題となっていた.そこで,本研究はMSCLの課題である韻律制御と印象の関係について実験を通じて見出した,8つの制御規則を提案し,それぞれの主な印象について連想法を通じて分析した.また,制御規則を組み合わせて得られる印象の変化についても分析を行った.さらに,韻律制御コマンドを利用する上での留意点について言及する.音声合成での韻律制御を行うための1つのアプローチを提案する.
V25N01-02
言語に関する能力を,客観的かつ自動的に把握する需要が高まっている.例えば,近年,日本において認知症は身近なものとなっているが,認知症は,言語能力に何らかの特徴が表出する可能性があることはよく知られている.言語能力を測り,それらの兆候を捉えることができれば,早期発見や療養に役立つ可能性がある.また,現在,多くの留学生が日本語教育機関において日本語を学んでおり,学習者の習熟度に対し,適切な評価を与えることが各教育機関に求められている.しかし,書く能力や話す能力の評価は,主に評価者の主観によって行われており,評価者によって判断に揺れが生じうる.機械によって自動的かつ客観的に言語能力を測定することができれば,評価者による揺れの生じない評価の一つとして活用できる可能性がある.これまでにも,言語能力の測定に関する取り組みはあるものの,いずれも人手を介して測定を行うためコストが高く,気軽に測定することは難しい.そこで本研究では,手軽に言語能力を測定可能なシステム「言秤(コトバカリ)」を提案する.本提案システムでは,(1)音声認識システムの組み込み,および(2)テキストデータから定量的に言語能力を測定する指標の採用を行うことで,従来人手で行っていたテキスト化および言語能力スコアの算出を自動化し,コストの軽減と手軽な測定を実現する.また,「被測定者自身による自己把握・状況改善(用途1)」および「被測定者以外による能力の高低の判断(用途2)」という観点から,言語能力スコア(Type・Token比)算出における音声認識システムの利用可能性について検証を行った.書き起こし結果および音声認識結果から得られる言語能力スコアは異なるため,閾値との比較のような,単純な言語能力スコアの対比による能力の高低の判断(用途2)は難しいことがわかった.また,同一時期に複数回測定し,書き起こし結果および音声認識結果から得られる言語能力スコアの相関を調べたところ,集団としては相関が見られなかった.一方,個人で分けると,相関が見られる発話者と見られない発話者がいることがわかった.相関が見られる発話者については,被測定者の言語能力スコアを継続的に測定し,その変化を観察することによる能力の判断(用途1)や言語能力の現状把握・維持・改善(用途2)ができる可能性が示唆された.
V06N07-03
GeorgeA.Millerは人間の短期記憶の容量は7±2程度のスロットしかないことを提唱している.本研究では,京大コーパスを用いて日本語文の各部分において係り先が未決定な文節の個数を数えあげ,その個数がおおよそ7±2の上限9程度でおさえられていたことを報告した.また,英語文でも同様な調査を行ないNP程度のものをまとめて認識すると仮定した場合7±2の上限9程度でおさえられていたことを確認した.これらのことは,文理解における情報の認知単位として日本語で文節,英語ではNP程度のものを仮定すると,Millerの7±2の理論と,言語解析・生成において短期記憶するものは7±2程度ですむというYngveの主張を整合性よく説明できることを意味する.
V17N04-08
現在,機械翻訳システムの分野において,対訳データから自動的に翻訳モデルと言語モデルを獲得し,翻訳を行う統計翻訳が注目されている.翻訳モデルでは,原言語の単語列から目的言語の単語列への翻訳を,フレーズテーブルで管理する.しかしフレーズテーブルはプログラムで自動作成するため,カバー率は高いが信頼性は低いと考えられる.一方,手作業で作成した翻訳対は,信頼性は高いがカバー率は低いと考えられる.そこで,それぞれの長所を生かすために,プログラムで自動作成したフレーズ対に手作業で作成した翻訳対を追加することで翻訳精度が向上すると考えた.実験では,手作業で作成された約13万の翻訳対に翻訳確率を与え,プログラムで自動作成したフレーズテーブルに追加した.翻訳実験の結果,BLEUスコアが,日英翻訳の単文では0.9\%,重複文では0.8\%向上した.また人間による対比較実験を行ったところ,有効性が確認された.以上の結果から,統計翻訳において手作業で作成した翻訳対を追加する提案手法は有効であることが示された.
V05N01-02
待遇表現の丁寧さの計算モデルとして,待遇表現に語尾を付加した際の待遇値(待遇表現の丁寧さの度合い)の変化に関する定量的なモデルを提案した.このモデルでは(1)それぞれの待遇表現に対し,その表現が用いられるべき状況が待遇値に関する正規分布として表される,(2)それぞれの語尾に対し,その語尾が付加される待遇表現が用いられるべき状況が待遇値に関する正規分布として表される,というふたつの仮定を立て,待遇表現に語尾を付加した際に得られる情報量を定義した.そして更に,語尾の付加による待遇値の変化量は,付加の際得られる情報量に関する一次式で表すことができる,という仮定を立て,語尾の付加による待遇値の変化量を,語尾が付加される前の待遇表現に対する待遇値の関数として定義した.このモデルの妥当性を検証するため,ふたつの異なった発話状況において用いられる待遇表現のグループそれぞれに対し,語尾の付加による待遇値変化を求める心理実験を行った.その結果,いずれのグループにおいても語尾の付加による待遇値変化は,提案されたモデルによって予測された傾向に従い,モデルの妥当性が支持された.
V03N04-07
筆者らは,コーパスに基づいて形態素を基本とした日本語文法を自動獲得する方法を既に提案している.本論文は,この方法における処理単位として,形態素の代わりにより長い単位---認知単位---を用いた新しい方法を提案するものである.認知単位は,人間を被験者とした知覚実験の結果から得られた人間の文解析の単位である.こうした,形態素より長い単位を解析に用いることにより,構文解析における経路数を抑えることができる.しかし,単純に認知単位を辞書に登録して用いるだけでは,未知認知単位の出現確率が高まり,結果として文解析の正解率が低下する.この現象を抑えるため,既知認知単位から未知認知単位を推定する新しい方法を更に取り入れた.この方法で天気概況文コーパスを処理し,得られた文法に基づき構文解析を行った結果,形態素を処理単位とした解析に比べ高い処理効率を得ることができた.
V21N01-04
本稿では語義曖昧性解消(WordSenseDisambiguation,WSD)の領域適応が共変量シフトの問題と見なせることを示し,共変量シフトの解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決を図る.共変量シフトの解法では確率密度比の算出が鍵となるが,ここではNaiveBayesで利用されるモデルを利用した簡易な算出法を試みた.そして素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う.この手法を本稿の提案手法とする.BCCWJコーパスの3つ領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を選び,SemEval-2の日本語WSDタスクのデータを利用して,多義語16種類を対象に,WSDの領域適応の実験を行った.実験の結果,提案手法はDaum{\'e}の手法と同等以上の正解率を出した.本稿で用いた簡易な確率密度比の算出法であっても共変量シフトの解法を利用する効果が高いことが示された.より正確な確率密度比の推定法を利用したり,最大エントロピー法の代わりにSVMを利用するなどの工夫で更なる改善が可能である.また教師なし領域適応へも応用可能である.WSDの領域適応に共変量シフトの解法を利用することは有望であると考えられる.
V10N03-05
本論文では,SENSEVAL2の日本語翻訳タスクに対して帰納論理プログラミング(InductiveLogicProgramming,ILP)を適用する.翻訳タスクは分類問題として定式化できるため,帰納学習の手法を利用して解決できる.しかし翻訳タスクは新たに訓練データを作るのが困難という特異なタスクになっており,単純に確率統計的な帰納学習手法を適用することはできない.TranslationMemoryの例文だけ,つまり少ない訓練データのみを用いて,どのように分類規則を学習すれば良いかが,翻訳タスク解決の1つの鍵である.このために本論文ではILPを用いる.ILPは確率統計的な帰納学習手法にはない特徴を有する.それは背景知識を容易に利用可能である点である.背景知識とは訓練データには明示されない問題固有の知識である.この背景知識によって訓練データが少ない場合の学習が可能となる.ここではILPの実装システムとしてProgol,背景知識として分類語彙表を利用することで,翻訳タスクに対して正解率54.0\,\%を達成した.この値は,付加的な訓練データを用いないSENSEVAL2参加の他システムと比較して優れている.
V04N02-02
本稿では,コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法を提案する.先ずコーパスから動詞の多義解消に必要な情報を抽出する手法について述べる.本手法では,多義を判定しながら意味的なクラスタリングを行なうことで多義解消に必要な情報を抽出する.そこで,表層上は一つの要素である多義語動詞を,多義が持つ各意味がまとまった複数要素であると捉え,これを一つ一つの意味に対応させた要素(仮想動詞べクトルと呼ぶ)に分解した上でクラスタを作成するという手法を用いた.本手法の有効性を検証するため,丹羽らの提案した単語ベクトルを用いた多義語の解消手法と比較実験を行なった結果,14種類の多義語動詞を含む1,226文に対し,丹羽らの手法が平均62.7\%の正解率に対し,本手法では71.1\%の正解率を得た.
V24N05-04
我々は国語研日本語ウェブコーパスとword2vecを用いて単語の分散表現を構築し,その分散表現のデータをnwjc2vecと名付けて公開している.本稿ではnwjc2vecを紹介し,nwjc2vecの品質を評価するために行った2種類の評価実験の結果を報告する.第一の評価実験では,単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出する.第二の評価実験では,タスクに基づく評価として,nwjc2vecを用いて語義曖昧性解消及び回帰型ニューラルネットワークによる言語モデルの構築を行う.どちらの評価実験においても,新聞記事7年分の記事データから構築した分散表現を用いた場合の結果と比較することで,nwjc2vecが高品質であることを示す.
V12N05-02
近年,ウェブ上の日本国内の新聞社などのサイトにおいては,日本語だけでなく英語で書かれた報道記事も掲載しており,これらの英語記事においては,同一時期の日本語記事とほぼ同じ内容の報道が含まれている.本論文では,これらの報道記事のページから,日本語で書かれた文書および英語で書かれた文書を収集し,多種多様な分野について,分野固有の固有名詞(固有表現)や事象・言い回しなどの翻訳知識を獲得する手法を提案する.本論文の手法には,情報源となるコーパスを用意するコストについては,コンパラブルコーパスを用いた翻訳知識獲得のアプローチと同等に小さく,しかも同時期の報道記事を用いるため,片方の言語におけるタームや表現の訳がもう一方の言語の記事の方に出現する可能性が高く,翻訳知識の獲得が相対的に容易になるという大きな利点がある.翻訳知識獲得においては,まず,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する.そして,関連記事組を用いて二言語間の訳語対応を推定する.訳語対応を推定する尺度としては,関連記事組における訳語候補の共起を利用する方法を適用し,評価実験において文脈ベクトルを用いる方法と比較し,この方法が有効であることを示す.
V11N02-04
機械翻訳知識を対訳コーパスから自動構築する際,コーパス中に存在する翻訳の多様性に起因して冗長な知識が獲得され,誤訳や曖昧性増大の原因となる.本稿ではこの問題に対し,「機械翻訳に適した対訳文」に制限し,翻訳知識自動構築を試みる.機械翻訳に適した対訳文の指標として直訳性を提案し,これを測定する尺度として対訳対応率を定義した.\\\indentこの対訳対応率に従い,2つの知識構築法を提案する.第一は,翻訳知識構築の前処理としての,直訳性を用いた対訳文フィルタリング,第二は対訳文を直訳部/意訳部に分割し,部分に応じた汎化手法を適用する.これらの効果は,自動構築した知識を用いた機械翻訳による,訳文の品質という観点で評価を行った.その結果,後者の分割構築の場合で約8.6\%の入力文について翻訳品質が向上し,直訳性を用いた機械翻訳知識構築は,翻訳品質向上に有効であることが確認された.
V14N04-03
文章推敲に関する従来研究では,主に,タイプミス,構文構造の複雑さ,表記の揺れを指摘する手法など,表記レベルと統語レベルの手法に重点がおかれていた.それに対して,本研究では,読みやすさを向上させるために,説明が不足していて論理展開が読み取りにくいと感じられる箇所を検出する技術を扱う.文章としては情報を正確に伝達するための仕事文(仕事用の文)を対象として,文単位での情報不足を推敲対象とする.この課題は意味処理に踏み込むため,これまで十分研究が行われてこなかった.なお,語用論の「協調の原理」によれば,量の格率と呼ばれる情報不足と情報過多に関する遵守すべき原則がある.このうち情報過多を扱わない理由は,情報過多が,冗長な情報を無視するのに基づく読者の負担を増やすだけであるのに対し,情報不足は理解困難という深刻な事態を招き,重要性が高いためである.実験準備から解析に至る流れは,次の通りである.まず,原文から連体修飾部を欠落させた課題文を生成し,次に,被験者にその箇所に情報不足を感じるかどうかを判定させ正解判定データを作成した.その後,正解判定データの一部から機械学習を行い,残りのデータを機械判定させる.機械判定に用いる主な素性として,修飾部の欠落箇所におけるつながりの滑らかさに関係した語の連鎖に関する統計量を取り上げた.約1,000箇所の判定課題に対し,SVMによる機械学習アルゴリズムを用いた自動判定により正解率を測定した結果,機械判定の正解率として,ベースライン50{\kern0pt}%,上限(人間の評価のバラツキから上限を定義)76{\kern0pt}%に対し,10-foldcrossvalidationで67{\kern0pt}%の正解率を得た.
V16N03-04
LR構文解析表(LR表)を作成する際,CFG規則による制約だけでなく品詞(終端記号)間の接続制約も同時に組み込むことによって,LR表中の不要な動作(アクション)を削除することができる.それにより,接続制約に違反する解析結果を受理しないLR表を作成できるだけでなく,LR表のサイズを縮小することも可能であり,構文解析の効率の向上が期待できる.これまでにも接続制約の組み込み手法はいくつか提案されているが,従来手法では,注目する動作の前後に実行され得る動作を局所的に考慮するため,削除しきれない動作が存在する.そこで,本論文では新しい組み込み手法を提案する.提案手法では,初期状態から最終状態までの全体の実行すべき動作列(アクションチェイン)を考慮し,接続制約を組み込む.評価実験の結果,従来手法と比較して,不要な動作をさらに約1.2\%削減でき,構文解析所要時間は約2.4\%短縮できることが分かった.最後に,提案手法の完全性について考察する.
V06N06-02
オフィス業務においては,大量の関連情報から,特定のイベントについての経過や状況を把握するために,要約や抄録の生成が求めらている.本論文では,複数の文書から抄録や要約をロバストに生成する手法として,あるイベントに関する時間的経緯を抄録として生成するエピソード抄録と,大量の情報を大局的に把握するための要約文を生成する鳥瞰要約を提案する.エピソード抄録では,あるイベントを表す5W1H(だれが,なにを,いつ,どこで,どうした)が含まれる文書を検索し,そのイベントに関する時間的経緯を抄録として生成する.鳥瞰要約は,文章中の5W1H要素を,シソーラスを用いてそれらの上位概念で置き換えることで,要約文を生成する.新聞記事10,000件とセールスレポート2,500件を対象として適用し,その効果を確認した.
V05N04-06
日本語文書を点字に翻訳する問題をとりあげ,分かち書きのための規則を分類,整理して知識ベース化し,システムが判断し難い箇所のみを選択的にユーザに提示する対話型の分かち書き支援システムを提案する.このシステムでは文法情報を含む大規模な辞書の代わりに見出し語のみからなる小規模なテーブルを用いることにより,辞書構築の手間を削減した.従来より日本語を点字に翻訳するシステムは過去にいくつか提案され市販されているが,処理は一括して行われ,ユーザの介入する余地はない.システムが誤って翻訳した箇所については点字翻訳ボランティアが全文を見直す必要があり,実際には利用し難いのが現状である.ここでは分かち書きの規則を知識ベース化してアルゴリズムから独立させ,システムとユーザが協調することによって,日本語点字翻訳のための分かち書きを対話的に行うシステムについて述べる.本システムで情報処理関連のテキストを処理し,その有効性を確認した.
V07N04-07
本稿では,日英機械翻訳システムTWINTRANの言語知識(辞書と規則)と翻訳品質の評価結果について述べる.TWINTRANは次のような設計方針に基づくシステムである.1)翻訳対象と翻訳方向を日本語テキストから英語テキストへの翻訳に固定し,日本語の解析知識の記述を,日本語文法だけでなく英語文法も考慮に入れて行なう.2)解釈の曖昧性の解消は,各規則に与えた優先度に基づいて解釈の候補に優劣を付け,候補の中から最も優先度の高い解釈を選択することによって行なう.3)動詞の主語や目的語など日本語では任意的だが英語では義務的である情報を得るために照応解析を行なう.\\NTT機械翻訳機能試験文集を対象として行なったウィンドウテストでは,我々の評価基準で,試験文集の73.1\%の文が合格となり,試験文集全体の平均点も合格点を上回る結果が得られた.
V07N04-05
本稿では,従来の機械翻訳システムの構文解析能力を越える倒置や挿入などを含む文に対して頑健な処理を実現するための一手法として,形態素解析と簡単な構文解析によって得られる情報に基づいて原文を書き換える自動前編集手法を示す.原文書き換え系を既存システムに追加することによって,1)より品質の高い翻訳がシステムの既存部分にほとんど変更を加えることなく得られるようになるだけでなく,2)構文解析の負担が減少するためシステム全体としての効率化が実現できる.実際,提案手法を我々の英日機械翻訳システムPowerE/Jに組み込み,新聞記事を対象として実験を行なったところ,1)書き換え規則が適用された330文の78.8\%にあたる260文の翻訳品質が改善され,2)書き換えを行なった場合の翻訳速度は行なわない場合の速度の1.12倍になった.
V15N02-05
ある入力文書が多くの人にとってどの程度興味や関心を持つかを算出する指標を提案する.各個人の興味や関心は多種多様であり,これを把握することで情報のフィルタリング等を行う研究は知られているが,本研究では不特定多数すなわち大衆が全体でどの程度の興味を持つかについて検討を行った.このような技術は,不特定多数に対して閲覧されることを想定しているWebサイトにおける提示文書の選択や表示順の変更など,非常に重要な応用分野を持っている.我々は大衆の興味が反映されている情報源として順位付き文書を使用した.本手法ではこれを学習データとして利用して,文書に含まれる語句及び文書自体に興味の強弱を値として付与する手法を構築した.興味を値として扱うことで,興味の強弱を興味がある・ないの2値ではなく興味の程度を知ることや興味発生の要因分析を行うことが可能である.提案手法は,文書に含まれる語句を興味判別する素性として扱い,内容語,複合名詞,内容語及び複合名詞の組み合わせの3種類について比較,議論した.評価は,ニュース記事のランキングを対象にして,実際の順位とシステムの順位を比較した.その結果,順位相関に基づいた評価値は0.867であり,手法の有効性を確認した.さらに,ほぼ興味を持たれない記事に対して抽出精度0.90を超える精度で弁別できることを実験で確認した.
V20N05-03
本論文では,レビュー文書からクレームが記述された文を自動検出する課題に対して,従来から問題となっていた人手負荷を極力軽減することを指向した次の手続きおよび拡張手法を提案する:(1)評価表現と文脈一貫性に基づく教師データ自動生成の手続き.(2)自動生成された教師データの特性を踏まえたナイーブベイズ・モデルの拡張手法.提案手法では,大量のレビュー生文書の集合と評価表現辞書が準備できれば,クレーム検出規則の作成・維持・管理,あるいは,検出規則を自動学習するために必要となる教師データの作成にかかる人手負荷は全くかからない利点をもつ.評価実験を通して,提案手法によって検出対象文の文脈情報を適切に捉えることで,クレーム文の検出精度を向上させることができること,および,人手によって十分な教師データが作成できない状況においては,提案手法によって大量の教師データを自動生成することで,人手を介在させる場合と同等あるいはそれ以上のクレーム検出精度が達成できることを示した.
V03N04-05
実用的な自然言語処理を開発するには大規模な言語資源が必要になる.語彙解析では辞書が共通の言語資源である.一方,構文解析では文法規則が主流になってくる.規則ベースは抽象的で解析時の挙動を理解することは困難であり,規則の規模が大きくなると保守改良が困難になるという課題がある.本論文では実際の文章から縮退型共起関係という2文節間の係り受け関係を品詞と付属語列で表現するデータを抽出し,係り受け解析の唯一の言語資源として利用したシステムを示す.本方式を用いて4000文から抽出した8000の縮退型共起関係データを用いたプロトタイプシステムを構築し,50文の新聞社説で評価実験を行ったところ,80%の係り受けが成功した.本システムの特徴として,規則駆動では困難な構文規則を学習したり拡張することが共起関係によるデータ駆動の良さから実現可能になっていることが挙げられる.
V26N02-08
本稿では,日本語述語項構造解析に分野適応の技術を導入することを提案する.述語項構造がアノテーション付けされた現代日本語書き言葉均衡コーパス(BCCWJ-PAS)において,メディアの違いにより項の種類の出現頻度が異なることがわかった.特に外界照応においてその傾向は顕著である.過去の日本語述語項構造解析の多くは,新聞記事コーパスを対象にしているために,この傾向には注目していなかった.この問題に取り組むため,まず,RNNベースの述語項構造解析器をベースラインとして使用し,3種類の異なる分野適応技術とその組み合わせを導入した.現代日本語書き言葉均衡コーパス(BCCWJ-PAS)を用いた評価実験では,述語項構造解析には分野依存性があることがわかった.特にガ格とヲ格の解析では,分野適応が日本語述語項構造解析の性能向上に有効であることが確認され,QAテキストの解析においてベースラインと比較しF1値が最大で,{$0.030$}向上した.
V03N04-01
国文学作品の電子化テキストのためのデータ記述ルールについて検討した.様々な国文学作品の特徴を整理し,電子化テキストの目的と研究対象をまとめ,必要なデータ記述のための機能や情報構造について考察している.データ記述の基本原則を作品の構造とテキストの構造に分けて考察し,またデータ表記の様相を分析,評価し,ルール化についてまとめている.3つの基本ルールから成るKOKINルールと呼ぶデータ記述文法を定義し,作成した.これは国文学作品を対象とする電子化テキスト記述用のマークアップ文法である.ルールに基づく電子化データを実際に作成し,ルールの構文の正当性やルールの有用性などについて評価している.例えば,電子化データのテキストデータベースやCD-ROMへの登録,SGMLへの変換などを行っている.これらの結果,ルールの有効性が確認され,実用性についても高く評価された.
V04N01-04
英語前置詞句の係り先の曖昧性は文の構造的曖昧性の典型例をなすものである.本論文は,選好規則と電子辞書から得られる様々な情報に基づき,前置詞句の係り先を決定する手法を提案する.最初に,係り先を決める上での概念情報の役割と,それを電子辞書から抽出する方法を述べる.次に,概念情報をはじめ統語情報,語彙情報に基づく前置詞句の係り先を決める選好規則について述べ,選好的曖昧性解消モデルを提案する.このモデルでは選好規則によって一意的に係り先が決まらなかった場合,補助的に確率を使い,コーパスから得られるデータから確率計算をすることにより係り先の決定を行っている.使用頻度の高い12の前置詞句を含む2877文について行った実験では,86.9\%の正解率を得た.これは既存の手法に比べ,2%から5%よい結果となっている.
V25N03-02
文と文がどのような意味的関係にあるかという文間の関連性の計算は,情報検索や文書分類,質問応答などの自然言語処理の基盤を築く重要な技術である.文の意味をベクトルや数値で表現する手法は未だ発展途上であり,自然言語処理分野においては,様々な機械学習による手法が活発に研究されている.これらの手法では,文字や単語を単位としたベクトルを入力として,それらの表層的な出現パターンとその振る舞いを学習することで,文ベクトルを獲得している.しかし,否定表現を含む文など,文の構造的意味を正確に表現できるかは自明ではない.一方で,形式意味論においては,表現力の高い高階論理に基づいて意味の分析を行う研究が発展しているが,文間の関連性のような,連続的な意味的関係を表現することが困難である.そこで本研究では,機械学習と論理推論という二つの手法を組み合わせて文間の関連性を計算する手法を提案する.具体的には,文間の含意関係を高階論理の推論によって判定するシステムの実行過程から,文間の関連性に寄与する特徴を抽出し,文間の関連性を学習する.文間類似度学習と含意関係認識という2つの自然言語処理タスクに関して提案手法の評価を行った結果,推論の過程に関する情報を特徴量に用いることによって,いずれのタスクにおいても精度が向上した.また,含意関係認識用データセットの一つであるSICKデータセットの評価では,最高精度を達成した.
V24N05-03
日本語二重目的語構文の基本語順に関しては多くの研究が行われてきた.しかし,それらの研究の多くは,人手による用例の分析や,脳活動や読み時間の計測を必要としているため,分析対象とした用例については信頼度の高い分析を行うことができるものの,多くの仮説の網羅的な検証には不向きであった.一方,各語順の出現傾向は,大量のコーパスから大規模に収集することが可能である.そこで本論文では,二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するという仮説に基づき,大規模コーパスを用いた日本語二重目的語構文の基本語順に関する分析を行う.100億文を超える大規模コーパスから収集した用例に基づく分析の結果,動詞により基本語順は異なる,省略されにくい格は動詞の近くに出現する傾向がある,PassタイプとShowタイプといった動詞のタイプは基本語順と関係しない,ニ格名詞が着点を表す場合は有生性を持つ名詞の方が「にを」語順をとりやすい,対象の動詞と高頻度に共起するヲ格名詞およびニ格名詞は動詞の近くに出現しやすい等の結論が示唆された.
V15N03-05
日常的な会話の中では,新語や固有名詞などシソーラスに定義されていない単語(未知語)が使用される.未知語についての知識がなければ,適切に会話を行うことができない.Webを利用することで,未知語について調べることができる.しかし,Webには膨大な情報が存在するため,必要な情報を効率的に得ることは困難である.未知語に対する適切なシソーラスのノードを提示することによって,未知語の意味を獲得することができる.未知語理解はコーパスなど言語データに依存する研究が多く,対応できない未知語が存在するという問題点がある.本論文では,連想メカニズムを構成する概念ベースと関連度計算,さらにWebを用いて,未知語を概念化することで各ノードとの関連性を評価し,固有名詞を含んだ未知語をシソーラス上の最適なノードへ分類する手法を提案する.
V23N03-02
仮説推論は,与えられた観測に対する最良の説明を見つける推論の枠組みである.仮説推論は80年代頃から主に人工知能の分野で長らく研究されてきたが,近年,知識獲得技術の成熟に伴い,大規模知識を用いた仮説推論を実世界の問題へ適用するための土壌が徐々に整いつつある.しかしその一方で,大規模な背景知識を用いる際に生じる仮説推論の計算負荷の増大は,重大な問題である.特に言語の意味表示上の依存関係を表すリテラル(本論文では機能リテラルと呼ぶ)が含まれる場合に生じる探索空間の爆発的増大は,実問題への仮説推論の適用において大きな障害となっている.これに対し本論文では,機能リテラルの性質を利用して探索空間の枝刈りを行うことで,効率的に仮説推論の最適解を導く手法を提案する.具体的には,意味的な整合性を欠いた仮説を解空間から除外することで,推論全体の計算効率を向上させる.また,このような枝刈りが,ある条件が満たされる限り本来の最適解を損なわないことを示す.評価実験では,実在の言語処理の問題に対して,大規模背景知識を用いた仮説推論を適用し,その際の既存手法との計算効率の比較を行った.その結果として,提案手法が既存のシステムと比べ,数十〜数百倍ほど効率的に最適解が得られていることが確かめられた.
V08N01-07
自然言語処理では,処理の過程で,さまざまな解釈の曖昧さが生じる.この曖昧さを解消するのに必要な知識を記述するため,対象とする表現を部分的な表現の組に還元せず,一体として捉える方法として,言語表現とその解釈の関係を変数とクラスの組からなる構造規則として表現し,学習用標本から半自動的に収集する方法を提案した.この方法は,パターン化された表現の変数部分を表すのに文法属性体系と意味属性体系を使用しており,$N$個の変数を持つ表現パターンに対して,一次元規則から$N$次元規則までの規則と字面からなる例外規則を合わせて$N+1$種類の構造規則が順に生成される点,また,各規則は,その生成過程において,各属性の意味的な包含関係を用いて容易に汎化される点に特徴がある.本方式を「$AのBのC$」の型の名詞句に対する名詞間の係り受け解析規則の生成に適用した結果では,変数部分を意味属性で表現した構造規則の場合,1万件の学習事例から,一次元規則198件,二次元規則1480件,三次元規則136件が得られ,それを使用した係り受け解析では,約$86\%$の解析精度が得られることが分かった.また,変数部分を文法属性で表した規則と意味属性で表した規則を併用する場合は,解析精度は,$1〜2\%$向上することが分かった.この値は,2名詞間の結合強度に還元して評価する方法($72\%$)より約$15\%$高い.この種の名詞句では,人間でも係り先の判定に迷うような事例が$10\%$近く存在することを考慮すると,得られた規則の精度は,人間の解析能力にかなり近い値と言える.
V08N03-07
日本語とウイグル語は共に膠着語であり,語順がほぼ同じであるなどの構文的類似性が見られる.そのため,日本語--ウイグル語機械翻訳においては,日本語文を形態素解析した後,逐語訳を行うだけでもある程度の翻訳が可能となる.これは,名詞や動詞などの自立語の文中での役割が助詞,助動詞といった付属語によって示されており,そうした付属語においても,日本語とウイグル語との間で対応関係があるからである.特に名詞に接続する格助詞は,文中での他の語との関係を決めるという,言語構造上重要な機能を持っている.そのため,格助詞を正しく翻訳できなければ,違和感のある翻訳文になるだけでなく,ときには致命的に誤った意味となる翻訳文を生成することがある.そこで,本論文では,日本語--ウイグル語機械翻訳における格助詞の取り扱いについて論じる.まず,計算機用日本語基本動詞辞書IPALを用いて動詞と格助詞の使われ方を調べるとともに,それぞれの格助詞の機能に対応するウイグル語格助詞を決定する.さらに,この調査結果から作成した動詞の格パターンを利用して複数の格助詞の訳語候補の中から,適切な訳語を選択する手法を提案する.また,本提案手法に対する評価実験では,環境問題関連の新聞社説3編の日本語138文を対象にし,我々が本論文で提案するアプローチに基づいて実験を行った.その結果,99.3\%の正解率を得ることができた.
V25N02-01
本論文では,ニューラル翻訳モデルで問題となる出力層の時間・空間計算量を,二値符号を用いた予測法により大幅に削減する手法を提案する.提案手法では従来のソフトマックスのように各単語のスコアを直接求めるのではなく,各単語に対応付けられたビット列を予測することにより,間接的に出力単語の確率を求める.これにより,最も効率的な場合で従来法の対数程度まで出力層の計算量を削減可能である.このようなモデルはソフトマックスよりも推定が難しく,単体で適用した場合には翻訳精度の低下を招く.このため,本研究では提案手法の性能を補償するために,従来法との混合モデル,および二値符号に対する誤り訂正手法の適用という2点の改良も提案する.日英・英日翻訳タスクを用いた評価実験により,提案法が従来法と比較して同等程度のBLEUを達成可能であるとともに,出力層に要するメモリを数十分の1に削減し,CPUでの実行速度を5倍から10倍程度に向上可能であることを示す.
V04N01-03
\vspace*{-1mm}近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.しかし,話し言葉の特徴である,言い淀み,言い直し,省略などのさまざまな不適格性のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.我々は,適格文と不適格文を統一的に扱う統一モデルに基づく話し言葉の解析手法を提案した.この手法においては,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理がいずれも,最も優先度の大きい依存関係解釈を求めるという形で実現される.本稿では,この解析手法で用いるための優先度計算法について述べる.本手法は,コーパスに基づく手法であり,解釈の優先度はその解釈が学習データ中でどのくらいの頻度で生じているかに応じて与える.この際,学習データの希薄性の問題を回避するために,解釈の候補と完全に一致する事例だけでなく類似した事例も考慮する.本稿では,まず,我々の話し言葉の解析手法の概略を説明し,次に,本手法の詳細を説明した後,本手法を話し言葉の構文・意味解析システム上に実装し,その性能を評価することで本手法の有効性を示す.その結果,オープン試験で,約半数の文に完全に正しい依存構造が与えられることを示す.
V17N01-02
地名等の固有名詞は自然言語処理における未知語処理問題の要因の一つであり,これを自動的に認識する手法が盛んに研究されている.本稿では,地名の所属国を自動的に推定することで,未知語としてノイズの原因となる可能性のある地名語句に情報を与えることを目的とする.固有名詞である地名の認識では地名辞書が用いられることが多いが,辞書ベースの手法では,辞書未登録語の問題が避けられない.不特定多数の外国の地名も含めた所属国の推定の実現のため,本稿では,地名辞書や文脈情報を全く使用せず,地名の表層情報のみを利用して,地名の所属国を自動的に判別する手法を提案する.地名については,言語的な類似性や地理的要因によって所属国の判別が困難な場合がある.本稿ではこの点に着目し,所属可能性の低い国の除去による候補の絞込み処理と,所属可能性の高い候補の選択処理との組合せによって,再現率を高く保ったまま適合率の向上を実現した.
V07N02-05
本稿では,換喩を統計的に解釈する方法を述べた.換喩とは,喩える言葉(喩詞)と喩えられる言葉(被喩詞)との連想に基づいた比喩である.たとえば,「漱石を読む」という換喩は,「漱石の小説を読む」というように解釈できる.この場合,喩詞である「漱石」と被喩詞である「(漱石の)小説」との間には,「作者-作品」という連想関係が成立する.本稿では,以下の方針で換喩を解釈することを試みた.\begin{enumerate}\item「名詞$A$,格助詞$R$,述語$V$」というタイプの換喩が与えられたとき,与えられた喩詞$A$から連想される名詞群を求めるためにコーパスを利用する.\item連想された名詞群のなかから,与えられた視点($R$,$V$)に適合するような名詞を被喩詞として統計的に選択する.\end{enumerate}その結果,コーパスが連想名詞の供給源として有効なことが例証され,かつ,提案手法を用いることにより,喩詞から連想された名詞群の中から,換喩の視点に適合する名詞を被喩詞として選択できることが分かった.また,提案手法による換喩解析の正解率は,厳しい評価を適用した場合には0.47であり,緩い評価を適用した場合には0.65であった.これらは提案手法が換喩の解析に有効であることを示している.
V18N02-04
本論文では,日本語の文の自動単語分割をある分野に適用する現実的な状況において,精度向上を図るための新しい方法を提案する.提案手法の最大の特徴は,複合語を参照することが可能な点である.複合語とは,内部の単語境界情報がなく,その両端も自動分割器の学習コーパスの作成に用いられた単語分割基準と必ずしも合致しない文字列である.このような複合語は,自然言語処理をある分野に適用する多くの場合に,利用可能な数少ない言語資源である.提案する自動単語分割器は,複合語に加えて単語や単語列を参照することも可能である.これにより,少ない人的コストでさらなる精度向上を図ることが可能である.実験では,これらの辞書を参照する自動単語分割システムを最大エントロピー法を用いて構築し,それぞれの辞書を参照する場合の自動単語分割の精度を比較した.実験の結果,本論文で提案する自動単語分割器は,複合語や単語列を参照することにより,対象分野においてより高い分割精度を実現することが確認された.
V06N07-01
本稿では,形態素解析の結果から過分割(正解が分割していないところを形態素解析システムが分割している個所)を検出するための統計的尺度を提案する.もし,形態素解析の結果から過分割を検出できれば,それを利用して形態素解析結果の過分割を訂正する規則を作成できるし,人手修正済みのコーパスで除去しきれていない過分割を発見し取り除くこともできるため,そのような尺度は有用である.本稿で提案する尺度は文字列に関する尺度であり,文字列が分割される確率と分割されない確率との比に基づいていて,分割されにくい文字列ほど大きな値となる.したがって,この値が大きい文字列は過分割されている可能性が高い.本稿の実験では,この尺度を使うことにより,規則に基づく形態素解析システムの解析結果から,高精度で過分割を検出できた.また,人手で修正されたコーパスに残る過分割も検出できた.これらのことは,提案尺度が,形態素解析システムの高精度化に役立つこと,及び,コーパス作成・整備の際の補助ツールとして役立つことを示している.
V18N02-01
確率的言語モデルは,仮名漢字変換や音声認識などに広く用いられている.パラメータは,コーパスの既存のツールによる処理結果から推定される.精度の高い読み推定ツールは存在しないため,結果として,言語モデルの単位を単語(と品詞の組)とし,仮名漢字モデルを比較的小さい読み付与済みコーパスから推定したり,単語の発音の確率を推定せずに一定値としている.これは,単語の読みの確率を文脈と独立であると仮定していることになり,この仮定に起因する精度低下がある.このような問題を解決するために,本論文では,まず,仮名漢字変換において,単語と読みの組を単位とする言語モデルを利用することを提案する.単語と読みの組を単位とする言語モデルのパラメータは,自動単語分割および自動読み推定の結果から推定される.この処理過程で発生する誤りの問題を回避するために,本論文では,確率的タグ付与を提案する.これらの提案を採用するか否かに応じて複数の仮名漢字変換器を構築し,テストコーパスにおける変換精度を比較した結果,単語と読みの組を言語モデルの単位とし,そのパラメータを確率的に単語分割し,さらに確率的読みを付与したコーパスから推定することで最も高い変換精度となることが分かった.したがって,本論文で提案する単語と読みの組を単位とする言語モデルと,確率的タグ付与コーパスの概念は有用であると結論できる.
V13N01-03
我々人間は曖昧な情報を受け取り適宜に解釈することで,会話を進めたり適切な行動を取ることができる.これは,長年の経験により蓄積された知識から築き上げられた言葉に関する「常識」を持っているからである.人間と自然に会話できる知的なコンピュータの実現には,単語の意味を理解するシステムの構築が必要であると考える.この実現には,ある概念から他の類似の概念ばかりでなく常識的に関連の強い概念を連想する連想メカニズムが不可欠である.そこで本稿では,単語の意味を定義している概念ベースを利用し,概念間の関連の強さをより一般的に評価する関連度計算方式について述べる.これまでの概念ベースの属性集合の一致度合いから概念間の関連性(類似度)を評価する手法を拡張し,概念空間における概念の共起情報を用いる関連度計算で補正する方式を提案する.
V16N03-02
近年,コンピュータとネットワークの発達に伴って,個人が扱える情報は膨大なものとなり,その膨大な情報の中から必要な情報を探し出すのは非常に困難となっている.既存の検索システムは基本的には表記のみを活用するため,意味的には同じ内容の検索でもユーザが入力する語によって検索結果が異なってしまう.そのためユーザが適切なキーワードを考えなければならない.そこで本稿では文書の意味を捉えた検索を実現するために単語の関連性にもとづいた文書間の類似性の定量化手法を提案する.具体的には概念ベースを用い単語間の関連性を求め,EarthMover'sDistanceにより文書間の類似度を計算する方法を提案する.また概念ベースに存在しない固有名詞や新語に対して,Web情報をもとに新概念として意味を定義し,概念ベースを自動的に拡張する方法を提案する.これら提案手法をNTCIR3-WEBによって他の手法と比較実験したところ,本手法が他手法に比べ良好な結果が得られた.
V03N03-02
本稿では,比喩の理解過程における再解釈の段階について考察した.名詞の意味を確率を利用して表現した.比喩表現の意味は,喩詞の意味に影響された被喩詞の意味である.被喩詞の意味と比喩表現の意味との違いを示す指標として,明瞭性と新奇性とを情報量を用いて定義した.明瞭性が大きい値となるときは,比喩表現において属性に関する不確定さが減少したときである.新奇性が大きい値となるときは,比喩表現が稀な事象を表わすときである.SD法により比喩表現の意味を測定し,明瞭性と新奇性とを求めた.明瞭性が属性の顕著性のパターンに対応する数値であることと,明瞭性と新奇性とが比喩の理解容易性の指標として適当であることとを示した.
V14N03-09
音声認識の精度の向上にともなって,コールセンターなどへの自動音声応答システムの導入の要求が高まり,人間がコンピュータと対話する機会も増加する傾向にある.これまでの対話システムは言語情報のみを扱い,そのパラ言語情報を扱うことは少ないため,人間同士の対話と比較すると,コンピュータとの対話ではコンピュータが得る人間の情報は小さい.本研究では音声の音響的特徴と言語表現の特徴から推定可能な「怒り」の感情を検出するために,感情の程度による音響的・言語的変化を分析し,コンピュータと人間とのインタラクションにおける人間の感情を捉えることを目指す.非対面の擬似対話により,認識性能に対する不満からくる「苛立ち」や,クレーム対応時におけるユーザの「腹立ち」の内的感情を表現した怒りの音声を収録し,主観評価により感情の程度を付与した音声データを作成した.本論では,怒りの感情を含むと判定された発話について,つぎの3種の特性,声の高さや強さ等の音響的特徴,言語形態上の語彙使用の特徴,語用論的な特徴である文末表現の特徴に着目し,発話者の感情表現とその言語表現・音響的特徴との定量的な関係を分析し,怒り表現の音声言語の特徴付けを試みた.とくに,接続助詞「けど」,「ので」の主節が現れずに発話が中止する接続助詞中止型において,怒りの程度が高いことを明らかにした.
V05N02-04
本論文では,形態素クラスタリングと未知語モデルの改良による確率的形態素解析器の精度向上を提案する.形態素クラスタリングとしては,形態素$n$-gramモデルをクロスエントロピーを基準としてクラス$n$-gramモデルに改良する方法を提案する.未知語モデルの改良としては,確率モデルの枠組の中で学習コーパス以外の辞書などで与えられる形態素を追加する方法を提案する.bi-gramモデルを実装しEDRコーパスを用いて実験を行なった結果,形態素解析の精度の向上が観測された.両方の改良を行なったモデルによる形態素解析実験の結果の精度は,先行研究として報告されている品詞tri-gramモデルの精度を上回った.これは,我々のモデルが形態素解析の精度という点で優れていることを示す結果である.これらの実験に加えて,品詞体系と品詞間の接続表を文法の専門家が作成した形態素解析器との精度比較の実験を行なった.この結果,確率的形態素解析器の誤りは文法の専門家による形態素解析器の誤りに対して有意に少なかった.形態素解析における確率的な手法は,このような人間の言語直感に基づく形態素解析器と比較して,現時点で精度がより高いという長所に加えて,今後のさらなる改良にも組織的取り組みが可能であるという点で有利である.
V03N02-05
本論文では,まず,表層的情報のみを用いて安定的・高精度に構文解析を行う骨格構造解析の方法について述べる.次に,これを用いて行った8万用例文に対する構文付きコーパスの作成について触れ,骨格構造解析の有効性について述べる.さらに,この構文付きコーパスを対象として構築した類似用例検索システムについて述べる.本システムは,(1)構文的制約(係り受け構造)を指定して検索できるので,単語レベルの検索では検索されてしまうような多くの不適切な用例を絞り込むことができる(2)分類語彙表を利用した意味コード化により,類似用例の検索も可能である(3)インデックスに構文情報を含めることにより,高速な構造検索を実現している(4)ユーザはウインドウ上で,三角表を用いた構文構造のブラウジング,検索パターンの指定などができ,使いやすいインタフェースを実現している,などの特徴がある.
V25N04-05
並列構造解析の主たるタスクは並列する句の範囲を同定することである.並列構造は文の構文・意味の解析において有用な特徴となるが,これまで決定的な解析手法が確立されておらず,現在の最高精度の構文解析器においても誤りを生じさせる主たる要因となっている.既存の並列句範囲の曖昧性解消手法は並列構造の類似性のみの特性や構文解析器の結果に強く依存しているという問題があった.本研究では,近年自然言語解析に広く使用されているリカレントニューラルネットワークを用いて,構文解析の結果を用いずに単語の表層形と品詞情報のみから並列句の類似性と可換性の特徴ベクトルを計算し,並列構造の範囲を予測する手法を提案する.PennTreebankとGENIAコーパスを用いた実験の結果,提案手法によって先行研究を上回る解析精度を得た.
V06N04-03
本稿は,「まあ,嬉しい!」のような発話者が感情を思わず口にした「感情表出文」とはどのようなものか,感情主の制約のあり方と,統語的特徴から分析したものである.\\感情述語の人称制約は2種類のムードに関わる問題である.一つは,「述べ立てのムード」,もう一つは「感情表出のムード」である.前者のムードを持つ「述べ立て文」に生じる人称制約は語用論的なものであり,一人称感情主の場合が多いが,条件が整えば他の人称も可能である.一方,感情主が一人称以外ではあり得ないような人称制約を持つタイプの文がある.これを,感情表出のムードを持つ「感情表出文」と定義した.\\その上で,感情表出文の統語的特徴について検討した結果,感情表出文は,述語が要求する感情主や感情の対象といった意味役割を統語的に分析的な方法では言語化しない,すなわち述語一語文であるという事実を明らかにした.\\一語文では,言語文脈上に意味役割の値を参照することができないため,発話現場に依存して決めるしか方法がなく,感情主は発話現場の発話者,感情の対象は発話時の現場のできごとに自動的に決まる.よって,一語文は感情表出文のムードに適合する.一方,意味役割を言語化した文は,意味役割を発話現場に依存する必要がないため,発話現場に拘束されない.こうしたことから,感情表出文は述語一語文でなければならないと結論づけた.
V21N03-01
効率的に機械翻訳システムを開発していくためには,質の高い自動評価法が必要となる.これまでに様々な自動評価法が提案されてきたが,参照翻訳とシステム翻訳との間で一致するNグラムの割合に基づきスコアを決定するBLEUや最大共通部分単語列の割合に基づきスコアを決定するROUGE-Lなどがよく用いられてきた.しかし,こうした方法にはいつくかの問題がある.ルールベース翻訳(RBMT)の訳を人間は高く評価するが,従来の自動評価法は低く評価する.これは,RBMTが参照翻訳と違う訳語を使うことが多いのが原因である.これら従来の自動評価法は単語が一致しないと大きくスコアが下がるが,人間はそうとは限らない.一方,統計的機械翻訳(SMT)で英日,日英翻訳を行うと,「AなのでB」と訳すべきところを「BなのでA」と訳されがちである.この訳には低いスコアが与えられるべきであるが,Nグラムの一致割合に着目するとあまりスコアは下がらない.こうした問題を解決するため,本稿では,訳語の違いに寛大で,かつ,大局的な語順を考慮した自動評価法を提案する.大局的な語順は順位相関係数で測定し,訳語の違いは,単語適合率で測定するがパラメタでその重みを調整できるようにする.NTCIR-7,NTCIR-9の特許翻訳タスクにおける英日,日英翻訳のデータを用いてメタ評価を行ったところ,提案手法が従来の自動評価法よりも優れていることを確認した.
V07N02-01
人間は文書全体を読むことなしに,代表的な単語を見るだけで,<政治>や<スポーツ>などの分野を認知できることから,文書断片内の数少ない単語情報から分野を的確に決定するための分野連想語の構築は重要な研究課題である.しかし,文書から連想語を抽出する場合,複合語の冗長な連想語が多く存在する.本論文では,事前に分野体系が定義され,各分野に文書データが構築されている場合において,複合語の分野連想語を効率的に決定する手法を提案する.本手法では,連想分野を特定する範囲に応じて連想語を五つの水準に分類し,まず複合語以外の単語(短単位語と呼ぶ)の連想語候補を決定し,人手で修正を加える.次に,この短単位語の連想情報を利用して,膨大な数になる複合語の連想語候補を自動的に絞り込む.収集された180分野の学習データ(42メガバイト,15,435ファイル)に対して提案手法を適用した結果,88,782個の候補が8,405個(候補数の約9\%)の連想語に絞り込まれ,再現率0.77以上(平均0.85),適合率0.90以上(平均0.94)の高い抽出精度が得られた.また,連想語を利用した264種類の断片文書の分野決定実験より,複合連想語と短単位連想語による正解率は90\%以上となり,短単位連想語のみの場合より約30\%向上することが分かった.
V08N01-06
形態素解析は日本語解析の重要な基本技術の一つとして認識されている.形態素解析の形態素とは,単語や接辞など,文法上,最小の単位となる要素のことであり,形態素解析とは,与えられた文を形態素の並びに分解し,それぞれの形態素に対し文法的属性(品詞や活用など)を決定する処理のことである.近年,形態素解析において重要な課題となっているのは,辞書に登録されていない,あるいは学習コーパスに現れないが形態素となり得る単語(未知語)をどのように扱うかということである.この未知語の問題に対処するため,これまで大きく二つの方法がとられてきた.一つは未知語を自動獲得し辞書に登録する方法であり,もう一つは未知語でも解析できるようなモデルを作成する方法である.ここで,前者の方法で獲得した単語を辞書に登録し,後者のモデルにその辞書を利用できるような仕組みを取り入れることができれば,両者の利点を生かすことができると考えられる.本論文では,最大エントロピー(ME)モデルに基づく形態素解析の手法を提案する.この手法では,辞書の情報を学習する機構を容易に組み込めるだけでなく,字種や字種変化などの情報を用いてコーパスから未知語の性質を学習することもできる.我々はこの手法により未知語の問題が克服される可能性が高いと考えている.京大コーパスを用いた実験では,再現率95.80\%,適合率95.09\%の精度が得られた.
V21N02-08
日本語の述語項構造アノテーションコーパスは,これまでにいくつかの研究によって整備され,その結果,日本語の述語項構造解析の研究は飛躍的にその成果を伸ばした.一方で,既存のコーパスのアノテーション作業者間一致率やアノテーション結果の定性的な分析をふまえると,ラベル付与に用いる作業用のガイドラインには未だ改善の余地が大きいと言える.本論文では,より洗練された述語項構造アノテーションのガイドラインを作成することを目的とし,NAISTテキストコーパス(NTC),京都大学テキストコーパス(KTC)のアノテーションガイドラインと実際のラベル付与例を参考に,これらのコーパスの仕様策定,仕様準拠のアノテーションに関わった研究者・アノテータ,仕様の改善に関心のある研究者らの考察をもとにガイドライン策定上の論点をまとめ,現状の問題点や,それらに対する改善策について議論・整理した結果を報告する.また,アノテーションガイドラインを継続的に改善可能とするための方法論についても議論する.
V19N04-03
本論文では対象単語の用例集合から,その単語の語義が新語義(辞書に未記載の語義)となっている用例を検出する手法を提案する.ここでのアプローチの基本は,新語義の用例が用例集合中の外れ値になると考え,データマイニング分野の外れ値検出の手法を利用することである.ただし外れ値検出のタスクは教師なしの枠組みになるが,新語義検出という本タスクの性質を考慮すると,一部のデータ(用例)にラベル(対象単語の語義)が付与されているという枠組みで考える方が適切である.そのため本論文では一部のデータにラベルがついているという教師付きの枠組みで外れ値検出を行う.具体的には2つの手法(教師付きLOFと生成モデル)を用い,それら出力の共通部分(積集合)を最終的な出力とする.この教師付きLOFと生成モデルの積集合を出力する手法を提案手法とする.実験ではSemEval-2日本語WSDタスクのデータを用いて,提案手法の有効性を示した.またWSDのアプローチを単独で利用しただけでは,本タスクの解決が困難であることも示した.
V10N05-08
大量の文書情報の中から必要な部分を入手するために,自動要約技術などによって文書の量を制御し,短い時間で適確に内容を把握する必要性が高くなってきている.自動要約を行なうには文書中のどの箇所が重要なのかを判断する必要があり,従来の重要文の抽出方法には単語の出現頻度にもとづいた重要語の計算方法などがある.本論では連想概念辞書における,上位/下位概念,属性概念,動作概念などの連想関係を用いて文書中の単語の重要度を計算し重要文を抽出する手法を提案して有効性を示す.連想概念辞書は,小学校の学習基本語彙を刺激語とし大量の連想語を収集して構造化すると同時に,その連想語との距離が定量化されている.また既存の重要語抽出法と本手法での抽出結果とを,人間が行なった要約結果と比較することによって評価した.従来の手法に比べて連想関係を計算に含めることによって要約精度が人間の要約に近く,本手法によって改良されることがわかった.
V26N02-06
「こりゃひでえ」(元の形:「これはひどい」)のような音変化表現は,対話エージェントの発話や小説のセリフの自動生成において,話者であるキャラクタを特徴付けるための強力な手段となると考えられる.音変化表現を発話のキャラクタ付けに利用するために,本研究では,(i)キャラクタの発話に現れる音変化表現を収集し,(ii)それらを基に,音変化表現を人為的に発生させるための知識を整理した.具体的には,収集した音変化表現を現象と生起環境の観点で分類し,137種類のパターンとして整理した.そして,これらのパターンが小説やコミックで用いられる音変化表現の80\%以上をカバーすることを確認した.さらに,(iii)音変化表現がキャラクタらしさを特徴付ける手段になるという仮説を検証するために,小説やコミックにおける発話文の話者(キャラクタ)を推定する実験を行い,音変化表現のパターンの情報を利用することで,推定性能が向上するキャラクタが存在することを確認した.
V18N01-01
日本語学習者が産出する名詞$n$,格助詞$c$,動詞$v$から成る不自然な共起表現$\tupple{n,c,v}$の中には,動詞選択の誤りに起因するものがある.本稿では,学習者が入力する共起表現$\tupple{n,c,v}$の$v$に対する適切な代替動詞候補を与える手法を提案する.不自然な共起表現中の動詞(誤用動詞)と自然な共起表現となるように修正した適切な動詞(正用動詞)とは出現環境が類似している傾向にあると考えられる.この仮説に基づき,大規模な母語話者コーパスから得られる統計情報を用いて,$\tupple{n,c}$との共起が自然と言える代替動詞候補を,学習者が入力した共起表現の動詞との出現環境の類似度の降順に提示する.まず,誤用動詞とその正用動詞のデータに基づいてこの仮説を検証し,さらに,同データを用いて提案手法に基づいた共起表現に関する作文支援システムの実用性について検討する.
V14N03-01
「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,言語の研究においてしばしば自明視され,議論の前提とされる.本稿は,話し手の言語行動に関するこの一見常識的な考え(「表す」構図)が,日常の音声コミュニケーションにおける話し手の実態をうまくとらえられない場合があることを示し,それに代わる新しい構図(「する」構図)を提案するものである.現代日本語の日常会話の音声の記録と,現代日本語の母語話者の内観を用いた観察の結果,「表す」構図が以下3点の問題点をはらむことを明らかにする:(i)目的論的性格を持ち,目的を伴わない発話を収容できない;(ii)外部からの観察に基づいており,当事者(話し手)のきもちに肉薄し得ない;(iii)モノ的な言語観に立ち,言語を行動と見ることができない.中心的に扱われるのは,あからさまに儀礼的なフィラー,つっかえ方,りきみである.「話し手は自分のきもちに応じて,フィラー・つっかえ方・声質を使い分けている」という「表す」考えが一見正しく思えるが,実はどのような限界を持つのかを,実際のコミュニケーションから具体的に示す.
V15N02-04
日本語には,「にたいして」や「なければならない」に代表されるような,複数の形態素からなっているが,全体として1つの機能語のように働く複合辞が多く存在する.われわれは,機能語と複合辞を合わせて機能表現と呼ぶ.本論文では,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,日本語機能表現を言い換える手法を提案する.ほとんどの機能表現は,多くの形態的異形を持ち,それぞれの異形は,その文体として,常体,敬体,口語体,堅い文体のいずれかをとる.1つの文章においては,原則として,一貫して1つの文体を使い続けなければならないため,機能表現を言い換える際には,文体を制御する必要がある.また,文章読解支援などの応用においては,難易度の制御は必須である.実装した言い換えシステムは,オープンテストにおいて,入力文節の79\%(496/628)に対して,適切な代替表現を生成した.
V13N03-05
本論文では,述語項構造解析の精度向上のために必要となる大規模な項構造タグ付き事例を効率的に作成する方法について議論する.項構造タグ付き事例の効率的な作成方法にはさまざまな方法が考えられるが,本論文では大規模平文コーパスから抽出した表層格パターンの用例集合をクラスタリングし,得られたクラスタに項構造タグを付与することでタグ付与コストを削減する手法を提案する.提案手法では,(i)表層格パターン同士の類似性と(ii)動詞間の類似性という2種類の類似性を利用してクラスタリングを行う.評価実験では,実際に提案手法を用いて8つの動詞の項構造タグ付き事例を作成し,それを用いた項構造解析の実験を行うことによって,提案手法のクラスタリングの性能や,人手でタグ付き事例を作成するコストと項構造解析精度の関係を調査した.
V07N02-07
われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデルを用いている.しかし,このRobertsonの方法では検索のための手がかりとして当然用いるべき位置情報や分野情報などを用いていない.それに対しわれわれは位置情報や分野情報などをも用いる枠組を考案した.IREXのコンテストでは,この枠組に基づくシステムを二つ提出していたが,記事の主題が検索課題に関連している記事のみを正解とするA判定の精度はそれぞれ0.4926と0.4827で,参加した15団体,22システムの中では最もよい精度であった.本論文ではこのシステムの詳細な説明を行なうとともに,種々のパラメータを変更した場合の詳細な対照実験を記述した.この対照実験で位置情報や分野情報の有効性を確かめた.
V09N01-01
本稿では,生コーパスから格フレームを自動的に構築する手法を提案する.格フレームの自動構築における最大の問題は,用言の用法の多様性をどのように扱うかということである.本研究では,用言と直前の格要素の組を単位としてコーパスから格要素と用言の用例を収集することにより,用言の用法の多様性を扱う.さらに,用法に違いはないが,直前の単語が異なるために別の格フレームになっているもののクラスタリングを行う.得られた格フレームを用いて格解析実験を行い,その結果を考察する.
V02N03-04
本論文では「目を盗む」や「かたずを飲む」などの述語型定型表現をコーパスから自動抽出することを目的に,従来の相互情報量の条件を緩める方向で,名詞動詞間の共起性を測る新たな基準を提案する.概略,名詞,動詞のどちらかを固定して,その単語と共起する集合内の各単語に,どの程度特異な頻度になっているかの数値を与える.この数値は集合内のその単語の頻度の割合と,集合内の単語の種類数から計算される.この数値の上位のものを取り出すことで定型表現の抽出を行う.本手法の特徴は,名詞を固定した場合に抽出できる表現と,動詞を固定した場合に抽出できる表現はほとんど共通のものがなく,しかもどちらの場合も相互情報量による抽出程度の正解率を得られることである.このため,目的の抽出数の半数づつを名詞固定と動詞固定の各々の場合から取り出せば,相互情報量を用いて抽出する場合よりも高い正解率が得られる.
V14N05-03
存在文はいかなる言語にも存在し,人間のもっとも原始的な思考の言語表現の一つであって,それぞれの言語で特徴があり言語により異なりが現れてくる.存在表現の意味上と構文上の多様さのために,更に中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,存在表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文では,日中両言語の存在表現における異同について考察し,日中機械翻訳のために,日本語文の構文特徴,対応名詞の属性,中国語文の構文構造などを利用して存在動詞の翻訳規則をまとめ,存在表現の翻訳方法について提案した.これらの翻訳規則を我々の研究室で開発している日中機械翻訳システムJaw/Chineseに組み込んで,翻訳実験を行った.更に手作業による翻訳実験も加えて,この規則を検証し,良好な評価を得た.
V15N03-03
あるトピックに関して対話的に行われる一連の情報アクセスを質問応答システムが支援する能力,情報アクセス対話の対話相手として情報を提供するために質問応答システムが持つべき能力を定量的に評価するためのタスクを提案する.このタスクでは,対話の実現の基本となる対話文脈を考慮した質問の解釈,つまり照応解消や省略処理等のいわゆる文脈処理の能力を評価する.本稿では,タスクの設計を示し,その根拠となる調査結果を報告する.提案するタスクは以下の点で新規かつ有益である.対話的情報アクセスを対象として,そこで必要な質問応答技術が効果的に評価できるという課題設定と構成の独自性を持つ.評価尺度については応答の自然性において問題となる回答の質や回答列挙の体系の違いに配慮し,複数の体系を許す多段階評価手法を備えている.システムの文脈処理能力をある程度まで切り離して評価することを可能とする参照用テストセットと呼ぶ枠組みを有している.
V09N03-06
本稿では複数の対話エージェントを導入する効率的な情報検索の対話モデルを採用する.情報検索という複雑な対話に対して,万能の対話エージェントを用意することは,現状では困難である.そこで,以下の三つの局面で,対話エージェントを切り替えることによって,ユーザは円滑な情報検索対話を進めることができる.\begin{itemize}\itemドメイン:情報検索を行なうに当たって,ドメインの存在を認識できる.\item対話戦略:同一のドメインにおいても,検索を進める上で,様々な対話戦略が用意されていることを認識できる.\item文脈:条件分岐など,それぞれの文脈に対して対話エージェントを割り当てることによって,検索を容易にする.\end{itemize}上記のように多数の対話エージェントを導入した対話モデルを用いることにより,ユーザは対話の状況をよりたやすく理解できると考えられる.評価実験により,本提案による良好な結果が得られた.
V26N01-05
本論文は,データベース検索対話においてデータベースフィールドに直接言及しないが,データベースへのクエリを構成する上で有益な情報をユーザ発話から取り出す課題を提案する.このような情報を本論文では非明示的条件と呼ぶ.非明示的条件を解釈し,利用することによって,対話システムはより自然で効率的な対話を行うことができる.本論文では,非明示的条件の解釈を,ユーザ発話をデータベースフィールドに関連付け,同時にその根拠となる発話の断片を抽出する課題として定式化する.この課題を解くために,本論文では,サポートベクタマシン(SVM),回帰型畳込みニューラルネットワーク(RCNN),注意機構を用いた系列変換による3つの手法を実装した.不動産業者と顧客との対話を収集したコーパスを用いた評価の結果,注意機構を用いた系列変換による手法の性能が優れていた.
V03N03-05
機械翻訳システムの開発者がシステムの技術的評価を翻訳品質に注目して客観的に行う手法を開発した。評価過程の客観性と評価結果の解釈の客観性を維持するために、本手法では単なる評価用例文集ではなく、システムの出力を評価するための設問と、その設問がどのような言語現象を対象としているかについての解説とを各例文に付与したテストセットを用いている。各例文は基本的な言語現象と現在の機械翻訳システムにおいて処理が困難である言語現象のそれぞれを出来る限り網羅するように収集された。今回、英日機械翻訳システム、日英機械翻訳システムのそれぞれについての評価用テストセットを作成した。これらを用いて商用の機械翻訳システムでの評価実験を繰り返すことにより、機械翻訳システムの能力の差異を提示できることが示された。
V11N05-06
言い換えに関する研究は平易文生成,要約,質問応答と多岐の分野において重要なものであるが,本稿では言い換えの統一的モデルとして,尺度に基づく変形による手法を示し,このモデルによって種々の言い換えを統一的に扱えることを示す.このモデルでは,多様な言い換えの問題の違いを,尺度で表現することで,多様な言い換えを統一的に扱えるようになっている.本稿では具体的にこのモデルで,文内圧縮システム,推敲システム,文章語口語変換システム,RL発音回避システム,質問応答システムを構築できることを示す.本稿の言い換えの統一的モデルは,システムの作成を効率的にしたり,言い換えの原理を容易に理解させたり,多様な新たな言い換えを思いつかせる効果があり,有益なものである.
V26N01-07
テキスト中には過去・現在・未来における様々な事象が記述されており,その内容を理解するためにはテキスト中の時間情報を正確に解釈する必要がある.これまで,事象情報と時間情報を関連付けたコーパスが構築されてきたが,これらは開始と終了が比較的明確な事象に着目したものであった.本研究では,網羅的かつ表現力豊かな時間情報アノテーション基準を導入し,京都大学テキストコーパス中の113文書に対するアノテーションとその分析を行った.同コーパスには既に述語項関係や共参照関係のアノテーションガなされており,本アノテーションと合わせてテキスト中の事象・エンティティ・時間を対象とした統合的な時間情報解析に活用することが可能となった.
V05N03-05
\quad本論文では,構文解析の曖昧性解消を行うために,構文的な統計情報と語彙的な統計情報を統合する手法を提案する.我々が提案する統合的確率言語モデルは,構文的優先度などの構文的な統計情報を反映する構文モデルと,単語の出現頻度や単語の共起関係などの語彙的な統計情報を反映する語彙モデルの2つの下位モデルから成る.この統合的確率言語モデルは,構文的な統計情報と語彙的な統計情報を同時に学習する過去の多くのモデルと異なり,両者を個別に学習する点に特徴がある.構文的な統計情報と語彙的な統計情報を独立に取り扱うことにより,それぞれの統計情報を異なる言語資源から独立に学習することができるだけでなく,それぞれの統計情報が曖昧性解消においてどのような効果を果たすのかを容易に分析することができる.この統合的確率言語モデルを評価するために,日本語文の文節の係り受け解析を行った.構文モデルを用いたときの文節の正解率は73.38\%となり,ベースラインに比べて11.70\%向上した.また,構文モデルと語彙モデルを組み合わせることにより,文節の正解率はさらに10.96\%向上し84.34\%となった.この結果,本研究で提案する枠組において,語彙的な統計情報は構文的な統計情報と同程度に曖昧性解消に貢献することを確認した.
V13N03-04
本稿では,テキストから要約スライドを自動生成する手法を提案する.本稿で生成するスライドは,入力テキストから抽出したテキストの箇条書きからなる.それらに適切なインデントを与えるには,対比関係や詳細化関係などといった文または節間の関係を解析する必要がある.本手法では,まず,接続詞などの手がかり表現,語連鎖の検出,二文間の類似度の三つの観点を用いてテキストの談話構造を解析する.そして,テキストから主題部・非主題部を抽出・整形し,抽出したテキストのインデントを談話構造に基づいて決定することにより,スライドを生成する.実験を行なったところ,入力テキストよりもかなり見やすいスライドを自動生成できることが確認された.
V17N04-05
発話文を感情ごとに分類したコーパスを構築し,入力文と最も類似度が高い発話文を含むコーパスの感情を推定結果として出力する用例ベースの感情推定手法が提案されている.従来手法ではコーパスを構築する際,発話テキストの収集者が個人個人で発話文の分類先を決定しているため,分類先を決定する基準が個々によってぶれてしまう.これにより,例えば``希望''のコーパスの中に喜びの発話文が混じるといったことが起こり,推定成功率を下げてしまう.本稿ではこの問題を解決するため,コーパスごとにおける入力文の形態素列の出現回数を用いて,入力文とコーパスの類似度を定義する.そしてこの類似度を従来手法に導入した新たな類似度計算式を提案する.これにより,誤って分類されてしまった発話文の影響を緩和することができる.評価実験では従来手法と比べて成功率が\resp{21.5}ポイント向上し,提案手法の有効性が確認できた.
V06N06-07
TVニュース原稿は,新聞記事に比べて1記事中の文数が少なく,1文当たりの文字数も多い.このため,自動要約としての重要文抽出を行うと,文単位で選択が行われる為,情報の欠落が大きい.本論文では,記事中に現れる長文を分割出来る条件を設定し,条件に合う場合は,短い文に分割するという処理(短文分割処理)を行った結果が自動要約の基本的技術にどれだけ影響・効果があるのかを調べた.短文分割は,基本的に,動詞,形容動詞と述語名詞の連用文節を分割の対象とした.また,分割の自動要約に対する影響については,評価の尺度として,各文の重要度による順位付けと文字数圧縮(不要部分削除)を用いた.文順位付けの評価では,テキスト中の各文を人手及びシステムによって,その重要度に応じて順位を付けたものを対象とした.人手により重要と判断された文が,短文分割により分割された場合に,その分割された文は,どのような順位となると判断されるのかを調べた.その結果,短文分割により分割された重要文は,分割後の順位差において「3」以上離れる場合のほうが,順位差が生じない場合,つまり順位差が「1」の場合より多くあり,短文分割の効果が見られた.次に,記事中の重要文だけではなく全部の文を対象として,人手とシステムによる順位付けについて短文分割前後での変化をスペアマンの順位相関関係係数を用いて比較した.その結果,短文分割をすることにより,スペアマンの係数が0.0318〜0.065増加し,文の順位が,人とシステムにおいてより近いものになることが判明した.最後に,文字数圧縮での評価では,不要部分を特定し,文字列を削除または言い換えを行う文字数圧縮処理において,短文分割を行う前後での変化を調査した.短文分割により削除される文字数は増え,文字数圧縮後の文字数を元記事の文字数で割る圧縮率において,2.71%〜2.78%減少することが判明し,短文分割が文字数圧縮に良い効果があることが分かった.
V04N04-03
日本語のアスペクトの研究は,継続相,完成相というような分類とそれぞれの意味を記述していく段階から,副詞的成分などの関わりを含め,アスペクト的な意味の決まり方のプロセスを整理する方向へと発展してきている.本稿では,アスペクト形式や副詞句の意味を時間軸におけるズーミングや焦点化といった認知的プロセスを表示するものとしてとらえ,動詞句の意味に対する動的な操作であると考える.その上で,動詞句の意味をコーパスに現れた表層表現から推定し,素性構造として表現する.実験の結果得られた動詞句の分類を評価するために,最も基本的なアスペクトの形態である「シテイル」形の意味を自動的に決定する処理を行なった.200文における正解率は71\%であった.これらの情報は,動詞句のアスペクト的な意味のあり方の類型を与えるだけではなく,文間の関係をとらえる際の手がかりを提供するものであると考える.
V05N04-08
\quad本技術資料は,現在入手可能な日韓機械翻訳システムを対象に翻訳品質の評価を行い,日韓機械翻訳システムの現状および技術水準を把握,今後の研究方向についてのいくつかの提言を行うことを目的とする.現在,韓国国内で発表,あるいは発売されている日韓機械翻訳システムの中で,入手可能な四つの製品に対してユーザサイドからの翻訳品質の分析と言語学的な解決範囲を把握するための対照言語学的誤謬分析を行う.さらに,\cite{choiandkim}と比較することにより日韓翻訳システムの性能向上の度合いを比較する.これにより,日韓機械翻訳システムの性能向上のための長期・短期課題を考える.本技術資料は,対象にした各々のシステムの優劣のランク付けを目的とするものではないことをあらかじめ断っておく.本技術資料での評価は限られた観点からの分析に基づいたものであるからである.
V04N02-06
本稿では,文脈依存の度合いに注目し,重要パラグラフを抽出する手法を提案する.本手法では,Luhnらにより提唱されたキーワード密度方式と同様,「主題と関係の深い語はパラグラフを跨り一貫して出現する」という前提に基づく.我々は,文脈依存の度合,すなわち,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,主題と関係の深い語を抽出し,その語に対し重み付けを行なった.本手法の精度を検証するため人手により抽出したパラグラフと比較した結果,抽出率を30\%とした場合,50記事の抽出総パラグラフ数84に対し75パラグラフが正解であり,正解率は89.2\%に達した.