id
stringlengths
9
9
text
stringlengths
120
1.29k
title
stringclasses
1 value
V14N04-02
本論文では,日英特許コーパスを用いて専門用語の対訳辞書を作成する方法について述べる.提案手法は,言語単位としての妥当性と分野による出現の偏りを数値化することで,コーパス中の単語(列)を専門用語として抽出し,和英辞書などの既知の対訳用語セット(seedwordリスト)を介して,コーパスにおける各専門用語の共起パターンを計測し,その類似性が高い用語ペアを対訳として対応付ける.この時,対象となるコーパス間で文脈が類似している対訳のみをseedwordに利用する点が特徴である.本手法を日本語特許抄録とその英訳に適用したところ,専門用語の抽出精度は日本語で90\%,英語で93\%となった.また,訳語対応付けでは,各専門用語の対訳として1位に対応付けられた対訳候補の正解率が53\%(日英)と66\%(英日),10位以内に対応付けられた対訳候補の正解率が83\%(日英)と90\%(英日)と,従来研究と比べて高い精度を得ることができた.本論文ではさらに,PAJの日本語抄録と米国特許抄録を用いた実験を行い,コーパスの違いによる実験結果の違いについても考察する.
V09N03-04
日本語では,読み手や聞き手が容易に推測できる語は頻繁に省略される.これらの省略を適切に補完することは,自然言語解析,とりわけ文脈解析において重要である.本論文は,日本語における代表的な省略現象であるゼロ代名詞に焦点を当て,確率モデルを用いた照応解析手法を提案する.本手法では,学習を効率的に行なうため,確率モデルを統語モデルと意味モデルに分解する.統語モデルは,ゼロ代名詞の照応関係が付与されたコーパスから学習する.意味モデルは,照応関係が付与されていない大規模なコーパスを用いて学習を行ない,データスパースネス問題に対処する.さらに本手法では,照応解析処理の精度を高めるために確信度を定量化し,正解としての確信が高いゼロ代名詞のみ選択的に結果を出力することも可能である.新聞記事を対象にした照応解析実験を通して本手法の有効性を示す.
V06N04-06
我々が日常行っているおしゃべりのように明確な目標の定まっていない対話では,話者は事前に対話戦略を立てることができない.そのような対話では話者は,その場で断片的に思い付いたことを発話し(即興性),相互に触発されて新しい考えが浮き上がり(創造性),全体で一つの対話を作っていく.我々は,即興性と創造性を備えた対話を創発的な対話と呼び,このような対話を収録し,対話コーパスとして整備することを考えた.対話の収録には,解き方や正解かどうかの判定が明確になっていない課題を二人で協調して解く課題を用い,「画像と音声を用いた対話環境」と「音声だけの対話環境」の2つの条件で実験を行った.収録した対話には,相手の立場を尊重し互いに良い関係を作っていくことを目的とした共話現象や,さまざまな同意表現の使われ方が観察され,これまでのような目的指向対話には見られない特徴のある対話コーパスが得られた.
V27N01-01
%本論文では,日本語係り受け解析器に対する追加訓練の効果を複数のドメインにわたって俯瞰的に調べた結果を報告する.この分析のために,適応先ドメインデータを利用した追加訓練の前後それぞれの誤りを収集し,解析器の内部状態から得られる,密な実数値ベクトルで表現された係り受け誤りの埋め込み表現に対してクラスタリングを行った.得られたクラスタに対する定量的・定性的分析を通じて,係り受け誤りの種類や頻度を,複数の適応先ドメインにわたって,包括的に把握することができた.特に,追加訓練の効果が強く見られたクラスタや,効果が薄かったクラスタについて,それらに属する誤りを観察することで,追加訓練に関するドメインごとの特徴に関する仮説を立て,コーパス上の統計量によって検証するという分析の流れが効率化された.分析の結果から,追加訓練の主要な効果は,類似した文型に対する正しい構文構造の分布がドメイン間で異なることを学習することであるという示唆を得た.
V03N01-01
本論文では,意味解析を主とする自然言語処理システムにおける語の意味の曖昧性解消の処理の効率化を場面に基づく文脈情報を利用して実現する方法を提案する.現在における文脈依存の意味処理では文脈の定義方法と知識の獲得方法が問題とされる.また実装時には意味選択の組合せ爆発による計算量の大きさが問題となる.文脈情報により一部の語に対してでも語義の優先順位づけが有意に行なわれれば,共起関係などを用いて他の語の多義性や構文解析の解空間を早く絞り込むことができる.本論文では,談話内の言語外知識である場面情報を空間的連想による文脈情報と位置付け,画像理解による知識獲得の近似として視覚辞書を利用し,実際の物語文を対象にし評価した結果を示す.場面に関連する各英語名詞に対し独立に平均1.5倍以上の処理速度向上が得られている.また多義性解消率は全く情報がない場合の51\%に比べ本手法では83\%まで上昇する.あわせて場面情報の知識表現の違いによる効果の違いについての考察,手法の限界点,およびシステムに加えて必要とされる場面解析機構についての考察を述べる.
V03N04-04
主語のない日本語文に対し,確率モデルを用いて自動的にゼロ主語を補完する手法について述べる.これは,日英機械翻訳の前処理としての自動短文分割の後で適用されるものである.確率モデルを用いる方法として,従来(1)多次元正規分布に基づくモデルを利用するものがあった.本稿では,新たに3種類のゼロ主語補完のためのモデルを提案する.それらは,連続分布に対して,(2)正規分布に基づくGram-Charlier展開を多次元に拡張した分布(疑似正規分布)に基づくモデル,離散分布に対しては,(3)1次対数線形分布,(4)2次対数線形分布に基づくモデルである.これら4種の確率モデルについて,補完精度を比較する実験を行った.その結果,(1)〜(4)の精度は,順に,73%,78%,78%,81%であり,2次対数線形分布を用いる方法が最も精度が高かった.また,補完を誤った事例について考察を加えた結果,主語と述語の意味的整合性をより正確に計算する必要があることなどがわかった.
V10N01-05
近年,インターネットや大容量の磁気デバイスの普及によって,大量の電子化文書が氾濫している.こうした状況を背景として,文書要約技術に対する期待が高まってきている.特に,ある話題に関連する一連の文書集合をまとめて要約することが可能となれば,人間の負担を大きく軽減することができる.そこで本稿では,特定の話題に直接関連する文書集合を対象とし,機械学習手法を用いることによって重要文を抽出する手法を提案する.重要文抽出の手法としては近年,自然言語処理研究の分野でも注目されている機械学習手法の1種であるSupportVectorMachineを用いた手法を提案する.毎日新聞99年1年分より選んだ12話題の文書集合を用意し,それぞれの話題から総文数の10\,\%,30\,\%,50\,\%の要約率に応じて人手により重要文を抽出した正解データセットを異なる被験者により3種作成した.このデータセットを用いて評価実験を行った結果,提案手法の重要文抽出精度は,Lead手法,TF$\cdot$IDF手法よりも高いことがわかった.また,従来より複数文書要約に有効とされる冗長性の削減が,文を単位とした場合には,必ずしも有効でないこともわかった.
V25N05-05
ニューラル機械翻訳(NMT)は入力文の内容の一部が翻訳されない場合があるという問題があるため,NMTの実用には訳出されていない内容を検出できることが重要である.著者らはアテンションの累積確率と出力した目的言語文から入力文を生成する逆翻訳の確率という2種類の確率による,入力文の内容の欠落に対する検出効果を調査した.日英の特許翻訳での訳抜けした内容の検出実験を実施し,アテンションの累積確率と逆翻訳の確率はいずれも効果があり,逆翻訳はアテンションより効果が高く,これらを組み合わせるとさらに検出性能が向上することを確認した.また,訳抜けの検出を機械翻訳結果の人手修正のための文選択に応用した場合に効果があることが分かった.
V21N03-05
これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている.しかし分野の異なるテキストに対しては,既存の解析モデルで,必ずしも高い解析精度を得られるわけではない.そこで本稿では,既存の言語資源を対象分野の特徴にあわせて自動的に変換する手法を提案する.本稿では,絵本を解析対象とし,既存の言語資源を絵本の特徴にあわせて自動的に変換し,学習に用いることで相当な精度向上が可能であることを示す.学習には既存の形態素解析器の学習機能を用いる.さらに,絵本自体にアノテーションしたデータを学習に用いる実験を行い,提案手法で得られる効果は,絵本自体への約~11,000行,90,000形態素のアノテーションと同程度であることを示す.また,同じ絵本の一部を学習データに追加する場合と,それ以外の場合について,学習曲線や誤り内容の変化を調査し,効果的なアノテーション方法を示す.考察では,絵本の対象年齢と解析精度の関係や,解析精度が向上しにくい語の分析を行い,更なる改良案を示す.また,絵本以外への適用可能性についても考察する.
V20N05-02
時間情報抽出は大きく分けて時間情報表現抽出,時間情報正規化,時間的順序関係解析の三つのタスクに分類される.一つ目の時間情報表現抽出は,固有表現・数値表現抽出の部分問題として解かれてきた.二つ目の時間情報正規化は書き換え系により解かれることが多い.三つ目のタスクである時間的順序関係解析は,事象の時間軸上への対応付けと言い換えることができる.\modified{日本語においては時間的順序関係解析のための言語資源が整備されているとは言い難く,アノテーション基準についても研究者で共有されているものはない.本論文では国際標準であるISO-TimeMLを日本語に適応させた時間的順序関係アノテーション基準を示す.我々は『現代日本語書き言葉均衡コーパス』(BCCWJ)の新聞記事の部分集合に対して,動詞・形容詞事象表現にTimeMLの\event\相当タグを付与し,その事象の性質に基づき分類を行った.また,この事象表現と先行研究\cite{小西-2013}により付与されている時間情報表現との間の関係として,TimeMLの\tlink\相当タグを付与した.}\modified{事実に基づき統制可能な時間情報正規化と異なり,事象構造の時間的順序関係の認識は言語受容者間で異なる傾向がある.}このようなレベルのアノテーションにおいては唯一無二の正解データを作ることは無意味である.むしろ,言語受容者がいかに多様な判断を行うかを評価する被験者実験的なアノテーションが求められている.そこで,本研究では三人の作業者によるアノテーションにおける時間的順序関係認識の齟齬の傾向を分析した.アノテーション結果から,時間軸上の相対的な順序関係については一致率が高い一方,時区間の境界については一致率が低いことがわかった.
V10N03-01
SENSEVALは語義曖昧性解消を対象としたコンテストである.本論文では,第2回SENSEVAL(SENSEVAL-2)における日本語辞書タスクの概要について報告する.日本語辞書タスクでは,語の意味の区別(曖昧性)を岩波国語辞典によって定義した.参加者には,岩波国語辞典,訓練データ,評価データの3つが配布された.訓練データは,3,000個の新聞記事中の単語に正しい語義を付与したコーパスである.一方評価データは,参加者のシステムが語義を選択するべき単語を含んだ新聞記事である.評価単語の種類は,名詞50,動詞50,合わせて100個である.また各評価単語毎に100ずつ語義を選択するとしたため,評価単語の総数は10,000である.正解データは,評価対象となる10,000個の単語について,二名の作業者が独立に正しい語義を付与して作成した.この際,二者の語義が一致した割合は0.863であり,Cohenの$\kappa$は0.657であった.また,二者の語義が一致しなかった場合には,第三者が正しい語義を選んだ.日本語辞書タスクには,3団体7システムが参加した.ベースラインシステムのスコア(正解率)が0.726であるのに対し,一番成績の良かった参加者のシステムのスコアは0.786であった.
V09N01-04
本論文では,日本語固有表現抽出の問題において,複数のモデルの出力を混合する手法を提案する.一般に,複数のモデル・システムの出力の混合を行なう際には,まず,できるだけ振る舞いの異なる複数のモデル・システムを用意する必要がある.本論文では,最大エントロピー法に基づく統計的学習による固有表現抽出モデルにおいて,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なう可変(文脈)長モデルと,常に現在位置の形態素の前後数形態素ずつまでを考慮して学習を行なう固定(文脈)長モデルとの間のモデルの挙動の違いに注目する.そして,複数のモデルの挙動の違いを調査し,なるべく挙動が異なり,かつ,適度な性能を保った複数のモデルの出力の混合を行なう.次に,混合の方式としては,複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段目の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法(stacking法)を採用する.第二段目の学習器として決定リスト学習を用いて,固定長モデルおよび可変長モデルの出力を混合する実験を行なった結果,最大エントロピー法に基づく固有表現抽出モデルにおいてこれまで得られていた最高の性能を上回る性能が達成された.
V20N03-02
東日本大震災ビッグデータワークショップにおいて提供された,震災当日を含めた1週間分のツイートのうち,震災対応の初動期間にあたる震災後72時間を含む4日分のツイッターを解析した.ツイートのクラスタリングによって得られる全体の俯瞰を行ってから目的に応じた分類項目を設定し,その項目に即したツイートを抜き出す抽出器を作成した.一連の作業をよく行うためには,分類項目を設定するために用いられるクラスタリングの性能向上が重要な要素となっている.本研究では,古典的な類義語処理手法である特異値分解をクラスタリングに適用する際に,良く知られている次元圧縮に留まらず,特異値の大きさを特徴量の重みづけの大きさとして活用する手法を提案する.また,クラスタリング結果を人手で修正する作業の容易度を測るための新たな指標を提案し,人手による実作業の効率と比較する実験を行った.その結果,クラスタリングについては,主に作業効率の観点から,特異値による重みづけの有効性と提案する作業指標の妥当性が確認された.分類問題であるターゲットデータ抽出については,学習過程にそもそも重みづけの機構が備わっているにもかかわらず,検出率の向上に若干の効果が見られた.
V23N02-02
近年,様々な種類の言語学習者コーパスが収集され,言語教育の調査研究に利用されている.ウェブを利用した言語学習アプリケーションも登場し,膨大な量のコーパスを収集することも可能になってきている.学習者が生み出した文には正用だけでなく誤用も含まれており,それらの大規模な誤用文を言語学や教育などの研究に生かしたいと考えている.日本語教育の現場では,学習者の書いた作文を誤用タイプ別にし,フィードバックに生かしたい需要があるが,大規模な言語学習者コーパスを人手で分類するのは困難であると考えられる.そのような理由から,本研究は機械学習を用いて日本語学習者の誤用文を誤用タイプ別に分類するというタスクに取り組む.本研究は,以下の手順で実験を行った.まず,誤用タイプが付与されていない既存の日本語学習者コーパスに対し,誤用タイプ分類表を設計し,誤用タイプのタグのアノテーションを行った.次に,誤用タイプ分類表の階層構造を利用して自動分類を行う階層的分類モデルを実装した.その結果,誤用タイプの階層構造を利用せず直接多クラス分類を行うベースライン実験より13ポイント高い分類性能を得た.また,誤用タイプ分類のための素性を検討した.機械学習のための素性は,単語の周辺情報,依存構造を利用した場合をベースライン素性として利用した.言語学習者コーパスの特徴として,誤用だけではなく正用も用いることができるため,拡張素性として正用文と誤用文の編集距離,ウェブ上の大規模コーパスから算出した正用箇所と誤用箇所の置換確率を用いた.分類精度が向上した誤用タイプは素性によって異なるが,全ての素性を使用した場合は分類精度がベースラインより6ポイント向上した.
V08N04-02
複数のトピックからなる文章を,それぞれのトピックに切り分けることをテキスト分割と呼ぶ.テキスト分割は,情報検索や要約のための基本技術として有用である.本稿では,分割確率最大化という観点からテキスト分割を定式化した.その定式化の特色の一つは,テキスト内の単語しか,確率推定に利用しないことである.そのため,提案手法は,任意の分野のテキストに対して適用できる.提案手法の有効性は二つの実験により確認された.まず,実験1では,公開データに対して提案手法を適用することにより,提案手法の分割精度が従来手法の分割精度よりも優れていることが示された.次に,実験2では,長い文書の元々の章や節の構造と提案手法による分割結果とを比較した結果,厳密な一致のみを正解とする場合,章には0.37,節には0.34の割合で一致し,±1行のずれを許容する場合,章には0.49,節には0.51の割合で一致した.これらのことは,提案手法が,テキスト分割に対して有効であることを示している.
V25N02-03
難解なテキストと平易なテキストからなる大規模な単言語パラレルコーパスを用いて,テキスト平易化が活発に研究されている.しかし,英語以外の多くの言語では平易に書かれた大規模なコーパスを利用できないため,テキスト平易化のためのパラレルコーパスを構築するコストが高い.そこで本研究では,テキスト平易化のための大規模な疑似パラレルコーパスを自動構築する教師なし手法を提案する.我々の提案するフレームワークでは,リーダビリティ推定と文アライメントを組み合わせることによって,生コーパスのみからテキスト平易化のための単言語パラレルコーパスを自動構築する.統計的機械翻訳を用いた実験の結果,生コーパスのみを用いて学習した我々のテキスト平易化モデルは,平易に書かれた大規模なコーパスを用いて学習した従来のテキスト平易化モデルと同等の性能で平易な同義文を生成できた.
V14N03-05
日常生活の様々な体験において,その体験の素晴らしさを表現する言葉として,『感動』という言葉がしばしば用いられる.感動とは,『美しいものや素晴らしいことに接して強い印象を受け,心を奪われること』(大辞林\cite{Book_103})であり,体験に対する肯定的な評価であると共に,記憶の定着や感情の喚起を伴った心理状態の大きな変化である.感動を喚起する対象としては,マスメディアが提供するドラマや映画,音楽などの割合が高いとされている\cite{Web_401}.しかし,感動という心理状態の定義については,研究者の中でも曖昧である.\par我々の目的は,放送番組の品質評価,特に音の評価に,『感動』をキーワードとした評価指標を導入するために,感動という心理状態を明確にすることにある.まず,アンケート調査を実施し,感動という言葉で表現される体験と,感動を表現する言葉(以下,感動語)を収集した.次に,感動語同士の一対比較による主観評価実験を行い,感動語から連想される心理状態の類似度を求めた.他の感動語との類似度によって表現される類似度ベクトルの距離に基づいて,感動語の分類を行った.その結果,感情とは,特定の感情そのものではなく,大きく心が動かされたという体験に対して,肯定的な印象を持っているという個々の心理状態の総称であり,感動という心理状態が,感動の対象と感情の種類,感情の動きの組み合わせによって分類できることが分かった.
V10N04-10
大規模な日英対訳コーパスを作ることを目的として,1989年から2001年までの読売新聞とTheDailyYomiuriとから日英記事対応と文対応とを得た.そのときの方法は,まず,内容が対応する日本語記事と英語記事とを言語横断検索により得て,次に,その対応付けられた日英記事中にある日本語文と英語文とをDPマッチングにより対応付けるというものである.しかし,それにより対応付けられた記事対応や文対応には,間違った対応(ノイズ)が多く含まれる.そのため,我々は,本稿において,そのようなノイズを避けて,正しい対応のみを得るための信頼性の高い尺度を提案し,その信頼性の評価をした.実験の結果,我々の提案した尺度を用いることにより,良質な記事対応や文対応が得られることがわかった.また,その数は,良質な記事対応は約4万7千であり,文対応は,1対1対応が約15万,1対1対応以外が約3万8千であった.これらは,現時点で一般に利用できる日英2言語コーパスとしては最大のものである.
V09N04-01
本稿では,情報検索の結果として得られた文書集合中の各々の文書を要約する一手法を提案する.この場合の要約の質は,検索質問-要約文書間の関連性判定が,検索質問-原文書の間の関連性判定に一致する度合で評価されるので,検索を考慮した要約が必要となる.検索質問により語の重みにバイアスを与え,語の重要度を求める従来手法とは異なり,我々の方法では,検索された文書間の表層的類似性を適切に説明する語に高い重みを付与する.具体的には,検索文書集合に階層的クラスタリングを適用することにより,文書間の類似性構造を抽出するとともに,各クラスタにおける各語の出現確率から,その構造を説明するのに寄与する単語により高い重みを与える.我々は,その重みづけに情報利得比を用いることを提案する.そして,この語の重み付けに基づき重要文抽出方式による検索文書要約システムを実装した.このシステムを評価型情報検索ワークショップであるNTCIR2におけるTextSummarizationChallengeの情報検索タスクにより評価した結果,関連性判定において検索質問バイアス付きTF方式,リード文方式によるベースライン手法ならびに,他参加システムよりも,良好な結果を示した.
V08N01-03
現在,統計的言語モデルの一クラスとして確率文脈自由文法(PCFG)が広く知られている.また,括弧なしコーパスからPCFGを訓練する方法としてInside-Outside(I-O)アルゴリズムが知られてきた.I-OアルゴリズムはPCFG用に効率化を施したEM(expectation-maximization)アルゴリズムだが,依然その計算速度に問題があることが知られている.本論文では,文法構造があらかじめ与えられていることを前提に,訓練過程を構文解析とEM学習に分離した高速EM学習法を提案する.その中間データ構造にパーザが生成するWFST(well-formedsubstringtable)を用いる.例えば,一般化LRパーザを用いると事前コンパイル・ボトムアップ探索による効率性,およびChomsky標準形を要求しないという一般性を引き継ぐことができる.一方EM学習では,WFSTのコンパクトさを利用して効率的なパラメタ推定が行なわれる.推定結果はI-Oアルゴリズムで得られるものと一致する.更に,文脈依存性を取り入れたPCFGの拡張モデルに対する多項式オーダのEM学習法を示す.また,ATR対話コーパスを用いて実験を行ない,訓練時間が大幅に短縮されていることを確認した.
V09N03-07
\quadシステムの出力した要約そのものを評価する方法は,一般に内的な評価と呼ばれている.これまでの典型的な内的な評価の方法は,人手で作成した抜粋と要約システムの出力との一致度を,F-measure等の尺度を用いて測ることで行われてきた.しかし,F-measureは,テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価が大きく変化する,という問題点がある.本研究では,この問題点を解消するいくつかの評価方法をとりあげ,その有用性に関する議論を行う.F-measureの問題点を解消する評価方法の1つにutilityに基づく評価があるが,この方法では評価に用いるデータ作成にコストがかかるという問題がある.本研究では,あるテキストに関する複数の要約率のデータを用いることで,疑似的にutilityに基づく評価を実現する方法を提案する.提案する評価方法を,第2回NTCIRワークショップ自動要約タスク(TSC)のデータに適用し,有用性に関する調査を行った結果,提案方法は,F-measureの問題点をある程度改善できることが確認された.次に,F-measureの問題点を解消する他の評価方法の一つであるcontent-basedな評価を取り上げる.content-basedな評価では,指定された要約率の正解要約を一つだけ用意すれば評価可能であるため,utilityに基づく評価に比べ,被験者への負荷が少ない.しかし,この評価方法で2つの要約を比較する場合,どの程度意味があるのかについては,これまで十分な議論がなされていない.そこで,pseudo-utilityに基づく評価と同様にTSCのデータを用い,content-basedな評価の結果を被験者による主観評価の結果と比較した結果,2つの要約がcontent-basedな評価値で0.2以上の開きがあれば,93\%以上の割合で主観評価の結果と一致することが分かった.
V15N04-03
本論文では,テキストに出現する固有表現の組が意味的な関係を有するか否かを判定する手法,特に異なる文に出現する固有表現の組に有効な手法を提案する.提案手法では,SalientReferentListに基づく文脈的素性を新たに導入し,単語や品詞,係り受けなどの伝統的に利用されている素性と組合わせた.これらの素性はひとつの木構造として表現され,ブースティングに基づく分類アルゴリズムに渡される.実験結果では,提案手法は従来手法より精度11.3\%,再現率14.2\%向上することが確認できた.
V07N03-02
日本語連体修飾要素に関する言語現象を取り扱うことができるような辞書記述を実現するため,生成的辞書理論を用いた連体修飾要素の形式的記述法の検討を行った.問題となる現象の解決法を「静的な曖昧性解消」と「動的な曖昧性解消」に分類した.静的な曖昧性解消は辞書中の語彙情報を用いて行うことができるが,動的な曖昧性解消には知識表現レベルでの推論が必要となる.
V12N05-05
我々は,人間と自然な会話を行うことができる知的ロボットの開発を目標に研究を行っている.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念をもって会話を展開している.このように会話文章から常識的な判断を行い,適切に応答するためには,ある語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.本稿では,ある概念から様々な概念を連想できるメカニズムを基に,人間が行う常識的な判断の一つである時間に関する判断を実現する方法について提案している.日常的な時間表現に着目し,基本的な常識知識を事前に与え,知識として持っていない多くの未知の表現にも対応できる柔軟なメカニズムの構築を実現している.結果としては,時間判断システムの正答率が約69.4\%,精度が約81.6\%の割合で人が行う判断結果と一致しており,二段階未知語処理手法を用いた時間判断システムは有効なシステムであるといえる.
V16N01-01
話し言葉の係り受け解析を行なう際の最大の問題は,文境界や引用節・挿入節などの境界が明示されていないことである.本論文では,話し言葉に対して,引用節・挿入節を自動認定するための手法,および自動認定した引用節・挿入節の情報を用いて係り受け解析を改善するための手法を提案する.形態素やポーズの情報などをもとに,SVMを用いたテキストチャンキングによって,引用節・挿入節の始端と終端を決定する.始端を決定する際には,自動推定した係り受けの情報をあわせて利用する.日本語話し言葉コーパス(CSJ)を用いた評価実験により,自動認定した引用節・挿入節の情報を利用することで係り受け解析精度が77.7\%から78.7\%に改善されることを確認し,本手法の有効性を示した.
V02N01-04
文章(テキスト)の執筆者の推定問題などに対して,文章の内容や成立に関する歴史的事実の考証とは別に,文章から著者の文体の計量的な特徴を抽出し,その統計分析によって問題解決を試みる研究が多くの人々の注目をあつめつつある.文章に関するどのような要素に著者の特徴が現れるかについて,欧米文に関してはいくつかの研究の例があるが,それは言語によって異なるとも考えられるため,欧米文に関する研究成果が日本文の場合にもあてはまるかについて実証的な研究が必要である.また,各言語はその言語における著者の特徴を表す独特な要素があることも考えられる.本論文では,今まで明らかにされていない,日本文における動詞の長さの分布に著者の特徴が現れることと,その結果が動詞中の漢語・和語,合成語・非合成語の使用率の影響ではないことを著者3人の計21の文章を用いて明らかにした.計量分析の手法としては,同一著者の文章における動詞の長さの分布間の距離の平均値と,異なる著者の文章における動詞の長さの分布の距離の平均値との差,および距離マトリックスを用いて主成分分析を行うという方法を用いて数量・視覚的文章の分類を試みた.
V06N06-01
本稿では,これまでの(主に領域に依存しない)テキスト自動要約手法を概観する.特に重要箇所の抽出を中心に解説する.また,これまでの手法の問題点を上げるとともに,最近自動要約に関する研究で注目を集めつつある,いくつかのトピックについてもふれる.
V13N03-10
現代の日本社会において,日本語の敬語に関する様々な誤用が指摘されてきている.日本社会における敬語の誤用は,言語によるコミュニケーションを通じた社会的人間関係の構築を妨げる場合がある.敬語の誤用を避けるには,敬語の規範に関する正しい知識の習得が不可欠である.このような知識習得を効率的に行うため,敬語学習を支援する計算機システムの実現が期待される.このような背景の下,我々は日本語発話文に含まれる語形上の誤用,及び運用上の誤用を指摘するシステムを開発した.本システムは,日本語発話文,及び発話内容に関係する人物間の上下関係を表すラベルを入力とし,入力された日本語発話文における誤用の有無,及び誤用が含まれる場合にはその箇所と種類を出力する.発話に関わる人数は最大4名まで取り扱うことができる.正例,及び負例を用いた実験によってシステムの妥当性を検証したところ,一部のケースを除き,本システムが妥当な出力を行うことが確認された.本システムは,特に敬語の初学者に対する学習支援システムとして有用と考えられるが,その他の人々にとっても,文書作成における敬語の語形のケアレスミスをチェックする等の用途として幅広く活用できると考えられる.
V13N03-09
インターネットが普及し,一般の個人が手軽に情報発信できる環境が整ってきている.この個人の発信する情報には,ある対象に関するその人の評価等,個人の意見が多く記述される.これらの評価情報を抽出し,整理し,提示することは,対象の提供者である企業や,対象を利用する立場の一般の人々双方にとって利点となる.このため,自然言語処理の分野では,近年急速に評価情報を扱う研究が活発化している.本論文では,このような現状の中,テキストから評価情報を発見,抽出および整理,集約する技術について,その基盤となる研究から最近の研究までを概説する.
V13N01-05
機械翻訳システムの翻訳品質を改善するためなどに必要な語彙知識を獲得するためには,対訳コーパスにおいて二言語の表現を正しく対応付ける処理と,対応付けられた表現対を辞書に登録するか否かを判定する選別処理の二つが必要である.従来,対応付けに関する研究は数多く行なわれてきたが,辞書登録候補の選別に関する研究はほとんど行なわれていない.本稿では,従来あまり扱われてこなかった選別問題を採り上げ,この問題を機械学習によって解く方法を示す.学習に用いる素性として,二つの表現の間で異なる部分と両者に共通する部分に着目し,差分部分や共通部分を表現する手段として,表記(文字,形態素),品詞,概念識別子を用いる.評価実験の結果,最も高い選別性能(F値)を示す表現方法は文字であることが明らかになった.
V07N04-10
認識誤りに起因して,音声翻訳の性能(品質)が劣化するという問題がある.認識結果の正解部分のみを翻訳する手法が提案されているが,翻訳されない部分に関する情報は失われてしまう.我々はこの問題を解決するため,次のような手順からなる誤り訂正の手法を提案する.(1)訂正の必要性の判断および誤り部分の特定を行う.(2)認識結果の誤り近傍に関して音韻的に近い用例をテキストデータ中から検索し,訂正候補の生成を行う.(3)訂正候補の妥当性を意味と音韻の両方の観点から判断し,最も妥当なものを選択する.提案手法を音声翻訳システムに組み込み,旅行会話を対象として評価した.認識結果の単語誤り率で$2.3\%$の減少,翻訳率で$5.4\%$の増加が得られ,提案手法の有効性が示された.
V08N04-01
{\bf了解}という言語現象が言語行為の分析にとって重要であることが,Austinによって指摘された.しかし了解に関しては,これまで十分な分析が行なわれてこなかった.本論文では,{\bf了解}の語用論的な分析を行った.語用論的な分析をするためにAustinとSearleによる言語行為論の拡張を行い,拡張言語行為論の枠組みを提案した.その枠組みには以下のような特徴がある.\begin{itemize}\item新たに二つの概念要素({\bf隠蔽された命題行為}と{\bf意図})を既存の言語行為論に取り入れている.\item既存の言語行為論における発語媒介行為と発語媒介的効果を,それぞれ,二種類の行為および四種類の効果に分割している.\end{itemize}その結果,拡張言語行為論の枠組みは13の概念要素からなることになった.提案した枠組みに基づいて,了解の代表的表現のひとつである「はい」の意味の多様性を,了解の過程・程度を軸にして語用論的に分析した.分析の結果,{\bf了解の程度}には八つの段階,{\bf了解の過程}には七つの段階があることが明らかになった.
V06N01-01
機械翻訳では目的言語で必須格となる格の人称と数を補う必要がある。本論文では、省略補完知識の決定木による表現、及び帰納的に機械学習することによって日本語対話文の格要素省略を補完する手法を提案する。本研究では形態素分割され、品詞、省略情報が付与された任意のコーパスとシソーラスのみを用いて行なう。決定木学習には、内容語の意味属性、機能語の出現、言語外情報の3種類の属性を使用する。未学習文に対してテストを行なった結果、ガ、ヲ、ニの三つの格で照応的な省略の補完を十分な精度で行なうことができた。またガ格とニ格に対しては人称と数の補完にも有効であることを確認した。ガ格に関して、処理の有効性を学習量、話題依存性、使用属性との関係の三点から実験し、以下の知見が得られた。(1)当該問題に対する決定木学習量は全体として$10^4\sim10^5$事例で十分である。この時の補完精度の上限は$80\%\sim85\%$と予想される。(2)対話の話題が既知もしくは予測可能な時は、その話題のみのコーパスによる学習が最善である。話題が未知の場合は、可能な限り広範な話題に対して学習するのが最も効果的である。(3)学習量増加に伴い、決定木には機能語などの話題に依存しない属性が多く採用される。
V06N02-02
本論文では,知識に依存しない,\mbox{高い曖昧性削減能力を持つ新しい言語モデルを提案}する.このモデルはsuperwordと呼ぶ文字列の集合の上の$n$-gramとして定義され,従来の単語や文字列の$n$-gramモデルを包含するものになっている.superwordは訓練テキスト中の文字列の再現性のみに基づいて定義される概念であり,Forward-Backwardアルゴリズムによって学習される.実験の結果,superwordに基づくモデルと文字のtrigramモデルを複数融合させたモデルの優位性が示され,形態素解析に基づく方法および高頻度文字列に基づく方法を上回る性能が得られた.
V12N03-05
中心化理論(centeringtheory)は,注意の中心,照応,結束性の間の相互作用を説明する談話構造の理論である.しかし,照応現象の背後にあるはずの基本原理を明らかにするものではない.また,中心化理論で重要な役割を担う顕現性(salience)が,客観的に計量可能な尺度として定式化されていないという問題もある.一方,Hasidaら\citeyear{hasida1995,hasida1996}は,ゲーム理論に基づく意図的コミュニケーションのモデルとして意味ゲーム(meaninggame)を提唱し,「照応等の現象はゲーム理論で説明できる」と主張しているが,この主張は実言語データに基づいて検証されていない.われわれは,顕現性を計量可能な尺度として定式化し,中心化理論の2つのルールに対応する意味ゲームに基づく選好を日本語のコーパスを用いて検証した.その結果,中心化理論の予測を越える部分も含めてこれらの選好が成立することがわかった.したがって,基本原理の明確さおよび予測能力の強さゆえに,中心化理論よりも意味ゲームの方が優れた作業仮説であり,この意味において,中心化理論等の照応や焦点に特化した理論は不要と考えられる.
V15N05-03
物語は複数の話題で構成された文書である.内容の理解にはこの展開していく話題を正しく把握しなければならず,そのために原文書の代わりに用いられる要約は特に整合性を重視する必要がある.本稿では整合性として話題の繋がりに着目した物語要約手法を提案する.提案手法では,まず物語を主題に着目した話題単位に分割し,登場人物に着目した重要度によって要約として抽出する話題を決定する.その後,話題間の整合性を保つために,話題間の状況の変化を示す文を補完する.提案手法の有効性を確認するため実際の物語を対象とした被験者の主観的評価による比較実験を行った.整合性を考慮しないtf$\cdot$idfを用いた重要文抽出に比べて,提案手法の方が内容の理解において良好な結果を得ることができた.
V13N04-03
本論文では,広範な概念クラスの属性語を日本語のWeb文書から獲得する手法を提案する.提案する手法は,Web検索を用いて得られた候補の単語を言語的パターン・HTMLタグ・単語の出現の統計量から計算されるスコアで順位付けする簡単な教師無しの獲得手法である.また,本論文では,獲得された属性語を人手で評価するための{\bf質問解答可能性}に基づく評価手順を提案する.この評価手順に従い22個の概念クラスに関して提案獲得手法を人手で評価し,提案手法により属性語を高精度で獲得可能であること,また,スコアに用いた各手がかりが実際に性能に貢献していることを確認した.
V16N04-04
本論文では,学習者向けの作文支援手法として,学習者,教師,システム間で互いに作文に関する知識を教えあう相互教授モデルを提案し,{\modaWebベースの作文支援システムを実現した.}適用対象として,大学の作文教育を想定する.対象とする文章は,レポートなどの,一定の書式と文章構造が規定される文章とする.従来の作文支援システムの問題点として,(a)文章構成や作文の内容に対する支援など,意味処理が必要となる支援が困難であること,(b)教師の指導意図をシステムの動作に反映させる仕組みを持たず,実際の授業で運用しにくいことが挙げられる.相互教授モデルでは,作文の言語的・内容的制約を記述する「作文規則」を用いて,教師からシステムへの指導意図の伝達を可能にした.さらに,学習者による作文へのマークアップ,および,学習者同士の添削を導入し,文章構成や作文の内容に対する支援を含めた作文支援を行う.システムは学習者のマークアップ結果を利用しつつ,作文規則を作文に適用し,誤りを指摘する.{\mod本論文では,提案手法,従来手法による作文実験を行い,相互教授モデルと作文規則の有効性を確認した.}
V25N01-04
NHKはインターネットサイトNEWSWEBEASYで外国人を対象としたやさしい日本語のニュースを提供している.やさしい日本語のニュースは日本語教師と記者の2名が通常のニュースを共同でやさしく書き換えて制作し,本文にはふりがな,難しい語への辞書といった読解補助情報が付与されている.本稿ではNEWSWEBEASYのやさしい日本語の書き換え原則,および制作の体制とプロセスの概要と課題を説明した後,課題に対処するために開発した2つのエディタを説明する.1つは書き換えを支援する「書き換えエディタ」である.書き換えエディタは先行のシステムと同様に難しい語を指摘し,書き換え候補を提示する機能を持つが,2名以上の共同作業を支援する点,難しい語の指摘機能に学習機能を持つ点,また,候補の提示に書き換え事例を蓄積して利用する点に特徴がある.他の1つは「読解補助情報エディタ」である.読解補助情報エディタは,ふりがなや辞書情報を自動推定する機能,さらに推定誤りの修正結果を学習する機能を持つ.以上のように2つのエディタは,自動学習と用例の利用により,読解補助情報の推定の誤り,やさしい日本語の書き方の方針変更などに日々の運用の中で自律的に対応できるようになっている.本稿では2つのエディタの詳細説明の後,日本語教師および記者を対象に実施したアンケート調査,およびログ解析によりエディタの有効性を示す.
V19N04-01
Wikipediaをis-a関係からなる大規模な汎用オントロジーへ再構成した.Wikipediaの記事にはカテゴリが付与され,そのカテゴリは他のカテゴリとリンクして階層構造を作っている.Wikipediaのカテゴリと記事をis-a関係のオントロジーとして利用するためには以下の課題がある.(1)Wikipediaの上位階層は抽象的なカテゴリで構成されており,これをそのまま利用してオントロジーを構成することは適切でない.(2)Wikipediaのカテゴリ間,及びカテゴリと記事間のリンクの意味関係は厳密に定義されていないため,is-a関係でないリンク関係が多く存在する.これに対して我々は(1)を解決するため,上位のカテゴリ階層を新しく定義し,Wikipediaの上位階層を削除して置き換えた.さらに(2)を解決するため,Wikipediaのカテゴリ間,及びカテゴリ記事間のnot-is-a関係のリンクを3つの手法により自動で判定し切り離すことで,Wikipediaのカテゴリと記事の階層をis-a関係のオントロジーとなるように整形した.本論文ではnot-is-a関係を判定するための3つの手法を適用した.これにより,``人'',``組織'',``施設'',``地名'',``地形'',``具体物'',``創作物'',``動植物'',``イベント''の9種類の意味属性を最上位カテゴリとした,1つに統一されたis-a関係のオントロジーを構築した.実験の結果,is-a関係の精度は,カテゴリ間で適合率95.3\%,再現率96.6\%,カテゴリ‐記事間で適合率96.2\%,再現率95.6\%と高精度であった.提案手法により,全カテゴリの84.5\%(約34,000件),全記事の88.6\%(約422,000件)をオントロジー化できた.
V17N01-01
本稿では,人間による翻訳({\HUM})と機械翻訳システムによる翻訳({\MT})を訓練事例とした機械学習によって構築した識別器を用いて{\MT}の{\FLU}を自動評価する手法について述べる.提案手法では,{\HUM}と{\MT}の{\FLU}の違いを表わす手がかりとして,逐語訳(原文と翻訳文での単語同士の対応)に着目した.{\HUM}と{\MT}における逐語訳の違いを捉えるために,原文と{\HUM}との間,および原文と{\MT}との間で{\align}を行ない,その結果を機械学習のための素性とする.提案手法は,識別器を構築する際に対訳コーパスを必要とするが,評価対象の{\MT}の{\FLU}を評価する際には参照訳を必要としない.さらに,大量の訓練事例に人手で{\FLU}の評価値を付与する必要もない.検証実験の結果,提案手法によってシステムレベルでの自動評価が可能であることが示唆された.また,{\SVM}による機械学習で各素性に付与される重みに基づいて{\MT}に特徴的な素性を特定できるため,このような素性を含む文を観察することによって文レベルでの{\MT}の特徴分析を行なうこともできる.
V10N02-02
自由記述形式のアンケート調査の回答は,選択型回答のアンケートと異なり,回答者の自由な意見を集約できる効果があるため社会的にも注目されている.アンケート調査(質問紙調査法)について研究されてきた社会学・心理学の分野では,アンケートの回答分類はコーディングと呼ばれ,選択型回答・自由回答ともに人手で分析・分類されることが多い.特に自由回答のコーディングには多大なコストがかかるうえに,人の判断による作業は主観的な分類結果を招くという懸念もある.このような背景から,本研究では言語処理の要素技術であるテキスト分類の技術を取り入れアンケート回答の自動分類を行うことで,その結果を自由回答のコーディングに活用するためのコーディング支援を試みた.テキストの分類には,学習アルゴリズムのひとつである最大エントロピー法を用いている.分類にあたり,まずはテキストへのタグ付与実験をもとに意図タグの決定を行った.これらの意図タグを付与した意図タグ付き正解データを作成し,このデータを訓練データとしてN-gram抽出を行い,各タグに特徴的な表現を取り出した.この表現を素性とし,訓練データに対して最大エントロピー法を用いて学習し,分類を行った結果,約8割弱の分類精度が得られた.この手法によって,自由回答テキストに対して回答者の意図を反映した分類を行うことができた.これにより,回答を一件ずつ読みながら類似の内容を持つ回答を探すという,自由回答の人手による分類コストを軽減することができた.また,辞書を用いる形態素解析を使わずに,最大エントロピー法による素性と意図タグの学習を行うことで,「です」「ません」「べき」「必要」「図る」「化」など断片的な情報が意図タグ付与に効果的であることが明らかになった.
V11N05-03
機械翻訳に対する要求の高まりに伴い,日本語や英語,韓国語といった言語の翻訳に関する研究が進み,実用的なシステムが構築されつつある.その一方で,そうした研究があまり進んでいない言語が存在する.こうした言語においては,翻訳の要である対訳辞書の整備も遅れている場合が多い.一般に対訳辞書の構築には高いコストが必要であり,機械翻訳システムを実現する上での障害となっている.しかし,人間が翻訳作業をする場合,対訳辞書に記載がない単語を別の表現に言い換えて辞書を引くことにより,この問題に対処する場合がある.本研究ではこの手法を模倣し,未登録語を登録語に言い換えることにより対訳辞書を拡充することを提案する.本論文では,対訳辞書の拡充に必要な単語の言い換え処理を収集段階と選抜段階の二つに分割し,前者において語義文に基づく手法を,後者において類似度に基づく手法をそれぞれ適用した.また,類似度に基づく手法では,シソーラスにおける概念間の距離に加え,単語を構成する漢字の語義を利用した.これによって,語法や概念が近く意味的にも等価な言い換えを獲得できた.さらに,獲得した言い換えを翻訳システムで翻訳して日本語--ウイグル語対訳辞書への追加を試みたところ,未登録語300語のうち,その68.3\%に対して利用可能な対訳が得られた.
V09N02-03
{本論文では,コーパスから事象間の一対多関係を推定する問題を考える.これまでにコーパスから事象間の関係を推定することが多く研究されている.一般に,この問題に対する解決法の多くは,コーパスを構成する文書における事象の共起に基づき,暗黙的に事象間の関係は一対一関係であることを想定している.しかし,実際には,事象間の関係は一対多関係である場合があり,この特徴のためにいくつかの工夫が必要である.本論文では,コーパス中の一対多関係を推定するために補完類似度を利用することを提案する.この尺度は本来文字認識システムのために開発され,テンプレートの文字のパターンにオーバーラップしたパターンがある条件で有効であることが知られているが,これまでテキスト処理に利用されたことはなかった.この補完類似度の一対多関係を推定する能力を評価するために,地名(都道府県市郡名)を対象事象とした実験において,平均相互情報量,自己相互情報量,非対称平均相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度との性能比較を行う.実験では,三種類のコーパスを用いる.一つ目は実際に地名間にある一対多関係から合成する人工的なデータ集合である.二つ目も実際の関係から合成するが,誤った関係を導く少量の要素も含むデータ集合である.三つ目は現実の新聞記事コーパスから得られるデータ集合である.これらの評価実験において,補完類似度がもっとも優れており,補完類似度は一対多関係の推定問題に対して有効であることを示す.}
V04N03-03
単語間の意味的類似性に基づく検索(以下,類似検索と呼ぶ)は文書検索技術において,重要な課題の一つである.類似性に関する従来研究では,階層構造が平衡しているシソーラスを使った単語間の類似度が提案され,言語翻訳,文書検索などの応用における有効性が示されている.本論文では,階層構造が平衡していないシソーラスにも適用できる,より一般的な単語間の意味的類似度を提案する.本提案では各単語が担う概念間の最下位共通上位概念が有する下位概念の総数が少ないほど,単語間の類似度が大きくなる.筆者らは,この意味的類似度と大規模シソーラスの一つであるEDRシソーラスを使って,類似検索システムを実装した.さらに,精度を向上させるために,単語の多義解消手法をこの検索システムに導入した.本類似検索システムは,単語間の物理的近さと単語の重要度を用いた拡張論理型の従来システムに基づいている.この従来システムとの比較実験を行ない,意味的類似性と多義解消を用いた提案の類似検索手法によって再現率・適合率が向上したことを確認した.
V24N01-02
本稿では,子どもに「内容」と「読みやすさ」がぴったりな絵本を見つけるためのシステム「ぴたりえ」を提案する.本システムは,親や保育士,司書など,子どもに絵本を選ぶ大人が利用することを想定している.絵本を読むことは,子どもの言語発達と情操教育の両面で効果が期待できる.しかし,難しさも内容も様々な絵本が数多くある中で,子ども1人1人にとってぴったりな絵本を選ぶのは容易なことではない.そこで,ぴたりえでは,ひらがなの多い絵本のテキストを高精度に解析できる形態素解析や,文字の少ない絵本に対しても精度の高いテキストの難易度推定技術などの言語処理技術により,子どもにぴったりな絵本を探す絵本検索システムを実現する.本稿では,こうした言語処理技術を中心にぴたりえの要素技術を紹介し,各技術の精度が高いことを示す.また,システム全体としても,アンケート評価の結果,ぴたりえで選んだ絵本は「読みやすさ」も「内容」も,5段階評価で平均値が4.44〜4.54と高い評価が得られたことを示す.
V03N04-08
現在,自然言語処理システムの多くは,処理単位として形態素を用いているが,人間はもっと大きな単位で文を処理していることが既に分かっている.この単位を認知単位と呼ぶ.この知見から,人間の文解析処理は,認知単位の検出処理と,検出した認知単位の取捨選択の2段階に分離できるものと考えられている.本論文では,この考えに基づき,第一段階として状態遷移図を用いて認知単位を検出し,第二段階としてbigramを用いて認知単位を選択する,計二段階からなる文解析法を提案するものである.この方法を用いて誤りを含んだテキストに対し誤り訂正を行う実験を行った結果,形態素を単位としたbigramを用いるよりも良い結果を得ることができた.
V13N03-02
本論文では,サポートベクタマシン(SVMs)を使った文書分類において仮想事例(virtualexamples)がどのように性能を改善するかを調べる.ある文書から少量の単語を追加したり削除したりしても,その文書が属するカテゴリは変化しないとの仮定を置いて,文書分類のために仮想事例を作る方法を提案する.提案手法をReuters-21758テストセットコレクションで評価した.実験により,仮想事例はサポートベクタマシンを使った文書分類の性能向上に役立つことが確認できた.特に,学習事例が少量の場合にその効果は顕著であった.
V13N04-02
本論文では,単語リストと生コーパスが利用可能な状況における確率的言語モデルの分野適応について述べる.このような状況の下での一般的な対処は,単語リストを語彙に加えた自動単語分割システムによる生コーパスの自動単語分割の出力文を可能な限り人手で修正し,パラメータ推定に利用することである.しかしながら,文単位での修正では,正確な単語分割が容易でない箇所が含まれることになり,作業効率の著しい低下を招く.加えて,文単位で順に修正していくことが,限られた作業量を割り当てる最良の方法であるかということも疑問である.本論文では,コーパスの修正を単語単位とし,修正箇所を単語リストで与えられる適応分野に特有の単語に集中することを提案する.これにより,上述の困難を回避し,適応分野に特有の単語の統計的な振る舞いを捕捉するという,適応分野のコーパスを利用する本来の目的にのみコーパス修正の作業を集中することが可能となる.実験では,自動単語分割の結果の人手による修正の程度や方法を複数用意し,その結果得られるコーパスから推定された確率的言語モデルの予測力やそれに基づく仮名漢字変換の精度を計算した.この結果,適応分野に特有の語彙の出現箇所に修正のコストを集中することにより,少ない作業量で効率良く確率的言語モデルを分野適応できることが分かった.
V09N05-07
2000年言語処理学会第\6回年次大会プログラムの作成において,言語処理技術を適用し,大会プログラムを自動作成することを試みた.本稿では,第\5回大会のデータを利用して,大会プログラム作成のために行なった一連の実験について説明する.その結果に基づき,実際に第\6回の大会プログラムを作成した手続きについて報告する.大会プログラム作成にキーワード抽出および文書分類の言語処理技術は十分に利用でき,事務手続きの効率化に貢献できることを報告する.また,大会終了後のアンケート調査の結果を示し,参加者からの評価についても報告する.
V10N05-02
本稿は,「思い込み応答」戦略を取り入れた大語彙音声対話インタフェースを提案する.この戦略は,人間同士の対話において発話対象が広範囲に及ぶ場合,聞き間違えにくい対象と間違えやすい対象が存在することに着目したもので,聞き間違えやすい対象を誤認識しても利用者にストレスを与えないことを利用している.大語彙として16万種の個人姓に焦点を当て,音声認識精度と語彙網羅率の観点から,聞き間違えてはならない10,000種の思い込み対象を選択できた.更に,思い込みが外れた場合への対応として,思い込みの結果を利用者に応答として提示している時間を利用して,思い込み範囲外の残りの姓を対象とした裏認識処理を並行して進める仕組みを提案した.市販の認識エンジンを利用して,この仕組みと思い込み応答を組み合わせた個人姓確定インタフェースを実装した.思い込み応答は,現状の音声認識技術を用いたインタフェースにおいて,入力対象が大語彙であってもストレスを与えない結果を利用者に提示できる戦略であることを確認した.
V09N01-02
手話は聴覚障害者と健聴者との重要なコミュニケーション手段の1つであり,手話を学習する健聴者の数も年々増加する傾向にある.この様な背景から,近年,手話の学習支援システムや手話通訳システムなどの研究が各所で盛んに行われている.特に,これらの自然言語処理システムの知識辞書となる手話電子化辞書の構築は重要な課題であり,手話側から対応する日本語ラベルを効率良く検索する手段の実現は,日本語と手話との対訳辞書の検索機能として,必要不可欠な要素技術といえる.従来の検索方法の多くは,手話単語の手指動作特徴を検索項目とし,検索条件を詳細に設定する必要があった.そのため,初心者には満足する検索結果を得ることが難しいという問題点が指摘されている.この主な原因の1つは,検索条件の複雑さや検索項目間の類似性から選択ミスが生じやすく,結果として,利用者の要求に適合する検索結果が出力されないという問題点にある.本論文では,市販の手話辞典に記載されている手指動作記述文に着目した検索方法を提案する.本手法の特徴は,検索キーとして入力された手指動作記述文と類似の手指動作記述文を検索辞書から検索し,対応する手話単語の日本語ラベルを利用者に提示する点にある.すなわち,手話単語の検索問題を文献検索問題と捉えたアプローチといえる.実験の結果,本手法の妥当性を示す結果が得られた.一方,実験により明らかになった問題点の1つとして,手指動作記述文で表現された手指動作の一部に曖昧さがあることが分かった.この問題を含め,本手法の問題点と今後の課題について,例を示しながら詳細に議論する.
V20N04-01
大量のテキストから有益な情報を抽出するテキストマイニング技術では,ユーザの苦情や要望を表す述部表現の多様性が大きな問題となる.本稿では,同じ出来事を表している述部表現をまとめ上げるため,「メモリを消費している」と「メモリを食っている」の「消費している」と「食っている」のような述部表現を対象に,異なる2つの述部が同義か否かを認識する同義判定を行う.述部の言語構造分析をもとに,「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」という複数の言語知識を用い,それらを素性とした識別学習で同義判定を行った.実験の結果,既存手法に比べ,高い精度で述部の同義性を判定することが可能になった.
V05N02-01
日韓機械翻訳を研究している多くの研究者らは両国語の文節単位の語順一致のような類似性を最大に生かすため,直接翻訳方式を採択している.しかし,日本語と韓国語の述部間には,対応する品詞の不一致,局部的な語順の不一致,活用ルールの不一致,時制表現の不一致などが解決しにくい問題として残っている.本稿では述部表現の不一致を解決するため“様相テーブルに基づいた韓国語の生成方法”を提案し,それに対して体系的な評価を行なう.この方法は述部だけを対象にする抽象的で意味記号的な様相資質をテーブル化し,両国語の述部表現のPIVOTとして用いることにより,述部の様相表現の効果的な翻訳を可能とする.朝日新聞と日本語の文法本から抽出した2,338個の例文を対象に述部の翻訳処理を試みた結果,約97.5%が自然に翻訳され,述部翻訳の際,本方法が有効であることが確認できた.
V07N05-04
本稿では、日本語係り受け解析のための統計的手法について述べる。この手法は、統計値の計算方法が従来の手法と異なる。従来の手法では、2つの文節間が依存関係にある確率をそれぞれの文節の組に対して計算するが、本研究で提案する「3つ組/4つ組モデル」は、係り元の文節と係り先の文節の候補となる全ての文節に関する情報を確率の条件部として、ある文節が係り先として選択される確率を求める。なお、係り先の候補は、HPSGに基づいた文法及びヒューリスティクスによって高々3つに絞られる。確率の推定には最大エントロピー法を用いており、我々の構文解析器はEDRコーパスに対して文節正解率88.6$\%$という高い解析精度を達成した。
V11N05-07
近年,言い換え表現の自動獲得の研究が重要視されつつある.本稿では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することにより,言い換え表現の一種である同義表現を抽出することを試みた.また,同義表現を抽出するための新しい尺度を提案し,その尺度で抽出データをソートした結果の精度は,一般によく行なわれる頻度だけでソートする方法による結果よりも高いことを確認した.この尺度は,他の同義表現の抽出の研究にも利用できる有用なものである.提案手法では,同義表現のみを正解とするとき,上位500個で0.748,ランダムに抽出した500個で0.220の抽出精度であった.また,誤りの多くのものは包含関係や類義関係にある表現であり,それらも正解と判断する場合は,上位500個で0.954,ランダムに抽出した500個で0.722の抽出精度であった.
V09N02-01
意味解析を用いた情報検索の一手法を提案し,「判例」を検索対象とし日本語文章で記述した「問い合わせ文」を検索質問とした検索システム{\bfJCare}を開発する.本研究では,文章が表す内容を,語が格納されたノードと語間の関係(深層格)を表すアークからなる意味グラフとして捉え,判例文と問い合わせ文の意味グラフ間における位相同型部分の大きさをもとに,文章間の内容類似度を算出する.このとき検索の高速化・精度向上の目的で{\itView}という考え方を導入する.視点({\itView})により意味グラフを分割した{\itView}グラフの類似度を求めることで,内容的に関連性の低い文章間の計算時間,またそこから生まれるノイズを排除する.
V16N04-03
本論文では,まず,eラーニングシステムの研究開発のために構築された英語学習者コーパスについて解説し,次に,このコーパスの分析と,これを用いた英語能力自動測定実験について述べている.本コーパスは,496名の被験者が各々300文の日本語文を英語に翻訳したテキストから構成されており,各被験者の英語の習熟度がTOEICにより測定されている.また,これらに加え,日英バイリンガルによる正解訳も整備されていることから,訳質自動評価の研究に利用することが可能である.このコーパスを用いた応用実験として,BLEU,NIST,WER,PER,METEOR,GTMの6つの翻訳自動評価スコアを用いた実験を行なっている.実験において,各自動評価スコアとTOEICスコアとの相関係数を求めたところ,GTMの相関係数が最も高く,0.74となった.次に,GTMや,英訳結果の文長や単語長などからなる5つのパラメータを説明変数とし,TOEICを目的変数とした重回帰分析を行なった結果,重相関係数は0.76となり,0.02の相関係数の改善が得られた.
V10N04-04
本稿では,国語辞典の見出し語を定義文の主辞で置き換えることによって用言の言い換えを行う方法を提案する.この際,見出し語の多義性解消,定義文中で主辞とともに言い換えに含むべき項の決定,用言の言い換えに伴う格パターンの変換などを行う必要があり,これらを国語辞典の情報だけで行うことは不可能である.そこで,大規模コーパスから格フレームを学習し,見出し語と定義文主辞の格フレームの対応付けを行うことにより,これらの問題を解決する方法を考案した.220文に対する実験の結果,77\,\%の精度で日本語として妥当な用言の言い換えが可能であることがわかった.
V03N01-02
複合名詞は名詞を結合することによって数限りなく生成できるので,全てを辞書に登録することは不可能である.したがって,辞書に登録されている名詞の組み合わせとして複合名詞を解析する手法が必要である.そのためには,複合名詞をそれを構成している名詞に分割し,名詞間の係り受け構造を同定しなくてはならない.これらの処理は統語的な手係りが少ないために難しく,何らかの意味的な情報が必要である.しかし,大規模な意味的情報を人手で構築し保守することはコストが大きいため,計算機によって自動的に知識を獲得することが望ましい。本論文では,コーパスから自動的に抽出した名詞間の意味的共起情報を用いて複合名詞の構造を解析する方法を提案する.この方法では,共起情報を統計的に処理して名詞間の意味的関係の強さを評価し,係り受け関係の曖昧性解消に利用する.まず,4文字漢字語16万語から意味クラスの共起データを抽出した.抽出した共起データから統計的に名詞間の意味的関係の強さを計算する.そのための尺度として相互情報量を基にした評価尺度を提案する.この尺度と複合名詞の構造に関するヒューリスティクス,機械可読辞書から得られる言語知識を用いて複合名詞を解析する.評価のために新聞や用語集から抽出した漢字複合名詞を解析し,平均語長5.5文字の漢字複合名詞を約78\%の精度で解析できた.
V09N03-05
本研究では,要約文とその要約文を作成するために使用された表現を含む原文とを自動的に対応付ける手法を用いて,人間が要約文を作成する上で,要約元となった原文をどのように再構成するかを調査した.対応付けに用いた手法は,かかり受け構造の解析結果を利用し,要約文とその対応文との間の対応付けを文節単位で行う.また,要約文1文に対して,要約元文章中の複数文を対応付けすることを許して対応付けが可能である.調査した対象は,複数の作業者が新聞の社説を要約したデータである.このデータに対して,対応付け手法を実際に適用した.対応付けの結果,要約元文章で用いられていなかったり,元文章でかかり受け関係がなかった表現が要約文に用いられていた場合に,それらの表現を構成する文節は未対応となる.そこで,そのような要約文中で未対応になった文節がどのように生成されたかを,計算機でも処理可能な操作を主眼に分類・整理して考察した.その結果,要約原文のかかり受け構造は,要約文においても保存されることが多く,要約文に新しく出現する表現の多くは,複数の原文から1つの要約文を作成する文結合操作と,単文節を中心とした言い換え操作により生成されることがわかった.
V20N02-04
本論文は,文書分類のための新手法として,NegationNaiveBayes(NNB)を提案する.NNBは,クラスの補集合を用いるという点ではComplementNaiveBayes(CNB)と等しいが,NaiveBayes(NB)と同じ事後確率最大化の式から導出されるため,事前確率を数学的に正しく考慮している点で異なっている.NNBの有効性を示すため,オークションの商品分類の実験とニュースグループの文書分類の実験を行った.ニュースグループの文書分類では,一文書あたりの単語数(トークン数)を減らした実験と,クラスごとの文書数を不均一にした実験を行い,NNBの性質を考察した.NB,CNB,サポートベクターマシン(SVM)と比較したところ,特に一文書当たりの単語数が減り,クラスごとの文書数が偏る場合において,NNBが他のBayesianアプローチより勝る手法であること,また,時にはSVMを有意に上回り,比較手法中で最も良い分類正解率を示す手法であることが分かった.
V15N05-07
近年,国際化に伴い,多くの言語を頻繁に切り替えて入力する機会が増えている.既存のテキスト入力システムにおいては,言語が切り替わるたびに,ユーザーが手動で,テキスト入力ソフトウェア(IME)を切り替えなければならない点が,ユーザーにとって負担になっていた.この問題を解決するために,本論文では,多言語を入力する際にユーザーの負担を軽減するシステム,{\name}を提案する.{\name}は,ユーザーが行うキー入力からユーザーが入力しようとしている言語を判別して,IMEの切り替えを自動で行う.これによって,ユーザーがIMEを切り替える操作量が減るため,複数の言語をスムーズに切り替えながら入力することが可能になる.本研究では,隠れマルコフモデルを用いて言語の判別をモデル化し,モデルにおける確率をPPM法を用いて推定することで{\name}を実装し,その有用性を評価した.その結果,人工的なコーパスにおける3言語間の判別において,\accuracy\%の判別精度を得た.また,実際に多言語を含む{\text}を用いて実験したところ,切り替えに必要な操作の数が,既存の手法に比べて\decreaserate\%減少した.
V04N01-06
日本語文章における代名詞などの代用表現の指す対象が何であるかを把握することは,対話システムや高品質の機械翻訳システムを実現するために必要である.そこで,本研究では用例,表層表現,主題・焦点などの情報を用いて指示詞・代名詞・ゼロ代名詞などの指示対象を推定する.従来の研究では,代名詞などの指示対象の推定の際には意味的制約として意味素性が用いられてきたが,本研究では対照実験を通じて用例を意味素性と同様に用いることができることを示す.また,連体詞形態指示詞の推定に意味的制約として「AのB」の用例を用いるなどの新しい手法を提案する.指示対象を推定する枠組は,以下のとおりである.指示対象の推定に必要な情報をすべて規則にする.この規則により指示対象の候補をあげながら,その候補に得点を与える.得点の合計点が最も高い候補を指示対象とする.この枠組では規則を柔軟に書くことができるという利点がある.この枠組で実際に実験を行なった結果,指示詞・代名詞・ゼロ代名詞の指示対象を学習サンプルにおいて87\%の正解率で,テストサンプルにおいて78\%の正解率で,推定することができた.
V15N01-02
手話は言語でありろう者の母語である.手話と音声言語の間のコミュニケーションには手話通訳が必要となるが,手話通訳士の数は圧倒的に不足している.両言語間のコミュニケーションを支援する技術が期待される.本論文は日本語と手話との間の機械翻訳を目指して,その一つのステップとして,日本語テキストから手話テキストへの機械翻訳を試みたものである.機械翻訳をはじめとする自然言語処理技術はテキストを対象としているが,手話には文字による表現がないため,それらを手話にそのまま適用することができない.我々は言語処理に適した日本手話の表記法を導入することで,音声言語間の翻訳と同様に,日本語テキストから手話テキストへの機械翻訳を試みた.日本語から種々の言語への機械翻訳を目的として開発中のパターン変換型機械翻訳エンジンjawをシステムのベースに用いている.目的言語である手話の内部表現構造を設定し,日本語テキストを手話の表現構造へ変換する翻訳規則と,表現構造から手話テキストを生成する線状化規則を与えることで実験的な翻訳システムを作成した.日本手話のビデオ教材等から例文を抽出し,その翻訳に必要な規則を与えることで,日本語から手話に特徴的な表現を含んだ手話テキストへの翻訳が可能であることを確認するとともに,現状の問題点を分析した.
V13N03-01
用例ベース翻訳は,これまで,経験則にもとづく指標/基準により用例を選択してきた.しかし,経験則に頼った場合,その修正を行うのが困難であり,また,アルゴリズムが不透明になる恐れがある.そこで,本研究では用例ベース翻訳を定式化するための確率モデルを提案する.提案するモデルは,翻訳確率の最も高い用例の組み合わせを探索することで,翻訳文を生成する.さらに,本モデルは用例と入力文のコンテキストの類似度を自然に翻訳確率に取り込む拡張も可能である.実験の結果,本モデルを用いたシステムは,従来の経験則によるシステムの精度を僅かに上回り,用例ベース翻訳の透明性の高いモデル化を実現することに成功した.
V18N04-02
本稿では係り受け構造情報のタグ付けの一貫性について考える.係り受け構造には,統語的制約により一意に決まる構造と選択選好性によるタグ付け作業者に委ねる構造がある.多くの場合,統語的制約を優先してタグ付けられるが,選択選好性に影響され誤ってタグ付ける例が多々ある.このような事例について誤り傾向の差分を評価するために,ゲームを用いた新しい心理言語実験手法を提案する.埋め込み構造によるガーデンパス文を用いて\mmodified{13}人の被験者で実験を行ったほか,6種類の係り受け解析器を用いて解析誤り傾向の比較を行った.さらに最も誤った種類の文に対し,選択選好性がどのように影響したかについて報告する.
V26N04-03
ニューラル機械翻訳は従来手法の句に基づく統計的機械翻訳に比べて,文法的に流暢な翻訳を出力できる.しかし訳抜けや過剰翻訳などの問題が指摘されており,翻訳精度に改善の余地がある.このような問題に対して従来の句に基づく統計的機械翻訳では,対訳辞書を用いてデコーダ制約を実装することにより翻訳精度を改善していたが,ニューラル機械翻訳では対訳辞書を有効活用するアプローチが明らかではない.本稿では対訳辞書を単語報酬モデルによりニューラル機械翻訳に適用する手法を提案する.提案手法は,テスト時のデコーディングの際に対訳辞書に存在する単語に報酬を与えることでそれらの出現確率を高め,翻訳精度の向上を図る.提案手法は辞書をニューラル機械翻訳モデルとは独立して適用するため,辞書の更新や変更を簡単に行える利点がある.また指定された語彙を出力するよう制約を加える方法より少ない計算量で翻訳精度を改善できる.さらにアテンションを利用して対訳辞書を活用する手法と組み合わせると性能を改善できることを実験的に示した.
V27N01-02
%本稿では,世界史に関する大学入試論述問題に対して自動要約手法に基づき解答を自動生成する際の知識源の一つとして世界史用語集に注目し,見出し語と語釈部に分かれている文書データから解答となる文章を作成するために,語釈文における見出し語に照応するゼロ代名詞とその表層格を推定する手法を提案する.本稿の扱うタスクは,先行詞候補が見出し語に限られている一方でそれに照応するゼロ代名詞を複数の候補から一つ選ぶという点,および先行詞である見出し語が文中に存在しないため,照応解析において有効な手掛かりとなる先行詞の文脈情報が全く使えないという点で,従来のゼロ代名詞照応解析とは異なる.世界史用語集を対象とした評価実験を行った結果,KNPを用いた既存のゼロ照応解析を使用した手法に比べ,提案手法が有効であることが確認された.さらに,出現頻度の低い表層格で埋め込まれる場合の精度低下が観察されたため,通常の文から擬似訓練事例を生成する手法を検討した.同事例を使用した結果,ヲ格,ニ格の推定のF値を改善できることが確認された.
V21N02-07
『現代日本語書き言葉均衡コーパス』は1億語を超える大規模なコーパスであり,17万ファイル以上のXML文書に短単位・長単位の形態論情報アノテーションが施されている.このコーパスの構築を目的としてアノテーションのためのシステムが開発された.このシステムは,辞書見出しデータベースと,タグ付けされたコーパスとを関連付けて,整合性を保ちつつ多くの作業者が編集していくことを可能にするものである.このシステムは,関係データベースで構築されたサーバ「形態論情報データベース」と,辞書を参照しながらコーパスの修正作業を可能にするコーパス修正用のクライアントツール「大納言」,形態素解析辞書UniDicの見出し語の管理ツール「UniDicExplorer」から成る.本稿はこのデータベースシステムの設計・実装・運用について論ずる.
V02N03-01
三浦文法は、時枝誠記により提唱され三浦つとむにより発展的に継承された言語過程説に基づく日本語文法である。言語過程説によれば、言語は対象−認識−表現の過程的構造をもち、対象のあり方が話者の認識を通して表現されている。本論文では、三浦文法に基づいて体系化した日本語品詞体系および形態素処理用の文法記述形式を提案し、日本語の形態素処理や構文解析におけるその有効性を論じた。日本語の単語を、対象の種類とその捉え方に着目し、約400通りの階層化された品詞に分類して、きめ細かい品詞体系を作成した。本論文で提案した品詞体系と形態素処理用文法記述形式に基づき、実際に形態素処理用の日本語文法を構築した結果によれば、本文法記述形式により例外的な規則も含めて文法を簡潔に記述できるだけでなく、拡張性の点でも優れていることが分かった。本品詞体系により、三浦の入れ子構造に基づく意味と整合性の良い日本語構文解析が実現できるものと期待される。
V09N04-02
本稿では,要約手法として複数の正解に基づく評価法の提案を行なった.従来のテキスト要約の評価方法では唯一の正解を用いるが,テキストによっては観点の異なる正しい要約が複数存在する場合もあり,評価の信頼性が保証されないという問題があった.我々は,自動評価の信頼性を高めるため,特に重要文抽出法に焦点を当てて複数の正解に基づく評価方法を検討した.提案手法では,複数の正解と評価対象の要約を共にベクトルで表現し,複数の正解の線形結合と評価対象の要約との内積の最大値を評価値とする.提案手法の検証のために,NTCIR-2要約データ中の4記事に対して,要約者7名で要約の作成を行なった.正解の要約間の一致度に基づく品質評価の結果,提案手法の評価の正解として用いるのに十分な品質が得られなかったが,要約の比較から,照応関係,結束性等,元テキスト中の構造を損なわないように要約する共通の法則性が見出され,今後要約の正解を作成する上で有用な知見を得た.提案手法の有効性を検証する予備実験として,異なる幾つかの自動要約手法と複数正解との一致度に基づく評価を行なった.正解ごとに評価の高い自動要約手法が異なるという傾向が見られ,複数の正解を用いることで評価対象の要約との相性によらない評価結果を得るという提案手法の前提を裏付ける結果を得た.
V06N03-04
係り受け解析は日本語文解析の基本的な方法として認識されている.日本語の係り受けは,ほとんどが前方から後方であるため,解析は文末から文頭の方向へ解析を進める事は効率的であり,これまでもルールベースの解析手法ではいくつかの提案がある.また,統計的文解析は英語,日本語等の言語を問わず数多くの提案があり,その有効性が確認されている.本論文では,上記の二つの特徴を兼ね備えた日本語文係り受け解析を提案し,その実験結果を示し,有効性を実証する.システムの精度は,正しい文節解析ができた所から開始した場合,京大コーパスを使用した実験で係り受け正解率が87.2\%,文正解率が40.8\%と高い精度を示している.ビームサーチのビーム幅を調整した実験では,ビーム幅を小さくする事による精度の劣化が認められなかった.実際にビーム幅が1の際に得られた結果の95\%はビーム幅20の時の最良の結果と同一であった.また,N--best文正解率を見た時には,Nが20の時には78.5\%という非常に高い結果を示している.解析速度は,解析アルゴリズムから推測される通り,文節数の2乗に比例し,平均0.03秒(平均文節数10.0),最長文である41文節の文に対しては0.29秒で解析を行なった.
V07N03-04
日本語とウイグル語は共に膠着語であり,構文的に類似した点が多い.したがって,日本語からウイグル語への機械翻訳においては,形態素解析によって得られた各単語を逐語翻訳することにより,ある程度の翻訳が可能となる.しかし,従来の日本語文法は動詞が活用することを前提としていたため,ウイグル語への翻訳の前に,動詞の活用処理が必要であった.本論文では,日本語,ウイグル語を共に派生文法で記述することにより,日本語の活用処理を不要とすると同時に,両言語間の形態論的類似点を明確にし,単純でかつ体系的な機械翻訳が可能になることを示す.しかし,日本語とウイグル語との間の文法的差異から,単純な逐語翻訳では不自然な翻訳となる場合がある.本論文では,単語間の接続関係を考慮した訳語置換表を用いることによりこの問題を解決し,より自然な翻訳を実現した.さらに,この手法に基づく日本語--ウイグル語機械翻訳システムを作成した.このシステムでは,日本語形態素解析システムとウイグル語整形システムを,それぞれ独立のモジュールとして構成している.この設計は,他の膠着語間における翻訳にも応用可能であると考えられる.また,実験によりその翻訳精度を評価した.本論文では,特に両言語において文の中心的役割を果たす動詞句の翻訳について述べる.
V21N05-02
本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)の教師なし領域適応の問題に対して,共変量シフト下の学習を試みる.共変量シフト下の学習では確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$を重みとした重み付き学習を行うが,WSDの場合,推定される確率密度比の値が小さくなる傾向がある.ここでは$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求めて,その比を取ることで$w({\bmx})$を推定するが,$P_S({\bmx})$を求める際に,ターゲット領域のコーパスとソース領域のコーパスを合わせたコーパスを,新たにソース領域のコーパス$S$と見なすことで,先の問題に対処する.BCCWJの3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を選び,SemEval-2の日本語WSDタスクのデータを利用して,多義語16種類を対象に,WSDの領域適応の実験を行った.$w({\bmx})$を推定する手法として,$P_T({\bmx})$と$P_S({\bmx})$を求めずに,$w({\bmx})$を直接推定するuLSIFも試みた.また確率密度比を上方修正するために「$p$乗する」「相対確率密度比を取る」という手法も組み合わせて試みた.それらの実験の結果,提案手法の有効性が示された.
V21N06-02
従来の紙版の国語辞典はコンパクトにまとめることが優先され,用例の記述は厳選され,必要最小限にとどめられていた.しかし,電子化編集が容易になり,電子化された国語辞典データや種々のコーパスが活用できるようになった今,豊富な用例を増補した電子化版国語辞典の構築が可能になった.そうした電子化版国語辞典は,人にも計算機にも有用性の高いものと期待される.著者らはその用例記述の際に見出し語のもつ文体的特徴を明記する方法を提案し,より利用価値の高い,電子化版の「コーパスベース国語辞典」の構築を目指している.文体的特徴の記述は,語の理解を助け,文章作成時にはその語を用いる判断の指標になり得るため,作文指導や日本語教育,日本語生成処理といった観点からの期待も高い.本論文では,古さを帯びながらも現代語として用いられる「古風な語」を取り上げる.これに注目する理由は,三点ある.一点目は,現代語の中で用いられる「古風な語」は少なくないにも関わらず,「古語」にまぎれ辞書記述に取り上げ損なってしまう危険性のあるものであること.二点目は,その「古風な語」には,文語の活用形をもつなど,その文法的な扱いに注意の必要なものがあること.三点目は,「古さ」という文体的特徴を的確かつ,効果的に用いることができるよう,十分な用法説明が必要な語であるということ,である.そこで,本論文では,これら三点に留意して「古風な語」の用法をその使用実態に即して分析し,その辞書記述を提案する.はじめに,現行国語辞典5種における「古風な語」の扱いを概観する.次に,「古風な語」の使用実態を『現代日本語書き言葉均衡コーパス』に収録される図書館サブコーパスを用いて分析し,「古風な語」の使用を,(1)古典の引用,(2)明治期から戦前まで,(3)時代・歴史小説,(4)現代文脈,に4分類する.そして,その4分類に基づく「コーパスベース国語辞典」の辞書記述方法を提案する.このような辞書記述は例えば,作文指導や日本語教育,日本語生成処理の際の語選択の参考になるものと期待される.
V06N03-06
計算機上の文書データの増大に伴い,膨大なデータの中からユーザの求める文書を効率よく索き出す文書検索の重要性が高まっている.伝統的な検索手法では,文書全体を1つのまとまりとして考え検索要求との類似度を計算する.しかし,実際の文書,特に長い文書では様々な話題が存在し,文書中の各部分によって扱われる話題が異なる場合も多く見られる.そのため,最近の文書検索では,ユーザの入力した検索要求と関連の高い文書の一部分を取り出して類似度を計算するパッセージレベルの検索が注目されている.パッセージ検索におけるパッセージとは,文書中で検索要求の内容と強く関連する内容を持つ連続した一部分のことを言う.パッセージ検索では,このパッセージをどのように決定するかが問題となる.良いパッセージを決定するためには,パッセージ自体が意味的なまとまりを形成し,パッセージの位置やサイズが検索要求や文書に応じて柔軟に設定される必要があると考えられる.本稿では,文書中の文脈情報である語彙的連鎖を利用し,検索要求と文書の適切な類似度を計算できるパッセージ決定手法について述べる.また,このパッセージを使用し,検索精度を向上させる検索手法について述べる.
V17N04-03
CGM(消費者生成メディア)が普及してきたため,そのための言語処理技術が必要になってきた.このような文章データの自然文による検索や翻訳のために,解析精度の向上が求められている.解析誤りの発生原因である,用語の異なり,構文構造の異なりに対処できる処理方式を実現する.この両者への対策として,シソーラスを用いて用語間の意味的な距離を決定する方式を提案する.具体的には,用語の標準化や係り受けの正規化をするシステムを実現し,さらに,付属語を調べて,省略された主語を復元すること,「文節意図」を付与することを試みた.「Yahoo!知恵袋」のデータを用いて解析実験をした結果,シソーラスを用いない場合に比較して約1\%の精度の向上がみられた.システムが用いている辞書の内容について概要を述べる.
V12N06-02
本研究では最初に,方法や対処法を問う質問(how型の質問)に質問応答システムが答えるための知識を,メーリングリストに投稿されたメールから獲得する方法について述べる.方法や対処法を問う質問に答えるための知識(「こんな場合にはこうする」など)は,メーリングリストに投稿されたメールから質問や説明の中心になる文(重要文)を取り出すことによって獲得する.次に,メーリングリストに投稿されたメールから獲得した知識を用いる質問応答システムについて報告する.作成したシステムは自然な文で表現されたユーザの質問を受けつけ,その構文的な構造と単語の重要度を手がかりに質問文とメールから取り出した重要文とを照合してユーザの質問に答える.作成したシステムの回答と全文検索システムの検索結果を比較し,メーリングリストに投稿されたメールから方法や対処法を問う質問に答えるための知識を獲得できることを示す.
V24N02-04
ソーシャルメディア等の崩れた日本語の解析においては,形態素解析辞書に存在しない語が多く出現するため解析誤りが新聞等のテキストに比べ増加する.辞書に存在しない未知語の中でも,既知の辞書語からの派生に関しては,正規形を考慮しながら解析するという表記正規化との同時解析の有効性が確認されている.本研究では,これまで焦点があてられていなかった,文字列の正規化パタン獲得に着目し,アノテーションデータから文字列の正規化パタンを統計的に抽出する.統計的に抽出した文字列正規化パタンと文字種正規化を用いて辞書語の候補を拡張し形態素解析を行った結果,従来法よりも再現率,精度ともに高い解析結果を得ることができた.
V25N01-05
高度な人工知能研究のためには,その材料となるデータが必須となる.医療,特に臨床に関わる分野において,人工知能研究の材料となるデータは主に自然言語文を含む電子カルテである.このようなデータを最大限に利用するには,自然言語処理による情報抽出が必須であり,同時に,情報抽出技術を開発するためのコーパスが必要となる.本コーパスの特徴は,45,000テキストという我々の知る限りもっとも大規模なデータを構築した点と,単に用語のアノテーションや用語の標準化を行っただけでなく,当該の疾患が実際に患者に生じたかどうかという事実性をアノテーションした点の2点である.本稿では病名や症状のアノテーションを対象に,この医療コーパス開発についてその詳細を述べる.人工知能研究のための医療コーパス開発について病名や症状のアノテーションを中心にその詳細を述べる.本稿の構成は以下の通りである.まず,アノテーションの基準について,例を交えながら,概念の定義について述べる.次に,実際にアノテーターが作業した際の一致率などの指標を算出し,アノテーションのフィージビリティについて述べる.最後に,構築したコーパスを用いた病名抽出システムについて報告する.本稿のアノテーション仕様は,様々な医療テキストや医療表現をアノテーションする際の参考となるであろう.
V03N03-04
本稿では,構文解析を探索問題と捉えた上で,$\A^*$法の探索戦略に従ってチャート法のアジェンダを制御し,最も適切な構文構造から順に必要なだけ生成する構文解析手法を提案する.文脈自由文法形式の費用付き構文規則が与えられたとき,規則に従って生成されうる各部分構造について,その構造に相当する現在状態からその構造を構成要素として持つ全体構造に相当する目標状態までの費用を,構文解析に先立って,$\A^*$法の最適性条件を満たすように推定しておく.従って,構文解析では,競合する構造のうちその生成費用と推定費用の和が最も小さいものから優先的に処理していくと,生成費用の最も小さい全体構造が必ず得られる.また,優先すべき構造は,個々の規則に付与された費用に基づいて定まるので,優先すべき構造をきめ細かく指定でき,優先したい構造の変更も規則の費用を変更するだけで容易に行なえる.費用付き構文規則は,記述力の点で,確率文脈自由文法規則の拡張とみなすことができる.
V23N02-01
2つの系列が与えられたときに,系列の要素間での対応関係を求めることを系列アラインメントとよぶ.系列アラインメントは,自然言語処理分野においても文書対から対訳関係にある文のペアを獲得する対訳文アラインメント等に広く利用される.既存の系列アラインメント法は,アラインメントの単調性を仮定する方法か,もしくは連続性を考慮せずに非単調なアラインメントを求める方法かのいずれかであった.しかし,法令文書等の対訳文書に対する対訳文アラインメントにおいては,単調性を仮定せず,かつ対応付けの連続性を考慮できる手法が望ましい.本論文では,ある大きさの要素のまとまりを単位として系列の順序が大きく変動する場合にアラインメントを求めるための系列アラインメント法を示す.手法のポイントは,系列アラインメントを求める問題を組合せ最適化問題の一種である集合分割問題として定式化して解くことで,要素のまとまりの発見と対応付けとを同時に行えるようにした点にある.さらに,大規模な整数線形計画問題を解く際に用いられる技法である列生成法を用いることで,高速な求解が可能であることも同時に示す.
V07N02-03
1991年から1997年までの毎日新聞7年分の電子テキスト(約3.4億文字)を対象に,使用されている文字種すべて(5,726;空白文字を除く)について,その出現率(出現頻度)が,面種(e.g.,解説面,スポーツ面,社会面),月次,年次の3つの要因に関して,どの程度まで系統的な変動を示すかを検討した.5,726文字種のうち,16の面種間による出現率の差は69.2\%で,月次による出現率の差は20.3\%で,年次による出現率の差は43.9\%で認められた.低出現率の文字(0.001‰未満)を除いた2,732文字種では,さらに変動は顕著で,面種差は98.4\%で,月次差は33.5\%で,年次差は76.0\%で認められた.このように,紙面の種類と時系列によって,新聞の文字使用が系統的に変動することが,広範に確認された.こうした語彙表現に関わる変動現象は,大量のテキストに基づいて文字や単語の計量を行うような研究ではあまり関心が払われてこなかったが,変動のもつ規則性は,それ自体,精細な分析の対象となりうるものである.
V04N01-05
本稿では,大量の未知語の形態素情報の自動的な蓄積手法の研究について述べる.その内容は,形態素の品詞・活用種類・活用形(これをここでの形態素属性とする)の推定及び統計的手段による推定の精度向上と,日本語における形態素の推定である.文章内の語間の連接関係に注目することによって,未知語の形態素属性を推定する.そして,形態素の字種と連接関係の頻度統計を適用することによって,未知語の形態素属性の推定精度を向上させる.また,``分ち書き''されていない日本語においては,形態素の推定が必要になる.特定の品詞(助詞と助動詞)を完全な情報とみなし,形態素を構成する文字種の並び規則から分割の基点をもとめ,すでに登録されている単語にもとづき,形態素推定を行なう.これを形態素属性の推定を行なうプロセスに送ることで,推定結果から形態素であるものが選択される.以上の手法を日本語に対して適用するシステムを構築し,朝日新聞社説6ヶ月分のコーパス中の約240,000形態素を用いて実験を行なった.その結果,活用品詞に対しては90.5\%,その他の品詞に対しては95.2\%,全体の平均としては94.6\%の形態素の推定成功率を得て228,450形態素の形態素属性を推定し,新たにユニークな形態素15,523個を蓄積することができた.
V16N02-02
本稿ではデータベース・ソフトウェアの1つであるFileMakerProによる,英語学習教材の自動作成における言語処理技術と教材作成の連携可能性を提案する.著者は,実際の英語の授業でも利用しやすいプリント教材や簡易E-learning教材を出力できるツールを開発し,無料公開している.これらのツールではGUI環境での操作が可能であるため,パソコン利用スキルが限られる一般の英語教員にも利用しやすく,任意の英文素材からPhraseReadingを軸とした精読教材およびClozeテストを利用した学習教材を短時間で作成することができる.
V20N04-03
本論文では,複数文書要約を冗長性制約付きナップサック問題として捉える.この問題に基づく要約モデルは,ナップサック問題に基づく要約モデルに対し,冗長性を削減するための制約を加えることで得られる.この問題はNP困難であり,計算量が大きいことから,高速に求解するための近似解法として,ラグランジュヒューリスティックに基づくデコーディングアルゴリズムを提案する.ROUGEに基づく評価によれば,我々の提案する要約モデルは,モデルの最適解において,最大被覆問題に基づく要約モデルを上回る性能を持つ.要約の速度に関しても評価を行い,我々の提案するデコーディングアルゴリズムは最大被覆問題に基づく要約モデルの最適解と同水準の近似解を,整数計画ソルバーと比べ100倍以上高速に発見できることがわかった.
V07N01-01
ソフトウエアの要求獲得会議では会議参加者の関心のあることをきちんと堀起こすことが重要である.関心のあることを堀起こすためには会議参加者の無意識の部分を知る方法が考えられる.無意識の兆候としては古来から言い直しが挙げられている.言い直しを利用するとしても,言い直しを解釈するやり方は高度の技術を要する.そこで本研究では,言い直しを解釈しないで利用する方法を考えることにする.そこでまず,言い直した語と言い直された語との間でどちらに関心が高いかを調べた.その結果,言い直された語の中にも話し手の関心が高いものが見受けられた.そこで,言い直された語を抽出して,次の会議の話題展開に用いる方法論を考案した.
V07N05-05
本論文では,我々が現在公開している自然言語解析用ツール「MSLRパーザ・ツールキット」の特徴と機能について述べる.MSLRパーザは,一般化LR法の解析アルゴリズムを拡張し,日本語などの分かち書きされていない文の形態素解析と構文解析を同時に行うツールである.MSLRパーザを用いて解析を行う際には,まずLR表作成器を用いて,文法と接続表からLR表を作成する.このとき,LR表作成器は,接続表に記述された品詞間の接続制約を組み込んだLR表を生成する.このため,接続制約に違反する解析結果を受理しないLR表が作られるだけでなく,LR表の大きさを大幅に縮小することができる.次に,MSLRパーザは,作成されたLR表と辞書を用いて辞書引きによる単語分割と構文解析を同時に行い,その結果として構文木を出力する.さらに,MSLRパーザは,文中の括弧の組によって係り受けに関する部分的な制約が与えられた文を入力とし,その制約を満たす構文木のみを出力する機能を持つ.また,文脈依存性を若干反映した言語モデルのひとつである確率一般化LRモデル(PGLRモデル)を学習し,個々の構文木に対してPGLRモデルに基づく生成確率を計算し,解析結果の優先順位付けを行う機能も持つ.
V06N02-07
我々は,テキスト音声合成システムのポーズ挿入精度向上のために,言語処理部に構文解析処理を導入し,一文全体の係り受け解析結果を利用したポーズ挿入処理を試みた.本稿では,この結果について報告する.テキストを音声に変換して出力する際には,その内容を感覚的,意味的に捉え易くするために,テキスト中の適当な位置に適当な長さのポーズを与える必要がある.ポーズ位置やポーズ長の設定に,対象文の係り受け解析結果が有効な手がかりになるとの知見が得られているが,従来は実施上の都合から,語彙情報の利用や,局所的なテキスト解析による方法が代用されていた.そこで本稿では言語処理部に軽量かつ高速な構文解析系を導入し,一文全体の係り受け解析のシステム上での実現を試みた.ポーズ挿入の生じ易さの指標としてポーズ挿入尤度を設け,係り受け情報に着目したポーズ挿入規則に基づき,全文節境界にポーズ挿入尤度を設定する.尤度の高い境界から基本ポーズ長レベルを設定した後,各境界に対してアクセント結合処理および呼気段落に基づく閾値による調整を行なう.実際にテキスト音声合成システムに実装し,形態素解析と隣接間係り受け処理のみ実装しているテキスト音声合成ソフトウェアパッケージとの比較実験を行なったところ,ポーズ挿入精度の大幅な向上が得られ,その効果を確認することができた.
V19N03-04
地方自治体が制定する条例(規則も含め,以下例規という)は,章節/条項号という階層を有する,基本的に構造化された文書である.各自治体はそれぞれ別個に各議会等でこの例規を制定するため,複数の自治体が同一の事柄に関する規定(例えば「淫行処罰規定」など)を有している事が多い.この同一の事柄に関する規定の自治体間における異同を明らかにするための比較は,法学教育や法学研究,地方自治体法務,企業法務において実施されている.実務における法の比較では,対応する条項を対とし,それらの条文を左右または上下に並べた条文対応表の作成が主体となっている.これまで条文対応表は手作業で作成されてきたが,対象とする例規の条数や文字数が多い場合の表作成には3時間以上も必要としていた.そのため計算機による条文対応表の作成支援が強く求められているが,本件に関する研究はこれまでに行われていない.そこで我々の研究は,条文対応表を計算機で自動作成することによる条文対応表の作成支援を目的とする.この目的を達成するため,我々は条文対応表を,各条をノードとする二部グラフとしてモデル化し,このモデルに基づき条文対応表を自動作成するために有効な手法の検討を行った.二文書間の類似度を定義する多くの研究がこれまでに報告されている.これらの類似度比較手法より本研究ではベクトル空間モデル,最長共通部分列,及び文字列アライメント(編集コスト可変のレーベンシュタイン距離)に基づく96個の類似尺度の性能を比較した.評価には愛媛県の11の条例とそれに対応する香川県の11の条例を用い,法学者が作成した条文対応表に基づき正解率を求めた.その結果,名詞,副詞,形容詞,動詞,連体詞を対象としたベクトル空間モデルに基づく類似尺度の正解率が85\%と最も高かった.また,文字列アライメントに基づく類似尺度の正解率は最高で81\%,最長共通部分列は最高で75\%であった.本研究は条文対応表の作成支援であるため,推定された対応関係の信頼度,あるいは尤もらしさを提示する事が望ましい.そこで各比較手法で最も正解率の高かったパラメータを用いた合計3つの類似尺度に対して受信者操作特性曲線による評価を行ったが,曲線下面積がいずれも狭くて信頼度の尺度として適さない.そこで,推定された対応関係の類似度を二番目に高い類似度を持つ対応関係の値で割る事による正規化を行ったところ,最長共通部分列の曲線下面積が0.80と最も高く,ベクトル空間モデルの面積は0.79と良好であった.以上の評価結果より,条文対応表の作成支援では条見出しに対して最長共通部分文字列を,条文に対してベクトル空間モデルをそれぞれ適用した類似尺度を併用する事が,そして得られた条文対応関係の信頼度を評価する尺度としては二番目に高い類似度で割った値を用いるとよい事を明らかにした.
V17N01-05
語順や言語構造の大きく異なる言語対間の対訳文をアライメントする際に最も重要なことは,言語の構造情報を利用することと,一対多もしくは多対多の対応が生成できることである.本論文では両言語文の依存構造木上での単語や句の依存関係をモデル化した新しい句アライメント手法を提案する.依存関係モデルは木構造上でのreorderingモデルということができ,非局所的な語順変化を正確に扱うことができる.これは文を単語列として扱う既存の単語アライメント手法にはない利点である.また提案モデルはヒューリスティックなルールを一切用いずに,句となるべき単位の推定を自動的に行うことができる.アライメント実験では,既存の単語アライメント手法と比較して,提案手法にではアライメントの精度をF値で8.5ポイント向上させることができた.
V21N01-03
階層的複数ラベル文書分類においては,あらかじめ定義されたラベル階層の利用が中心的な課題となる.本稿では,複数の出力ラベル間の依存関係という,従来研究が用いてこなかった手がかりを利用する手法を提案する.これを実現するために,まずはこのタスクを構造推定問題として定式化し,複数のラベルを同時に出力する大域モデルと,動的計画法による厳密解の探索手法を提案する.次に,ラベル間依存を表現する枝分かれ特徴量を導入する.実験では,ラベル間依存の特徴量の導入により,精度の向上とともに,モデルの大きさの削減が確認された.
V14N03-07
本研究の目的は,携帯メールによって収集した大学生の書いた授業感想文の感情評価を行い,学習態度を分析することによって,授業改善のための方略を得ることである.感情評価の基準として,興味,意欲,知識,考察の4つのカテゴリを使い感想文を分類した.その結果形態素レベルでは有意な差を見出せなかったが,文脈から分類した結果,成績の良い学生の感想文には意欲と考察が多く,成績の悪い学生の感想文には興味と知識の多いことが示された.さらに成績が良かった学生と悪かった学生から無作為に1名ずつを選び,その感想文を比較した結果,成績の良い学生は授業内容を再構成しているが,成績の悪い学生は教師が教えたままを示していることが明らかになった.以上により授業改善を行うには,学習者の意欲と考察が増すように,学習者が授業内容を再構成するように改善する必要性が示された.
V20N03-05
東日本大震災では安否確認や被災者支援のためにTwitterが活躍したが,一方で多種多様な情報が流通し,混乱を招いた.我々は,情報の信憑性や重要性を評価するには,ツイート空間の論述的な構造を解析・可視化し,情報の「裏」を取ることが大切だと考えている.本稿では,ツイートの返信および非公式\addspan{リツイート}(以下,両者をまとめて返信と略す)に着目し,ツイート間の論述的な関係を認識する手法を提案する.具体的には,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると考え,これらの態度を推定する分類器を教師有り学習で構築する.評価実験では,返信ツイートで表明される態度の推定性能を報告する.さらに,本手法が直接的に返信関係のないツイート間の論述的な関係の推定にも応用できることを示し,ツイート間の含意関係認識に基づくアプローチとの比較を行う.
V14N01-02
英語に比べて語順が自由で省略の多い日本語は,句構造解析には不向きとされ,係り受け解析が一般的となっている.また,係り受けが交差する入れ子破りが起こる表現や二つの品詞性のある語などは,句構造解析による木構造ではうまく扱えない.さらに,現在主流となっている文節構文論(学校文法)に基づく構文解析では構文解析結果が意味と整合性が良くなく,時枝文法風の構文解析の方が解析結果に則って意味がうまく説明できることが指摘されている.本論文では,時枝によって提唱された言語過程説を発展的に継承した三浦の言語モデル(関係意味論に基づく三浦の入れ子構造)とそれらの基づく日本語文法体系(三浦文法)による文法記述と文法規則適用条件の制御によって上記のような日本語構文解析上の問題を解決する方法を提案する.さらに,このような考えに基づき試作した日本語文パーザによって,一対多・多対一の係り受け関係,文中の局所的入れ子構造,入れ子破りの表現,主題の「は」と対照の「は」の扱い,二つの品詞性のある語の扱いにおいて意味的に適切な統語構造が得られることを示した.
V07N02-04
本論文では,ME(最大エントロピー)モデルと書き換え規則を用いて固有表現を抽出する手法について述べる.固有表現の定義はIREX固有表現抽出タスク(IREX-NE)の定義に基づくものとする.その定義によると,固有表現には一つあるいは複数の形態素からなるもの,形態素単位より短い部分文字列を含むものの2種類がある.複数の形態素からなる固有表現は,固有表現の始まり,中間,終りなどを表すラベルを40個用意し,各々の形態素に対し付与すべきラベルを推定することによって抽出する.ラベルの推定にはMEモデルを用いる.このMEモデルでは学習コーパスで観測される素性と各々の形態素に付与すべきラベルとの関係を学習する.ここで素性とはラベル付与の手がかりとなる情報のことであり,我々の場合,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞の情報のことである.一方,形態素単位より短い部分文字列を含む固有表現は,MEモデルを用いてラベルを決めた後に書き換え規則を適用することによって抽出する.書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.本論文ではIREX-NE本試験に用いられたデータに対し我々の手法を適用した結果を示し,さらにいくつかの比較実験から書き換え規則と精度,素性と精度,学習コーパスの量と精度の関係を明らかにする.
V06N06-06
本論文では,重回帰分析にもとづいた文章構造解析を利用した自動抄録手法とその評価,および文章要約への展開について述べる.文章構造の解析は,文章中の様々な特徴をパラメタとした判定式や局所的な言語知識により,文章セグメントの分割統合を進めて構造木を作るものである.得られた文章構造上の各種特徴をもとに,さらに文章抄録の観点から選択されたパラメタを加えて,文抽出のための判定式を作る.本研究では被験者5人にのべ350編の新聞社説の抄録調査を実施し,これを基準に,重回帰分析によりパラメタの重みを決定し判定式を得,また,本方式を評価する.また,自動生成された抄録文に対して,照応情報の欠落による文章の首尾一貫性の低下を避けるための補完や,論旨を損なわない冗長な表現の削除を行なうことで要約文章を生成する手法を紹介する.
V17N02-03
自然言語処理や言語学においてコーパスは重要な役割を果たすが,従来のコーパスは大人の文章を集めたコーパスが中心であり,子供の文章を集めたコーパスは非常に少ない.その理由として,子供のコーパスに特有の様々な難しさが挙げられる.そこで,本論文では,子供のコーパスを構築する際に生じる難しさを整理,分類し,効率良く子供のコーパスを構築する方法を提案する.また,提案方法で実際に構築した「こどもコーパス」についても述べる.提案方法により,81人分(39,269形態素)のコーパスを構築することができ,提案方法の有効性を確認した.この規模は,公開されている日本語書き言葉子供コーパスとしては最大規模である.また,規模に加えて,「こどもコーパス」は作文履歴がトレース可能であるという特徴も有する.
V10N02-07
本論文ではフリーの特異値分解ツールSVDPACKCを紹介する.その利用方法を解説し,利用事例として語義判別問題を扱う.近年,情報検索では潜在的意味インデキシング(LatentSemanticIndexing,LSI)が活発に研究されている.LSIでは高次元の索引語ベクトルを低次元の潜在的な概念のベクトルに射影することで,ベクトル空間モデルの問題点である同義語や多義語の問題に対処する.そして概念のベクトルを構築するために,索引語文書行列に対して特異値分解を行う.SVDPACKCは索引語文書行列のような高次元かつスパースな行列に対して特異値分解を行うツールである.またLSIは,高次元の特徴ベクトルを重要度の高い低次元のベクトルに圧縮する技術であり,情報検索以外にも様々な応用が期待される.ここではSVDPACKCの利用事例として語義判別問題を取り上げる.SENSEVAL2の辞書タスクの動詞50単語を対象に実験を行った.LSIに交差検定を合わせて用いることで,最近傍法の精度を向上させることができた.また最近傍法をベースとした手法は,一部の単語に対して決定リストやNaiveBayes以上の正解率が得られることも確認できた.