id stringlengths 9 9 | text stringlengths 18 1.29k | title stringclasses 1 value |
|---|---|---|
V22N01-02 | 本論文では,手紙文書とそれに対する応答文書など対となる二つの文書間における文レベルでの対応関係を推定する課題を提案し,解決手法を検討する.これまで,単一の文書内における文同士の関係や対話における発話同士の関係を対象とした研究は盛んに行われて来たのに対し,二文書間における文書を跨いだ文対応関係にはあまり注目されて来なかった.このような関係の例として,質問と応答,依頼と回答などが挙げられる.文対応関係を用いることで文書によるコミュニケーションをより細かい単位で説明できることから,本関係の推定が実現すれば様々な応用が期待できる.一例として,文書対の群から対応を持つ文を抽出すれば,各文書対でどのようなコミュニケーションが行われているかを提示することが可能となる.我々は文対応関係の自動推定を実現するため,本課題を文対応の有無を判定する分類問題とみなして条件付確率場を用いる手法を提案する.具体的には,推定した文の種類を文対応推定に活用する対話文書を対象とした従来手法を,本論文の課題に適用する手法を示す.加えて,文種類の推定と文対応の推定を同時に行う拡張モデルによる手法を提案する.実際の宿泊予約ウェブサイトにおけるレビュー・返答対を対象とした評価実験の結果,拡張モデルは拡張前のモデルよりも高い性能である適合率46.6\%,再現率61.0\%の推定性能を得た. | |
V05N01-04 | 本研究では,論説文の文章構造についてモデル化し,それに基づいた文章解析手法について論じる.\indent近年のインターネットや,電子媒体の発達などにより大量の電子化された文書が個人の周囲にあふれてきているが,大量の文書を高速に処理するためには,記述されている領域に依存した知識を前提とせず,なるべく深い意味解析に立ち入らない「表層的」な処理により行なうことが求められる.\indentここで提案する手法での構造化は,文末の表層的な情報によるモダリティの解析に依る.これを基に文章の論説モデルを定義する.\indent文章解析のトップダウン的アプローチとしては,文章のセグメンテーションの手法を応用し,評価関数の値の大きい箇所から分割していく.文章解析のボトムアップ的アプローチとしては,修辞関係に着目したセグメント統合により隣接していて関係が強いところから統合していく.ここで提案する手法は,構造木の葉に近い部分をボトムアップ的解析で,根に近い部分をトップダウン的解析で処理することにより,一方の欠点を他方の利点で補う効果的なものである.\indent本研究のような対象においては,解析結果を正解と不正解の2値に分けてしまうのでは評価としては不十分であり,正解に近いものはそれなりに評価してやる必要がある.これについて,構造木の根に近い部分は形式段落の位置に基づく客観的評価,葉に近い部分は人間が解析したものとの比較,全体的な構造に対しては個々の解析結果を人間が検討することにより本手法の評価を行う. | |
V29N02-16 | %品質推定の教師あり学習は,言語対ごとに翻訳品質ラベルを人手で付与する必要があり,コストが高い.そこで,対訳コーパスのみで訓練された機械翻訳器を用いる教師なし品質推定が研究されているが,既存手法は少資源言語対では性能が低下する.本研究では,事前訓練された多言語雑音除去自己符号化器を活用することで,大規模な対訳コーパスが存在しない言語対にも適用可能な教師なし品質推定を提案する.具体的には,多言語雑音除去自己符号化器を対訳コーパスを用いて再訓練することで多言語機械翻訳器を構築する.そして,評価対象の機械翻訳器による出力文を原文からforced-decodingする際の文生成確率によって翻訳品質を推定する.大規模な単言語コーパスにより事前訓練された多言語雑音除去自己符号化器は言語間の特性を捉えられるため,提案手法では少資源または対訳コーパスが存在しない言語対においても品質推定が可能となる.WMT20の品質推定タスクにおける評価の結果,提案手法は6言語対のうち5言語対について,ブラックボックス設定における教師なし品質推定の最高性能を達成した.詳細な分析の結果,ゼロショット設定の品質推定においても提案手法は良好な性能を示すことが明らかとなった. | |
V07N03-05 | 文章に付与されたキーワード集合のような内容語(ターム)の並びを「タームリスト」と呼ぶ.本論文では,翻訳先言語のコーパスのみを用いて,各タームに対する訳語候補のなかから最適なものを選択する「翻訳多義解消」の新たな方法を提案する.本手法では,各タームに対する訳語候補を一つずつ集めてできる組み合わせのうち,含まれる訳語同士の意味的関連性が最も高い組を選択する.単語間の意味的関連性の尺度は各単語が翻訳先言語コーパスにおいてどの程度近い文脈に出現するかを数値化したものである.翻訳実験の結果,翻訳多義のある単語に対する平均正解率77.4\%を達成した. | |
V31N04-07 | 研究者や実務者にとって事前学習済みモデルの利活用が一般的になる中,実運用上の大きな課題として時系列性能劣化の監査が挙げられる.特に事前学習済み言語モデルは事前学習や推論にかかる時間と費用が大きいため,効率的な監査と再学習の仕組みの検討は重要である.本研究では学習コーパス内の単語の通時的な意味変化を計算することで,事前学習済み言語モデルや単語分散表現の時系列性能劣化を監査する枠組みを提案し,モデルの再学習に関する意思決定を支援する.最初に2011~2021年の日本語・英語のニュース記事を用いて,学習コーパスの期間が異なるRoBERTaやword2vecのモデルを構築し,時系列性能劣化を観測した.実験では,学習コーパス内の単語の通時的な意味変化から計算できる指標「SemanticShiftStability」が小さくなる際,事前学習済みモデルの性能が時系列で大きく劣化しており,監査の用途での有用性を確認できた.提案する枠組みには意味が大きく変化した単語から原因を推察できる利点もあり,2016年の米大統領選や2020年の新型コロナウイルス感染症の影響が示唆された.指標を計算するソースコードは\url{https://github.com/Nikkei/semantic-shift-stability}で公開した.\renewcommand{\thefootnote}{}\footnote[0]{本稿は,筆者らの既発表文献\cite{takahashi2022,ishihara-etal-2022-semantic,ishihara2023}をもとに,追加の分析を含めて構成した.}\renewcommand{\thefootnote}{\arabic{footnote}} | |
V03N03-03 | 機械学習により日英翻訳のための英語動詞選択ルールを獲得する手法を提案する.英語動詞選択ルールの学習手法としては,既に,翻訳事例のみから獲得する手法が知られている.この従来の翻訳事例のみから獲得する手法では,ルールの正解率を向上させるために,多数の事例を必要とする.しかし,現実には,動詞出現頻度の偏りにより,全動詞に十分な翻訳事例を収集する事は極めて困難である.そこで,本論文では,人手作成のルールと収集された少数の翻訳事例から,英語動詞選択ルールを獲得する修正型の学習手法を提案する.具体的には,本手法は,(1)人手作成のルールから仮の事例(仮事例)を生成し,(2)その仮事例と現実の事例を訓練事例として,既存の学習アルゴリズム(内部学習アルゴリズム)に入力する,の2ステップから構成される.内部学習アルゴリズムの出力が,最終的に獲得されたルールである.評価を目的として,NTTが開発中の日英機械翻訳システムALT-J/Eの英語動詞選択ルールを本手法により実験的に学習した.その結果,学習されたルールは,実事例のみから学習されたルールや人手作成のルールより高い正解率を示し,本提案手法の有効性を確認できた. | |
V29N02-12 | %ニューラル文法誤り訂正では,データ拡張によって学習データの不足を補う手法が活発に研究されている.本研究では,既存のデータ拡張手法が,より良いデータ拡張を行い性能向上を目指す上で重要な要素として,(1)~誤りの多様性が訂正性能に寄与すること,(2)~特定の種類の誤り生成がその種類の誤り訂正性能に寄与すること,(3)~データ拡張に用いるコーパスの大きさが訂正性能に寄与することの3点が仮定されている.本研究では,これらの仮定の妥当性を検証するため,多様な文法カテゴリでの誤り生成規則を組み合わせる手法を提案し,生成する誤りの種類を変えて誤り訂正モデルを学習することで,比較検証を行う.結果として,仮定(1)(2)は正しいが,一方で,仮定(3)においては,コーパスの規模ではなく,パラメータの更新回数と誤りの生成回数が影響することが明らかになった.さらに,提案手法は,学習者コーパスを用いない教師なし設定でも高い性能のモデルを学習でき,学習者コーパスを用いた場合でも,既存の手法と同程度に高性能なモデルを学習できることが明らかになった.折り返し翻訳・逆翻訳によるデータ拡張手法との比較を通じて,また,ルールによる誤り生成とこれらの手法を用いたモデルでは,訂正において得意な誤り種類が異なることが判明した. | |
V05N04-06 | 日本語文書を点字に翻訳する問題をとりあげ,分かち書きのための規則を分類,整理して知識ベース化し,システムが判断し難い箇所のみを選択的にユーザに提示する対話型の分かち書き支援システムを提案する.このシステムでは文法情報を含む大規模な辞書の代わりに見出し語のみからなる小規模なテーブルを用いることにより,辞書構築の手間を削減した.従来より日本語を点字に翻訳するシステムは過去にいくつか提案され市販されているが,処理は一括して行われ,ユーザの介入する余地はない.システムが誤って翻訳した箇所については点字翻訳ボランティアが全文を見直す必要があり,実際には利用し難いのが現状である.ここでは分かち書きの規則を知識ベース化してアルゴリズムから独立させ,システムとユーザが協調することによって,日本語点字翻訳のための分かち書きを対話的に行うシステムについて述べる.本システムで情報処理関連のテキストを処理し,その有効性を確認した. | |
V31N04-10 | 本論文では,文書内に出現する地名やランドマーク等の地理的位置属性をもつ言及に対し,その地理的位置の特定のしやすさを表す指標として地理的特定性指標を提案し,文書ジオロケーション課題への有効性を検証する.まず,地理的特定性を構成する要素として,地理的曖昧性および名称専有性の2つの概念を定義した後,既存のエンティティリンキング手法から着想を得た,Wikipediaデータに基づく指標値の算出方法について述べる.その後,既存の文書ジオロケーション手法に地理的特定性の指標値情報を取り込んだ文書ジオロケーション実験を実施した.実験の結果,地理的特定性の構成要素である地理的曖昧性および名称専有性のそれぞれが文書ジオロケーション課題において有効であること,また,これら両方を組み合わせて利用することも有効であることを確認した. | |
V12N05-03 | 日本語は,各品詞にわたって待遇表現が発達している.中でも動詞に関する待遇表現は多岐にわたるが,待遇表現:「接頭辞オ+本動詞+補助動詞(オ〜型表現)」,および「接頭辞ゴ+本動詞+補助動詞(ゴ〜型表現)」は,日本語の動詞待遇表現における主要な表現である.両表現の違いについては,オに続く本動詞が和語であり,ゴに続く本動詞が漢語であるということが,従来の言語学的研究で指摘されてきた.しかし,両表現の言語心理的な違いを定量的に調べた研究は,これまで殆どなかった.\\今回,我々は,Scheffeの一対比較法を用いてオ〜型表現,およびゴ〜型表現に対して人々が感じる丁寧さの程度を数値化した上で,統計的検定を行って丁寧さの印象に関する両表現の違いを定量的に分析した.その結果,ゴ〜型表現はオ〜型表現に比べ,通常表現を待遇表現に変化させた場合に,通常表現からの丁寧さの変化量がより小さいことが分かった.そして,その原因として,待遇表現としての認識に関する両表現の違いが示唆された. | |
V08N02-01 | 本論文では決定リストを弱学習器としたアダブーストによる日本語単語分割法を提案する.日本語単語分割は,入力文の各文字の間に単語区切りを置くか置かないかの問題とみなすことで,分類問題として定式化できる.この分類問題を決定リストを利用して解くことで単語分割が行える.ここでは決定リストで利用する属性に辞書情報を含めない.そのためここでの単語分割は未知語の問題を受けないという長所がある.更に単語分割を分類問題として解く場合,近年研究の盛んなアダブーストの手法を適用できる.アダブーストを用いることで,決定リストの精度を高めることができる.実験では,京大コーパス(約4万文)を利用して決定リストを作成した.この決定リストによる単語分割の正解率は97.52\%であった.この値は、同じ訓練データから構築したtri-gramモデルに基づく単語分割法での正解率92.76\%を大きく上回った.またアダブーストを利用することで精度が98.49\%にまで向上させることができた.また作成した単語分割システムは未知語の検出能力が高いことも確認できた. | |
V03N01-02 | 複合名詞は名詞を結合することによって数限りなく生成できるので,全てを辞書に登録することは不可能である.したがって,辞書に登録されている名詞の組み合わせとして複合名詞を解析する手法が必要である.そのためには,複合名詞をそれを構成している名詞に分割し,名詞間の係り受け構造を同定しなくてはならない.これらの処理は統語的な手係りが少ないために難しく,何らかの意味的な情報が必要である.しかし,大規模な意味的情報を人手で構築し保守することはコストが大きいため,計算機によって自動的に知識を獲得することが望ましい。本論文では,コーパスから自動的に抽出した名詞間の意味的共起情報を用いて複合名詞の構造を解析する方法を提案する.この方法では,共起情報を統計的に処理して名詞間の意味的関係の強さを評価し,係り受け関係の曖昧性解消に利用する.まず,4文字漢字語16万語から意味クラスの共起データを抽出した.抽出した共起データから統計的に名詞間の意味的関係の強さを計算する.そのための尺度として相互情報量を基にした評価尺度を提案する.この尺度と複合名詞の構造に関するヒューリスティクス,機械可読辞書から得られる言語知識を用いて複合名詞を解析する.評価のために新聞や用語集から抽出した漢字複合名詞を解析し,平均語長5.5文字の漢字複合名詞を約78\%の精度で解析できた. | |
V26N04-03 | ニューラル機械翻訳は従来手法の句に基づく統計的機械翻訳に比べて,文法的に流暢な翻訳を出力できる.しかし訳抜けや過剰翻訳などの問題が指摘されており,翻訳精度に改善の余地がある.このような問題に対して従来の句に基づく統計的機械翻訳では,対訳辞書を用いてデコーダ制約を実装することにより翻訳精度を改善していたが,ニューラル機械翻訳では対訳辞書を有効活用するアプローチが明らかではない.本稿では対訳辞書を単語報酬モデルによりニューラル機械翻訳に適用する手法を提案する.提案手法は,テスト時のデコーディングの際に対訳辞書に存在する単語に報酬を与えることでそれらの出現確率を高め,翻訳精度の向上を図る.提案手法は辞書をニューラル機械翻訳モデルとは独立して適用するため,辞書の更新や変更を簡単に行える利点がある.また指定された語彙を出力するよう制約を加える方法より少ない計算量で翻訳精度を改善できる.さらにアテンションを利用して対訳辞書を活用する手法と組み合わせると性能を改善できることを実験的に示した. | |
V07N04-02 | 韓国語の言語処理,特に韓国語を原言語もしくは目的言語とする機械翻訳における,韓国語の言語体系と形態素処理手法を提案する.本論文の韓国語体系の特徴は,機械処理を考慮した体系であるという点にある.すなわち,形態素解析の解析精度や機械翻訳における品詞設定の必要性に応じて,韓国語各品詞に対して仕様の検討を行ない,設計を行なった.また分かち書きや音韻縮約といった韓国語の特徴をどのように機械処理すべきかについても述べる.韓国語形態素解析では,品詞と単語の混合n-gramによる統計的手法を基本としながら,韓国語固有の問題に対しては残留文字などの概念を導入するなどして独自の対応を施した.以上の品詞体系と形態素解析エンジンによって,単語再現率99.1\%,単語適合率98.9\%,文正解率92.6\%という良好な解析精度が得られた.また韓国語生成処理では,特に分かち書き処理についてどのような規則を作成したのかについて提案を行なう.以上の形態素体系と処理の有効性は,機械翻訳システムTDMTの日韓翻訳,韓日翻訳部に導入した際の翻訳精度という形で文献\cite{古瀬99}において報告されている. | |
V21N03-02 | 近年,計算機技術の進歩に伴って大規模言語データの蓄積と処理が容易となり,音声言語コーパスの構築と実用化の研究が盛んに行われている.我々は,speakingstyleに関心を持つ利用者に音声言語コーパスを探しやすくさせるために,音声言語コーパスのspeakingstyleの自動推定を目指している.本研究では,1993年にEskenaziが提唱したspeakingstyleの3尺度を導入し,従来の文体・ジャンルの判別や著者推定などの自然言語処理の分野で用いられた言語の形態論的特徴を手がかりとし,音声に付随する書き起こしテキスト(本論文では転記テキストと呼ぶ)に着目したspeakingstyle推定モデルの構築を試みた.具体的な手続きとしては,はじめに様々な音声言語コーパスから音声に付随する転記テキストを無作為に抽出する.次にこれらの転記テキストを刺激として用い,3尺度のspeakingstyleの評定実験を行う.そして,評定結果を目的変数,転記テキストの品詞・語種率と形態素パタンを説明変数とし,重回帰分析により3尺度それぞれの回帰モデルを求める.交差検定を行った結果,本研究の提案手法によって3尺度の内2尺度のspeakingstyle評定値を高い精度で推定できることを確認した. | |
V05N02-04 | 本論文では,形態素クラスタリングと未知語モデルの改良による確率的形態素解析器の精度向上を提案する.形態素クラスタリングとしては,形態素$n$-gramモデルをクロスエントロピーを基準としてクラス$n$-gramモデルに改良する方法を提案する.未知語モデルの改良としては,確率モデルの枠組の中で学習コーパス以外の辞書などで与えられる形態素を追加する方法を提案する.bi-gramモデルを実装しEDRコーパスを用いて実験を行なった結果,形態素解析の精度の向上が観測された.両方の改良を行なったモデルによる形態素解析実験の結果の精度は,先行研究として報告されている品詞tri-gramモデルの精度を上回った.これは,我々のモデルが形態素解析の精度という点で優れていることを示す結果である.これらの実験に加えて,品詞体系と品詞間の接続表を文法の専門家が作成した形態素解析器との精度比較の実験を行なった.この結果,確率的形態素解析器の誤りは文法の専門家による形態素解析器の誤りに対して有意に少なかった.形態素解析における確率的な手法は,このような人間の言語直感に基づく形態素解析器と比較して,現時点で精度がより高いという長所に加えて,今後のさらなる改良にも組織的取り組みが可能であるという点で有利である. | |
V09N05-02 | 本稿では,機械翻訳知識の自動獲得を目的とした,2言語の対訳文の階層的句アライメントについて提案する.従来提案されてきた句アライメント方法は,いずれも構文解析結果を取得したのちに,部分木同士の対応をとるものであった.本稿で提案する方式は,構文解析器が持つ部分解析結果を句対応スコアと呼ぶ構造類似性評価尺度で評価し,前向きDP後ろ向きA*アルゴリズムを用いて最適な組み合わせを探索する.この方式を用いることにより,実験では従来手法に比べ2倍の同等句を得ることができ,そのときの精度の低下はほとんどないことが観察された.\\\indentまた,本提案方式は単語アライメントを用いる.この単語レベルの対応は,内容語のみでなく,機能語間対応を含めた方が句アライメント精度が向上する.その一般形として,本方式に適合した単語アライメントは,再現率重視のものが望ましいことを併せて示す. | |
V04N02-01 | 日本語における2文節間の係り受け頻度は,\その距離に依存することが知られている.\すなわち,\文中の文節はその直後の文節に係ることが最も多く,\文末の文節に係る場合を除いては,\距離が離れるにしたがってその頻度が減少する.\この統計的性質は,\日本語文の係り受け解析においてしばしば用いられるヒューリスティクス:「文中の文節は係り得る文節の中で最も近いものに係る」の根拠となっている.\しかし,\このヒューリスティクスは,\日本語に見られるこのような統計的性質の一部しか利用していない.\したがって,\係り受け距離の頻度分布をもっと有効に利用することにより,\解析性能が向上する可能性がある.\本研究では,\ATR503文コーパスから抽出した係り受け距離の頻度分布に基づいて2文節間の係り受けペナルティ関数を定義し,\「総ペナルティ最小化法」を用いて係り受け解析実験を行なった.\その結果を,\上のヒューリスティクスに基づく決定論的解析法による解析結果と比較したところ,\かなりの解析性能向上が認められた.\また,\係り文節を分類し,\その種類別に抽出した係り受け頻度の情報を用いることにより,\さらに解析性能を改善できることが明らかになった. | |
V15N03-02 | 文間の接続関係を同定することは談話解析や複数文書要約,質問応答など多くの分野において重要である.本論文では連続する2文に対して文間の接続関係を同定する手法を提案する.提案手法は,入力文から抽出した構文情報や単語情報を用いて,大量のテキストデータの中から入力の連続2文に最も近い2文を検索し,この接続関係によって入力文の文間接続関係を推定する用例利用型(example-based)の手法によって行う.手法は,クラスタリングによって同じ接続関係を持ちやすい単語のクラスタを生成する.この結果生成された単語クラスタを用いて単語の汎化を行い,必ずしも同じ単語が使われていなくとも接続関係の観点から類似した用例をテキスト中から探す.最後に,この用例の接続関係をもって入力文の接続関係とする.以上の手法によって入力文の文体や語の難易度によらない汎用的な同定手法を実現することが可能となった.評価実験では人手による評価で75{\%}の正解率が得られ,提案手法の有効性を確認した. | |
V02N04-02 | 本論文では,テイル,テアル,テシマウ,テオク,テミルといったアスペクト辞のマニュアル文における意味を検討する.これらのアスペクト辞は,時間的なアスペクトを表す他に,書き手の態度などのいわゆるモダリティをも表現することがあるので,モダリティについての解釈から,アスペクト辞の隣接する動詞句の主語に関する制約を明らかにする.さらに,実際にマニュアル文から例文を集め,提案する制約の正当性を検証する.このような制約は,省略された主語などの推定に役立ち,マニュアル文からの知識抽出や機械翻訳に応用できる. | |
V17N04-04 | FrameNet,PropBankといった意味タグ付きコーパスの出現とともに,機械学習の枠組みを利用した自動意味役割付与システムが数多く研究されてきた.しかし,これらのコーパスは個々のフレームに固有の意味役割を定義するため,コーパス中に低頻度,或いは未出現の意味役割が数多く存在し,効率的な学習を妨げている.本論文は,意味役割付与における意味役割の汎化問題を取り上げ,既存の汎化指標と新たに提案する指標を役割の分類精度を通して比較し,それぞれの特徴を探求する.また,複数の汎化指標を同時に利用する分類モデルが自動意味役割付与の精度を向上させることを示す.実験では,FrameNetにおいて全体の精度で$19.16\%$のエラー削減,F1マクロ平均で$7.42\%$の向上を,PropBankにおいて全体の精度で$24.07\%$のエラー削減,未知動詞に対するテストで$26.39\%$のエラー削減を達成した. | |
V07N02-05 | 本稿では,換喩を統計的に解釈する方法を述べた.換喩とは,喩える言葉(喩詞)と喩えられる言葉(被喩詞)との連想に基づいた比喩である.たとえば,「漱石を読む」という換喩は,「漱石の小説を読む」というように解釈できる.この場合,喩詞である「漱石」と被喩詞である「(漱石の)小説」との間には,「作者-作品」という連想関係が成立する.本稿では,以下の方針で換喩を解釈することを試みた.\begin{enumerate}\item「名詞$A$,格助詞$R$,述語$V$」というタイプの換喩が与えられたとき,与えられた喩詞$A$から連想される名詞群を求めるためにコーパスを利用する.\item連想された名詞群のなかから,与えられた視点($R$,$V$)に適合するような名詞を被喩詞として統計的に選択する.\end{enumerate}その結果,コーパスが連想名詞の供給源として有効なことが例証され,かつ,提案手法を用いることにより,喩詞から連想された名詞群の中から,換喩の視点に適合する名詞を被喩詞として選択できることが分かった.また,提案手法による換喩解析の正解率は,厳しい評価を適用した場合には0.47であり,緩い評価を適用した場合には0.65であった.これらは提案手法が換喩の解析に有効であることを示している. | |
V07N04-01 | 本稿の目的は自然言語の時間の相-アスペクト-に対し,個別の言語から独立した論理的意味を与えることである.近年のアスペクトの意味論では,アスペクトは共通のイベント構造に対してその異なる部位にレファランスを与えるものであると説明される.本稿でもまずこの理論を概観するが,その際アスペクトの形式化において常に問題となる用語および概念の混乱を,本稿で扱う範囲で整理・統合する.次に従来的な点と区間の論理に代わってアロー論理を導入し,アローを両端が固定されない向きをともなった時間区間であるとしてアスペクトの解析に適用する.アローを含む動的論理はそれ自身既にアローとその端点の関係が含まれる上に,論理の側で順序や包含の関係が表現できるために,従来的な述語論理によるアスペクトの形式化に比べてはるかに簡潔な表現が可能である.さらにアローと時点の関係をつけることで,時間的に束縛されていない事象の原型がアスペクトを伴う表現にシフトされる過程を動的な推論規則として説明できる. | |
V22N01-01 | 本稿では,日本語を対象とした対話用述語項構造解析を提案する.従来,述語項構造解析は,主に新聞記事を対象に研究されてきた.新聞と対話ではさまざまな違いが存在するが,本稿ではこれを包括的に扱うため,対話用述語項構造解析器の構築を,新聞から対話への一種のドメイン適応とみなす.具体的には,対話では省略や代名詞化が新聞記事に比べて頻繁に現れるため,ゼロ代名詞照応機能付きの述語項構造解析をベースとし,これを対話に適応させる.パラメータ適応と,訓練コーパスがカバーしきれない語彙知識を大規模平文コーパスから自動獲得することにより,新聞記事用のものに比べ,対話に対して高精度な述語項構造解析を実現した. | |
V15N04-01 | 本研究の目的は,歴史資料(史料)を対象に歴史知識の構造化の基盤となる「歴史オントロジー」を構築するシステムを開発し,広く提供することによって歴史学の発展に寄与することにある.この目標を具体的に検証するために,昭和15年に時の帝国学士院において始められた明治前日本科学史の編纂成果である『明治前日本科学史』(刊本全28巻)の全文を日本学士院の許諾の下に電子化し,明治前の日本の科学技術を創成してきた科学技術者に関する属性および業績の情報を抽出することにより,前近代日本の人物情報データベースの構築を試みる.人物の属性として人名とそれに対する役職名と地名を,人物の業績として人名とそれに対する書名を,いずれもパターンマッチングなどのルールベースの手法によって抽出する.『明治前日本科学史総説・年表』を対象とした性能評価を行った結果,人名,人名とその役職名,および人名とその地名について,F値で0.8を超える結果が得られた. | |
V15N02-05 | ある入力文書が多くの人にとってどの程度興味や関心を持つかを算出する指標を提案する.各個人の興味や関心は多種多様であり,これを把握することで情報のフィルタリング等を行う研究は知られているが,本研究では不特定多数すなわち大衆が全体でどの程度の興味を持つかについて検討を行った.このような技術は,不特定多数に対して閲覧されることを想定しているWebサイトにおける提示文書の選択や表示順の変更など,非常に重要な応用分野を持っている.我々は大衆の興味が反映されている情報源として順位付き文書を使用した.本手法ではこれを学習データとして利用して,文書に含まれる語句及び文書自体に興味の強弱を値として付与する手法を構築した.興味を値として扱うことで,興味の強弱を興味がある・ないの2値ではなく興味の程度を知ることや興味発生の要因分析を行うことが可能である.提案手法は,文書に含まれる語句を興味判別する素性として扱い,内容語,複合名詞,内容語及び複合名詞の組み合わせの3種類について比較,議論した.評価は,ニュース記事のランキングを対象にして,実際の順位とシステムの順位を比較した.その結果,順位相関に基づいた評価値は0.867であり,手法の有効性を確認した.さらに,ほぼ興味を持たれない記事に対して抽出精度0.90を超える精度で弁別できることを実験で確認した. | |
V21N05-03 | 本稿では,機械翻訳の単語並べ替え問題にシフトリデュース構文解析法を応用するための手法を提案する.提案手法では,単一言語のInversionTransduction文法によって単語並べ替え問題を定式化する.また,日本語文と英語文との単語対応をとりやすくするため,あらかじめ除去した英冠詞を翻訳結果へ挿入する問題も単語並べ替えと同時に定式化する.提案法を日英特許翻訳に適用したところ,句に基づく統計的機械翻訳のBLEUスコア29.99に対して,$+3.15$の改善が得られた. | |
V03N03-05 | 機械翻訳システムの開発者がシステムの技術的評価を翻訳品質に注目して客観的に行う手法を開発した。評価過程の客観性と評価結果の解釈の客観性を維持するために、本手法では単なる評価用例文集ではなく、システムの出力を評価するための設問と、その設問がどのような言語現象を対象としているかについての解説とを各例文に付与したテストセットを用いている。各例文は基本的な言語現象と現在の機械翻訳システムにおいて処理が困難である言語現象のそれぞれを出来る限り網羅するように収集された。今回、英日機械翻訳システム、日英機械翻訳システムのそれぞれについての評価用テストセットを作成した。これらを用いて商用の機械翻訳システムでの評価実験を繰り返すことにより、機械翻訳システムの能力の差異を提示できることが示された。 | |
V22N02-01 | 近年,医療文書の電子化が進み,大規模化する医療データから有用な情報を抽出・活用する技術が重要となっている.特に,診療記録中の症状名や診断名などの用語を自動抽出する技術は,症例検索などを実現する上で必要不可欠である.機械学習に基づく用語抽出では,辞書などの語彙資源の利用が訓練データに含まれない用語の認識に有効である.しかし,診療記録では多様な構成語彙の組合せからなる複合語が使用されるため,単純なマッチングに基づく辞書の利用では検出できない用語が存在し,語彙資源利用の効果は限定的となる.そこで,本稿では,語彙資源を有効活用した用語抽出を提案する.資源活用の1点目として,資源中の用語に対して語彙制限を行うことで,用語抽出に真に有用な語彙の獲得を行う.2点目として,資源から複合語の構成語彙である修飾語を獲得し,元の語彙に加えて獲得した修飾語を活用することで,テキスト中のより多くの用語を検出する拡張マッチングを行う.検出された用語の情報は機械学習の素性として用いる.NTCIR-10MedNLPテストコレクションを用いた抽出実験の結果,単純な語彙資源の利用時と比較して適合率および再現率の向上を実現し,本手法の有効性を確認した.また,肯定・否定などのモダリティ属性の分類を含めた抽出では,従来手法に対して,本手法が最も高い精度を実現した. | |
V28N01-03 | %雑談対話システムの評価指標として,ユーザとの対話を継続させる働きを表す,対話継続性が挙げられる.対話モデルの先行研究において,対話継続性の向上には,システム発話の一貫性が重要であると考えられている.そこで本論文では,対話モデルより生成された応答候補を,対話中に含まれる事態の一貫性に基づいてリランキングする手法を提案する.提案手法は対話に含まれる事態の一貫性(「ストレスが溜まる」と「発散する」は関連した事態である,など)を考慮することで,選択される応答の一貫性,対話継続性の向上を図る.本研究では異なる2つの手法を考案した.一つ目の手法は統計的に獲得された因果関係ペアとのマッチングにより,対話中の事態の一貫性を考慮し,二つ目の手法はCoherenceModelによって,対話の一貫性を考慮する.自動評価の結果,これらの手法では応答中の単語選択の観点では一貫性は向上していることが確認された.一方で,人手評価の結果では,応答の主観的な一貫性は明確に向上しないものの,一つ目の方法により対話継続性が向上するという,一見して矛盾する結果が確認された.この結果より一貫性と対話継続性の関係について,人手評価結果の相関分析,事例分析を行った.これらの分析結果より,人手評価において主観的な一貫性の向上は対話継続性の向上にあまり寄与しないことが確認された.また,対話履歴に対して一貫する事態を選択できている場合には対話継続性が向上することが示唆された. | |
V14N03-10 | 映画や書籍などの作品検索への応用を目的として,作品レビューテキスト中の感情表現の構成要素を分析した.まずWeb上の作品レビュー82件1,528文中の653組の主観表現を人手で分析し,「態度」「主体」「対象」「理由」という4つの構成要素と,その各々の下位要素を定義した.653組の主観表現中,「態度」が感情を表している感情は257組あった.次に感情表現の各構成要素の内容や働きを分析し,構成要素間の結びつきや,「主体」や「対象」が省略されるパタン,省略されない特殊なパタンなどを明らかにした.「理由」は,感情が生起した根拠や理由を述べている部分をさし,257組中66件(25.7{\kern0pt}%)に出現した.本稿では,利用者の作品選択に,より具体的な情報を提供しうる可能性がある要素として「理由」に着目し,さらに分析を進めることとした.次に,異なる文書タイプにおける「理由」の出現のしかたや分析の手がかりを調べるために,Web上の作品レビュー,オンラインショッピング内のブックレビュー,新聞記事からサンプルを選び,「理由」に着目した追加分析を行った.最後に,作品検索システム利用者の鑑賞作品選択における「理由」のあるレビューの重要性を確認するため,3つの映画それぞれ10件ずつ計30件の作品レビューを用いて,8名ずつ2グループの計16名に対し被験者実験とフォーカスグループインタビューを行った.この結果,作品レビューの読み手が第三者の書いたテキストを参考にする際,「理由」の有無がその内容を理解し,鑑賞する作品を選択するのに参考になるかどうかの判断に大きく寄与していることがわかった.作品検索では,「理由」の有無や内容をレビューの重要性の順位付け等に応用することなどが考えられる. | |
V13N03-08 | 日本手話をテキストとして表現するための表記法を提案する.本表記法の検討に至った直接の動機は,日本語-日本手話機械翻訳を,音声言語間の機械翻訳と同様,日本語テキストから手話テキストへの翻訳(言語的な変換)と,翻訳結果の動作への変換(音声言語におけるテキスト音声合成と同様に手話動画の合成)とに分割し,翻訳の問題から動作合成の問題を切り離すことにある.この翻訳過程のモジュール化により,問題が過度に複雑化するのを防ぐことをねらいとする.同時に,手話を書き取り,保存・伝達する手段としての利用も念頭に置いている.本表記法で記述される手話文は,手話単語,および,複合語等の単語の合成,句読点,非手指要素による文法標識で構成される.手話単語は,単語名とそれに付加する語形変化パラメータ(方向や位置,その他の手話動作によって付加される語彙的,文法的情報を表す)で表す.我々の表記法は,基本的に手話の動作そのものを詳細に記述するのではなく,動作によって表される意味内容を記述することをめざした.ただし,機械翻訳を念頭に置いているため,動作への変換のための便宜にも若干の考慮を払った.本表記法の記述力を検証するため,手話を第一言語とする手話話者による手話映像720文を解析し,この表記法での記述を試みた.全体で671文を記述することができた.十分表記できないと判断した49文(51表現)を分析し,問題点について考察した. | |
V07N04-13 | 本稿では,重要文抽出によるテキスト自動要約のための各種重要度を比較した.特に,タイトルとの類似度の高い文から抽出するという要約方法を想定し,各種の類似度を比較した.類似度としては,共起関係を利用する方法と利用しない方法とを試みた.その結果,共起関係を利用する方法の方が高精度な要約が作成できた.また,要約の手法としては,他に,本文の先頭数文を抽出する方法と,単語の重要度の総和を文の重要度とする方法も試みたが,これらの方法よりも,タイトルとの類似度に基づく方法の方が高精度であった.これらの結果は,共起関係を利用した類似度が自動要約に有効であることを示している. | |
V06N07-04 | 日本語ニュースを局所的要約する際に必要となる要約知識を,コーパスから自動獲得する手法について述べる.局所的要約とは注目個所の近傍の情報(局所的情報)を用いて行なう要約をいう.局所的情報には注目個所そのものやその前後の単語列などがある.本手法では要約知識として置換規則と置換条件を用い,これらを原文−要約文コーパスから自動獲得する.はじめに原文中の単語と要約文中の単語のすべての組み合わせに対して単語間の距離を計算し,DPマッチングによって最適な単語対応を求める.その結果より,置換規則は単語対応上で不一致となる単語列として獲得する.一方,置換条件は置換規則の前後nグラムの単語列として獲得する.原文と要約文にそれぞれNHKニュース原稿とNHK文字放送の原稿を使って実際に要約知識を自動獲得し,得られた要約知識を評価する実験を行った.その結果,妥当な要約知識が獲得できることを確認した. | |
V08N01-08 | 音声翻訳を介した対話をより自然なものにするためには,原言語を解析するだけでは取得困難な『言語外情報』を利用することが有効である.例えば,『対話者の社会的役割』を使用した翻訳は対話をより自然にする.本論文では,特にこの『対話者の社会的役割』に着目し,この役割情報を利用して,適切な丁寧度の翻訳にする手法を提案する.既存の変換ルールや辞書にこの役割情報に応じた修正を加えることによって訳を変える.実際に英日翻訳における変換ルールや辞書に『対話者の社会的役割』に応じたルールやエントリーを登録し,その際に参照していない未訓練の23会話(344発声)を使って実験をした.その結果,丁寧表現にすべき発声に対して,再現率が65\%,適合率が86\%であった.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性も高い.さらに,対話者の性別情報など他の言語外情報や英日以外の言語対に対する本手法の適用可能性についても考察する. | |
V15N03-01 | 今日,大学は産学連携の一層の活性化が求められており,これを可能にするためには大学側のシーズを簡単に検索できるシステムが望まれる.そこで著者らは,産学連携の専門家が研究のシーズを専門用語によって簡単に検索することができるシステムの構築を狙いとし,その第一段階として専門用語抽出の研究を行っている.本研究ではこれまで研究されていない看護学分野を対象分野とした.予備研究によって,病気の症状や治療法を表す専門用語が情報検索分野における代表的な専門用語の抽出方法では抽出が難しいことが判明した.そこで,専門用語になりうる品詞の組合せの拡張と一般的な語を除去することで専門用語抽出の性能改善を図った.その結果,品詞の組合せを拡張することで再現率は83{\%}から99{\%}と専門用語をほぼもれなく抽出可能となった.更に,単語親密度に関する研究成果を活用することで適合率は42{\%}から55{\%}となり大幅に向上した. | |
V14N05-05 | 日本語には,「にたいして」や「なければならない」に代表されるような,複数の形態素からなっているが,全体として1つの機能語のように働く複合辞が多く存在する.われわれは,機能語と複合辞を合わせて機能表現と呼ぶ.本論文では,自然言語処理のための日本語機能表現辞書について提案する.日本語の機能表現が持つ主な特徴の1つは,個々の機能表現に対して,多くの異形が存在することである.計算機が利用することを想定した辞書を編纂する場合,これらの異形を適切に扱う必要がある.われわれが提案する辞書は,機能表現の異形を体系的に整理するために,見出し体系として,9つの階層からなる階層構造を用いる.現在,この辞書には,341の見出し語と16,771の出現形が収録されており,既存の機能表現リストと比較した結果,各々の見出し語に対して,ほぼすべての異形が網羅されていることが確かめられた. |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.