低頻度語処理の手法として,Copyable Model[2]と低頻度語の高頻度語への置き換え[3]がある. Copyable Modelは,入力(発話)と出力(応答)の単語に対応関係のない対話モデルではヌルトークンが 多く出現する. また,低頻度語の高頻度語への置き換えを行う手法もあるが,事前準備として単語の置き換え辞書を作成する必要がある.
本研究では,CopyableModel処理に加え, CopyableModelで処理できずに残ったヌルトークンを少数のグループへ分割することにより, 応答の精度と多様性の向上を試みる.分割するためのラベルとして品詞情報を用いた.
また,評価のしやすさの向上のために過去の発話を用いた学習を行う. 過去の発話を用いた学習では,発話の直前の対話(過去の発話)を学習データとして追加することで, 評価の際に評価者が文脈を知ることができるようにし評価をより厳密にすることを試みる. 評価時だけでなく学習データに過去の発話を追加する理由は, 偶然の出力ではなく文脈を学習した出力の評価を行うためである.
本研究では入力側(原言語)のみ低頻度語処理を行う. 通常、低頻度語処理は入力,出力ともに行う. 学習時間の削減のために必要なのは出力側(目的言語)であるが, 出力側に低頻度語処理を行うと,出力に未知語が含まれるようになるため評価が困難になる. そのため本研究では学習時間を考えず入力の低頻度語処理のみを行う.
本研究の主な主張点を以下に整理する.
本論文の構成は以下の通りである. 第2章では,ニューラルネットワークについて述べる. 第3章では,類似研究の手法について述べる. 第4章では,本研究の手法について述べる. 第5章では,実験環境について述べる. 第6章では,実験結果を述べる. 第7章では,本実験の考察を述べる. 第8章では,本実験の簡単なまとめを述べる.