Word2vec

Word2vecはGoogle社のTomas Mikolovら[7]によって提案されたニューラルネットワーク(Skip-gram)の手法である.Skip-gramは,文脈を利用して与えられた単語と与えられた単語の周辺 に出現する単語を予測できるように,単語ベクトルの学習を行うモデルである.意味的に関連が強い単語はベクトルが近くなる.例えば,「国語」,「数学」,「理科」,「社会」,「英語」は日本の中学校で学ぶ主要な5教科で似た単語としてベクトルが近くなる.単語をベクトル変換することで,人手で入力した単語と近いベクトルの単語(類似した単語)を取得することができる.