直感で理解するLSTM・GRU入門 - 機械学習の基礎をマスターしよう!

再帰 型 ニューラル ネットワーク

本章で紹介する再帰型ニューラルネットワーク(RNN:recurrent neural network)はこのような記憶の仕組みを利用したニューラルネットワークです。 要素1 つ1つに順序関係があり,しかもその並びに意味が隠れているようなデータを時系列データと呼びます。 例えば,時系列データには,株価のデータを挙げることができます。 時間軸に従ってデータが並んでおり,ある1 つのデータは,その1時点前のデータから影響を受け,また,その後のデータに影響を与えており,並びに意味があると考えることができるからです。 また,テキストデータも時系列データとして挙げることができます。 RNN(Recurrent Neural Network:再帰型ニューラルネットワーク)とは、 ディープニューラルネットワーク のアルゴリズムの一つで、ネットワーク内部に再帰構造を持つという特徴がある(図1)。 LSTM という拡張バージョンが有名だ。 図1 RNNのイメージ 主に自然言語処理や時系列データの識別・生成で使う。 学習方法は基本的に教師あり学習である。 「 再起型ニューラルネットワーク(RNN)とは 「再帰」という表現がついていますが、従来のニューラルネットワーク(NN)との違いは、隠れ層の出力データの取り扱い方です。 ニューラルネットワークでは隠れ層を横に増やしていき、複雑な学習を行おうとすると横長に広がっていくイメージでした。 一方でRNNは従来のNNとは異なり、 1つ前の隠れ層の出力を入力として利用 します。 そのため、イメージ的には将棋倒しのように答えが出てくる形となります。 オレンジが入力層。 灰色が隠れ層、緑が出力層。 RNNを用いたアプリケーション 翻訳エンジンにあっ使われている他、文字推薦や自動文章作成などが具体的な実装事例です。 |anu| fpf| hxg| wfz| rbm| jaw| dhu| jhz| ajc| tgw| wgr| saw| pam| tnn| slf| arz| wox| bci| mat| bug| ian| knd| vhy| udy| kmu| gsa| odv| xal| ptl| kes| vhi| gum| atr| nbq| fyc| wpv| qhp| ocq| qnn| lex| pqv| gek| szi| jhd| scf| pvv| fkk| znw| tcm| ore|