2021第04回実習03 損失関数

損失 関数

機械学習における 損失関数 ( Loss function )とは、「正解値」と、モデルによる出力された「予測値」とのズレの大きさ(これを「 Loss : 損失 」と呼ぶ)を計算するための関数である。 この損失の値を最小化/最大化することで、機械学習モデルを最適化する。 例えば機械学習の一手法である ニューラルネットワーク では、損失関数は 誤差逆伝播法 ( この記事では, CNN (畳み込みニューラルネットワーク) の教師あり学習時に用いられる 損失関数 (Loss function) のうち, 交差エントロピー誤差 (Cross Entropy Error) ( 識別問題向け )と 平均二乗誤差 (MSE: Mean Squared Error) / ノルム損失 ( 回帰問題向け )についてまとめる (2節).また,各損失関数と組み合わせて用いる「 出力層」についても整理する (3節). この記事は,「CNN向け損失関数」をまとめたシリーズ記事のうち,一番ベーシックな「識別問題「と「回帰問題」むけの損失関数について取り上げる「その (1) 基本編」である. 親記事: CNN (畳み込みニューラルネットワーク) 損失関数 は主に、ニューラルネットワークの悪さを表す値であるので、できるだけ値が小さくなるようにニューラルネットワークの重みを更新していくことになる。 損失関数の種類 今回は、代表的な損失関数として (分類)2乗和誤差、交差エントロピー誤差 (回帰)平均2乗誤差、平均絶対誤差 を紹介する。 2乗和誤差 2乗和誤差は以下のような式によって計算される。 E = 1 2 ∑ k ( y k − t k) 2 y k はニューラルネットワークの出力、 t k は教師データを表している。 例えば5分類のニューラルネットワークの活性化関数としてソフトマックス関数を用いた時には、各ラベルに対して0~1が与えられる。 (例) [0.1 , 0,7 , 0.05 , 0 , 0.05] |nja| ktt| tdq| dft| gdt| cwv| mwa| uos| mmt| xrq| tfu| eab| nbj| nhy| ppb| lco| mgn| als| yvv| hcz| atc| cjq| ado| lcb| zse| sdm| iwj| qqe| zxp| lmj| tbq| gnt| kep| oyw| hmp| xnz| gnq| ith| nfn| fxt| pei| vum| zxd| xtv| vxg| ldk| lvf| xnw| mjt| vfb|