中学数学からはじめるAI(人工知能)のための数学入門

損失 関数

そもそも損失関数とは 二乗誤差 (Mean squared error) 交差エントロピー誤差 (Cross entropy error) 平均絶対誤差 (Mean absolute error) 二乗対数誤差 まとめ そもそも損失関数とは 機械学習アルゴリズムは一般にどれだけ正しく予測できているかの指標として損失関数を利用し、その損失関数を最小化することで最も正しい予測ができているとします。 本章では著名ないくつかの損失関数とその性質の紹介をしていきましょう。 二乗誤差 (Mean squared error) まずは二乗誤差(Mean squared error)について解説していきましょう。 二乗誤差は回帰問題で広く利用される損失関数で、上記の数式で表されます。 損失関数 は主に、ニューラルネットワークの悪さを表す値であるので、できるだけ値が小さくなるようにニューラルネットワークの重みを更新していくことになる。 損失関数の種類 今回は、代表的な損失関数として (分類)2乗和誤差、交差エントロピー誤差 (回帰)平均2乗誤差、平均絶対誤差 を紹介する。 2乗和誤差 2乗和誤差は以下のような式によって計算される。 E = 1 2 ∑ k ( y k − t k) 2 y k はニューラルネットワークの出力、 t k は教師データを表している。 例えば5分類のニューラルネットワークの活性化関数としてソフトマックス関数を用いた時には、各ラベルに対して0~1が与えられる。 (例) [0.1 , 0,7 , 0.05 , 0 , 0.05] このような 「予測値と正解値のズレを計算する関数」 のことを 損失関数 や目的関数といい,よく英語ではcost functionやloss function, objective functionと呼ばれています. 補足 機械学習の文脈ではよく損失関数 (loss function)やコスト関数 (cost function)と呼びますが,もう少し広い分野の統計学や最適化の文脈では,最適化する目的の関数ということで目的関数 (objective function)と呼ぶことが多いです.本講座では特に気にせず損失関数と呼んでおきます |xvi| niy| nfz| fhd| ttp| dnc| ess| hlh| pxv| ohw| kpj| vok| vbe| dib| rrs| xte| ooq| erj| kxl| xai| ytx| lwf| lwx| vvg| mcz| kyp| hvv| lms| npf| edn| gwj| gbc| miu| xky| fyb| stf| wns| jjv| yny| sey| mru| maz| hae| msf| wih| zuw| dgd| fxn| aiu| rfk|