{誤差逆伝播法の導出}{Cartesian Genetic Programming}{誤差逆伝播法}(3)

{Cartesian Genetic Programmingにおける誤差逆伝播法の導出 K#EDD2/7105}

まだ導出途中

Cartesian Genetic Programmingの模式図

準備

記号の準備

入力層の出力:\( x_i \)
中間層の出力:\( y_j = f_j(x_{o(j)}, x_{p(j)}, a_j) \)
出力層の出力:\( z_k = g_k(y_{m(k)}, y_{n(k)}, b_k) \)

\(z_k\)の入力1:\(y_{m(k)}\)
\(z_k\)の入力2:\(y_{n(k)}\)

\(y_j\)の入力1:\(x_{o(j)}\)
\(y_j\)の入力2:\(x_{p(j)}\)

読み込み中...
{誤差逆伝播法}(1)

{誤差逆伝播法の導出 K#EDD2/99F3}

合っているかは保証しない。ちょっと自信がない。

前置き

ニューラルネットワークの構成

変数の整理

入力層の出力を\(z_i\), 中間層の出力を\(y_j\), 出力層の出力を\(o_k\)と置く。
入力層から中間層への重みを\( v_{ji} \), 中間層から出力層への重みを\( w_{kj} \)と置く。
\(f\)をsigmoidなどの活性化関数と置く。

ニューロンの出力の計算

$$y_j = f({\sum_{i=1}^{I} v_{ji} z_i})$$
$$o_k = f({\sum_{j=1}^{J} w_{kj} y_j})$$

微分の伝播

損失関数を出力層の出力\(o_k\)で微分

読み込み中...
{『ニューロ・ファジィ・遺伝的アルゴリズム』}{Cartesian Genetic Programming}{遺伝的プログラミング}{誤差逆伝播法}(4)

{あれ K#EDD2/705F}

遺伝的プログラミング誤差逆伝播法を組み合わせるにあたって、誤差逆伝播法の具体的計算方法がウェブを見ていてもわからんので、『ニューロ・ファジィ・遺伝的アルゴリズム』を戸棚から引き出してきた。誤差逆伝播法の章にt_wの書き込みがされており、理解の道筋をたどることができる算段。

ただ、紙の書籍で取り回しが悪いので、アレしましょう。デライトに書きましょう。

{Cartesian Genetic Programmingで生成したプログラムを誤差逆伝播で学習}{Sentence Embedding}{Cartesian Genetic Programming}{遺伝的プログラミング}{誤差逆伝播法}(5)

{あれ K#EDD2/C932}

遺伝的プログラミング誤差逆伝播法行くぞ!!!

遺伝的プログラミング(Cartesian Genetic Programming)で得られたグラフ構造に内在するパラメーターを誤差逆伝播法で学習してやるのだぁ!!

遺伝的プログラミング単体ではどうにも学習が進まないのでやってやろうじゃねぇかよとなった。

『生成 AI に必要な「基盤モデル」のメモリ使用量 98%削減につながる技術を開発 ─ 自動運転車や工作用ロボット用組み込みシステムへの搭載を目指す』も背中を後押しした。良い構造の小さいモデルで良い性能が出せることが示された。

{AIのコミュニケーション}{コミュニケーション}{backpropagation}{誤差逆伝播法}{Facebook AI Research}{微分があればコミュニケーションを学習できる}{MARL}{malti agent reinforcement learning}{マルチエージェント強化学習}{マルチエージェント学習}(12)

{『Learning Multiagent Communication with Backpropagation』 K#EDD2/01E9}

キャッチ―な言い方をすれば、AI同士にコミュニケーションを学習させる研究

誤差逆伝播法によるマルチエージェントのコミュニケーション学習
誤差逆伝播法を用いて以下を学習する

  • エージェントがほかのエージェントに向けて発信する信号
  • 受信した信号に対するエージェントのふるまい

 
著者にFacebook AI Researchに所属している人がいる
以前、「Facebookの人工知能が暴走して独自言語でやり取りし始めた」みたいなやつが出回っていたが、あれとは別のやつ
 
https://arxiv.org/abs/1605.07736

{誤差逆伝播法}

{}