https://speakerdeck.com/eumesy/analysis_and_interpretation_of_language_models
{論理的推論}{LLM}{言語モデル}(3)
t_w
{『Xichuan: "逆に言えば LLM は単に言語モデルの一実装形態に過ぎないので、論理的推論とかまったくしてない。言…" - Fedibird』 K#EDD2/A52F-9E02}
{LLM}{言語モデル}(2)
t_w
{『Xichuan: "そもそもまず言語モデルという抽象的な概念があって、それをどのように実装するか、という観点から、長く…" - Fedibird』 K#EDD2/A52F-86DC}
{二つ}{embedding}{アイデア}{検索精度}{言語モデル}{レコメンド}{検索}(7)
t_w
{応向分離 K#EDD2/1690}
{Cartesian Genetic Programmingで文章の類似度を学習}{再帰的な処理}{再帰的な構造}{Attention}{Transformer}{tzmtwtr/tw-posts-ja}{knownetにベクトル検索を実装}{GPGPU}{言語モデル}(9)
t_w
{あれ K#EDD2/4078}
遺伝的プログラミングで文章の類似度を学習させるの、CPUで一から学習させるには計算量が全然足りない。GPGPUで学習させたいが、再起的な構造と処理によって文章を処理しているために、GPGPUとは相性が悪い。構造から手をつけるべきか。
Transformerを参考にすると良さそうだが、あれを理解するのに手間取っている。さらに言えばAttentionも理解できていない。あり物のモデルを使ったり学習させるだけなら理解は不要だが、遺伝的プログラミングに組み込もうとすると十分に理解する必要がある。
普通の言語モデルも一から学習させると相応に時間がかかるだろうし、一晩で学習が進まないのを嘆くのは気が早すぎるかもしれない。私の投稿を学習データ化した物でさえ、一晩でやっと一巡できる程度だ。Wikipediaも学習データに含み出すととんでもない時間がかかる。
{
言語モデル}