この方針をさらに推し進めたのがinstructor-embedding[8]で、色々なプロンプトを入れてタスクごとに埋め込みを最適化できるらしい
{instructor-embedding}{Sentence Embedding}(2)
{あれ K#EDD2/34BA}
t_w{Two-Towerモデル}{Sentence Embedding}(2)
{E5でTwo-Towerモデルっぽいことができる K#EDD2/F92A}
t_wMultilingual-E5でも実は入力文に"query:" "document:"というプロンプトを入れて、2つ(検索文と検索対象)を識別できる
{単語埋め込み}{GloVe}{Sentence Embedding}{BERT}(4)
{Sentence EmbeddingはBERTよりGloVeの方が良い K#EDD2/5FB4}
t_w実験的にも、BERTの[CLS]トークン埋め込み や 平均プーリング埋め込み を使うぐらいだったら、GloVe等の(もっと古い時代の)単語埋め込みを使った方がましということが知られている
{あれ}{E5でTwo-Towerモデルっぽいことができる}{JaColBERT}{GLuCoSE}{Sentence EmbeddingはBERTよりGloVeの方が良い}{GloVe}{NTT Com}{Node AI}{RAG}{E5}(11)