ModernBERT
Sentence EmbeddingはBERTよりGloVeの方が良い
実験的にも、BERTの[CLS]トークン埋め込み や 平均プーリング埋め込み を使うぐらいだったら、GloVe等の(もっと古い時代の)単語埋め込みを使った方がましということが知られている
あれ
LambdaでBERTを動かせるようになったんだけども、この知識を200万円ぐらいで売りたい。
誰か買ってくんねーかなぁ……
AI構築を外注すると考えると、安いほうですわよ。
ちなみにAI構築を外注すると、1回の試行で数百万円かかった上でだいたい失敗するらしいぞ♥
あれ
500MBあるBERTをONNXに変換した後に量子化したら110MBほどになってLambdaで動かせるようになった。
Githubに乗せるファイルは100MB以下でないとだめなので、ダメ押しでgzipで圧縮したら75MBになった。