t_wの輪郭
フォローする
このサイトについて
8/13/2023, 3:39:00 PM

BERTを小さくしたやつ。でも性能はそのまま。と言われている。

Amazonで検索:ALBERT
8/14/2023, 7:10:00 AM

追加でALBERT教師なしSimCSEで学習してみている。

Amazonで検索:あれ
8/13/2023, 10:06:00 PM

いや、「ベクトル検索ぐらいマネージドサービスあるやろ」とはなるんだけど、たけーのよ。Azure Cognitive Searchとか、一番安いので月額1万円以上する。

DynamoDBとLambdaでやりくりすれば、維持費をほぼ0円、処理があっても月額100円ぐらいで何とかなるはずなんや。

で、そのために文章をベクトル化(Sentence Embedding)する処理が必要だったのだけどもですね、世のSentence Embeddingするライブラリやら言語モデル(BERTとか)やらはファイルサイズが巨大で、Lambda関数に乗り切らんかったわけです。

そこで、BERTを小型化したALBERTでSentence Embeddingが取れるように学習してたんですけども、やっとこさそれらしい結果が出せるようになってきた。

となると、次の課題はベクトル検索のDB部分なわけです。今はJavaScriptのライブラリを使ってるので速くないので、Go言語とかでやりたい。

というか、JavaScriptでのSentence Embeddingの計算は遅いはずなので、そこもGo言語に切り替えるうまみがあるはず。

Amazonで検索:あれ
8/13/2023, 5:03:00 PM

そういうわけで、ALBERT教師なしSimCSEの後に教師ありSimCSEで学習したところ、ここまで学習できた。

Amazonで検索:あれ
8/13/2023, 3:42:00 PM
Amazonで検索:日本語ALBERT
8/13/2023, 3:42:00 PM

東北大学あたりが日本語ALBERTやってくんねーかなぁ

Amazonで検索:あれ
8/13/2023, 3:39:00 PM

BERTとALBERTの学習させてるんだけど、BERTの成績が良すぎて辛い。ALBERTが追い付かない。使っているALBERTのモデルが、「小さすぎる」可能性はある。

Amazonで検索:あれ
8/12/2023, 6:33:00 PM

ALBERTをSimCSEの学習させとるけど、Wikipediaのデータを20 epoch回すには1000時間かかるらしい

Amazonで検索:あれ
8/11/2023, 5:00:00 PM

やったー
幣WindowsでGPUでALBERTのSimCSEの学習ができるようになったぞ
1回の学習にかかる時間が40時間から2時間に短縮された
それでもGoogle Colabと比べると2倍時間かかるので、良いぱしょこんが欲しい
1070 Tiはそろそろ買い替えていい頃合いと思う

Amazonで検索:あれ
8/11/2023, 2:09:00 PM

昨日・今日とSentence Embeddingを吐くALBERTをSimCSEで学習させているが、少し前にちょいと試しで学習させたときの性能を上回ることができない。

機械学習はそんな淡い夢みたいなことが度々起こる。

Amazonで検索:あれ
6/22/2023, 11:37:00 PM
Amazonで検索:ajinkyaT/albert-japanese-v2-finetuned-ner
6/16/2023, 9:11:00 PM
Amazonで検索:あれ
6/15/2023, 9:03:00 PM

CTranslate2はALBERTに対応していなかった。モデルの変換時に下記のエラーが出る

ValueError: No conversion is registered for the model configuration AlbertConfig (supported configurations are: BartConfig, BertConfig, BloomConfig, CodeGenConfig, GPT2Config, GPTBigCodeConfig, GPTJConfig, GPTNeoXConfig, LlamaConfig, M2M100Config, MBartConfig, MPTConfig, MT5Config, MarianConfig, OPTConfig, PegasusConfig, RWConfig, T5Config, WhisperConfig)

Amazonで検索:CTranslate2はALBERTに対応していなかった
6/14/2023, 9:11:00 PM
Amazonで検索:『大規模日本語ビジネスニュースコーパスを学習したALBERT(MeCab+Sentencepiece利用)モデルの紹介』
6/14/2023, 8:51:00 PM
Amazonで検索:ALBERT model Pretraining and Fine Tuning using TF2.0