t_wの輪郭

Feedlyでフォローするボタン
あれ

ONNX

2021/9/8 12:30:00
onnxに変換して量子化するコマンドtransformers.onnxあれONNX Runtime WebあれOpen Neural Network Exchange「ONNXはOpen Neural Network Exchangeの略称で、推論で広く使用されている機械学習モデルのフォーマットです。」あれonnxruntime-nodeでgzipで圧縮したonnxファイルを読み込む『[Rust] ortでonnxモデルを使って推論したりWASMにしたりしてみる | DevelopersIO』あれonnxruntimenetronmrsekut-p『ONNX』sherpa-onnx-node

あれ

2023/12/3 0:24:00

500MBあるBERTをONNXに変換した後に量子化したら110MBほどになってLambdaで動かせるようになった。
Githubに乗せるファイルは100MB以下でないとだめなので、ダメ押しでgzipで圧縮したら75MBになった。

python3 -m transformers.onnx --model=sentence-transformers/paraphrase-multilingual-mpnet-base-v2 onnx/ --opset=18

optimum-cli onnxruntime quantize --onnx_model ./onnx --output onnx_quantize/ --arm64

あれ

2023/8/15 21:15:00

遺伝的プログラミングの学習結果をonnxにするというアイデアが降りてきた。
onnxのエコシステムに乗っけられるのが嬉しいポイント

あれ

2023/7/29 23:17:00

ONNXならGo言語で動くし、AWS LambdaでSentence Embeddingの計算イケんじゃね???」と思われたが、そもそも日本語のSentence Embeddingに対応した小さいモデルが市井になかった。終わり。

「自分で作れや」というあれがある。GPUがねぇ。いい加減にGoogle Colaboratoryの有償契約をすべきか。