!pip install --upgrade onnx
!pip install onnxruntime-gpu
!pip install optimum
!optimum-cli export onnx --model google/mt5-small onnx/
!optimum-cli onnxruntime quantize --onnx_model ./onnx --output onnx_quantize/ --arm64
python3 -m transformers.onnx --model=sentence-transformers/paraphrase-multilingual-mpnet-base-v2 onnx/ --opset=18
optimum-cli onnxruntime quantize --onnx_model ./onnx --output onnx_quantize/ --arm64
!pip install --upgrade onnx
!pip install onnxruntime-gpu
!pip install optimum
!optimum-cli export onnx --model google/mt5-small onnx/
!optimum-cli onnxruntime quantize --onnx_model ./onnx --output onnx_quantize/ --arm64
500MBあるBERTをONNXに変換した後に量子化したら110MBほどになってLambdaで動かせるようになった。
Githubに乗せるファイルは100MB以下でないとだめなので、ダメ押しでgzipで圧縮したら75MBになった。