話題の高速化ライブラリ「SageAttention」をFramePack-eichiに導入してみた結果

AI動画生成界の庶民の味方RTX3060(12GB版)を使用して絶賛実験中!

高速化ライブラリで定番のXformers をようやく導入でき、FramePackとFramePack-eichiの動画生成速度が見事に高速化!と思いきや、、、どうしても気になっていたもう一つの高速化ライブラリがありました。

その名も『SageAttention』

ネットで検索しても、積極的に導入を進めているような詳しい情報は無く詳細不明。
「流行ってないのか、それとも最先端すぎるのか?」
半信半疑ながら、仮想環境を有効にして適当にpip install したら、、、

 インストール成功!そして爆速化!

なんと処理速度がXformersよりも格段に速くなって
高速化ライブラリ無し6分38秒→SageAttention導入で4分9秒と私にとっては驚異的な高速化になりました、、、。(Xformers導入時は5分11秒)

        ↓


状態動画生成時間
高速化ライブラリなし6分38秒
Xformers 導入時5分11秒
SageAttention 導入時4分09秒←最速!
SageAttention2 導入時SageAttentionとほぼ同じ

まさかの Xformersよりもさらに1分以上の短縮。
高速化ライブラリなしRTX 4060Ti(16GB)よりも
SageAttentionを導入したRTX3060(12GB版)がFramePackの処理時間が早くなる結果になりました!(SageAttentionの価値は45,000円以上?

🔶【高速化ライブラリ SageAttentionのインストール方法】
SageAttentionのインストール方法ですが、当方の環境では
↓仮想環境を有効にした状態で、tritonをPIPインストール
pip install triton-windows
↓問題なく完了したら、SageAttentionをPIPインストール
pip install sageattention
これだけで、SageAttentionを有効化してFramePackとFramePack-eichiが無事起動出来ています。
(※必ず仮想環境を有効した状態でインストールテストを行ってください、理由はこちら

※XformersとSageAttentionを併用して動作させてみたところ、処理時間はおおむね4分台中盤で落ち着くことが多いようです。
なぜかSageAttention単体よりわずかに遅くなる傾向がありました。
(環境によって差がある可能性はありますが、筆者の環境ではこのような結果となりました)


🔶【SageAttention2について】
SageAttention2という高速化ライブラリも存在しますが、
こちらはSageAttentionよりもインストール手順が少し複雑になっており、初心者の方にはややハードルが高く感じられるかもしれません。導入方法の詳細は長くなるため、興味のある方はこちらのGitHubページをご覧ください。

ちなみに、後日SageAttention2をインストールし、新しく登場したFramePack Studioで生成を実行したところ、SageAttentionとほぼ同じ結果となりました。

もちろん、より高性能な最新GPUを使う場合や、さらに大規模なモデル・推論処理を行う場合には大きな違いが出る可能性もありますが、少なくともFramePack&RTX 3060での使用では実質的な速度差は感じられませんでした。

💻【FramePack SageAttention導入環境】
・Windows 11
・RTX3060(VRAM 12GB)
・Python3.10.11
---------------------------------
実行時の環境で使用していた主なライブラリ一覧

torch==2.7.0+cu118
torchvision==0.22.0+cu118
torchaudio==2.7.0+cu118
diffusers==0.33.1
transformers==4.46.2
safetensors==0.5.3
numpy==1.26.2
opencv-contrib-python==4.11.0.86
pillow==11.1.0
einops==0.8.1
scipy==1.12.0
psutil==7.0.0
pydub==0.25.1
tqdm==4.67.1
huggingface-hub==0.30.2
sentencepiece==0.2.0
triton_windows-3.3.0.post19-cp310-cp310-win_amd64.whl
sageattention-1.0.6-py3-none-any.whl
(sageattention   2.1.1+cu126torch2.6.0 ※別仮想環境で動作テスト)