話題の高速化ライブラリ「SageAttention」をFramePack-eichiに導入してみた結果

高速化ライブラリで定番のXformers をようやく導入でき、FramePackとFramePack-eichiの動画生成速度が見事に高速化!と思いきや、、、どうしても気になっていたもう一つの高速化ライブラリがありました。
その名も『SageAttention』
ネットで検索しても、積極的に導入を進めているような詳しい情報は無く詳細不明。
「流行ってないのか、それとも最先端すぎるのか?」
半信半疑ながら、仮想環境を有効にして適当にpip install したら、、、
インストール成功!そして爆速化!

なんと処理速度がXformersよりも格段に速くなって
高速化ライブラリ無し6分38秒→SageAttention導入で4分9秒と私にとっては驚異的な高速化になりました、、、。(Xformers導入時は5分11秒)

↓

| 状態 | 動画生成時間 |
| 高速化ライブラリなし | 6分38秒 |
| Xformers 導入時 | 5分11秒 |
| SageAttention 導入時 | 4分09秒←最速! |
| SageAttention2 導入時 | SageAttentionとほぼ同じ |
まさかの Xformersよりもさらに1分以上の短縮。
高速化ライブラリなしRTX 4060Ti(16GB)よりも
SageAttentionを導入したRTX3060(12GB版)がFramePackの処理時間が早くなる結果になりました!(SageAttentionの価値は45,000円以上?)
SageAttentionのインストール方法ですが、当方の環境では
↓仮想環境を有効にした状態で、tritonをPIPインストール
pip install triton-windows↓問題なく完了したら、SageAttentionをPIPインストール
pip install sageattentionこれだけで、SageAttentionを有効化してFramePackとFramePack-eichiが無事起動出来ています。
(※必ず仮想環境を有効した状態でインストールテストを行ってください、理由はこちら)
※XformersとSageAttentionを併用して動作させてみたところ、処理時間はおおむね4分台中盤で落ち着くことが多いようです。
なぜかSageAttention単体よりわずかに遅くなる傾向がありました。
(環境によって差がある可能性はありますが、筆者の環境ではこのような結果となりました)

🔶【SageAttention2について】
SageAttention2という高速化ライブラリも存在しますが、
こちらはSageAttentionよりもインストール手順が少し複雑になっており、初心者の方にはややハードルが高く感じられるかもしれません。導入方法の詳細は長くなるため、興味のある方はこちらのGitHubページをご覧ください。
ちなみに、後日SageAttention2をインストールし、新しく登場したFramePack Studioで生成を実行したところ、SageAttentionとほぼ同じ結果となりました。

💻【FramePack SageAttention導入環境】
・Windows 11
・RTX3060(VRAM 12GB)
・Python3.10.11
---------------------------------
実行時の環境で使用していた主なライブラリ一覧
torch==2.7.0+cu118
torchvision==0.22.0+cu118
torchaudio==2.7.0+cu118
diffusers==0.33.1
transformers==4.46.2
safetensors==0.5.3
numpy==1.26.2
opencv-contrib-python==4.11.0.86
pillow==11.1.0
einops==0.8.1
scipy==1.12.0
psutil==7.0.0
pydub==0.25.1
tqdm==4.67.1
huggingface-hub==0.30.2
sentencepiece==0.2.0
triton_windows-3.3.0.post19-cp310-cp310-win_amd64.whl
sageattention-1.0.6-py3-none-any.whl
(sageattention 2.1.1+cu126torch2.6.0 ※別仮想環境で動作テスト)
torchvision==0.22.0+cu118
torchaudio==2.7.0+cu118
diffusers==0.33.1
transformers==4.46.2
safetensors==0.5.3
numpy==1.26.2
opencv-contrib-python==4.11.0.86
pillow==11.1.0
einops==0.8.1
scipy==1.12.0
psutil==7.0.0
pydub==0.25.1
tqdm==4.67.1
huggingface-hub==0.30.2
sentencepiece==0.2.0
triton_windows-3.3.0.post19-cp310-cp310-win_amd64.whl
sageattention-1.0.6-py3-none-any.whl
(sageattention 2.1.1+cu126torch2.6.0 ※別仮想環境で動作テスト)