FramePack Studioが凄い!快適ローカルAI動画生成に必須の「ジョブストック機能」

FramePackをもっと快適にローカル上で活用できないかと情報を探していた所、、、ついに見つけました! その名も FramePack Studio! このツールの最大の魅力は、なんといっても「ジョブをストックしておける」こと。 正式には「ジョブキュー機能」と言いますが、とにかくこれが革命的です! FramePack Studioには、他にも便利な機能がたくさんあるようなので、 今後も使い倒してレビューしていきたいと思います! 👇FramePackStudioのインストール方法はこちらの別記事で記載しています。 FramePackStudioのインストール方法

FramePackで人物にこちらを向いてもらえない問題を解決したい!

FramePackやFramePack-eichiの素晴らしさに日々感動しているのですが、今回はまた少し贅沢な悩みにぶつかりました。 以前の記事で紹介したこちらのAI生成女性 どうしてもこちらを向いてくれないのです! プロンプトで「こちらを向いて」「正面を向いて」と指示しても、ずっと横向きのまま…。 どうやらFramePackは体の向きを変えるような動作を生成するのが、ちょっと苦手なようです。 ということで、今回はプロンプト以外の方法で「正面を向かせる」チャレンジをしてみました! 少し複雑な要求になるとFramePack-eichiの出番が増えてきます、今回もFramePack-eichiの出番です! 今回のケースでは、横向き→正面向きの変化をどう再現するかがカギになります。 そこで登場するのが、画像生成サービス Midjourney(Discord版) との併用です!※Midjourney(Discord版)の使用方法は少し複雑ですので、後日詳細な使用方法を記載したいと思います。 横向きの人物画像を用意 Midjourneyでその人物が正面を向いた画像を生成(全く同じにはなりませんが、似るまで粘るのがコツ!) 横向きと正面向きの2枚の画像をFramePack-eichiで読み込み、アニメーション生成! 以上のステップで、まだ多少ぎこちなさは残るものの、ある程度自然にこちらを向かせることに成功しました! 生成した動画はこちら👇 やはり有料サービスより少し手間はかかります。…

FramePackで人物がその場でしか動かない問題を解決したい!

FramePackやFramePack-eichiの素晴らしさに日々感動しているのですが、人物がその場でしか動いてくれないという贅沢な悩みをかかえるようになりました。 なんとかして、A地点からB地点に物理的にその場所から動いてくれないかと祈るのですが、なかなかうまくいきません、、、。 しかし、これが人物となるとなかなかうまくいきません、 どんな指示をプロンプトに送ってもカメラが追って来てしまって、人物がその場で動く動画しか生成されないのです><こんな感じ↓ 結局、試行錯誤した結果FramePack-eichiを使い一手間加える事により、1枚の画像から無事人物や主役をA地点からB地点まで物理的に自然に動かす事が出来ました。 FramePack-eichiは本来「異なる2枚の画像を自然につなげる」ツールですが、 この機能をあえて1枚の画像の位置違いに応用していきます! 手順は以下の通りです👇 主役がA地点にいる画像を画像編集ソフトで開く 主役を切り取り、移動させたいB地点に配置して新しい画像として保存する 元の画像(A地点)と編集後の画像(B地点)をFramePack-eichiに読み込ませて処理する これで完了! めちゃくちゃアナログな方法ですが(笑)、今のところ一番自然に人物を「場所ごと」動かせる方法です! 実際にこんな感じの動画がローカル上で生成できます👇 現在は手作業で画像編集が必要で、背景も無いシンプルな状態での実験ですが、…

仮想環境ってなんなの?やっておかないと後で詰む話

AI動画生成界の庶民の味方RTX3060(12GB版)を使用して絶賛実験中! 簡単に言うと、あるアプリやプロジェクト専用の“作業部屋”を作ることです。 その中にだけライブラリやツールを入れて、他とは切り離して管理します。 たとえばPythonの場合だと プロジェクトAでは「ライブラリXの古い版」が必要 プロジェクトBでは「ライブラリXの最新版」が必要 こんなとき、仮想環境がないとライブラリがごちゃ混ぜになって動かない! でも、仮想環境を使えば、それぞれ別々の空間で動かせるので安心。 つまり、「隔離された安全地帯」のようなイメージです。 なぜ「仮想環境が絶対必要」なの? 例えばこうなったらヤバい:Aのアプリ「ライブラリXはバージョン1.0がいいな」 Bのアプリ「ライブラリXは最新の1.9じゃないと動かない」 → 同じPC内でぶつかって、どっちもエラーで動かない!! ということが本当に起こります、、、!(体験談あり)…

FramePack&FramePack-eichi向けxformersの安全なインストール手順

AI動画生成界の庶民の味方RTX3060(12GB版)を使用して絶賛実験中。 AI動画生成ツール「FramePack」の処理が遅い、、、と思っていた方に朗報です! たとえば、庶民の味方RTX3060(12GB版)を使って、1秒の動画(25ステップ)を生成する場合 xformers未導入だと約6分38秒かかっていた処理が↓ xformersをインストールするだけで約5分11秒に短縮されました。↓ 処理時間が 1分27秒も短縮!これはかなりの差です。 この記事では、xformersをRTX3060(12GB)環境に導入して、生成時間を約7分→5分30秒に短縮した手順を、初心者向けにわかりやすくまとめました。 とりあえず、現在無事に動作している情報だけ殴り書きしています、日々修正を加えていく予定ですのでご了承ください。 又、なぜ「安全」など書いてあるの?と疑問に思われた方はこちらの記事をお読みください。 ※現在当方の知識ではワンクリック版FramePackからはxformersを導入できませんでした、こちらの記事の下部にある、 FramePack手動インストール版でFramePackが起動している事が前提条件となります。 目的: FramePackを高速化する(特にVRAMメモリ効率と処理速度) 成果:…

xformersとは?FramePackの処理速度が激変する高速化ライブラリ!

AI動画生成界の庶民の味方RTX3060(12GB版)を使用して絶賛実験中。 xformersとは?処理速度が激変する高速化ライブラリ! たとえば、RTX3060(12GB版)を使って、1秒の動画(25ステップ)を生成する場合 xformers未導入だと約6分38秒かかっていた処理が↓ xformersをインストールするだけで約5分11秒に短縮されました。↓ 処理時間が 1分27秒も短縮!これはかなりの差です。 GitHubの「FramePack-eichi」の情報(https://github.com/git-ai-code/FramePack-eichi を参考)によれば、 RAM32GB・RTX 4060Ti(16GB)の環境で、xformersを導入することで処理時間が約4分46秒から3分17秒〜3分25秒へと短縮されたと記されています。 xformers未導入:約4分46秒 xformers導入後:約3分17秒〜3分25秒 つまり、xformers未導入のVRAM 16GBのRTX…