2026-02-08
過去24時間(2026年2月7日以降)のX(Twitter)およびインターネット上の情報から、動画生成モデル「WAN」(Alibaba Cloudが開発したAI動画生成モデル、Wan AI)に関する最新の話題をまとめます。主にAlibaba関連の進展やユーザー活用例が目立ち、古い情報(例: Wan 2.1以前の古いリリース)は除外しています。
WANの最新バージョンと特徴
AlibabaのWan AI(WAN)は、テキスト・画像・音声から高品質な動画を生成するオープンソース寄りの先進モデルです。最近のアップデートではWan 2.6が注目されており、以下のような強化が見られます: - 最大15秒の1080p HD動画生成 - ネイティブの音声・映像同期(A/V sync) - シネマティックなビジュアル、多スピーカー対話の安定性 - スタジオグレードのオーディオ品質 - 指示追従性の向上
公式サイト(wan.video)では、Wan 2.6でフレーム・オーディオ付きのサンプルが公開されており、テキストから直接ナラティブ動画を作成可能。Alibaba CloudのModel Studioでもテキスト-to-ビデオ、画像-to-ビデオ、reference-to-videoなどのバリエーションが利用可能です。
X上の最近の注目発言と活用例
- @JuggernautVAI が、AlibabaのWan 2.2-Animateを使って既存ショットに新しい人物を挿入するデモを投稿。照明・肌・顔の動き・リップシンクが自然に一致し、シーンを崩さない高精度さが評価されています。
- @MaxCasu が、MangaNow × Alibaba Cloud Global Creator Challengeを共有。#MangaNow #AlibabaCloud #WAN #MangaAnime15s でアニメ/マンガスタイルの15秒動画チャレンジが進行中です。
- @air_framp_one が、Wan 2.2 S2VをQwenTTS UIに統合したアップデートを発表。24GB GPUでアバター動画生成が可能で、消費者向けハードウェアでの実用性を示しています(GitHub: https://github.com/apiplant/qwen-tts-ui)。
- @deepbeepmeep 関連の文脈で、Wan2GP(GPU貧弱環境向け最適化)が引き続き言及され、消費者ハードでWanモデルを動かす工夫が続いていますが、過去24時間では新規の大きな更新なし。
- @aiaicreate が、ComfyUIを使った自作LoRA訓練からWAN LoRA動画化、CRT撮影風のプロセスを動画で共有。過学習を意図的に使い、新しい表現を追求するクリエイティブ活用例です。
その他の関連情報
- MangaNowとのコラボキャンペーン(@manganow_ai など)が活発で、WAN 2.6無制限生成や$3,000賞金のGlobal Creator Challengeが話題。マンガ・アニメ15秒動画の創作を促進しています。
- Veo3(Googleの動画モデル)関連のリポジトリでWanをベースにした派生モデル(例: Ovi)が議論されていますが、WAN自体はAlibabaの独自進化を続けています。GitHubのWan-Video/Wan2.1(および後継)リポジトリでオープンソース要素が公開されており、コミュニティによるローカル実行・カスタムが盛んです。
全体として、過去24時間ではWan 2.6のシネマ品質向上と音声同期、クリエイターチャレンジの盛り上がりが中心。Alibabaの公式アカウント(@Alibaba_Wan や @alibaba_cloud)からも関連プロモーションが継続中です。興味があればwan.videoで直接試せます。