2026年2月、AI動画生成の世界に激震が走った。
TikTokの親会社として知られるByteDance(字节跳动)が、次世代AI動画生成モデル「Seedance 2.0」を2026年2月10日に正式ローンチした。発表からわずか数日で、このモデルは世界中のテック業界、ハリウッド、そしてSNSを巻き込む巨大な議論を引き起こしている。
きっかけは、アイルランドの映像作家ルアリ・ロビンソン(Ruairi Robinson)氏がSeedance 2.0でわずか2行のプロンプトから生成した「トム・クルーズ vs ブラッド・ピット」の格闘シーン動画だった。映画のワンシーンとしか思えないこの映像はSNSで爆発的に拡散し、テスラCEOのイーロン・マスク氏は「This is happening too fast(速すぎる)」とコメント。『デッドプール』シリーズの脚本家レット・リース(Rhett Reese)氏は「It’s likely over for us(我々の時代は終わりかもしれない)」と衝撃を露わにした。
事態はエンタメ業界全体に波及した。MPA(アメリカ映画協会)のチャールズ・リヴキン会長兼CEOは「中国のAIサービスSeedance 2.0は、1日のうちに米国著作物の無許可使用を大規模に行った」と声明を発表。ディズニーはByteDanceに対しスター・ウォーズやマーベル作品を含む知的財産の無断利用を理由に停止命令書(Cease and Desist)を送付した。俳優組合SAG-AFTRAも「明白な権利侵害」と非難する声明を出している。
2025年1月のDeepSeekに続く「中国発AI」の衝撃として、Seedance 2.0は投資家の間でも大きな注目を集めている。AI動画生成が1,000億ドル超のエンタメ・メディア産業を根底から覆す可能性が現実味を帯びてきたのだ。
この記事では、Seedance 2.0の技術的詳細から使い方、料金体系、競合比較、著作権問題まで、2026年2月時点の最新情報を徹底解説する。映像制作やAI活用に関心のある方は、AQUAの映像制作サービスやAI開発支援もぜひ参考にしてほしい。
目次
Seedance 2.0とは?基本情報まとめ
まずはSeedance 2.0の全体像を掴むために、基本スペックを一覧で確認しよう。
| 項目 | 内容 |
|---|---|
| サービス名 | Seedance 2.0 |
| 開発元 | ByteDance(字节跳动 / TikTok親会社) |
| リリース日 | 2026年2月7日(初回公開)/ 2月10日(正式ローンチ)/ 2月24日(グローバル公開予定) |
| モデルアーキテクチャ | Dual Branch Diffusion Transformer(45億パラメータ) |
| 最大解像度 | 2K(1080p以上) |
| 最大動画長 | Pro版で最大2分 |
| 入力方式 | テキスト、画像(最大9枚)、動画(最大3本)、音声(最大3ファイル) |
| 対応言語 | 日本語、英語、中国語 他8言語以上 |
| ウォーターマーク | なし(Sora 2やVeo 3.1と異なる) |
| 公式プラットフォーム | 即梦(Jimeng)/ Dreamina / Doubao |
| 料金 | 月額69元(約1,400円)〜 / 無料プランあり |
| API | 2026年2月14日 火山エンジン(Volcano Engine)で企業向け公開 |
注目すべきは、Seedance 2.0がテキスト・画像・動画・音声の4つのモダリティすべてを入力として受け付ける点だ。競合のSora 2やVeo 3.1がテキストと画像の2種類にとどまるのに対し、Seedance 2.0は1回の生成で最大12ファイル(画像9枚+動画3本+音声3ファイル)を同時参照できる。これは2026年2月時点で業界唯一の機能であり、プロの映像制作ワークフローに直接組み込める柔軟性を持っている。
主要機能と特徴 ― 7つの革新
Seedance 2.0が「Sora超え」と評される理由は、単なるスペック向上にとどまらない。映像制作の常識を根本から変える7つの技術革新がある。
1. 統合マルチモーダルアーキテクチャ
Seedance 2.0最大の差別化ポイントは、テキスト・画像・動画・音声の4種類を自由に組み合わせて入力できる統合型マルチモーダルシステムだ。
たとえば、「夕暮れの東京の街並み」というテキストプロンプトに加え、参考にしたい映像のスクリーンショット3枚、カメラワークの参考動画1本、BGMの音声ファイルをまとめて入力できる。モデルはこれらすべてを統合的に理解し、意図に沿った動画を生成する。1回の生成タスクで最大12ファイル(画像9枚+動画3本+音声3ファイル)を同時に参照可能で、これは他のどの競合モデルにもない能力だ。
2. 映像・音声の同時生成(ネイティブオーディオ)
従来のAI動画生成ツールの多くは、まず映像を生成し、その後に音声を別途追加する「2段階プロセス」を採用していた。Seedance 2.0はこのアプローチを根本的に変えた。
Dual Branch Diffusion Transformerにより、映像生成と音声生成が完全に並列で動作する。2つのブランチ(枝)は生成プロセス中に常に相互参照し合うため、視覚的なイベントと対応する音がミリ秒単位で同期する。セリフ、環境音、BGMがすべて映像と同時に生まれるのだ。
特に注目すべきは8言語以上の音素レベルリップシンク機能だ。日本語や英語のセリフに合わせて、キャラクターの口の動きが音素(言語の最小音声単位)レベルで正確に同期する。これにより、違和感のない自然な会話シーンを生成できる。
3. マルチショット生成
映画やCMは通常、複数のショット(カメラアングル・構図の切り替え)で構成される。従来のAI動画ツールでは各ショットを個別に生成し、手動で繋ぎ合わせる必要があった。
Seedance 2.0のマルチショット生成機能は、プロンプトからAIがシーン構成を自動的に判断し、複数のショットを一度に生成する。しかも、ショット間でキャラクターの顔・服装・動き・声が一貫して維持される。ロングショットからクローズアップに切り替わっても、同じ人物が同じ衣装で同じ文脈の中にいる ― この「一貫性の維持」は、プロの映像制作者が最も重視する要素の一つだ。
4. 2K高解像度・高速出力
Seedance 2.0はネイティブ2K解像度での出力に対応している。競合のSora 2やRunway Gen-4が1080pにとどまる中、Seedance 2.0はより高精細な映像を実現した。前バージョン(Seedance 1.5)と比較して生成速度は約30%向上しており、1080p動画であれば2〜5分で完成する。
プロの映像制作では解像度が仕上がりのクオリティを大きく左右する。2K出力は、YouTube投稿やSNS広告はもちろん、大画面での上映にも耐えうる品質だ。
5. 物理シミュレーションの強化
AI生成動画でよく指摘される問題が「物理法則の破綻」だ。物が不自然に浮いたり、布がありえない動きをしたり、水の流れが奇妙だったりする。
Seedance 2.0はWorld-MMDiT(世界モデル)と呼ばれるアーキテクチャにより、重力・運動量・衝突・流体力学を高い精度で再現する。具体的には以下のような改善が見られる。
- 重力と慣性:物体の落下、バウンド、スライドが自然な物理法則に従う
- 布と衣服の物理:風になびくドレス、走る人物のコートの揺れがリアルに表現される
- 流体力学:水の流れ、雨粒、煙の動きが物理的に正確
- 人体の動き:関節の可動域、体重移動、筋肉の動きが自然
前バージョンで問題となっていた「浮遊感」やテクスチャアーティファクト(不自然な質感の乱れ)は大幅に軽減されている。ただし、物理シミュレーションの最高峰は依然としてOpenAIのSora 2であり、Seedance 2.0は「非常に高い水準」ではあるが、すべての面でSora 2を上回っているわけではない。
6. ウォーターマークなし ― 完全クリーン出力
これは地味に見えて、実用上きわめて重要な違いだ。
OpenAIのSora 2は生成動画にウォーターマークを付加する。GoogleのVeo 3.1はSynthIDという電子透かしメタデータを埋め込む。いずれもディープフェイク対策や出所証明を目的としたものだが、商用利用や再編集の際には障壁となることがある。
Seedance 2.0はウォーターマークも電子透かしも一切付与しない。出力される動画は完全にクリーンだ。これはクリエイターにとって大きなメリットである一方、トム・クルーズのディープフェイク動画騒動が示すように、悪用防止の観点からは深刻な懸念を生んでいる。この点についてはバイラル動画とハリウッドの衝撃のセクションで詳しく取り上げる。
7. ディレクターモード ― 「映画監督」としての動画生成
従来のAI動画生成は「テキストを入力→動画が出力される」というシンプルな構造だった。Seedance 2.0のディレクターモードは、このパラダイムを一段階進化させる。
ユーザーはプロンプト内で@タグシステムを使い、事前にアップロードしたアセット(画像、動画、音声)を直接参照できる。たとえば「@Image1のキャラクターが@Image2の背景を歩きながら、@Audio1の音楽に合わせて踊る」といった指示が可能だ。映画監督が俳優やセットを指示するように、AIに具体的な演出指示を出せる。
これは単なる機能追加ではなく、AI動画生成の使い方そのものを「プロンプト入力者」から「映像ディレクター」へと変える新しいパラダイムだ。プロフェッショナルの制作パイプラインに組み込める初めてのツールとして、映像業界から高い評価を受けている。
技術アーキテクチャ詳解
Seedance 2.0の驚異的な性能を支えるのは、ByteDanceのSeedチームが開発した独自のアーキテクチャだ。ここではその技術的な仕組みを掘り下げる。なお、2026年2月時点ではSeedance 2.0の学術論文は未公開であり、以下の情報は公式発表および技術デモから得られたものに基づいている。
Dual Branch Diffusion Transformer ― 二重拡散トランスフォーマー
Seedance 2.0のコアアーキテクチャは45億パラメータの「Dual Branch Diffusion Transformer」だ。名前の通り、2つのブランチ(分岐)で構成される。
- 映像生成ブランチ:動画フレームの生成を担当。空間情報(構図・色彩・テクスチャ)と時間情報(動き・変化)を処理する
- 音声生成ブランチ:音声波形の生成を担当。セリフ、環境音、BGMを統合的に生成する
このアーキテクチャの革新性は、人間の脳の左右半球のように2つのブランチが独立しつつも常に相互参照する点にある。多くの競合モデルは単一の拡散パイプラインで映像と動きを同時に処理するため、品質とパフォーマンスのトレードオフが生じる。Seedance 2.0は空間処理と時間処理を分離し、最終レンダリング段階で統合することで、このトレードオフを解消した。
両ブランチ間の同期はアテンションベースの融合モジュールによって実現される。これにより、映像中で拍手が起きればその瞬間に拍手の音が生成され、キャラクターが話し始めればその口の動きに合わせて音声が生まれる。映像と音声の意味的一貫性(セマンティック・コンシステンシー)が、アーキテクチャレベルで保証されているのだ。
World-MMDiT ― 世界を理解するモデル
Seedance 2.0が物理的にリアルな動画を生成できる理由は、World-MMDiT(World Multimodal Diffusion Transformer)と呼ばれる世界モデルにある。
World-MMDiTは、単に「見た目がリアルな映像」を作るのではなく、現実世界の物理法則を理解した上で映像を生成する。具体的には以下の能力を持つ。
- 物理法則の理解:重力、運動量保存則、因果関係を内部モデルとして保持。ボールを投げれば放物線を描き、ガラスを落とせば砕ける
- 複雑なシナリオの処理:布の物理(ドレープ、しわ、風による揺れ)、人体の生体力学(関節の自然な動き、体重移動)、流体力学(水しぶき、煙の拡散)を同時に処理
- 因果推論:「雨が降れば地面が濡れる」「風が吹けば木の葉が揺れる」といった因果関係を自動的に適用
これは「世界シミュレーター」としてのAI動画生成モデルの方向性を示すものであり、Sora 2が先行していたこの分野にByteDanceが強力な対抗馬を送り込んだ形だ。
Motion Synthesis Technology ― モーション合成
キャラクターの動きに特化した技術がMotion Synthesis(モーション合成)だ。この技術は以下の3つの要素で構成される。
- キャラクター一貫性:同じキャラクターをクリップ全体で維持する。顔の特徴、体型、衣装、動きの癖が始めから終わりまで一貫する
- 物理的正確性:人体の動きが解剖学的に正確。不自然な関節の曲がり方や、ありえない体勢がほぼ排除されている
- 動きの自然さ:歩行、走行、ジェスチャーなどの動作が、モーションキャプチャのデータに匹敵する自然さを実現
業界関係者からは「プロフェッショナルの制作パイプラインに組み込める初めてのAI動画ツール」との評価が出ている。これまでのAI動画ツールは「SNSで話題になるデモ」は作れても、実際の商用制作で使えるレベルには達していなかった。Seedance 2.0はその壁を越えつつあるという認識が広がっている。
動画生成AI 徹底比較【2026年2月最新】
Seedance 2.0は「Sora超え」と話題だが、実際のところ競合モデルとどう違うのか。2026年2月時点で主要な5つのAI動画生成モデルを包括的に比較する。
| 比較項目 | Seedance 2.0 | Sora 2 | Veo 3.1 | Kling 3.0 | Runway Gen-4 |
|---|---|---|---|---|---|
| 開発元 | ByteDance | OpenAI | Google DeepMind | Kuaishou(快手) | Runway |
| 最大解像度 | 2K | 1080p | 4K(3840×2160) | 1080p | 1080p |
| 最大動画長 | 2分(Pro) | 1分 | 8秒 | 3分 | 40秒 |
| 入力方式 | テキスト+画像+動画+音声 | テキスト+画像 | テキスト+画像 | テキスト+画像 | テキスト+画像 |
| 音声生成 | ネイティブ同時生成 | なし | あり(Veo 3.1) | なし | なし |
| ウォーターマーク | なし | あり | あり(SynthID) | なし | あり |
| 物理シミュレーション | 高精度 | 業界最高 | 高精度 | 中程度 | 中程度 |
| キャラクター一貫性 | 高い | 中程度 | 中程度 | 高い | 中程度 |
| API価格(10秒) | 約$0.60 / 2K | $1.00 / 720p | $2.00〜6.00 / 1080p | 約$0.50 / 1080p | 約$0.50 / 720p |
| 無料プラン | あり | なし(Plus $20/月) | あり(制限付き) | あり | あり(制限付き) |
| 最大の強み | 制御性・コスパ | 物理リアリズム | 4K画質 | 長尺動画 | 使いやすさ |
比較から見えるSeedance 2.0のポジション
この比較表から明らかなのは、Seedance 2.0はすべての面で1位というわけではないということだ。最高解像度ではVeo 3.1の4Kに及ばず、物理シミュレーションではSora 2が依然としてトップ、最大動画長ではKling 3.0の3分に劣る。
しかし、Seedance 2.0が際立つのは「総合力とコストパフォーマンス」だ。
- 唯一の4モーダル入力:テキスト・画像・動画・音声をすべて受け付けるのはSeedance 2.0だけ
- ネイティブ音声生成:映像と同時に音声を生成できるのはSeedance 2.0とVeo 3.1のみ。しかもSeedance 2.0のリップシンク精度は業界最高レベル
- 圧倒的な低価格:Sora 2は利用にChatGPT Plus(月額$20)が必要で、APIも高額。Veo 3.1のAPI料金は10秒あたり$2〜6。Seedance 2.0は無料プランがあり、有料でも月額約1,400円から
- ウォーターマークフリー:商用利用時にウォーターマーク除去の手間がない
つまり、Seedance 2.0は「特定の一点で最強」ではなく、「実用的なバランスと圧倒的なコストパフォーマンスで最も使いやすい」モデルだと言える。特に中小企業やフリーランスのクリエイターにとって、この価格差は決定的な意味を持つ。
用途別おすすめツール
どのツールが最適かは用途によって異なる。以下に主な用途別のおすすめを整理した。
Seedance 2.0がおすすめ:マルチショットのCM・広告制作、ウォーターマーク不要な商用動画、SNS向け縦型動画の大量生成、音声付き動画のワンストップ制作
Sora 2がおすすめ:すでにChatGPT Plusに加入している方、OpenAIエコシステムとの統合が必要な場合、物理的にリアルな映像が最優先の場合
Kling 3.0がおすすめ:キャラクターアクション(ダンス、スポーツ)の表現、低コストでの導入(月額$9.90〜)、長尺動画が必要な場合
Veo 3/3.1がおすすめ:音声同期が重要な場合、Google AI Studioのユーザー、4K解像度が必要な場合
Runway Gen-4がおすすめ:プロの映像制作ワークフロー(Premiere Pro等との連携)、Act-Oneによるキャラクター制御、4K品質+映画的色彩表現
料金プラン徹底比較
AI動画生成ツールを選ぶうえで、料金は重要な判断基準だ。Seedance 2.0の料金体系と、競合ツールとの比較を整理する。なお、各ツールの料金は2026年2月時点の概算であり、為替レートの変動やプラン改定により変わる可能性がある。
Seedance 2.0の料金体系
| プラン | 料金 | 主な特徴 |
|---|---|---|
| 無料プラン | ¥0 | 基本的な動画生成、日次生成制限あり、個人利用のみ。新規登録で約260ポイント付与 |
| 有料プラン(Jimeng) | 月額69元(約1,400円) | 高機能モード、商用利用可、優先生成キュー、Pro版機能へのアクセス |
| API利用 | 約$0.60 / 10秒(2K) | 開発者向け、大量生成対応、火山エンジン経由(2月14日公開) |
AI動画生成ツール料金比較
| ツール | 無料枠 | 有料プラン | 最大解像度 | 最大尺 | 音声生成 | ウォーターマーク |
|---|---|---|---|---|---|---|
| Seedance 2.0 | あり(制限付き) | 69元〜/月 | 2K | 約2分 | ○(ネイティブ) | なし |
| Sora 2 | ChatGPT Plus内 | $20/月〜 | 1080p | 約1分 | × | あり |
| Kling 3.0 | あり | $9.90/月〜 | 1080p | 3分 | × | なし |
| Veo 3/3.1 | AI Studio内 | $19.99/月〜 | 4K | 約8秒 | ○(Veo 3) | あり(SynthID) |
| Runway Gen-4 | あり(125クレジット) | $15/月〜 | 4K | 約40秒 | × | あり(無料版) |
| Pika 2.2 | あり(150クレジット) | $10/月〜 | 1080p | 約10秒 | △ | あり(無料版) |
コスト比較で見る優位性
Seedance 2.0は、ウォーターマーク(透かし)が入らないという点で他ツールと大きく差別化されている。商用利用を前提とする場合、ウォーターマーク除去のために上位プランへのアップグレードが必要な他ツールと比較して、トータルコストでは有利になるケースがある。
また、音声をネイティブに同時生成できる点も見逃せない。他ツールでは別途音声生成サービスを利用する必要があるため、ワークフロー全体で見たときのコスト効率はSeedance 2.0が優れていると言える。
一方で、最もコストを抑えて始めたい場合はKling 3.0(月額$9.90〜)やPika 2.2(月額$10〜)が有力な選択肢だ。すでにChatGPT Plusに加入している方であれば、追加費用なしでSora 2を利用できるのも魅力的だ。
日本からSeedance 2.0を使う方法
Seedance 2.0は中国発のサービスであるため、日本から利用するにはいくつかのルートがある。ただし、2026年2月12日以降、日本リージョンではSeedance 2.0の利用が停止されている(著作権問題を受けた措置とみられる)。以下は2月24日のグローバルローンチ以降に利用可能になると想定される方法を、難易度・費用・機能の観点から整理した。
方法1: Jimeng(即梦/剪映)経由【中国版】
Seedance 2.0のフル機能を最初に体験できるのが、ByteDanceが中国国内向けに展開するJimeng(即梦)だ。動画編集アプリ「剪映(CapCutの中国版)」からもアクセスできる。
現時点でSeedance 2.0の全機能(マルチショット生成、Visual Anchoring、音声同時生成など)を最も網羅的に利用できるプラットフォームだ。ただし、中国の電話番号が必須であり、有料会員(69元〜/月、約1,400円〜)への登録が必要とされている。日本在住のユーザーにとっては、アカウント作成のハードルが高く、決済手段も中国国内向けが中心となるため、気軽に試せる方法とは言えない。
方法2: Dreamina / CapCut経由【国際版・推奨】
日本のユーザーに最もおすすめなのが、国際版のDreamina(CapCut経由)だ。2026年2月24日にグローバルローンチが予定されており、CapCutの既存インフラを活用した正規の国際版サービスとなる。
CapCutはすでに日本で広く利用されている動画編集アプリであり、日本語UIに対応する可能性が高いと考えられている。VPNや特殊なアカウント設定は不要で、通常のアカウント登録だけで利用を開始できる見込みだ。料金体系は2月24日のローンチ後に詳細が発表される予定だが、CapCutの既存プランに統合される形になるとみられている。
正規ルートかつ最もアクセスしやすい方法であるため、特別な理由がない限りこちらを待つのが賢明だ。
方法3: サードパーティプラットフォーム経由
Seedance 2.0のモデルは、いくつかのサードパーティプラットフォームでもすでに利用可能だ。代表的なサービスとしては、Morph Studio、Pollo AI、seedanceai.comなどがある。
これらのサービスはVPN不要で、日本からすぐにアクセスできる点が大きなメリットだ。ただし、Seedance 2.0の全機能が利用できるとは限らず、マルチショット生成やVisual Anchoringといった高度な機能が制限されている場合がある。また、料金が公式版と比べて割高になるケースもあるため、コストパフォーマンスを重視する方は注意が必要だ。
方法4: API経由【開発者向け】
自社サービスやアプリケーションにSeedance 2.0を組み込みたい開発者向けには、API経由での利用が最適だ。ByteDanceのクラウドプラットフォームである火山エンジン(Volcano Engine)を経由して、2026年2月14日からAPIが提供されている。
APIは非同期ジョブベースの設計を採用しており、リクエストを送信した後にジョブIDを受け取り、完了後に結果を取得する形式だ。大量の動画生成をバッチ処理するワークフローに適している。
また、AtlasCloudやCometAPIといったサードパーティのAPI中継サービスも利用可能だ。これらは火山エンジンのアカウント作成が難しい場合の代替手段として活用できる。
4つの方法を比較
| 方法 | 難易度 | 費用 | 全機能 | 日本語UI | おすすめ度 |
|---|---|---|---|---|---|
| Jimeng(中国版) | 高 | 69元〜/月 | ○ | × | ★★☆☆☆ |
| Dreamina / CapCut | 低 | 未発表 | ○ | △(予定) | ★★★★★ |
| サードパーティ | 低 | サービスによる | △ | △ | ★★★☆☆ |
| API(火山エンジン) | 高(開発者向け) | 従量課金 | ○ | – | ★★★★☆ |
結論として、一般ユーザーであれば2月24日のDreamina/CapCutのグローバルローンチを待つのが最善策だ。今すぐ試したい方はサードパーティプラットフォーム、開発者の方はAPI経由での利用を検討してほしい。企業でのSeedance 2.0導入を検討中の方は、AQUAのAI開発チームまでお気軽にご相談いただきたい。
プロンプト作成テクニック
Seedance 2.0で高品質な動画を生成するには、プロンプト(指示文)の書き方が非常に重要だ。ここでは、プロの映像制作者も実践しているプロンプト作成の基本テクニックを解説する。
プロンプトの5要素
効果的なプロンプトは、以下の5つの要素を意識して構成すると、意図に近い映像が生成されやすくなる。
- 被写体(Subject):人物・物体の外見や特徴を詳細に描写する。「女性」ではなく「30代の日本人女性、黒髪のボブカット、白いブラウスにネイビーのスカート」のように具体的に記述するほど、イメージに近い結果が得られる
- アクション(Action):被写体の動きを指定する。「walking slowly(ゆっくり歩く)」「picking up a coffee cup(コーヒーカップを持ち上げる)」など、動作を明確に書こう
- カメラワーク(Camera):カメラの動きや構図を指定する。tracking shot(追従撮影)、pan(パン)、zoom in(ズームイン)、aerial shot(空撮)、close-up(クローズアップ)など、映像制作の用語を使うと効果的だ
- スタイル(Style):映像のトーンやジャンルを指定する。cinematic(映画風)、documentary(ドキュメンタリー風)、anime(アニメ風)、corporate(企業VP風)など、ひとことで方向性を示せる
- テンポ(Tempo):映像の速度感やリズムを指定する。slow motion(スローモーション)、fast-paced(テンポが速い)、time-lapse(タイムラプス)などが使える
効果的なプロンプト例
用途別に、すぐに使えるプロンプト例を紹介する。いずれも英語プロンプトが推奨されるが、Seedance 2.0は日本語にもある程度対応しているとされている。
| 用途 | プロンプト例 |
|---|---|
| 商品紹介 | A sleek smartphone rotating slowly on a white marble surface, soft studio lighting, close-up macro shot, cinematic color grading, 4K quality |
| SNS広告 | Young woman in Tokyo street, cherry blossom falling, vertical 9:16 format, vibrant colors, trendy fashion, upbeat energy, tracking shot following her walk |
| 企業VP | Modern office space, diverse team collaborating around holographic displays, smooth dolly shot, corporate blue color palette, professional and innovative atmosphere |
| シネマティック | Massive wave crashing against a lighthouse at sunset, dramatic aerial shot transitioning to close-up of spray, epic mood, slow motion |
プロンプトを書く際のコツは、「何が(被写体)」「何をしていて(アクション)」「どう撮るか(カメラ)」「どんな雰囲気か(スタイル+テンポ)」の順番で記述することだ。この構造を意識するだけで、生成結果の品質が大きく向上する。
@メンションによるマルチモーダル参照
Seedance 2.0の大きな特徴が、プロンプト内で@メンションを使って参照素材を指定できる機能だ。
- @image1:アップロードした画像をキャラクターや背景の参照として使用する。例えば、自社のマスコットキャラクターの画像を参照させることで、そのキャラクターが動く動画を生成できる
- @video1:アップロードした動画のモーション(動き)を参照する。特定のダンスや動作パターンを再現したい場合に有効だ
- @audio1:アップロードした音声ファイルをBGMやリズム参照として使用する。音楽のビートに合わせた映像生成が可能になる
例えば、「@image1 の人物が、@video1 のダンスを踊っている動画を生成してください」のように、複数の参照を組み合わせることで、テキストだけでは伝えきれない細かなニュアンスを指定できる。この機能は、他のAI動画生成ツールにはないSeedance 2.0独自の強みだ。
ネガティブプロンプトの活用
ネガティブプロンプトとは、「生成してほしくない要素」を明示的に指定するテクニックだ。AI画像生成では広く使われており、Seedance 2.0の動画生成でも効果があるとされている。
よく使われるネガティブプロンプトの例:
- blurry(ぼやけた映像の回避)
- low quality(低品質の回避)
- distorted face(顔の歪みの回避)
- extra fingers(余分な指の回避)
- unnatural movement(不自然な動きの回避)
- flickering(ちらつきの回避)
ネガティブプロンプトは、ポジティブプロンプト(生成したい内容)と合わせて使用することで、生成結果の品質をより細かくコントロールできる。特に人物の顔や手指の描写でアーティファクト(不自然な生成物)が発生しやすいため、上記のようなネガティブプロンプトを追加しておくことをおすすめする。
バイラル動画とハリウッドの衝撃
Seedance 2.0が世界的な注目を集めたのは、技術的な優位性だけが理由ではない。リリース直後にSNSで爆発的に拡散したディープフェイク動画が、エンターテインメント業界全体を巻き込む大論争を引き起こしたのだ。
「トム・クルーズ vs ブラッド・ピット」の衝撃
2026年2月、アイルランドの映像作家ルアリ・ロビンソン(Ruairi Robinson)氏がSeedance 2.0を使って生成した「トム・クルーズとブラッド・ピットの格闘シーン」がX(旧Twitter)に投稿された。わずか2行のプロンプトから生成されたこの映像は、映画のワンシーンと見分けがつかないほどのクオリティで、瞬く間に数千万回の再生を記録した。
この動画に対する業界の反応は即座かつ激烈だった。
- イーロン・マスク氏(テスラCEO):動画を引用リポストし「速すぎる(This is happening too fast)」とコメント
- レット・リース氏(『デッドプール』シリーズ脚本家):「我々の時代は終わりかもしれない」と衝撃を表明
- 馮驥(フォン・ジー)氏(『黒神話:悟空(Black Myth: Wukong)』プロデューサー):Seedance 2.0を「地球上で最も強力な動画生成モデル」と評価
この他にも、『ゲーム・オブ・スローンズ』の別エンディングや、ロッキー・バルボアとオプティマス・プライムがファストフード店にいるクリップなど、著作権的に問題のある動画が次々と投稿された。
日本でも炎上 ― ウルトラマン vs 高市首相
ハリウッドだけではない。日本でもSeedance 2.0で生成された動画が大きな物議を醸した。
- 「高市首相 vs ウルトラマン」:巨大化した高市早苗首相がウルトラマン(ウルトラマンジャック)と市街地で格闘し、スペシウム光線で制圧される動画がSNSで拡散
- 「孫悟空 vs ドラえもん」:ドラゴンボールの悟空とドラえもんが格闘する動画
- 「葬送のフリーレン」:フリーレンのキャラクターたちが釣りをする動画
- 名探偵コナンのキャラクターが登場する動画
特にウルトラマン動画に対しては、『ウルトラセブン』(1967年)でモロボシ・ダン役を演じた俳優の森次晃嗣氏(82歳)がXで「ホントそう思います。円谷さん、訴えた方が良い」と怒りの声をあげ、「円谷プロ」がXのトレンド入りする事態となった。
日本政府も迅速に動いた。小野田紀美 知的財産戦略担当大臣は2月13日の閣議後会見で「著作権者の許諾なく既存の著作物が活用されているとすれば、看過できない」と強調。「ユーザー側も罪になり得る」と注意喚起を行い、ByteDance社とコミュニケーションをとりながら事案の改善に努めるよう指示した。この結果、2月12日以降、日本リージョンではSeedance 2.0の利用が停止されている。
ハリウッドとエンタメ業界の反発
バイラル動画の拡散を受け、米国のエンターテインメント業界は迅速に動いた。
- ディズニー(2月13〜14日):弁護士デイヴィッド・シンガー(Jenner & Block)名義で停止命令書を送付。スパイダーマン、ダース・ベイダー、グローグー(ベビー・ヨーダ)、ピーター・グリフィンなどの無断使用を指摘し、「ByteDanceによるディズニーIPの仮想的な強奪は、故意であり、広範かつ完全に容認できない」と非難
- MPA(アメリカ映画協会)(2月13日):チャールズ・リヴキン会長兼CEOが「中国のAIサービスSeedance 2.0は、1日のうちに米国著作物の無許可使用を大規模に行った」と声明。ByteDanceに「直ちに侵害行為を停止する」よう要求
- SAG-AFTRA(全米映画俳優組合)(2月13日):「Seedance 2.0は法律、倫理、業界基準、そして同意の基本原則を無視している」と非難する声明を公表
- Human Artistry Campaign(SAG-AFTRA、全米監督組合等で構成):「Seedance 2.0のローンチは、世界中のすべてのクリエイターへの攻撃だ。盗みはイノベーションではない」と声明
2023年のハリウッドストライキでもAIによる俳優の代替が争点となったが、Seedance 2.0の登場によりその懸念が一気に現実味を帯びた形だ。
著作権・法的問題と今後の動向
Seedance 2.0をめぐる法的問題は、AI動画生成技術全体に関わる根本的な課題を浮き彫りにしている。
主な法的論点
| 論点 | 内容 | 現状(2026年2月時点) |
|---|---|---|
| 肖像権 | 実在の人物(俳優等)のAI動画生成 | 米国では州法レベルで規制が進行中。日本では明確な法整備なし |
| 著作権 | 既存の映画・アニメキャラクターの学習データ利用 | フェアユース該当性が係争中。EU AI Actでは学習データの開示義務化 |
| 商標権 | ブランドロゴや商品の生成 | 商標権侵害として訴訟リスクあり |
| ディープフェイク規制 | 虚偽情報や名誉毀損の目的での利用 | 米国・EU・中国で規制強化の流れ。日本でも議論開始 |
| ウォーターマーク不在 | AI生成物の出所追跡が不可能 | Sora 2やVeo 3は透かし付き。Seedance 2.0はなし |
日本における法的状況
日本では現時点でAI生成動画に特化した法律は存在しないが、以下の法的枠組みが適用される可能性がある。
- 著作権法:AI学習段階では著作物の無許諾利用は原則可能(著作権法第30条の4)だが、「著作権者の利益を不当に害する場合」は認められない。生成物が既存著作物に類似する場合は侵害の可能性あり
- 肖像権・パブリシティ権:実在人物のAI動画生成は、判例上認められた肖像権・パブリシティ権の侵害にあたる可能性が高い
- 不正競争防止法:商品等表示の混同を引き起こすAI動画は、不正競争行為に該当しうる
- AI新法(2025年9月施行):「人工知能関連技術の研究開発及び活用の推進に関する法律」により透明性確保が明文化されたが、罰則規定のない基本法にとどまる
小野田紀美知的財産戦略担当大臣は、Seedance 2.0の問題について「ユーザー側も罪になり得る」と明確に警告している。日本ではSeedance 2.0の利用そのものが直ちに違法となるわけではないが、生成した動画の内容や使い方によっては著作権侵害や肖像権侵害として法的責任を問われる可能性がある。特に実在の人物や既存のキャラクターを用いた動画の生成・公開には十分な注意が必要だ。
なお、中国では先行事例として、広州インターネット法院が「ウルトラマンティガ」に酷似した画像を生成したAIサービス事業者に著作権侵害を認定し、賠償命令を出した判例がすでに存在する。
プライバシーと倫理的課題
Seedance 2.0の高い生成品質は、プライバシーと倫理の観点から深刻な懸念も生んでいる。
顔写真から声を生成 ― 緊急停止された機能
2026年2月10日、中国のテックメディア「MediaStorm」創設者の潘天鴻(パン・ティエンホン)氏が衝撃的な発見を報告した。自分の顔写真をSeedance 2.0にアップロードしたところ、音声サンプルを一切使用していないにもかかわらず、自分の声にそっくりな音声が生成されたのだ。潘氏はByteDanceに対して生体データの無断使用を問題視し、その体験を「恐怖を感じた」と表現した。
この事態を受け、ByteDanceはJimeng(即梦)プラットフォームで実在人物の写真や動画を参照素材として使用する機能を緊急停止した。現在はライブ認証ステップ(自分の映像と音声を録画して本人確認)が導入され、リアルな人物の顔のアップロードを検知・ブロックするセーフティフィルターも追加されている。
ディープフェイクのリスク
Seedance 2.0が生成する動画は、もはや肉眼では判別困難なレベルに達している。トム・クルーズのバイラル動画がその象徴だが、この技術が悪用されれば以下のようなリスクが想定される。
- 政治的偽情報:政治家の発言を捏造した動画による世論操作
- 詐欺・なりすまし:家族や知人の映像・音声を模倣した詐欺
- ハラスメント:特定個人を対象とした名誉毀損・嫌がらせ動画
- 選挙への影響:選挙期間中の候補者に関する虚偽映像の拡散
ウォーターマーク不在の問題
Seedance 2.0は生成動画にウォーターマークも電子透かしも付与しない。これはクリエイターにとっては利便性が高いが、AI生成物の出所追跡が事実上不可能になるという深刻な問題を伴う。
OpenAIのSora 2にはC2PA準拠のメタデータが埋め込まれ、GoogleのVeo 3.1にはSynthIDが使用されている。これらの技術はAI生成物の出所を証明する手段として機能しており、信頼性確保の業界標準になりつつある。Seedance 2.0がこうした対策を講じていない点は、今後規制当局からの圧力が高まる可能性がある。
責任あるAI利用に向けて
現時点では、Seedance 2.0を利用する際はユーザー自身が倫理的な判断を行う必要がある。以下のガイドラインを守ることを強く推奨する。
- 実在の人物の肖像を無断で使用しない
- 既存のキャラクターや知的財産を侵害する動画を作らない
- AI生成であることを明示する(特にSNSでの公開時)
- 虚偽情報や誤解を招く動画を制作・拡散しない
- 商用利用時は法的リスクを事前に確認する
Seedance 2.0のメリット・デメリット
ここまでの情報を踏まえ、Seedance 2.0のメリットとデメリットを整理する。
| メリット | デメリット | |
|---|---|---|
| 機能 | 4モーダル入力(テキスト+画像+動画+音声)は業界唯一。マルチショット生成やディレクターモードも他にない機能 | 学術論文未公開のため、技術的な検証が不十分 |
| 品質 | 2K解像度、ネイティブ音声生成、リップシンク対応。物理シミュレーションも高精度 | 物理シミュレーションはSora 2に及ばない場面もある。最大解像度はVeo 3.1の4Kに劣る |
| 料金 | 無料プランあり。有料でも月額約1,400円と業界最安水準 | 中国版(Jimeng)は中国電話番号が必要。グローバル版の料金体系は未確定 |
| 使いやすさ | ウォーターマークなし。@タグによる直感的な参照指定 | 日本語UIの対応状況が不透明。Jimengは中国語のみ |
| アクセス | 複数のプラットフォームで利用可能。APIも提供予定 | 日本からのフルアクセスは2月24日のグローバルローンチ待ち |
| 倫理・法的 | 商用利用が明示的に許可されている | ウォーターマーク不在により悪用リスクが高い。著作権・肖像権の問題が未解決 |
よくある質問(FAQ)
Q1. Seedance 2.0は日本語で使えますか?
Seedance 2.0は日本語プロンプトにも対応しています。ただし、現時点では英語プロンプトの方が精度が高いとされています。日本語UIについては、2026年2月24日のグローバルローンチ後にDreamina/CapCut経由で対応が期待されています。
Q2. 無料で使えますか?
はい。Jimeng(即梦)では無料プランが提供されており、1日あたり数回の動画生成が可能です。ただし、生成回数や解像度に制限があります。グローバル版(Dreamina/CapCut)でも無料枠が提供される見込みです。
Q3. 商用利用は可能ですか?
有料プランでは商用利用が認められています。ただし、実在の人物の肖像や既存の知的財産を使用した動画の商用利用は法的リスクがあるため、注意が必要です。
Q4. Sora 2とどちらが優れていますか?
用途によります。物理シミュレーションの精度ではSora 2が優位ですが、入力の柔軟性(4モーダル対応)、マルチショット生成、ネイティブ音声生成、コストパフォーマンスではSeedance 2.0が勝ります。詳しくは徹底比較セクションをご覧ください。
Q5. 生成した動画の著作権は誰にありますか?
これはAI生成コンテンツ全般に共通する未解決の法的課題です。多くの国でAI生成物の著作権保護は認められていませんが、プロンプトによる創作的寄与が認められるケースも出てきています。商用利用の際は法的アドバイスを受けることをお勧めします。
Q6. VPNなしで日本から使えますか?
サードパーティプラットフォーム(Morph StudioやPollo AIなど)経由であれば、VPNなしで現在利用可能です。公式プラットフォームについては、2026年2月24日のグローバルローンチ後、Dreamina/CapCut経由でVPNなしでの利用が可能になる予定です。
Q7. ディープフェイクは作れてしまうのですか?
技術的にはSeedance 2.0でリアルな人物の映像を生成することが可能であり、これがハリウッドで大きな議論を引き起こしています。ただし、実在の人物の肖像を無断で使用することは肖像権・パブリシティ権の侵害にあたる可能性があり、法的リスクが伴います。
Q8. 企業でのAI動画活用について相談できますか?
はい。AQUAのAI開発チームでは、Seedance 2.0をはじめとする最新AI動画生成ツールの企業導入支援を行っています。技術選定から導入、運用まで一貫してサポートいたします。また、映像制作サービスではAI技術を活用した次世代の映像制作にも対応しています。無料相談からお気軽にお問い合わせください。
まとめ ― AI動画生成の新時代
Seedance 2.0は、AI動画生成技術を新たなステージに引き上げた。
テキスト・画像・動画・音声の4モーダル入力、映像と音声を同時に生成するDual Branch Diffusion Transformer、複数カットの一貫性を維持するマルチショット生成、そして月額約1,400円という攻撃的な価格設定 ― これらの要素が組み合わさり、プロの映像制作者からSNSクリエイターまで、幅広い層に「使える」ツールとして急速に浸透しつつある。
一方で、トム・クルーズのバイラル動画に端を発した著作権・肖像権の議論、ウォーターマーク不在による悪用リスク、ディープフェイク規制の必要性など、技術の進化がもたらす社会的課題も無視できない。AI動画生成ツールの利用にあたっては、法的リスクと倫理的責任を十分に理解した上で、責任ある活用を心がける必要がある。
2026年2月24日のグローバルローンチにより、日本からもより手軽にアクセスできるようになる見込みだ。映像制作やマーケティングにAI動画を活用したい方は、今のうちに基本的な使い方やプロンプトのコツを押さえておくことをお勧めする。
AI動画・映像制作のご相談はAQUAへ
AQUAでは、AI開発サービスと映像制作サービスの両面から、AIを活用した映像制作の導入支援を行っています。「自社でAI動画を活用したい」「Seedance 2.0のAPI統合を検討している」など、どんなご相談でもお気軽にどうぞ。