このシーンかっこいいですよね。ということでどうやって作ったかを公開します。
プロンプトはこちらの作品ページからご確認ください。
https://www.seaart.ai/explore/detail/d7d5qkte878c73d47fg0?source=share_link&u_code=TG51BYWL
なぜリアルタイム検索が重要なのか
私はGrokで動画プロンプトを作ることが多いです。
理由はリアルタイムネット検索が強いから。Geminiなんかは平気で3年前の記事を参照したりしてきます。 AI界隈で3年前は江戸時代の話してるようなものです。
ただここは好みの問題なので普段使っているLLMで試してみるのもありかもしれません。
どちらにせよ、AIが自信満々に出す「僕の考えた最強のプロンプト」は信じていないので、まずネット検索させたり、手元の情報を与えたうえでプロンプトを作ってもらいます。
手順1:AIに「最新の教科書」を読ませる
とりあえず新規チャットを開いたらこんな感じでプロンプトを入れます。Seedanceの部分や検索するサイトは使いたいモデルや好みに応じて変更してください。
”Seedance 2.0のプロンプトの作り方のベストプラクティスを公式サイトやGitHub、reddit、hugging face、xなどから学習して教えてください”
そうするとこのように検索してわかった情報をまとめてくれます。
ーーーーーー
**Seedance 2.0のプロンプト作成ベストプラクティス**を、公式情報(ByteDance公式サイト)やGitHubリポジトリ、Reddit、Hugging Face関連議論、ブログ・YouTubeなどのコミュニティソースからまとめて解説します。
Seedance 2.0はByteDanceが開発したマルチモーダルAIビデオ生成モデルで、**テキスト+画像(最大9枚)+動画(最大3本・合計15秒以内)+音声(最大3ファイル)**を同時に扱えます。自然言語プロンプト+参照ファイルで、シームレスなマルチショット、キャラクター一貫性、ネイティブ音声同期、物理的に正確な動きを実現します。公式サイト(seed.bytedance.com)ではプロンプトの詳細ガイドは公開されていませんが、「自然言語+参照で動作・照明・カメラを精密制御可能」と強調されています。
実践的なベストプラクティスは、主にコミュニティ(RedditのPromptEngineering、GitHubのawesome-seedance系リポジトリ、ImagineArt・Crepal・MindStudioなどのガイド、X/YouTubeのクリエイター実例)から抽出されています。モデルは**早いトークン(文頭)を重視**する傾向があるため、構造化が非常に重要です。
### 1. 基本的なプロンプト構造(最も推奨されるテンプレート)
効果的なプロンプトは**明確な順序**で書くと一貫性が高まります。複数のガイドで共通しているのは以下の形式です。
**推奨構造(Subject → Action/Motion → Camera → Styleの4ブロック形式)**
```
Subject: [主体の詳細(年齢・服装・表情・設定・時間帯・ムード)]
Motion: [動作 + ペース + 持続時間]
Style: [主要スタイル + 照明 + 色調]
Camera: [構図 + レンズ + 動き + 制約]
Negatives: [避けたい要素(任意)]
```
**もう一つの実践的テンプレート(5パート)**(ImagineArtガイドより)
**Subject → Action → Camera → Style** + 品質サフィックス
例:
`[Subject] + [Action(現在形の単一動詞)] + [Camera: ショットサイズ + 動き + アングル + レンズ] + [Style: 1つの視覚アンカー(film/artist) + 照明 + 色調] + 4K Ultra HD, cinematic, sharp details, stable motion`
- **なぜこの順序が良いか**:モデルがSubjectを強く優先し、Motion/Cameraで動きを制御、Styleで統一感が出やすい。
- **品質サフィックス例**(必ず最後に追加):`4K Ultra HD, rich details, sharp clarity, cinematic texture, stable picture, realistic physics, no deformation`。
### 2. タイムライン・プロンプティング(マルチショット/シネマティックに最適)
15秒以内の動画で**時間指定**を入れると、カメラワークやシーケンスが劇的に安定します(MindStudioガイド推奨)。
**基本形**
`[0s] Wide shot: [説明]... [3s] Slow dolly in: [次の動作]... [6s] Medium shot + rack focus: ... [8s-10s] ...`
- 5秒クリップ → 3ビート([0s] / [2s] / [4s])
- 10-15秒 → 4ビート([0s] / [3-4s] / [6-7s] / [8-10s])
**カメラ用語集**(Seedance 2.0が強く反応する用語)
- 動き:slow dolly in/out、tracking shot、pan left/right、tilt up/down、steadicam、arc shot、handheld micro-sway
- 構図:wide/medium/close-up/extreme close-up、over-the-shoulder(OTS)
- レンズ:35mm、anamorphic lens flare、shallow depth of field
- 照明/ムード:golden hour、low-key lighting、teal-orange grade、volumetric lighting
これで「ワンショットで自然なカット割り」や「感情の流れ」が制御しやすくなります。
### 3. マルチモーダル参照の使い方(@タグが最強)
- 画像/動画/音声をアップロードしたら、プロンプト内で **@image1**、**@video1**、**@audio1** と記述。
- キャラクター一貫性:同じ顔参照画像を繰り返し使い、`same person across frames` や `@pic1` を文頭に置く。
- 音声:唇同期・SFX・BGMを自然に生成(`lip sync to @audio1`)。
- 例:`@image1の女性が@video1の動きで... @audio1の音楽に合わせて...`
### 4. その他の重要Tips(Reddit・GitHub・実践ガイドから)
- **具体性最優先**:曖昧な表現(「人」ではなく「30代アジア人女性、黒髪ロング、赤いシルクドレス」)を避ける。動作も「走る」ではなく「全力疾走で雪の中を...」。
- **1ショット1焦点**:複雑すぎるプロンプトは崩れやすい。長編は別生成+後編集推奨。
- **長さ**:10秒以内に抑えると品質が安定(15秒上限でも後半が劣化しやすい)。
- **Negatives**(対応プラットフォームの場合):`deformed, blurry, low quality, text, watermark, extra limbs, inconsistent face`。
- **スタイル制御**:1つの主要スタイル(cinematic / editorial / product-focused)を選び、2-3個の補強語(film grain, soft contrastなど)で強化。複数スタイルを詰め込みすぎると「ベージュ」になる。
- **一貫性向上**:Subjectブロックを文頭に。`same person across frames` を明記。
- **避ける失敗**:複雑な螺旋カメラ(arc + spiral)は崩れやすい → シンプルなdolly/trackに留める。
- **プラットフォーム差**:Dreamina/CapCut、Higgsfield、RunwayなどでUI補助(プリセットカメラ)がある場合、プロンプトを簡略化可能。
### 実際のプロンプト例(コミュニティから抜粋・簡略化)
**例1: シンプルシネマティック(ImagineArt風)**
`A young woman in a red dress walks slowly along a rainy Tokyo street at night. Medium shot, slow dolly forward, 35mm lens, cinematic lighting with neon reflections, teal-orange color grade, 4K ultra realistic, sharp details.`
**例2: タイムライン多ショット**
`[0s] Wide shot: 空の教室に夕陽が差し込む。[3s] Slow push-in: 窓際の少女が本を読む。[6s] Close-up: 彼女の微笑み。[8s] Rack focus to outside: 桜が舞う。Cinematic Japanese drama, warm golden light, film grain, stable motion.`
**例3: マルチ参照(GitHub風)**
`@image1の騎士が暗い洞窟に入る。Wide shot, torch light, low angle tracking shot. [3s] Close-up of nervous eyes. Draws glowing sword. Cinematic, realistic physics, echoing footsteps sound from @audio1.`
GitHub(awesome-seedance-2-promptsなど)には500以上の実例が公開されており、タイムコード付きの詳細プロンプトが特に役立ちます。
### 学習リソースまとめ
- **公式**: seed.bytedance.com / Dreamina(CapCut)で実際に試すのが一番。
- **GitHub**: awesome-seedance-2-prompts(実例500+)、各種APIラッパー。
- **Reddit**: r/PromptEngineering や r/generativeAI で「Seedance 2.0 prompt」検索。
- **ブログ/動画**: ImagineArt、Crepal.ai、MindStudioのガイド、YouTubeの「Seedance 2.0 Prompting Guide」系動画。
- **X(旧Twitter)**: 最新の実例が毎日投稿されている(#Seedance2.0)。
これらのベストプラクティスを守れば、初回からかなり安定したシネマティック動画が生成できます。最初はシンプル構造から始め、タイムラインや@参照を徐々に追加するのがおすすめです。実際に生成しながら微調整を繰り返してください!
具体的なプロンプト作成の相談や、特定のジャンル(アニメ・広告・アクションなど)の例が必要なら教えてください。
ーーーーーー
またはSeaArt上にあるプロンプトガイド記事をまるまるコピペしてLLMに投げるのも有効です。
例:LTX 2.3 プロンプトガイド (Wiz.X)を全部コピペして ”これがLTX2.3のプロンプトの作り方です”
手順2:具体的なイメージと言葉で指示を出す
これをしたうえで作りたい動画の開始フレームや参照画像をアップロードとするとともにどんな動画を作りたいかを伝えると、この回答をもとにプロンプトを作成してくれます。
AIを混乱させないコツ
またLLMに画像の内容を伝えるときは、画像1、画像2とだけ伝えるより画像の内容を伝えたほうがAIが混乱せずに済みます。とくに参照画像が多いとモデルが混乱して違う画像を参照するので大事です。
例:"画像1の熊耳の少女が画像2の紫色のドラゴンの体を駆け上がり、最後に頭を剣手切りつける動画のプロンプトを作りたい。10秒。映画のようなワンカットシーン。"
こうすることによって、精度の高いプロンプトを作ることができます。
手順3:プロンプトの確認と微調整
もちろん出力されたプロンプトを読んでみて自分のイメージと違ってないか確認は必須です。
なんか違うなと思ったときはチャットでここはこうしたいと指示を出し最終プロンプトを作っていきます。
まとめ
1.リアルタイム検索でモデルごとの「正解の書き方」をAIに調べさせる、または正解の教科書を教える。
2.その「正解」をベースに、自分のやりたいことを具体的に伝える。
3.画像の内容は言葉で補足してAIの誤解を解く。
この「AIに教科書を読ませてから書かせる」スタイル、ぜひ試してみてください。Seedance 2.0に限らず、あらゆる最新モデルに応用可能です。
AIのことはAIに聞けとよく言いますが、全然そんなことありません。あいつらは知らないことを平気で正解であるかのようにいってきます。
なのこの調べさせたり、教科書を渡す手順がとても大事になります。これは動画プロンプトに限らずすべてのことにいえると思います。
発展として、ここで調べたプロンプトガイドをもとにカスタムGPTやGemをつくると次回以降プロンプトを制作するのが少し楽になります。
いくつか作ってあるけど、かなり自分用にカスタムしてしまっているのでいつか紹介できたらいいなw














