動画生成AI、ついにAPIの時代に入ってきた感がある。
前から「テキストから動画作れます!」みたいなデモは山ほど見てきたけど、最近の流れはちょっと違います。
ちゃんと開発者向けにAPIを出し始めてるところが増えてきました。
- OpenAI
- Googleのやつ(Veo系)
- Kling
- Pika
この辺が今の主役かな、という印象。
で、今回は OpenAIのSora2 の話をする♦️
なぜSora2か
理由はシンプルで、
一番リリースはやそうだし、ChatGPTを有料契約してると今後そのまま使えそうな気配があるから。
これ、地味だけどめちゃくちゃ大事で。
生成AIって、正直複数契約するのだるいし、「試すだけ」でハードルが高い。
その点、OpenAIは
- 文章
- 画像
- 音声
- 動画
を全部まとめてくる未来が見えやすい。
だから今回はSora2 ♣️
今は誰でも使えるわけじゃないよ〜
注意点として、
Sora2はまだ一般公開されてない。
現状は、
- OpenAIに申請が通った一部の企業(申請拒否されると再度できないって罠あるから注意)
- Fal みたいな外部サービス経由
このどっちか。
Falが便利かな
Falは何がいいかというと、動画生成AIのAPIをまとめて触れるところ。2025年12月現在はね。
複数のモデルを
「同じノリで」
「同じ課金体系で」
試せる。
正直、どの動画生成AIが一番いいのか
は、触らないと分からないので、まとめて試せるのはかなり助かる。
今回使ったのはこれ👇
https://fal.ai/models/fal-ai/sora-2/text-to-video/api
テキスト → 動画が一番使えそう
動画生成にも色々あるけど、
- 画像から
- 動画から
- テキストから
一番使い道が広いのは、やっぱりテキストから。
CMSと組み合わせたり、将来的に自動生成パイプライン作ったり、妄想が一番膨らむ〜
なので、今回はテキスト → 動画 前提での話❤️
プロンプト、めちゃくちゃ大事
これはもう言うまでもないけど、プロンプトが全て。
Sora2は特に「雑に書くと、雑に返ってくる」。
なので、公式のプロンプトガイドは一回ちゃんと読んだ方がいい。
ここ👇
https://cookbook.openai.com/examples/sora/sora2_prompting_guide
ざっくり言うと、【シーン・カメラ・動き・雰囲気・時間軸】ここをまとめてちゃんと書け!っという話♠️
RUNTEQの12秒の宣伝作ったよ
最後に、私が作った動画とその時に使ったプロンプトを載せておく。
これは生成AIに作らせたものなので、現時点では著作権にも引っかからない⭐️
(生成AIの著作権は意外に結構厳しいです!)
プロンプト
シンプルなスタジオ空間。
写実的に描写された、
中年の金髪のパーマヘアの男性が画面中央に立っている。
その隣に、シンプルな線画とフラットな塗りのカートゥーンスタイルで描かれた、
二頭身のキツネのようなマスコットキャラクターがいる。
カメラは固定された正面構図。
照明は均一で、プロダクトデモ映像のように落ち着いた雰囲気。
音楽が流れ始めると、
男性とマスコットキャラクターは並んで「なるとダンス」を踊る。
腕を大きく振り、体を左右にくねらせるコミカルな動き。
男性は終始無表情で真剣な様子。
マスコットキャラクターも感情を抑えた淡々とした動き。
2人の動きは完全に同期している。
ダンスが終わった後、画面中央にシンプルなテキストが表示される。
表示されるテキスト:
「プログラミングスクールはRUNTEQ」
正直、「まだ課題は山積み」だけど、APIでここまで来たかという感じはかなりある。
動画生成AI、
これから一気に遊びから実装フェーズに入る気がしてる〜