Supershipの名畑です。2023年秋アニメが始まりましたが「ミギとダリ」が一つ一つの演出へのこだわりも感じられて、面白い。同じ原作者の「坂本ですが?」も面白かったんですよね。本当に少しでもたくさんの人に見ていただきたい。
はじめに
少し前から話題になっているAI動画生成ツールであるPika Labsを遅ればせながら触ってみたのでその記録を残します。
まずはテキストから動画を生成し、次に元画像を用いた上での動画生成をしてみます。
生成系AIの世界は変化激しいので、楽しいですね。どうやって活かすかは悩ましい部分はあれど、日々、新鮮な驚きと巡り会えます。
前提
- 現在はベータ版です
- 生成した動画にはウォーターマーク(透かし)が入ります
- 生成される動画の秒数は3秒です
- 本記事におけるアニメーションgifは容量の都合で画質を低下させていますので、実際の動画はもっと高画質です
Discordへの参加
Pika Labsで動画を生成するためには、DiscordにてPika Labsのサーバに参加する必要があります。
サイトからJOIN BETAを押すとPika LabsのDiscordサーバーに遷移します。私が参加した時は特に制限などなく、すぐに参加できました。一時的なものかもしれません。
いくつものチャンネルがありますが、ざっとした使い方はgetting-startedにまとまっています。
基本的にはgenerate-1〜generate-10のいずれかのチャンネルでメッセージにコマンドを入力するというものです。
下記が例です。
/create prompt: a robot is walking in the forest, sunset -ar 16:9 -motion 2
また、他の人に見られないように動画を生成することも可能です。
ベータ版の今だからこそのようですが、Pika BOTにDMでコマンドを書くと、publicなチャンネルに書くのと同じことができます。
Text to Videoで動画を生成してみる
まずは試しにテキストから動画を作ってみます。
Text to Videoというやつです。
28 year old Japanese woman smilingと書いてみました。
すると**Generating video... Be patient!(以下略)**というメッセージが表示され、少し待つことになります。
時間帯などによるのかもしれませんが、私が生成したときは1分も待ちませんでした。
待っていると下記のように生成完了が通知されます。
GIFにしてみたものが下記です。
微妙にではありますが、動いていますね。
いつもは生成した人物は静止しているので、とても新鮮です。
Image to Videoで動画を生成してみる
次に、元画像を用いて動画を生成してみます。
Image to Videoです。
元画像は私のQiitaではお馴染み、Stable Diffusion生まれのこの方です。
元画像を用いての生成ではanimateコマンドを使います(Text to Video同様にcreateも使えるようではあります)。
スラッシュの後ろにanimateと入力して、指示に従って元画像をドラッグアンドドロップします。
そして生成されたのは以下です。
おお、いつもの彼女が、動いている。
まばたきしている。
プロンプトを指定してみる
Image to Videoでもプロンプトを指定することは可能です。
laugh hystericallyと入れてみました。
日本語にすると「大笑い」といった感じでしょうか。
生成されたのはこちらです。
hystericallyかどうかはともかくとして、確かに、笑っている。
いつもの彼女が、微笑みかけてくれている。
すごい。
今回はここまでで。
最後に
裏側でどれだけの重い処理をしているのだろう? 処理コストがえげつなさそうです。
AIによる動画生成というのはこれから間違いなくニーズが増していくでしょうし、それに応じて、コストの問題も徐々に解消されていくでしょうかね。
encrypt_textやencrypt_imageもできるようなので、もっと遊んでみたい。
あと、5月に書いた「Stable Diffusionにおける同一人物の別表情生成をPythonとWeb APIで試みた記録」と比べると感慨深い。
宣伝
SupershipのQiita Organizationを合わせてご覧いただけますと嬉しいです。他のメンバーの記事も多数あります。
Supershipではプロダクト開発やサービス開発に関わる方を絶賛募集しております。
興味がある方はSupership株式会社 採用サイトよりご確認ください。