この記事でわかること
- Oscarsが要求する「人間制作宣誓書」とは何か(1分で理解)
- 日本企業(pixiv・KADOKAWA等)が導入しはじめた「認証バッジ」の仕組み
- Claude Code に丸投げで、自分の制作ログを自動保存するスクリプト(コード不要で動く)
- 「人間性プレミアム」を取りにいくために、今週できる具体的な1アクション
結果サマリー
- AMPAS「Affidavit of Human Origin」が2026年5月から義務化 — 制作宣誓書の提出が賞レース参加の条件
- pixiv・KADOKAWA・大和証券など日本企業5社がすでに「AI利用開示」仕組みを導入
- Claude Codeに丸投げで約15分で「制作ログ自動記録スクリプト」が完成する
- コードが書けなくてもChatGPTへの貼り付け1回で同等のスクリプトが生成できる
背景:なぜ「人間が作った証明」が必要になったのか
2026年、アカデミー賞(AMPAS)が「Affidavit of Human Origin(人間起源宣誓書)」の提出を求め始めました。
この宣誓書は、作品を提出するときに署名で提出する文書です。「この作品の脚本や演技という創造的判断の部分は、AIによって代替されていない」という内容を証明します。
ざっくり言うと:
- VFX(映像特効)→ AIを使ってOK
- 脚本・演技・監督判断 → AIが代替したら失格の可能性あり
文化庁の2025年調査によると、日本企業の42.3%が生成AIをすでに業務活用しています。音楽、デザイン、文章、コード、映像制作——あらゆるジャンルで「AIが作ったもの」が日常になりました。アメリカの Gallup の調査では、クリエイティブ職種の78%がすでに何らかの形でAIツールを使っているとされています。
「AIが作ったもの」が当たり前になったからこそ、「人間が作った」という事実自体がプレミアムになる逆説が起きています。希少性の経済学と同じ論理です。
これが 人間性プレミアム(Human Premium) です。
Oscarsは世界最大の映画賞です。そこで生まれたこのルールは、コンテンツ産業、ソフトウェア開発、金融アドバイザリーなど「人間の知的判断が求められる領域」すべてに波及します。
日本企業は何をやっているか
日本でも、Oscarsと同じ流れが始まっています。
| 企業 | 対応内容 | 効果 |
|---|---|---|
| pixiv | AI不使用宣言機能を作品投稿に追加 | 閲覧数が2.3倍 |
| KADOKAWA | 作家ごとの制作ログシステム導入 | 著作権管理の透明化 |
| 大和証券 | AI下書き+人間最終判断の二層責任構造を外部公開 | 投資家への説明責任確保 |
| 資生堂 | 人間クリエイターとのコラボ証明書を海外バイヤー向けに発行 | 海外訴求力向上 |
| 小学館 | 編集者の関与ログをデジタル保存する試験運用 | 電子書籍の著作権証明 |
共通点:人間の関与を記録して、外部に見せる仕組みを作っている。
これが「認証バッジ化」の流れです。
認証バッジ化は3段階で進みます:
- 宣誓(Affidavit) — 人間の関与を自己申告で宣言する
- 透明化(Transparency) — 制作ログや関与記録を第三者が確認できる形で保管する
- バッジ化(Badging) — 外部から検証可能な認証マークとして機能させる
pixivがこの流れを先行実装し、閲覧数2.3倍というデータが出たことで、他の産業への波及が加速しています。
ルールの核心:「同意要件」と「二層責任構造」
Oscarsのルール設計には、2つの重要な概念があります。この2つを理解することで、日本の職場や自分のクリエイティブ活動にどう応用できるかが見えてきます。
同意要件(Consent Requirement)
自分の作品がAIの学習データとして使われる前に、本人の許可を必要とするルールです。
「学習させる段階の同意」と「AI出力を公開する段階の同意」、この2段階で権利者の意思が確認されます。
特に重要なのは「学習させる段階」の同意です。過去に公開したイラスト、文章、コードが誰かのAIモデルの学習データになる前に、本人の許可が必要だというルールです。
pixivはすでにこれを実装しています。設定画面で「AI学習への利用を許可しない」を選べるようになっています。プラットフォームによって設定の場所は異なりますが、プライバシー設定やコンテンツ利用設定の中に該当する項目があることが多いです。
二層責任構造(Dual-Layer Accountability)
「AIが使えるゾーン」と「人間が必ずやらないといけないゾーン」を明確に分ける設計です。
Oscarsの場合:
- AIが使えるゾーン → VFX、音響処理、映像編集の一部
- 人間が必ずやるゾーン → 脚本、演技、監督としての創造的判断
大和証券の場合:
- AIが使えるゾーン → レポートの構造生成、データ集計
- 人間が必ずやるゾーン → 最終的な投資判断、リスク評価の署名
この「ゾーン設計」を自分の業務に当てはめることが、人間性プレミアムを受け取るための準備になります。エンジニアであれば、「AIが生成したコードを採用するかどうかの判断」「アーキテクチャの選択」「ユーザー体験の設計方針」が人間ゾーンに該当します。AIが生成できるのはコードの実装であり、なぜそのアーキテクチャにするかという判断は人間にしかできないからです。
実践:Claude Code に丸投げして制作ログを自動保存する
やること(3ステップ)
コードを書く必要はありません。以下の3ステップで動きます。
ステップ1: Cursor(エディタ)を開く
Cursorはすでにインストール済みの前提です。まだの場合は cursor.com から無料でダウンロードできます。
ステップ2: 作業フォルダを開いて統合ターミナルを起動する
- Cursor 左上メニュー →
File → Open Folder→ 作業フォルダを選択 - Cursor 下部メニュー →
Terminal → New Terminal→ 統合ターミナルが開く - ターミナルで
claudeと入力 → Claude Code が起動
Claude Code が見ているのは、Cursor の左パネル(エクスプローラー)に表示されているフォルダの中だけです。
ステップ3: 以下の文章をそのまま Claude Code のチャット欄に貼り付ける
私はライター/デザイナーです。
今日作成したファイルの「変更履歴ログ」をMarkdown形式で記録するスクリプトを作ってください。
記録する内容:
- ファイル名
- 変更した日時
- 変更の概要(1行)
- 人間が判断した箇所のメモ欄
保存先は ./production_log.md にしてください。
Pythonで作成してください。
Claude Code が production_log_tracker.py というスクリプトを作り、Cursor 左パネルに新しいファイルが追加されます。あとは python production_log_tracker.py と入力するだけで production_log.md に制作ログが記録されていきます。
ChatGPT でもできる
Claude Codeを使わない場合でも、ChatGPT のチャット欄に以下を入力するだけです:
私の職種は○○です。
今日の作業ログをMarkdownで記録するPythonスクリプトを書いてください。
保存先は production_log.md にしてください。
生成されたコードをコピーして、テキストエディタに貼り付けて .py 拡張子で保存、ターミナルで実行するだけです。
なぜ制作ログが「人間性プレミアム」につながるのか
制作ログが残ると、3つの場面で証明力になります。
- デザイナー: クライアントから「AIが作ったか、人間が作ったか」と問われたとき。ログがあれば「ブリーフを読んで自分が判断し、AIの3案のうちAを選んだ理由」を示せます。
- エンジニア: 転職活動で「あなたの実力とAIの力の区別がつかない」と言われたとき。Gitのコミットコメントに「なぜこの設計にしたか」が残っていれば、判断力の証拠になります。
- ライター: 著作権を守りたいとき。日時付きの記録があれば、AIが類似した表現を生成した場合でも先行して創作したという証明になります。
KADOKAWAの制作ログシステムは、「作家がAIの提案のうちどこを採用し、どこを修正したか」を記録して著作権の創作性を証明する仕組みです。記録がある人が有利になる構造は、今後すべての職種に広がります。
過去の判断記録はAIに奪えない
もうひとつ重要な概念があります。
制作ログ、ポートフォリオ、過去の判断記録——これらは 一度記録されると、AIに後から代替されない資産 になります。
AIは「今作れるもの」を代替します。でも「過去にどう判断したか」「なぜこの選択をしたか」というプロセスの蓄積は、AIが後から生成することができません。
これが「剥奪不可資産(Non-Deprivable Assets)」です。
エンジニアの文脈で言うと:
- git commit のコメント(「なぜこう実装したか」)
- コードレビューでの議論の記録
- 設計判断のメモ(Architecture Decision Record)
これらがそのまま剥奪不可資産になります。AIが同じコードを生成できても、「なぜその実装判断をしたか」という文脈は記録した人間だけが持っています。
協働の記録がない人は受賞できない
最後に、この記事全体の核心をまとめます。
AIとの協働は、もう当然の前提になっています。GitHub Copilot、Claude Code、ChatGPT——これらのツールを使ってコードを書いたり、文章を書いたりすることは、すでに多くの現場で標準になりつつあります。
でも、ひとつ気をつけることがあります。
「協働したこと」だけでは、人間性プレミアムはもらえません。
「協働の過程に、自分の関与が記録されていること」が条件です。
具体的に言うと、次の違いがあります。
パターンA:Claude Code でコードを生成して、そのままコミットする。コミットメッセージは「add feature」。
パターンB:Claude Code で3つの実装案を生成して、パフォーマンスとメンテナビリティのバランスを考えてBを選んだことをコミットメッセージに書く。
パターンAは「AIが作った」ように見えます。パターンBは「人間がAIと協働して判断した」ことが記録されています。将来、「このコードはあなたが書いたのかAIが書いたのか」と問われたとき、パターンBの記録がある人だけが「AIを使ったが、判断は自分がした」と証明できます。
Oscarsの宣誓書が求めているのはまさにこれです。協働は入場券です。人間性プレミアムは優勝賞金です。協働だけして証拠を残さなかった人は、入場はできても受賞できません。
KADOKAWAの作家が制作ログを残すのも、大和証券のアナリストが判断根拠を署名するのも、同じ論理です。
今週からできるアクションは、制作プロセスに「なぜこう判断したか」を1行メモすることです。Gitのコミットコメントでも、Notionのメモでも構いません。日時が自動記録されるツールなら何でも同じ価値があります。
もっと詳しく知りたい方へ
日本の産業別・世代別の「人間性プレミアム影響分析」データは AI Japan Index のOscars×AI分析ツール で無料確認できます。自分の業種がどれだけ影響を受けるかを数値で把握してから、制作ログの習慣を設計すると効率よく動けます。
FAQ
Q. 過去の作品はログがないと「人間性プレミアム」を証明できない?
A. 後付けログは証拠能力が低くなります。AMPAS規約は制作当時の事実確認を要求します。今後の作品からログを残すのが現実的です。
Q. Claude Codeで作ったスクリプト自体がAI生成では?
A. ツールはAI生成でも問題ありません。問題は「創造的判断」をAIが担った場合です。設計判断や作業タイミングが人間なら、ツールの生成手段は問われません。
Q. Gitのコミット履歴で代替できるか?
A. Gitは「変更事実」の記録ですが「判断理由」は含みません。コミットメッセージに「人間判断メモ:AI案不採用の理由〜」を添えると証拠能力が高まります。
出典
- AMPAS規約2026 / 文化庁AI著作権 / pixiv 2026年3月 / KADOKAWA 19団体声明 / 大和証券AIガバナンス
