初めに
普段AIで遊んでいるgitプルプルと申します。
セキュリティやプログラミングについてはど素人ですが、
セキュリティキャンプ2024 全国大会に応募し、選考を突破することができたので、
自身の応募課題を晒していこうと思います。
#志望動機
ディスコードサーバー"ローカルLLMに向き合う会"にてセキュリティキャンプについて知り、年齢的に応募が可能なセキュリティキャンプ全国大会の応募課題を確認したところ、自分の得意分野と課題のテーマが被っている部分が多く見られ、もしかしたら選考を突破できるのではないかと考えたからです。
#心がけたこと。
募集ページにて、
選考終了にあたり、竹迫講師主査から次回のセキュリティ・キャンプ全国大会を目指す方へのメッセージ
セキュリティ・キャンプの応募課題は、正解を当てに行くクイズではないので、
インターネットやChatGPTで調べたことをそのまま転記しているような回答では正直不足していたと思います。
https://www.ipa.go.jp/jinzai/security-camp/2024/camp/zenkoku/vote.html#z_pass
より引用
とあるように、2023年のものと比較して、LLMやその使い方に関するノウハウが広まった年だと思います。
そのため、少なからずChatGPTやClaude3を使う人は多いだろうと予測しました。
しかし、メッセージにもあるとおりChatGPTの回答を転記したものでは不十分になったり、他者と似たり寄ったりの回答になってしまいます。
そこで私はChatGPTを利用する人がいることを前提にどうやってLLMの回答と差別化したものを作成するかを考えました。
・GPTのカットオフを利用する
私が自身の回答を作成した2024年5月中ば時点での最高性能のモデル GPT4-oは2023年の12月にナレッジカットオフ(知識が更新された最後の時点)がなされています。
つまり、GPTを利用した回答では2024年に誕生した技術や出来事に対して十分な記述ができないのです。
そこで、私は回答にて提示した事例に関しては2024年のものを極力多く提示するように心がけました。
・インターネットを検索しても出てこない情報を盛り込む
GPTなどのLLMはインターネット上のテキストデータをクローリングして作成されたデータセットを用いて作成されています。そのため、表層Webに存在する情報しか基本的には知りません。
そのため、AI開発者のコミュニティ内でのみ存在するノウハウや自身の経験を元にした手法は現在のLLMには原理的に記述することが難しいと言えます。
そのため、今回は検索しても中々出てこないようなノウハウを回答に盛り込むことで差別化を計りました。
#反省点
・問題への回答しか書いておらず、熱意をわかりやすい形でアピールできなかった。
・全体的に事前調査が不足しており、昨年度などの参加者の回答をより多くリサーチすべきだった。
gitプルプルの回答
問1
私は普段AIで遊んでいるだけの人間なので、セキュリティ分野はど素人です。
正直この問題が一番書く内容が無くて苦戦しました()
そのため、AIをいじくりまわしてる人間にとってまだ身近な方な脅威であるサプライチェーンへの攻撃をテーマに書きました。
そういえば先日もOpenAIの鯖が落ちていましたね。
(実践 LLMアプリケーション・セキュリティ)
## 攻撃者の気持ちで以下の問に答えてください。
GPTやGemini等の大規模言語モデル(LLM)と連携したシステム「LLMアプリケーション」には様々な脅威が存在します。LLMアプリケーションを開発・運用する企業にとって最も大きな脅威となる攻撃シナリオを「OWASP Top 10 for LLM Apps」を参考にしてお答えください(実害の大きなシナリオを考えると分かりやすいかもしれません)。
* OWASP Top 10 for LLM Apps
https://owasp.org/www-project-top-10-for-large-language-model-applications/
## システム運用者の気持ちで以下の問に答えてください。
上記の攻撃シナリオに対し、あなたはどのように対策をとりますか。
###攻撃シナリオ
LLM05: Supply Chain Vulnerabilitiesについて考えていきます。LLMアプリケーションを運営する企業にとって最も大きなダメージを与えることが出来る最も深刻なシナリオは、サービス提供が不可能になる事態であると考えられます。 今回は、悪意ある攻撃者によってサービス提供が妨げられる例を考察していきます。
最も深刻な攻撃シナリオは、ChatGPT、Gemini pro、Claude3などの基盤モデルを提供するサーバーをダウンさせることです。 LLMのAPIをダウンさせるために効果的な手法としては、DDoS攻撃によるサーバーのダウンや、機械学習ライブラリへの攻撃者によるバックドアの設置などが挙げられます。
前者の具体的な手法としては、攻撃者がマルウェアに感染したコンピューターやIoT機器を利用し、流出した基盤モデルのAPIキーを用いて、基盤モデルのAPIエンドポイントに対して大量のリクエストを同時に送信するDDoS攻撃を行うという手法があります。攻撃者は、ボットネットを構築するために、マルウェアを拡散させ、多数のデバイスを感染させます。感染したデバイスは、攻撃者の指令に従って、APIエンドポイントに対して大量のリクエストを送信します。攻撃者は、流出したAPIキーを使ってリクエストを認証することで、APIサーバーに過剰な負荷を与えます。
大量のリクエストが同時に到着すると、APIサーバーはリソースを消費しつくし、LLMアプリケーションからの応答をうまく行えなくなります。さらに、LLMの推論には大量の計算リソースが必要なため、APIサーバーだけでなく、基盤モデルを提供するインフラストラクチャ全体を過負荷状態に陥らせることができるでしょう。
基板モデルへのDDoS攻撃が行われた例としては、2023年11月8日に米OpenAIのサービス(ChatGPT、API、Labs、Playground)がAnonymous SudanによるDDoS攻撃の事例があります。 この攻撃によってOpenAIのAPIが一時的に使用不可能となり、OpenAIのAPIを利用するあらゆるLLMアプリケーションが影響を受けました。
後者の関しては、LLMアプリケーションは様々なライブラリやOSSのツール群に依存しており、それらなしでは運用が極めて困難です。 また、それらのツールの開発・運営は個人のオープンソース開発者によって行われていることも珍しくありません。 しかし、メンテナンスを行っている開発者が必ずしも善意とは限らず、悪意ある攻撃者がバックドアを設置する可能性も存在します。 Linux環境で広く利用されているツール「XZ Utils」では、2024年3月29日にssh接続を突破するバックドア(CVE-2024-3094)が発見されました。 この事例では、攻撃者が長期間にわたってプロジェクトに貢献し、オーナーの信頼を得てマネージャー権限を手に入れ、その一年後に巧妙に偽装されたバックドアを仕込んでいました。 幸いにも発見者が偶然バックドアを特定し、当該バージョンを利用するLinuxディストリビューションがベータ版に留まっていたため、被害が拡大する前に復旧を進めることができました。しかし、もし見過ごされていた場合、XZ Utilsを利用する多数のLinuxディストリビューションやHomebrewでSSHの脆弱性の影響を受ける可能性がありました。
この事例のように、基盤モデルの推論に関わるライブラリやAPIサーバーで使用されるツール群にバックドアが仕掛けられるケースやDDoS攻撃などで、APIが使用不可能な状態に陥ると、Web上のサービスだけでなくRabbit R1などのGPT-3.5 Turboなどの基板モデルを利用するデバイス類も機能不全に陥ります。 今後ますますLLMを搭載するデバイスやソフトウェアは増加していくでしょう。 クラウドの分野でもAWSが停止した場合に業務を遂行できなくなる企業が多数存在するように、基盤モデルが使用不可能になった場合、LLMアプリケーションを使う個人や組織に深刻な影響を与える結果になると推測されます。
対策
まず最初に、サプライチェーンに関するリスクの一つとして挙げられる基板モデルのAPIサーバーへのDDoS攻撃が行われ、APIサーバーへのアクセスが不可能になったというシナリオの対処法をLLMアプリケーション運営者の視点から考察していきます。
最も有効な対策として挙げられるものはLLMアプリケーションの設計を一つの基盤モデルに頼るのではなく、
別の基盤モデルやローカルのLLMなどでも代用出来るような設計にすることが考えられます。
2023年ごろまではLLMのベンチマークサイトではGPT4の圧勝という状況でしたが、2024年では日本語や中国語での性能においてGPT4を上回るスコアを叩き出したClaude3 Opusや英語性能ではGPT4に肉薄するローカルモデルであるLlama3 70bなど初期のGPT4を超える能力を持ったモデルが誕生しつつあります。
状況に応じて別の基盤モデルやローカル環境で動くOSSのモデルに切り替え可能なような設計にすることで特定の基盤モデルが使用不可能な状況においてもサービスの継続が不可能になるという最悪の状態を回避することが可能になると考えられます。
サプライチェーンの脆弱性という観点からもう一つのリスクについて考えていきます。
LLMアプリケーションは様々なライブラリやパッケージに頼っており、その中には個人のOSS開発者たちによって、開発保守運用がなされているケースも少なくありません。それらに悪意のある攻撃者によってバックドアが仕掛けられるといったケースの場合、LLMアプリケーション運営者は多角的な対策を講じることが求められます。まず、ソフトウェア構成分析(SCA)ツールを活用することにより、既知の脆弱性や不審なコードを早期に発見することが可能になります。次に、必要最低限のライブラリやパッケージのみを使用することで、潜在的な脅威の数を減らし、アプリケーション全体のセキュリティを向上させることができ、不要な依存関係を削減し、シンプルかつ安全なシステム設計を心掛けることでリスクを低下させることが可能になると思います。また、バックドアが発見された場合には、影響範囲の特定、修正版の迅速な導入、影響を受けたシステムの復旧手順などを含む計画を準備しておくことで、問題が発生した場合の迅速な復旧を可能にする体制を整えることも有効だと考えます。最後に、継続的な教育と訓練によってセキュリティ意識を高い状態に保つことが重要です。
LLMアプリケーションの運営者としての立場ではサプライチェーンの上流である基盤モデルへの攻撃に対処することは非常に難しいですが、
代替手段の確保や使用しているライブラリに関する定期的なチェックを怠らないことで、サプライチェーンの上流でのインシデントの影響を極力避けることが可能になると考えられます。
問2
データセット作成に関して一番慣れている画像生成AIについて扱ってもよかったのですが、
全体的な問いを見る限り基本的にLLMが想定されていそうな気がしたのでそちらで書きました。(調べて
まとめてくださいなので日経新聞とかに載ってる話題の方が良いのかなとも思ったり)
あとdelveという単語を使いたかった...
# 問2(クラウドソーシングによる学習データ作成と品質管理)
近年、不適切な学習データを利用したことにより、AIがよろしくない振る舞いをしてしまうことが問題となってきています(品質問題や、プライバシー、バイアス・公平性の問題など)。そのような事例をいくつか調べ、まとめてください。
また、個々の事例について、どのようにすれば問題が起きることを防げたか、自分なりの対策を記述してください。
不適切な学習データでトレーニングされたLLMや認識モデルは時にハルシネーションを引き起こすことがあります。
その一つの事例として、2023年にニューヨーク州の弁護士が民事訴訟で資料作成にChatGPTを使用し、存在しない判例を引用してしまったという事例が存在します。これは、ニューヨーク行きのフライトでの事故に関する訴訟で、資料で引用された判例が見つからなかったため、ニューヨーク州連邦裁判所のカステル裁判官が確認したところ、弁護士がChatGPTを使っていたことが発覚し、弁護士は資料にデルタ航空やユナイテッド航空などが関連しているとされた6件の実在しない判例を引用していたという事件です。
この事例は間違っている可能性があるにも関わらず、ChatGPTの回答を鵜呑みにし、その情報が正しいのか検証もせずにそのまま使用してしまったため引き起こされたと考えられます。
このような事例を防ぐために、RAGを使用し実在の判例を検索させその上で回答させる事やLLMの回答が正しいのか人間の手でのダブルチェックを行うことで問題を解決できるのではないかと考えます。
また、LLMはそのデータセットやRLHFを行った人間の持つ癖やバイアスを引き継ぐことがあるという問題があります。
その一例として挙げられるものに、2023年を堺に論文にdelveという単語の出現数が爆圧的に増加したという事例があります。
これは、Chatgptの普及時期と重なり、論文の執筆にLLMを利用した人が増えたことが原因ではないかと考えられています。
この”delve”というChatgptがよく使用するこの単語は主にナイジェリアなどのアフリカ英語でよく使われる単語で、
学習時の対話データにアフリカ圏の対話が多く含まれていた若しくはRLHFのトレーニングが人件費の安いアフリカの人たちを雇って行われたことにより、彼らの影響を受けたLLMがこのような”delve”というアフリカ以外ではあまり使われない言葉を多用するというバイアスを抱えているという問題があります。Chatgptはdelveの他にもmeticulousやunderscoreなどの単語を人間の文章と比較して多用する傾向があります。
これを解決する方法として、RLHFがあります。RLHF(Reinforcement Learning with Human Feedback)とは、強化学習において人間のフィードバックを活用してエージェントの行動を学習・改善する手法です。特定の国や地域の価値観に偏ることが無いように一つの国や地域でのみRLHFを行うのではなく複数の地域に分散させてRLHFを行うことで解決が可能であると考えます。
問3
ローカルでLLMや拡散モデルを触っている人間にとって低コストで高性能なモデルを作る手法に関する話題には事欠きません。
全ての問題の中で一番書きやすかったかもしれない...
## 生成AIの開発者・運用者の気持ちで以下の問に答えてください。
大規模言語モデル(LLM)は有用である反面、誤った情報を学習する・学習データの不足等が原因で、誤った情報をまことしやかに生成する"幻覚問題"が課題になっています。幻覚問題を解消する方法の一つとして、「高品質の学習データ」を用意し、LLMに学習させることが挙げられますが、誤りのない(または限りなく少ない)高品質の学習データを大量に収集しようとすると、非常にコストが高くなってしまいます。
低コストで信頼できるLLMを作成することはできるのか?
また、作成できるとしたら、どのような仕組みで行うのか具体的に回答してください(技術・非技術問わず考えてみてください)。
事前学習で低コストかつ高品質な大規模言語モデルを作成することについて、どのような手法があるのかを考えていきます。
低コストで信頼できるLLM、つまりphi-3のように小型でありながら出力の質が高いAIを作成するには、データセットのアプローチと学習面でのアプローチが考えられます。
データセットのアプローチでは大きく二つの方法が考えられます。
一つ目は高品質なデータセットを低コストで作成する方法です。Microsoftの小型かつ高性能な言語モデルであるphi-3は高品質なデータで学習することにより、小型かつ高性能なLLMを実現しています。phi-3では、高品質なデータセットの判断基準を決めるために大量の計算資源を使って総当たり的な方法を利用して検証していました。しかし、低コストで学習する場合、そのような手法は使えません。そのため、低コストで質の高いデータセットを揃えるために、最初に高品質のデータとは何かを考え、その仮説をもとにデータを集める必要があります。私のこれまでの経験や見聞を元に、私が考える質が高いデータとは適切にキュレーションされ、適切なアノテーションが存在し、一定量以上の長さがあり、ドメインや話題のカバー範囲が広いデータであると考えられます。優れた日本語で書かれたデータセットの例としては、学校の教科書や新聞記事のアーカイブ、人気の小説、各分野のwikiや辞典などが挙げられます。これらは第三者による校閲や修正が入っている場合が多く、優れた日本語で書かれた文章である可能性が高いため質の高いデータセットだと考えることができます。これらのwikiや小説類はwikiのAPIやなろう小説APIなどを利用することで容易にデータセットの作成が可能になると考えられます。特に教科書に関しては教科書LODプロジェクトとして、小学校から高等学校までの現在、過去の学習指導要領に沿ったテキストがAPIで簡単にダウンロードが可能です。
また、LLMではSFWのみのデータでトレーニングされたモデルよりもNSFWもデータセットに含むモデルの方が統計的に性能が上昇することが経験則的にわかっています。LLMと似た構造を持つ拡散モデルにおいても同様の傾向が見られます。そのため、低コストで信頼できるLLMを作成するために事前学習ではNFSWも含めたデータでトレーニングし、不適切な応答をRLHFで抑制する手段を取ることが望ましいと考えます。反対に質の悪いデータとして挙げられるものがTwitterのポストです。TwitterAPIを通して機械的に取得したTwitterのポストは、ほとんどが短文で校閲が入っておらず、正しい日本語である可能性が相対的に低いだけでなく、記述されている情報の確度も低いため、質の高いデータセットとは言えないでしょう。間違った知識が書かれた文章をLLMの学習に使用した場合、それはハルシネーションの原因になり、信頼できるLLMを作るためにそのようなデータは取り除く必要があると考えられます。
二つ目は、限りある高品質なデータセットを最大限活用する方法です。低品質なデータセットでも、それが低品質であるというアノテーションが入っているならば、LLMの品質を下げる結果にはなりません。より良いLLMを作成するには、データセットのクリーニングが必要不可欠です。実際の例としてはllama3のトレーニングにおいて学習データセットのクリーニングをllama2を用いて行っているというものがあります。既存のLLMを利用してデータセットの質に対してスコアやアノテーションを入れ、それを同時に学習させることで、高品質なデータセットを最大限活用できます。
学習面でのアプローチとしては、LLMを作成する際の費用面でのボトルネックとなるGPUサーバーの料金を圧縮するために、fp8での学習を行うべきだと考えます。LLMは量子化により性能が劣化しますが、fp8程度であればfp32やfp16での学習と比較しても無視できるレベルの劣化なので、fp8で学習することでその分のバッチサイズを上げ、より低コストかつ短期間でのトレーニングを行うことができます。
また、事前学習モデルをフルスクラッチで作成する場合、変わり種にはなりますが、bitnet-b1-58の採用も計算資源の節約と効率化の観点から検討に値すると思います。bitnet-b1-58は各パラメータが三値(-1, 0, 1)を取る1.58ビットのLLMで論文によるとfp16のモデルと同精度にも関わらず、LLaMAのfp16と比較して行列乗算における算術演算エネルギー消費が71.4倍も違うという結果が出ています。ウェイトは公開されていませんが、再現実験は成功しておりbitnetを採用することでGPUサーバー代を節約し、低コストでモデルを学習することが可能になると考えられます。
信頼できるLLMを作成するためには事前学習だけでなく、その後のinstruction形式でのトレーニングやRLHFも重要となります。
instruction形式での日本語の公開されているデータセットはそう多くありません。
そのため、LLMを作成するにあたってそれらのデータセットをある程度人力で作り、
それらを別のオープンな高性能なLLMに学習させ、そのモデルを使って学習用のinstruction形式のデータセットを作成し、LLMをトレーニングすることで低コストでのトレーニングが可能になると考えられます。
RLHFについても考えてみます。オフラインのRLHFを使用することで、LLMが危険な行動や望ましくない行動を取るリスクを減らすことができ、LLMの信頼性を上げることが可能になります。
以上のデータセットでのアプローチと学習面でのアプローチを組み合わせることによって、低コストで信頼できるLLMを作成することが可能になると考えられます。
問4
最近は猫も杓子もRAGって言ってるような気がします。
一番ビジネスに応用しやすい分野だからなのでしょうか?
(個人的にはファインチューニングが好きです)
# 問4(LLMとRAGで作るサイバーセキュリティ支援ツール)
大規模言語モデル(LLM)は有用である反面、"幻覚"によって誤った情報をまことしやかに提示する場合があります。サイバーセキュリティ対策にLLMを活用する場合、"幻覚"を放置することで誤った対策が提示され、インシデントに繋がる可能性があります。
"幻覚"のリスクを回避・低減するために何をすれば良いですか?具体的な対策をお答えください。
LLMの幻覚を回避するために重要なことは、同様の内容が書かれた表現が異なる良質で質の高い文章によって構成されたデータを大量に学習させることです。LLMに知識を与える場合は単一の内容を一回ではなく、違った表現で同じ内容が書かれた文章が何十、何百通りも必要になります。例えば高校化学の教科書を学習させる場合、一冊の本を何回も学習させるのではなく、同様の内容の別の教科書を複数種類学習させることで、知識を定着させることができ、その分野でのハルシネーションを防止することができます。
また、ハルシネーションの原因として上げられるものの一つにデータセットの時点既に情報が間違っており、それを学習したLLMが
他の有効な手段として、複数の異なるLLMを併用し、話し合わせてその結果をまとめることでハルシネーションを軽減することが出来ます。
また、MoEモデルを利用することも知識タスクにおいてハルシネーションを軽減させる場合において有効な手段です。
MoE(Mixture of Experts)モデルは、複数のエキスパートと呼ばれるそれぞれ特定のタスクに特化してトレーニングから成り、入力データに対して最も適切なエキスパートを選択し、その出力を組み合わせて最終的な予測を行います。
このMoEモデルは特に知識が必要とされるタスクに特にに秀でており、一例を挙げると、mistral7b x 10のMoEモデルの知識タスクの正答率はmistral70bを上回ります。
利用する目的に合わせた学習を行ったエキスパートモデルを組み込んだMoEモデルを利用することでそのタスクで発生するハルシネーションを軽減することが出来ます。
ハルシネーションの抜本的な対策として挙げられるのはLLMが自信を持って回答することが出来ない場合、はっきりわからないと言わせるという手法が考えられます。
実際にこの方法を利用することで、Snowflake Arcticはハルシネーションの割合を劇的に下げています。具体的には、hallucination-leaderboardにおいて、OpenAIの最新モデルのGPT4oのHallucination Rateは3.7%なのに対して、Snowflake ArcticのRateは2.6%と1位のGPT4 Turboの2.5%という高スコアに迫る性能を発揮できています。しかし、分からない場合は分からないと言わせるこの手法はLLMの独創性を下げる可能性も孕んでおり、独創性と正確性のトレードオフとなっているため、LLMの活用ケースによっては好ましくない手法な可能性があります。
LLMの根幹をなしているtransformersアーキテクチャはシーケンスの次のトークンを確率的に予測し、確率分布の中から最も確率の高いトークンを選択します。
ハルシネーションが発生する場合、この確率分布は広がります。この確率分布を確認することで、LLMの起こすハルシネーションをリアルタイムで動的に検知することが可能になると考えられます。この手法は他の手法とは異なり、専用のモデルの学習が不要なので現在存在するモデルをそのままの形で利用できるというメリットがあります。
他に考えられる対策としてはRAGを使った手法が考えられます。
LLMに質問に関係するwebサイトやドキュメントを読み込ませた上で質問に回答させることで、loraを使ったファインチューニングよりも高い精度の出力を得ることが可能になります。
ローカルで動かすことが出来るモデルのみで使用できる手法にはなりますが、プロンプトのテンプレートを工夫する手法も考えられます。ローカルLLMはプロンプトのテンプレートに任意も文章を使用可能なので、これを利用して質問に合ったテンプレートを使用することでハルシネーションや誤字の発生割合を下げることが可能になると考えられます。
以上の手法を複数併用することで、幻覚の頻度を軽減し、ハルシネーションによって発生するインシデントを未然に防ぐことが出来ると考えられます。
問5
書き方がいくらでもあるのでどういった路線で書こうか決めるのに難儀しました。
# 問5(これからのAIにとってのセキュリティを考える2024)
生成AI(画像生成、文章生成、音声・音楽生成等)の登場により、我々利用者は大きな恩恵を受けています。
例えば、知りたい情報を(検索するよりも)早く入手することや、レポート・小説・企画書・プログラムコード等の自動生成、また、オリジナルのアニメ画像や(実写と見紛うほどの)モデル画像、音楽の自動生成等、生成AIは社会のあり方を大きく変えてしまう可能性を秘めています。ところで、生成AIの恩恵を享受する人々がいる一方で、アナリストや小説家、アニメーターやモデル、声優、作曲家等、生成AIに仕事が奪われる(と言われている)人々も少なからずいます。
そこで、以下の3つの問に答えてください。
1. あなたが考える、社会のために役立つ生成AIの使い方は何ですか?
2. 1を行うことで不利益を被る人々は誰ですか?(職種等)不利益を被る人々がいない場合は、いないと判断した理由を詳しくお答えください
3. 生成AIの「利益を享受する人々」と「不利益を被る人々」がWin-Winになれる方策を詳しくお答えください(2で不利益を被る人がいないと回答した人は、3は空欄でも構いません)
問5-1
私が考える社会のために役立つ生成AIの使い方として考えられるのは、個人のデベロッパーやクリエイターが生成AIを活用して個人制作のツールやコンテンツを作成することです。
生成AIの持つ最大の強みは圧倒的な生産速度と自身が出来ないことをある程度補える点だと思います。
例えば、アニメ制作において従来は大勢の人員と莫大な資金が必要とされました。
しかし、AIによって一人で出来ることの幅が広がることで、コンテンツ制作の省人化、低コスト化、高速化が可能になり、従来では世に出されることが無かったマイナーな作品やアイディアがコンテンツとして世に出されることになります。供給されるコンテンツの全体量が増えることで競争が働き、我々が享受できるコンテンツの質も上昇すると考えられます。
例えば、個人制作アニメを作っているクリエイターがBert vits2を始めとしたttsやsunoのような作曲AIを利用することで、アニメーションにあった曲やセリフの音声を入れることなどができるようになるなどの活用が考えられます。
また、従来と同様の予算を持つプロダクトにおいてもAIによる低コスト化により、従来では予算的、人員的理由でリソースを割けなかった部分に対してリソースを使うことが出来るようになり、作品のクオリティが上がるといった効果があると考えられます。
また、クリエイターへの負担軽減の効果も期待でき、ブラック労働が問題視されるアニメや漫画業界において労働環境改善が期待できます。
アプリケーション制作の分野ではLLMを使用することで自身があまり詳しくないプログラミング言語やライブラリであってもある程度は利用が可能になるという利点があります。
私の周りでも生成AIを使うことでjavascriptを触った経験が無い人がtampermonkeyを使用したブラウザの自動化スクリプトを作りそれを配布することが可能になったといった例やgithubのissueの書き方が分からない初心者でもissueを書けるようにったという例があり、それらはオープンソースソフトウェアの開発や発展につながり、それらは最終的に社会に還元されます。
AIの持つ生産性や自身が出来ないことをある程度補える点を生かして生成AIを人間の使う道具として使うことが、社会に役立つAIの使い方ではないかと考えます。
問5-2
AIの発展によって不利益を被る例は二種類考えられます。
AIによる高速化による単価の下落という例と人を雇うコストよりもAIを導入するコストが安くなる
による雇用の消失です。
前者に関しての例を挙げると、
アウトソーシングサイトにおける文字起こし依頼はOpenAIのWhisperなどの台頭により
ほとんど消滅したか、単価が著しく下がりました。従来アウトソーシングサイトを利用して文字起こしを行っていた人達は職を失ったと言うことが出来、その人たちはAIによる不利益を被っていると言えるでしょう。
基本的にLLMは学習データセットの大部分を占める英語の能力が割合の少ない日本語と比べて高い傾向があります。英語圏ではChatGPTの登場以降ライターの仕事の単価が大幅に下がり続けています。日本語においても将来的にそのようなAIによる価格破壊が起きる可能性があります。
画像生成AIについても考えてみます。
現在の画像生成AIでは一枚絵のイラストのみしか出力できず、漫画は出力できません。そのため漫画家と画像生成AIは現時点では競合していません。
しかし、一部のイラストレーターと画像生成AIは市場での競合が発生しており、広告やゲームなどの分野で画像生成AIによって出力されたと思われる画像が使われているのを目にします。
圧倒的な生産性を誇る画像生成AIにより、沢山溢れている物、希少性が無い物の価値は下がるので、イラストの単価が低くなり廃業するイラストレーターが出現する可能性が考えられます。
AIによる自動運転に関しても考えてみます。
将来的にAIによる完全自動運転が可能になり、自動運転タクシーのコストが人間の運転するタクシーのコストを下回った場合、人間のタクシーはコスト競争力の点で自動運転タクシーに勝てません。その場合タクシーの運転手は失業する可能性があります。
このように電気と計算資源のみ有れば動くAIとの競争に晒され、それに適応できない場合、AIと直接競合する仕事についている人はAIによる不利益を受けると思います。
問5-3
AIによる不利益を受ける人に共通することはAIと人との市場での競争が発生していることだと考えられます。
利益を享受する人々と不利益を被る人々がWin-Winとなるためにはこれらの競合を回避する方策が必要です。
全問にて不利益を被る例として挙げたライター、イラストレーター、タクシードライバーについてどうすればWin-Winの関係を築けるのか考えていきます。
まず初めに、ライターについてですが、文字当たりの単価が下がる場合AIとの協業によって生産性を上げるアプローチと記事の付加価値を上げるアプローチが考えられます。前者は、自身もAIをアイデア出しや初稿の作成に利用し、最終的な編集と仕上げを人間が行うことで高品質な文章を高速で生産することで、単価の下落を補うことが出来るようになると考えます。後者に関してはライター自身の経験や見解を取り入れることで、独自性を出し、AIには書くことのできない記事を書くことでAIとの直接的な競争を避けることが出来ると考えられます。
イラストレーターに関しては、現在の絵の上手さが最重要とされていることに対して、AIが十分に普及し発展した未来では作家性やストーリー性などが重要視されるようになると考えられます。
上手い絵、技術的に巧みな絵は、AIは大量に模倣して作る事ができますが、人生が滲みでるような、その作家独自の視点は真似をするのが困難だと考えられるからです。
このような流れは直近のPIXIV高校生イラコンにも波及しており、例年と異なりイラストの技術力よりも絵の持つメッセージ性が評価されています。作家性やイラストに込めたメッセージを全面に押し、現在よりもよりファインアートに近い立ち回りをすることでイラストレーターはAIイラストとの競争を回避できるようになり、Win-Winの関係を築けるようになると思います。
タクシードライバーに関しては人間がすることによる付加価値を付与することによって自動運転タクシーとの競争を避けることが出来ると考えられます。その例として参考になると思われるのが京都で活躍されているちょんまげタクシー運転手です。肉体を持たないAIと肉体を持つ人間は直接的な競合にはなりえません。人間の持つ身体性を最大限活用することでWin-Winの関係を築けるようになると考えられます。
このようにAIとの市場競争を回避することで利益を享受する人々と不利益を被る人々がWin-Winの関係となることができると考えられます。