はじめに
こんにちは。プロダクト開発本部の平井です。
先日浜松で開催された人工知能学会全国大会2024に行ってきました。AI初心者の自分は、ほとんどのセッションが難しかったというのが正直な感想です笑。なので、あまり専門性の高いセッションは理解できなかったのですが、その中でも自分でも理解できて、興味を持ったものを2つ紹介します!AI初心者でも何となく理解できるものになっています!
若井雄紀、竹内考、鹿島久嗣 - 大規模マルチモーダルによるプライバシーを保護したデータアノテーション自動化
近年、LMMはテキスト分析や文字起こしなど、様々なタスクで革新的な性能を発揮しています。しかし、一方で、入力データが保存される、あるいは学習される可能性をはらんでいるなど、プライバシー漏洩リスクが懸念されています。よって、データプライバシーを保護しながらLMMを活用するための技術が求められています。
本研究では、画像をアノテーション対象として、LMMによるアノテーション精度とプライバシー漏洩リスクのトレードオフの検証を目的としています。提案手法としては、複数の対象画像をいくつかに分割します。それぞれ分割した画像をシャッフルして、入力画像として再構成します。
大規模マルチモーダルによるプライバシーを保護したデータアノテーション自動化より
こうすることで、1枚の画像には、元画像の情報は局所的にしか含まれていないため、もとの画像がどういった情報なのかを把握されないようにすることができます。このように再構成した画像をLMMに入力し、出力として得られたアノテーション結果を統合します。具体的な実験は、人が何らかのアクションをしている画像と人が映っていない画像をそれぞれ用意し、これらの画像の中で、どの画像に人の顔が映っているのかを検出します。この正答率をアノテーション正解率とします。また、人の顔が映っていると判断された画像を再度LMMに入力し、その人がどのようなアクションをしているかを10個に分類し、その分類の正解率をプライバシータスク正解率としています。LMMにはchatGPT-4Vを用いています。
大規模マルチモーダルによるプライバシーを保護したデータアノテーション自動化より
結果としては、画像の分割を細かくすることにより、アノテーションの精度を保ちながらプライバシー漏洩リスクを低減することが可能であると示されました。
感想
LMMへの入力情報にプライバシーに関することが入ってしまう場合は、漏洩リスクを考えるとなかなか使いづらいです。その点で、画像を分割するというのは面白いと思いました。アノテーション対象の情報が画像内に局所的に含まれている場合、この手法は大変有効です。ですが、本研究ではせいぜい25分割程度なので、アノテーション対象の情報によっては、より細かな分割が求められるでしょう。そうした場合、アノテーションの精度が急激に下がる可能性もあるので、この部分はさらなる検討が必要となると思います。ですが、LMMでもプライバシーをある程度保護したまま、アノテーションタスクを行えることを示したこの研究は素晴らしいです。このような工夫が画像以外にも使えるようになると、もっとLMMの利用の幅が広がるなと感じました。
大塚慎也 - これからの道徳をAIと考える
自動運転などで度々議論になるのは、事故を起こした場合、その責任をだれがとるのかという問題です。このような倫理的な問題は、今後より深くAIが私たちの生活に入り込むようになるときに避けては通れないものだと思います。
本研究は、「人工知能に支援されながら人間が道徳的なふるまいを行う未来像の考察」です。つまり、今までの人間が自分で考え行動していた道徳的なふるまいに対して、AIが介入するとなったときに、どのように介入するようになるのか。また、その際どのような課題が考えられるのかについての考察です。
本研究では、伝統的に支持されてきた道徳理論の一つであるカントの自律を挙げ、これを基本的人間像として、これがAIの介入によってどのように変化するかを考察しています。
人間の自律に対してのAIの介入にはどのようなものが考えられるのか。以下が挙げられている例です。
- AIによる情報提供や道徳的アドバイス
- 道徳的意思決定・行為を部分的/全体的にオートメーション化
1は情報提供やアドバイスにより、不用意な言動や感情に任せた言動、また無意識の好ましからざる言動を抑制するというものです。具体的なサービスとしては、注意喚起アプリ、情報提供アプリ、Q&Aアプリなどです。2は自分自身の能力発揮によってではなく、人間が部分的に関与することで(もしくは関与しないでも)、善き振る舞いができるようになるようにするということです。具体的には、身体にAI技術を埋め込み、あらかじめ設定された禁止事項の衝動が沸き起こった際に介入する試みが行われるといったことです。
上の例のようにAIが人間の自律に介入することになれば、従来の自律を再定義する必要があるかもしれません。従来の自律は、物事の善し悪しを判断し行動することを個人の能力としていたわけですが、それをAIが代替、ないしはサポートするようになります。なので、道徳的振る舞いを人間とAIが協力して行うようになるイメージです。よって、従来の自律を、道徳的行為・意思決定というできごとを生起させるためにAIと「関わりあう」能力というふうに再定義されることが考えられます。
このように再定義された自律によりもたらされる利点は、自律を個人の能力として前提にしないことです。人は生きている中で、自律しようとしてもそうできない場合があります。そのような場合に、AIが技術的にサポートすることで、自律を支援することができます。そうすることで、犯罪率の低下や衝動的行動による損失の回避が期待できるかもしれません。しかし、こうした状況における課題は、どこまでAIの介入を許容するのかということです。AIによる情報提供や注意喚起は許容可能か。情報や注意の内容はどの程度許容できるか。道徳的意思決定・行為の代替は重大な問題であるか。などです。また、こうした役割分担をするにあたって、AIが分担した能力発揮の部分にかかる責任はどうなるのかという問題もあります。これまではひとりの人間だけを道徳的振る舞い者の主体として見ていたわけですが、そこにAIが介入するとなれば、人間とAIがその個人の道徳的振る舞いの参加者となるわけなので、AIにも何らかの責任を帰すことになるのか。それはどのようにして行われるのか。といった課題も現れます。こうした課題は、一言でいうと、AIと適切に「関わりあう」能力とは具体的にどういうものかを定義することと言えます。これは今後詳細な検討が必要になると思われます。
感想
どこまでをAIに任せて、どこまでを人間がやるのかの線引きは、責任の帰属先をどうするのかという議論と表裏一体だと思います。人間の道徳に対するAIの介入は、その線引きをより一層複雑なものにします。なので、人間とAIとの距離が近くなればなるほど、人間とAIとの関係性については議論しなければならない問題であると思いました。また、AIと適切に関わりあう能力に関しては、そこで個人で差ができてしまうことがあると問題であるなとも感じました。例えばこれはだいぶ将来的な話なのですが、AIの介入度合いに個人で差があると、一方では人に危害を加えたりできない人がいて、もう一方には介入度合いが低くて自分の自由意思で人に危害を加えることができる人がいると、一方的な暴力が可能になってしまいます。このようなことがないようにしていくことも課題であるなと思いました。あと、余談なのですが、個人的に道徳的意思決定・行為のオートメーション化のところで、貴志祐介の「新世界より」の中に出てくる「愧死機構」を思い出しました。本書の中に登場する愧死機構とは、人間の遺伝子に組み込まれているもので、同種の人間を攻撃しようとした(実際に攻撃しなくてもそう脳が認識した)際に、眩暈・動悸などの警告発作が起こる機構です。これを利用して、人間同士の争いが起きないようにしているのですが、この機構がまさに、人間の道徳的意思決定・行為のオートメーション化したものであるなと思いました。
おわりに
AI初心者の自分にとって、人工知能学会はとても難しかったです。しかし、わからない用語が出てくるたびに、それについて調べたり、先輩などに聞くなどして、自分の知識量を増やすことができたのは、とても良かったと思います。また、学生などのポスターセッションは自分でも理解できる内容のものが多く、直接質問したり議論したりできたので、行ってみて良かったなと思いました。今後のさらなるAIの発展に期待したいと同時に、少しでも自分が何かしら貢献できることがあればいいなと思います。最後にJSAI2024に関わった皆様、本当にお疲れ様でした!有意義な時間をありがとうございました!
お知らせ
弊社が主催するイベント「db tech showcase 2024」が7月の11, 12日の二日間開催されます!データベースなどに興味がある方は是非ご参加ください!