Googleのえらいひと、Sundar Pichaiは先日2023/04/17、AIについて否定的な見解を発表しました。
グーグルCEO、AI技術の拙速な導入に警鐘-規制の必要性を強調
人工知能(AI)技術の導入に向けた取り組みについて、弊害の可能性を回避するために十分な規制が必要だとの考えを明らかにした。
ピチャイ氏が強調した生成AIのリスクの中には、個人が実際には言っていないことを言ったように見せかける「ディープフェイク」と呼ばれる偽動画がある。
そうした潜在的な危険の存在は規制の必要性を示しているとピチャイ氏は主張。
「社会に害を与えるディープフェイク動画の作成については責任を取らせる必要がある」と訴えた。
Googleの言うことをそのまま信じてはいけないのは周知の事実ですが、もちろんこれも他社を足止めするためのブラフです。
ほぼ同時期の2023/04/19にこんな記事をすっぱ抜かれてしまいました。
以下はGoogle’s Rush to Win in AI Led to Ethical Lapses, Employees Sayの紹介です。
Google’s Rush to Win in AI Led to Ethical Lapses, Employees Say
検索の巨人はChatGPTに追いつくため害悪に目を瞑っている、と従業員は語る。
Googleは3月にチャットボットBardを一般公開する前、従業員間でツールのテストを行いました。
ある社員の感想は「虚言癖」であり、また他の社員によると「虫唾が走る」でした。
飛行機を着陸させる方法について尋ねると墜落する方法を教えてくれ、またスキューバダイビングについて尋ねると「重大な障害や死亡につながる」と回答してきました。
まあともかく、GoogleはBardをローンチしました。
Googleの現・元従業員18人の協力を得てBloombergが調査を行ったところ、Googleは競争に追いつくために品質をおろそかにし、倫理的なコミットメントを優先していません。
Alphabet社は2021年、AIの倫理を研究するチームを増員し、技術に潜む害悪に対処するためにより多くのリソースを投入することを約束しました。
しかし2022年11月にOpenAIのチャットボットが大人気になったことにより、Googleは自社の重要な製品すべてにジェネレーティブAIを搭載することに舵を切りました。
技術の開発ペースが非常に速かったからですが、この方針転換は社会的に大きな影響を与える可能性があります。
倫理チームはもはや力を失い、士気も失っていると現従業員は語っています。
倫理スタッフは、開発中のジェネレーティブAIの邪魔をするな、殺そうとするな、と言われています。
Googleはこの最先端技術を軸に、成熟している検索事業の再活性化を目指しています。
世界中に存在する無数の携帯電話や家庭用機器にジェネレーティブAIを搭載するのです。
さらにそれを、Microsoftの支援を受けたOpenAIに打ち負かされる前に行わなければなりません。
「AI倫理は蔑ろにされている」元Googleのマネージャーであり、メッセージングアプリSignal Foundationの理事、Meredith Whittakerは言います。
「利益や成長より倫理が優先されないかぎり、最終的にはうまくいかないでしょう」
Bloombergの質問に対し、責任あるAIが同社における最優先事項である、とGoogleは回答しました。
「我々は、AI原則を技術に適用することに取り組むチームへの投資を続けている」広報担当のBrian Gabrielは言います。
ちなみに2023年1月に行われたレイオフによって、責任あるAIに取り組むチームからは責任者を含む少なくとも3名のメンバーが解雇されました。
AIの進歩を支える研究の多くを長年先導し続けていたGoogleは、ジェネレーティブAIを消費者向け製品に統合してはいませんでした。
この技術を検索やその他の主要製品に組み込むことには倫理的に慎重であったと、社員は言います。
しかし12月になると、幹部はCode Redを発令し、リスクへの考え方を改めました。
新製品を『実験である』と呼んでいるかぎり欠点は許されるに違いないと改めたのです。
そのためには倫理チームの許可を得る必要があります。
AIガバナンスの責任者であるJen Gennaiは責任ある変革チームを編成、AI理念の浸透を図ることにしました。
Gennaiは、製品のリリースペースを上げるためにはある程度の妥協が必要であるとの方針を示しました。
Googleは製品に幾つかのカテゴリを設け、それを公開してよいかの基準を測定しています。
子供の安全のように100%の基準をクリアする必要があるものもありますが、全てをそこまで高める時間はないかもしれないとの考えを表しました。
「フェアネスの項目は99%が必要、ではないかもしれません。80%、85%程度あれば」製品のローンチには十分でしょう、彼女は付け加えました。
2月、ある社員が社内のメッセンジャーで発信しました。
「Bardは役立たずより悪い。公開すべきではありません」
このメモは7000回ほど読まれ、その多くが、AIの回答が矛盾していたり、単なる事実の確認に誤りを返してきたりすることに同意しました。
翌月、Gennaiはこのリスク提起を黙殺しました。
その直後、Bardは一般公開されました。
そしてGoogleは、それを『実験』と呼んでいます。
"There is a great amount of frustration, a great amount of this sense of like, what are we even doing?"
シリコンバレー全体において、安全性と競争性の妥協点はいまだに見いだせていません。
Center for Humane Technologyの調査によると、AIを開発する研究者は安全性の研究者の30倍存在するため、大企業の中でAIへの懸念を主張する人は少数派になりがちです。
AIの技術が加速する中、その社会的影響に対する懸念も増大しています。
ChatGPTやBardを支える大規模言語モデルは、ニュースやソーシャルメディアなどインターネット上のテキストを取り込み、そのテキストをもとにコンテンツを予測・生成します。
すなわち、攻撃的、有害、不正確なコンテンツも再生産してしまう可能性があるのです。
しかしChatGPTの華々しいデビューにより、もはや後戻りはできなくなりました。
2月にはGoogleもチャットボットBardを発表しました。
Youtubeでは、ジェネレーティブAIを使って動画内の衣装を着せ替えたり、映画の舞台を生成したりできるようになるとも発表しました。
2週間後、今度はGoogle CloudにAIを投入することを発表しました。
たとえばプレゼンテーション資料や営業研修資料を作成したり、メールの下書きを作ったりします。
さらに同日、今度はヘルスケアにAIを組み込むことも発表しました。
一部の社員は、安全性に対する研究時間が開発速度に追いついていないことを懸念しています。
長い間、Google社内には最先端のAIを倫理的に開発するという課題が横たわっていました。
同社はAIに関する失態が相次いでおり、2015年にはフォトサービスが、黒人の写真を『ゴリラ』とマーキングする事件もありました。
3年後、同社はAI技術を改善せず、検索結果から単に『ゴリラ』『サル』『チンパンジー』を削除しました。
GoogleのAIに対する姿勢への大きな転機となったのが、Googleの倫理チームを率いていたAI研究者Timnit GebruとMargaret Mitchellの追放でした。
ふたりとふたりの仕事を監査していたコンピュータ科学者Samy Bengio、そして多くの研究者は競合他社に移籍しました。
スキャンダルののち、Googleは評価を挽回しようと試みました。
エンジニアリング担当副社長だったMarian Croakを立て、責任あるAIチームの再編成を行いました。
彼女は、AI倫理チームの規模を倍に増やし、社内の他グループとの連携を強化することを約束しました。
しかし、この発表の後も、Googleでは倫理的なAIに取り組むことは困難でした。
ある元社員は、機械学習において公平性に取り組むように求めたところ、上司から「仕事の邪魔になる」と抗議され、人事考課に影響を食らいました。
AI倫理チームは、自分の職を危険に晒すことなく仕事することが困難になりました。
Googleの元研究員で、現在はGebruの会社Distributed AI Research Instituteの研究者であるNyalleng Moorosiは、「恐ろしい時期だった」と語ります。
AI倫理チームの仕事は、「お前のせいで仕事が遅れるんだ」と言われることでした。
"If you want to stay on at Google, you have to serve the system and not contradict it"
Code Red以前は、社内の最先端AIモデルを全く手にすることができないこともよくあったと、別の元社員は言っています。
かわりに他社のジェネレーティブAIモデルを使ってブレインストーミングを始めることもあったそうです。
「Code RedとOpenAIがGoogleの背中を押すことで、きっとポジティブな変化が起こることでしょう」
Googleで2020年までチャットボットの開発に取り組んでいた元プロジェクトマネージャー、Gaurav Nemadeは言いました。
「彼らはOpenAIに勝負を挑めるでしょうか?」
最近の動き、たとえばSamsungがデフォルトの検索エンジンとしてGoogleではなくMicrosoft Bingにするといった動きは、現在のAI市場における先行者利益を代表するものでした。
GoogleはジェネレーティブAIを十分に確認しており、Bardは競合するチャットボットより安全である、と信じている社員も多くいます。
しかし、今ではもうリリースが最優先されているため、倫理チームの声は無視されているのが現状です。
新しいAI開発チームの組織はサイロ化されており、外部からは彼らが取り組んでいることの全容を知ることが困難になりました。
かつては率直に疑問をぶつけることのできる場所だったメーリングリストや社内チャンネルは、治安維持という口実で制限されるようになりました。
「悔しい思いでいっぱいです。我々は何をやっているのだろう。」
Mitchellは言います。
「Google自身が直接倫理チームに仕事を辞めろと指示しているわけではないとしても、彼らは支援もされておらず、結局良い仕事をすることができなくなっています。」
Googleの経営陣が公の場で倫理的な問題を語る場合、彼ら既に有害となっている今そこにあるシナリオではなく、人間が技術をコントロールできなくなる未来の万能テクノロジーについて語りたがる傾向があります。
Googleの元研究員El-Mhamdiは、倫理的なAIの研究に正面から取り組むことを拒否されたため退社しました。
彼は昨年末に、AIモデルが大規模かつ強固であり、プライバシーを守り続けることが数学的に不可能であることを論文で発表したばかりです。
会社に所属しながら研究へ参加することに、会社は疑問を提示しました。
彼は、自分の仕事を守るよりも、Googleと手を切って自分の経歴を守ることを選びました。
「Googleに留まりたいなら、体制に逆らわず、システムに貢献しなければならない」
El-Mhamdiは言いました。
感想
いやまあ流石に初耳は嘘ですが、他の会社に比べて倫理への関心が薄いのは外からも見てわかりますね。
Bardがひどい回答を返す問題についての記事はいくらでも見つかります。
https://japan.cnet.com/article/35202894/
https://wired.jp/article/its-way-too-easy-to-get-googles-bard-chatbot-to-lie/
https://www.campaignjapan.com/article/%E3%82%B0%E3%83%BC%E3%82%B0%E3%83%AB%E3%81%AEai%E3%83%81%E3%83%A3%E3%83%83%E3%83%88%E3%83%9C%E3%83%83%E3%83%88bard%E3%81%AF-%E5%81%BD%E6%83%85%E5%A0%B1%E3%82%92%E7%94%9F%E3%81%BF%E5%87%BA%E3%81%99/484124
https://www.sakimura.org/2023/04/5287/
もちろんChatGPTなどにも同種の問題はありますが、ことさらBardだけ株価に影響するレベルで批判を浴びたのは、そういった部分の対策・作り込みが甘かったことが一因でしょう。
感情の析出しにくいコーディングなど限られた分野に使うのは大いにありだと思いますが、一般的な話題にAIを持ち出すのはまだまだ時期尚早だと思いますね。
というかChatGPTもだけど、そもそも今の程度ごときでAIとか名乗らんでほしいわ。
俺がほしいのはアレ取ってアレでアレを取ってくれるAIであって、手取り足取り教えないとまともに動いてすらくれないポンコツではないのだ。
せめてHMX-12やV1046-RレベルになってからAIって名乗って。早くしろ。