この記事は、fastcompanyの翻訳です。
AIの未来をめぐる戦いに、グローブが外されつつある。
先日、マスク財団が支援する未来派非営利団体「Future of Life Institute」は、OpenAIの主要サービス「GPT-4」より強力なAIシステムの訓練を6カ月間休止することを求める公開書簡を発表しました。
「強力なAIシステムは、その効果がポジティブであり、そのリスクが管理可能であると確信した場合にのみ開発されるべきです。」と宣言するこの手紙には、イーロン・マスク本人、Appleの共同創業者スティーブ・ウォズニアック、AI研究者のヨシュア・ベンジオとゲイリー・マーカス、歴史家のユヴァル・ノア・ハラリら数千人が署名しています。「AI研究所と独立した専門家は、この間を利用して、独立した外部の専門家によって厳格に監査・監督され、高度なAIの設計と開発に関する一連の共有安全プロトコルを共同で開発・実施する必要があります。」
AIが安全で、責任と透明性のある方法で開発されるべきなのは間違いありませんが、現在最も重要なテクノロジーをタイムアウトに置くことは、重要な瞬間に国を弱体化させかねない、実現不可能な解決策です。
まず、AIが数十年にわたる誇大広告の末に素晴らしい可能性を示し始めた矢先のことであり、前代未聞の出来事です。また、この法律を施行することはほとんど不可能であり、経済の原動力であるイノベーションに打撃を与えることになるでしょう。
この書簡には有名なAI専門家たちが署名していますが、他のAI研究者はこのアプローチを批判し、AIのトレーニングデータの透明性を高めることや大規模な言語モデルの意思決定を必要とするなど、現在のAIがもたらす害やリスクを見落としていると述べています。Google Brainの創設者であるコンピュータ科学者のアンドリュー・ウンは、モラトリアムを実施するには政府の介入が唯一の可能な方法であるため、Twitterで「ひどいアイデア」と呼びました。
「教育、医療、食品......多くの人に役立つ新しい用途が見えてきた。GPT-4を改善することが助けになる」と、アンドリュー・ウンがツイートしました。「AIが生み出す大きな価値と現実的なリスクのバランスを取ろう。AIの安全性を高めるには、透明性や監査に関する規制がより現実的で、より大きな違いを生むだろう。」
1990年代半ばに、人々がNetscape、Microsoft、Mozillaにウェブブラウザの開発を中止するように頼んだことを想像してください。ネット上の児童ポルノやわいせつな言論に対する現実的な懸念に対処するために、それが正しい行動だっただろうか。そうではありません。これらの問題は、産業界、法律家、裁判所、規制当局によってより効果的に対処され、最終的には、インターネットにおける言論の自由の価値を確立する画期的な最高裁判決によって解決されました。
第二に、米国はAI市場をリードするために中国と競争しています。米国を拠点とするOpenAI、Microsoft、Google、Metaといった米国の多国籍企業、そして数多くの新興企業の最近のイノベーションにより、米国は、ほんの数年前まで中国がリードしていたと専門家が言っていたこのレースで、再びリードを取り戻したかもしれません。しかし、AIのイノベーションのペースは、モバイルコンピューティングのブーム以来、かつてないほど加速しています。OpenAIが画期的なChatGPTをリリースしてからGPT-4をリリースするまで、わずか4カ月弱しかかからなかったことを考えると、そのスピードは速い。もし米国とその主要企業がAI開発を6カ月間中断し、中国が先を急いだとしたら、米国は不利な立場に置かれ、世界の主要な敵対国に潜在的な隙を与えることになるでしょう。
第三に、仮に開発を一時中断したとしても、この「AIの夏」に何が達成できるのだろうか。なぜなら、AIのガバナンスは非常に複雑なテーマであり、新しい枠組みを作り上げるためには、複数のステークホルダーがしっかりとした包括的な議論を行う必要があるからです。このガバナンスシステムの基盤を構築するには何年もかかるでしょうし、業界の慣行や規制政策、世界的な法律の変更も必要になると思われます。
責任ある、信頼できる、説明可能なAIのための効果的なガバナンスシステムの設計について、より集中した取り組みと投資が必要であることは間違いありません。そして、これらのシステムの急速な進化は、気候変動が世界的な緊急課題となっているのと同様に、私たちが社会のより大きな優先事項にする必要があることを意味します。
テクノロジーは、それを管理する我々の能力を凌駕してきました。しかし、我々の歴史は、進歩を阻害することなく、テクノロジーの発展とそのガバナンスを並行させることが、より賢明なアプローチであることを示しています。
この書簡が見落としているのは、この作業の多くがすでに行われていることです。AIの主要なプロバイダーは、AIの安全性と責任に非常に真剣に取り組んでおり、リスク軽減ツール、責任ある使用のためのベストプラクティスの開発、誤用に対するプラットフォームの監視、人間のフィードバックからの学習を行っています。GPTの過去2回の迅速なリリースは、すでに価値、安全性、責任において大きな改善につながっています。
これで完璧か?もちろんそうではありません。これらの企業にもっと監視する必要があるのでしょうか?もちろん必要です。イノベーションは厄介なものです。間違いはつきものだが、それは学ぶためのプロセスとして不可欠なものでもある。この議論が渦巻く中、マスクはかつて彼が語ったこの言葉を思い出すべきだ:「失敗しないのであれば、十分に革新的でない。」
記事の紹介は以上になります。AIに関心を持つ方に、AIお絵かきツールをおすすめします。