TLDR
AI界のスーパースター(+α)を解説しました。
※この記事の内容は個人の主観がたくさん入っており、内容も正確じゃない部分もあるかもしれないので、ご了承ください。
偉人伝(+α)
Andrew Ng
アンドリュー・ウン。イギリス生まれシンガポール育ち。Ngをどう発音するかはAI界の一大問題。本人は「ング」と発音しているが、その発音ができない人はウンと発音することが多い。筆者の友人のシンガポール人も名前がNgで当人は読みは「ヤン」だと言っていた(漢字は同じ「黄」)。ファーストネームも本当の発音は「アンドリュー」よりは「アンドルー」の方が近い。
スタンフォードでAIを教える大学教授であり、GoogleやBaiduなどのアドバイザー、Courseraの大人気講師といろいろな顔を持ち、人格者でもあるAI界のミスター・パーフェクト。CourseraのAI、ML、DLの講座はどれも初心者向けで素晴らしい(基本無料で字幕付きのものもある)。
ただ最近のAndrew Ngプロデュースの、AWSやGCPとコラボした一連のCourseraの講座は個人的には本人が喋ってる講座と比べるとかなりやっつけ仕事感があり、おすすめできない。
Andrewが書いているThe Batchは無料の週刊のメルマガで、AIの情報収集源としては他の有料のものと比べてもかなり優秀。
Ian Goodfellow
イアン・グッドフェロー。Andrew Ngの研究室出身で、GANの発明で有名。AI界のスーパーヒューマンのひとり。AppleのAI部門でリーダーシップを取っている。AI界で一番インパクトの大きいと言っても過言ではないGANの発明エピソードで、バーで友達と話しているうちにアイデアが浮かんで、帰ってから数時間で実装した、という天才エピソードを持つ。
感覚的なひらめきタイプの人かと思えばそうではなく、むしろ数学的に厳格なスタイルであることが主著者として書いた「Deep Learning」を読むとわかる。
ちなみにこの「Deep Learning」はDLの名著のひとつ。pdf版はオンラインで無料で手に入る。
GAN
ガン、またはギャン。Generative Adversarial Network。生成的敵対ネットワーク。Generator(生成者)とDiscriminator(識別者)という二つのニューラルネットワークを同時に学習させることで、現実にいない人間を生成したり、白黒の映像に色をつけたり、新しいポケモンをランダムに生成したり、撮った写真をゴッホの絵画っぽく加工したり、ディズニーのキャラクターっぽく加工したりできる。
Francois Chollet
フランソワ・ショレイ。フランス人。AI界で独特な光を放つ宝石であり、著者が一番尊敬するAIパーソン。Kerasの開発者であり、「Deep Learning with Python」の著者としても有名。最近第2版が出版されたこの著書は、個人的にはAI関係の本としてはダントツでおすすめ(翻訳の評判が悪いのが悲しい)。内容的には本当の初心者には難しい可能性があるが、かなりわかりやすく書いてあり、Cholletの技量を感じる。「MLとDLの違い」、「Python以外のML言語」、「AI研究の歴史と未来」、「DLの得意な領域、苦手な領域」など、他のAI本がちゃんと書いてないところをこれ以上ないくらい明瞭に書いている。
Kerasの開発者でありながら、近年のDLのハイプに対して懐疑的なのもCholletらしい。YouTubeにもCholletがDLの限界に関して話している動画があったり、論文にもなっている。作曲や絵画が趣味で、どちらもかなりのレベルで(本人のホームページにいくとわかる)、自作のピカチューの絵がアイコンになっているTwitterはいつもすごく面白い。ピカチューのくだりや、土用の丑の日に「今日はeelの日です」とツイートしているところからかなり親日家だと勝手に想像している。Google所属ながらAWS贔屓だったりとにかく面白い。
AIに対していけいけどんどんなAndrew Ngだけでなく、AIに対して懐疑的、ないしバランスの取れたCholletも、AIの応用はまだほとんど実現されていない、と考えているのは面白い。
Andrej Karpathy
アンドレイ・カーパシー。スロバキア生まれのテスラのAI部門をリードする立場の35歳。強化学習のプロ。ブログを読むと2015年頃から強化学習を勉強し始めたらしい(http://karpathy.github.io/2016/05/31/rl/ )。そこから数年でテスラのAIをリードしているからすごい。TensorFlowがまだv1だったときにPyTorchを使い始めたら「体調がずっと良くなって、視力もよくなった」とツイートしていたのが印象的。
チェス→囲碁→テレビゲームと強化学習を使ったAIの応用範囲がどんどん広くなってきている現在、次はロボットがどんどん賢くなっていく。来年発売のテスラの人型ロボットは楽しみだし、スポーツができる人型ロボットも出てくるかもしれない。いずれにせよ強化学習から目が離せない。
筆者は正直今のところ強化学習まで手が回っていないが、時間ができたらこのAndrejのブログ記事から攻めたい。
PRML
MicrosoftのChristopher Bishopが書いた「Pattern Recognition and Machine Learning」。2006年というかなり昔に書かれたこの本は今でも名著としてよく読まれている。pdf版はオンラインで無料で公開されている。
TensorFlowを触る日やCholletの本、あるいはこのBishopのPRMLを読む日の朝は目覚めが良く、例えるなら「小6の頃の日曜の朝」に近い。代わりにSageMakerを触る日の朝は「冬の雨の月曜の朝」のような良くない目覚めになる。
Yann LeCun
ヤン・ルカン。フランス人。英語圏での呼び方はラクーン。CNN(Convolutional Neural Network)を発明したAI界のゴッドファーザー。90年代からアメリカの郵便局での郵便番号の読み取りタスクにDLを使う研究をして実際に使われていた。現在はFacebookでAIの基礎研究を指揮。
最近出版された「ディープラーニング 学習する機械 ヤン・ルカン、人工知能を語る」はAIに興味がある人なら知的好奇心を刺激されまくるはずで、超おすすめ。自分はずっと直感的アプローチを取ってきたというラクーンが、数学的裏付けがないCNNを、「あれは錬金術だ」と影口をたたかれながらも開発を続け、AIの流れを変えるストーリーとして読んでも面白い。
TinyML
タイニーエムエル。ARMの32ビットチップ上で、ボタン電池で数年動くような小さいMLモデル。C/C++で動かす。カメラ映像から人の存在を検出したり、「Hey Siri」といったウェイクワードにだけ反応する音声認識モデルだったり。オライリーの「TinyML」に詳しい。
SageMaker
セージメーカー。AWSのMLサービス。
SageMakerを使っている人で単純にSageMakerが「好き」という人はいないんじゃないか。SageMakerを使っているとときどき「?」な仕様があったり、ドキュメントがごっそり欠損しているような印象を受けることが多々ある。SageMakerを使ったAIシステムの構築をしている人と飲みに行ったらSageMakerの悪口だけで軽く3軒はハシゴできる自信がある。AzureやGCPのAIエンジニアにも話を聞いてみたい。
AWSはAI、特にドキュメントの部分が弱い。MicrosoftやGoogleからは良質なAIのテキストがGitHubのリポジトリーやオライリーの本という形でいくつも出ている。例えばGoogleのLakshmananの「Machine Learning Design Patterns」や「Practical Machine Learning in Computer Vision」は素晴らしい(前者は翻訳あり)し、Microsoftも前出のPRMLや最近だとGitHubに良質のML学習リソースが上がっていた。
AWSはどうかというと、Julien Simonの「Learn Amazon SageMaker」やChris Freglyの「Data Science on AWS」をワクワクしながら読み始めたが、内容はかなりがっかりだった。YouTubeに上がっている無数のAWS発のAI関係の動画も人に薦めようと思うものではなかった。
SageMaker自体は、他AWS機能(S3やECR)とのクロスリージョンがサポートされていなかったり、SageMakerのTraining jobやGround Truthのドキュメントが貧弱だったり、StepFunctionsとの統合で色々細かいダメな挙動があったり統合が微妙だったりと挙げ出すとキリが無い。いっそのことSageMakerの技術同人誌でも書こうかと思う今日この頃。
MLOps
エムエルオプス。DevOpsのML版。AIエンジニアはいろんな人にこのMLOpsの意味を聞かれて困る、そういう言葉。例えば単にCI/CDとか単一の意味を持つものではない、データやモデルのバージョニングやモデリングに関するベストプラクティスをまとめてMLOpsと呼んでいるらしく、今は業界全体でそれを模索している状態。
発端はGoogleの論文「Hidden Technical Debt in Machine Learning Systems」。実際にAIシステムを作ってきた人間じゃないとあまりピンとこない内容になっており、著者は半分くらいしかピンとこなかった。
AIは歴史が浅く、そのエンジニアリングも形を変えている。現在はまだ業界全体でベストプラクティスを探っている状態で、今後Kubernetesのようなde facto standardが出てくるかもしれないが、今はいろんな部分的な解が誰もその全容を把握しきれていないほどガラパゴス化している。Google発のTFXなどはAI界のKubernetesになるかも知れない。
以上です。