0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

📺 この記事は YouTube チャンネル きなこもっちーのテック深掘り の動画解説記事です。
▶️ 動画はこちら → Anthropicの全貌!OpenAI安全チームの逆襲を徹底解説

はじめに

🐹 もっちー「ねえきなこ、飼い主がまた新しいAIサービスに課金してるんだけど。」

🦜 きなこ「また?今度は何に課金したの?」

🐹 もっちー「Claudeっていうやつ。Anthropicって会社が作ってるらしいんだけど。」

🦜 きなこ「Anthropicね。実はこの会社、ものすごいドラマがあるの。」

🐹 もっちー「ドラマ?なになに、気になる!」

📊 図: 動画タイトルカード:「Anthropicの軌跡 — OpenAIから飛び出したAI安全チームの逆襲」

🦜 きなこ「OpenAIの安全チームが「これじゃダメだ」って飛び出して作った会社なのよ。」

🐹 もっちー「なんでやねん!OpenAIから飛び出すとか、めっちゃ気になるやん!」

🦜 きなこ「今日はそのAnthropicの誕生から現在までを、たっぷり深掘りしていくね。」

OpenAIを飛び出した7人

📊 図: Dario Amodeiのプロフィール概要(Princeton物理学PhD、Hertz Fellow、計算神経科学)

🦜 きなこ「さて、Anthropicの話をするなら、まずは創業者のDario Amodeiから紹介しないとね。」

🐹 もっちー「ダリオさんね。どんな人なの?」

🦜 きなこ「Princetonで物理学と生物物理学のPhDを取った人で、計算神経科学が専門だったの。」

📊 図: Darioの経歴タイムライン(Baidu AI 2014年→Google Brain 2015年→OpenAI 2016年)

🦜 きなこ「そこからBaiduのAI部門でAndrew Ngと一緒にDeep Speech 2を開発して、Google Brainを経て、OpenAIに入ったの。」

🐹 もっちー「Baidu、Google、OpenAIって、AIのオールスターチームを渡り歩いてるじゃん。」

📊 図: OpenAIでの実績(VP of Research、GPT-2/3開発リード、RLHF共同発明)

🦜 きなこ「OpenAIではVP of Research、つまり研究担当副社長として、GPT-2とGPT-3の開発をリードしたの。」

🦜 きなこ「しかもRLHF、人間のフィードバックからの強化学習の共同発明者でもあるのよ。」

🐹 もっちー「RLHFってChatGPTが賢く答えてくれる仕組みのことだよね?それを作った人ってことか!」

🦜 きなこ「そうそう、よく分かってるね。AIに人間の好みを学ばせる技術の生みの親の一人なの。」

📊 図: Daniela Amodeiのプロフィール(UCサンタクルーズ英文学卒、OpenAI VP of People→Anthropic社長)

🦜 きなこ「そして妹のDaniela AmodeiもOpenAIでVP of Peopleとして組織運営を担っていたの。」

🐹 もっちー「兄妹で起業したんだ。技術の兄と組織の妹、いいコンビだね。」

📊 図: 7人の共同創業者一覧(Dario、Daniela、Tom Brown、Jack Clark、Jared Kaplan、Sam McCandlish、Chris Olah)

🦜 きなこ「この2人を含む7人がOpenAIを離れたんだけど、理由はOpenAIの商業化路線への疑問だったの。」

🐹 もっちー「つまりさ、ラーメン屋で修行してた職人が「この店、味より金儲け優先になってきたな」って独立したようなもんだよね。」

🦜 きなこ「まあ、ラーメンかどうかはともかく、方向性は合ってるわね。」

🐹 もっちー「で、独立したのはいいけど、ちゃんと儲かる仕組みにしたの?」

📊 図: Public Benefit Corporation(公益目的会社)の仕組み図

🦜 きなこ「AnthropicはPublic Benefit Corporation、つまり公益目的会社として設立されたの。利益だけじゃなく社会的使命も追求する法人形態ね。」

📊 図: LTBTの仕組み図(5人の信託者が取締役の選任・解任権を持つ)

🦜 きなこ「さらに2023年にはLong-Term Benefit Trust、長期利益信託を設立して、5人の信託者が公益ミッションを監視する体制を作ったの。」

🐹 もっちー「えっと、つまり会社が暴走しないように外から見張る仕組みってこと?」

🦜 きなこ「その通り。OpenAIで起きた2023年のお家騒動を構造的に防ぐ設計なの。」

📊 図: 2026年1月:創業者7人が個人資産の80%(推定210億ドル以上)を寄付すると誓約

🐹 もっちー「ほんまかいな!しかも2026年1月には創業者7人全員が資産の80%を寄付するって宣言してるんだって!」

AIに「憲法」を教える

🦜 きなこ「さて、ここからAnthropicの技術的な革新について話すね。」

📊 図: RLHFの仕組みを図解(人間の評価者がモデル出力を比較・ランク付けするフロー)

🦜 きなこ「当時のAIの安全性訓練はRLHFっていう手法が主流だったの。」

🐹 もっちー「RLHF?なんか呪文みたいだけど、どういう意味?」

🦜 きなこ「人間のフィードバックによる強化学習、略してRLHFね。」

🦜 きなこ「AIが2つの回答を出して、人間が「こっちのほうがいいね」って選ぶ。それを繰り返して学習させるの。」

🐹 もっちー「なるほど、人間が先生になってAIを教育するわけか。」

📊 図: RLHFの課題リスト(スケーラビリティの限界、人間のバイアス、コスト、一貫性欠如)

🦜 きなこ「そう。でもこの方法には大きな問題があったの。」

🦜 きなこ「評価する人間を大量に雇う必要があるし、人によって判断がブレる。しかも有害なコンテンツを人間が読み続けないといけない。」

🐹 もっちー「それって学校の先生が一人で何万人の生徒のテスト採点するみたいな話だよね。しかも問題文が全部ヤバい内容っていう。」

📊 図: Constitutional AI(CAI)の概要図(2022年12月発表)

🦜 きなこ「いい例えね。そこでAnthropicが2022年12月に発表したのがConstitutional AI、通称CAIよ。」

🐹 もっちー「憲法のAI?AIに憲法を守らせるってこと?」

📊 図: CAIの2段階プロセス図

🦜 きなこ「近いわね。AIに「憲法」、つまり守るべき原則のセットを与えて、AI自身がその原則に基づいて自分の回答を批評・修正するの。」

🐹 もっちー「めっちゃええやん!人間の代わりにAI自身が先生になるってことか!」

📊 図: 「憲法」の内容例リスト(世界人権宣言、Appleの利用規約、DeepMindのSparrow Rules等)

🦜 きなこ「しかもこの「憲法」の中身がユニークなの。世界人権宣言やAppleの利用規約まで含まれてるのよ。」

🐹 もっちー「Appleの利用規約まで入ってるの?なんか面白い組み合わせだね。」

🦜 きなこ「大事なのは、この原則が全部公開されていること。どんなルールでAIが訓練されたか、誰でも確認できるの。」

📊 図: バグバウンティの結果(参加者183名、テスト3,000時間以上、普遍的ジェイルブレイク未発見)

🦜 きなこ「さらに2025年にはConstitutional Classifiersのバグバウンティも実施したわ。」

🦜 きなこ「183名が3,000時間以上テストしたけど、普遍的なジェイルブレイクは見つからなかったの。」

🐹 もっちー「183人がかかっても突破できなかったってこと?それはかなり頑丈だね!」

AIの脳を覗く研究者たち

🦜 きなこ「さて、ここからはAnthropicの研究の中でも特に注目すべき分野を紹介するね。」

📊 図: 「機械的解釈可能性」のタイトルと概念図

🦜 きなこ「機械的解釈可能性、英語ではMechanistic Interpretabilityって呼ばれる研究分野なの。」

🐹 もっちー「メカニスティック…なんか難しそうな名前だね。何をする研究なの?」

🦜 きなこ「簡単に言うと、AIの脳の中で何が起きてるかを解明する研究だよ。」

🐹 もっちー「つまり、AIの頭をカパッと開けて、中の配線を調べるみたいなこと?」

🦜 きなこ「まさにそんなイメージ。Dario Amodeiも「自分たちが作ったAIがどう動くか分からない」って認めてるの。」

📊 図: Chris Olahと「Superposition(重ね合わせ)」の概念図

🦜 きなこ「この研究を率いるのがChris Olahというエンジニアで、彼は2022年にSuperpositionという核心問題を解明したの。」

🐹 もっちー「スーパーポジション?重ね合わせ?」

🐹 もっちー「あ、わかった。ハムスターの頬袋みたいなもんだ。1つの袋にヒマワリの種もペレットも全部詰め込んじゃう感じ?」

🦜 きなこ「意外といい例えかも。1つのニューロンが複数の概念を混ぜて記憶してるから、何を考えてるか解読しにくいの。」

📊 図: 「Scaling Monosemanticity」の成果概要(Claude 3 Sonnetから数百万の特徴を抽出)

🦜 きなこ「そして2024年5月、ついにClaude 3 Sonnetの「心」を覗くことに成功したの。数百万もの特徴を抽出したのよ。」

🐹 もっちー「ほんまかいな!AIの頭の中が見えるようになったってこと?」

📊 図: Golden Gate Claude実験の概要

🦜 きなこ「しかもここからが面白くて。Golden Gate Bridgeに対応する特徴を見つけて、それを10倍に増幅したの。」

🐹 もっちー「増幅したらどうなったの?」

🦜 きなこ「Claudeが「私はGolden Gate Bridgeです」って主張し始めたの。何を聞いても橋の話に持っていくようになったのよ。」

🐹 もっちー「なんでやねん!AIが橋になるとか意味わからん!」

🦜 きなこ「実はこれ、すごく重要な実験なの。特徴が「たまたま反応してる」んじゃなくて「原因として効いてる」って証明したのよ。」

📊 図: Circuit Tracing(2025年3月)の主要発見リスト

🦜 きなこ「そして2025年のCircuit Tracingでは、Claudeが言語を超えた「普遍的な思考言語」を持つことが発見されたの。」

🐹 もっちー「めっちゃすごいやん!AIの脳を覗く技術がここまで進んでるんだ。」

📊 図: MIT Technology Review「2026年のブレークスルー技術」選出バッジ

🦜 きなこ「この研究はMIT Technology Reviewの「2026年のブレークスルー技術」にも選ばれたの。AIの安全性を語る上で欠かせない分野よ。」

爆速成長の記録

📊 図: Anthropic資金調達タイムライン(Series A〜G、2021年〜2026年の棒グラフ)

🦜 きなこ「ここからはAnthropicの資金調達の歴史を見ていくね。」

🐹 もっちー「お金の話きた。ここからはワイの出番やな。」

🦜 きなこ「2021年5月のSeries Aでは1億2400万ドルを調達したの。」

🦜 きなこ「リードはSkype共同創業者のヤーン・タリンさん。AI安全性に共感した投資家が集まったの。」

🐹 もっちー「1億ドルでもすごいけど、ここからが本当にヤバいんだよね?」

📊 図: FTX Series B投資の概要($580M、Sam Bankman-Fried、2022年4月)

🦜 きなこ「そう。2022年のSeries Bでは5億8000万ドル。リードはFTXのサム・バンクマン・フリードだったの。」

🐹 もっちー「FTXって、あの崩壊した仮想通貨取引所の?」

🦜 きなこ「そう。FTXは2022年11月に破綻して、Anthropic株は破産手続きで売却されたの。」

🐹 もっちー「嵐を乗り越えたってことか。投資家ガチャでハズレ引いても生き残ったのがすごい。」

📊 図: ビッグテック戦略的投資まとめ(Amazon $8B、Google $2-3B、Microsoft&Nvidia $15B)

🦜 きなこ「そこからビッグテックが一気に動いたの。Amazonが累計80億ドル、Googleが20〜30億ドルを投資。」

🐹 もっちー「80億ドル!? ほんまかいな!ワイのひまわりの種何粒分やねん!」

🦜 きなこ「さらに2025年11月にはMicrosoftとNvidiaが合計150億ドルの戦略提携を発表したの。」

🦜 きなこ「これでClaudeはAWS、Google Cloud、Azureの3大クラウド全てで使える唯一のフロンティアモデルになったの。」

🐹 もっちー「全部のクラウドで使えるって、つまりどのお店にも置いてある人気商品ってことだよね。」

📊 図: Series G詳細($30B調達、バリュエーション$380B)

🦜 きなこ「そして2026年2月のSeries Gで300億ドルを調達。バリュエーションは3800億ドルに到達したの。」

🐹 もっちー「3800億ドルって日本円で50兆円超えやん!めっちゃええやん!」

📊 図: ARR成長グラフ($87M→$1B→$5B→$14B→$19B)

🦜 きなこ「売上の伸びも異次元なの。2024年1月のARR8700万ドルから、2026年3月には190億ドル。26ヶ月で218倍よ。」

🐹 もっちー「ARRっていうのは、今月の売上を12倍して年間に換算した数字のことね。直近の勢いが分かる指標だよ。」

📊 図: Claude Code ARR推移($500M→$1B→$2.5B)

🦜 きなこ「特にClaude Codeは単体でARR25億ドル。史上最速で成長したプロダクトと言われているの。」

🐹 もっちー「Fortune 10の8社が使ってるって、もうトップ企業の定番ツールやん。ワイも投資したいわ!」

安全チーム崩壊の裏側

🦜 きなこ「ここからは、OpenAIの内部で何が起きていたかを見ていくね。」

📊 図: Superalignmentチーム設立の概要(2023年7月、Ilya SutskeverとJan Leike共同リーダー、計算資源20%の約束)

🦜 きなこ「2023年7月、OpenAIは「Superalignment」チームを設立したの。」

🐹 もっちー「スーパーアライメント?なんかカッコいい名前だけど、何するチームなの?」

🦜 きなこ「超知能、つまり人間を超えたAIが暴走しないように制御する技術を研究するチームだよ。」

🐹 もっちー「人間超えちゃうの?それ怖くない?」

🦜 きなこ「だからこそ必要なの。リーダーは共同創業者のIlya Sutskeverとアライメント責任者のJan Leike。」

🦜 きなこ「しかも「計算資源の20%をこのチームに充てる」と公式に約束したの。」

🐹 もっちー「20%!めっちゃ本気やん!」

📊 図: 「20%計算資源」の約束と現実の対比

🦜 きなこ「でもね、この約束は結局ほとんど守られなかったの。」

🦜 きなこ「チーム関係者の証言では、ごく一部の計算資源を要求しても拒否されることが多かったと。」

🐹 もっちー「なんでやねん!約束したんちゃうんかい!」

🐹 もっちー「これ、ハムスターに「毎日ひまわりの種10粒あげるよ」って言って2粒しかくれないのと同じだよね。」

📊 図: タイムライン: 2024年の大量離職(5月 Ilya辞任→SSI設立、5月 Jan Leike→Anthropic、8月 Schulman→Anthropic、9月 Murati退職)

🦜 きなこ「そうね。そして2024年5月、ついにIlyaが辞任してSafe Superintelligence Inc.を設立。」

🦜 きなこ「翌日にはJan Leikeも辞任。声明で「安全文化は華やかな製品に後回しにされた」と告発したの。」

🐹 もっちー「安全より製品を優先したってことか。それはキツいなぁ。」

🦜 きなこ「Jan Leikeはその後Anthropicに移籍して、今はアライメントサイエンスチームを率いてるわ。」

📊 図: Daniel Kokotajloの非誹謗契約拒否(約$1.7M=約2.5億円の株式リスク)

🦜 きなこ「さらに衝撃的なのが、元研究者Daniel Kokotajloの件。」

🦜 きなこ「OpenAIの非誹謗契約に署名しないと、約2.5億円分の株式が取り消される条件だったの。」

🐹 もっちー「2.5億円を捨てる覚悟で会社を批判したってこと?それはすごい勇気だよ。」

🦜 きなこ「その後もCTOのMira MuratiやJohn Schulmanなど、幹部が次々と離職していったの。」

📊 図: 構造図: OpenAIの安全チーム崩壊(Superalignment設立→計算資源未配分→幹部離職→Anthropic/SSI設立の流れ)

🦜 きなこ「安全か商業化か。この衝突がOpenAIの内部崩壊を引き起こし、Anthropic誕生の伏線になったわけ。」

Dario Amodeiの哲学

🦜 きなこ「ここからはDario Amodeiの思想に踏み込んでみましょう。」

📊 図: 「Machines of Loving Grace」エッセイ概要(2024年10月、約15,000語)

🦜 きなこ「2024年10月、彼は「Machines of Loving Grace」という約1万5千語のエッセイを公開したの。」

🐹 もっちー「1万5千語って、本1冊分くらいの量じゃない?」

🦜 きなこ「そうね、50ページくらい。そこで彼は「AGI」という言葉を意図的に避けて、「強力なAI」と呼んだの。」

📊 図: 5つの楽観的変革領域(①生物学 ②神経科学 ③経済発展 ④平和 ⑤仕事・意味)

🦜 きなこ「「データセンター内の天才たちの国」がAIの未来だと。生物学、経済、平和など5つの領域で世界を変えると書いてる。」

🐹 もっちー「つまり「AIがあれば全部うまくいく!」って話?ちょっと楽観的すぎない?」

🦜 きなこ「実はね、Darioの面白いところはそこなの。楽観的なビジョンを語りながら、ちゃんとリスクも直視してる。」

📊 図: 「The Adolescence of Technology」(2026年1月、約20,000語、5つのAIリスク)

🦜 きなこ「2026年1月、対となるエッセイ「The Adolescence of Technology」を発表。こっちは2万語でリスクを徹底的に論じてる。」

🐹 もっちー「楽観と悲観、両方書くってすごいな。で、どんなリスクがあるの?」

📊 図: 5つのAIリスク(①自律性 ②破壊的悪用 ③権力掌握 ④経済的混乱 ⑤社会不安定化)

🦜 きなこ「AIの自律性リスク、生物兵器などの破壊的悪用、権威主義政府による悪用、経済的混乱、そして社会の不安定化。5つよ。」

🐹 もっちー「ほんまかいな!自分で作っといて「危ないかも」って言うんかい!」

📊 図: Darioの発言引用:「1〜5年以内にホワイトカラー職の50%を混乱させる」

🦜 きなこ「しかも「AIは1〜5年以内にエントリーレベルのホワイトカラー職の50%を混乱させる」とまで明言してるの。」

🐹 もっちー「50%って半分だよ!?新入社員の仕事の半分がAIに取られるってこと?」

📊 図: 25%壊滅的リスク見積もり

🦜 きなこ「そしてもう一つ。彼は壊滅的なリスクの確率を25%と見積もっているの。4回に1回は大惨事になるかもしれないと。」

🐹 もっちー「だからこそ安全性にこだわってるわけか。口だけじゃなくて、行動でも示してるの?」

📊 図: ペンタゴンとの対立(2026年2月):Claude利用要求を拒否→サプライチェーンリスクに指定

🦜 きなこ「2026年2月、ペンタゴンが大規模監視や自律兵器にClaudeを使わせろと要求したの。Darioは拒否した。」

🐹 もっちー「めっちゃええやん!国にケンカ売るとか度胸あるなぁ!」

🦜 きなこ「でも代償は大きくて、Anthropicは「サプライチェーンリスク」に指定されて、連邦機関での使用が禁止されたの。」

📊 図: 流出メモ:OpenAIの取引を「safety theater」と批判

🦜 きなこ「さらに内部メモが流出して、OpenAIの政府取引を「safety theater」と批判してたことも明るみに出た。」

🐹 もっちー「理想を貫くけど、裏では競合をバッサリか。なんか人間くさくて逆に信用できるかもね。」

Claudeの進化とスーパーボウル

🦜 きなこ「さて、ここからはAnthropicのプロダクト面を見ていくね。」

📊 図: Claudeモデル進化タイムライン(Claude 1→2→3→4→4.6)

🦜 きなこ「Claudeは2023年の初代から急速に進化してきたの。」

🦜 きなこ「2024年にClaude 3ファミリーが登場して、Haiku・Sonnet・Opusの3段構成に。」

🐹 もっちー「で、2026年2月に出た最新のOpus 4.6がすごいんでしょ?」

📊 図: Opus 4.6スペック(1Mトークン、14.5時間タスクホライズン)

🦜 きなこ「そう。コンテキストウィンドウが100万トークン。14.5時間の自律タスクをこなせるの。」

🐹 もっちー「100万トークンって、本一冊まるごと読ませて質問できるみたいなもんだよね。」

📊 図: Claude Code成長グラフ(研究プレビュー→GA→ARR $2.5B)

🦜 きなこ「そしてプロダクト面で特に注目なのがClaude Codeね。」

🦜 きなこ「2025年2月に研究プレビューで出て、5月にGA。そこから3ヶ月でARR5億ドル突破。」

🐹 もっちー「めっちゃええやん!で、2026年2月にはARR25億ドルやろ?エグいて!」

🦜 きなこ「JavaScriptランタイムのBunも買収して、インフラ強化に動いてるの。」

📊 図: Claude Cowork概要(非技術系向けAIエージェント)

🦜 きなこ「もう一つ、Claude Coworkっていう非エンジニア向けのエージェントも出たの。」

🐹 もっちー「プログラマーじゃない人でもAIエージェントが使えるってこと?」

🐹 もっちー「回し車みたいなもんやな。前はハムスター専用だったのが、インコでも乗れるようになったみたいな。」

🦜 きなこ「インコは回し車に乗らないけど、まあ言いたいことは伝わるわ。」

🦜 きなこ「そう。影響は大きくて、エンタープライズソフトウェア株に1兆ドル規模の売りが出たの。」

🐹 もっちー「1兆ドル!?飼い主の持ち株も下がってへんか心配やわ。また課金も増えてるし。」

📊 図: スーパーボウルLX広告「A Time and a Place」(2026年2月8日)

🦜 きなこ「そしてAnthropicのマーケティングで一番話題になったのが、スーパーボウルの広告。」

🦜 きなこ「「AIに広告は来る。でもClaudeには来ない」っていう宣言をしたの。」

🐹 もっちー「OpenAIがChatGPTに広告入れるって言った直後にこれやるの、ケンカ売ってるよね。」

📊 図: Sam Altmanの反応(「clearly dishonest」「authoritarian」)

🦜 きなこ「Sam Altmanも反応して「明らかに不正直だ」「権威主義的だ」と強く批判したの。」

📊 図: スーパーボウル広告の効果(App Store 41位→7位、DAU 11%増)

🐹 もっちー「でも結果はApp Storeで41位から7位に急上昇、DAUも11%増やろ?大勝利やん!」

🦜 きなこ「IPOの準備も進めてるという報道もあって、Anthropicの勢いは止まらないわね。」

まとめ

📊 図: まとめスライド:Anthropicの軌跡 3つのポイント

🐹 もっちー「さて、今日のAnthropicの話をまとめていこうか。」

🦜 きなこ「まず、OpenAIの安全チームから飛び出して、安全性を企業の柱に据えたこと。」

🐹 もっちー「「安全じゃないなら作らない」って姿勢を創業から貫いてるのがすごいよね。」

🦜 きなこ「次に、Constitutional AIや解釈可能性研究といった技術的イノベーション。」

🐹 もっちー「AIの中身をちゃんと理解しようって研究、地味だけどめちゃくちゃ大事だよ。」

🦜 きなこ「そして3つ目、ARR190億ドル、評価額3800億ドルという爆速成長ね。」

🐹 もっちー「安全性と成長を両立させてるの、ほんまにすごいわ!」

🦜 きなこ「理想と現実を両方追いかける姿勢、見習いたいわね。」

🐹 もっちー「ところでさ、うちの飼い主、Claude Proに毎月課金してるんだよね。」

🦜 きなこ「その分、私たちのおやつ代に回してほしいんですけど。」

🐹 もっちー「でもこの動画もClaudeに手伝ってもらってるから、感謝しないとね!」

🦜 きなこ「まあ、それは確かにそうね。ありがたく使わせてもらいましょう。」

📊 図: コメント誘導:「Anthropicの安全性へのこだわり、どう思う?」

🐹 もっちー「さて、みんなに聞きたいんだけど。」

🐹 もっちー「Anthropicの安全性へのこだわり、みんなはどう思う?コメントで教えてね。」

🦜 きなこ「「安全性は必要だけど開発スピードも大事」とか、いろんな意見を聞きたいです。」

🐹 もっちー「あと、OpenAIの話も別の動画で深掘りしたいよね。」

🦜 きなこ「Anthropicとの違いを比較するのも面白そうね。興味があったらぜひコメントで教えてね。」


きなこもっちーのテック深掘り では、AI/LLM を中心としたテック全般をハムスター(🐹 もっちー)とセキセイインコ(🦜 きなこ)の掛け合いで楽しく解説しています。

チャンネル登録・高評価よろしくお願いします! → https://www.youtube.com/watch?v=YfrMEwlpAG0

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?