はじめに
この記事は、AI開発のキャッチアップについて紹介します。
◆背景
「AIを開発する」「AIで開発する」という点において、キャッチアップ不足を感じました。自分がキャッチアップできていない領域を探したく、そこで着目したのが松尾研究所のテックブログです。
AIについて体系的にキャッチアップするのは簡単ではなく、また一人が書いた媒体よりも複数人が書いた媒体の方が広く書かれているためテックブログに注目しました。
2025年10月末時点で95個の記事があります。
95個のテックブログを全て読んでいきます。
この記事のねらい
この記事の狙いは、AI開発に関するキャッチアップ方法の一例として参考にしていただくことです。
ボリュームは、キャッチアップの内容(What)の方が大きいですが、キャッチアップ方法(How)が参考になれば嬉しいです。
先に結論
「テックブログぜんぶ読む」は私にとってよかったです。
本では得られないような想定外の学びがあって、とても楽しかったです。自分にあっていたように思います。
とにかく解像度が上がりました。
「解像度=広さ×深さ×構造」だとすれば、AI開発について、広さも深さも構造もよくなりました。
- 知らない技術を知る(=広さ)
- 知っていた技術を深掘る(=深さ)
- 技術と技術が繋がる(=構造)
という体験ができました。
キャッチアップの目的と方針
- AI開発についてキャッチアップすることが目的
- 特に自分がキャッチアップできていない領域に気づくことを重視
- よって深さよりも広さ重視
- 知らない単語などがあるはずなので入社エントリなども目を通す
- 理論と実践のバランスを重視
- 参考文献はできるだけ目を通すが、深すぎるものは早めに打ち切る
- 自分にとって効果が高そうな記事は、読むだけでなく実際に手を動かす
この記事で何を書くか?
この記事では、テックブログ一つに対して、
- 感想
- 気づき
などを書きます。
繰り返しになりますが、この記事でAI開発のキャッチアップができるわけではありません。キャッチアップを追体験していただき、キャッチアップ方法の参考になれば幸いです。
背景
松尾研究所テックブログをはじめます
積極的に社会実装する際に得られた知見を広く共有することで、多くの人の助けになると共に、日本のAI分野の発展に少しでも貢献し、盛り立てていくことができればと考えています。
とのことなので、活用させていただきたいと考えました。
AIコーディング
AIコーディング時代の開発環境構築:VS Code × Cline(Roo Code)で爆速開発!
これは公開された直後に参照しました。とても参考になりました。さまざまなTipsがあり、読み直しても勉強になることばかりです。
AIコーディングツール実践比較:Kaggleタスクで見えたClaude Code・Manus AI・Cline・Devinの最適な活用場面
「ツール全体の考察」で、データサイエンスタスクとAIコーディングツールの関係がよくわかりました。
精度面:シンプルなタスクでは人間の中級者レベルに到達可能。
速度面:基本的なモデル構築は人間よりも高速で可能(16-18分 vs 数時間)。
創造性:複雑な特徴量エンジニアリングや新規手法の適用は人間がまだ優位に立っている。
LLM
大規模言語モデルは専門医の診断を超えるか
GPT-4の診断・トリアージでは人種・民族的な情報によるバイアスは見られなかった
学習データそのものにバイアスが含まれているなどの議論はあると思いますが、AIの有益な活用としてバイアスを減らすがあることを再認識できました。
そして「研究ウラ話」に著者の苦労が伝わってきました。
本論文を発表するにあたっては激動の数ヶ月を過ごすことになったのですが、AI技術の進歩のスピードの速さに加えて、その時代で特にホットな分野の研究における競争の激しさを身を以て体感することが出来ました。
大規模言語モデルはエリート就活生を超えるか
紹介されているプロンプトが参考になりました。自然言語(文章)でのあいまいさを減らし、より明確で正確に伝えるための指示です。
To enhance clarity and eliminate ambiguities inherent in natural language, consider employing more structured and concise forms of communication for your step-by-step solutions. Suitable formats include code, pseudocode, JSON, markdown tables,logical operators, or mathematical equations. Remember to be concise and accurate. Please make sure to use Japanese for output. You can do it.
Tanuki-8BとOllamaとDifyを使って日本語ローカルRAG構築
国産ローカルLLMとRAGをつくる記事です。
Tanuki-8Bがサイズが小さいのに、日本語の性能が高いので、今回のようなローカルで日本語RAGシステム構築したいときにはピッタリだと感じました。
とありますが、同様の感想を持ちました。
Ollamaを使ってLINEでLLMと会話する(履歴も参照)
ローカルサーバーで運用しているので利用料金を気にせずに使える点が気に入ってます。
記事を読んだ後に気づいたのですが、初学者はOllamaから着手するというのもありかもしれないです。
【松尾研LLM講義まとめ】ドメイン特化LLM・金融特化LLMの最新動向と活用可能性
講義「Application of LLM」のアウトプット記事です。講義の資料のリンクは↓です。
「情報変換器」としてのLLMより
「非定型と定型を高速かつ大規模に行き来することができるようになった」というのが本質的な変化である。加えて、必要な文脈を与えることで、人間以上の精度を発揮可能。
全体を通して、「2023年頃から金融特化LLMが注目されている」くらいの理解でしたが、知識が整理され、解像度が大きく上がりました。
LoRAの進化:基礎から最新のLoRA-Proまで
「LoRA」は知っていましたが、「LoRA-Pro」はキャッチアップできていませんでした。
フルファインチューニングを上回ることがあるのに驚きました。
特にGLUEベンチマークではフルファインチューニングも上回る性能を示しています。これは、フルファインチューニングが訓練データセットが小さい場合に過学習しやすいのに対し、LoRA-Proがより汎化性能の高い解に収束できるためだと考えられます。
LLMをゲームプレイで評価するLMGame-Benchを紹介
全く知らないベンチマークの話でした。
ゲームをLLMでプレイすることは知っていたのですが、ベンチマークが存在していたとは。
大規模言語モデルの推論能力比較実験:o1モデルは本当に賢いのか?
記事の執筆は2024年10月ですが、確かにo1モデルが優れている結果が確認できる記事です。
生成AI全般
ソラカメとSORACOM Fluxで簡単実装!生成AIを活用した「ネコちゃん日記自動生成アプリ」
SORACOMの存在は知っていたのですが、「SORACOM Flux」を知らなかったので勉強になりました。
そして、生成AIの組み込みがこのようにできるとは知りませんでした。
SORACOM Fluxでは、手軽にIoTアプリの開発ができるのですが、大きな特徴の1つとして生成AIのIoTアプリへの組み込みがあります。SORACOM Discovery 2024では、SORACOM Fluxを使ったアプリの事例として、ネットワークに繋がったカメラ(ソラカメ)の画像をマルチモーダルな生成AIモデルに入力して、異常を検知したらアラートを出すデモを実施し会場を沸かしていました。
初心者でもできる画像異常検知プロンプトの自動生成
メタプロンプトの適用方法として勉強になりました。
【画像生成AI】仮想試着モデルの比較
仮想試着モデルは全く触れたことがない分野なので、手法名から勉強になりました。
・OOTDiffusion
・IDM-VTON
・CatVTON
請求書から漫画まで!OCR+LLMで進化する文書データ構造化技術
OCR単体やLLM単体ではキャッチアップしていたつもりでしたが、OCR+LLMは考えもしなかったです。提案されている手法は勉強になりました。
arXivから2024年のLLMトレンド追ってみた
これはキャッチアップしたい人に助かる記事です。主要なトピックが8つ紹介されています。
マルチモーダル、学習・訓練方法、セキュリティと品質保証、効率化と医療応用、社会的影響と応用、
RAG、AIエージェント、推論能力向上
自分の感覚とも一致しました。「医療」がトピックに現れており、↓の記事とつながりました。
日本語医療特化型LLMの現状と展望
医療特化型LLMの必要性と課題がわかりました。
AItuber最前線!AIを使った3Dキャラとの対話
自分が全然知らない世界でした。「AITuberキット」は初見。
Gemini 2.0 Flash API の使用方法を、実装しながら解説
前半はGoogle Colaboratoryで、後半は個人開発アプリへの応用がある記事。
「Google Cloud」の「Vertex AI」を使ったことがないので、勉強のきっかけになりました。
検索ワードからLLMで専門家を見つけるSlack bot「Navigator」の開発
これはアイディアの勝利だと思いました。
誰が何を知っているか?という「ノウフー」は運用が難しいのですが、Slackの投稿から検索できるのはとても良いと思います。管理やメンテが不要になりますね。
日本 vs 海外 AI活用事例調査:現場起点と基盤先行
日本は現場起点、海外は基盤先行。この傾向は IPA『DX動向2025』が示す"部分最適 vs 全体最適"とも整合している。
これは刺さりますね。心当たりがあります・・・。
人工知能学会2025をきっかけに自分と似た歴史上の人の顔を探すアプリ「reki-gao」を作ってみました
ユニークなアプリなのと、
開発には生成AIを活用しています。大体思いついてからプロトタイプは半日くらいで完成しました。
に驚きがありました。
ガードレール
LLMガードレールソリューションの比較
なぜ以下の三つの比較なのか?ということに疑問が残りました。もしかしたら著者の方が試しやすいガードレールだったのかもしれないと想像しています。
Llama Guard(Meta開発)
NeMo Guardrails(NVIDIA開発)
Guardrails AI(Guardrails AI社開発)
一方で、三つの特徴は理解しました。
シンプルさ重視: Llama Guard
柔軟性・拡張性重視: NeMo Guardrails
手軽にこだわりたい: Guardrails AI
MCP
MCP入門
公開直後に有名になった記事です。
例も図もとてもわかりやすいです。
「著者陣に聞く!PythonではじめるMCP開発入門」イベントレポート
イベント時に使用されていた資料もわかりやすいです。
ローカルRAGを手軽に構築できるMCPサーバを作りました
MCPサーバでベクトル検索を実現するモチベーションとしては、CursorやWindsurfなどのAIコーディングツールだとベクトル検索の機能が標準でついていますが、Cline(Roo Code)だとそのような機能がないので手軽にベクトル検索を実現したかったことがあります。
なるほどと思いました。
MCPホスト構築:非同期処理とリソース管理の基礎と実装
料理に例えているのがわかりやすかったです。
MCPサーバーとAIエージェントの話で身構えてしまったのですが、タイトルの通り、非同期処理とリソース管理を理解すると、AIエージェントの思考と行動の理解がしやすくなりました。
Notionで手軽にMarkdownを読み書きできるMCPサーバー「NotionMCP Light」を作りました
小さな工夫で大きな効果がありそうなMCPサーバーだと思いました。
ワークフロー・エージェント
「AIワークフロー」で実現する論文調査の自動化
AIエージェントを採用する場合、複雑性やコスト、レイテンシーといった点でのトレードオフが伴います。そのため、実際には多くの場合、AIワークフローや単一のLLM呼び出しの最適化だけで十分とされています。
できるだけコストのかからない方法を採用していくのはセオリー。
マルチエージェントフレームワークAIMEの紹介と実装
キャッチアップできていなかった分野です。
「従来の課題とAIMEの提案」や「AIMEのコアコンポーネント」などわかりやすかったです。
マルチエージェント活用術:Google ADKで変わるキャッチコピー生成
ADKの存在は知っていましたが、実装例まで把握できていませんでした。
AIエージェントによる社会シミュレーション - Generative Agents, AgentSociety, CitySimの紹介
AIエージェントで社会シミュレーションすることは知っていましたが、具体的な手法までは把握できていませんでした。
Generative Agents
AgentSociety
CitySim
統計・機械学習
生成AIの進化を支える「自己教師あり学習」:基礎から応用例まで
自己教師あり学習の解像度を高めてくれる記事でした。
強化学習「GRPO」をCartPoleタスクで実装しながら解説
強化学習の経験が浅く、GRPOを知らなかったのでとても勉強になりました。
論文紹介 - 世界基盤モデルCosmos
世界基盤モデルは全く知らない世界でした。
ガードレールシステムが印象的でした。
最新のテーブルデータ向けNNモデルをまとめてみた
追えていなかったNNモデルの話です。
RealMLP
TabM
ModernNCA
TabPFN
画像1枚からアノテーションレスで物体検出AIモデル開発
記事を読んで、以下のコメントと私も同じ感触を持ちました。
数年前の常識が変わっています。自分をアップデートできてよかったです。
自分が物体検出に取り組んでいた数年前、一番良いモデルとしてメインで使っていたのがEfficient Detでした。実はそのときも、今回と同様に合成データでの物体検出を試行したのですが、今回の結果でも再現した通り、全く性能が出ませんでした。
数年前にはできなかったことが、AIの性能向上でできるようになったりするのが、AI開発の恐ろしさでもあり、面白さですね。
時系列基盤モデルの性能向上に向けて【2024年10月版】
時系列基盤モデルは具体的なモデルまで追えていませんでした。
実験の目標として、当初はKaggleで銀メダルレベルの予測精度を目指しましたが、あっさり達成してしまったため、最終的には金メダルレベルの精度向上を目標に設定しました。
そんなに簡単に達成できてしまうのかと驚きました。
正則化パラメータλをlogスケールで最適化する理由 ProphetをOptunaで最適化する際に出た疑問
考えたこともない疑問でした。
記事のサンプル点の可視化で理解が進みました。
一般的にλが大きすぎるとモデルとしての複雑性が失われすぎて精度が下がる傾向にあるため、最適なパラメータ付近で多く探索点を持てていることで、精度と正則化のバランスを取った良いモデルを見つけ出すことができるのではないかと考えられます。
クラウドサーバーでのAI学習手順【AWS編2024年版】
記事のタイトルから、AIを学ぶ話かと思っていたのですが、trainingの話でした。
リモートの手順などは参考になりそうです。
コンペ
松尾研究所の社内データコンペ DS Dojo #1 体験記
楽しそうな社内コンペです。
松尾研究所主催分析コンペ [DS Dojo #1] 回答したLLMの分類 - 1st Solution -
データ観察から特徴量作成されている様子がわかります。
業務においては同じタスクをたくさんのデータサイエンティストで解くケースはほぼないので、たくさんの実装アイディアを得られるのはコンペ参加の魅力ですね!
確かに!
【コンペ体験記】松尾研究所 社内コンペ「DS Dojo」で1位と2位を取った話
コンペの特徴をよく捉えられている記事に感じました。
松尾研究所「AIハッカソン」開催レポート
面白そうな社内ハッカソンでした。
[solafune] Sentinel-2 を活用した太陽光パネル検出 - 2nd Solution -
Trust CVの精神が伝わってきました。
Kaggle Eedi - Mining Misconceptions in Mathematics 振り返り
LLMコンペで使われるモデルについてキャッチアップできました。
Kaggleコンペ: RSNA2024 Lumbar Spine Degenerative Classification 上位解法まとめ
マルチモデルでの解法が紹介されている記事。
Kaggleコンペ紹介:Make Data Count - Finding Data References
関連づけられている記事で「LB Probing」の手法が参考になりました。
Docker
Dockerで構築する機械学習環境【2024年版】
参考にあった↓の記事がよかったです。
Docker に不慣れな間はコンテナをホストマシン上で動いている仮想 OS のように感じるかもしれませんが、コンテナの実体は Linux の Namespace という機能によりほかと分離されたただの1プロセスでしかありません。
という一言で、理解が一気に深まりました。
GUIと日本語環境が使えるお手軽Docker環境の使い方
記事内で紹介されていたwebtopを初めて知りました。
確かに、AIエージェントを動かす環境として良さそうです。
uv × DockerでのPython開発環境構築方法
書籍「先輩データサイエンティストからの指南書」の内容とつながりました。
開発系
機械学習の推論結果を非同期にPOSTで返す — FastAPIでの実装例
非同期にするのはよくある手法。実装例が参考になりました。
特にディープラーニングモデルやLLMを使ったアルゴリズムでは、非同期で推論することが多いと思います。これらのアルゴリズムは推論に時間がかかるため (数秒〜数十秒)、同期処理を行ってしまうとクライアント側の他の処理を長時間待たせてしまうことになります。
Rust製の高速Linter・Formatter「Ruff」の初心者向け解説
Ruffは使ったことがあります。わかりやすい記事でした。
GASでSlackをもっと便利に!開発合宿で作った2つのBot
運用コストが低いbotで良いなと思いました。
仮想端末ソフト「byobu」で快適なCLI開発環境構築
仮想端末ソフトという概念も、もちろん「byobu」も知らなかったので勉強になりました。
以下のような問題を解決できると知って、なるほどと思いました。
CLIベースのソフト(Claude Code, Gemini CLI, AIの学習プログラム等)に長時間かかる作業をさせていたのに、うっかりターミナルを閉じてしまった
クラウド(AWS・GCP)系
AWS re:Invent 2024で気になった発表10選
知らない内容が多くて興味深い記事でした。
以下は全く知らなかったです。品質には興味があるので継続的にウォッチしておきたいです。
今回の発表内容で個人的に一番気になったのは、/testコマンドでのテスト生成、/reviewコマンドでのコードレビュー、/docコマンドで README やデータフロー図などを作成できる機能です。この領域は他社のサービス含めて様々なものが出てきているので、従来の TDD などの手法と組み合わせる(もしくは置き換える)新たなプラクティスが今後誕生するのではないかと思っています(もしくは既に各社取り組んでいるのではないかと思っています)。品質を担保しつつ開発生産性を向上するのは非常に重要だと思っているので、この領域は引き続き注目していきたいと思います。
合格までの勉強方法「AWS Cloud Practitioner(クラウドプラクティショナー)」資格【2024年最新版】
「AWS Cloud Practitioner Essentials (Japanese) (Na) 日本語実写版」は知らなかったです。
合格までの勉強方法「AWSソリューションアーキテクト(アソシエイト)」資格【2024年最新版】
私の勉強方法と違い、実践面を重視されている記事。
違いが明確で参考になりました。
**合格までの勉強方法「AWS Developer Associate」(認定デベロッパー アソシエイト)資格 【2024年秋版】
**
前述の記事と同じシリーズ。
書籍も紹介されています。
【概要と感想】AWSの生成AI/LLMのハンズオン・トレーニング「Cloud Quest 生成AI 日本語版」
「Cloud Quest 生成AI 日本語版」の存在を知らなかったです。
課題一覧を見ると、確かに参考になりそうだと思いました。
AWSで生成AI系のサービスを作成する際に確認したいです。
合格までの勉強方法「Google Cloud Digital Leader(デジタルリーダー)」資格【2024年秋版】
Google系の資格はほとんど知らないので基礎の資格から参考になりました。
次の三つの記事は、GCPでAIアプリを開発するときに参考になりそうです。
LLM・生成AI活用型アプリの実装スキル・トレーニング集:Google Cloud 初級編【2024年秋】
LLM・生成AI活用型アプリの実装スキル・トレーニング集:Google Cloud 中級編【2024年秋】
LLM・生成AI活用型アプリの実装スキル・トレーニング集:Google Cloud 上級編【2024年秋】
スキルアップ
松尾研究所のデータサイエンティストが今年の業務に役立ったと思う本10選
データサイエンスチームのマネジメントに関する本は、現時点ではまだ少ないと思っています。
私も同じ意見を持っています。「エンジニアリングマネージャー」と似た言葉が将来出てくるのではないかと想像しています。
AI系の情報収集手法を紹介(ビジネス・開発・研究)【2025年版】
自分のキャッチアップ方法と差があることを自覚できました。これだけでも読む価値がありました。
この記事の補足記事が↓
AI系情報収集方法の社内アンケート・手軽な情報収集の仕組み【2025年版】
最近ポッドキャストでインプットする機会が増えました。面白そうなチャンネルがあったので参考になりました。
AI時代の仕事術(10方式)
全体を通してとても参考になる記事でした。
それぞれの仕事術に名前が付けられているのも腹落ちしているのがわかります。
記事内で紹介されていた「LNOフレームワーク」は初見でした。
LNOでは仕事(タスク)のタイプを以下の3種類に分類します。
Leverage(L: レバレッジ)
Neutral(N: ニュートラル)
Overhead(O: オーバーヘッド)
↓記事内で参考として紹介されていた記事にも目を通しました
イベント系
入社10日でスタート!松尾研究所の数理最適化勉強会
キャッチアップとは違う観点ですが、この勉強会の運営方法が参考になりました。
勉強会実施にあたり、実装しながら技術を学ぶことが可能な書籍の選定を行いました。
理由としては以下の2点です。
実業務での導入コストを削減するため
なるべく資料準備の手間を削減するため
「テックブログ全部読む」のおかげです。
データサイエンスチームで第1回開発合宿に行ってきました!
合宿ではまとまった時間があるので各自好きなものを開発する時間を取りました。
何でもいいですが、おすすめは、いつか作りたいと思っていたが普段手が回っていなかったようなものとしました
良さそうなレコメンドに感じました。
松尾研究所のプロジェクトの進め方をご紹介! (松尾研meetupイベントレポ①)
「松尾研ならではの手法」を期待されることも多いのですが、手堅く効果が出そうな手法と共に、チャレンジングな手法もトライできるのは非常に良いポイントです。
これは良さそうな考え方。手堅い手法と挑戦的な手法の両方をやるということ。
メーカー企業出身メンバーの働き方とは? (松尾研meetupイベントレポ②)
以下の記述が魅力的に感じました。
Q. 「大企業では2年かかる仕事を半年で進められる」という点は魅力。どうしてそれが実現できる?
A. 一人ひとりが同時に抱えるプロジェクト数を絞っているため、各メンバーが一つひとつのテーマに深く集中できる体制が整っています。最新技術のキャッチアップにおいては、若手の学習スピードや柔軟な発想が大きな推進力となっています。これにより、意思決定の速さや開発スピードが加速し、大企業では時間がかかるようなプロジェクトも短期間で前進させることができています。
東京大学 松尾・岩澤研究室ポスター発表会に初参加!~松尾研究所の研究開発成果を披露~
1つの研究室とは思えないほどのイベントの盛り上がりを感じました。
松尾・岩澤研究室 / 株式会社松尾研究所 合同ポスター発表会を開催しました
この記事も同様です。ポスター発表会の盛り上がりの継続を感じました。
ACM BuildSys2024(中国・杭州) 参加報告
ベースラインと比較して、電力消費量が最大47.92%削減され、従業員の快適性が最大26.36%向上することが実証されました
経営者にとって嬉しく、従業員も嬉しい結果だと思いました。
言語処理学会第31回年次大会(NLP2025)参加報告
日本語のガードレールの研究事例を初めて知りました。
第20回言語処理若手シンポジウム(YANS2025)参加報告
紹介されていた「目標指向対話における話題誘導を感じさせない発話選択」がとてもinterestingでした。
本研究は、目標指向対話における「誘導感のない発話選択」をテーマとしています。例えば、商品推薦や情報取得といったシステム側に事前に決められた目標がある対話タスクでは、ユーザに「誘導されている」と気づかれない自然な対話の進行が重要です。
【JSAI2025】松尾研究所参加レポート
骨太なレポート。次の部分がinterestingでした。
従来の社会シミュレーションは数理モデルだけでしたが,LLMエージェントを使うことで「性格」という人間的要素を含んだ集団ダイナミクスが観察できるようになったのは,マルチエージェントシミュレーションの最たるところかなと思います
会社紹介
松尾研究所のオフィスツアー @キーボード編
とても面白いです。私はHHKB派です。
三度の飯よりデータサイエンス!な人に会うために、松尾研究所のデータサイエンティストたちで今年取り組んだこと
記事内の松尾研究所のプロジェクト概観から、取り組まれている分野の広さがわかります。
記事内で「Kaggler同士の交流会」に取り組んでいきたい、という趣旨もあり、↓の記事につながったのかと想像しました。
関西Kaggler会にゴールドスポンサーとして参加しました!
テックブログから、関西Kaggler会の様子が伝わってきました。
「目先の利益に走っていないか」など心にグサグサささるご講演
私の心にもグサグサと刺さります。
第1回 公開Lightning Talkイベント「DL/ML CAMP」レポート
こんな素敵なLTイベントがあったとは、知らなかったです。
松尾研究所「猫部」の紹介
Slackのclub文化が活発なのがわかります。
松尾研究所 Advent Calendar 2024を実施します
この企画のおかげで本記事のようなキャッチアップができています。ありがとうございます。
松尾研究所でのAdvent Calendarの始め方と振り返り
Slackのテンプレート機能を知らなかったので参考になりました。
松尾研究所インターン修了式を実施しました
200名近くのインターン生が参加
200名!?と驚きました。
Slackチャンネルが気づいたら100を超えていたので整理した
Slackあるあるですね。優先度の付け方は参考になります。
入社エントリ系
入社エントリ:株式会社松尾研究所に入社しました(シニアデータサイエンティスト)
入社してから実際に動いているプロジェクトを見ても、一般的な機械学習の本では見ないような設定の課題も多く、「こんな所にも機械学習が取り入れられているのか」と驚いています。
刺激的な会社であることがわかります。
【入社エントリ】 AIに縁がなかったけど松尾研究所に入ってみた
個人的にはカオスな環境が好きなのですが、松尾研究所も成長真っ只中の良い意味でカオスなところがあります。会社としても案件が溢れるほどたくさんあり、個人としてもやれることがたくさんある状況で、手を挙げれば何でもできるような環境というのが素晴らしいと感じています。
案件が溢れるほどあるという良い環境が伝わってきました。
【入社エントリ】コンサルから松尾研究所のデータサイエンティストへ
いたずらに競い合うのではなく、ともに高め合い、支え合うような関係性のメンバーがいることも、松尾研究所の大きな魅力だと思います。
エンパワーメントし合える良い環境なのが伝わってきます。
[入社エントリ]新卒で松尾研究所に来て早1か月が経ったので振り返ります
「データサイエンティストとして,日々増え続ける"技術"を我が物にして,新技術を起こし,顧客の課題を解決する,そしてそれを楽しむ」を実践する松尾研究所の社員の皆さんはとても自分に輝いて見えて
技術だけでとまらず、顧客の課題を解決することまで含まれているのは良い環境なのが伝わってきます。
爆音GPUサーバ持ち航空宇宙系オーバードクターが松尾研究所に来ました
松尾研究所は、
社会インパクトの大きいプロジェクトを推進できる
最先端の知識を持つ研究者たちと日常的にディスカッションできる
という観点で学術×民間の橋渡しを体現できる、稀有な場だと感じました。
特別な場所なのが伝わってきました。
終わりに
本記事では、AI開発のキャッチアップ方法として、「テックブログぜんぶ読む」を紹介しました。
ぜひやってみてください。