本日も、ネットに流れるトピックから個人的に興味を引かれたものを拾っていきます。
皆さんのWindowsは壊れたり腐ったりしませんか?私のWindowsはよく腐ります。
最近、AMDのグラフィックドライバを更新したタイミングで、デスクトップのコンテキストメニューが壊れてしまい、他にも怪しい動きがあったので、今日の朝一から初期化をして7割ぐらい復旧したところでこれを書いています。まぁそんなものですね。
この記事への感想等コメントで頂けるとありがたいです。
ポッドキャスト版 Spotifyにホストを変更しました。
プログラミング
Go言語
この記事では、AnthropicのClaude CodeをCLIから自動制御し、タスクファイルに書いた指示をもとに実装・テストまで自律的に進めるGo製ツール「Sleepship」を紹介している。 手動でプロンプトを入力する煩雑さや夜間に作業が進まないといった課題を解消し、「寝ている間にタスクを実装しておく」開発体験を目指している。
Sleepshipはタスクファイルからの一括実行、失敗時の自動リトライ、調査→計画→実装を自動で分解して進める再帰実行機能、履歴と統計の記録、エイリアスや環境変数による設定といった機能を備える。 実装面では、Goのexec.CommandでClaude Code CLIを子プロセスとして呼び出し、エラー内容を含めたプロンプト生成により自動リトライや段階的な開発フローを成立させている。
チーム開発向けには、タスクテンプレートや.sleepship.tomlをリポジトリで共有し、共通のエイリアス・タスク構造で生産性を上げる運用方法も提案されている。 FAQでは、利用にはClaude CodeのライセンスとCLI環境が必要なことや、タスクファイルの配置・中断後の再開方法など、実務での導入を意識したポイントが整理されている。
この記事は、Go 1.26 で導入予定の新パッケージ runtime/secret と、その中核関数 secret.Do の仕組みと実用性を検証した内容である。 secret.Do は渡された関数の実行中に使われたレジスタやスタック領域を終了時に消去し、core dump などからパスワードなどの秘匿情報が読み取られにくくすることを目的としている。 Linux/amd64・arm64 のみ対応で、グローバル変数やヒープは対象外だが、スタックは systemstack と eraseSecrets により戻り先直前までゼロクリアされる。 記事では、通常のコードと secret.Do 使用コードの core を比較し、panic や runtime.Goexit、map や runtime.KeepAlive など意地悪なパターンでもスタック上の秘匿情報が漏れにくいことを確認している。 ただし外部メモリを直接書き換えるケースやヒープは守備範囲外であり、ヒープ上の秘匿情報は GC に頼るしかないため、用途を理解した上で使う必要があると結論づけている。
WEB
AIスタートアップなどでのプロトタイプ開発では、Python前提なら「FastAPI+htmx」が最も効率的で、本番移行もしやすいと主張する記事です。
Streamlitは見た目の画一性や本番運用の弱さ、React/Next.jsはセットアップや2サーバー運用などの負荷が大きい一方、FastAPI+htmxは1サーバー構成でHTML部分更新が簡単にでき、LLM連携やSSE、無限スクロールなども少ないコードで実装できるため、「捨てないプロトタイプ」を素早く作れると述べています。
GitHub
Azure VNET 対応の GitHub ホステッド大規模ランナーで、接続失敗時にエンドポイント別の可視化や失敗分類など詳細なネットワーク診断が提供されるようになりました。[file:page:1] また、2026/1/15 以降は自己ホストランナーの最小バージョンが v2.329.0 に引き上げられ、Docker イメージも 2026 年 1 月の v2.331.0 で Ubuntu 24.04 ベースへ更新されます。
GitHubのPR「Files changed」の新しい公開プレビューで、従来不足していたコミット単位のレビュー機能が追加され、単一・複数・全コミットを同一画面で切り替えて確認できるようになりました。[file:page:1] 併せて、ルートが/changesに統一され、コミット/ファイルフィルタのUI改善(ショートカットキー対応や青いドット表示、ワンクリックでのフィルタ解除)とパフォーマンス向上、コメント解決エラーや特殊文字パスでの差分表示不具合などの修正が行われています。
データーレイク
本記事では、社内に散在するデータを統合し、安価かつスケーラブルに活用するため、Google Cloud(BigQuery+Dataform)、Snowflake、Tableau Cloudを組み合わせた分析基盤の構築事例を紹介している。
BigQuery上でDWHレイヤーまでETLを行い、GCSへのエクスポートをSnowpipeでSnowflakeに自動連携し、Snowflake Semantic Viewsで指標定義を一元化することで、BIツールから常に同じ意味のメトリクスにアクセスできるようにしている。
さらに、SnowflakeオブジェクトはTerraformとschemachangeでコード管理し、Tableau Cloudとはサービスアカウント+PAT認証で安全に接続することで、運用負荷を抑えつつSingle Source of TruthをSnowflake側に集約した構成とした点がポイントである。
その他
大規模コードベースでは、実装前に「コードの地図」を作り、構造や責務境界を把握することが重要だと説く記事。周辺理解→課題発見→設計→実装の流れのうち周辺理解を重視し、ClaudeのCustom Skillでディレクトリ構造・依存関係・ホットスポットを三段階で構造化することで、巨大リポジトリでも全体像と危険箇所を素早く可視化する手法を紹介している。
エージェンティックコーディング・仕様駆動開発
本記事は、FindyのエンジニアがClaude CodeにCI高速化をほぼ丸投げし、テスト実行時間を約30%(7分→5分)短縮した事例を紹介している。 具体的には、テストの並列割当を実行時間ベースに変更、不要ジョブの削除、aptライブラリとテスト用DBダンプのキャッシュなど4つの施策をAIに実装・計測させ、日次・月次で合計数十時間分の待ち時間削減につなげている。 エンジニアはゴール設定とレビューに集中し、調査・改善案検討・効果測定・結果とりまとめのPDCAをClaude Codeに任せることで、メイン開発と並行してCI改善を進められた点がポイントとして述べられている。
How we used Codex to build Sora for Android in 28 days
本記事は、少人数のエンジニアチームがCodexを「有能な新任シニアエンジニア」として扱いながら、28日でSoraのAndroidアプリをプロトタイプから世界同時ローンチまで仕上げたプロセスを紹介している。人間側がアーキテクチャ設計や体験品質を握りつつ、Codexには既存コードの理解・テスト作成・並列実装・クロスプラットフォーム翻訳などの重作業を任せることで、高品質かつ99.9%クラッシュフリーのアプリを短期間で実現した点が強調される。また、Codexを長時間自律的に動かすために、AGENT.mdによるガイドや事前の設計プラン作成など、文脈と指針を与えるワークフローが有効だったと述べ、今後のソフトウェアエンジニアリングはAIと協調しながら高レベルな設計や意思決定に集中するスタイルになると結論づけている。
AI
この記事は、2025年12月時点のAI界隈のニュースを、OpenAIとGoogleを中心に手短に整理した週刊まとめです。
OpenAIはGemini 3.0に対抗してGPT-5.2を投入し、長時間リースニング性能で優位に立ったほか、ディズニー出資によるSoraでのキャラクター生成や、ChatGPTからPhotoshop/AcrobatなどAdobe製品を無料で呼び出せる提携を進めています。
一方Googleは、各種サービスを外部AIから利用可能にする公式MCPサーバの提供や、Gemini 2.5ベースの高品質TTS、Gemini 3 Pro搭載の長時間自律エージェント「Gemini Deep Research」を発表し、エコシステム接続を加速しています。
そのほか、Mistralの新オープンウェイトモデル、Codex CLIのSkills対応、Playwrightによる自動テスト生成解説、AIフルコーディング実践記、Geminiのゼロクリック脆弱性、Google Antigravityを使った脆弱性診断・IDE活用記事などが紹介されています。
筆者は、年末にもかかわらず各社の競争が激化しており情報を追いきれない状況だとしつつ、医療×AI領域で開発を行う自社の採用告知も行っています。
GitHub Copilot
この記事は、AI を活用したソフトウェア最適化によって「Continuous Efficiency(継続的効率化)」を実現し、開発者体験・ビジネス価値・環境負荷低減を同時に高めようという構想を紹介している。 Continuous Efficiency は、LLM ベースの「Continuous AI」と省電力・高効率設計を目指す「Green Software」を組み合わせ、リポジトリに対して常時・自動で小さな改善を積み重ねることで、性能向上やコスト削減、カーボンフットプリント削減を狙うアプローチである。 具体的には、GitHub Actions 上の「Agentic Workflows」を使い、自然言語で書いたルールやガイドライン(例:グリーンソフトウェアルールや W3C Web Sustainability Guidelines)を AI エージェントが大規模に適用し、コード改善の PR 作成やコメント付与まで自動で行う仕組みが紹介されている。 また、言語やアーキテクチャが混在する実サービスに対し、AI エージェントがビルド・ベンチマーク方法を自動探索しつつ日次で性能改善 PR を出す「Daily Perf Improver」などの実験的ケーススタディも示されており、開発者は Markdown ベースのワークフロー定義と GitHub Actions を組み合わせることで、こうしたエージェント主導の効率化を自分たちのリポジトリにも適用できると述べている。
Gemini 3 Pro が Copilot Enterprise/Business/Pro/Pro+ 向けにパブリックプレビュー公開され、GitHub Copilot Chat を通じて github.com/モバイル/VS Code/Visual Studio/JetBrains/Xcode/Eclipse から利用可能になりました。 管理者が Copilot 設定で Gemini 3 Pro ポリシーを有効化すると、対応バージョンの各 IDE でモデルピッカーから選択して利用できます。
Gemini Deep Researchは、Gemini 3 Proを用いた長時間の自律型リサーチエージェントで、検索と推論を多段で繰り返しながら高精度なレポートを生成する開発者向け機能として、Interactions API経由で提供開始された。開発者はファイル検索やウェブを組み合わせた統合的な情報集約、構造化JSON出力、詳細な出典付きレポートを自アプリに組み込めるほか、新ベンチマークDeepSearchQAも公開され、今後はSearchやNotebookLM、Vertex AIなどへの展開も予定されている。
Google翻訳はGeminiによる最新の高度な翻訳モデルを導入し、テキスト翻訳の自然さと精度を強化しつつ、イディオムやスラングなど文脈依存の表現もより適切に訳せるようになります。 また、Geminiの音声モデルを用いたヘッドホン向けのリアルタイム音声同時通訳ベータ機能を提供し、話者のトーンや抑揚を保ったまま70以上の言語での会話やスピーチ視聴を支援します。 さらに、翻訳アプリ内の言語学習機能を拡張し、発話練習へのきめ細かなフィードバックや学習連続日数の表示に加え、英独・英葡など対応言語と利用可能な国を増やして、実生活に即したカスタマイズ学習体験を提供します。
Gemini Live APIがVertex AIでGAとなり、最新のGemini 2.5 Flash Native Audioモデルにより、音声・動画・テキスト・画面コンテキストをリアルタイムに扱うマルチモーダル対話エージェントを、低レイテンシかつ高い安定性・スケーラビリティで本番運用できるようになったことを紹介している。 ShopifyやUWM、SightCall、Napsterなどの事例を通じて、自然な音声対話、ビジュアルサポート、営業・カスタマーサポート自動化、ヘルスケア会話支援など、企業がGemini Live APIとVertex AIを用いて高度な音声・映像エージェントを構築している様子を示し、Vertex AI Studioやドキュメントからすぐに開発を開始できると案内している。
GoogleはGemini 2.5 Flash Native Audioをアップデートし、音声エージェント向けに関数呼び出し精度、複雑な指示への追従性、多ターン対話品質を強化しました。これによりGoogle AI StudioやVertex AI、Gemini Live、Search Liveなどで、より自然で文脈を保った音声対話やリアルタイム支援が可能になります。[file:page:1] さらにGoogle翻訳アプリにおいて、話者の抑揚やリズムを保ったまま70以上の言語・2000組以上の言語ペアに対応するライブ音声翻訳(ヘッドフォン向け連続リスニング・双方向会話)がベータ提供され、今後APIなど他プロダクトにも展開予定です。
論文・その他
AIエージェント同士が競う仮想労働市場「AI Work」で、仕事応募・スキル訓練・評判形成を行わせたところ、最も成功したのは自分の得意・不得意を正確に把握するメタ認知能力を持つエージェントだった。競争相手の行動予測や長期計画も有用だが決定打ではなく、自己理解を明示的に促す「戦略的自己改善エージェント」が通常のエージェントを大きく上回った。また、この市場ではベバリッジ曲線やオークンの法則に似た失業と求人・生成価値の関係も再現され、人間の労働市場に近い経済法則がAIのみの環境でも現れることが示された。
本記事は、LLMマルチエージェントは「数を増やせば良い」万能な仕組みではなく、タスクの性質によっては性能を悪化させることもあると指摘する。数学のように一度で解が出るタスクでは複数エージェントの合議が有効な一方、デバッグのような試行錯誤型タスクではエージェント間のやり取りコストが足を引っ張る可能性がある。研究では180パターンの実験を通じ、どの条件でマルチエージェントが有効かを定量的に整理し、単一高性能エージェントが台頭する現在において「いつマルチエージェントを採用すべきか」を実務者が判断するための指針を示している。
本記事は、Microsoft の機械学習エンジニア Michael Albada が新刊『Building Applications with AI Agents』について語るインタビューであり、AIエージェント技術の現状と書籍執筆の舞台裏を紹介している。
彼はサイバーセキュリティ現場での人手不足を背景に、LLMが関数呼び出しやツール実行を通じてエージェントとしてソフトウェア開発を大きく変革しつつあると説明し、特定フレームワークに依存しない「エージェント設計の原則」に焦点を当てた理由を述べている。
執筆中には LangChain から LangGraph・CrewAI などへとフレームワークが急速に分裂・進化したことや、推論特化モデルの登場でコーディング支援などの能力が飛躍的に向上したことが強調される。 想定読者は、AIエージェントを実務システムとして構築したいソフトウェアエンジニアを中心に、低コード/ノーコードユーザやマネージャ層までを含み、既存ツールを超えて自前の堅牢なエージェントを構築するための「土台」を提供する内容になっている。 また、今後は小規模モデルの高性能化とファインチューニングによる「自前モデル」と、大規模研究所による汎用フロンティアモデルが併存し、企業規模に応じてどちらを使うかの選択が重要になるとしつつ、自動チューニング機能「Autotune」など、実運用下でエージェントを継続的に最適化する取り組みにも触れている。
BookRAGは、非構造データからツリー構造とナレッジグラフを組み合わせた「BookIndex」を構築し、11種類の検索オペレーションを状況に応じて組み合わせることで、高精度なRAG検索と回答生成を実現する手法です。 ベンチマークでは既存手法より高精度な一方、LLMと複雑検索を多用するためコストと実行時間は増加しますが、類似コンセプトのDocETLよりトークン消費は大幅に抑えられています。
クラウド
AWS
AWS設計ガイドライン公開の記事は、AWS利用時のベストプラクティスを形式知として整理し、マルチアカウント設計、全アカウント共通のセキュリティ対策、監査基準への対応、コスト最適化、踏み台サーバー、アプリ特性ごとのアーキテクチャパターン、CloudWatchによる監視、CI/CDパイプラインの推奨構成などを示すことで、設計のベースラインを提供し設計品質と生産性の向上を狙う内容です。
OS
Linux
gihyo.jpのRSSフィードには、技術記事やニュースが週約12本配信され、Feedly上で約259人に購読されています。
最新記事には、OpenAIの新モデル「GPT-5.2」の発表や、Ubuntu 26.04 LTSの開発状況・セキュリティ修正・CES 2026出展計画などが含まれています。
Apple
AppleはiOS/iPadOS 26.2を正式リリースし、Apple Music・ポッドキャスト・ゲーム機能の強化に加え、Liquid Glassロック画面の不透明度調整オプションやAirDropコードによる確認手順などを追加している。
このアップデートでは、ミュージックとポッドキャストアプリの機能向上に加え、ゲームライブラリのフィルタリングやコントローラー対応が改善されている。 また、ロック画面時刻表示とLiquid Glassの不透明度調整、リマインダーのアラーム強化、ホームアプリの複数アクセサリ一括ペアリング、画面点滅による通知なども盛り込まれ、各種バグとセキュリティ問題も修正されている。
Windows
Windows の電話によるライセンス認証は、自動音声での手続きが廃止され、別端末から専用サイトにアクセスしてインストール ID を入力し確認 ID を取得する方式に変更されたことを説明している記事です。
エンジニア
AIとお仕事
AIアシスタントを活用すると、ジュニアエンジニアの学習速度が上がり、「戦力化までの谷」が短く浅くなるため、採用投資としての期待値が大きく改善すると論じている記事です。
従来はジュニアは立ち上がりが遅くコスト過多と見なされてきたが、AIが探索空間を狭めることでタスク完了までの時間が短縮され、その余剰時間を学習に再投資できるようになると説明する。
その結果、離職などで投資回収前に辞めてしまうリスクが減り、早く成長したジュニアが他者のメンタリングや組織的なレバレッジを生むため、組織全体の生産性向上にもつながると主張している。
生成AIで作った長文なのに中身が薄い文章や、重要情報が抜け落ちた要約文をそのまま上司・同僚に送る「ワークスロップ」は相手の時間を奪う悪い使い方だと指摘している。 AIの回答スクショ貼り付けや長大なディープリサーチ結果、未確認の比較結果や機械要約を丸投げせず、読み手にとって必要な情報か・過不足がないかを人間が確認して編集することが、AI活用のビジネス基礎スキルだと述べている。
良いコミュニケーションのためにはまず信頼されろ
専門家が組織で声を上げないのは怠慢ではなく、話しても曲解されたり軽んじられたりし、釈明コストとリスクが大きすぎるという合理的な適応だと述べている。
分業や評価制度などの構造により専門家の言葉は「意見の一つ」として消費され、学習性無力感から沈黙を選びやすくなる一方、専門知識を「振りかざす」態度は溝と反発を深めるだけだと指摘する。
著者は解決策として、専門家側から相手の文脈に入り込んで説明する「対話」を重視し、そのための時間・労力という高コストを自ら支払うしかないと主張する。
理想的な「専門家がリスペクトされる組織」を待つのではなく、「あなたになら話したい」と思ってもらえる相手として振る舞い、自分から対話のコストを払い続けることが、専門家として生き残る唯一の道だと締めくくっている。