本日も、ネットに流れるトピックから個人的に興味を引かれたものを拾っていきます。
この記事への感想等コメントで頂けるとありがたいです。
忙しい方向けの要約
- .NET:直近1週間の動向まとめ。Copilot Studioや.NET Conf関連情報。
- SQL Server:Management Studio 22 Preview 5リリース。Copilot強化、更新頻度調整予定。
- Visual Studio Code:Copilot拡張がChat版主軸で統合へ。インラインサジェストほかAI機能改善、2026年初頭Copilot廃止。
- GitHub Actions:最大10階層/50呼び出しへ制限拡大。M2 Macランナー一般提供、新機能追加。
- Microsoft Foundry Local:phi-4モデルをローカル動作可能に。
- Google Gemini API:RAG対応のFile Search Tool新設。引用自動付与、無料で高機能。
- Google Cloud:Ironwood TPU(第7世代)やArmベースVM発表、AI/一般計算で高効率化。
- LLM活用/プロンプト設計:XMLタグ構造化や多数決・適応的サンプリングで精度・コスト改善。データエンジニアの役割継続。
- 業界論評:AIは「ツール」であり、ワーカーと呼ぶのは過剰との指摘。
- Azure Ignite:Cosmos DB・AI実例やセマンティック検索など最新動向ハンズオン。
- OS:Ubuntu 26.04 LTSやmacOS/iOS 26.2 βの新情報。
- 業界情報:note社がNAVER社とAI技術資本提携。
プログラミング
.NET
.NETのほぼ1週間のまとめ。
SQL Server
SQL Server Management Studio 22 Preview 5がリリースされ、主にGitHub Copilot関連の修正が含まれています。頻繁なアップデートとサポートポリシーについても説明があり、最新版への更新が推奨されています。今後は更新頻度の調整を図る予定です。
Visual Studio Code
VS Codeチームは、オープンソースAIエディター計画の第二マイルストーンとして「インラインサジェスト機能」のオープンソース化を発表しました。これまでCopilot機能は「Copilot Chat」と「Copilot」2つの拡張に分かれていましたが、今後はCopilot Chat拡張へ統合され、インラインコードサジェスト、チャット、エージェントモードなど、全てのAI機能が一つの拡張で利用可能となります。Copilot拡張は2026年初頭に廃止予定です。今回の統合により、サジェスト処理のパフォーマンス向上、ネットワーク遅延の解消、品質検証などの改善も図られています。サジェスト機能のフローや仕組みはGitHubリポジトリで公開され、コミュニティからのコントリビューションも歓迎。今後はAI機能の一部をVS Code本体へ移植することも計画されています。フィードバックはGitHub Issuesなどで受け付けています。
GitHub
GitHub Actionsの2025年11月アップデートでは、再利用可能なワークフローの制限拡大(最大10階層・50呼び出し)、M2搭載macOSランナーの一般提供、CopilotエージェントがActions無効でも利用可能になる等の改善が行われました。
GitHub Projectsのオンボーディングフローが改善され、リポジトリからの課題やプルリクエストのインポート、デフォルトリポジトリ設定、新しいワークフローの追加が可能になりました。新規プロジェクトの初期表示やテンプレートUIも改良され、操作性が向上しています。API面では進捗イベントの追加やフィルタ機能強化により、自動化・連携がより柔軟になりました。全体的に導入が簡単かつ実用的になっています。
AI
Microsoft
Microsoft Foundry Localを使い、強力かつ軽量な言語モデルPhi-4をローカル環境で簡単に実行する手順を解説。プライバシーやコスト、応答速度の利点があり、個人のPCでもGPU不要で動作可能。Python経由で外部ツール連携も可能です。
GoogleはGemini APIに完全管理型のRAGシステム「File Search Tool」を新たに導入しました。開発者向けに、ファイル格納や埋め込み生成、ベクトル検索、動的な文脈注入を自動管理し、PDFやDOCXなどさまざまな形式に対応。最初のインデックス作成時のみ料金がかかり、クエリ時の埋め込み生成・ストレージは無料です。検索結果には元ファイルへの引用も自動で付与され、信頼性や検証性が向上。ゲーム生成やナレッジ支援などすでに様々な活用事例が出ています。
概要:
このページはGoogle Cloud Blogの最新記事で、AIワークロード向けに「Ironwood TPU(第7世代)」の一般提供開始と、Armベースの新仮想マシン「Axion N4A(プレビュー提供中)」および「C4A metal(近日プレビュー開始)」を発表しています。
主なポイント:
- Ironwood TPUはAIモデルのトレーニング・推論・大規模サービングに最適化されており、従来比で10倍以上の性能と高効率を実現。
- Axion N4Aインスタンスはx86 VM比で最大2倍のコストパフォーマンスを提供し、汎用計算やデータ分析など幅広い用途に利用可能。
- C4A metalはArmベアメタル環境を提供し、高度な制御や開発に適する。
- これら新製品は大規模AI推論や、汎用業務用途の両方で柔軟かつ高効率な運用が可能となり、Google Cloudの「AI Hypercomputer」システムアプローチを強化。
- 多数の導入事例を紹介し、業界全体で高い関心と効果を実証。
全体として、Google Cloudが独自設計の新型シリコンでAIと一般計算両面の性能・コスト効率向上を強調する内容です。
感想:
Googleが専用チップを数世代にわたって開発し続けているのは、ライバルに対する大きなアドバンテージ。
Googleの最新TPU「Ironwood」は、ハードウェアとソフトウェアを徹底的に共同設計し、高性能・高効率・大規模スケールのAI処理を実現しています。独自のネットワーク技術により、数千個のチップを一体的に動作させ、JAXやPyTorchなど主要フレームワークに最適化されたXLAコンパイラやPallasライブラリ等を提供。モデルの学習から推論まで、耐障害性とパワー効率にも優れ、AI開発者が簡単に高性能なAIワークロード実装できる環境を整えています。
llams.cpp
WebのGUIが付いたようです。
本
論文・その他
概要:
この記事は、LLM(大規模言語モデル)を安定して利用するためのプロンプト設計について、Anthropic社が推奨するXMLタグによる「構造化」の手法と、実践パターン4つを解説しています。
主なポイント:
- LLMは「とりあえず」指示では安定した出力が得られず、余計な前置きや形式違い、誤情報などの問題が頻発する。
- XMLタグで指示・データ・ルールの境界を明確化し、保守性と解析精度を高めることが重要。
- 構造化の具体例と、「位置バイアス」(プロンプトの最初・最後に重要な指示を配置)を活用することで、LLMの出力品質が向上する。
- 実践パターンは以下の4つ:
- 出力形式制御:余計な説明や前置きを排除
- 模範例提示:Few-shotで暗黙的にルール学習
- RAG(外部データ活用)での境界線:外部データの指示インジェクション防止
- 思考の連鎖(Chain of Thought):複雑な推論タスクの精度向上
- RAGプロンプト設計では、データと指示のタグ分離がPrompt Injection等のリスク対策となる。
- 複雑な推論にはCoT(Chain of Thought)を明示的に指示することで、高品質な出力が得られる。
まとめ:XMLタグ構造化+パターン化した設計でLLMプロンプトの出力安定性と品質を向上させられる、という内容です。
感想:
LLMのモデル能力向上とともにプロンプトのテクニックも変わってくる。最近コンテキストエンジニアリングと呼ばれているが、LLMモデルの入力容量の増加とともに、渡せるデータ量は増えるが、渡したものの意味や、渡した背景などのコンテキストをLLMに伝えていく必要が出てきている。
この記事では、大規模言語モデル(LLM)に複数回回答させて多数決を取ることで精度を高める手法に着目し、その計算コスト削減策を紹介しています。従来の方法では全問一律で複数回回答を生成していましたが、問題ごとに必要な回数だけ生成する「適応的サンプリング」を用いることで、コストを最大10分の1まで削減可能です。また複数LLMを組み合わせ、少数の正解データから最適な重み付けを学習することで、単体モデル以上の精度も達成できます。実験では11モデルと4種の難問セットを使い、計算量・トークン数を大幅削減しつつ高精度が保たれることを実証。答えの選択方法としては多数決が最も安定して優れた性能を示し、計算効率と応用性に優れた手法です。
生成AIやエージェント型AIの登場により、データエンジニアリングは大きな変革期を迎えています。AIツールの普及で単純作業は自動化されつつあるものの、データエンジニアは依然としてAIモデルの基盤となるデータの収集・加工・品質維持や、パイプラインやインフラの構築、運用、そしてセキュリティ確保という重要な役割を担っています。今後はAIの仕組みやデータ利用方法への理解が必須となり、リアルタイムかつ分散環境に対応した柔軟なパイプライン設計が求められます。また、データ品質やプライバシーに関する規制順守、知財リスクの回避も今後の重要課題です。急速な技術進化による新ツールへの適応も課題ですが、データエンジニアが不要になることはなく、今後も高度なAI時代を支える中心的役割が期待されています。
この記事はNVIDIAのCEOジェンスン・フアンが「AIはツールではなくワーカーだ」と主張したことについての批判です。著者ティム・オライリーは、AIを「ワーカー」とみなすのは行き過ぎであり、本質的にはツールだと述べています。複雑なソフトウェアは既に人間の仕事を代替しており、AIが全ての産業を根本的に変革するという主張には懐疑的です。AIは従来のソフトウェアよりも汎用性は高いものの、未だ人間による指示や監督が必要で、完全な自律性や主体性は持っていません。重要なのは、AIをツールとして活用し、人間の能力や創造性を拡張することであり、AI導入によって人間のエージェンシー(主体性)や尊厳が損なわれるべきではないという点です。AIの普及による利益が広く社会に還元されることが重要だと締めくくっています。
クラウド
Azure
Microsoft Ignite 2025では、Azure Cosmos DBやDocumentDBの最新技術を活用したリアルタイム分析やAIアプリ開発、MongoDB互換ワークロードの最適化、マルチエージェント・AIパターンの実装、コスト管理、セマンティック検索などをテーマに、ハンズオンラボや顧客事例・専門家との交流が行われます。企業の最新事例とともに、開発効率化や大規模データ処理、AI応用技術の学習が可能なイベントです。
2025年11月6日時点で確認されたAzure関連の公式情報やブログをまとめた記事です。主な内容は、AIによるサイバーセキュリティ動向、欧州向けソブリンクラウド強化、新機能リリースやGA情報(ExpressRoute、MySQL高可用性、Cosmos DBクエリアドバイザーなど)です。
OS
Linux
Ubuntu 26.04 LTS(開発コード名「Resolute Raccoon」)では、Canonical社幹部が次世代Linuxデスクトップ戦略と新機能について説明。Mark Shuttleworth CEOは、デスクトップLinuxの断片化解消や普遍的なデスクトップ実現を目指し、メモリー安全性・自動化・セキュリティ強化・コミュニティ重視のモダナイゼーション計画を重視している。デフォルトはGNOMEだが、System76のRust製COSMICも評価されている。
macOS/Apple
Appleは開発者向けに「macOS 26.2 Tahoe」や「iOS/iPadOS 26.2」等のBeta 1を公開。iOS/iPadOS 26.2 Beta 1ではTLS仕様変更等による既知の不具合が報告されています。
Element Labsは、macOS 26 TahoeでGPU使用率が上昇してMacのパフォーマンス低下を引き起こすElectronの不具合を修正した「LM Studio v0.3.31」をリリースしました。他にも画像認識機能などが改善されています。
業界動向
note株式会社は、韓国のNAVER社と総額20億円の資本業務提携を締結。生成AI技術の活用やプラットフォーム連携、IP・コンテンツ共同開発により、AI時代の創作エコシステムをグローバルに展開します。