本日も、ネットに流れるトピックから個人的に興味を引かれたものを拾っていきます。
OpenAIが遂に広告導入をはじめました。とりあえず、AIの回答自体には広告は入らないようですが、将来的に回答結果に広告要素が入り込むようなメタクソ化が進まないか注視したいですね。
この記事への感想等コメントで頂けるとありがたいです。
プログラミング
Go言語
From SSA to Machine Code | Internals for Interns
この記事は、Goコンパイラが最適化済みSSAから最終的な機械語バイト列を生成し、オブジェクトファイルとして保存するまでの3段階の流れを解説しています。
フェーズ1でSSAをアーキテクチャ非依存な抽象アセンブリ表現obj.Progに変換し、フェーズ2でジャンプ距離に応じた再試行付きのアセンブル処理により命令をバイト列にエンコードします。
フェーズ3では、生成されたバイト列やシンボル、リロケーション情報をGo独自形式のオブジェクトファイルにまとめ、さらにビルドキャッシュ用アーカイブ_go_.oとして格納する仕組みを説明しています。
.NET
2026年1月の .NET 関連ニュースとして、.NET 10/9/8 のサービスリリースや AWS Lambda の .NET 10 対応、.NET 仮想モノレポ運用の記事が紹介されています。
あわせて、ASP.NET Core API パイプライン改善、systemd+Podman での .NET デプロイ、Copilot Memories、PublishAot や NuGet ロックファイル解説、C# 14 の新機能などの技術記事と、ZIP 化ツールや .NET デバッガー、VS 拡張など多数のライブラリ・ツール更新がまとめられています。
JavaScript
JSer.infoは2011年1月16日に開始してから15年間、週1回ペースで820本の記事で約1.3万件のリンクを紹介してきたJavaScript情報の週刊ブログです。
この間に情報源は個人ブログや勉強会スライド中心から、GitHubや公式ドキュメント(nodejs.org、developer.chrome.com、bun.shなど)中心へと移行し、日本語ソースの割合は減少しつつも5%前後で推移しています。
技術トレンドとしてはjQuery/Backbone.js/CoffeeScriptからReact、TypeScript、Vite、Deno/Bunなどへ移り、ESM、Rust、WebAssembly、monorepo、CI/CDやMigration、RFC/Proposalなどのトピックが重要になりました。
同時に、はてな→Qiita→Zennと日本語ブログの主流が変化し、スライド/書籍よりもリリースノートや公式情報が重視されるようになっています。
運営面ではTumblrからGitHub Pagesへの移行、Realtime JSer.infoやWatch List、AIを用いたヘッドライン生成・自動タグ付けなどのワークフロー自動化が進み、「退屈な作業を機械に任せ、人間は何をどう伝えるかの判断に集中する」という体制が整えられました。
Excel
この記事では、Excel for Windowsに追加された新しいImport Functions(IMPORTTEXTとIMPORTCSV)について紹介しています。
これらはPower Queryより手軽に、テキストベースのデータを動的配列としてシートに直接取り込むための関数で、ファイルパスやURLを指定するだけでデータを読み込み、更新も可能です。
IMPORTTEXTは.txt/.csv/.tsvを対象に区切り文字やエンコード、行スキップなど細かく制御でき、IMPORTCSVはCSV専用の簡易版としてカンマ区切りやUTF‑8などのスマートな既定値を提供します。
固定幅列指定やCHAR関数による区切り文字指定、COPILOT関数との連携などの活用例も示されており、この機能はWindows版Excel Beta Channelの特定ビルド以降で利用可能です。
感想:
今更感が満載ですが、Excelにこういう機能が欲しかった人は多いのではないでしょうか。
SQL Server
SQL Server 2025がRHEL 10とUbuntu 24.04でCU1として正式GAとなり、最新Linuxで本番運用可能になったことを発表しています。
GA版利用にはプレビュー用リポジトリからmssql-server-2025.repoへの切り替えが必要で、Contained AGセッションでのDB作成/復元や、Linux向けの新DMVによるCPU・ディスク・ネットワークなどOSレベルの観測性強化が含まれます。
SQL Server 2025 RTM向け最初の累積更新プログラム(CU1)が公開され、Microsoft Download Centerから登録不要で入手可能になりました。更新内容や最新CU、モダンなサービシングモデルの詳細はリンク先のKB記事およびドキュメントで案内されています。
GitHub
GitHub Actionsのキャッシュに、リポジトリごと毎分200件の新規アップロード制限が導入されました。
この制限は新しいキャッシュ登録のみが対象で、ジョブ実行時のダウンロードには影響しません。
高頻度アップロードによるスラッシングとシステム安定性への悪影響を防ぐためで、制限超過時は追加アップロードが拒否されます。
エージェンティックコーディング・仕様駆動開発
著者はコードを含まない相対時間フォーマットライブラリ「whenwords」を公開し、仕様書とテストだけを用いてAIエージェントに各言語実装を生成させる試みを紹介しています。
これを足掛かりに「コーディングがほぼ無料になった世界でサードパーティライブラリは必要か」を考察し、単純なユーティリティは仕様とテストさえあれば十分かもしれないと述べます。
一方で、性能が重要な場合、テストが膨大な場合、サポートやバグ修正が必要な場合、継続的アップデートやセキュリティ対応が要る場合、そしてコミュニティや相互運用性が価値を持つ場合には、依然としてコード付きライブラリとその周囲の人間コミュニティが不可欠だと主張しています。
モデルやエージェントの進化次第で状況は変わりうるが、現時点では仕様だけのライブラリは「実装して終わり」の小さなユーティリティに限って有効だろうというのが暫定的な結論です。
AI
TranslateGemmaは、Gemma 3を基盤としたGoogleのオープンな翻訳特化モデル群で、4B・12B・27Bの3サイズを提供し、55言語間の翻訳を高効率かつ高精度で実現することを目指しています。 知識蒸留と二段階の微調整(教師あり学習と強化学習)によって、大規模モデルの「直感」をコンパクトなモデルに移しつつ、エラー率の低減と自然な訳出を両立させている点が特徴です。
TranslateGemmaは、WMT24++ベンチマークにおいて、12BモデルがGemma 3の27Bベースラインを上回る性能を示し、4Bモデルも12Bベースラインに匹敵するなど、パラメータ数に対して優れた効率を示しています。 これにより、4Bはモバイルやエッジ、12Bは一般的なノートPC、27Bはクラウド環境での高精度翻訳用途といった形で、利用環境に応じた柔軟な展開が可能になっています。 また、低リソース言語を含む55の主要言語ペアで厳密に評価され、さらに約500の追加言語ペアへの拡張も視野に入れた研究基盤モデルとして設計されています。
ELYZA
本記事は、日本語性能に特化した拡散言語モデル ELYZA-Diffusion-Base-1.0-Dream-7B と ELYZA-Diffusion-Instruct-1.0-Dream-7B を公開し、その背景・設計・評価を紹介する内容です。
拡散言語モデルは、自己回帰モデルと異なり全文をノイズから段階的に復元する方式をとり、日本語タスクにおいて高速生成や制御性の高い生成が期待されます。 本モデルは Dream-v0-Instruct-7B をベースに、約620億トークンの日本語コーパスと1.8億トークンの指示データで継続学習され、日本語理解・対話ベンチマークで既存拡散モデルより良好な性能を示しました。
一方、自己回帰モデルと比べると一部タスクでまだ劣る場面や、学習に多くのエポックを要するなどコスト面の課題がありつつも、少量データ条件での学習効率や、フォーマット固定生成・部分編集などへの適性が示され、将来の有力アーキテクチャとしての可能性が論じられています。
Microsoft
本記事は、小規模言語モデル Phi-4-mini-instruct を題材に、関数呼び出しタスク向けの性能を Azure AI Evaluation SDK で評価し、Microsoft Foundry 上で結果を可視化・比較する手順を解説しています。
OpenAI
OpenAIはChatGPTを用いた翻訳サイト「ChatGPT Translate」を公開し、日本語を含む多言語の翻訳に対応しています。
Google翻訳やDeepLのようなUIで、テキスト入力で即時翻訳でき、言語自動判別も可能です。
翻訳結果は「自然な文章」「ビジネス文書」「子ども向け」などへのニュアンス変換ボタンからChatGPT画面に遷移して調整できますが、ニュアンス変更にはChatGPT側の操作が必要で、現状は「ログイン不要で翻訳機能だけを使えるページ」という位置づけです。
Introducing ChatGPT Go, now available worldwide | OpenAI
ChatGPT Goは、GPT‑5.2 Instantを低価格で利用できる月額8ドルのサブスクリプションで、無料版よりメッセージ数・ファイルアップロード・画像生成回数が約10倍に増え、より長いコンテキストとメモリを提供するプランです。
PlusはGPT‑5.2 Thinkingなど高性能モデルとより高い上限で高度な作業向け、ProはGPT‑5.2 Proや最大メモリ・最長コンテキストを備えたパワーユーザー向けとなり、無料版とGoには今後広告が導入される予定です。
OpenAIはChatGPTの無料プランと月額8ドルの新プラン「ChatGPT Go」で、会話内容に連動した広告表示のテストを開始します。
広告は回答の下部に明示的に広告とわかる形で表示され、健康・メンタルヘルス・政治などセンシティブな分野や未成年ユーザーには配信しない方針です。
新プランGoは無料版よりメッセージ数やファイルアップロード、画像生成の上限が10倍で、利用継続によりユーザー情報を多く記憶できる点が特徴です。
また、広告主は個々の会話内容にアクセスできず、ユーザーデータの販売は行わないとし、パーソナライズ設定オフや広告利用データの削除も可能としています。
Open Responses
Open Responsesは、OpenAI Responses APIに基づき、複数のLLMプロバイダを横断して同一のスキーマとツーリングで利用できるようにするオープンソース仕様・エコシステムです。
各社で異なるメッセージ形式、ツール呼び出し、ストリーミング表現を共通仕様に統一し、リクエストや出力定義を一度書けば最小限の変換で他プロバイダへ展開できることを目指しています。
マルチプロバイダ前提、現実的なエージェントワークフローへの親和性、拡張可能な安定コアを特徴とし、受け入れテストやOpenAPI参照、ガバナンス文書などを通じてコミュニティ主導で仕様が維持・発展されています。
感想:
単純に共通化が進むと良いと思う。あとGo言語用の良いライブラリができれば嬉しい。
OpenAIは2026年1月15日に、Responses APIを基盤としたオープンソース仕様「Open Responses」を公開し、マルチプロバイダー対応かつ相互運用可能なLLMインターフェースを提供し始めました。
Open Responsesは、共有スキーマとクライアントライブラリ、ツール層により、LLM呼び出し・ストリーミング・エージェントワークフローを統一的に扱えるようにし、単一の記述で複数プロバイダーに対応することを目指しています。
設計方針として「マルチプロバイダ対応」「エージェント向けの実用的ワークフロー」「プロバイダ固有機能も扱える拡張性」を重視し、OpenAIに加えてOpenRouterやVercelなど複数企業が参加するエコシステム指向のプロジェクトとなっています。
GitHub Copilot
GitHub CopilotのBYOK機能が強化され、AWS BedrockやGoogle AI Studio、任意のOpenAI互換プロバイダなど、対応プロバイダが拡大しました。
Responses API対応により構造化出力やマルチモーダル対話が可能になり、管理者は最大コンテキスト長の設定やストリーミング応答の有効化も行えます。
本
本書はLLMに与えるコンテキストを体系的に扱い、その原理からAPI利用、プロンプト設計、RAGの構成・チューニング、AIエージェントによるワークフロー自動化までを一貫して解説する、LLMアプリ開発者向けの実践的な技術書です。
論文・その他
Similarwebの調査では、生成AIサイトへのWebアクセスでChatGPTのシェアが1年で86.7%から64.5%に低下し、“一強”状態が崩れつつあります。
代わりにGoogleのGeminiが5.7%から21.5%へ急伸し、AndroidやGoogle Workspaceとの連携を背景に存在感を拡大しています。
DeepSeekやGrok、Claude、Microsoft Copilotも一定のシェアを持ちますが、集計はWebサイト訪問に限られ、APIやアプリ利用は含まれていません。
感想:
Gemini 3の出来が良かったのが大きいと思うのと、実際に仕事でAIを使う人が増えたからだと思う。業務でAIを使わせようとした場合、既存の生産性スイートと統合されていた方が、社内管理も、経理処理も圧倒的に楽ですからね。逆に、OpenAIやAnthropicはそれを持たないので、MSとのパートナーシップがますます重要になってくると思います。
LLM-as-a-Judgeは、LLMを評価者として用いて生成コンテンツの品質を自動評価する手法であり、人手評価より低コストかつスケーラブルに運用できる一方、位置・冗長性・自己優遇といったバイアスやモデル間の評価傾向の差、非決定性などの限界とリスクを抱えています。
最新研究では、採点スケール設計やプロンプト設計、複数モデル・複数視点のアンサンブル、バイアス検出やコード評価・RLHF/RLAIFの報酬モデルとしての活用などが議論されており、実務では「人間評価の代替」ではなく、大量コンテンツのスクリーニングや補助ツールとして、人間との協働・継続的モニタリングを前提に導入することが推奨されています。
この記事は、企業でのLLM活用において「出力の安定性」という観点から、多言語入力やJSON・YAMLなどの構造化フォーマット指定が性能にどう影響するかを検証した内容です。
従来は英語中心・限定的なプロンプト変化・小規模データセットでの評価が多く、実務で想定される多様な入力揺れ(言い回し、句読点、形式指定、日本語を含む多言語)に対する安定性は十分に調べられていませんでした。
この記事では、チャットボットや社内QAなど企業利用の具体的な文脈を想定し、ユーザーごとに異なるプロンプトやフォーマット指定に対してLLMがどの程度一貫した出力を返せるかを包括的に評価する研究を紹介するとしています。
このポッドキャストでは、SwirlAI創業者のAurimasが、MLエンジニアからAIエンジニアへの役割変化、LLMOpsやエージェント導入に伴うチーム構成・評価・オブザーバビリティの違いを語り、特に「モデル開発よりシステム・ソフトウェア工学が重要」だと強調しています。 また、マルチエージェントやマルチモーダル環境でのトレースや評価の難しさ、人材育成ではジュニアエンジニアを軽視せず基礎理解を重視すべきとし、AIによる急激な雇用崩壊は起きにくく、今後10年はスキルを磨きつつツールを使いこなす人材が差別化されると楽観的な見通しを示しています。
クラウド
Azure
Azure Service Bus エミュレーターが Administration Client をサポートし、エミュレーター起動中でもキューやトピックなどのエンティティを動的に作成・更新・削除できるようになった記事です。
構成ファイルによる宣言的設定は従来どおり有効で、再初期化時にソースオブトゥルースとして適用されます。
管理用ポート 5300 を用いて .NET の Service Bus Administration Client から操作でき、Windows・macOS・Linux 上の Docker イメージとして利用可能なことも紹介されています。
本記事は、Azure Functions と FastAPI を組み合わせてサーバーレスな HTTP API を構築し、ローカル開発環境の準備から Hello World API の作成、FastAPI との統合、入力バリデーションと Swagger UI によるドキュメント生成、さらに Azure CLI を用いた Function App の作成とデプロイまでを段階的に解説する入門記事です。
エンジニア
キャリア
著者がGoogleでの14年間から得た21の教訓として、ユーザー課題への執着、行動と出荷の重視、明快で退屈な技術選択、チームのアラインメント、ネットワークや時間の価値など、コード以外の人や組織・キャリアの側面がエンジニアとして長期的に成功する鍵だと述べています。
OS
Windows
本ビルド26220.7653はBetaチャネル向けに配信され、アカウント設定ダイアログのWinUI+ダークモード対応、Click to DoのCopilotプロンプト即時表示、.webp壁紙対応などを追加し、タスクバー・スタートメニュー・Bluetooth・設定アプリなどの不具合を多数修正しています。
ハードウェア
CPU
MIPS Technologiesは、従来のMIPS ISAライセンスビジネスから、RISC-VベースCPU/NPUのIPライセンス提供企業へ転換し、GlobalFoundries傘下で事業再編を進めている記事です。
CESではRISC-V ISAを採用したソフトウェアファーストNPU「MIPS S8200」を発表し、最大400TOPSまでスケール可能な構成でロボットや自動運転などフィジカルAI向け用途を狙っており、S8200採用製品は2027年登場見込みとしています。
感想:
MIPSがもうMIPSを開発していないというのは、一時、RISCのCPUと言えば、SUNとHP、IBM以外はすべてMIPSだった時代を知っている身としてはなんとも感慨深い話です。Windows NTも当初はx86ではなく、MIPS向けに開発されていましたしね。
mac
中国Wokyisが、初代Macintosh風デザインで5インチHDディスプレイを搭載したMac mini (2024)向けThunderbolt 5ドック「Wokyis M5 80Gbps」を日本で発売した記事です。
Thunderbolt 5対応により最大6,000MB/sのNVMe SSDアクセスや8K@60Hz出力に対応し、冷却ファン内蔵や多数のUSB/SDカードポートを備え、価格はAmazonで53,999円となっています。
