Transformerが数学的に「できないこと」— TC⁰の壁、3桁の掛け算、考えているフリ
Transformerが数学的に「できないこと」— TC⁰の壁、3桁の掛け算、考えているフリ はじめに Part 1 では、事前学習スケーリングが燃料切れを起こしていること、学習データが物理的に...
13 search resultsShowing 1~13 results
You need to log-in
Transformerが数学的に「できないこと」— TC⁰の壁、3桁の掛け算、考えているフリ はじめに Part 1 では、事前学習スケーリングが燃料切れを起こしていること、学習データが物理的に...
Claude Code 実践編 — Output Style はじめに — 「絶対おっしゃる通りです!」にモヤっとする Claude Code を日常的に使っていると、ある瞬間に手が止まる。 Y...
Claude Codeの中身を読んだら、自分のCLAUDE.mdが恥ずかしくなった — cli.js解析で分かったコンテキスト設計の実際 はじめに Claude Code、使ってますか? 「Cu...
LLMの中に「脳の報酬系」が勝手に生まれていた話 はじめに 「AIの中身ってどうなってるの?」 この素朴な疑問に対して、衝撃的な発見が報告されました。LLM(大規模言語モデル)の内部に、人間の脳...
Claude Codeを「もう一人の開発者」にする — subagents / skills / hooks を駆使した自動化パイプライン構築記 はじめに Claude Code、使ってますか?...
「本当に合ってる?」と聞くだけで、AIは正しい答えを捨てる はじめに Claude Codeを使っていて、こんな経験はないですか。 自分が「このアプローチでいいと思うんだけど」と言うと、AIは「...
「モデルをデカくすれば賢くなる」が終わった — AIスケーリングの燃料切れとデータ枯渇の実態 はじめに 2023年まで、AI業界には暗黙の信仰がありました。モデルを大きくすれば、賢くなる。計算量...
迂回路の地図 — MoE、推論時計算量、ツール、そして「SonnetとOpusどっち使う?」問題 はじめに Part 1 では事前学習スケーリングの燃料切れとデータ枯渇を、Part 2 ではTr...
「あなたは〇〇の専門家です」が効く理由 — ロール指定はAttention機構の操作である はじめに プロンプトエンジニアリングで頻繁に使われる「あなたは〇〇です」というロール指定。なぜこれが効...
CLAUDE.md マルチセッション知識共有 — Claude Code 開発者視点による設計原則と実装パターン — 1. コンテキストウィンドウの内部構造 1.1 トークン配分アーキテクチャ ...
Transformer Attention機構の数学と実践 LLMを最大限に活用するための技術的基盤として、Transformer Attentionの数学的メカニズムから実践的なプロンプト設計...
VS Code Dev Containers 完全ガイド 目次 概要 はじめに システム要件 インストール クイックスタートの選択 クイックスタート1: 開発コンテナを試す クイックスタート2:...
飲食店情報検索システム 設計書(学習用) 学習目的のご注意 本設計書は、実際の本番運用を目的としたものではなく、若手エンジニアの学習を促進するための教材として作成されています。実際のプロジェク...
13 search resultsShowing 1~13 results
Qiita is a knowledge sharing service for engineers.