SEOの3大要素と背景
SEO(Search Engine Optimization)は大きく以下の3つの要素から構成されます。
分類 | 主な内容 | 主な担当者 |
---|---|---|
コンテンツSEO | キーワード設計・記事品質 | ライター・編集者 |
内部SEO | HTML構造・速度・構造化データ | エンジニア |
外部SEO | 被リンク・SNSシェア | PR・マーケ担当者 |
今回の焦点は「内部SEO(テクニカルSEO)」
検索順位に直結しやすい技術的アプローチをエンジニア目線で解説します。
対策①:Core Web Vitals(CWV)の最適化
なぜ重要か?
Googleはユーザー体験(UX)をSEOの主要な評価基準としています。特に「Core Web Vitals(CWV)」はGoogle公式のランキング要素であり、以下の3指標で構成されます(※2024年3月よりFIDはINPに置き換え)。
指標 | 内容 | 推奨値 | 技術的対策例 |
---|---|---|---|
LCP(Largest Contentful Paint) | メインコンテンツの表示速度 | 2.5秒以内 | 画像最適化・CDN・loading="lazy"
|
INP(Interaction to Next Paint) | ユーザー操作から画面更新までの応答速度 | 200ms以下 | JavaScript分割・Web Worker・イベント遅延処理 |
CLS(Cumulative Layout Shift) | 視覚的なレイアウトの安定性 | 0.1未満 |
width /height 明示・広告枠予約配置 |
使用ツール:
- PageSpeed Insights
- Chrome DevTools > Performanceタブ
- Lighthouse(Chrome拡張)
対策②:構造化データ(JSON-LD)の実装
なぜ重要か?
構造化データを用いてページの意味をマークアップすることで、Googleが内容を理解しやすくなり「リッチリザルト(Rich Results)」の対象となります。
以下の赤枠で囲われている箇所がリッチリザルト
主なリッチリザルト一覧
タイプ | 表示される情報内容 |
---|---|
サイトリンク | サイト内の他の主要ページリンクが検索結果に追加表示される |
レビュー・評価 | 星評価、レビュー数、平均スコアなどが表示される |
レシピ | 調理時間、材料、評価、カロリー情報などが表示される |
FAQ(よくある質問) | 折りたたみ形式で質問と回答が表示される |
商品(Product) | 商品の価格、在庫状況、レビューなどが表示される |
イベント | イベント名、日時、場所などの詳細情報が表示される |
How-to(ハウツー) | 手順、所要時間、道具などがステップ付きで表示される |
記事(Article) | サムネイル、著者、投稿日などが表示される(主にニュース記事やブログ) |
動画(Video) | サムネイル、再生時間、アップロード日などが表示される |
組織・会社 | 住所、電話番号、営業時間、ロゴなどが表示される |
パンくずリスト | サイト内の階層構造がリンク付きで表示される |
求人情報(Job Posting) | 職種、勤務地、給与、雇用形態などが表示される |
Q&Aページ(Q&A) | 質問と複数の回答(ユーザー生成型)が表示される |
技術的ポイント
- フォーマットは JSON-LD(Google推奨)
-
<script type="application/ld+json">
を<head>
or<body>
に設置 - パンくずリスト(
BreadcrumbList
)やArticle
タイプは基本実装推奨
[
{
"@context": "http://schema.org",
"@type": "WebSite",
"name": "モデルプレス",
"url": "https://mdpr.jp/",
"description": "モデルプレスは日本最大級の女性向けエンタメ&ライフスタイルニュースサイトです。",
"potentialAction": {
"@type": "SearchAction",
"target": "https://mdpr.jp/search?type=article&keyword={search_term_string}",
"query-input": "required name=search_term_string"
}
}
]
使用ツール:
対策③ robots.txt と sitemap.xml の最適化
なぜ重要か?
SEOの技術的施策として、検索エンジンのクロールを適切に誘導する robots.txt
と sitemap.xml
の設計は非常に重要です。設定ミスによってインデックス漏れやクロールバジェットの浪費が発生するリスクもあるため、以下のポイントを押さえておきましょう。
robots.txt の最適化ポイント
-
クロール許可/禁止を明確に定義
User-agent: * Allow: /public/ Disallow: /private/
-
JS/CSSファイルのブロック禁止
- Googlebot が正しくレンダリングできるように、必要なリソースはブロックしないこと
Allow: /static/js/ Allow: /static/css/
-
XML Sitemap の宣言
-
robots.txt
に明記することで、クローラにサイト構造を伝えやすくなる
Sitemap: https://example.com/sitemap.xml
-
sitemap.xml の最適化ポイント
- サイト全体のURL構造を網羅
- すべての公開ページを対象に階層構造も意識して記述
- 更新頻度や優先度の記載
<url>
<loc>https://example.com/blog/article-1</loc>
<lastmod>2025-07-25</lastmod>
<changefreq>weekly</changefreq>
<priority>0.8</priority>
</url>
-
複数のsitemap分割とindex作成(大規模サイト) :50,000 URL 以上の場合は分割し、
sitemap-index.xml
で管理 -
Search Console での送信と定期的な確認:Google Search Console から送信して、インデックス状況を監視
検証ツールを活用
対策④:AIを活用したSEO施策
なぜ重要か?
近年、SEOの現場では生成AIの活用が急速に拡大しています。ただし、AI活用は「コンテンツ生成」だけでなく、内部SEOの技術改善や運用効率化にも応用できる領域が増えています。
活用ポイント
活用領域 | 内容例 | 使用技術・ツール例 |
---|---|---|
構造化データの自動生成 | CMS記事データをもとに Article や BreadcrumbList スキーマをAIで生成 |
ChatGPT / Claude / 自作スクリプト + Schema.org |
SEO観点のコードレビュー | HTML構造やmeta情報の欠落、alt属性不足などをAIでレビュー | GitHub Copilot / ChatGPT Code Interpreter |
検索インテント分類 | 検索キーワードの意図をAIで分類し、カテゴリ構造や内部リンク設計に反映 | OpenAI API / Google Cloud Vertex AI |
タイトルやディスクリプション改善 | 機械的なtitleではなく、検索意図に合致した自然な文面をAIが提案(CTR改善の観点) | ChatGPT / Claude / 各種プロンプトテンプレート |
競合分析の自動化 | 競合サイトのHTMLをクローリングしてタグ構造やリッチリザルト使用状況を抽出しAIで要約 | Puppeteer + OpenAI API + Pythonスクリプトなど |
技術的注意点
- 生成系AIの情報は必ずレビューを行うこと
→ 内容の正確性・トンマナチェックは人間が最終確認 - 構造化データは必ず検証ツールでチェック
→ 形式エラーやポリシー違反によるインデックス不備を防ぐため - 大量生成・大量投稿は慎重に
→ GoogleはAI生成コンテンツ自体を否定していないが、品質・独自性のないページ(一次情報がないもの、コタツ記事など)群は「ヘルプフルコンテンツアップデート」で評価が下がる可能性あり(公式ヘルプ)
今後の展望
- 検索エンジン自体がAI強化される(例:Google SGE)
- E-E-A-Tやオリジナリティの比重が高まる
- → 単純なAI生成ではなく、AIと人の役割分担(半自動化)が重要
使用ツール(AI活用に向いているもの)
- ChatGPT(OpenAI)
- Claude(Anthropic)
- GitHub Copilot(コード生成)
- Google Rich Result Test
- Puppeteer / Playwright(HTMLクローリング用)
よくある失敗例と落とし穴
失敗例・落とし穴 | 問題点・懸念 | 対策 |
---|---|---|
JS描画SPAでrobotsがJSをブロック | コンテンツが検索エンジンに読み取られず、インデックスされない可能性 |
robots.txt でJSやAPIのリソースをブロックしない設定にする。SSR(Nuxt/Nextなど)やPrerender、動的レンダリング導入を検討。 |
title・meta description・h1が全ページ同一 | 個別性が欠け、CTR・SEO評価がともに低下 | 各ページの内容に応じてtitle/description/h1を動的に出し分ける実装を行う(テンプレートエンジンやCMSで管理)。 |
構造化データがページ内容と不一致 | 検出エラーやポリシー違反によりリッチリザルトが無効になる | schema.org準拠の構造化データを使用し、JSON-LDなどで実際のページ内容と正確に一致させる。検証はリッチリザルトテスト。 |
sitemap.xmlやads.txtの構成ミス | インデックス漏れ・広告配信エラーなどのトラブルに発展する | 自動生成スクリプトやCMS連携で構成ミスを防止。生成後はSearch ConsoleやAds.txt Validatorで確認。 |
まとめ
SEOはユーザー体験をより良くするための取り組みです。
特にページの表示速度や構造化データ、robots.txtやsitemap.xmlといった内部的な要素はエンジニアの腕の見せ所です。これらを整えることで、検索エンジンにもユーザーにも優しいサイトになります。
SEO対策は日々の地道な見直しや改善をする必要があり、そのためにはPageSpeed Insightsやリッチリザルトテストのようなツールを活用して状態をチェックする習慣を欠かさない事が重要です。
最近ではAIを使って改善サイクルを自動化する手法も増えてきました、こうした工夫を取り入れればSEOの運用もかなり効率的になります。
プロダクトに向き合い、ユーザーとつながる開発を。
ネットネイティブでは、そんなエンジニアを歓迎しています
https://www.wantedly.com/companies/mdpr