6
4

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【SEO施策】〜Webエンジニアが押さえるべきSEOの技術的アプローチ〜

Last updated at Posted at 2025-07-25

SEOの3大要素と背景

SEO(Search Engine Optimization)は大きく以下の3つの要素から構成されます。

分類 主な内容 主な担当者
コンテンツSEO キーワード設計・記事品質 ライター・編集者
内部SEO HTML構造・速度・構造化データ エンジニア
外部SEO 被リンク・SNSシェア PR・マーケ担当者

今回の焦点は「内部SEO(テクニカルSEO)
検索順位に直結しやすい技術的アプローチをエンジニア目線で解説します。


対策①:Core Web Vitals(CWV)の最適化

なぜ重要か?

Googleはユーザー体験(UX)をSEOの主要な評価基準としています。特に「Core Web Vitals(CWV)」はGoogle公式のランキング要素であり、以下の3指標で構成されます(※2024年3月よりFIDはINPに置き換え)。

指標 内容 推奨値 技術的対策例
LCP(Largest Contentful Paint) メインコンテンツの表示速度 2.5秒以内 画像最適化・CDN・loading="lazy"
INP(Interaction to Next Paint) ユーザー操作から画面更新までの応答速度 200ms以下 JavaScript分割・Web Worker・イベント遅延処理
CLS(Cumulative Layout Shift) 視覚的なレイアウトの安定性 0.1未満 width/height明示・広告枠予約配置

使用ツール


対策②:構造化データ(JSON-LD)の実装

なぜ重要か?

構造化データを用いてページの意味をマークアップすることで、Googleが内容を理解しやすくなり「リッチリザルト(Rich Results)」の対象となります。
以下の赤枠で囲われている箇所がリッチリザルト
スクリーンショット 2025-07-25 17.51.25.png

主なリッチリザルト一覧

タイプ 表示される情報内容
サイトリンク サイト内の他の主要ページリンクが検索結果に追加表示される
レビュー・評価 星評価、レビュー数、平均スコアなどが表示される
レシピ 調理時間、材料、評価、カロリー情報などが表示される
FAQ(よくある質問) 折りたたみ形式で質問と回答が表示される
商品(Product) 商品の価格、在庫状況、レビューなどが表示される
イベント イベント名、日時、場所などの詳細情報が表示される
How-to(ハウツー) 手順、所要時間、道具などがステップ付きで表示される
記事(Article) サムネイル、著者、投稿日などが表示される(主にニュース記事やブログ)
動画(Video) サムネイル、再生時間、アップロード日などが表示される
組織・会社 住所、電話番号、営業時間、ロゴなどが表示される
パンくずリスト サイト内の階層構造がリンク付きで表示される
求人情報(Job Posting) 職種、勤務地、給与、雇用形態などが表示される
Q&Aページ(Q&A) 質問と複数の回答(ユーザー生成型)が表示される

技術的ポイント

  • フォーマットは JSON-LD(Google推奨)
  • <script type="application/ld+json"><head> or <body> に設置
  • パンくずリスト(BreadcrumbList)や Article タイプは基本実装推奨
[
	{
		"@context": "http://schema.org",
		"@type": "WebSite",
		"name": "モデルプレス",
		"url": "https://mdpr.jp/",
		"description": "モデルプレスは日本最大級の女性向けエンタメ&ライフスタイルニュースサイトです。",
		"potentialAction": {
			"@type": "SearchAction",
			"target": "https://mdpr.jp/search?type=article&keyword={search_term_string}",
			"query-input": "required name=search_term_string"
		}
	}
]

使用ツール


対策③ robots.txt と sitemap.xml の最適化

なぜ重要か?

SEOの技術的施策として、検索エンジンのクロールを適切に誘導する robots.txtsitemap.xml の設計は非常に重要です。設定ミスによってインデックス漏れやクロールバジェットの浪費が発生するリスクもあるため、以下のポイントを押さえておきましょう。

robots.txt の最適化ポイント

  • クロール許可/禁止を明確に定義

    User-agent: *
    Allow: /public/
    Disallow: /private/
    

  • JS/CSSファイルのブロック禁止

    • Googlebot が正しくレンダリングできるように、必要なリソースはブロックしないこと
    Allow: /static/js/
    Allow: /static/css/
    

  • XML Sitemap の宣言

    • robots.txt に明記することで、クローラにサイト構造を伝えやすくなる
    Sitemap: https://example.com/sitemap.xml
    

sitemap.xml の最適化ポイント

  • サイト全体のURL構造を網羅
    • すべての公開ページを対象に階層構造も意識して記述
    • 更新頻度や優先度の記載
  <url>
    <loc>https://example.com/blog/article-1</loc>
    <lastmod>2025-07-25</lastmod>
    <changefreq>weekly</changefreq>
    <priority>0.8</priority>
  </url>

  • 複数のsitemap分割とindex作成(大規模サイト) :50,000 URL 以上の場合は分割し、sitemap-index.xmlで管理

  • Search Console での送信と定期的な確認:Google Search Console から送信して、インデックス状況を監視

検証ツールを活用


対策④:AIを活用したSEO施策

なぜ重要か?

近年、SEOの現場では生成AIの活用が急速に拡大しています。ただし、AI活用は「コンテンツ生成」だけでなく、内部SEOの技術改善や運用効率化にも応用できる領域が増えています。

活用ポイント

活用領域 内容例 使用技術・ツール例
構造化データの自動生成 CMS記事データをもとに ArticleBreadcrumbList スキーマをAIで生成 ChatGPT / Claude / 自作スクリプト + Schema.org
SEO観点のコードレビュー HTML構造やmeta情報の欠落、alt属性不足などをAIでレビュー GitHub Copilot / ChatGPT Code Interpreter
検索インテント分類 検索キーワードの意図をAIで分類し、カテゴリ構造や内部リンク設計に反映 OpenAI API / Google Cloud Vertex AI
タイトルやディスクリプション改善 機械的なtitleではなく、検索意図に合致した自然な文面をAIが提案(CTR改善の観点) ChatGPT / Claude / 各種プロンプトテンプレート
競合分析の自動化 競合サイトのHTMLをクローリングしてタグ構造やリッチリザルト使用状況を抽出しAIで要約 Puppeteer + OpenAI API + Pythonスクリプトなど

技術的注意点

  • 生成系AIの情報は必ずレビューを行うこと
    → 内容の正確性・トンマナチェックは人間が最終確認
  • 構造化データは必ず検証ツールでチェック
    → 形式エラーやポリシー違反によるインデックス不備を防ぐため
  • 大量生成・大量投稿は慎重に
    → GoogleはAI生成コンテンツ自体を否定していないが、品質・独自性のないページ(一次情報がないもの、コタツ記事など)群は「ヘルプフルコンテンツアップデート」で評価が下がる可能性あり(公式ヘルプ

今後の展望

  • 検索エンジン自体がAI強化される(例:Google SGE)
  • E-E-A-Tやオリジナリティの比重が高まる
    • → 単純なAI生成ではなく、AIと人の役割分担(半自動化)が重要

使用ツール(AI活用に向いているもの)

  • ChatGPT(OpenAI)
  • Claude(Anthropic)
  • GitHub Copilot(コード生成)
  • Google Rich Result Test
  • Puppeteer / Playwright(HTMLクローリング用)

よくある失敗例と落とし穴

失敗例・落とし穴 問題点・懸念 対策
JS描画SPAでrobotsがJSをブロック コンテンツが検索エンジンに読み取られず、インデックスされない可能性 robots.txtでJSやAPIのリソースをブロックしない設定にする。SSR(Nuxt/Nextなど)やPrerender、動的レンダリング導入を検討。
title・meta description・h1が全ページ同一 個別性が欠け、CTR・SEO評価がともに低下 各ページの内容に応じてtitle/description/h1を動的に出し分ける実装を行う(テンプレートエンジンやCMSで管理)。
構造化データがページ内容と不一致 検出エラーやポリシー違反によりリッチリザルトが無効になる schema.org準拠の構造化データを使用し、JSON-LDなどで実際のページ内容と正確に一致させる。検証はリッチリザルトテスト
sitemap.xmlやads.txtの構成ミス インデックス漏れ・広告配信エラーなどのトラブルに発展する 自動生成スクリプトやCMS連携で構成ミスを防止。生成後はSearch ConsoleやAds.txt Validatorで確認。

まとめ

SEOはユーザー体験をより良くするための取り組みです。
特にページの表示速度や構造化データ、robots.txtやsitemap.xmlといった内部的な要素はエンジニアの腕の見せ所です。これらを整えることで、検索エンジンにもユーザーにも優しいサイトになります。
SEO対策は日々の地道な見直しや改善をする必要があり、そのためにはPageSpeed Insightsやリッチリザルトテストのようなツールを活用して状態をチェックする習慣を欠かさない事が重要です。
最近ではAIを使って改善サイクルを自動化する手法も増えてきました、こうした工夫を取り入れればSEOの運用もかなり効率的になります。


プロダクトに向き合い、ユーザーとつながる開発を。
ネットネイティブでは、そんなエンジニアを歓迎しています
https://www.wantedly.com/companies/mdpr

6
4
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
6
4

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?