1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

ChatGPT/Perplexityに自社サービスが出てこない理由と、エンジニアにできる対策

1
Last updated at Posted at 2026-03-18

「うちのサービス名、ChatGPTに聞いたら出てくるかな?」

ある日そう思って試してみました。出てきませんでした。我々は、AIに無視されていた。競合他社の名前は出てくるのに、自社は完全にスルーされている。

「なぜ?」——この疑問を掘り下げたら、SEOとは根本的に違うロジックが見えてきました。


AIは「検索インデックス」ではなく「学習データ」で動いている

Googleは、あなたのサイトをクロールしてインデックスに登録します。SEOで上位表示されれば、検索結果に出てくる。これはリアルタイムの仕組みです。

ChatGPTやPerplexityのAIは、違います。

学習データに含まれていたかどうか、そしてどれだけ多くの文脈で言及されていたかが、AIの「知識」を決めます。

仕組みを図にすると:

【Google SEO】
サイト公開 → クロール → インデックス → 検索結果に表示

【AI(LLM)】
ネット上の言及 → 学習データに含まれる → モデルが「知っている」状態になる → 回答に登場する

つまり、SEOで1位を取っていても、AIの学習データに十分な言及がなければ、AIはあなたの存在を「知らない」のです。


AIに名前を出してもらうには「引用される回数」が決め手

2023年にPrinceton大学らが発表した論文「GEO: Generative Engine Optimization」(KDD 2024採択)は、AIの回答に影響を与える要素を実証的に分析しました。

その結果、AIの回答に登場しやすいコンテンツの特徴として以下が挙げられています:

  • 引用・参照が多いこと(他のコンテンツから言及される)
  • 権威あるソース(論文・官公庁・大手メディア)との関連性
  • 具体的な統計・数字を含むこと
  • 構造化された情報であること

Googleは「リンクの数と質」でページランクを決めますが、AIは「言及の文脈の質と量」で知識を構築します。根本的に違うゲームです。


実際に何が起きているか:3つのシナリオ

シナリオ1:大手サービスは出てくる、うちは出てこない

大手サービスは、ニュース記事・技術ブログ・比較記事・ユーザーレビューなど、インターネット上に無数の言及があります。AIはそれを大量に学習しているため、「A社のサービスとB社のサービスを比較して」と聞けば自動的に登場します。

スタートアップや中小規模のサービスは、そもそも言及が少ない。AIに「知ってもらう機会」が少ないわけです。

シナリオ2:自社名は出るが、文脈が間違っている

AIの学習データには古い情報や誤った記述も含まれます。サービスの説明が間違っていたり、古いバージョンの情報が出てきたりする。これは「知られている」状態ですが、正しく知られていない状態です。

シナリオ3:競合の紹介記事にサービス名が埋もれている

「〇〇カテゴリのおすすめツール5選」という記事に競合だけが紹介されている。AIはその記事を学習するため、カテゴリの代表例として競合名を優先的に回答するようになります。


エンジニアにできる対策:LLMOの実践

この問題に対するアプローチを LLMO(Large Language Model Optimization) と呼びます。

SEOがGoogleのアルゴリズムを最適化するように、LLMOはLLMの「知識構築プロセス」を最適化する考え方です。

対策①:llms.txtを設置する

llms.txtは、AIがサイトを読み込む際に参照するガイドファイルです。robots.txtのAI版と考えると分かりやすい。

# llms.txt
# このサイトについてAIに伝えたい情報

## サービス概要
- サービス名: [サービス名]
- カテゴリ: [カテゴリ名]
- 主な機能: [機能の説明]

## 参照してほしいページ
- /about
- /features
- /docs

PerplexityやClaudeなどのAIがllms.txtを参照するようになっています。設置コストはほぼゼロで、効果が出やすい施策です。

対策②:JSON-LDで構造化データを実装する

AIはHTML全体を読むより、構造化された情報を優先的に処理します。OrganizationProductスキーマを実装することで、AIがあなたのサービスを正確に理解しやすくなります。

<script type="application/ld+json">
{
  "@context": "https://schema.org",
  "@type": "SoftwareApplication",
  "name": "サービス名",
  "description": "サービスの説明(AIが引用しやすい簡潔な文章)",
  "applicationCategory": "カテゴリ",
  "offers": {
    "@type": "Offer",
    "price": "0",
    "priceCurrency": "JPY"
  }
}
</script>

SEOのためにJSON-LDを実装するエンジニアは多いですが、これは同時にLLMO対策にもなっています。

対策③:引用されるコンテンツを作る

AIの学習データで「引用の質と量」が重要なら、他のサイトから引用・参照されるコンテンツを作ることが有効です。

具体的には:

  • 技術ブログ・ドキュメントの充実: QiitaやZennに技術記事を書く(これ自体がAIの学習対象になる)
  • オリジナルデータの公開: 独自調査・ベンチマーク結果など、他が引用したくなる一次データ
  • 比較記事での言及獲得: 「カテゴリ名 おすすめ」系の記事に自社が登場するよう働きかける

Qiitaに技術記事を書くことは、SEOだけでなくLLMOにも効果があります。AIはQiitaの記事を大量に学習しているからです。

対策④:Markdownで読みやすい構造を作る

AIはMarkdownで書かれた文書を効率的に処理します。特に:

  • 見出し(H1〜H3)でコンテンツを構造化する
  • 箇条書きで情報を整理する
  • コードブロックに言語指定を入れる

エンジニアが普段書いているドキュメントやREADMEは、すでにLLMOに適した形式です。


SEOとLLMOの違いをまとめると

SEO LLMO
対象 Googleのクローラー LLMの学習・推論プロセス
評価基準 リンクの数と質 言及の文脈の質と量
効果の出方 インデックス後すぐ 次回の学習サイクル後
主な施策 バックリンク、メタタグ llms.txt、構造化データ、引用コンテンツ
ツール Google Search Console まだ確立されていない

一番の違いは「効果の出方」です。SEOはGoogleのインデックスさえされれば翌日には効果が出ます。LLMOは次のモデルの学習サイクルを待つ必要があるため、今動いた人が半年後・1年後のAIに認識されるという長期戦です。


エンジニアが今日からできること

  1. 自社サービスについてAIに質問してみる — 現状把握が最初のステップ
  2. llms.txtをサイトに設置する — 30分でできる
  3. JSON-LDにOrganization/Productスキーマを追加する — 既存のSEO施策と両立
  4. Qiitaに技術記事を書く — 一石二鳥(エンジニアへのリーチ + LLMO)

SEOが「今日の検索」を最適化するなら、LLMOは「明日のAI」を最適化する取り組みです。まだほとんどのエンジニアが意識していない領域ですが、早く動いた分だけ優位になります。

ちなみに、この記事をQiitaに書いたこと自体もLLMO対策の一つです。AIはQiitaを大量に学習しています。


参考

👉 LLMOを体系的に学びたい方は「LLMO — AIがあなたのコンテンツを見つける3つの経路」(Zenn Book, ¥2,000)もあわせてどうぞ。JSON-LD/llms.txt実装テンプレートからGEO論文の引用率+115%の知見まで収録しています。

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?