2
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

あなたのサイト、何位にインデックスされてる?海外SEO対応版

Posted at

○ 今回の主題

自分のサイト(ドメイン)が、指定したキーワードのGoogle検索結果の何番目にインデックスされているかを確認するためのスクリプトを作成しました。

作成している途中に、SEOチェキ さん という素晴らしいサイトを知りました。こちらのサイトでこれから行うことは可能です。

一点、USPがあるとすれば、google.co.jpではなく、google.com、yahoo.co.jpではなくyahoo.comやBing! といった検索エンジンを自由にカスタマイズできるという点です。

(モットーは“見る前に跳べ!” なので、跳んだあとにすでに跳んだ人がいただけのこと、と思って前向きにがんばります。)

○ デモ

スクリーンショット 2019-01-07 21.23.08.png

設定しているmediumというドメインが medium と検索した際に何位に出てくるか確認すると・・・

スクリーンショット 2019-01-07 21.25.42.png

そりゃ1位ですわね。ということができます。

○ 結論のコードをのっけます

# -*- coding: utf-8 -*-
import requests
from bs4 import BeautifulSoup
from requests import get as GET
import re
p = re.compile(r"<[^>]*?>")
# こちらは自由にドメインを設定してください
domain = 'medium'

try:
   word = input('検索:')
   html = GET("https://www.google.com/search?num=100&hl=en&gl=us&q="+word).text
   bs = BeautifulSoup(html, 'lxml')
   result = bs.find_all("cite")
   str_list = str(result)
   if domain in str_list:
       for i, s in enumerate(result):
           s = str(s)
           s = p.sub("", s)
           if domain in s:
               print(word + 'の検索結果は' + str(i+1) + '位です。')
   else:
       print('圏外です。')
except:
   pass

短いですね! いいことです。成長した気がします。

さて、詳細の解説に入っていきたいと思います。


# -*- coding: utf-8 -*-
import requests
from bs4 import BeautifulSoup
from requests import get as GET
import re
p = re.compile(r"<[^>]*?>")

必要なモジュールを用意します。インストールの必要なものは requests と BeautifulSoup ですね。 pip install requests などを実行し、インストールしてください。

domain = 'medium'

ここで、調べたいドメインを設定します。自社サイトのドメインを登録したり、競合のドメインを指定しておきましょう。


try:
   word = input('検索:')
   html = GET("https://www.google.com/search?num=100&hl=en&gl=us&q="+word).text
   bs = BeautifulSoup(html, 'lxml')
   result = bs.find_all("cite")
   str_list = str(result)
   if domain in str_list:
       for i, s in enumerate(result):
           s = str(s)
           s = p.sub("", s)
           if domain in s:
               print(word + 'の検索結果は' + str(i+1) + '位です。')
   else:
       print('圏外です。')
except:
   pass

今回は関数を定義しませんでした。こういった単発のスクリプトでは特段必要ないというコメントを目にしたからです。

google.comで検索していますが、検索結果を100件(num=100)に増やし、国名をUS(gl=us)、言語をen(hl=en) にしています。これで、海外から検索した場合のインデックスがわかります。(海外SEO対策をしているためです)
国名と言語については以下のページを参考にすると、自由に変更できます。
→ 🔗 国名コード
→ 🔗 言語コード
→ 🔗 知っておくと便利なGoogleのglパラメータとhlパラメータ

検索結果から、cite タグの付いている箇所を抜き出します。抜き出したタグを含んだURLをまとめて一つのテキストとしてstr_listに追加します。
理由は、ドメインがこのテキスト内含まれるか、含まれないかで分岐をかけるためです。
この段階で、100位以内に入っていなければ、ひとつずつ確認して順位を調べる、という手間が不要だからです。

ドメインがテキストに含まれていれば、何番目のURLに含まれているかを調べます。
ここで、s = p.sub("", s) とは、正規表現を用いて<>を削除することを意味します。これで、URLのみのテキストに対して検索をかけることができます。
(注意:citeから引っ張ると、ドメインの途中になぜか < b > などがあり、うまく検索できなかった経緯があり、この操作を行っています。)

str(i+1) は、pythonのリストの最初は 0 のため、1を加え、文字型にしています。

長くなりましたが、行っている操作は非常にシンプルなものとなっています。
お読みいただきありがとうございます。

繰り返しになりますが、このスクリプトを用いずとも、SEOチェキさんにてキーワードを3ついっぺんに何位か確認できます。

便利なツールを作らはる人が世の中にはたくさんいます。私もがんばります。

2
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?