1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

seleniumはCopy_full_xpathで少し楽になる。

Last updated at Posted at 2022-07-06

はじめに

どうも。スクレイピング歴9日の初心者です。
本日もスクレイピングを勉強したので学習内容をQiitaにまとめます。

環境

selenium==4.3.0
windows11
jupyterlab

本記事の趣旨

selemiumのスクレイピングにて従来行っていた方法よりも少し楽になる方法を見つけたので忘備録もかねてシェア致します。

バックナンバー

教材

学習

selemiumにてwebブラウザを検証で場所を指定する時、少し面倒くさく感じませんか?

elem_pass = browser.find_element('id',"password")
elem_username = browser.find_element('name',"username") 
elem_click = browser.find_element('id',"login-btn")

selemium4では毎回idやnameを探して上記のように引数に当てはめなければならないですよね。
私はこれが大変でした。

  • idやname等場所を指定する要素を探す苦労。
  • それらしい物を入力して引数に当てはめても実行できるかの不安。

この課題の解決方法の一種を学びましたので記載します。
単一取得で使用できる事を確認致しました。findのみで、find_allはできませんでした。

方法

結論 ⇒ 単一指定なら Copy_full_xpath

それでは手順を紹介します。今回は下記サイトを使用します。
いつも通り「検証」で場所を指定します。ここまでは一緒です。

2022-07-05_19h21_37.png

しかしここからidやname(場合によってはclass)等のどれを選んで情報を入力するのか少し悩むわけです。この場合、単一指定ならばひとまずCopy_full_xpathで取得して貼り付けるのはいかがでしょうか?

これが

elem_pass = browser.find_element('id',"password")
elem_username = browser.find_element('name',"username") 
elem_click = browser.find_element('id',"login-btn")

こうなります。当然動作は同一です。

elem_pass = browser.find_element("xpath","/html/body/main/center/div[2]/div/form/div[3]/div/input")
elem_username = browser.find_element("xpath","/html/body/main/center/div[2]/div/form/div[2]/div/input") 
elem_click = browser.find_element("xpath","/html/body/main/center/div[2]/div/form/center/div/button")
  • 第一引数に"xpath"と指定する
  • 第二引数に Copy_full_xpath で取得した情報をコピペする。

方法としてはかなりシンプルになりました。

長所と短所。

この方法における現時点で思いつく長所、短所を記載します。

長所

  • 操作方法が簡単
  • idやname,classを探す手間が省ける
  • 要素を見つけられない時でも使用できる。

短所

  • スマートじゃない。
  • 慣れている人ではid/name等を第一引数とした方が可読性が高い?
  • htmlの構造への理解が遅くなる。

といったところでしょうか。

最後に

要素を見つけられない時とはどのような場合かを一緒に確認してみましょう。

例えばこのページの「ダウンロード」には要素(idやname)が見つかりません。この場合ではbrowser.find_element("xpath",~~~)が役立ちそうです。

2022-07-05_19h43_17.png

  • このページにたどり着けない場合はログインを経て再度アクセスして頂ければと思います。
USER = 'test_user'     #ログインする際のユーザー名
PASS = 'test_pw'       #ログインする際のpass名

総まとめのコード

こちらが従来のやり方で取得したもので、


#モジュールのインポート
!pip install selenium
from selenium import webdriver
from time import sleep
import pandas as pd

browser = webdriver.Chrome("C:/****/****/Desktop/Jupyter/lab/スクレイピング/chromedriver.exe")  

url = "https://scraping-for-beginner.herokuapp.com/login_page"
browser.get(url)

elem_username = elem_username = browser.find_element('id',"username")  
elem_username.clear()
elem_username.send_keys('imanishi')

elem_pass = browser.find_element('name',"password")
elem_pass.clear()
elem_pass.send_keys('kohei')

elem_click = browser.find_element('id',"login-btn")
elem_click.click()

こちらが"xpath"とCopy_full_xpathを用いたものです。

#モジュールのインポート
!pip install selenium
from selenium import webdriver
from time import sleep
import pandas as pd

#ブラウザの起動⇒成功
browser = webdriver.Chrome("C:/****/user/Desktop/Jupyter/lab/スクレイピング/chromedriver.exe")  
#お好きなURLを指定してアクセス
url = "https://scraping-for-beginner.herokuapp.com/login_page"
browser.get(url)



elem_username = browser.find_element('xpath',"/html/body/main/center/div[2]/div/form/div[2]/div/input")      
elem_username.send_keys('imanishi')                       

elem_pass = browser.find_element('xpath',"/html/body/main/center/div[2]/div/form/div[3]/div/input")          
elem_pass.send_keys('kohei')                             

elem_click = browser.find_element('xpath',"/html/body/main/center/div[2]/div/form/center/div/button")        
elem_click.click()                                       

皆様はどちらを使用なさいますか。

終わりに

いかがでしょうか?簡単ですが、要素の単一取得の際に使用できるxpathCopy_full_xpathを紹介させて頂きました。
この調子でアンテナを広げて使用できる武器を増やし整理していければと常々思います。

1
0
3

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?