11
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

SeleniumをEXEで動かす (python)

Last updated at Posted at 2022-03-11

記載日:2022/3/11
Selenium、Web Driver、Browser(Chrome)を1つにまとめたEXEを作りたい機会があったので、忘れないように記載します。
(セキュリティ面を考えるとChromeは最新バージョンに近い方が良いので、EXEはある程度の頻度で更新した方が良いかと思います。)

目標

EXE1つでスクレイピングを実行できるようにすること。
なお作業はWindowsで実施する。
(Pyinstallerはコンバータではないので、Linuxで作業するとEXEを出力できない。)

バージョン情報

・OS:Windows11
・Python:3.9.6
・pip:21.1.3
・Pyinstaller:4.8
・Selenium:4.1.0

流れ

1.Selenium、Pyinstallerのインストール
2.Chromeをプロジェクトの任意のフォルダへコピー。
3.Web Driverをダウンロードし、プロジェクトの任意のフォルダへコピー。
4.PythonでSelenium実行ファイル作成。
5.PyinstallerでEXE生成。

プロジェクト構成

 project
  |
  |-browser
  |  |-99.0.4844.51
  |  |-chrome.exe
  |
  |-driver
  |  |-chromedriver.exe
  |
  |-services
  |  |-process.py
  |
  |-scraper.py
  |-scraper.spec

作業

0.事前準備
 ・WindowsにPython、pipをインストールする。
  私の場合はpyenv、pipenvもインストールしたので、”python” ”pip”でコマンド実行できましたが、
  そうでない方は”python3”のようにコマンドが少し異なるかもしれません。

1.Selenium、Pyinstallerのインストール
 ・以下コマンドを実行し、SeleniumとPyinstallerをインストールする。

pip install selenium
pip install pyinstaller

2.Chromeをプロジェクトの任意のフォルダへコピー
 ・projectフォルダにbrowserフォルダを作成する。
 ・browserフォルダにChromeをコピーする。
  私のPCの場合、”C:\Program Files (x86)\Google\Chrome\Application\”の中の
  ”99.0.4844.51”フォルダと”chrome.exe”をコピーした。

3.Web Driverをダウンロードし、プロジェクトの任意のフォルダへコピー
 ・projectフォルダにdriverフォルダを作成する。
 ・以下Webサイトからドライバーをダウンロードし、driverフォルダへコピーする。
  https://chromedriver.chromium.org/downloads

4.PythonでSelenium実行ファイル作成
 ・以下のようにSeleniumの実行ファイルを作成する。

# scraper.py
import os
import sys
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from services.process import Process

def main():
    BrowserPath=ResourcePath("./browser/chrome.exe") # ブラウザ
    DriverPath=ResourcePath("./driver/chromedriver.exe") # ウェブドライバ

    # ウェブドライバ設定
    options=Options()
    options.binary_location=BrowserPath
    options.add_argument("--headless") # 動きを見たい場合はコメントアウトする。
    driver=webdriver.Chrome(DriverPath, options=options)

    # スクレイピング
    ProcessC=Process(driver)
    ProcessC.goPage()

    # クローズ処理
    time.sleep(30)
    driver.close()
    driver.quit()

def ResourcePath(relativePath):
    try:
        basePath=sys._MEIPASS
    except Exception:
        basePath=os.path.dirname(__file__)
    return os.path.join(basePath, relativePath)

if __name__=="__main__":
    main()
# process.py
class Process:
    def __init__(self, driver):
        self.driver=driver
    
    def goPage(self):
        self.driver.get("https://[ドメインやIP]/")

5.PyinstallerでEXE生成
 ・以下コマンドを実行し、scraper.specファイルを出力する。
  オプションをつけずにspecファイルを出力し、後から編集しても良いが少し面倒。

pyinstaller scraper.py --onefile --noconsole

 ・scraper.specを以下のように編集する。(Analysisのdatasとhiddenimportsを編集。)

# -*- mode: python ; coding: utf-8 -*-
block_cipher = None
a = Analysis(['scraper.py'],
             pathex=[],
             binaries=[],
             datas=[("./browser", "./browser"), ("./driver", "./driver")],
             hiddenimports=["selenium"],
             hookspath=[],
             hooksconfig={},
             runtime_hooks=[],
             excludes=[],
             win_no_prefer_redirects=False,
             win_private_assemblies=False,
             cipher=block_cipher,
             noarchive=False)
pyz = PYZ(a.pure, a.zipped_data, cipher=block_cipher)
exe = EXE(pyz,
          a.scripts,
          a.binaries,
          a.zipfiles,
          a.datas,  
          [],
          name='scraper',
          debug=False,
          bootloader_ignore_signals=False,
          strip=False,
          upx=True,
          upx_exclude=[],
          runtime_tmpdir=None,
          console=False,
          disable_windowed_traceback=False,
          target_arch=None,
          codesign_identity=None,
          entitlements_file=None )

 ・以下コマンドを実行する。distフォルダが生成し、scraper.exeが生成される。
  このscraper.exeを実行することでスクレイピングできる。

pyinstaller scraper.spec

参考にさせて頂いたサイト

・Pyinstallerでbrowser、driverを含めたEXEを作る
 https://www.zacoding.com/post/python-selenium-pyinstaller/
・.specファイルの書き方(ファイルを含める)
 https://timesaving.hatenablog.com/entry/2021/03/09/160000

11
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
11
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?