LoginSignup
0
2

More than 3 years have passed since last update.

Pythonで機械学習用の画像を取得する

Last updated at Posted at 2021-03-11

目次

本日は、webスクレイピングを使った画像収集についての記事を投稿しようと思います。

実行環境

 - Mac OS X (Windowsの方はすみません...)
 - Python 3.8以上

1.自己紹介

こんにちは。sgswといいます。今大学生で、好きな言語はPythonです。
Python
公式サイトはこちら
Pythonにおける、実際の活用例をアウトプットしてゆきたいと思います!

[↑ 目次へ]

2.キーワードに関する画像取得

  • スクレイピングによる画像取得

 スクレイピングとは、wikipediaによると以下のことを指します。

ウェブスクレイピング(英: Web scraping)とは、ウェブサイトから情報を抽出するコンピュータソフトウェア技術のこと。ウェブ・クローラー[1]あるいはウェブ・スパイダー[2]とも呼ばれる。 通常このようなソフトウェアプログラムは低レベルのHTTPを実装することで、もしくはウェブブラウザを埋め込むことによって、WWWのコンテンツを取得する。

ざっくり言うと、コンピュータが人間の代わりにブラウジングして情報を取ってきてくれる感じです。何度も同じような作業をするときに使えそうですね。

今回では、これを 画像検索&画像取得に応用してみたいと思います。


  • 活用例

画像検索&画像取得をコンピュータにやらせて何が嬉しいのでしょうか?

そもそも似たような画像集めまくって使いそうなことある?

こんな声も聞こえてきそうですが、あります。

機械学習です。

ここでは述べませんが、機械学習では何かの特徴量を機械につかんでもらうために、大量の情報を必要とします。

※機械学習について知りたい方は、こちらのwebサイトなどを参考にしてください.

画像認識を機械学習のテーマとしたとき、同じグループの画像を何個も集めることが必要になってきます。

こういったときに同じ種類の画像をコンピュータに取得してもらえたらとても楽ですよね。

何より

「保存先を間違えた、統一性のない変な名前で保存しちゃった...etc」

とかいった心配をしなくて済みます。

Pythonを使って、Google画像検索で同じテーマの画像をスクレイピングすることを以下で行っていきましょう。


  • コーディング例

完成コードは以下のようになります。初めの方に必要なライブラリーは列挙してます。


import bs4
import requests
import re
import urllib
import os

header = {
    'User-Agent': "Mozilla/5.0 (Macintosh; Intel Mac OS X 11_2_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.192 Safari/537.36"}


def text_search(word_list):
    url_lists = []
    assert 1 <= len(word_list) <= 4
    params = {'q': " ".join(word_list), 'tbm': 'isch'}
    r = requests.get("https://www.google.co.jp/search", params=params)
    url_lists.append(r.url)
    return url_lists


def get_soup(url, header):
    return bs4.BeautifulSoup(urllib.request.urlopen(urllib.request.Request(url, headers=header)), 'html.parser')


def main():
    key_ward = input("put key_wards! > ")
    words = [key_ward]
    url_list = text_search(words)
    res = set([])
    for i, url in enumerate(url_list):
        bs = get_soup(url=url, header=header)

        for a in bs.find_all("img", {"data-src": re.compile("^(https://).*")}):
            if "data-src" in a.attrs:
                x = a.attrs["data-src"]
                if not x in res:
                    res.add(x)

    res = list(res)

    URLS = list(res)
    print("Okay,ready to save images!")
    path = ""
    while path == "":
        path = input("put the path to save>")
        if path != "":
            if os.path.exists(path):
                print("you are going to save images here -> {}\n".format(path))
                command = input("put y if you are OK otherwise put another.")
                if command == "y":
                    continue
                else:
                    path = ""
            else:
                print("Oops,that path does not seem to exists!")
                path = ""
        else:
            path = ""
    print("whole images: {}".format(len(URLS)))
    print("saving images...!")
    N = len(URLS)
    for i in range(N):
        file_name = "{}/{}.jpg".format(path, i + 1)
        url = URLS[i]
        response = requests.get(url)
        image = response.content
        with open(file_name, "wb") as f:
            f.write(image)
        print("{}/{} has done !".format(i + 1, N))
    print("ALL COMPLETE!")
    return


if __name__ == "__main__":
    main()

実行の仕方は簡単です。コードを保存したところに移動して、Pythonファイルを実行するだけです。ファイル名をscraping.pyとすると、以下の通りです。

  > python scraping.py

実行すると、標準入力に従ってゆくことで、打ち込んだkeywardに関連した画像を100枚ほど取得できます。

put key_wards! >dog
Okay,ready to save images! 
#保存する場所を決定します。

put the path to save>./dog_images
you are going to save images here >./dog_images

#保存場所に誤りがなければyを押します。それ以外はもう一度pathを指定します。
put y if you are OK otherwise put another >y
whole images: 92
saving images...!

1/92 has done !
2/92 has done !
3/92 has done !
4/92 has done !
...   
94/95 has done !
95/95 has done !
ALL COMPLETE!

基本的な使い方は以下の通りです。
ここで実際に収集できる画像は100枚程度なので、機械学習で使うには物足りない感じはありますが、その画像の水増しは画像の線形変換などを用いるのが良いでしょう。

一度に収集できる画像の枚数をもう少し増やすこともしたいので、何か良いアイデアがあれば教えていただきたいです。

[↑ 目次へ]

3.おわりに

Pythonにおける画像取得は難しくないことがお分かりいただけたのではないでしょうか?

「今までPythonを学んできたけれども、いまいち具体的な活用方法がわからない...。」

という人にきっかけを与える手助けになれたら幸いです。

それでは、よきコーディングライフを!

[↑ 目次へ]

0
2
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
2