今回はUiPathに限定せず、RPA全般の話。
RPAツールに自動でWebスクレイピングさせたいのは誰もが思う事で、私も自宅のPCに住んでるロボが毎朝いろんな情報サイトの新着記事を集めてメールしてくれるので、それを通勤中にまとめて読む便利生活が送れてます。
が、実はサイトによっては利用規約にロボットによるアクセス禁止を明記してるところがあるのを最近知ったので、いくつか挙げてみます。(私は法律の専門家ではないので文言だけで勝手に解釈してますが、的外れなところがあったらご指摘下さい。)
"ロボット禁止"の利用規約
Amazon.co.jp
「利用許可およびサイトへのアクセス」の項
この利用許可には、アマゾンサービスまたはそのコンテンツの転売および商業目的での利用、製品リスト、解説、価格などの収集と利用、~中略~ ロボットなどのデータ収集・抽出ツールの使用は、一切含まれません。
Facebook
「2. Facebookで共有可能なコンテンツおよび認められる行為」の項
弊社から事前の許可を得ることなく、自動化された手段を用いて製品のデータにアクセスしたり取得したりすることや、アクセス許可のないデータへのアクセスを試みることを禁止します。
Instagram
「Instagramで禁止されている行為」の項
不正な方法を用いて、アカウントの作成、情報へのアクセス、または情報の取得を試みることは禁止されています。
これには、弊社から明示的な許可を得ることなく、自動化された手段を用いてアカウントを作成したり、情報を取得したりする行為が含まれます。
Flickr
「4. Restrictions」の項
※訳が間違ってたら教えて下さい。いまいちmay notのニュアンスがわからないなぁ。
Except as otherwise expressly permitted herein, you may not use the Services or the Flickr Materials to engage in any of the following prohibited activities:
(この利用規約の中で明記されている別段の許可を除き、以下の禁止行為によるFlickrのサービスや写真等コンテンツの利用は認められない)
~中略~
・scraping or otherwise using any data mining, robots or similar data gathering or extraction methods on or in connection with the Services;
(マイニング、ロボット、又はそれらに相当するデータ抽出ツールによってFlickrサービスからWebスクレイピング等を行う事)
これらはいずれもグローバルにサービス展開しているサイトで、今のところ国内企業のサイトでは利用規約でロボットに触れている例は少ないですが、RPAの普及に伴い利用規約が追加される可能性もあります。
そもそも人間にサイトに来てもらって、その人間が気に入った広告をポチったり商品を購入する事で収入を得てサイトが成り立っているので、自動でロボットがやってきて情報だけ取っていく事をサイト側が快く思うわけがありません。
一定の間隔で定期的にアクセスするようなケースでなければ、人間によるアクセスかロボットによるアクセスかをサイト側で見分けるのは難しいと思いますが、知らずに利用規約に反する行為を続けて後で訴えられるリスクを抱える前に、利用規約は事前に&定期的にチェックしておきましょう。
企業で使う場合は法務部門にも相談ですね。
今回はここまで。
テクニカルな話ではないのでQiitaに投稿するべきか悩みましたが、私自身、利用規約にロボット禁止が書かれている事を今まで知らなかったので、RPA開発に関わる方々に知ってほしいと思い投稿しました。
番外編
ブラウザゲーム(インペルアル・サガの例)
「第13条 禁止事項及び処分について」の項
(18)プログラムその他手段を用いて自動的に特定の行為を繰り返すことにより本サービスを利用する行為
まぁロボットで自動的にレベル上げやコイン稼ぎされたら運営側も確かに困るよなぁ・・・RPAで出来るほど単純な操作じゃないとは思うけど。
でも人はいつの時代も考える事は同じで、昔もSFCタクティクスオウガで一晩中COMのクレリック同士に石を投げ合いっこさせて自動でレベル上げる(で、翌朝高レベルになったクレリックにチーム全員で背後から石を投げまくる)なんてやってたよね。