5
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

【R言語】週刊少年ジャンプにおける最も多く表紙を飾った/カラーを飾った作品は何だったのか(1969/11/03~2017/07/31までを振り返る)

Last updated at Posted at 2019-07-12

#概要

前回、声優の出演数をグラフ化する遊びをやってみましたが、今回も同じ要領で週刊少年ジャンプにおける最も多く表紙を飾った/カラーを飾った作品が何だったのかをプログラミング言語であるRを使って調べてみたいなと思います。

結果だけ見たいマンは基本ルールをさーっと呼んでリンクから「表紙を飾った作品Best100」、「カラーを飾った作品Best100」を見てネ!

#基本ルール
文化庁メディア芸術データベースに登録されている情報からデータを抽出
・期間は1969/11/03~2017/07/31までを対象とする(以降は未登録であり、データの抽出ができないため)
・最も多く表紙を飾った作品、カラーを飾った作品のベスト100を突き止める

#データクレンジングの難点(文字化け対策)
前回も苦しめられたこともあって今回は反省点を活かせればスムーズにいくかなー、と楽観していたのですが、実際にやってみてそんなことはありませんでした。
中でも特に文字化けが発生したときが苦しかったなと。

Rを使用する全てのプログラマーは文字化けという妖怪との果てしないバトルを繰り広げるのが日課だというのがぼくの認識なのですが、ほんとうにどうにかなりませんかね、この問題。
rvestパッケージを使用中でも文字化けが発生し、一時的にロケールを変更することで事なきを得ました。

#実装ソースコード
では実装ソースコードを晒していきます。
まずは少年ジャンプの詳細情報ページへ行きます。
各号ごとにリンクが貼られていますのでこのURL情報を取得します。

shonen_jump_getlink.png

shonen_jump.r
# ライブラリ -------------------------------------------------------------------

pacman::p_load(tidyverse,pipeR,rvest,DataExplorer)

# ソース本文 -------------------------------------------------------------------

#各週刊少年ジャンプのURL情報を取得する
url_txt <- "https://mediaarts-db.bunka.go.jp/mg/magazine_titles/11470?display_view=pc&locale=ja"

data <- read_html(url_txt)

#対象のURL情報を取得
url_path <-data %>>%
  #aタグのノード情報を取得
  html_nodes(xpath = "//a") %>>%
  #属性を取得
  html_attr("href") %>>% 
  #データフレーム化
  as.data.frame() %>>%
  #リンク先の情報だけ取得できるようフィルタする
  filter(grepl("/mg/magazines/", .))

次に、各号ジャンプの詳細情報を取得していきます。
一部で取得したデータの文字化けが発生したため、ロケールを一時的に変更する対策を行います。
処理が終了した後はロケールを元に戻す処理を行っています。

shonen_jump_detail.png

shonen_jump.r
#ジャンプのURLから各作品の掲載情報を取得する

df_jump <- data_frame()

for (i in 1:nrow(url_path)) {
  url_txt2 <- paste0("https://mediaarts-db.bunka.go.jp",url_path$.[i])
  
  #ロケールを変更しないとテーブル情報を正しく読み込めないため、一時的にロケールを変更する
  if(i == 527){
    Sys.setlocale("LC_ALL","C")
  }
  
  data2 <- read_html(url_txt2)
  
  jump_data <- data2 %>>%
    #ノード情報を取得
    html_nodes(xpath = "//table[@class = 'infoTbl2']") %>>%
    #テーブル情報を取得
    html_table() %>>%
    '[['(1)
  
  #一時的に変更したロケールを元に戻す
  if(i == 527){
    Sys.setlocale("LC_ALL", '.932')
  }
  
  jump_title <- data2 %>>%
    html_nodes(xpath = "//h1[@class='ttl']") %>>%
    html_text(trim = FALSE)
  
  jump_data <- jump_data %>>%
    mutate(タイトル=jump_title)
  
  jump_data$作品枚数 <- as.character(jump_data$作品枚数)

  #ジャンプの掲載情報を行結合で集約していく
  df_jump <- bind_rows(df_jump,jump_data)
  
}

データを取得した後は可視化のための仕上げを行った後に可視化します。

shonen_jump.r
#列名を変更
names(df_jump) <- c("category","title","author","sub_title","start_page","pages","remarks","form","number")

#表紙を飾ったマンガ作品のみを抽出
df_top <- df_jump %>>%
  #表紙のみ抽出
  filter(grepl("表紙",category)) %>>%
  #オールスター等は除きたいため、フィルタする
  filter(!grepl("[表紙]",title))


#カラーで載ったマンガ作品のみを抽出
df_1st <- df_jump %>>%
  #マンガ作品のみ抽出
  filter(grepl("マンガ作品",category)) %>>%
  #カラーのみ抽出
  filter(grepl("4色カラー",remarks))

#可視化
#表紙を飾ったマンガのbest100
df_top <- table(df_top$title) %>>%
  as.data.frame() %>>%
  arrange(desc(Freq)) %>>%
  head(100)


#カラーで載ったマンガのbest100
df_1st <- table(df_1st$title) %>>%
  as.data.frame() %>>%
  arrange(desc(Freq)) %>>%
  head(100)

#グラフで可視化する

#ggplotで可視化(100件だと見づらいので50件に絞る)
ggplot(df_top %>>% head(50),mapping = aes(x=reorder(Var1, Freq),y=Freq)) + 
  geom_bar(stat = "identity") + 
  coord_flip()

ggplot(df_1st %>>% head(50),mapping = aes(x=reorder(Var1, Freq),y=Freq)) + 
  geom_bar(stat = "identity") + 
  coord_flip()

さて、どうなるでしょうか。

##表紙を飾った作品Best100

では結果を発表していきましょう。
まずは表紙を飾った作品Best100です。じゃん!

shonen_jump_top_1.png
shonen_jump_top_2.png
shonen_jump_top_3.png
shonen_jump_top_4.png
shonen_jump_top_5.png

##カラーを飾った作品Best100

続いてカラーを飾った作品Best100の紹介です。

shonen_jump_1st_1.png
shonen_jump_1st_2.png
shonen_jump_1st_3.png
shonen_jump_1st_4.png
shonen_jump_1st_5.png

##グラフ化

ついでにグラフ化した結果も見せちゃいます。
見づらいので上位50件まで表示しています。ご容赦ください…

表紙を飾った作品Best50
shonen_jump_top_graph.png

カラーを飾った作品Best50
shonen_jump_1st_graph.png

好きな作品はランクインしていたでしょうか?

#所感

rvest is 神!という感想はさておき、そもそもこのスクレイピングをやろうと思ったのは週刊少年ジャンプ30年分と同棲する剛の者がツイッターランドに降臨されたことでして、『ドラゴンボール』ってめちゃめちゃ面白かったんだけど、連載当時はどれぐらい人気あったんだろうなー、と思ったのがきっかけです。

というかもしかしてこれ重要文化財なんじゃねえのっていう気がするのはぼくだけではないはず。
話が逸れそうなので話を元に戻します。
『ワンピース』の圧倒的な強さは予想できていたことなので驚きはありませんが、『遊戯王』が地味に上位だったのは驚き。今でこそジャンプ読者は知らない人の方が少ないほど知名度の高い作品ですが、連載当時は最下位争いをしていた記憶があります。近年のマンガと太古の昔に連載されていたマンガの両方が入り乱れる形で結果に表れたのは中々に面白い結果だったと思います。
あと欲を言えば2017年8月以降の更新が途絶えているようなので、更新お願い…という切実な願いを残すとともに、〆とさせていただきます。

5
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?