38
29

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

2021年に日本が注力したいことを総理所信表明演説から分析してみた.

Last updated at Posted at 2021-03-24

はじめに

今回は,現日本の総理大臣が2021年に総理として実践したいことをデータ(総理所信表明演説)から
導いていいきたいと思います.

分析に至る経緯

僕は,最近就活をぼちぼちしているのですが,あるベンチャー企業の面接をしている
中で政治が進めたい方向とビジネスをマッチさせながら進めて行くというやり方が
あるという話をしていただきました.
その話の中で僕が思ったのは,それを客観的にわかるものがあったら便利だなと感じ
分析してみた感じです.
ちなみに,その企業の面接を受け,お話できたのはすごくよかったなと感じています.

注意事項

この分析は,僕がなるべく客観的にデータを見てストップワードを設定し分析をしています.
特に政治的主張はありません.
また,所属企業や団体とは一切関係なく,一個人としての分析ですのでそちらをご了承いただけますよう宜しくお願い致します.

分析のアジェンダ

・データの取得
使用ライブラリ:☆BeautifulSoup☆requests
・データの前処理
使用ライブラリ:☆MeCab☆pandas
・可視化
使用ライブラリ:☆nlplot

分析過程

データの取得

#第二百四回国会における菅内閣総理大臣施政方針演説
name='https://www.kantei.go.jp/jp/99_suga/statement/2021/0118shoshinhyomei.html'
site = requests.get(name)
data = BeautifulSoup(site.content, 'html.parser')

データの前処理

・データフレームの作成

cols = ['col1', 'col2','col3']
df = pd.DataFrame(index=[], columns=cols)
record = pd.Series(['hoge', 'fuga','fuga'], index=df.columns)
for _ in range(1):
    df = df.append(record, ignore_index=True)

・ストップワードを対象テキストから外す(uni-gram用)

text=str(p)
stopwords = ['こと','','して','これ','(','する','した','ます','よう','','','ふう','あり','いる','','これ','それ','','てい','さん','ですが','','うの','','','また','から','ため','','わけ','たい'\
    'とい','','(','',')','思い','うに','ですか','ころ','うで','','','','','','','','','','いろ','しま','ござ','だき','いと','','いか','ながら','','だい','だい','つき','なか','考え'\
    'とい','(',')','とろ','','','ある','','','とき','答え','','','','月日','いま','ちょっと','たい','','なる','たま','','本当','皆様','つて','にお','','','','考え','まり','はな','','','だで'\
    '大臣','国務大臣','','たで','','','','とも','より','','しか','ですよ','','委員会','','','','質問','','','など','すね','受け','','','','総理','委員長','','','ゆう','なう','','たに','','',''\
    '','','','場合','是非','','','','','大変','','たも','','','','大臣','議論','','','','理解','','','','','','','','','','','相談','','','','','','','','なな','たち','','',''\
    'たとう','()','','','○(','○()','○(','がま','たとう','','<','/>','br','p','b','><',"''",'/>','>>','>>',',','','','','','とし','','','','','','','','','つくり','つな','にし','','','多く'\
    '','','','','','','','','','','','','','','','','多く','づくり','','','','','','','','','','','','','sc','rit','java','sc','','わり','えな',']','おに','なに','適切','',''\
    '','']
for i1 in range(len(stopwords)):
    print(stopwords[i1])
    text=text.replace(stopwords[i1],'')

・ストップワードを対象テキストから外す(bi-gram,tri-gram用)

text1=str(p)
stopwords = ['','<','/>','br','p','b','><',"''",'/>','>>','>>',',','','','','sc','rit','java','sc',']','','','','','','','','','','','','%','','','','','',''\
    ,'いき','ます','しま','した','する','こと','','ます','つな','','そう','した','あり','ます','こう','した','して','から','こと','とし','これ','より','など','さん','か月','','ある','','わり','まい','てり','','','ため']
for i1 in range(len(stopwords)):
    print(stopwords[i1])
    text1=text1.replace(stopwords[i1],'')

・形態素分析(uni-gram用)

tagger = MeCab.Tagger("-Owakati")
tagger.parse("")
lst = []
try:
    node = tagger.parseToNode(str(text)).next
    while node.next:
        if "名詞," in node.feature:
            lst.append(node.surface)
        node = node.next
except:
    print("error")

・形態素分析(bi-gram,tri-gram用)

tagger = MeCab.Tagger("-Owakati")
tagger.parse("")
lst1 = []
try:
    node = tagger.parseToNode(str(text1)).next
    while node.next:
        if "名詞," in node.feature:
            lst1.append(node.surface)
        node = node.next
except:
    print("error")

・データフレームに格納

df['col1'][0]=p
df['col2'][0]=lst
df['col3'][0]=lst1

・OnePoint

通常の辞書を利用して,形態素分析を行うと,人名などを一文字ずつ切ってしまったりするので,独自辞書を設定することをお勧めします.
特に,Wikipediaのやつを使うと良くなりました!

可視化

import nlplot
npt = nlplot.NLPlot(df, target_col='col2')
npt1 = nlplot.NLPlot(df, target_col='col3')

uni-gram

npt.bar_ngram(
    title='uni-gram',
    xaxis_label='word_count',
    yaxis_label='word',
    ngram=1,
    top_n=50,
    save=True
)

可視化画像

1.png

bi-gram

npt1.bar_ngram(
    title='bi-gram',
    xaxis_label='word_count',
    yaxis_label='word',
    ngram=2,
    top_n=50,
    stopwords=stopwords,
    save=True
)

可視化画像

2.png

tri-gram

npt1.bar_ngram(
    title='tri-gram',
    xaxis_label='word_count',
    yaxis_label='word',
    ngram=3,
    top_n=50,
    stopwords=stopwords,
    save=True
)

可視化画像

3png.png

tree map

npt.treemap(
    title='tree map',
    ngram=1,
    stopwords=stopwords,
    width=1200,
    height=800,
    save=True
)

可視化画像

4.png

wordcloud

npt.wordcloud(
    stopwords=stopwords,
    max_words=100,
    max_font_size=100,
    colormap='tab20_r',
    save=True
)

可視化画像

スクリーンショット 2021-03-24 23.30.56.png

分析全体を通しての感想

今回の分析では,客観性を担保する為に中身にことについて言及はしないでおこうと考えているので,分析自体の感想を少し述べると,
・自然言語は,可視化よりもストップワードをどうとるかが一番難しいところであり,
腕の見せ所なのではないかなと感じました.
例えば,今回はかなり数字などは,ストップワードで設定しましたが,数字を入れるとまた違った形になる可能性も考えられます.
その辺はみたいところによってテイクアンドリリースなのではないかなと感じます.
あとは,政治独特の言い回しは結構多いように感じました.

最後に

皆さんがこの記事を見て,きっと今年の日本はこれに力を入れたいんだなと感じられるものがあるのではないでしょうか?
もっとこういうのが見たい!見たいなコメントを頂けたりするととても嬉しいです!

それでは,今回はこれにて終了したいなと思います.

次記事を書くときは,国会分析をしようかなと思います.

それではありがとうございました.

参考記事

ソース

38
29
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
38
29

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?