こんにちにゃんです。
水色桜(みずいろさくら)です。
今回は前回の記事で作成したLUKEでの感情分析モデルと既存のモデル(BERT)の精度面の比較を行っていこうと思います。
結論
感情スコアベースの比較では、作成したモデルは既存のモデルより、高い正答率となり、誤差も小さかった。
BERTを用いた際の誤差は0.4051273187220645
BERTを用いた際の正答率は66.17647058823523%
LUKEを用いた際の誤差はtensor(0.2993, grad_fn=<AddBackward0>)
LUKEを用いた際の正答率は73.5294117647058%
作成した感情分析モデルを使用してみたいという方は下記の記事から使用してみてください。初心者でも簡単に使用できるようになっています。
LUKE
2020年4月当時、5つのタスクで世界最高精度を達成した新しい言語モデル。
日本語バージョンのLUKEは執筆現在(2022年12月)も4つのタスクで最高スコアを有しています。RoBERTaを元として構成され、entity-aware self-attentionという独自のメカニズムを用いています。LUKEに関して詳しくは下記記事をご覧ください。
比較手法
下記のコードと文章群を用いて、それぞれのモデルについて正答率と誤差を算出しました。
analysis.py
import torch
from transformers import MLukeTokenizer
from torch import nn
import re
from transformers import pipeline, AutoModelForSequenceClassification, BertJapaneseTokenizer
with open('Sentiment_accuracy_analysis2.txt', encoding = 'utf-8') as file:
text_pre = file.read()
text = re.split('\n| ', text_pre)
model_bert = AutoModelForSequenceClassification.from_pretrained('daigo/bert-base-japanese-sentiment')
tokenizer_bert = BertJapaneseTokenizer.from_pretrained('cl-tohoku/bert-base-japanese-whole-word-masking')
nlp = pipeline("sentiment-analysis",model=model_bert,tokenizer=tokenizer_bert)
num_bert = 0
num_luke = 0
acc_bert = 0
acc_luke = 0
for i in range(len(text)//2):
result=nlp(text[2*i])
num=re.findall(r'\d+',str(result))
num0='0.'+num[1]
value=float(num0)
teacher = float(text[2*i+1])
if value>0.95 and teacher>0.5:
acc_bert += 2/(len(text))
elif value <0.95 and teacher <0.5:
acc_bert += 2/(len(text))
num_bert+=(teacher - value)**2/(len(text)//2)
print('BERTを用いた際の誤差は' + str(num_bert))
print('BERTを用いた際の正答率は' + str(acc_bert*100) + '%')
tokenizer = MLukeTokenizer.from_pretrained('studio-ousia/luke-japanese-base-lite')
model = torch.load('My_luke_model_pn.pth')
for i in range(len(text)//2):
encoded_dict = tokenizer.encode_plus(
text[2*i],
return_attention_mask = True, # Attention maksの作成
return_tensors = 'pt', # Pytorch tensorsで返す
)
pre = model(encoded_dict['input_ids'], token_type_ids=None, attention_mask=encoded_dict['attention_mask'])
SOFTMAX=nn.Softmax(dim=0)
num=SOFTMAX(pre.logits[0])
teacher = float(text[2*i+1])
if num[1] < 0.95 and teacher < 0.5:
acc_luke += 2/(len(text))
elif num[1] > 0.95 and teacher > 0.5:
acc_luke += 2/(len(text))
num_luke += (num[1] - teacher)**2/(len(text)//2)
print('LUKEを用いた際の誤差は' + str(num_luke))
print('LUKEを用いた際の正答率は' + str(acc_luke*100) + '%')
分析に用いた文章群
今日は楽しかった 1 おいしいスイーツを食べられて幸せだった 1 美玲さんの歌声は最高だ 1 なんか今日は調子が良い 1 この商品は使い心地がいい 1 お姉さんは優しい 1 あの人はハンサムだ 1 この紅茶は香りが上品だ 1 このクリームを使ってから肌がいい感じだ 1 この本はとても役に立った 1 学校で褒められてうれしかった 1 私は優香ちゃんのことが好きだ 1 先生は優しくて好きだ 1 この前のライブは最高だった 1 プレゼントをもらえてうれしかった 1 四つ葉のクローバーが見つかって幸せな気持ちになった 1 このクッキーはとてもおいしい 1 家でまったり過ごすのも悪くない 1 彼女は怒らないので好きだ 1 このピーマンは苦くないので、食べられる 1 サッカーをするのは楽しい 1 このはさみは様々な機能があって役に立つ 1 優しいあなたが好き 1 この商品は状態が良い 1 梱包も丁寧で素晴らしい 1 昨日家に来た人は感じが良かった 1 今日は遊園地に行って楽しかった 1 このコードは読みやすい 1 この講義は内容がわかりやすい 1 あなたのことを一生愛し続けると誓う 1 寝顔さえも愛おしい 1 この香りは好ましい 1 剣道の試合はやっぱり楽しい 1 お母さんに褒められてうれしかった 1 今日は雨が降って気分も落ち込む 0 テストで赤点をとってへこんだ 0 お母さんに怒られて最悪だった 0 すぐ壊れるなんてありえない 0 この芳香剤はにおいがきつくて苦手だ 0 図書館にいったのに騒がしい人がいて嫌だった 0 昨日部活で突き指をしてしまって痛かった 0 スマホを落とした時、画面が割れてしまった 0 いつも怒ってばかりいる人は嫌いだ 0 お菓子を食べようと思ったら鳥に取られてしまった 0 イメージと全く違う商品が届いて怒りしかない 0 お正月に食べ過ぎて太ってしまった 0 本音が言えなくて苦しい 0 今日友達と喧嘩をしてしまい最悪だった 0 単身赴任で寂しい 0 新しい学校で友達ができなくてつらい 0 思いっきり転んでしまってけがをしてしまった 0 こんなプレゼントは全く嬉しくない 0 こんな些細なミスでチャンスを台無しにしてしまうなんて笑えない 0 この競技は全く楽しくない 0 子供が独り立ちして寂しくなる 0 この紅茶は苦くて苦手だ 0 あの芸人は不細工だ 0 あの人の話し方は下品だ 0 こんなに努力してるのに評価されないのは不満だ 0 負けたのに負けを認めないのは醜い 0 テントが簡素すぎてひいた 0 財布を落としてしまうなんて最悪だ 0 命乞いをするなんて美しくない 0 声が小さい人をみるといらだつ 0 相手が格下だと思ってあなどる 0 おばあちゃんが亡くなった 0 最後の最後に負けてしまうなんて最悪だ 0 いかがわしいコンテンツが表示された 0終わりに
今回作成したモデルは既存モデルより若干精度が良かったとはいえ、遠回しな言い回しなどに関してはまだ正確に判定できない部分もあります。
今後より精度の高いモデルを構築できるように微調整をしていこうと思います。
では、ばいにゃん~。
参考
著者である山田先生には感謝いたします