はじめに
私が自然言語処理を勉強するときによくみるサイトをまとめておきたかったので書いたメモです。
最新論文
arXivTimes/arXivTimes: repository to research & share the machine learning articles
https://github.com/arXivTimes/arXivTimes
AI分野の論文の概要一覧。NLP以外もあり。日本語なのが非常にありがたい。
GLUE Benchmark
https://gluebenchmark.com/leaderboard
言わずと知れたベンチマークのランキング。
thunlp/PLMpapers: Must-read Papers on pre-trained language models.
https://github.com/thunlp/PLMpapers
BERT以降のNLPモデルの論文リンク一覧。BERTの改良の歴史をまとめた画像もある。
AI-SCHOLAR
https://ai-scholar.tech/
新しいモデルや技術を日本語で解説してくれている。
事前学習言語モデルの動向 / Survey of Pretrained Language Models - Speaker Deck
https://speakerdeck.com/kyoun/survey-of-pretrained-language-models
BERT以降のモデルのまとめ。
実装・原理理解
Out-of-the-box
https://yag-ays.github.io/
BERTでの文書ベクトル生成のコードなど、他にない情報あり。
ディープラーニングブログ
http://deeplearning.hatenablog.com/
主に論文の解説記事。わかりやすい。
lib-arts’s diary
https://lib-arts.hatenablog.com/
最新の自然言語処理の論文解説他。
星の本棚
http://yagami12.hatenablog.com/
自然言語処理(やディープラーニング)を一から解説。
はじめての自然言語処理 | オブジェクトの広場
https://www.ogis-ri.co.jp/otc/hiroba/technical/similar-document-search/
BERTやGiNZAなどの概要から使ってみるとことまで。
日本語コーパス
調べてもそんなに出てこないものを中心に。
名大会話コーパス
雑談対話コーパス
大学入試サブタスク
学習済みモデル
調べてもそんなに出てこないものを中心に。
HR領域の単語ベクトル
おわりに
随時追加していきます。