0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

「生成AIを用いて論文を読んでみた」シリーズ - まとめページ

Last updated at Posted at 2025-04-12

これまで、ChatGPTを使って機械学習の論文を把握しようとして来た試みの中で、多数Qiitaに投稿して来た「生成AIを用いて論文を読んでみた」記事のまとめページを作りました。

内訳: (計54記事、論文39件)

  • 画像の分類系: CNN系 / Vision Transformer系 / ImageNetでSoTA / 物体検出系、
  • VAE系、画像の生成系、
  • Transformer・言語モデル系、
  • 学習方法、
  • 自動運転系

以降で、分野・種類毎に分けて、一覧で記載します。

画像の分類系

画像の分類系: CNN系 / Vision Transformer系 / ImageNetでSoTA / 物体検出系

CNN系

主な手法名: ResNet-ResNeXt, SE block, EfficientNet v1-2, ConvNets

2024/08/29
https://qiita.com/dl_from_scratch/items/910727ec6bb49dc98b5d
生成AIを用いてResNetの論文「Deep Residual Learning for Image Recognition (2015)」を読んでみた

2024/08/30
https://qiita.com/dl_from_scratch/items/7b0bc87923c675b396ed
生成AIを用いてResNeXtの論文「Aggregated Residual Transformations for Deep Neural Networks (2016)」を読んでみた

2024/08/22
https://qiita.com/dl_from_scratch/items/cf5bb954396595c4a340
生成AIを用いてSE blockの論文「Squeeze-and-Excitation Networks (2017)」を読んでみた

2024/08/25
https://qiita.com/dl_from_scratch/items/926e1ea330a994b1491f
生成AIを用いてEfficientNetの論文「EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (2019)」を読んでみた

2024/08/26
https://qiita.com/dl_from_scratch/items/0d2881b54668c2175680
生成AIを用いてEfficientNetV2の論文「EfficientNetV2: Smaller Models and Faster Training (2021)」を読んでみた

2024/09/30
https://qiita.com/dl_from_scratch/items/62134ea6fa7ee8e4e875
生成AIを用いてConv vs ViTの論文「ConvNets Match Vision Transformers at Scale (2023)」を読んでみた

Vision Transformer系

主な手法名: ViT, MLP-Mixer, PoolFormer

2024/09/10
https://qiita.com/dl_from_scratch/items/51eba3730c53403c4fd0
生成AIを用いてVision Transformerの論文「An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale (2020)」を読んでみた

2024/09/11
https://qiita.com/dl_from_scratch/items/293b7ace8a4107ed1bb4
生成AIを用いてVision Transformerの論文「An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale (2020)」を読んでみた (続き)

2024/09/18
https://qiita.com/dl_from_scratch/items/a098e2f3edc908867537
生成AIを用いてMLP-Mixerの論文「MLP-Mixer: An all-MLP Architecture for Vision (2021)」を読んでみた

2024/09/19
https://qiita.com/dl_from_scratch/items/27f84b8c17b6fd145e03
生成AIを用いてPoolFormerの論文「MetaFormer Is Actually What You Need for Vision (2021)」を読んでみた

ImageNetでSoTAのもの

主な手法名: OmniVec, CoCa, CoAtNet, MPL, Noisy Student

2024/09/17
https://qiita.com/dl_from_scratch/items/2c2f1ebb65c1319d7138
生成AIを用いて2019年ImageNetでSoTAの論文「Self-training with Noisy Student improves ImageNet classification (2019)」を読んでみた

2024/09/15
https://qiita.com/dl_from_scratch/items/186c4335fc3bc8afea6e
生成AIを用いて2020年ImageNetでSoTAの論文「Meta Pseudo Labels (2020)」を読んでみた

2024/09/16
https://qiita.com/dl_from_scratch/items/320f0b2a107535edb3cb
生成AIを用いて2020年ImageNetでSoTAの論文「Meta Pseudo Labels (2020)」を読んでみた (続き)

2024/09/13
https://qiita.com/dl_from_scratch/items/8d195b6612bf34625f18
生成AIを用いて2021年ImageNetでSoTAの論文「CoAtNet: Marrying Convolution and Attention for All Data Sizes (2021)」を読んでみた

2024/09/13
https://qiita.com/dl_from_scratch/items/7203c4e22f4e2a8843d6
生成AIを用いて2022年ImageNetでSoTAの論文「CoCa: Contrastive Captioners are Image-Text Foundation Models (2022)」を読んでみた

2024/09/12
https://qiita.com/dl_from_scratch/items/daef4f0c780e96739226
生成AIを用いて2023年ImageNetでSoTAの論文「OmniVec: Learning robust representations with cross modal sharing (2023)」を読んでみた

物体検出系

主な手法名: YOLO v1-3 (YOLO系のみ)

2024/08/27
https://qiita.com/dl_from_scratch/items/9ab1877b96943a106576
生成AIを用いてYOLOの論文「You Only Look Once: Unified, Real-Time Object Detection (2015)」を読んでみた

2024/08/28
https://qiita.com/dl_from_scratch/items/dab451ec65a17472aeec
生成AIを用いてYOLO v2の論文「YOLO9000: Better, Faster, Stronger (2016)」を読んでみた

2024/08/28
https://qiita.com/dl_from_scratch/items/18be75dad0ca3b6d2190
生成AIを用いてYOLO v3の論文「YOLOv3: An Incremental Improvement (2018)」を読んでみた

VAE系

主な手法名: VAE & tut, CVAE, VQ-VAE, VQ-VAE2

2024/10/01
https://qiita.com/dl_from_scratch/items/03fcb6242079501c6919
生成AIを用いてVAEの論文「Auto-Encoding Variational Bayes (2013)」を読んでみた

2024/10/02
https://qiita.com/dl_from_scratch/items/2ac8855c84eba9586842
生成AIを用いてVAEの論文「Auto-Encoding Variational Bayes (2013)」を読んでみた (続き)

2024/10/03
https://qiita.com/dl_from_scratch/items/037f5adde2af7a3a6a32
生成AIを用いてVAEのチュートリアル論文「Tutorial on Variational Autoencoders (2016)」を読んでみた

2024/10/08
https://qiita.com/dl_from_scratch/items/3a734d152a80d4ecd3be
生成AIを用いてConditional VAEの論文「Semi-Supervised Learning with Deep Generative Models (2014)」を読んでみた

2024/10/04
https://qiita.com/dl_from_scratch/items/51fdd02775b7234b7aa4
生成AIを用いてVQ-VAEの論文「Neural Discrete Representation Learning (2017)」を読んでみた

2024/10/05
https://qiita.com/dl_from_scratch/items/3e118869f674ea10b16c
生成AIを用いてVQ-VAE2の論文「Generating Diverse High-Fidelity Images with VQ-VAE-2 (2019)」を読んでみた

画像の生成系

主な手法名: DALL-E, Stable Diffusion (Diffusion系のみ)

2024/10/09
https://qiita.com/dl_from_scratch/items/176c43084e7f04c6b1b8
生成AIを用いてDALL-Eの論文「Zero-Shot Text-to-Image Generation (2021)」を読んでみた

2024/10/11
https://qiita.com/dl_from_scratch/items/e9e937a52ffe68203a5d
生成AIを用いてDALL-Eの論文「Zero-Shot Text-to-Image Generation (2021)」を読んでみた (続き)

2024/09/01
https://qiita.com/dl_from_scratch/items/079d58a38b470a4440f1
生成AIを用いてStable Diffusionの論文「High-Resolution Image Synthesis with Latent Diffusion Models (2021)」を読んでみた

2024/09/09
https://qiita.com/dl_from_scratch/items/612155295da57453b822
生成AIを用いてStable Diffusionの論文「High-Resolution Image Synthesis with Latent Diffusion Models (2021)」を読んでみた (続き)

言語モデル系

Transformer / GPT系 / スケール則

Transformer

主な手法名: Transformer, Sparse Transformer

2024/08/24
https://qiita.com/dl_from_scratch/items/3d6ba5ef4d627e6c36cd
生成AIを用いてTransformerの論文「Attention Is All You Need (2017)」を読んでみた

2024/09/28
https://qiita.com/dl_from_scratch/items/3ed12e1245e2d4ceb3a9
生成AIを用いてSparse Transformersの論文「Generating Long Sequences with Sparse Transformers (2019)」を読んでみた

GPT系

主な手法名: GPT, GPT-2, GPT-3, InstructGPT, PPO

2024/09/20
https://qiita.com/dl_from_scratch/items/28fc4ab28c954c8a60d6
生成AIを用いて初代GPTの論文「Improving Language Understanding by Generative Pre-Training (2018)」を読んでみた

2024/09/21
https://qiita.com/dl_from_scratch/items/6d717eeaa41a6ba8540b
生成AIを用いてGPT-2の論文「Language Models are Unsupervised Multitask Learners (2019)」を読んでみた

2024/09/22
https://qiita.com/dl_from_scratch/items/36e5680972f639e69ddb
生成AIを用いてGPT-3の論文「Language Models are Few-Shot Learners (2020)」を読んでみた

2024/09/24
https://qiita.com/dl_from_scratch/items/faf96a34fdeede731afd
生成AIを用いてGPT-3の論文「Language Models are Few-Shot Learners (2020)」を読んでみた (続き)

2024/09/25
https://qiita.com/dl_from_scratch/items/8d7e83fef8b434f404dc
生成AIを用いてInstructGPTの論文「Training language models to follow instructions with human feedback (2022)」を読んでみた

2024/09/25
https://qiita.com/dl_from_scratch/items/8564a54fe5be1883c3a1
生成AIを用いてInstructGPTの論文「Training language models to follow instructions with human feedback (2022)」を読んでみた (続き)

2024/09/27
https://qiita.com/dl_from_scratch/items/686acbb9f07d22e2a882
生成AIを用いてPPOの論文「Proximal Policy Optimization Algorithms (2017)」を読んでみた

スケール則

主な手法名: Scaling Laws (1 & 2 & 3), Chinchilla

2024/10/16
https://qiita.com/dl_from_scratch/items/76c8848dab63f4c2293f
生成AIを用いてScaling Lawsの論文「Scaling Laws for Neural Language Models (2020)」を読んでみた

2024/10/17
https://qiita.com/dl_from_scratch/items/c577e14753c7278f7317
生成AIを用いてScaling Lawsの論文「Scaling Laws for Neural Language Models (2020)」を読んでみた (続き)

2024/10/18
https://qiita.com/dl_from_scratch/items/9884166ce77926512692
生成AIを用いてScaling Lawsの論文「Scaling Laws for Autoregressive Generative Modeling (2020)」を読んでみた

2024/10/19
https://qiita.com/dl_from_scratch/items/10b9bb9ed3603a9f6f39
生成AIを用いてScaling Lawsの論文「Scaling Laws for Autoregressive Generative Modeling (2020)」を読んでみた (続き)

2024/10/22
https://qiita.com/dl_from_scratch/items/1dc93d3e3533f2ae105e
生成AIを用いてScaling Lawsの論文「Scaling Laws for Transfer (2021)」を読んでみた

2024/10/23
https://qiita.com/dl_from_scratch/items/14cb6b03d5b8c8cf363f
生成AIを用いてScaling Lawsの論文「Scaling Laws for Transfer (2021)」を読んでみた (続き)

2024/10/24
https://qiita.com/dl_from_scratch/items/1b44b9144bc160415149
生成AIを用いてScaling Laws (Chinchilla)の論文「Training Compute-Optimal Large Language Models (2022)」を読んでみた

2024/11/30
https://qiita.com/dl_from_scratch/items/23120b1a975df36ef0f9
生成AIを用いてScaling Laws (Chinchilla)の論文「Training Compute-Optimal Large Language Models (2022)」を読んでみた (続き)

学習方法

主な手法名: Contrastive

2024/10/12
https://qiita.com/dl_from_scratch/items/51dc9a6416535c43f1d7
生成AIを用いてContrastive Learningの論文「A Survey on Contrastive Self-supervised Learning (2020)」を読んでみた

自動運転系

主な手法名: TransFuser++, Think2Drive, Bench2Drive

2024/12/01
https://qiita.com/dl_from_scratch/items/eb8429abb6258b841f87
生成AIを用いて自動運転(TransFuser++)の論文「Hidden Biases of End-to-End Driving Models (2023)」を読んでみた

2025/01/19
https://qiita.com/dl_from_scratch/items/79b50d48c792f35436d4
生成AIを用いて自動運転(TransFuser++)の論文「Hidden Biases of End-to-End Driving Models (2023)」を読んでみた (続き)

2025/01/26
https://qiita.com/dl_from_scratch/items/8d4495f7ad880b9153dc
生成AIを用いて自動運転の論文「Think2Drive: Efficient Reinforcement Learning by Thinking in Latent World Model for Quasi-Realistic Autonomous Driving (in CARLA-v2) (2024)」を読んでみた

2025/02/01
https://qiita.com/dl_from_scratch/items/df8fa8a9b7d90d3255f1
生成AIを用いて自動運転の論文「Think2Drive: Efficient Reinforcement Learning by Thinking in Latent World Model for Quasi-Realistic Autonomous Driving (in CARLA-v2) (2024)」を読んでみた (続き)

2025/02/08
https://qiita.com/dl_from_scratch/items/9e71e8c82a1dcc292b01
生成AIを用いて自動運転の論文「Bench2Drive: Towards Multi-Ability Benchmarking of Closed-Loop End-To-End Autonomous Driving (2024)」を読んでみた

2025/03/10
https://qiita.com/dl_from_scratch/items/e6a25b8947a37a3964ba
生成AIを用いて自動運転の論文「Bench2Drive: Towards Multi-Ability Benchmarking of Closed-Loop End-To-End Autonomous Driving (2024)」を読んでみた (続き)

生成AIを用いて記事・論文の内容を把握する試行方法

2024/08/20
https://qiita.com/dl_from_scratch/items/f6e6a27fc4752e28dd5a
生成AIを用いて記事・論文の内容を把握する (番号付き質問でピンポイントに取得・判別)

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?