これまで、ChatGPTを使って機械学習の論文を把握しようとして来た試みの中で、多数Qiitaに投稿して来た「生成AIを用いて論文を読んでみた」記事のまとめページを作りました。
内訳: (計54記事、論文39件)
- 画像の分類系: CNN系 / Vision Transformer系 / ImageNetでSoTA / 物体検出系、
- VAE系、画像の生成系、
- Transformer・言語モデル系、
- 学習方法、
- 自動運転系
以降で、分野・種類毎に分けて、一覧で記載します。
画像の分類系
画像の分類系: CNN系 / Vision Transformer系 / ImageNetでSoTA / 物体検出系
CNN系
主な手法名: ResNet-ResNeXt, SE block, EfficientNet v1-2, ConvNets
2024/08/29
https://qiita.com/dl_from_scratch/items/910727ec6bb49dc98b5d
生成AIを用いてResNetの論文「Deep Residual Learning for Image Recognition (2015)」を読んでみた
2024/08/30
https://qiita.com/dl_from_scratch/items/7b0bc87923c675b396ed
生成AIを用いてResNeXtの論文「Aggregated Residual Transformations for Deep Neural Networks (2016)」を読んでみた
2024/08/22
https://qiita.com/dl_from_scratch/items/cf5bb954396595c4a340
生成AIを用いてSE blockの論文「Squeeze-and-Excitation Networks (2017)」を読んでみた
2024/08/25
https://qiita.com/dl_from_scratch/items/926e1ea330a994b1491f
生成AIを用いてEfficientNetの論文「EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (2019)」を読んでみた
2024/08/26
https://qiita.com/dl_from_scratch/items/0d2881b54668c2175680
生成AIを用いてEfficientNetV2の論文「EfficientNetV2: Smaller Models and Faster Training (2021)」を読んでみた
2024/09/30
https://qiita.com/dl_from_scratch/items/62134ea6fa7ee8e4e875
生成AIを用いてConv vs ViTの論文「ConvNets Match Vision Transformers at Scale (2023)」を読んでみた
Vision Transformer系
主な手法名: ViT, MLP-Mixer, PoolFormer
2024/09/10
https://qiita.com/dl_from_scratch/items/51eba3730c53403c4fd0
生成AIを用いてVision Transformerの論文「An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale (2020)」を読んでみた
2024/09/11
https://qiita.com/dl_from_scratch/items/293b7ace8a4107ed1bb4
生成AIを用いてVision Transformerの論文「An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale (2020)」を読んでみた (続き)
2024/09/18
https://qiita.com/dl_from_scratch/items/a098e2f3edc908867537
生成AIを用いてMLP-Mixerの論文「MLP-Mixer: An all-MLP Architecture for Vision (2021)」を読んでみた
2024/09/19
https://qiita.com/dl_from_scratch/items/27f84b8c17b6fd145e03
生成AIを用いてPoolFormerの論文「MetaFormer Is Actually What You Need for Vision (2021)」を読んでみた
ImageNetでSoTAのもの
主な手法名: OmniVec, CoCa, CoAtNet, MPL, Noisy Student
2024/09/17
https://qiita.com/dl_from_scratch/items/2c2f1ebb65c1319d7138
生成AIを用いて2019年ImageNetでSoTAの論文「Self-training with Noisy Student improves ImageNet classification (2019)」を読んでみた
2024/09/15
https://qiita.com/dl_from_scratch/items/186c4335fc3bc8afea6e
生成AIを用いて2020年ImageNetでSoTAの論文「Meta Pseudo Labels (2020)」を読んでみた
2024/09/16
https://qiita.com/dl_from_scratch/items/320f0b2a107535edb3cb
生成AIを用いて2020年ImageNetでSoTAの論文「Meta Pseudo Labels (2020)」を読んでみた (続き)
2024/09/13
https://qiita.com/dl_from_scratch/items/8d195b6612bf34625f18
生成AIを用いて2021年ImageNetでSoTAの論文「CoAtNet: Marrying Convolution and Attention for All Data Sizes (2021)」を読んでみた
2024/09/13
https://qiita.com/dl_from_scratch/items/7203c4e22f4e2a8843d6
生成AIを用いて2022年ImageNetでSoTAの論文「CoCa: Contrastive Captioners are Image-Text Foundation Models (2022)」を読んでみた
2024/09/12
https://qiita.com/dl_from_scratch/items/daef4f0c780e96739226
生成AIを用いて2023年ImageNetでSoTAの論文「OmniVec: Learning robust representations with cross modal sharing (2023)」を読んでみた
物体検出系
主な手法名: YOLO v1-3 (YOLO系のみ)
2024/08/27
https://qiita.com/dl_from_scratch/items/9ab1877b96943a106576
生成AIを用いてYOLOの論文「You Only Look Once: Unified, Real-Time Object Detection (2015)」を読んでみた
2024/08/28
https://qiita.com/dl_from_scratch/items/dab451ec65a17472aeec
生成AIを用いてYOLO v2の論文「YOLO9000: Better, Faster, Stronger (2016)」を読んでみた
2024/08/28
https://qiita.com/dl_from_scratch/items/18be75dad0ca3b6d2190
生成AIを用いてYOLO v3の論文「YOLOv3: An Incremental Improvement (2018)」を読んでみた
VAE系
主な手法名: VAE & tut, CVAE, VQ-VAE, VQ-VAE2
2024/10/01
https://qiita.com/dl_from_scratch/items/03fcb6242079501c6919
生成AIを用いてVAEの論文「Auto-Encoding Variational Bayes (2013)」を読んでみた
2024/10/02
https://qiita.com/dl_from_scratch/items/2ac8855c84eba9586842
生成AIを用いてVAEの論文「Auto-Encoding Variational Bayes (2013)」を読んでみた (続き)
2024/10/03
https://qiita.com/dl_from_scratch/items/037f5adde2af7a3a6a32
生成AIを用いてVAEのチュートリアル論文「Tutorial on Variational Autoencoders (2016)」を読んでみた
2024/10/08
https://qiita.com/dl_from_scratch/items/3a734d152a80d4ecd3be
生成AIを用いてConditional VAEの論文「Semi-Supervised Learning with Deep Generative Models (2014)」を読んでみた
2024/10/04
https://qiita.com/dl_from_scratch/items/51fdd02775b7234b7aa4
生成AIを用いてVQ-VAEの論文「Neural Discrete Representation Learning (2017)」を読んでみた
2024/10/05
https://qiita.com/dl_from_scratch/items/3e118869f674ea10b16c
生成AIを用いてVQ-VAE2の論文「Generating Diverse High-Fidelity Images with VQ-VAE-2 (2019)」を読んでみた
画像の生成系
主な手法名: DALL-E, Stable Diffusion (Diffusion系のみ)
2024/10/09
https://qiita.com/dl_from_scratch/items/176c43084e7f04c6b1b8
生成AIを用いてDALL-Eの論文「Zero-Shot Text-to-Image Generation (2021)」を読んでみた
2024/10/11
https://qiita.com/dl_from_scratch/items/e9e937a52ffe68203a5d
生成AIを用いてDALL-Eの論文「Zero-Shot Text-to-Image Generation (2021)」を読んでみた (続き)
2024/09/01
https://qiita.com/dl_from_scratch/items/079d58a38b470a4440f1
生成AIを用いてStable Diffusionの論文「High-Resolution Image Synthesis with Latent Diffusion Models (2021)」を読んでみた
2024/09/09
https://qiita.com/dl_from_scratch/items/612155295da57453b822
生成AIを用いてStable Diffusionの論文「High-Resolution Image Synthesis with Latent Diffusion Models (2021)」を読んでみた (続き)
言語モデル系
Transformer / GPT系 / スケール則
Transformer
主な手法名: Transformer, Sparse Transformer
2024/08/24
https://qiita.com/dl_from_scratch/items/3d6ba5ef4d627e6c36cd
生成AIを用いてTransformerの論文「Attention Is All You Need (2017)」を読んでみた
2024/09/28
https://qiita.com/dl_from_scratch/items/3ed12e1245e2d4ceb3a9
生成AIを用いてSparse Transformersの論文「Generating Long Sequences with Sparse Transformers (2019)」を読んでみた
GPT系
主な手法名: GPT, GPT-2, GPT-3, InstructGPT, PPO
2024/09/20
https://qiita.com/dl_from_scratch/items/28fc4ab28c954c8a60d6
生成AIを用いて初代GPTの論文「Improving Language Understanding by Generative Pre-Training (2018)」を読んでみた
2024/09/21
https://qiita.com/dl_from_scratch/items/6d717eeaa41a6ba8540b
生成AIを用いてGPT-2の論文「Language Models are Unsupervised Multitask Learners (2019)」を読んでみた
2024/09/22
https://qiita.com/dl_from_scratch/items/36e5680972f639e69ddb
生成AIを用いてGPT-3の論文「Language Models are Few-Shot Learners (2020)」を読んでみた
2024/09/24
https://qiita.com/dl_from_scratch/items/faf96a34fdeede731afd
生成AIを用いてGPT-3の論文「Language Models are Few-Shot Learners (2020)」を読んでみた (続き)
2024/09/25
https://qiita.com/dl_from_scratch/items/8d7e83fef8b434f404dc
生成AIを用いてInstructGPTの論文「Training language models to follow instructions with human feedback (2022)」を読んでみた
2024/09/25
https://qiita.com/dl_from_scratch/items/8564a54fe5be1883c3a1
生成AIを用いてInstructGPTの論文「Training language models to follow instructions with human feedback (2022)」を読んでみた (続き)
2024/09/27
https://qiita.com/dl_from_scratch/items/686acbb9f07d22e2a882
生成AIを用いてPPOの論文「Proximal Policy Optimization Algorithms (2017)」を読んでみた
スケール則
主な手法名: Scaling Laws (1 & 2 & 3), Chinchilla
2024/10/16
https://qiita.com/dl_from_scratch/items/76c8848dab63f4c2293f
生成AIを用いてScaling Lawsの論文「Scaling Laws for Neural Language Models (2020)」を読んでみた
2024/10/17
https://qiita.com/dl_from_scratch/items/c577e14753c7278f7317
生成AIを用いてScaling Lawsの論文「Scaling Laws for Neural Language Models (2020)」を読んでみた (続き)
2024/10/18
https://qiita.com/dl_from_scratch/items/9884166ce77926512692
生成AIを用いてScaling Lawsの論文「Scaling Laws for Autoregressive Generative Modeling (2020)」を読んでみた
2024/10/19
https://qiita.com/dl_from_scratch/items/10b9bb9ed3603a9f6f39
生成AIを用いてScaling Lawsの論文「Scaling Laws for Autoregressive Generative Modeling (2020)」を読んでみた (続き)
2024/10/22
https://qiita.com/dl_from_scratch/items/1dc93d3e3533f2ae105e
生成AIを用いてScaling Lawsの論文「Scaling Laws for Transfer (2021)」を読んでみた
2024/10/23
https://qiita.com/dl_from_scratch/items/14cb6b03d5b8c8cf363f
生成AIを用いてScaling Lawsの論文「Scaling Laws for Transfer (2021)」を読んでみた (続き)
2024/10/24
https://qiita.com/dl_from_scratch/items/1b44b9144bc160415149
生成AIを用いてScaling Laws (Chinchilla)の論文「Training Compute-Optimal Large Language Models (2022)」を読んでみた
2024/11/30
https://qiita.com/dl_from_scratch/items/23120b1a975df36ef0f9
生成AIを用いてScaling Laws (Chinchilla)の論文「Training Compute-Optimal Large Language Models (2022)」を読んでみた (続き)
学習方法
主な手法名: Contrastive
2024/10/12
https://qiita.com/dl_from_scratch/items/51dc9a6416535c43f1d7
生成AIを用いてContrastive Learningの論文「A Survey on Contrastive Self-supervised Learning (2020)」を読んでみた
自動運転系
主な手法名: TransFuser++, Think2Drive, Bench2Drive
2024/12/01
https://qiita.com/dl_from_scratch/items/eb8429abb6258b841f87
生成AIを用いて自動運転(TransFuser++)の論文「Hidden Biases of End-to-End Driving Models (2023)」を読んでみた
2025/01/19
https://qiita.com/dl_from_scratch/items/79b50d48c792f35436d4
生成AIを用いて自動運転(TransFuser++)の論文「Hidden Biases of End-to-End Driving Models (2023)」を読んでみた (続き)
2025/01/26
https://qiita.com/dl_from_scratch/items/8d4495f7ad880b9153dc
生成AIを用いて自動運転の論文「Think2Drive: Efficient Reinforcement Learning by Thinking in Latent World Model for Quasi-Realistic Autonomous Driving (in CARLA-v2) (2024)」を読んでみた
2025/02/01
https://qiita.com/dl_from_scratch/items/df8fa8a9b7d90d3255f1
生成AIを用いて自動運転の論文「Think2Drive: Efficient Reinforcement Learning by Thinking in Latent World Model for Quasi-Realistic Autonomous Driving (in CARLA-v2) (2024)」を読んでみた (続き)
2025/02/08
https://qiita.com/dl_from_scratch/items/9e71e8c82a1dcc292b01
生成AIを用いて自動運転の論文「Bench2Drive: Towards Multi-Ability Benchmarking of Closed-Loop End-To-End Autonomous Driving (2024)」を読んでみた
2025/03/10
https://qiita.com/dl_from_scratch/items/e6a25b8947a37a3964ba
生成AIを用いて自動運転の論文「Bench2Drive: Towards Multi-Ability Benchmarking of Closed-Loop End-To-End Autonomous Driving (2024)」を読んでみた (続き)
生成AIを用いて記事・論文の内容を把握する試行方法
2024/08/20
https://qiita.com/dl_from_scratch/items/f6e6a27fc4752e28dd5a
生成AIを用いて記事・論文の内容を把握する (番号付き質問でピンポイントに取得・判別)