自分用のメモを兼ねて、Adversarial Attackに関連するリポジトリをまとめてみました。用途に応じてざっくり分類しました。
Library
-
Trusted-AI/adverasarial-robustness-toolbox
- 今回調べた中では最も大規模でドキュメントも充実している印象。
- Evasion, Poisoning, Extraction, Inference attackに対する評価を行うことができる。
-
Harry24k/adversarial-attacks-pytorch
- white-box attackに特化した印象。
-
bethgelab/foolbox
- Pytorch, tensorflow, jaxなど多くのモジュールに対応
-
google-research/robustness_metrics
- 以下の三つの観点からモデルを評価できる。
- out-of-distribution generalization (e.g. a non-expert human would be able to classify similar objects, but possibly changed viewpoint, scene setting or clutter).
- stability (of the prediction and predicted probabilities) under natural perturbation of the input.
- uncertainty (e.g. assessing to which extent the probabilities predicted by a model reflect the true probabilities)
- 以下の三つの観点からモデルを評価できる。
-
BorealisAI/advertorch
- white-box attackに特化した印象。L-BFGSが実装されている。
- robustness-gym/robustness-gym
-
ppwwyyxx/Adversarial-Face-Attack
- 顔認証システムに対する攻撃
-
thunlp/OpenAttack
- 言語モデルに対する攻撃手法が複数実装されている
-
QData/TextAttack
- 言語モデルに対する攻撃・データ水増し手法など
Benchmark
-
Robustbench/robustbench
- モデルのロバスト性を競う大規模なベンチマーク
-
MadryLab/robustness
- 敵対的学習されたモデルに対する攻撃成功率を競うベンチマーク(pre-trainedモデルが入手できる)
-
hendrycks/robustness
- Benchmarking Neural Network Robustness to Common Corruptions and Perturbations
文献まとめ
-
safe-graph/graph-adversarial-learning-literature
- グラフモデルに対する攻撃論文の一覧
-
EdisonLeeeee/Graph-Adversarial-Learning
- グラフモデルに対する敵対的学習
- 300以上の論文
-
nicholas carlini のホームページ
- arxivにある敵対的攻撃関連の論文の完全なリストだそうです。凄まじい。。。