そこまで詳しくないのですが、今回はDeepLearningのモデルでSaliencyを測ることで、画像内の人の関心を集めている部分(人の視線が集まるような部分)をトリミングできることを紹介します。
ここでは、すみませんが、こいうことができるよという話が主に中心で、iOSのトリミングのケースでしか紹介しませんが、iOSに限らず他のプラットフォームでも同様なことが可能だと思います。
今までは画像のサムネイル化する際に画像の中心をサムネイル化することが多かったと思いますが、
下記全体の画像内から
人が関心を集めるポイントをDeepLearningのモデルでSaliencyで抽出することで
参考:https://medium.com/better-programming/cropping-areas-of-interest-using-vision-in-ios-e83b5e53440b
画像内で人の関心を集めるであろうポイントを抽出できます。(上記の場合は、何もないところで左端にあるリモコンを抽出できています)
上記の場合はiOS13のVision Frameworkで標準で実装されている機能を使用していますが、どこかで学習されているモデルを手に入れればサーバーにアップロードされた画像のサムネイルを作成する際に、画像内で人の関心を集めるであろうポイントを中心にサムネイル化することもできると思います。
そうすることで、より人が関心を集める箇所をサムネイル化していくことができ、ユーザー体験が向上すると思います。
iOSのVison Frameworkの公式ドキュメントや公式のサンプルは下記に記載されています。
https://developer.apple.com/documentation/vision/cropping_images_using_saliency