レスネット
https://blog.csdn.net/weixin_43624538/article/details/85049699
CNN
https://my.oschina.net/u/876354/blog/1634322
ヨロV2
https://blog.csdn.net/shanlepu6038/article/details/84778770
https://blog.csdn.net/yanhx1204/article/details/81017134
ヨロV3
http://www.pianshen.com/article/3460315699/
BN
https://www.cnblogs.com/guoyaohua/p/8724433.html
グーグルネット
従来、ディープ ニューラル ネットワークを改善する最も直接的な方法は、幅と深さを含むネットワークのサイズを増やすことです。深さはネットワーク内の層の数を指し、幅は各層で使用されるニューロンの数を指します。ただし、この単純かつ直接的な解決策には2 つの大きな欠点があります。
(1) ネットワーク サイズの増加はパラメータの増加も意味するため、ネットワークがオーバーフィットしやすくなります。
(2)コンピューティングリソースの増加。
著者は、根本的な解決策は、 完全に接続された構造を疎に接続された構造に変換することであると提案しています。
https://blog.csdn.net/weixin_43624538/article/details/84863685
https://www.jianshu.com/p/22e3af789f4e
インセプション v2&v3
https://blog.csdn.net/sunbaigui/article/details/50807418
https://blog.csdn.net/weixin_43624538/article/details/84963116
Inception v1、v2、v3、v4、RexNeXt から Xception、MobileNets、ShuffleNet、MobileNetV2、ShuffleNetV2、MobileNetV3 まで
https://blog.csdn.net/qq_14845119/article/details/73648100
ディープIDシリーズ
https://blog.csdn.net/weixin_42546496/article/details/88537882
中心損失
https://www.aiuai.cn/aifarm102.html
L-ソフトマックス損失
https://blog.csdn.net/u014380165/article/details/76864572
A-ソフトマックス損失
https://blog.csdn.net/weixin_42546496/article/details/88062272 (論文の翻訳)
フェイスネット
https://blog.csdn.net/qq_15192373/article/details/78490726(紙面解説)
https://blog.csdn.net/ppplo_o/article/details/90707295 (紙訳)
アークフェイス/インサイトフェイス
https://blog.csdn.net/weixin_42546496/article/details/88387325
https://blog.csdn.net/hanjiangxue_wei/article/details/86368948 (損失関数コードの説明)