古典的なネットワーク論文へのリンク (継続的に更新~~)

レスネット

https://blog.csdn.net/weixin_43624538/article/details/85049699

CNN

https://my.oschina.net/u/876354/blog/1634322

ヨロV2

https://blog.csdn.net/shanlepu6038/article/details/84778770

https://blog.csdn.net/yanhx1204/article/details/81017134

ヨロV3

http://www.pianshen.com/article/3460315699/

BN

https://www.cnblogs.com/guoyaohua/p/8724433.html

グーグルネット

従来、ディープ ニューラル ネットワークを改善する最も直接的な方法は、幅と深さを含むネットワークのサイズを増やすことです。深さはネットワーク内の層の数を指し、幅は各層で使用されるニューロンの数を指します。ただし、この単純かつ直接的な解決策には2 つの大きな欠点があります。
(1) ネットワーク サイズの増加はパラメータの増加も意味するため、ネットワークがオーバーフィットしやすくなります。
(2)コンピューティングリソースの増加。

著者は、根本的な解決策は、 完全に接続された構造を疎に接続された構造に変換することであると提案しています。

https://blog.csdn.net/weixin_43624538/article/details/84863685

https://www.jianshu.com/p/22e3af789f4e

インセプション v2&v3

https://blog.csdn.net/sunbaigui/article/details/50807418

https://blog.csdn.net/weixin_43624538/article/details/84963116   

Inception v1、v2、v3、v4、RexNeXt から Xception、MobileNets、ShuffleNet、MobileNetV2、ShuffleNetV2、MobileNetV3 まで

https://blog.csdn.net/qq_14845119/article/details/73648100

ディープIDシリーズ

https://blog.csdn.net/weixin_42546496/article/details/88537882

中心損失

https://www.aiuai.cn/aifarm102.html

L-ソフトマックス損失

https://blog.csdn.net/u014380165/article/details/76864572

A-ソフトマックス損失

https://blog.csdn.net/weixin_42546496/article/details/88062272 (論文の翻訳)

フェイスネット

https://blog.csdn.net/qq_15192373/article/details/78490726(紙面解説)

https://blog.csdn.net/ppplo_o/article/details/90707295 (紙訳)

アークフェイス/インサイトフェイス

https://blog.csdn.net/weixin_42546496/article/details/88387325

https://blog.csdn.net/hanjiangxue_wei/article/details/86368948 (損失関数コードの説明)

スクイーズネット

https://blog.csdn.net/csdnldp/article/details/78648543

おすすめ

転載: blog.csdn.net/weixin_42149550/article/details/102732132