L2-norm 归一化有啥用?最简单的一个范数

哈喽,各位大佬好,我是菜鸟小明哥,范数这个概念在研一学矩阵的时候有接触到,感觉不到有啥特别的地方,今天再次碰面?不知道这是什么安排?

其实说到基本的俩范数:L1,L2范数,就要不可避免的提及测度距离,恰好,这里的L1范数就是曼哈顿距离,而L2范数就是欧氏距离,简单不?具体API如下:

y=np.linalg.norm(x, axis=1, keepdims=True)

如果你不理解,比我还笨的话,我可以说人话【简单的告诉你】,L1范数就是绝对值之和,L2就是平方和的开方。

那么问题来了,L2归一化有啥子用??为啥子不用其他归一化?

本大佬随机产生一个向量,进行了归一化,发现最后的数都是接近于0的,这样有什么神秘作用?

>>> xx=np.random.randn(1500)
>>> xx_2=np.linalg.norm(xx,2)

>>> xx2=xx/xx_2
>>> xx2.min()
-0.09180608843352513
>>> xx2.max()
0.08068981657622099

如果面试的大佬问你:为啥子不用绝对值最大的数进行归一化?为啥不用(0,1)归一化?这些问题根本不需要啥笔试,能把这些细节搞清楚已经很牛逼了。凡是需要笔试刷人的都是懒省事。

emmmm,这个问题一时无解,请大佬帮我看看,多谢。

别笼统的告诉我防止梯度爆炸、消失等啥几把玩意。请给出具体而简单的理解。

另外有相关问题可以加入QQ群讨论,不设微信群

QQ群:868373192 

语音图像视频深度-学习群

发布了194 篇原创文章 · 获赞 175 · 访问量 3万+

猜你喜欢

转载自blog.csdn.net/SPESEG/article/details/103958956