本文翻译自文章:Differences between L1 and L2 as Loss Function and Regularization,如有翻译不当之处,欢迎拍砖,谢谢~ 在机器学习实践中,你也许需要在神秘的L1和L2中做出选择.通常的两个决策为:1) L1范数 vs L2范数 的损失函数: 2) L1正则化 vs L2正则化. 作为损失函数 L1范数损失函数,也被称为最小绝对值偏差(LAD),最小绝对值误差(LAE).总的说来,它是把目标值(\(Y_{i}\))与估计值(\…
template <class DataType1, class DataType2>double EuclideanDistance(std::vector<DataType1> &inst1, std::vector<DataType2> &inst2) { if(inst1.size() != inst2.size()) { std::cout<<"the size of the vectors is not the same…
论文Learning Spread-out Local Feature Descriptors 为什么介绍此文:引入了一种正则化手段,结合其他网络的损失函数,尤其是最新cvpr 2018的hardnet(Working hard to know your neighbor’s margins: Local descriptor learning loss),可以达到state-of-the-art.同时本文大量总结性工作也比较好(据以参考下面第3节),所以一同拿来分享,同时参考上一篇阅读也不错.…