caffe里面,原来以为是不可以随便调整学习率的,现在看来是可以的.base_lr是适用于所有层的学习率,而针对单个层,可以通过增加两个blobs_lr,用来调整该层的学习率,为什么是两个呢,因为一个调整weight的学习率,一个是调整偏执b的学习率.那么该层的学习率就变成了,base_lr*blobs_lr,base_lr*blobs_lr了.太赞了,caffe的功能真的很强大,加强学习. 今天看了caffe的很多新功能,其实是之前就有的,只是一直不怎么熟悉而已.把VGG16层的配置文件详细读…