[Python] caffe.io.load_image与Opencv的imread区别

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/lhanchao/article/details/78527049

今天在写代码的时候遇到一个挺有趣的bug,我也是找了半天才查到资料解决的。


bug描述如下:

用训练好的caffemode做infernece(inference函数代码如下):

#进行预测
def inference(img, transformer, net, labelnames):
    #img = caffe.io.load_image(img_name, True)
    transformed_image = transformer.preprocess('data',img)
    net.blobs['data'].data[...] = transformed_image
    output = net.forward()
    result = output['prob'][0].argmax()
    print result
    print labelnames[result]

由于我写的是一个比较大的程序,前面的得到的图像块,在后面用CNN做识别,所以在inference时直接传的是numpy格式的矩阵,结果发现识别的结果非常差(这应该是不可能的,因为我用的是已经训练好的caffemodel),开始我认为可能是内存中图像的问题,所以我把图像保存下来自己看了一下,发现没任何问题。这就让我抓瞎了= =

我想要不就直接读这些保存下来的图像做识别(修改后的inference代码如下)

#进行预测
def inference(img_name, transformer, net, labelnames):#注意这里修改了
    img = caffe.io.load_image(img_name, True)#注意这里也修改了
    transformed_image = transformer.preprocess('data',img)
    net.blobs['data'].data[...] = transformed_image
    output = net.forward()
    result = output['prob'][0].argmax()
    print result
    print labelnames[result]

结果发现识别结果居然又全对了,这就让我更抓瞎了= =


bug原因及解决办法如下:

后来查到了问题在caffe默认的caffe.io.load_image读取后的图像格式这里,因为我最开始传到inference函数中的numpy图像是0~255范围的,而caffe.io.load_image读取后图像会归一化到0~1之间,所以我直接用caffe.io.load_image做inference是没问题的,但是传0~255范围的numpy矩阵就会出错。所以解决办法是直接在原来的inference函数中加一句

img = img / 255.0
即可。


总结:

需要注意的就是caffe.io.load_image得到的图像是0~1范围的,而我们平时遇到的图像,包括opencv的cv2.imread函数得到都是0~255范围的。(只有这最后一句话才是正题。。)



——————分割线——————

前一阵找工作,忙的不行,现在歇了一个月了,该把博客重新收拾起来了,后续本博客继续更新~

猜你喜欢

转载自blog.csdn.net/lhanchao/article/details/78527049