普惠AI时代,抓住机遇奋力一搏

版权声明:本文为博主编写文章,未经博主允许转载,转载请注明出处。 https://blog.csdn.net/u012373815/article/details/82763807

现在大家都在讨论AI,就如同当年互联网浪潮前夜一般。但不同的是,互联网浪潮来临之前,很多人看不清互联网是什么,它能干什么,所以很少有人会冒险的去尝鲜。但在当下,AI技术并未成熟,AI时代也并未真正到来,已经有很多厂商和企业都在讨论如何利用AI技术赋能行业,如同我一般的开发者,也开始大胆的尝试各种AI开发技术,希望可以在“前夜”占得一席先机。

但很显然,对于我们真真正正做开发的人来说,现在可以为我们提供AI开发技术和能力的平台并不多,大部分云服务商还是更加注重云基础架构的应用与服务升级。我认为,在现在这个云和AI的过度时期,AI能力不足的云服务厂商还有一席喘息之地,还有一些生存空间。但是一旦普惠AI时代到来,即AI成为一种通用技术,随时可调用,开箱即用,简单便宜之后,AI能力不足的云服务商必定将会毫无生存空间。所以如果不重视AI能力的提升,那么必然难以立足于将来的云服务市场。

现在市场上有很多云服务商预见到了普惠AI时代的到来,国外Google推出了TensorFlow,即 An open-source software library for Machine Intelligence,一个开源的机器学习库,目前是最流行的人工智能的算法引擎,提供了深度学习的基本元素的实现。国内百度推出了PaddlePaddle,它的设计和定位比较集中在“易用、高效、灵活、可扩展”上,对很多算法进行了完整的封装,包括阅读理解、自动问答、图像分类、目标检测、场景文字识别、语音识别等多个技术领域人工智能的通用解决方案。当然市场上,还有一些流行框架,比如Theano, Torch, Caffe等等,深受开发者们欢迎。

但我认为,无论是TensoFlow还是PaddlePaddle,它们都没解决孤点式开发问题,现在我们还只能是写代码在一个平台,测试在另一个平台,部署又放在其他终端,是否有一个厂商可以将这些点串联起来,从云、边、端统一完成所有步骤,让开发变得真正简单易用,那将是我们最期待的。据说华为将在10月全联接大会上,发布一个全栈全场景的AI开发框架,希望可以尽快体验到。

那么接下来,我给大家分享一个我用TensorFlow做的实操,希望对大家有所帮助。

逻辑:

  1. 我从网上下载了十几张猫和狗的图片,用于检验我们训练好的模型。
  2. 处理我们下载的图片
  3. 加载模型
  4. 将图片输入模型进行检验

代码如下:

#coding=utf-8  
import tensorflow as tf 
from PIL import Image  
import matplotlib.pyplot as plt
import input_data 
import numpy as np
import model
import os 
  
#从指定目录中选取一张图片 
def get_one_image(train): 
    files = os.listdir(train)
    n = len(files)
    ind = np.random.randint(0,n)
    img_dir = os.path.join(train,files[ind])  
    image = Image.open(img_dir)  
    plt.imshow(image)
    plt.show()
    image = image.resize([208, 208])  
    image = np.array(image)
    return image  
  
  
def evaluate_one_image():  
	#存放的是我从百度下载的猫狗图片路径
    train = '/Users/yangyibo/GitWork/pythonLean/AI/猫狗识别/testImg/' 
    image_array = get_one_image(train)  
      
    with tf.Graph().as_default():  
        BATCH_SIZE = 1  # 因为只读取一副图片 所以batch 设置为1
        N_CLASSES = 2  # 2个输出神经元,[1,0] 或者 [0,1]猫和狗的概率
        # 转化图片格式
        image = tf.cast(image_array, tf.float32)  
        # 图片标准化
        image = tf.image.per_image_standardization(image)
        # 图片原来是三维的 [208, 208, 3] 重新定义图片形状 改为一个4D  四维的 tensor
        image = tf.reshape(image, [1, 208, 208, 3])  
        logit = model.inference(image, BATCH_SIZE, N_CLASSES)  
        # 因为 inference 的返回没有用激活函数,所以在这里对结果用softmax 激活
        logit = tf.nn.softmax(logit)  
        
        # 用最原始的输入数据的方式向模型输入数据 placeholder
        x = tf.placeholder(tf.float32, shape=[208, 208, 3])  
        
        # 我门存放模型的路径
        logs_train_dir = '/Users/yangyibo/GitWork/pythonLean/AI/猫狗识别/saveNet/'   
        # 定义saver 
        saver = tf.train.Saver()  
          
        with tf.Session() as sess:  
              
            print("从指定的路径中加载模型。。。。")
            # 将模型加载到sess 中 
            ckpt = tf.train.get_checkpoint_state(logs_train_dir)  
            if ckpt and ckpt.model_checkpoint_path:  
                global_step = ckpt.model_checkpoint_path.split('/')[-1].split('-')[-1]  
                saver.restore(sess, ckpt.model_checkpoint_path)  
                print('模型加载成功, 训练的步数为 %s' % global_step)  
            else:  
                print('模型加载失败,,,文件没有找到')  
            # 将图片输入到模型计算
            prediction = sess.run(logit, feed_dict={x: image_array})
            # 获取输出结果中最大概率的索引
            max_index = np.argmax(prediction)  
            if max_index==0:  
                print('猫的概率 %.6f' %prediction[:, 0])  
            else:  
                print('狗的概率 %.6f' %prediction[:, 1]) 
# 测试
evaluate_one_image()

/Users/yangyibo/GitWork/pythonLean/AI/猫狗识别/testImg/ 存放的是我从百度下载的猫狗图片
这里写图片描述

执行结果:
因为从testimg 中选取图片是随机的,所以每次执行的结果不同

从指定的路径中加载模型。。。。
模型加载成功, 训练的步数为 11999
狗的概率 0.964047
[Finished in 6.8s]

代码地址:https://github.com/527515025/My-TensorFlow-tutorials/blob/master/猫狗识别/evaluateCatOrDog.py

欢迎star。

猜你喜欢

转载自blog.csdn.net/u012373815/article/details/82763807