002649:全局异常处理实现
一、背景 1、共有的操作应该抽离到框架级别,如exception处理,日志打印 2、这样可以屏蔽因不同人的使用习惯而导致的try_catch混乱,同时也可以简化代码的结构,使可读性提高。 3、现在的后台框架中无聊异常与否对前端的返回结构都是相同的(一般都是actionResult(是否成功,异常码,异常信息,返回对象),这也给异常处理抽离框架级别提供了前提。 二、问题分析 1、首先,这要求所有异常的返回的结果结构都是一致的。 a、一般,待处理的异常大致分两种:
Python 函数装饰器和闭包
参考博客: https://www.cnblogs.com/Lin-Yi/p/7306235.html 函数装饰器用于在源码中标记函数, 以某种方式增强函数的行为。 装饰器会在加载模块时直接运行。 装饰器是可调用的对象, 其参数是被装饰的函数。 但装饰器通常会把函数替换位另一个函数 实现一个简单的装饰器: def decorate(func): def inner(): print("我是装饰器") func() return inner @d
学习 React 前你需要知道些什么
如果你正在看这篇文章,你很可能已经知道 React 是啥了。React 的学习曲线陡峭是众所周知的,很多人在开始学习 React 时都一头雾水,笔者自然也不例外。究其原因,是因为我们在学习 React 的时候,要学的并不仅仅只是 React 这个库本身。Rea
python3 break/continue/pass/exit()的作用
break ------'退出当前循坏' continue ------'跳出当前循环,开启下一次循环' pass ------'不执行任何操作,只起到占位作用' exit() ------'退出整个程序运行'
tensorflow之reshape
reshape可以对shape进行重新分配 示例:
a_array=tf.constant([[[1,2,3], [4,5,6]], [[1,1,1], [1,1,1]]])
print(a_array)
print(tf.reshape(a_array,[2,6])) 输出:
tensorflow之dropout
转自: https://blog.csdn.net/yangfengling1023/article/details/82911306 tf.nn.dropout()是tensorflow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层 Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了 tf.
tensorflow之tfrecord
转自下面的 https://blog.csdn.net/happyhorizion/article/details/77894055 https://blog.csdn.net/sinat_29957455/article/details/83316173 tfrecord数据文件是一种将图像数据和标签统一存储的二进制文件,能更好的利用内存,在tensorflow中快速的复制,移动,读取,存储等。 把样本写入tfrecord示例
tfrecords_filename = './train.t
理解saltstack 里cmd.run 配合onlyif和unless使用
自己琢磨的好几天就是光看资料,还是没琢磨明白,建议大家一定要亲自动手在机器上测试下。我们以saltstack管理tomcat启动与重启为例子:master主机上目录结构如下[root@sylsalt]#pwd/srv/salt[root@sylsalt]#tree.├──app│├──files││└──server.xml│└──tomcat.sls└──prod├──services└──st
Centos7安装vlc
安装epel 卸载原先安装的epel yum remove epel-release.noarch 如下图: 安装最新版: sudo yum localinstall --nogpgcheck https://mirrors.tuna.tsinghua.edu.cn/epel//7/x86_64/Packages/e/epel-release-7-11.noarch.rpm 如下: 安装nux-dextop sudo yum localinstall --nogpgcheck http://l
python之os.path.join
os.path.join()函数用于路径拼接文件路径。 os.path.join()函数中可以传入多个路径:
dataset_dir_path = "D:/dataset/kaggle/cat_or_dog/train"
print("1:",os.path.join('aaaa','/bbbb','ccccc.txt'))
print("2:",os.path.join('/aaaa','/bbbb','/ccccc.txt'))
print("3:",os.path.join('aaaa
python之os.listdir
返回指定路径下的文件和文件夹列表
path = "C:/Users/shenwei/Desktop"
for filename in os.listdir(path):
print(filename) 输出: 有一个很奇怪的事情: 如果这么写,直接报错:
path = "C:\Users\shenwei\Desktop"
for filename in os.listdir(path):
print(filename) 错误如下: 换成两个\\又正确了
path = "C
python之random.shuffle
random.shuffle 可以打乱一个list的顺序 例如:
alist = [1,2,3,4,5,6,7,8,9]
np.random.shuffle(alist)
print(alist) 输出:
tensorflow之读取jpg图像长和宽
有时需要读取jpg图像的长和宽,tensorflow提供了很好的支持 直接上示例
decode_jpeg_data = tf.placeholder(dtype=tf.string)
decode_jpeg = tf.image.decode_jpeg(decode_jpeg_data, channels=3)
image_data = tf.gfile.FastGFile("C:/Users/shenwei/Desktop/timg.jpg", 'rb').read()
print(le
tensorflow之读取jpg图像保存为tfrecord再读取
有了jpg读取的经验和tfrecord写入的经验之后,开始尝试把jpg图像写入到tfrecord,另外还想尝试从tfrecord文件读出jpg图像 上示例把jpg的图片的二进制以及长和宽的信息保存进tfrecord
decode_jpeg_data = tf.placeholder(dtype=tf.string)
decode_jpeg = tf.image.decode_jpeg(decode_jpeg_data, channels=3)
tfrecords_filename = '.
周排行