#菜鸟深度学习的逆袭之旅#day10 + strip函数解析

1.python中文件的读取(open/文件操作):

f=open('/tmp/hello','w')
#open(路径+文件名,读写模式)

如何打开文件:
handle = open(file_name,access_mode = ‘r’)
file_name变量包含我们希望打开的文件的字符串名称,access_mode中的’r’表示读取,'w’表示写入,‘a’表示添加,etc。如果未提供access_mode,默认为’r’.
如果open()成功,一个文件对象句柄会被返回。

	我们谈到"文本处理"时,我们通常指处理的内容。python将文本文件的内容读入可以操作的字符串变量非常容易。文件对象提供了三个'读'方法:.read()、.readline()、.readlines()。每种方法可以接受一个变量以限制每次读取的数据量,但它们通常不使用变量。.read()每次读取整个文件,它通常用域将文件内容放到一个字符串变量中。然而,.read()生成文件内容最直接的字符串表示,但对于连续的面向行的处理,它却是不必要的,并且如果文件大于可用内存,则不可能实现这种处理。
	.readline() 和 .readlines() 非常相似。它们都在类似于以下的结构中使用:
fh = open('c:\\autoexec.bat')
for  line in  fh.readlines(): 
	print(line)

.readline() 和 .readlines() 之间的差异是后者一次读取整个文件,象 .read() 一样。.readlines() 自动将文件内容分析成一个行的列表,该列表可以由 Python 的 for … in … 结构进行处理。另一方面,.readline() 每次只读取一行,通常比 .readlines() 慢得多。仅当没有足够内存可以一次读取整个文件时,才应该使用 .readline()。

原文转载自:https://www.cnblogs.com/ghsme/p/3281169.html

2.#numpy.random.choice(a, size=None, replace=True, p=None)
#从a(只要是ndarray都可以,但必须是一维的)中随机抽取数字,并组成指定大小(size)的数组
#replace:True表示可以取相同数字,False表示不可以取相同数字
#数组p:与数组a相对应,表示取数组a中每个元素的概率,默认为选取每个元素的概率相同。
这里确实是按照概率选取。
原文参考:
https://blog.csdn.net/ImwaterP/article/details/96282230

3.python strip()方法
python strip()函数用于移除字符串头尾指定的字符(默认为空格或者换行符)或字符序列。
注意:该方法只能删除开头或是结尾的字符,不能删除中间部分的字符。

str1 = '00000003210Runoob01230000000'
print(str1.strip('0')) # 去除首尾字符 0

str2 = '   Runoob      '
print(str2.strip())  # 去除首尾空格

# ---- outputs ----
# 3210Runoob0123
# Runoob

4.np.random.shuffle(X)用法
现场修改序列(列表)X,改变自身内容。(类似洗牌,打乱顺序)

x = np.arange(10)
print(x)
np.random.shuffle(x)
print(x)

# ---- output ----
# [0 1 2 3 4 5 6 7 8 9]
# [2 1 8 4 3 5 0 9 7 6]

5.回调函数callback
回调函数是一组在训练的特定阶段被调用的函数集,你可以使用回调函数来观察训练过程中网络内部的状态和统计信息。通过传递回调函数列表到模型的.fit()中,即可在给定的训练阶段调用该函数集中的函数。

6.LSTM层

keras.layers.recurrent.LSTM(units, activation='tanh', recurrent_activation='hard_sigmoid', use_bias=True, kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal', bias_initializer='zeros', unit_forget_bias=True, kernel_regularizer=None, recurrent_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, recurrent_constraint=None, bias_constraint=None, dropout=0.0, recurrent_dropout=0.0)

7.Lambda

x = Lambda(lambda x:X[:,t,:])(X)
#相当于对后面的张量X执行函数,并返回之后的张量。
#eg:model.add(Lambda(lambda x: x ** 2))

8.LSTM层return_state:
return_state:默认false。当为真时,返回最后一层的最后一个步长的输出隐藏状态和输入单元状态。

扫描二维码关注公众号,回复: 11063237 查看本文章
发布了31 篇原创文章 · 获赞 0 · 访问量 674

猜你喜欢

转载自blog.csdn.net/ballzy/article/details/105635774
今日推荐