#菜鸟深学的逆袭旅行#day10 +ストリップ関数分析

1. Pythonでのファイルの読み取り(open/文件操作):

f=open('/tmp/hello','w')
#open(路径+文件名,读写模式)

ファイルを開く方法:
handle = open(file_name、access_mode = 'r')
file_name変数には、開くファイルの文字列名が含まれます。access_modeの「r」は読み取り、「w」は書き込み、「a」は追加など access_modeが指定されていない場合、デフォルトは「r」です。open
()が成功した場合、ファイルオブジェクトハンドルが返されます。

	我们谈到"文本处理"时,我们通常指处理的内容。python将文本文件的内容读入可以操作的字符串变量非常容易。文件对象提供了三个'读'方法:.read()、.readline()、.readlines()。每种方法可以接受一个变量以限制每次读取的数据量,但它们通常不使用变量。.read()每次读取整个文件,它通常用域将文件内容放到一个字符串变量中。然而,.read()生成文件内容最直接的字符串表示,但对于连续的面向行的处理,它却是不必要的,并且如果文件大于可用内存,则不可能实现这种处理。
	.readline() 和 .readlines() 非常相似。它们都在类似于以下的结构中使用:
fh = open('c:\\autoexec.bat')
for  line in  fh.readlines(): 
	print(line)

.readline()と.readlines()の違いは、後者は.read()と同様にファイル全体を一度に読み取ることです。.readlines()は、ファイルの内容を行のリストに自動的に解析します。これは、Pythonのfor ... in ...構造で処理できます。一方、.readline()は一度に1行だけを読み取るため、通常、.readlines()よりもはるかに低速です。.Readline()は、ファイル全体を一度に読み取るのに十分なメモリがない場合にのみ使用してください。

元のテキストは以下から複製されます:https://www.cnblogs.com/ghsme/p/3281169.html

2.#numpy.random.choice(a、size = None、replace = True、p = None)
#aからランダムに数値を抽出し(ndarrayであるが、1次元である必要があります)、指定されたサイズを形成します(サイズ)配列
#replace:Trueは同じ数を取得できることを意味し、Falseは同じ数を取得できないことを意味します
#配列p:配列aに対応し、配列aの各要素を取得する確率を意味します。デフォルトは各要素を選択する確率です同じです。
それは確かに確率に従って選択されます。
元の参照:
https : //blog.csdn.net/ImwaterP/article/details/96282230

3. python strip()方法
python strip()関数を使用して、指定した文字(デフォルトのスペースまたは改行)または文字列の最初と最後の文字シーケンスを削除します。
注:この方法では、最初または最後の文字のみを削除でき、中央の文字は削除できません。

str1 = '00000003210Runoob01230000000'
print(str1.strip('0')) # 去除首尾字符 0

str2 = '   Runoob      '
print(str2.strip())  # 去除首尾空格

# ---- outputs ----
# 3210Runoob0123
# Runoob

4. np.random.shuffle(X)使用方法
シーケンス(リスト)Xをその場で変更し、その内容を変更します。(類似のシャッフル、シャッフル順序)

x = np.arange(10)
print(x)
np.random.shuffle(x)
print(x)

# ---- output ----
# [0 1 2 3 4 5 6 7 8 9]
# [2 1 8 4 3 5 0 9 7 6]

5.コールバック関数コールバック
関数は、トレーニングの特定の段階で呼び出される関数のセットであり、コールバック関数を使用して、トレーニングプロセス中にネットワークの内部状態と統計を観察できます。モデルの.fit()にコールバック関数のリストを渡すことにより、関数セットの関数を特定のトレーニング段階で呼び出すことができます。

6.LSTMレイヤー

keras.layers.recurrent.LSTM(units, activation='tanh', recurrent_activation='hard_sigmoid', use_bias=True, kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal', bias_initializer='zeros', unit_forget_bias=True, kernel_regularizer=None, recurrent_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, recurrent_constraint=None, bias_constraint=None, dropout=0.0, recurrent_dropout=0.0)

7. Lambdaレイヤー

x = Lambda(lambda x:X[:,t,:])(X)
#相当于对后面的张量X执行函数,并返回之后的张量。
#eg:model.add(Lambda(lambda x: x ** 2))

8. LSTMレイヤーのreturn_state:
return_state:デフォルトはfalse。trueの場合、最後のレイヤーの最後のステップの出力非表示状態と入力ユニット状態を返します。

元の記事を31件公開しました 賞賛されました0 アクセス数674

おすすめ

転載: blog.csdn.net/ballzy/article/details/105635774