#菜鸟深学的逆袭之路#day7

jupyterがファイルをインポートするとき、インポートcnn_utilsを直接使用すると、次のようなパラメーターを使用できません。

import matploblit.pyplot as plt
import cnn_utils
plt.imshow(X_train_orig[index])

X_train_origはcnn_utilsで定義されたパラメーターであり、ここでは直接使用できないため、X_train_origが定義されていないことを示すエラーがここで報告されます。

from cnn_utils import load_dataset
X_train_orig,Y_train_orig,X_test_orig,Y_test_orig,classes = load_dataset()

問題を解決するには。

2. tensorflowがプレースホルダーを作成するときに、特定の次元の数がわからない場合は、特定の値の代わりにNoneを使用できます。
3.tf.get_variable(name、shape、initializer):nameは変数の名前、shapeは変数の次元、initializerは変数の初期化のメソッドです
。initializer= tf.contrib.layers.xavier_initializerの場合
、関数は初期化手順。この初期化子は、各レイヤーのグラデーションサイズをほぼ同じに保つために使用されます。
4. tf.get_variableとtf.variableの違いについては、非常に幅の広い2つのWebサイトがあり、参照することができ
ます
。https://www.cnblogs.com/wf-ml/p/9721027.html https://ブログ.csdn.net / MrR1ght /記事/詳細/ 81228087?depth_1-utm_source = distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-1&utm_source = distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-1
5.tensorflow can直接使用される関数:

tf.nn.conv2d(X,W1,strides=[1,s,s,1],padding='SAME')

入力X XXと一連のフィルターW1 W1W1を指定すると、この関数は自動的にW1 W1W1を使用してX XXをたたみ込みます。3番目の入力パラメーターは** [1、s、s、1] **です。入力(m、n_H_prev、n_W_prev、n_C_prev)の場合、各スライドのステップ。

tf.nn.max_pool(A, ksize = [1,f,f,1], strides = [1,s,s,1], padding = 'SAME')

入力X XXを指定すると、関数はサイズ(f、f)とステップ(s、s)のウィンドウを使用して最大値までスライドします。

tf.nn.relu(Z1) #计算Z1的ReLU激活

tf.contrib.layers.flatten(P)  #给定一个输入P,此函数将会把每个样本转化成一维的向量,然后返回一个tensor变量,其维度为(batch_size,k)

tf.contrib.layers.fully_connected(F, num_outputs)  #给定一个已经一维化了的输入F,此函数将会返回一个由全连接层计算过后的输出。

#使用tf.contrib.layers.fully_connected(F, num_outputs)的时候,全连接层会自动初始化权值且在你训练模型的时候它也会一直参与,所以当我们初始化参数的时候我们不需要专门去初始化它的权值。
tf.nn.softmax_cross_entropy_with_logits(logits = Z3 , lables = Y) #计算softmax的损失函数。这个函数既计算softmax的激活,也计算其损失

tf.reduce_mean #计算的是平均值,使用它来计算所有样本的损失来得到总成本。

6.軸= 0と1の問題に関しては、説明に出会う方が興味深いです。軸= 0は確かに線の意味です。優れた説明に出会うまで、私も長い間苦労しました。軸= 0は「 「行ごと」は、実際には各列の操作ですが、同じ理由で、axis = 1は各列、つまり各行に作用します。画像のピクセルマトリクスh * wと比較できると思いますが、1番目の座標軸hの方向は下向きで、2番目の座標軸wの方向は正しいです。
7.tf.argmax:
tf.argmax(vector、1):ベクトルの最大値のインデックス番号を返します。ベクトルがベクトルの場合は値を返し、行列の場合はベクトルを返します。このベクトルの各次元は、対応する行列の行の最大要素のインデックス番号です。

8.等しい、等しい意味。名前が示すように、この関数は
、等しいかどうかを判断するために使用されます。Tf.equal(A、B)は、これら2つの行列またはベクトルの等しい要素を比較します。等しい場合は、Trueを返し、とにかくFalseを返します。戻り値とAの行列の次元それは同じであり
、xは要素ごとの比較などとyは、同じ寸法を有します

9.tf.cast():関数は主にテンソルデータ型変換に使用されます

元の記事を31件公開しました Likes0 訪問数683

おすすめ

転載: blog.csdn.net/ballzy/article/details/105299089