例:k及びBの一次関数に適合するtensorflow(2月4日)

tensorflow TF ASインポート
インポートnumpyのAS NP 

生成されたランダムポイントを使用して#100 numpyの
x_data = np.random.rand(100)
y_data x_data * =我々は知らラインにセットK 0.2 0.1 Bが得られる0.1 + 0.2#y_data 

線形モデル#構築
(0)B = tf.Variable 
K = tf.Variable(0)
Y = K + B * x_data 

(2つの二乗差の和が平均方言)#次費用関数
損失=をtf.reduce_mean(tf.square(y_data-Y)) が始まるここでB kと注意、線形モデル及びb kの勾配降下法の値を変更することにより、実際に(訓練装置を最適化するために、勾配降下法を定義しますゆっくり)0.2、0.1の接近、0.0に初期化され
#は0.2の係数は、勾配降下0.3であってもよいです...オプティマイザtf.train.GradientDescentOptimizer =(0.2)
コスト関数を最小化すること#(トレーニング方法であるが従って最小損失値、損失の値はランダム初期化点100とモデル100とすることができることを加算点と他の方法との間の差の二乗に装着...)
列車= optimizer.minimize(損失)

#は、変数を初期化
INIT = tf.global_variables_initializer( )
 
、SESのAS tf.Session()を持ちます:
    sess.run(INIT)
    STEP範囲にするため(201):
        sess.run(列車)
        STEP == 20が0%の場合:
            方法はちょうどKを印刷する(STEP、sess.run([K、B]))#は、本明細書で使用されるフェッチ印刷、bの値、プリントあたり20回程度、Kを変化させる、bの値は、作業の勾配降下の最適化です

 私は、動作結果を掲載しました。

 

ステップバイルック、kおよびステップで0.1と0.2のBの近くには、それは素晴らしいではありません!そして、最後のエラーは、何千または数千数百ものがどんな効果を持っている場合、唯一の1個のニューロンが存在し、それの深い学習の力を感じる右、唯一0.000026526 0.00001402、強力なのですか?

これは、あなたが迅速かつ効率的に自分のニューラルネットワークを構築するためにtensorflowインタフェースを伴っていることを提供し、当然のことながら、深い学習の力です。

 

おすすめ

転載: www.cnblogs.com/go-ahead-wsg/p/12302093.html