TensorFlow实现三层神经网络迭代

 

下面是一个使用 TensorFlow 实现的简单的三层神经网络(输入层、隐藏层、输出层)的完整代码。该代码使用 TensorFlow 2.x 版本:
 

import tensorflow as tf
from tensorflow.keras import layers, models
import numpy as np

# 生成随机数据
np.random.seed(0)
X = np.random.rand(100, 2)
y = (X[:, 0] + X[:, 1] > 1).astype(int)

# 划分训练集和测试集
X_train, X_test = X[:80], X[80:]
y_train, y_test = y[:80], y[80:]

# 构建神经网络模型
model = models.Sequential([
    layers.Dense(4, activation='relu', input_shape=(2,)),
    layers.Dense(4, activation='relu'),
    layers.Dense(1, activation='sigmoid')
])

# 编译模型
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

# 训练模型
model.fit(X_train, y_train, epochs=50, batch_size=8, validation_split=0.2)

# 在测试集上评估模型
test_loss, test_accuracy = model.evaluate(X_test, y_test)
print(f"测试集准确率: {test_accuracy * 100:.2f}%")

在这个例子中,我们使用了 TensorFlow 的 Keras API 来构建神经网络模型。该模型有两个隐藏层,每个隐藏层有4个神经元,激活函数使用 ReLU,输出层有一个神经元,激活函数使用 sigmoid。模型使用二元交叉熵损失函数进行编译,并使用 Adam 优化器进行训练。

请确保你已经安装了 TensorFlow,并根据需要进行版本适配。你可以使用以下命令安装 TensorFlow:


pip install tensorflow

建议把环境配置好,否则安装不好tensorflow

这只是一个简单的例子,实际应用中可能需要根据任务的复杂性和数据集的特点进行更多的调整。

 

猜你喜欢

转载自blog.csdn.net/qq_50942093/article/details/134722561