基于TensorFlow的油耗预测(全连接神经网络)

基于TensorFlow的油耗预测

利用全连接网络完成汽车的效能指标 MPG 的回归问题预测。

1.数据集

Auto MPG 数据集,它记录了各种汽车效能指标与气缸数、重量、马力等其 他因子的真实数据,查看数据集的前 5 项,如表所示,其中每个字段的含义列在表中。除了产地的数字字段表示类别外,其他字段都是数值型。对于产地地段,1 表 示美国,2 表示欧洲,3 表示日本。

import pandas as pd
# 获取数据
dataset_path = '框架学习/tensorflow2.0/auto-mpg.csv'
# 利用pandas读取数据集,字段有效能(公里数每加仑),气缸数,排量,马力,重量,加速度,型号年份,产地
column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight','Acceleration', 'Model Year', 'Origin','car name'] 
raw_dataset = pd.read_csv(dataset_path, names=column_names,na_values = "?", comment='\t', skipinitialspace=True) 
dataset = raw_dataset.copy()
dataset.drop(index=0,inplace=True)
del dataset['car name']
# 查看部分数据
dataset.describe()

在这里插入图片描述
原始数据中的数据可能含有空字段(缺失值)的数据项,需要清除这些记录项:

# 统计空白数据
dataset.isna().sum() 
# 删除空白数据项
dataset = dataset.dropna() 
# 再次统计空白数据
dataset.isna().sum() 

由于 Origin 字段为类别数据,我们将其移动出来,并转换为新的 3 个字段:USA,Europe 和 Japan,分别代表是否来自此产地:

# 处理类别型数据,其中 origin 列代表了类别 1,2,3,分布代表产地:美国、欧洲、日本 
# 先弹出(删除并返回)origin 这一列
origin = dataset.pop('Origin')
# 根据 origin 列来写入新的 3 个列
dataset['USA'] = (origin == 1)*1.0 
dataset['Europe'] = (origin == 2)*1.0 
dataset['Japan'] = (origin == 3)*1.0
dataset.tail()

按着 8:2 的比例切分训练集和测试集:

 # 切分为训练集和测试集
train_dataset = dataset.sample(frac=0.8,random_state=0)
test_dataset = dataset.drop(train_dataset.index)
# 移动 MPG 油耗效能这一列为真实标签 Y 
train_labels = train_dataset.pop('MPG')
test_labels = test_dataset.pop('MPG')
# 查看训练集的输入 X 的统计数据
train_stats = train_dataset.describe() 
#train_stats.pop('MPG')
train_stats = train_stats.transpose()
# 标准化数据
def norm(x):
  return (x - train_stats['mean']) / train_stats['std']
normed_train_data = norm(train_dataset) 
normed_test_data = norm(test_dataset)

print(normed_train_data.shape,train_labels.shape) 
print(normed_test_data.shape, test_labels.shape)

利用切分的训练集数据构建数据集对象:

# 构建Dataset对象
train_db = tf.convert_to_tensor(train_dataset.value,train_labels.value)
# 随机打散,批量化 
train_db = train_db.shuffle(100).batch(32) 

2.创建网格

考虑到 Auto MPG 数据集规模较小,所以只创建一个 3 层的全连接层网络来完成 MPG 值的预测任务。输入 X 的特征共有 9 种,因此第一层的输入节点数为 9。第一层、第二层的输出节点数设计为64,64,由于只有一种预测值,输出层输出节点设计为 1。考虑MPG ∈ \in R+,因此最后一次的激活函数可以不加,也可以添加 ReLU 激活函数。

将网络实现为一个自定义网络类,只需要在初始化函数中创建各个子网络层,并在前向计算函数 call 中实现自定义网络类的计算逻辑即可。自定义网络类继承自 keras.Model 基类,这也是自定义网络类的标准写法,以方便地利用 keras.Model 基类提供 的 trainable_variables 等各种便捷功能:

class Network(keras.Model): 
  # 回归网络
  def __init__(self):
    super(Network, self).__init__()
    # 创建3个全连接层
    self.fc1 = layers.Dense(64, activation='relu') 
    self.fc2 = layers.Dense(64, activation='relu') 
    self.fc3 = layers.Dense(1)
  def call(self, inputs, training=None, mask=None): 
    # 依次通过 3 个全连接层
    x = self.fc1(inputs)
    x = self.fc2(x)
    x = self.fc3(x) 
    return x

3.训练与测试

在完成主网络模型类的创建后,我们来实例化网络对象和创建优化器:

# 创建网络类实例
model = Network() 
# 通过 build 函数完成内部张量的创建,其中 4 为任意的 batch 数量,9 为输入特征长度 
model.build(input_shape=(4, 9))
# 打印网络信息
model.summary()
# 创建优化器,指定学习率
optimizer = tf.keras.optimizers.RMSprop(0.001) 

接下来实现网络训练部分。通过 Epoch 和 Step 的双层循环训练网络,共训练 200 个 epoch:

for epoch in range(200): # 200个Epoch
  for step, (x,y) in enumerate(train_db): # 遍历一次训练集
  # 梯度记录器
  	with tf.GradientTape() as tape:
	    out = model(x) # 通过网络获得输出
	    loss = tf.reduce_mean(losses.MSE(y, out)) # 计算 MSE 
	    mae_loss = tf.reduce_mean(losses.MAE(y, out)) # 计算 MAE
  	if step % 10 == 0: # 打印训练误差 
    	print(epoch, step, float(loss))
  	# 计算梯度,并更新
  	grads = tape.gradient(loss, model.trainable_variables)
  	optimizer.apply_gradients(zip(grads, model.trainable_variables))

猜你喜欢

转载自blog.csdn.net/weixin_44127327/article/details/109067312