使用tensorflow进行房价预测

在回归问题中,我们的目标是预测一个连续值的输出,如价格或概率。将此与一个分类问题进行对比,我们的目标是预测一个离散的标签(例如,图片包含一个苹果或橙子)。

本示例建立了一个模型来预测波士顿郊区在20世纪70年代中期的中值价格。为了做到这一点,我们将提供模型与郊区的一些数据,如犯罪率和地方物业税税率。

使用tensorflow的高级API进行建模。

import tensorflow as tf
from tensorflow import keras
import numpy as np

boston_housing=keras.datasets.boston_housing
#提前下载好的数据
(train_data,train_label),(test_data,test_label)=boston_housing.load_data("F://data//machine_learning//回归数据//波士顿房价/boston_housing.npz")
print(train_data[0].shape,test_data[0])
#shuffle数据集
order=np.argsort(np.random.random(train_label.shape))
train_data=train_data[order] #特征
train_label=train_label[order] #标签

#使用pandas处理数据并显示
import pandas as pd
column_names = ['CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 'RM', 'AGE', 'DIS', 'RAD',
                'TAX', 'PTRATIO', 'B', 'LSTAT']
df=pd.DataFrame(train_data,columns=column_names)
df.head()

数据格式如下: 

  CRIM ZN INDUS CHAS NOX RM AGE DIS RAD TAX PTRATIO B LSTAT
0 0.07875 45.0 3.44 0.0 0.437 6.782 41.1 3.7886 5.0 398.0 15.2 393.87 6.68
1 4.55587 0.0 18.10 0.0 0.718 3.561 87.9 1.6132 24.0 666.0 20.2 354.70 7.12
2 0.09604 40.0 6.41 0.0 0.447 6.854 42.8 4.2673 4.0 254.0 17.6 396.90 2.98
3 0.01870 85.0 4.15 0.0 0.429 6.516 27.7 8.5353 4.0 351.0 17.9 392.43 6.36
4 0.52693 0.0 6.20 0.0 0.504 8.725 83.0 2.8944 8.0 307.0 17.4 382.00 4.63

 这些输入数据特征中的每一个都使用不同的尺度存储。一些特征由0和1之间的比例表示,其他特征的范围在1和12之间,有些是0和100之间的范围,等等。因此需要对数据进行归一化处理。

mean = train_data.mean(axis=0)
std = train_data.std(axis=0)
train_data = (train_data - mean) / std
test_data = (test_data - mean) / std

接下来进行模型的构建,定义网络层次。

#模型构建,3个全连接层
def build_model():
    model=keras.Sequential([keras.layers.Dense(64,activation=tf.nn.relu,input_shape=(train_data.shape[1],)),
                            keras.layers.Dense(64,activation=tf.nn.relu),keras.layers.Dense(1)])
    optimizer=tf.train.RMSPropOptimizer(0.001)
    model.compile(loss="mse",optimizer=optimizer,metrics=['mae'])
    return model
_________
model=build_model()
model.summary()#打印模型网络结构
________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
dense_16 (Dense)             (None, 64)                896       
_________________________________________________________________
dense_17 (Dense)             (None, 64)                4160      
_________________________________________________________________
dense_18 (Dense)             (None, 1)                 65        
=================================================================
Total params: 5,121
Trainable params: 5,121
Non-trainable params: 0
#自定义一个回调函数:回调函数是一组在训练的特定阶段被调用的函数集,
#你可以使用回调函数来观察训练过程中网络内部的状态和统计信息。
#通过传递回调函数列表到模型的.fit()中,即可在给定的训练阶段调用该函数集中的函数。
class PrintDot(keras.callbacks.Callback):
    def on_epoch_end(self,epoch,logs):
        if epoch%100==0:
            print('epoch')
        print('.',end='')

EPOCHS=500
history=model.fit(train_data,train_label,epochs=EPOCHS,validation_split=0.2,verbose=0,callbacks=[PrintDot()])
print(history.history.keys())

接下来展示训练情况:

import matplotlib.pyplot as plt
def plot_history(history):
    plt.figure()
    plt.xlabel('Epoch')
    plt.ylabel('Mean Abs ERROR [1000$]')
    plt.plot(history.epoch,np.array(history.history['mean_absolute_error']),label='Train Loss')
    plt.plot(history.epoch,np.array(history.history['val_mean_absolute_error']),label='Val loss')
    plt.legend()
    plt.ylim([0,5])
    plt.show()

plot_history(history)

 该图显示在大约200个epochs之后模型的改进不大。让我们更新model.fit方法,当验证分数没有提高时自动停止训练。我们将使用回调函数来测试每一个时期的训练条件。如果经过设定的epochs数量后没有显示出改善,则自动停止训练。

model=build_model()
early_stop=keras.callbacks.EarlyStopping(monitor='val_loss',patience=20)
history=model.fit(train_data,train_label,epochs=EPOCHS,validation_split=0.2,verbose=0,callbacks=[early_stop,PrintDot()])
plot_history(history)

[loss,mae]=model.evaluate(test_data,test_label,verbose=0)
print("Testing set Mean Abs Error:${:7.2f}".format(mae*1000))

猜你喜欢

转载自blog.csdn.net/u013230189/article/details/81702343
今日推荐