51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

手机号码,快捷登录

查看: 1089|回复: 0
打印 上一主题 下一主题

[python] 用Python做一个房价预测小工具!

[复制链接]
  • TA的每日心情
    擦汗
    11 小时前
  • 签到天数: 1048 天

    连续签到: 1 天

    [LV.10]测试总司令

    跳转到指定楼层
    1#
    发表于 2022-4-1 11:18:55 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
     这是一个房价预测的案例,来源于 Kaggle 网站,是很多算法初学者的第一道竞赛题目。
      该案例有着解机器学习问题的完整流程,包含EDA、特征工程、模型训练、模型融合等。

    房价预测流程

     下面跟着我,来学习一下该案例。
      没有啰嗦的文字,没有多余的代码,只有通俗的讲解。
      一. EDA
      探索性数据分析(Exploratory Data Analysis,简称EDA) 的目的是让我们对数据集有充分的了解。在这一步,我们探索的内容如下:

     1.1 输入数据集
    train = pd.read_csv('./data/train.csv')
      test = pd.read_csv('./data/test.csv')


    训练样本
    train和test分别是训练集和测试集,分别有 1460 个样本,80 个特征。
      SalePrice列代表房价,是我们要预测的。
      1.2 房价分布
      因为我们任务是预测房价,所以在数据集中核心要关注的就是房价(SalePrice) 一列的取值分布。
    1. sns.distplot(train['SalePrice']);
    复制代码

    房价取值分布

      从图上可以看出,SalePrice列峰值比较陡,并且峰值向左偏。
      也可以直接调用skew()和kurt()函数计算SalePrice具体的偏度和峰度值。
      对于偏度和峰度都比较大的情况,建议对SalePrice列取log()进行平滑。
      1.3 与房价相关的特征
      了解完SalePrice的分布后,我们可以计算 80 个特征与SalePrice的相关关系。
      重点关注与SalePrice相关性最强的 10 个特征。
    1.  # 计算列之间相关性
    2.   corrmat = train.corr()
    3.   # 取 top10
    4.   k = 10
    5.   cols = corrmat.nlargest(k, 'SalePrice')['SalePrice'].index
    6.   # 绘图
    7.   cm = np.corrcoef(train[cols].values.T)
    8.   sns.set(font_scale=1.25)
    9.   hm = sns.heatmap(cm, cbar=True, annot=True, square=True, fmt='.2f', annot_kws={'size': 10}, yticklabels=cols.values, xticklabels=cols.values)
    10.   plt.show()
    复制代码

    与SalePrice高度相关的特征

      OverallQual(房子材料和装饰)、GrLivArea(地上居住面积)、GarageCars(车库容量)和 TotalBsmtSF(地下室面积)跟SalePrice有很强的相关性。
      这些特征在后面做特征工程时也会重点关注。
      1.4 剔除离群样本
      由于数据集样本量很少,离群点不利于我们后面训练模型。
      所以需要计算每个数值特性的离群点,剔除掉离群次数最多的样本。

    1. # 获取数值型特征
    2.   numeric_features = train.dtypes[train.dtypes != 'object'].index
    3.   # 计算每个特征的离群样本
    4.   for feature in numeric_features:
    5.       outs = detect_outliers(train[feature], train['SalePrice'],top=5, plot=False)
    6.       all_outliers.extend(outs)
    7.   # 输出离群次数最多的样本
    8.   print(Counter(all_outliers).most_common())
    9.   # 剔除离群样本
    10.   train = train.drop(train.index[outliers])
    复制代码
     detect_outliers()是自定义函数,用sklearn库的LocalOutlierFactor算法计算离群点。
      到这里, EDA 就完成了。最后,将训练集和测试集合并,进行下面的特征工程。

    1. y = train.SalePrice.reset_index(drop=True)
    2.   train_features = train.drop(['SalePrice'], axis=1)
    3.   test_features = test
    4.   features = pd.concat([train_features, test_features]).reset_index(drop=True)
    复制代码
    features合并了训练集和测试集的特征,是我们下面要处理的数据。

    二. 特征工程

    特征工程

      2.1 校正特征类型
    MSSubClass(房屋类型)、YrSold(销售年份)和MoSold(销售月份)是类别型特征,只不过用数字来表示,需要将它们转成文本特征。
      features['MSSubClass'] = features['MSSubClass'].apply(str)
      features['YrSold'] = features['YrSold'].astype(str)
      features['MoSold'] = features['MoSold'].astype(str)

    2.2 填充特征缺失值
      填充缺失值没有统一的标准,需要根据不同的特征来决定按照什么样的方式来填充。
    1.  # Functional:文档提供了典型值 Typ
    2.   features['Functional'] = features['Functional'].fillna('Typ') #Typ 是典型值
    3.   # 分组填充需要按照相似的特征分组,取众数或中位数
    4.   # MSZoning(房屋区域)按照 MSSubClass(房屋)类型分组填充众数
    5.   features['MSZoning'] = features.groupby('MSSubClass')['MSZoning'].transform(lambda x: x.fillna(x.mode()[0]))
    6.   #LotFrontage(到接到举例)按Neighborhood分组填充中位数
    7.   features['LotFrontage'] = features.groupby('Neighborhood')['LotFrontage'].transform(lambda x: x.fillna(x.median()))
    8.   # 车库相关的数值型特征,空代表无,使用0填充空值。
    9.   for col in ('GarageYrBlt', 'GarageArea', 'GarageCars'):
    10.       features[col] = features[col].fillna(0)
    复制代码
    2.3 偏度校正
      跟探索SalePrice列类似,对偏度高的特征进行平滑。
    1. # skew()方法,计算特征的偏度(skewness)。
    2.   skew_features = features[numeric_features].apply(lambda x: skew(x)).sort_values(ascending=False)
    3.   # 取偏度大于 0.15 的特征
    4.   high_skew = skew_features[skew_features > 0.15]
    5.   skew_index = high_skew.index
    6.   # 处理高偏度特征,将其转化为正态分布,也可以使用简单的log变换
    7.   for i in skew_index:
    8.       features[i] = boxcox1p(features[i], boxcox_normmax(features[i] + 1))
    复制代码
    2.4 特征删除和新增
      对于几乎都是缺失值,或单一取值占比高(99.94%)的特征可以直接删除。
    1.  features = features.drop(['Utilities', 'Street', 'PoolQC',], axis=1)
    复制代码
    同时,可以融合多个特征,生成新特征。
      有时候模型很难学习到特征之间的关系,手动融合特征可以降低模型学习难度,提升效果。
    1.  # 将原施工日期和改造日期融合
    2.   features['YrBltAndRemod']=features['YearBuilt']+features['YearRemodAdd']
    3.   # 将地下室面积、1楼、2楼面积融合
    4.   features['TotalSF']=features['TotalBsmtSF'] + features['1stFlrSF'] + features['2ndFlrSF']
    复制代码
     可以发现,我们融合的特征都是与SalePrice强相关的特征。
      最后简化特征,对分布单调的特征(如:100个数据中有99个的数值是0.9,另1个是0.1),进行01处理。
    1. features['haspool'] = features['PoolArea'].apply(lambda x: 1 if x > 0 else 0)
    2.   features['has2ndfloor'] = features['2ndFlrSF'].apply(lambda x: 1 if x > 0 else 0)
    复制代码
    2.6 生成最终训练数据
      到这里特征工程就做完了, 我们需要从features中将训练集和测试集重新分离出来,构造最终的训练数据。
    1.  X = features.iloc[:len(y), :]  
    2.   X_sub = features.iloc[len(y):, :]
    3.   X = np.array(X.copy())
    4.   y = np.array(y)
    5.   X_sub = np.array(X_sub.copy())
    复制代码
    三. 模型训练
      因为SalePrice是数值型且是连续的,所以需要训练一个回归模型。
      3.1 单一模型
      首先以岭回归(Ridge) 为例,构造一个k折交叉验证模型。
    1.  from sklearn.linear_model import RidgeCV
    2.   from sklearn.pipeline import make_pipeline
    3.   from sklearn.model_selection import KFold
    4.   kfolds = KFold(n_splits=10, shuffle=True, random_state=42)
    5.   alphas_alt = [14.5, 14.6, 14.7, 14.8, 14.9, 15, 15.1, 15.2, 15.3, 15.4, 15.5]
    6.   ridge = make_pipeline(RobustScaler(), RidgeCV(alphas=alphas_alt, cv=kfolds))
    复制代码
     岭回归模型有一个超参数alpha,而RidgeCV的参数名是alphas,代表输入一个超参数alpha数组。在拟合模型时,会从alpha数组中选择表现较好某个取值。
      由于现在只有一个模型,无法确定岭回归是不是最佳模型。所以我们可以找一些出场率高的模型多试试。
    1.  # lasso
    2.   lasso = make_pipeline(
    3.       RobustScaler(),
    4.       LassoCV(max_iter=1e7, alphas=alphas2, random_state=42, cv=kfolds))
    5.   #elastic net
    6.   elasticnet = make_pipeline(
    7.       RobustScaler(),
    8.       ElasticNetCV(max_iter=1e7, alphas=e_alphas, cv=kfolds, l1_ratio=e_l1ratio))
    9.   #svm
    10.   svr = make_pipeline(RobustScaler(), SVR(
    11.       C=20,
    12.       epsilon=0.008,
    13.       gamma=0.0003,
    14.   ))
    15.   #GradientBoosting(展开到一阶导数)
    16.   gbr = GradientBoostingRegressor(...)
    17.   #lightgbm
    18.   lightgbm = LGBMRegressor(...)
    19.   #xgboost(展开到二阶导数)
    20.   xgboost = XGBRegressor(...)
    复制代码
    有了多个模型,我们可以再定义一个得分函数,对模型评分。

    1.  #模型评分函数
    2.   def cv_rmse(model, X=X):
    3.       rmse = np.sqrt(-cross_val_score(model, X, y, scoring="neg_mean_squared_error", cv=kfolds))
    4.       return (rmse)
    复制代码
     以岭回归为例,计算模型得分。

    1.  score = cv_rmse(ridge)  
    2.   print("Ridge score: {:.4f} ({:.4f})\n".format(score.mean(), score.std()), datetime.now(), ) #0.1024
    复制代码
    运行其他模型发现得分都差不多。
      这时候我们可以任选一个模型,拟合,预测,提交训练结果。还是以岭回归为例
    1.  # 训练模型
    2.   ridge.fit(X, y)
    3.   # 模型预测
    4.   submission.iloc[:,1] = np.floor(np.expm1(ridge.predict(X_sub)))
    5.   # 输出测试结果
    6.   submission = pd.read_csv("./data/sample_submission.csv")
    7.   submission.to_csv("submission_single.csv", index=False)
    复制代码
     submission_single.csv是岭回归预测的房价,我们可以把这个结果上传到 Kaggle 网站查看结果的得分和排名。
      3.2 模型融合-stacking
      有时候为了发挥多个模型的作用,我们会将多个模型融合,这种方式又被称为集成学习。
      stacking 是一种常见的集成学习方法。简单来说,它会定义个元模型,其他模型的输出作为元模型的输入特征,元模型的输出将作为最终的预测结果。

    stacking


      这里,我们用mlextend库中的StackingCVRegressor模块,对模型做stacking。
    1. stack_gen =  
    2.     StackingCVRegressor(
    3.         regressors=(ridge, lasso, elasticnet, gbr, xgboost, lightgbm),
    4.         meta_regressor=xgboost,
    5.         use_features_in_secondary=True)
    复制代码
    训练、预测的过程与上面一样,这里不再赘述。
      3.3 模型融合-线性融合
      多模型线性融合的思想很简单,给每个模型分配一个权重(权重加和=1),最终的预测结果取各模型的加权平均值。
    1. # 训练单个模型
    2.   ridge_model_full_data = ridge.fit(X, y)
    3.   lasso_model_full_data = lasso.fit(X, y)
    4.   elastic_model_full_data = elasticnet.fit(X, y)
    5.   gbr_model_full_data = gbr.fit(X, y)
    6.   xgb_model_full_data = xgboost.fit(X, y)
    7.   lgb_model_full_data = lightgbm.fit(X, y)
    8.   svr_model_full_data = svr.fit(X, y)
    9.   models = [
    10.       ridge_model_full_data, lasso_model_full_data, elastic_model_full_data,
    11.       gbr_model_full_data, xgb_model_full_data, lgb_model_full_data,
    12.       svr_model_full_data, stack_gen_model
    13.   ]
    14.   # 分配模型权重
    15.   public_coefs = [0.1, 0.1, 0.1, 0.1, 0.15, 0.1, 0.1, 0.25]
    16.   # 线性融合,取加权平均
    17.   def linear_blend_models_predict(data_x,models,coefs, bias):
    18.       tmp=[model.predict(data_x) for model in models]
    19.       tmp = [c*d for c,d in zip(coefs,tmp)]
    20.       pres=np.array(tmp).swapaxes(0,1)  
    21.       pres=np.sum(pres,axis=1)
    22.       return pres
    复制代码
    到这里,房价预测的案例我们就讲解完了,大家可以自己运行一下,看看不同方式训练出来的模型效果。
      回顾整个案例会发现,我们在数据预处理和特征工程上花费了很大心思,虽然机器学习问题模型原理比较难学,但实际过程中往往特征工程花费的心思最多。
















    本帖子中包含更多资源

    您需要 登录 才可以下载或查看,没有帐号?(注-册)加入51Testing

    x
    分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    收藏收藏
    回复

    使用道具 举报

    本版积分规则

    关闭

    站长推荐上一条 /1 下一条

    小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

    GMT+8, 2024-11-18 20:17 , Processed in 0.062047 second(s), 24 queries .

    Powered by Discuz! X3.2

    © 2001-2024 Comsenz Inc.

    快速回复 返回顶部 返回列表