#!/usr/bin/env python # coding: utf-8 # ## 内容概要 # - 训练集/测试集分割用于模型验证的缺点 # - K折交叉验证是如何克服之前的不足 # - 交叉验证如何用于选择调节参数、选择模型、选择特征 # - 改善交叉验证 # ## 1. 模型验证回顾 # 进行模型验证的一个重要目的是要选出一个最合适的模型,对于监督学习而言,我们希望模型对于未知数据的泛化能力强,所以就需要模型验证这一过程来体现不同的模型对于未知数据的表现效果。 # # 最先我们用训练准确度(用全部数据进行训练和测试)来衡量模型的表现,这种方法会导致模型过拟合;为了解决这一问题,我们将所有数据分成训练集和测试集两部分,我们用训练集进行模型训练,得到的模型再用测试集来衡量模型的预测表现能力,这种度量方式叫测试准确度,这种方式可以有效避免过拟合。 # # **测试准确度的一个缺点**是其样本准确度是一个高方差估计(high variance estimate),所以该样本准确度会依赖不同的测试集,其表现效果不尽相同。 # ### 高方差估计的例子 # 下面我们使用iris数据来说明利用测试准确度来衡量模型表现的方差很高。 # In[1]: from sklearn.datasets import load_iris from sklearn.cross_validation import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn import metrics # In[2]: # read in the iris data iris = load_iris() X = iris.data y = iris.target # In[3]: for i in xrange(1,5): print "random_state is ", i,", and accuracy score is:" X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=i) knn = KNeighborsClassifier(n_neighbors=5) knn.fit(X_train, y_train) y_pred = knn.predict(X_test) print metrics.accuracy_score(y_test, y_pred) # 上面的测试准确率可以看出,不同的训练集、测试集分割的方法导致其准确率不同,而交叉验证的基本思想是:将数据集进行一系列分割,生成一组不同的训练测试集,然后分别训练模型并计算测试准确率,最后对结果进行平均处理。这样来有效降低测试准确率的差异。 # ## 2. K折交叉验证 # 1. 将数据集平均分割成K个等份 # 2. 使用1份数据作为测试数据,其余作为训练数据 # 3. 计算测试准确率 # 4. 使用不同的测试集,重复2、3步骤 # 5. 对测试准确率做平均,作为对未知数据预测准确率的估计 # ![](Image/cross_validation_diagram.png) # In[4]: # 下面代码演示了K-fold交叉验证是如何进行数据分割的 # simulate splitting a dataset of 25 observations into 5 folds from sklearn.cross_validation import KFold kf = KFold(25, n_folds=5, shuffle=False) # print the contents of each training and testing set print '{} {:^61} {}'.format('Iteration', 'Training set observations', 'Testing set observations') for iteration, data in enumerate(kf, start=1): print '{:^9} {} {:^25}'.format(iteration, data[0], data[1]) # ## 3. 使用交叉验证的建议 # 1. K=10是一个一般的建议 # 2. 如果对于分类问题,应该使用分层抽样(stratified sampling)来生成数据,保证正负例的比例在训练集和测试集中的比例相同 # ## 4. 交叉验证的例子 # ### 4.1 用于调节参数 # 交叉验证的方法可以帮助我们进行调参,最终得到一组最佳的模型参数。下面的例子我们依然使用iris数据和KNN模型,通过调节参数,得到一组最佳的参数使得测试数据的准确率和泛化能力最佳。 # In[6]: from sklearn.cross_validation import cross_val_score # In[7]: knn = KNeighborsClassifier(n_neighbors=5) # 这里的cross_val_score将交叉验证的整个过程连接起来,不用再进行手动的分割数据 # cv参数用于规定将原始数据分成多少份 scores = cross_val_score(knn, X, y, cv=10, scoring='accuracy') print scores # In[8]: # use average accuracy as an estimate of out-of-sample accuracy # 对十次迭代计算平均的测试准确率 print scores.mean() # In[11]: # search for an optimal value of K for KNN model k_range = range(1,31) k_scores = [] for k in k_range: knn = KNeighborsClassifier(n_neighbors=k) scores = cross_val_score(knn, X, y, cv=10, scoring='accuracy') k_scores.append(scores.mean()) print k_scores # In[10]: import matplotlib.pyplot as plt get_ipython().run_line_magic('matplotlib', 'inline') # In[12]: plt.plot(k_range, k_scores) plt.xlabel("Value of K for KNN") plt.ylabel("Cross validated accuracy") # 上面的例子显示了偏置-方差的折中,K较小的情况时偏置较低,方差较高;K较高的情况时,偏置较高,方差较低;最佳的模型参数取在中间位置,该情况下,使得偏置和方差得以平衡,模型针对于非样本数据的泛化能力是最佳的。 # ### 4.2 用于模型选择 # 交叉验证也可以帮助我们进行模型选择,以下是一组例子,分别使用iris数据,KNN和logistic回归模型进行模型的比较和选择。 # In[13]: # 10-fold cross-validation with the best KNN model knn = KNeighborsClassifier(n_neighbors=20) print cross_val_score(knn, X, y, cv=10, scoring='accuracy').mean() # In[14]: # 10-fold cross-validation with logistic regression from sklearn.linear_model import LogisticRegression logreg = LogisticRegression() print cross_val_score(logreg, X, y, cv=10, scoring='accuracy').mean() # ### 4.3 用于特征选择 # 下面我们使用advertising数据,通过交叉验证来进行特征的选择,对比不同的特征组合对于模型的预测效果。 # In[15]: import pandas as pd import numpy as np from sklearn.linear_model import LinearRegression # In[16]: # read in the advertising dataset data = pd.read_csv('http://www-bcf.usc.edu/~gareth/ISL/Advertising.csv', index_col=0) # In[17]: # create a Python list of three feature names feature_cols = ['TV', 'Radio', 'Newspaper'] # use the list to select a subset of the DataFrame (X) X = data[feature_cols] # select the Sales column as the response (y) y = data.Sales # In[18]: # 10-fold cv with all features lm = LinearRegression() scores = cross_val_score(lm, X, y, cv=10, scoring='mean_squared_error') print scores # 这里要注意的是,上面的scores都是负数,为什么均方误差会出现负数的情况呢?因为这里的mean_squared_error是一种损失函数,优化的目标的使其最小化,而分类准确率是一种奖励函数,优化的目标是使其最大化。 # In[19]: # fix the sign of MSE scores mse_scores = -scores print mse_scores # In[20]: # convert from MSE to RMSE rmse_scores = np.sqrt(mse_scores) print rmse_scores # In[21]: # calculate the average RMSE print rmse_scores.mean() # In[22]: # 10-fold cross-validation with two features (excluding Newspaper) feature_cols = ['TV', 'Radio'] X = data[feature_cols] print np.sqrt(-cross_val_score(lm, X, y, cv=10, scoring='mean_squared_error')).mean() # 由于不加入Newspaper这一个特征得到的分数较小(1.68 < 1.69),所以,使用所有特征得到的模型是一个更好的模型。 # ## 参考资料 # - scikit-learn documentation: [Cross-validation, Model evaluation](http://scikit-learn.org/stable/modules/model_evaluation.html) # - scikit-learn issue on GitHub: [MSE is negative when returned by cross_val_score](https://github.com/scikit-learn/scikit-learn/issues/2439) # - Scott Fortmann-Roe: [Accurately Measuring Model Prediction Error](http://scott.fortmann-roe.com/docs/MeasuringError.html) # - Harvard CS109: [Cross-Validation: The Right and Wrong Way](http://nbviewer.ipython.org/github/cs109/content/blob/master/lec_10_cross_val.ipynb) # - Journal of Cheminformatics: [Cross-validation pitfalls when selecting and assessing regression and classification models](http://www.jcheminf.com/content/pdf/1758-2946-6-10.pdf)