1. 交叉验证 (为了让被评估的模型更加准确可信)
  2. 网格搜索

交叉验证过程

将拿到的训练数据,分为训练集和验证集。以下图为例:将数据分成5份,其中一份作为验证集。然后经过5次测试,每次都更换不同的验证集。即得到5组模型的结果,取平均值作为最终结果。又称为5折交叉验证。


超参数搜索-网格搜索

通常情况下,有很多参数都是需要手动指定的(如k-近邻算法中的k值),这种叫超参数,但是手动过程繁杂,所以需要对模型预设几种超参数组合。每组超参数都采用交叉验证来进行评估。最后选出最优参数组合建立模型。

超参数搜索API sklearn.model_selection.GridSearchCV

代码示例:K-近邻预测用户签到位置

from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split,GridSearchCV
from sklearn.preprocessing import StandardScaler
import pandas as pd

def knncls():
    '''
    K-近邻预测用户签到位置
    :return:None
    '''
    # 读取数据
    data = pd.read_csv('./facebook-v-predicting-check-ins/train.csv')
    #print(data.head(10))
    # 处理数据
    # 1.缩小数据 按照x,y坐标 查询数据筛选
    data = data.query("x > 1.0 & x < 1.25 & y > 2.5 & y < 2.75")
    # 处理时间数据   # 最小为秒
    time_value = pd.to_datetime(data['time'],unit='s')
    # 把日期格式转换成 字典格式
    time_value = pd.DatetimeIndex(time_value)
    # 构造一些特征
    data['day'] = time_value.day
    data['hour'] = time_value.hour
    data['weekday'] = time_value.weekday
    # 把时间戳特征删除 1表示列
    data = data.drop(['time'],axis=1)
    data = data.drop(['row_id'],axis=1)
    #print(data.head(10))
    # 把签到数量少于n个目标位置删除
    #place_count = +data.groupby('place_id').count()
    #tf = place_count[place_count.row_id > 3].reset_index()
    #data = data[data['place_id'].isin(tf.place_id)]
    # 取出数据中的特征值和目标值
    y = data['place_id']
    x = data.drop(['place_id'],axis=1)
    # 进行数据的分割训练集合测试集
    x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.25)
    # 特征工程 (标准化)
    std = StandardScaler()
    # 对测试集和训练集的特征值进行标准化
    x_train = std.fit_transform(x_train)
    x_test = std.transform(x_test)
    # 进行算法流程
    knn = KNeighborsClassifier() 
    # 构造一些参数的值进行搜索
    param = {"n_neighbors":[3,5,10]}
    # 进行网格搜索
    gc = GridSearchCV(knn, param_grid=param,cv=2)
    gc.fit(x_train,y_train)
    # 预测准确率
    print('在测试集上的准确率:\n',gc.score(x_test,y_test))
    print('在交叉验证中最好的结果:\n',gc.best_score_)
    print('选择最好的模型是:\n',gc.best_estimator_)
    print('每个超参数每次交叉验证的结果:\n',gc.cv_results_)
    return None
if __name__ == '__main__':
    knncls()
# 运行结果
在测试集上的准确率:
 0.46251129177958444
在交叉验证中最好的结果:
 0.42463484414997743
选择最好的模型是:
 KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
           metric_params=None, n_jobs=None, n_neighbors=10, p=2,
           weights='uniform')
每个超参数每次交叉验证的结果:
 {'mean_fit_time': array([0.01645494, 0.00596833, 0.00649691]), 'std_fit_time': array([1.14698410e-02, 1.59740448e-05, 1.50966644e-03]), 'mean_score_time': array([0.16361773, 0.19158995, 0.25335979]), 'std_score_time': array([0.00206721, 0.01104319, 0.02895761]), 'param_n_neighbors': masked_array(data=[3, 5, 10],
             mask=[False, False, False],
       fill_value='?',
            dtype=object), 'params': [{'n_neighbors': 3}, {'n_neighbors': 5}, {'n_neighbors': 10}], 'split0_test_score': array([0.38707335, 0.40842411, 0.41031227]), 'split1_test_score': array([0.41159919, 0.43661091, 0.44005002]), 'mean_test_score': array([0.39888571, 0.4219997 , 0.42463484]), 'std_test_score': array([0.01225464, 0.01408388, 0.01485884]), 'rank_test_score': array([3, 2, 1]), 'split0_train_score': array([0.64076911, 0.58777552, 0.52555886]), 'split1_train_score': array([0.61321714, 0.55657226, 0.50007262]), 'mean_train_score': array([0.62699312, 0.57217389, 0.51281574]), 'std_train_score': array([0.01377599, 0.01560163, 0.01274312])}

发表回复