-
sklearn中的
cross validation
from sklearn import cross_validation features_train, features_test, labels_train, labels_test = \ cross_validation.train_test_split(features, labels, test_size = 0.4, random_state = 0)
K-fold
交叉验证,以及sklearn
中交叉验证的示例-
Sklearn
中的GridSearchCV
:用于系统地遍历多种参数组合,通过交叉验证确定最佳效果参数。它的好处是,只需增加几行代码,就能遍历多种组合。# 创建参数组合,由不同的 kernel 和 C 组成 parameters = {'kernel':('linear', 'rbf'), 'C':[1, 10]} svr = svm.SVC() # 传达算法 (svr) 和参数 (parameters) 字典来尝试,它生成一个网格的参数组合进行尝试。 clf = grid_search.GridSearchCV(svr, parameters) # 拟合函数现在尝试了所有的参数组合,并返回一个合适的分类器,自动调整至最佳参数组合。 clf.fit(iris.data, iris.target) # 现在便可通过 clf.best_params_ 来获得参数值。
交叉验证迷你项目
Udacity 数据分析进阶课程笔记L44:交叉验证
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- Machine Learning in Python (Scikit-learn)-(No.1) 作者:范淼(人人...
- http://www.ithao123.cn/content-647680.html Classification...
- 原文链接:https://yq.aliyun.com/articles/178374 0. 简介 在过去,我写的主...