通过交叉验证构建可靠的机器学习模型

交叉验证是一种用来衡量和评估机器学习模型性能的技术。在培训期间,我们创建了训练集的多个分区,并在这些分区的不同子集上进行训练/测试。

交叉验证经常用于为给定的数据集训练、测量和最终选择机器学习模型,因为它有助于评估模型的结果在实践中如何推广到独立的数据集。最重要的是,交叉验证已经被证明可以产生比其他方法更低的偏差的模型。

本教程将重点介绍交叉验证的一种变体,称为k-fold交叉验证。

在本教程中,我们将介绍以下内容:

  • 概述K-Fold交叉验证
  • 使用Scikit-Learn和com .ml的示例

K-fold交叉验证

交叉验证是一种重采样技术,用于评估有限数据集上的机器学习模型。

交叉验证的最常见用途是k-fold交叉验证方法。我们的训练集分为K个分区,模型在K-1分区上训练,测试误差在K分区上预测和计算。对每个唯一组重复此操作,并对测试错误进行平均。

步骤描述:

1.将训练集拆分为K(K = 10是常见选项)分区

对于每个分区:

2.设置分区是测试集

3.在其余分区上训练模型

4.测量测试集中的性能。

5.保留性能指标

6.探索不同folds的模型性能

交叉验证通常被使用,因为它易于解释,并且因为它通常导致比其他方法(例如简单的训练/测试拆分)更少偏差。使用交叉验证的最大缺点之一是增加了训练时间,因为我们基本上是训练K次而不是1次。

使用scikit-learn的交叉验证示例

Scikit-learn是一种流行的机器学习库,它还提供了许多用于数据采样,模型评估和训练的工具。我们将使用Kfold该类来生成folds。这是一个基本概述:

from sklearn.model_selection import KFold

X = [...] # My training dataset inputs/features

y = [...] # My training dataset targets

kf = KFold(n_splits=2)

kf.get_n_splits(X)

for train_index, test_index in kf.split(X):

X_train, X_test = X[train_index], X[test_index]

y_train, y_test = y[train_index], y[test_index]

model = train_model(X_train,y_train)

score = eval_model(X_test,y_test)

现在让我们使用scikit-learn和Comet.ml训练一个端到端的例子。

此示例在新闻组数据集上训练文本分类器(http://scikit-learn.org/stable/datasets/twenty_newsgroups.html)。给定一段文本(字符串),模型将其分类为以下类之一:“atheism”,”christian”,”computer graphics”, “medicine”。Python代码如下:

from __future__ import print_function

from comet_ml import Experiment

from sklearn.feature_extraction.text import CountVectorizer

from sklearn.feature_extraction.text import TfidfTransformer

from sklearn.pipeline import Pipeline

from sklearn.datasets import fetch_20newsgroups

from sklearn.linear_model import SGDClassifier

from sklearn.metrics import accuracy_score

from sklearn.model_selection import KFold

import numpy as np

def convert_to_np(dataset):

return np.asarray(dataset.data), dataset.target

experiment = Experiment(api_key="YOUR KEY HERE", project_name="cross-validation")

experiment.set_name("20 newsgroups cross validated")

# Get dataset and put into train,test lists

categories = ['alt.atheism', 'soc.religion.christian',

'comp.graphics', 'sci.med']

x_validation,y_validation =convert_to_np(fetch_20newsgroups(subset='test', categories=categories, shuffle=True, random_state=42))

x_train,y_train = convert_to_np(fetch_20newsgroups(subset='train', categories=categories, shuffle=True, random_state=42))

kf = KFold(n_splits=10)

curr_fold = 0

acc_list = []

for train_idx, test_idx in kf.split(x_train):

text_clf = Pipeline([('vect', CountVectorizer()), # Counts occurrences of each word

('tfidf', TfidfTransformer()), # Normalize the counts based on document length

('clf', SGDClassifier(loss='hinge', penalty='l2', # Call classifier with vector

alpha=1e-3, random_state=42,

max_iter=5, tol=None)),

])

text_clf.fit(x_train[train_idx].tolist(), y_train[train_idx])

# Predict unseen test data based on fitted classifer

predicted = text_clf.predict(x_train[test_idx])

# Compute accuracy

acc = accuracy_score(y_train[test_idx].tolist(), predicted)

acc_list.append(acc)

experiment.log_metric("accuracy_fold_%s" % curr_fold, acc)

curr_fold += 1

experiment.log_metric("average accuracy", np.average(acc_list))

在每个fold上,我们向Comet.ml报告准确性,最后我们报告所有folds的平均准确度。实验结束后,我们可以访问Comet.ml并检查我们的模型(https://www.comet.ml/gidim/cross-validation/dd73c9696cbc497cb8274abcb883e03e/chart):

通过交叉验证构建可靠的机器学习模型

图表是由Comet.ml自动生成的。最右边的条形(紫色部分)表示folds的平均精度。正如您所看到的,一些folds前置形式明显优于平均值,并显示了k-fold交叉验证的重要性。

您可能已经注意到我们没有计算测试精度。在您完成所有实验之前,不应该以任何方式使用测试集。如果我们根据测试精度改变超参数或模型类型,我们实际上是将超参数过度拟合到测试分布。

相关推荐