Pipeline和Gridsearch并行化调参简介

本例构建一个管道来进行降维和预测的工作:先降维,接着通过支持向量分类器进行预测.本例将演示与在网格搜索过程进行单变量特征选择相比,怎样使用GrideSearchCV和管道来优化单一的CV跑无监督的PCA降维与NMF降维不同类别评估器。
(原文:This example constructs a pipeline that does dimensionality reduction followed by prediction with a support vector classifier. It demonstrates the use of GridSearchCV and Pipeline to optimize over different classes of estimators in a single CV run – unsupervised PCA and NMF dimensionality reductions are compared to univariate feature selection during the grid search.)

# coding:utf-8

from __future__ import print_function,division
import numpy as np
from sklearn.datasets import load_digits
from sklearn.model_selection import GridSearchCV
from sklearn.pipeline import Pipeline
from sklearn.svm import LinearSVC
from sklearn.decomposition import PCA,NMF
from sklearn.feature_selection import SelectKBest,chi2
from pylab import *

pipe = Pipeline([
    ('reduce_dim',PCA()),('classify',LinearSVC())
])

N_FEATURES_OPTIONS = [2,4,8]
C_OPTIONS = [1,10,100,1000]
param_grid = [
    {
        'reduce_dim': [PCA(iterated_power=7),NMF()],'reduce_dim__n_components': N_FEATURES_OPTIONS,'classify__C': C_OPTIONS
    },{
        'reduce_dim': [SelectKBest(chi2)],21)">'reduce_dim__k': N_FEATURES_OPTIONS,]
reducer_labels = [u'主成分分析(PCA)',21)">u'非负矩阵分解(NMF)',21)">u'KBest(chi2)']

grid = GridSearchCV(pipe,cv=3,n_jobs=2,param_grid=param_grid)
digits = load_digits()
grid.fit(digits.data,digits.target)

mean_scores = np.array(grid.cv_results_['mean_test_score'])
# 得分按照param_grid的迭代顺序,在这里就是字母顺序 
mean_scores = mean_scores.reshape(len(C_OPTIONS),-1,len(N_FEATURES_OPTIONS))
# 为最优C选择分数
mean_scores = mean_scores.max(axis=0)
bar_offsets = (np.arange(len(N_FEATURES_OPTIONS)) *
               (len(reducer_labels) + 1) + .5)

myfont = matplotlib.font_manager.FontProperties(fname="Microsoft-Yahei-UI-Light.ttc")
mpl.rcParams['axes.unicode_minus'] = False

plt.figure()
COLORS = 'bgrcmyk'
for i,(label,reducer_scores) in enumerate(zip(reducer_labels,mean_scores)):
    plt.bar(bar_offsets + i,reducer_scores,label=label,color=COLORS[i])

plt.title(u"特征降维技术的比较",fontproperties=myfont)
plt.xlabel(u'特征减少的数量',fontproperties=myfont)
plt.xticks(bar_offsets + len(reducer_labels) / 2,N_FEATURES_OPTIONS)
plt.ylabel(u'数字的分类精度',fontproperties=myfont)
plt.ylim((0,1))
plt.legend(loc='upper left',prop=myfont)
plt.show()



Pipeline可以将许多算法模型串联起来,比如将特征提取、归一化、分类组织在一起形成一个典型的机器学习问题工作流。主要带来两点好处:
1. 直接调用fit和predict方法来对pipeline中的所有算法模型进行训练和预测。
2. 可以结合grid search对参数进行选择

下面是一个官方文档的示例:

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
>>> from sklearn.pipeline import Pipeline from sklearn.svm import SVC from sklearn.decomposition import PCA >>> estimators = [('reduce_dim',('svm',SVC())] >>> clf = Pipeline(estimators) >>> clf Pipeline(steps=[(True,n_components=None,whiten=False)),SVC(C=1.0,cache_size=200,class_weight=0.0,decision_function_shape=3,gamma='auto',kernel='rbf',max_iter=-1,probability=False,random_state=0.001,verbose=False))])

estimators中定义了两个模型,一个是PCA、另一个是SVC。

  
  
  • 1
    • 1
    >>> clf.set_params(svm__C=10)

    可以通过set_params函数对pipeline中的某个模型设定参数,上面是将svm参数C设置为10

    另外一个例子:

    from sklearn import svm
    from sklearn.datasets import samples_generator
    from sklearn.feature_selection import SelectKBest
    import f_regression
    >>> # generate some data to play with
    >>> X,y = samples_generator.make_classification(
    ...     n_informative=5,n_redundant=0,random_state=42)
    # ANOVA SVM-C
    >>> anova_filter = SelectKBest(f_regression,k=5)
    >>> clf = svm.SVC(kernel='linear')
    >>> anova_svm = Pipeline([('anova',anova_filter),0); box-sizing: border-box;">'svc',clf)])
    # You can set the parameters using the names issued
    # For instance,fit using a k of 10 in the SelectKBest
    # and a parameter 'C' of the svm
    >>> anova_svm.set_params(anova__k=10,svc__C=.1).fit(X,y)
    ...                                              
    Pipeline(steps=[...])
    >>> prediction = anova_svm.predict(X)
    >>> anova_svm.score(X,y)                        
    0.77...
    # getting the selected features chosen by anova_filter
    >>> anova_svm.named_steps['anova'].get_support()
    ...
    array([ True],dtype=bool)

    版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

    相关推荐


    什么是设计模式一套被反复使用、多数人知晓的、经过分类编目的、代码 设计经验 的总结;使用设计模式是为了 可重用 代码、让代码 更容易 被他人理解、保证代码 可靠性;设计模式使代码编制  真正工程化;设计模式使软件工程的 基石脉络, 如同大厦的结构一样;并不直接用来完成代码的编写,而是 描述 在各种不同情况下,要怎么解决问题的一种方案;能使不稳定依赖于相对稳定、具体依赖于相对抽象,避免引
    单一职责原则定义(Single Responsibility Principle,SRP)一个对象应该只包含 单一的职责,并且该职责被完整地封装在一个类中。Every  Object should have  a single responsibility, and that responsibility should be entirely encapsulated by t
    动态代理和CGLib代理分不清吗,看看这篇文章,写的非常好,强烈推荐。原文截图*************************************************************************************************************************原文文本************
    适配器模式将一个类的接口转换成客户期望的另一个接口,使得原本接口不兼容的类可以相互合作。
    策略模式定义了一系列算法族,并封装在类中,它们之间可以互相替换,此模式让算法的变化独立于使用算法的客户。
    设计模式讲的是如何编写可扩展、可维护、可读的高质量代码,它是针对软件开发中经常遇到的一些设计问题,总结出来的一套通用的解决方案。
    模板方法模式在一个方法中定义一个算法的骨架,而将一些步骤延迟到子类中,使得子类可以在不改变算法结构的情况下,重新定义算法中的某些步骤。
    迭代器模式提供了一种方法,用于遍历集合对象中的元素,而又不暴露其内部的细节。
    外观模式又叫门面模式,它提供了一个统一的(高层)接口,用来访问子系统中的一群接口,使得子系统更容易使用。
    单例模式(Singleton Design Pattern)保证一个类只能有一个实例,并提供一个全局访问点。
    组合模式可以将对象组合成树形结构来表示“整体-部分”的层次结构,使得客户可以用一致的方式处理个别对象和对象组合。
    装饰者模式能够更灵活的,动态的给对象添加其它功能,而不需要修改任何现有的底层代码。
    观察者模式(Observer Design Pattern)定义了对象之间的一对多依赖,当对象状态改变的时候,所有依赖者都会自动收到通知。
    代理模式为对象提供一个代理,来控制对该对象的访问。代理模式在不改变原始类代码的情况下,通过引入代理类来给原始类附加功能。
    工厂模式(Factory Design Pattern)可细分为三种,分别是简单工厂,工厂方法和抽象工厂,它们都是为了更好的创建对象。
    状态模式允许对象在内部状态改变时,改变它的行为,对象看起来好像改变了它的类。
    命令模式将请求封装为对象,能够支持请求的排队执行、记录日志、撤销等功能。
    备忘录模式(Memento Pattern)保存一个对象的某个状态,以便在适当的时候恢复对象。备忘录模式属于行为型模式。 基本介绍 **意图:**在不破坏封装性的前提下,捕获一个对象的内部状态,并在该
    顾名思义,责任链模式(Chain of Responsibility Pattern)为请求创建了一个接收者对象的链。这种模式给予请求的类型,对请求的发送者和接收者进行解耦。这种类型的设计模式属于行为
    享元模式(Flyweight Pattern)(轻量级)(共享元素)主要用于减少创建对象的数量,以减少内存占用和提高性能。这种类型的设计模式属于结构型模式,它提供了减少对象数量从而改善应用所需的对象结