这篇文章将为大家详细讲解有关sklearn中SVC实现与类参数的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
sklearn-SVC实现与类参数
对应的API:http://scikit-learn.sourceforge.net/stable/modules/generated/sklearn.svm.SVC.html
它是基于libsvm实现的。随着样本数量的增加,拟合时间的复杂度要高于二次,这就使得当样板数量超过一万个时,很难扩展到数据集中。
在多类处理时,是按照1对1的方案进行处理的。
函数的的定义为:
def __init__ (self, C=1.0, kernel='rbf', degree=3, gamma='auto',coef0=0.0, verbose=False, max_iter=-1, decision_function_shape='ovr', random_state=None):
参数的含义:
- C:float参数 默认值为1.0。错误项的惩罚系数。C越大,即对分错样本的惩罚程度越大,因此在训练样本中准确率越高,但是泛化能力降低,也就是对测试数据的分类准确率降低。相反,减小C的话,容许训练样本中有一些误分类错误样本,泛化能力强。对于训练样本带有噪声的情况,一般采用后者,把训练样本集中错误分类的样本作为噪声。
- kernel: str参数 默认为‘rbf‘,算法中采用的核函数类型,可选参数有:
linear:线性核函数
poly:多项式核函数
rbf:径像核函数/高斯核
sigmod:sigmod核函数
precomputed:核矩阵
- degree :int型参数 (default=3),这个参数只对多项式核函数(poly)有用,是指多项式核函数的阶数n,如果给的核函数参数是其他核函数,则会自动忽略该参数。
- gamma:float参数,默认为auto核函数系数,只对'rbf'、 ‘poly' 、 ‘sigmoid'有效。
如果gamma为auto,代表其值为样本特征数的倒数,即1/n_features。
- coef0:float参数 默认为0.0
核函数中的独立项,只有对‘poly'和‘sigmod'核函数有用,是指其中的参数c
- probability:bool参数 默认为False
是否启用概率估计。 这必须在调用fit()之前启用,并且会fit()方法速度变慢。
- shrinking:bool参数 默认为True
是否采用启发式收缩方式。
- tol: float参数 默认为1e^-3
svm停止训练的误差精度。
- cache_size:float参数 默认为200
指定训练所需要的内存,以MB为单位,默认为200MB。 - class_weight:字典类型或者‘balance'字符串。默认为None
给每个类别分别设置不同的惩罚参数C,则该类别的惩罚系数为class_weight[i]*C,如果没有给,则会给所有类别都给C=1,即前面参数指出的参数C。
如果给定参数‘balance',则使用y的值自动调整与输入数据中的类频率成反比的权重。
- verbose :bool参数 默认为False
是否启用详细输出。 此设置利用libsvm中的每个进程运行时设置,如果启用,可能无法在多线程上下文中正常工作。一般情况都设为False,不用管它。
- max_iter :int参数 默认为-1
最大迭代次数,如果为-1,表示不限制
- random_state:int型参数 默认为None
伪随机数发生器的种子,在混洗数据时用于概率估计。
SVC的方法
1、fit()方法:用于训练SVM,具体参数已经在定义SVC对象的时候给出了,这时候只需要给出数据集X和X对应的标签y即可。
2、predict()方法:基于以上的训练,对预测样本T进行类别预测,因此只需要接收一个测试集T,该函数返回一个数组表示个测试样本的类别。
3、predict_proba():返回每个输入类别的概率,这与predict方法不同,predict方法返回的输入样本属于那个类别,但没有概率。使用此方法时,需要在初始化时,将 probability参数设置为True。
例如:
import numpy as np import matplotlib.pyplot as plt from sklearn import svm # we create 40 separable points np.random.seed(0) X = np.r_[np.random.randn(20, 2) - [2, 2], np.random.randn(20, 2) + [2, 2]] Y = [0] * 20 + [1] * 20 # fit the model clf = svm.SVC(kernel='linear',probability=True) clf.fit(X, Y) print(clf.predict_proba([[-0.1,0.7],[0.3,0.5]])) #result #[[ 0.41844015 0.58155985] #[ 0.34810738 0.65189262]]
如果初始化时不适用probability参数:
clf = svm.SVC(kernel='linear') clf.fit(X, Y) print(clf.predict([[-0.1,0.7],[0.3,0.5]])) # get the separating hyperplane w = clf.coef_[0] #输出的结果为:[1,1]
属性有哪些:
svc.n_support_:各类各有多少个支持向量
svc.support_:各类的支持向量在训练样本中的索引
svc.support_vectors_:各类所有的支持向量
关于“sklearn中SVC实现与类参数的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。