我像这样使用 scikit-learn 的 SVM:
clf = svm.SVC()
clf.fit(td_X, td_y)
我的问题是,当我使用分类器来预测训练集成员的类别时,即使在 scikit-learns 实现中,分类器也会出错。(例如。clf.predict(td_X[a])==td_Y[a]
)
是的,运行此代码,例如:
from sklearn import svm
import numpy as np
clf = svm.SVC()
np.random.seed(seed=42)
x=np.random.normal(loc=0.0, scale=1.0, size=[100,2])
y=np.random.randint(2,size=100)
clf.fit(x,y)
print(clf.score(x,y))
得分为 0.61,因此近 40% 的训练数据被错误分类。部分原因是即使默认内核是'rbf'
(理论上应该能够完美地对任何训练数据集进行分类,只要你没有两个具有不同标签的相同训练点),也有正则化来减少过拟合。默认的正则化器是C=1.0
.
如果您运行与上述相同的代码但切换clf = svm.SVC()
到clf = svm.SVC(C=200000)
,您将获得 0.94 的准确度。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句