选择auc,error或logloss作为XGBoost的eval_metric如何影响其性能?假设数据不平衡。它如何影响准确性,召回率和准确性?
在不同的评估矩阵之间进行选择不会直接影响性能。评估矩阵是那里的用户来评价他的模型。准确度是另一种评估方法,precision-recall也是如此。另一方面,目标函数 会影响所有这些评估矩阵
例如,如果一个分类器的标签1的概率为0.7,标签0的概率为0.3,而另一个分类器的标签1的概率为0.9,而标签0的概率为0.1,则两者之间的误差将不同。他们将正确分类标签。
就个人而言,大多数时候,我使用roc auc评估二进制分类,如果我想更深入地研究,我会看一看混淆矩阵。
在处理不平衡数据时,需要知道多少不平衡,是30%-70%的比率还是0.1%-99.9%的比率?我读过一篇文章,内容涉及精度召回如何更好地评估高度不平衡的数据。
这里有一些更多的阅读材料:
处理高度不平衡的等级以及为什么不应该使用接收器工作特性曲线(ROC曲线),并且在高度不平衡的情况下应首选“精确度/召回率”曲线
评估指标可以影响模型准确性(或其他不同评估矩阵)的唯一方法是使用early_stopping。early_stopping根据您的评估指标来决定何时停止训练额外的助推器。early_stopping旨在防止过度拟合。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句