机器学习算法笔记(二十八):精准率的召回率的平衡、精准—召回率曲线与ROC曲线

上一篇文章我们提到在某些场景中我们更加看重精准率,某些场景我们更加看重召回率,而某些场景需要同时考虑这两者,希望这两者越大越好。其实同时追求精准率和召回率是不现实的,精准率和召回率是互相矛盾的,这时我们就要在两者间取得平衡。 阅读全文机器学习算法笔记(二十八):精准率的召回率的平衡、精准—召回率曲线与ROC曲线

机器学习算法笔记(二十七):混淆矩阵、精准率与召回率、F1 Score

对于回归问题来说,评论算法的好坏我们讨论过 MSE、MAE、RMSE、R Squared。但对于分类算法的评价,我们在前面始终使用“分类准确度”这一个指标。实际上分配准确度在评价分类算法的时候是存在问题的,这时我们就要引入混淆矩阵、精准率与召回率的概念。 阅读全文机器学习算法笔记(二十七):混淆矩阵、精准率与召回率、F1 Score

机器学习算法笔记(二十六):OvR与OvO

前面的几篇文章我们讨论了逻辑回归的一些基本的使用,我们也提到逻辑回归只能解决二分类问题。不过我们可以通过简单的改造,使得逻辑回归算法可以解决多分类问题,具体的改造方法就是所谓的 OvR(One vs Rest) 与 OvO(One vs One)。这两种方法不仅仅只适用于逻辑回归的改造,对于近乎所有的二分类问题,我们都可以用它们来改造以解决多分类问题。本文就将重点探讨 OvR 和 OvO 的原理与和逻辑回归结合的使用。 阅读全文机器学习算法笔记(二十六):OvR与OvO

机器学习算法笔记(二十五):sklearn中的逻辑回归与正则化

前两篇文章我们讨论了逻辑回归的基本概念与决策边界的概念,并且具体进行了编码实现。本文我们使用sklearn为我们提供的逻辑回归类来实现逻辑回归,并且讨论有关正则化的问题。 阅读全文机器学习算法笔记(二十五):sklearn中的逻辑回归与正则化