from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
from sklearn.metrics import f1_score
from sklearn.metrics import confusion_matrix
y_true = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1, 0, 0 ,1]
y_pred = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1, 0, 1 ,1]
precision_score(y_true = y_true, y_pred = y_pred) # 0.88888888888888884
recall_score(y_true = y_true, y_pred = y_pred) # 1.0
f1_score(y_true = y_true, y_pred = y_pred) # 0.94117647058823528
confusion_matrix(y_true = y_true, y_pred = y_pred)
# array([[4, 1],
# [0, 8]])
查准率、查全率、F1、混淆矩阵
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- 查准率、查全率和F1 差准率:P=TP/TP+FP (预测结果和真实结果都为正的样本占总的预测结果为正的样本的比例...
- 在机器学习中,对于一个模型的性能评估是必不可少的。准确率(Accuracy)、查准率(Precision)、查全率...
- 书接上文: 之前为什么说自己浮躁?因为连最基本的机器学习模型性能评估最基本的的查全率和查准率都搞不清楚,还妄想搞机...
- 在一个理想的世界里,我们的模型能够给出完全准确的分类判断,但事实是模型总是会出错的。 All models are...