深度学习与PyTorch入门实战 - 24. Logistic Regression
798.46 KB
12 页
0 评论
语言 | 格式 | 评分 |
---|---|---|
中文(简体) | .pdf | 3 |
摘要 | ||
文档详细介绍了逻辑回归在二元分类中的应用,主要内容包括:逻辑回归的定义、sigmoid 函数的使用、分类任务中的损失函数选择(MSE 和 Cross Entropy Loss)以及分类目标与优化方法的对比。文档还讨论了直接使用准确率作为目标函数的局限性,包括梯度问题和连续性的问题。 | ||
AI总结 | ||
##(Logistic Regression) 主讲人:龙良曲
Logistic Regression 的主要内容总结如下:
1. Logistic Regression 是一种将线性模型用于概率预测的方法。
2. 使用 sigmoid 函数将线性输出映射到概率范围内,适用于分类任务。
3. 逻辑回归在分类中使用交叉熵损失函数进行优化,而不是均方误差(MSE),因为交叉熵更适合处理类别概率问题。
4. 在二分类任务中,模型输出的概率用于预测类别,通常设阈值为0.5:
- 若概率大于0.5,则预测为正类(1)。
- 否则,预测为负类(0)。
5. 优化目标:
- 回归问题:最小化预测值与真实值之间的距离(如 MSE)。
- 分类问题:可采用两种方法:
- 最小化预测概率与真实概率分布之间的距离。
- 最小化两者之间的差异。
6. 为什么不直接最大化准确率?
- 准确率函数的梯度不具备连续性,导致无法有效进行优化。
文档最后指出,下一节课将详细讲解交叉熵损失函数。
以上是本次关于 Logistic Regression 的学习总结,主要涵盖了其核心概念、应用场景和优化方法。 |
P1
P2
P3
P4
P5
P6
P7
下载文档到本地,方便使用
- 可预览页数已用完,剩余
5 页请下载阅读 -
文档评分