pdf文档 深度学习与PyTorch入门实战 - 24. Logistic Regression

798.46 KB 12 页 0 评论
语言 格式 评分
中文(简体)
.pdf
3
摘要
文档详细介绍了逻辑回归在二元分类中的应用,主要内容包括:逻辑回归的定义、sigmoid 函数的使用、分类任务中的损失函数选择(MSE 和 Cross Entropy Loss)以及分类目标与优化方法的对比。文档还讨论了直接使用准确率作为目标函数的局限性,包括梯度问题和连续性的问题。
AI总结
##(Logistic Regression) 主讲人:龙良曲 Logistic Regression 的主要内容总结如下: 1. Logistic Regression 是一种将线性模型用于概率预测的方法。 2. 使用 sigmoid 函数将线性输出映射到概率范围内,适用于分类任务。 3. 逻辑回归在分类中使用交叉熵损失函数进行优化,而不是均方误差(MSE),因为交叉熵更适合处理类别概率问题。 4. 在二分类任务中,模型输出的概率用于预测类别,通常设阈值为0.5: - 若概率大于0.5,则预测为正类(1)。 - 否则,预测为负类(0)。 5. 优化目标: - 回归问题:最小化预测值与真实值之间的距离(如 MSE)。 - 分类问题:可采用两种方法: - 最小化预测概率与真实概率分布之间的距离。 - 最小化两者之间的差异。 6. 为什么不直接最大化准确率? - 准确率函数的梯度不具备连续性,导致无法有效进行优化。 文档最后指出,下一节课将详细讲解交叉熵损失函数。 以上是本次关于 Logistic Regression 的学习总结,主要涵盖了其核心概念、应用场景和优化方法。
P1
P2
P3
P4
P5
P6
P7
下载文档到本地,方便使用
- 可预览页数已用完,剩余 5 页请下载阅读 -
文档评分
请文明评论,理性发言.