你将收获

理解回归、L2损失函数、L1损失函数、Huber损失函数、梯度下降、L2正则、L1正则等基本概念

掌握特征工程的常用处理方法

运用线性回归模型解决实际问题

适用人群

有一定数学和计算机编程基础,希望掌握机器学习中线性回归模型的学员。

课程介绍

本章介绍机器学习中的线性模型,并通过案例讲解如何使用线性模型。

课程讨论

老师很了解内容,讲述清晰,表达简要。
为什么我的评论看不到,就因为我说了讲的不好吗
卿老师讲的很到位,自己基本听着没有思路卡顿,很清晰
卿老师开始讲的还好,后面就有点勉强了。从过拟合后半部分开始,我感觉就有点照着ppt念了,讲不清楚
解决过拟合 1.增加正则项 2.增加训练数据
我已经看完一遍视频了,这堂课是最简单的,所以好理解,之后会难一些,特别是支持向量机那一章,太难。
卿老师说的我完全能听得懂还不吃力,都是从考研数一基础知识里延伸出来的,真心觉得这个老师很棒!
老师讲解的很清楚 ,听起来不吃力,不用再去找这个、哪个了;大赞
老师讲得特别清晰、细致,听起来顺畅易懂,好评好评
这个老师讲的还是比较清楚了,但是东西有点多,很多东西串一块需要下来多看几次,要不然容易忘。

同学笔记

  • qq_32068743 2020-05-07 23:33:39

    来源:线性回归简介 查看详情

     

    回归任务定义

         

    线性回归

    残差

    残差平方和

     

     

     

     

  • weixin_40031483 2020-04-21 20:39:44

    来源:过拟合 查看详情

    欠拟合(underfitting):过于简单的模型与训练数据拟合的欠佳(和测试数据自然也拟合的不好)

    过拟合(overfitting):过于复杂的模型与训练数据拟合得太好,但和测试数据拟合得不好。

    减弱模型过拟合的方法:

    1.增加数据量,改变(均值N,方差);(根据经验,如果是线性模型,数据量是参数的5-10倍时,可以取得很好效果)

    2.样本数量一定时,可以增加正则项减弱过拟合(如:目标函数中增加L2正则项,得到岭回归(Ridge Regression) )

    3.减少数据的噪声(改变方差)

  • weixin_40031483 2020-04-21 10:29:42

    来源:回归中的损失函数 查看详情

    L2损失优点:平方项为二次函数形式,L2损失处处可导,优化计算方便,但对噪声敏感,会放大噪声。

    L1损失优点:对噪声不敏感,但在0处不可导,在优化计算不方便。

    Huber损失:在|r|<δ时取L2损失,优化计算方便;在|r|>δ时为L1损失,对噪声不敏感。在δ处需减去1/2(r的平方),保证连续。

没有更多了