假设数据满足高斯分布的情况下
将y = wx+b 中的y和期望带入高斯分布函数,取对数化简后为 常数-(平方损失函数/方差),是近似平方损失的函数且方差随数据变化是个定值。
固定X使得W为参数时的似然估计最优解得到的概率,等同于真实W下的概率。
所以最大化似然函数值转换为最小化平方损失函数。
所以线性回归实质是寻找一组最贴切的权值,也就是最大化似然函数值。平方损失函数,是最大化函数值的一个简便的式子。
至于这个式子在非线性情况下是否成立我就不知道了。以上在Andrew Ng的课程中有教,我也是刚学如有错误请指证。
可以装xp虚拟机。微软的官网上边有下载。不要自己乱下载,不然会有很多未知问题。现在较流行的是vmware7.0 。window xp pro 镜像文件。下载好备用。(找一个“电脑疯子”xp镜像文件,600m的纯净版最好。)记好路径。
Hadoop|
Apache Pig|
Apache Kafka|
Apache Storm|
Impala|
Zookeeper|
SAS|
TensorFlow|
人工智能基础|
Apache Kylin|
Openstack|
Flink|
MapReduce|
大数据|
云计算|
用户登录
还没有账号?立即注册
用户注册
投稿取消
| 文章分类: |
|
还能输入300字
上传中....
我有酒你有孤独吗