Introduction
1.
朴素贝叶斯
1.1.
朴素贝叶斯算法简介
1.2.
概率基础复习
1.3.
案例:商品评论情感分析
1.4.
朴素贝叶斯算法总结
2.
支持向量机
2.1.
SVM算法简介
2.2.
SVM算法api初步使用
2.3.
SVM算法原理
2.4.
SVM的损失函数
2.5.
SVM的核方法
2.6.
SVM回归
2.7.
SVM算法api再介绍
2.8.
SVM案例实践
2.9.
SVM总结
3.
EM算法
3.1.
初识EM算法
3.2.
EM算法介绍
3.3.
EM算法实例
4.
HMM模型
4.1.
马尔科夫链
4.2.
HMM简介
4.3.
HMM模型基础
4.4.
前向后向算法评估观察序列概率
4.5.
维特比算法解码隐藏状态序列
4.6.
鲍姆-韦尔奇算法简介
4.7.
HMM模型API介绍
5.
集成学习进阶
5.1.
xgboost算法原理
5.2.
xgboost算法api介绍
5.3.
xgboost案例介绍
5.4.
otto案例介绍 -- Otto Group Product Classification Challenge【xgboost实现】
5.5.
lightGBM算法原理
5.6.
lightGBM算法api介绍
5.7.
lightGBM案例介绍
5.8.
《绝地求生》玩家排名预测
5.9.
stacking算法基本思想
5.10.
住房月租金预测
6.
拓展知识
6.1.
向量与矩阵的范数
6.2.
朗格朗日乘子法
6.3.
huber损失函数
6.4.
极大似然函数取对数的原因
Published with GitBook
机器学习(算法篇 2 )
2.6 SVM回归
学习目标
了解SVM回归的实现原理
SVM回归
是让尽可能多的实例位于预测线上,同时限制间隔违例(也就是不在预测线距上的实例)。
线距的宽度由超参数ε控制。