本文用于复习机器学习基础, Follow 周志华《机器学习》
线性模型与支持向量机
线性模型的基础是线性映射与最小二乘法。
问题定义:
- 单个样本为一个 d 维实向量 u=(x1,x2,⋯,xd),xi∈R 与 对应的值 y∈R
- 样本集 D={(ui,yi)1≤i≤n} 是由多个样本构成的集合
- 线性模型: 样本集上的最小二乘拟合,线性回归的目的是求解出满足最小二乘法的参数矩阵与偏置向量
作用在单个数据上的线性映射
yi^=fi(ui)=ωi,1xi,1+ωi,2xi,2+⋯+ωi,dxi,d+b=ωTui+b:Rd→R
最小二乘法满足
(ω∗,b∗)=ω,bargmini∑∥yi−yi^∥2=ω,bargmini∑∥yi−ωui−b∥
最小二乘法约定的平方根误差也成为均方误差(Mean-Squared-Error)
L(w,b)=n1i=1∑n(yi−yi^)2=n1i=1∑n(yi−ωui−b)2
正则化
Lasso 正则化
岭正则化
贝叶斯决策
贝叶斯分析的分类类别集为一个n元集合
Y={c1,c2,⋯,cn}
样本集合X内的元素具有类别集Y的属性。对于每个样本对象x
损失函数
贝叶斯决策中的损失函数定义为将样本ci分类为cj的损失
λi,j:Y×Y→[0,1]
通常使用0-1损失
λi,j=δi,j={01i=ji=j
总损失期望
R(cix)=j=1∑nλi,jP(cjx)
贝叶斯决策目的是训练一个分类器,实现对于每一个样本的分类的优化
h:X→Y
样本经过分类器h分类后的的总体损失期望为
R(h)=Ex∈X[R(h(x)x)]
分类器的求解的目的即获得一个映射 h∗ 满足对于某个样本分类
h∗(x)=c∈yargminR(cx)
贝叶斯分类器的训练