机器学习8--支持向量机(下)
机器学习8—支持向量机(下) 上节回顾:从逻辑回归引出支持向量机—>定义函数间隔和几何间隔—>最优间隔分类器(通过最大化间隔,得到最优)—>引出拉格朗日对偶(作用:通过对偶将算法变得更高效;处理高维)—>将对偶用到最优间隔分类器本节内容:核函数(升维)—
机器学习8—支持向量机(下) 上节回顾:从逻辑回归引出支持向量机—>定义函数间隔和几何间隔—>最优间隔分类器(通过最大化间隔,得到最优)—>引出拉格朗日对偶(作用:通过对偶将算法变得更高效;处理高维)—>将对偶用到最优间隔分类器本节内容:核函数(升维)—
生成学习算法 说明: m为样本数目,i为第i个样本数目; joint likelihood :联合似然估计判别学习算法和生成学习算法的区别: 算法 Learn 说明 概率类型 判别学习算法 $P(y/x)$ 特征x下,输出y的概率 先验概率(经验为x) 生
数据预处理—分箱(平滑)和归一化
机器学习2-GLM 广义线性模型 对于高斯分布、伯努利分布、多项式分布,均称之为GLM。
一、 符号说明 $m$:样本数目(行数)<—>$i$某一行$n:$特征数目(列数)<—>$j$某一列$x,y$:输入和输出变量$i^{th}$:training example<—>$(x^{(i)}, y{(j)})$$\theta$学习参数
[TOC]
作息
明确自己的目标 数据挖掘方向 需要的知识:数据结构和算法的基本知识;机器学习中数据挖掘方向的算法;语言:以Python和Java为主。
文章显示部分: <figure class="highlight