机器学习15-1--SVD
机器学习15-1—SVD 本章在《机器学习实战》的14章有具体的应用——推荐系统。通过svd,可以将矩阵A进行降维处理。如下图: 调用函数直接计算三个参数。 选取合适的k值。示意图: 那么,我们的k值是如何获得呢?我们的做法是计算能量信息,保存90%以上的能量即可。能量的计算:
机器学习15-1—SVD 本章在《机器学习实战》的14章有具体的应用——推荐系统。通过svd,可以将矩阵A进行降维处理。如下图: 调用函数直接计算三个参数。 选取合适的k值。示意图: 那么,我们的k值是如何获得呢?我们的做法是计算能量信息,保存90%以上的能量即可。能量的计算:
机器学习14—PCA主成分分析 概述 高斯分布的样本 原始变量的线性组合表示新的综合变量,即主成分 解决特征过多,样本过少的问题 两个特征强相关的问题,或者两个特征有一个多余 滤除噪声 与《模型选择和规则化》对比 《模型选择和规则化》要剔除的特征主要是和类标签无关的特征。比
机器学习13—EM算法—应用到三个模型: 1,2,3因子分析模型 使用场所: 标签z是连续的 样本个数大于特征数 高维—>低维 潜在的假想变量和随机影响变量的线性组合表示原始变量 边缘和条件概率分布 后面的推导用到了边缘和条件分布: 已知 边缘分布 条件概率分布
用LaTex模版写简历(Windows) 安装环境 安装软件:下载install-tl.exe,进行安装。详细参考:在 MS Windows 作業系統平台裝設 TeX Live 2011 安装字体:下载这四种字体(点击下载),并安装(点击查看安装方式) 。 写简历 主要参考
机器学习12-2—EM算法—应用到三个模型: 高斯混合模型 ,混合朴素贝叶斯模型,因子分析模型(下一部分) 判别模型求的是条件概率p(y|x)。常见的判别模型有线性回归、对数回归、线性判别分析、支持向量机、boosting、条件随机场、神经网络等。 生成模型求的是联合概率p(x
机器学习12-1—K-means算法(无监督) 本章开始接触第一个无监督学习算法。无监督学习算法可用在新闻局累、图像分割等。 无监督学习概念 定义:简单讲,就是没有分类标签y。非监督式学习是一种机器学习的方式,并不需要人力来输入标签。它是监督式学习和强化学习等策略之外的一种选择
机器学习11-2—怎样用机器学习ML解决问题和在线学习 本章讲了,通过误差、偏差和优化算法来进行算法的调试。并讲了一些调试的方法。然后,进行了误差分析,去掉一些不必要的特征。最后举例说明。 算法的调试(Debugging Learning Algorithms) 存在的问题 1、
机器学习11-1—贝叶斯统计和规则化 贝叶斯统计和规则化( Bayesian statistics and regularization) 贝叶斯统计和规则化的目的:找更好的估计方法来减少过度拟合情况的发生。 回顾,总结: 线性回归中使用的估计方法是最小二乘法 logis
机器学习10—学习理论的基础知识 本章:模型选择(交叉选择的方法)—>特征选择。 模型选择 设可选的模型集合为: ,那么 SVM、 logistic回归、神经网络等模型都包含在 M 中。 训练集使用 S 来表示 任务:从 M 中选择最好的模型 方法一:简单交叉验证(数据
机器学习9—学习理论的基础知识 基本符号 $\epsilon$ 泛化误差: 从训练样本数据中推导的规则,能够适用于新的样本的能力。 对服从分布D的样本,分类错误的概率。 $\hat{\epsilon}$ 训练误差 训练误差在训练样本中训练出的规则,能够适用于训