电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第11讲 特征提取 Feature Extraction

电子科技大学研究生《模式识别与机器学习》课程 第11讲特征提取 11 Feature Extraction 郝家胜(Jiasheng Hao) Ph.D..Associate Professor Email:hao@uestc.edu.cn School of Automation Engineering,Center for Robotics University of Electronic Science and Technology of China,Chengdu 611731
电子科技大学研究生《模式识别与机器学习》课程 Email: hao@uestc.edu.cn School of Automation Engineering, Center for Robotics University of Electronic Science and Technology of China, Chengdu 611731 郝家胜 (Jiasheng Hao) Ph.D., Associate Professor 第11讲 特征提取 11 Feature Extraction

回顾 956 分类器设计 样本 模式采集 预处理 特征选取 分类决策 原始特征的采集和转换 有效特征的生成 特征提取 特征选择 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 回顾

回顾 口特征选择 ■特征这梓(selection):从原始特征中桃选出一些 最有代表性,分类性能最好的特征 ■常见类别可分离性判据: 一 基于距离的可分性判据 基于概率密度分布的判据 ☐特征提取 特征提取(extraction):用映射(或变换)的方法 进一步处理,把原始特征变换为较少的新特征 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 □ 特征选择 ■ 特征选择(selection) :从原始特征中挑选出一些 最有代表性,分类性能最好的特征 ■ 常见类别可分离性判据: - 基于距离的可分性判据 - 基于概率密度分布的判据 □ 特征提取 特征提取 (extraction):用映射(或变换)的方法 进一步处理,把原始特征变换为较少的新特征 回顾

回顾 口PCA是对数据进行降维的处理 口PCA是完全无参数限制的。在PCA的计算过程中完 全不需要人为的设定参数或是根据任何经验模型对 计算进行干预,最后的结果只与数据相关,与用户 是独立的。 口但另一方面,如果用户对观测对象有一定的先验知 识,掌握了数据的一些特征,却无法通过参数化等 方法对处理过程进行干预,可能会得不到预期的效 果,效率也不高 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 □ PCA是对数据进行降维的处理 □ PCA是完全无参数限制的。在PCA的计算过程中完 全不需要人为的设定参数或是根据任何经验模型对 计算进行干预,最后的结果只与数据相关,与用户 是独立的。 □ 但另一方面,如果用户对观测对象有一定的先验知 识,掌握了数据的一些特征,却无法通过参数化等 方法对处理过程进行干预,可能会得不到预期的效 果,效率也不高 回顾

例 K-L变换 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 K-L 变换

K-L变换原理 口基于Karhunen-Loeve?变换的特征提取方法是针对在 特征空间分布的样本特征向量和类别信息,结合样本 类别信息实行空间变换,找到可近似表示原样本的维 数较少的组合特征,达到降维的目的 ☐不失一般性,认为D为无限大的情况,并设原信号x可 用一组正交变换基u表示: ,= 1 i=j 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 K-L变换原理 □基于Karhunen-Loeve变换的特征提取方法是 □不失一般性,认为D为无限大的情况,并设原信号x可 用一组正交变换基uj表示:

K-L变换原理 5 ☐现要求降维至d维,也就是说将d+1维以上的成分略去,其 表示成: 显然原信号会因此受到一些损失,而每个信号的 损失则表示成x与x之差。 “% -=∑c +] 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 □现要求降维至d 维,也就是说将d+1维以上的成分略去,其 表示成: ■ 显然原信号会因此受到一些损失,而每个信号的 损失则表示成x与 之差。 K-L变换原理

K-L变换原理 ☐现在的问题是如何在给定一个训练样本集条件下要找一 个好的正交变换,能使这种误差从总体上来说是最小 口在这种情况下最常用的指标是均方误差最小,或称均方 误差的期望值最小,即: 5=E[(-y(-刘 ■或者说要找一个正交变换,使样本集截取所造成的 损失的均方误差的期望值为最小。 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 □现在的问题是如何在给定一个训练样本集条件下要找一 个好的正交变换,能使这种误差从总体上来说是最小 □在这种情况下最常用的指标是均方误差最小,或称均方 误差的期望值最小,即: ■ 或者说要找一个正交变换,使样本集截取所造成的 损失的均方误差的期望值为最小。 K-L变换原理

K-L变换原理 E=[-y(-刿 x-龙= ∑c4 i=d+ -84gar d+1 -22ee网 -6 -E 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 K-L变换原理

K-L变换原理 956 -6 公%,→4=%公” ,=4x c=x, 区[g小2i 电子科技大学研究生《模式识别与机器学习》
电子科技大学研究生《模式识别与机器学习》 K-L变换原理
按次数下载不扣除下载券;
注册用户24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第10讲 特征提取 Feature Extraction.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第9讲 特征选择 Feature Selection.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第8讲 非监督学习 Unsupervised Learning.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第7讲 其他分类方法 Classifiers for More.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第6讲 近邻法与Logist回归 Nearest Neighbors & Logist Regression.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第5讲 人工神经网络分类器 Classifiers with ANN.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第4讲 支持向量机 Support Vector Machines.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第3讲 线性模型 Linear Models.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第2讲 模型评估与选择 Evaluation and Selection of Models.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第1讲 概论 Introduction(主讲:郝家胜).pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)SVM Tutorial.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)A random forest guided tour.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)Real-Time Human Pose Recognition in Parts from Single Depth Images.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)An introduction to neural networks.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)An introduction to neural networks for beginners.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)Handwritten Digit Recognition with a Back-Propagation Network.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)Gradient-Based Learning Applied to Document Recognition.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)Attention Is All You Need.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)Learning representations by back-propagating errors.pdf
- 《机器学习 Machine Learning》课程教学资源(书籍文献)Finding Structure in Time.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第12讲 特征学习 Feature Learning.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第13讲 卷积神经网络 Convolution Neural Nets.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第14讲 深度CNN Deep CNN.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第16讲 生成对抗网络 GAN.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第17讲 循环神经网络 Recurrent Neural Networks.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第18讲 强化学习 Reinforcement Learning.pdf
- 电子科技大学:《机器学习 Machine Learning》课程教学资源(课件讲稿)第12讲 超参数优化与自动学习 Hyperparameters Optimization & AutoML.pdf
- 《C++程序设计》课程教学资源(课件讲稿)第三篇 基于对象的程序设计 第9章 关于类和对象的进一步讨论.pdf
- 杭州电子科技大学:《计算机视觉》课程教学资源(PPT课件讲稿)第五讲 目标分割.pdf
- 杭州电子科技大学:《人工智能导论》课程教学资源(PPT课件讲稿)第六讲 机器学习基础(机器学习与知识发现).pdf
- 杭州电子科技大学:《人工智能导论》课程教学资源(PPT课件讲稿)第三讲 搜索与求解.pdf
- 杭州电子科技大学:《人工智能导论》课程教学资源(PPT课件讲稿)第二讲 人工智能概述.pdf
- 杭州电子科技大学:《人工智能与模式识别》课程教学资源(讲稿)第二讲 基础知识(概念).pdf
- 杭州电子科技大学:《人工智能与模式识别》课程教学资源(讲稿)第一讲 绪论(主讲:周文晖).pdf
- 杭州电子科技大学:《人工智能导论》课程教学资源(PPT课件讲稿)第一讲 绪论(主讲:周文晖).pdf
- Deep Learning-Based CT Radiomics for Feature Representation and Analysis of Aging Characteristics of Asian Bony Orbit.pdf
- 杭州电子科技大学:《计算机视觉》课程教学资源(PPT课件讲稿)第一讲 绪论(主讲:周文晖).pdf
- 杭州电子科技大学:《计算机视觉》课程教学资源(PPT课件讲稿)第三讲 图像预处理.pdf
- 杭州电子科技大学:《计算机视觉》课程教学资源(PPT课件讲稿)第二讲 图像采集.pdf
- 杭州电子科技大学:《计算机视觉》课程教学资源(PPT课件讲稿)第四讲 基元检测.pdf