北京邮电大学信息工程学院:《模式识别导论》课程教学资源(PPT课件讲稿)第五章 参数估计与非参数估计

第五章参数估计与非参数估计 参数估计与监督学习 参数估计理论 非参数估计理论
第五章 参数估计与非参数估计 • 参数估计与监督学习 • 参数估计理论 • 非参数估计理论

§5-1参数估计与监督学习 贝叶斯分类器中只要知道先验概率,条件概率或后验概 概率P(,)P(xo1),P(01(x)就可以设计分类器了。现在 来研究如何用已知训练样本的信息去估计P(O),P(xo) P(0x) 参数估计与非参数估计 参数估计:先假定研究的问题具有某种数学模型,如 正态分布,二项分布,再用已知类别的学习 样本估计里面的参数 非参数估计:不假定数学模型,直接用已知类别的学习 样本的先验知识直接估计数学模型
§5-1 参数估计与监督学习 贝叶斯分类器中只要知道先验概率,条件概率或后验概 概率 P(ωi ),P(x/ωi ), P(ωi /x)就可以设计分类器了。现在 来研究如何用已知训练样本的信息去估计P(ωi ),P(x/ωi ), P(ωi /x) 一.参数估计与非参数估计 参数估计:先假定研究的问题具有某种数学模型,如 正态分布,二项分布,再用已知类别的学习 样本估计里面的参数。 非参数估计:不假定数学模型,直接用已知类别的学习 样本的先验知识直接估计数学模型

监督学习与无监督学习 监督学习:在已知类别样本指导下的学习和训练, 参数估计和非参数估计都属于监督学习 无监督学习:不知道样本类别,只知道样本的某些 信息去估计,如:聚类分析
二.监督学习与无监督学习 监督学习:在已知类别样本指导下的学习和训练, 参数估计和非参数估计都属于监督学习。 无监督学习:不知道样本类别,只知道样本的某些 信息去估计,如:聚类分析

§5-2参数估计理论 .最大似然估计 假定: ①待估参数θ是确定的未知量 ②按类别把样本分成M类X,X2,Ⅹ3,…,XM 其中第i类的样本共N个 X=(X1X2X)并且是独立从总体中抽取的 ③X中的样本不包含(有)的信息,所以可以对每 类样本独立进行处理 ④第类的待估参数=(6102bn) 根据以上四条假定,我们下边就可以只利用第i类学习样 本来估计第类的概率密度,其它类的概率密度由其它类 的学习样本来估计
§5-2参数估计理论 一.最大似然估计 假定: ①待估参数θ是确定的未知量 ②按类别把样本分成M类X1 ,X2 ,X3 ,… XM 其中第i类的样本共N个 Xi = (X1 ,X2 ,… XN ) T 并且是独立从总体中抽取的 ③ Xi中的样本不包含 (i≠j)的信息,所以可以对每一 类样本独立进行处理。 ④ 第i类的待估参数 根据以上四条假定,我们下边就可以只利用第i类学习样 本来估计第i类的概率密度,其它类的概率密度由其它类 的学习样本来估计。 ( , ,... ) 1 2 n i T = j

1.一般原则: 第类样本的类条件概率密度: P(Xo1)=P(X(o1·6)=P(X/) 原属于类的学习样本为X=(X1,X2XN)12,M 求0的最大似然估计就是把P(X)看成的函数,求 出使它最大时的θ值。 ∴学习样本独立从总体样本集中抽取的 P(X|o1:0)=P(X|)=∏P(Xk|0 k N个学习样本出现概率的乘积 取对数:bgIP(k|)=∑bgP(xklO) k=1
1.一般原则: 第i类样本的类条件概率密度: P(Xi /ωi )= P(Xi /ωi﹒θ i ) = P(Xi /θi ) 原属于i类的学习样本为Xi=(X1 , X2 ,…XN ,)T i=1,2,…M 求θ i的最大似然估计就是把P(Xi /θi )看成θ i的函数,求 出使它最大时的θ i值。 ∵学习样本独立从总体样本集中抽取的 ∴ N个学习样本出现概率的乘积 取对数 : = = = N k i P X k i P X i P X i i i 1 ( | . ) ( | ) ( | ) = = = N k i k i k N k X P X P 1 1 log ( | ) log ( | )

对求导,并令它为0: O ∑lgP(Xk|O)=0 O P(X/0) ogP(Xk8=0 k=1 a0 N、oW9(XA10)=0 00 0. 8.86.6e 6 利用上式求出O的估值9,即为=0 有时上式是多解的,上图有5个解,只有一个解最大即O
对θ i求导,并令它为0: 有时上式是多解的, 上图有5个解,只有一个解最大即. ... log ( | ) 0 1 1 = = N k i k p P X = = = = log ( | ) 0 ......... ......... log ( | ) 0 1 1 1 i k N k p i k N k P X P X P(Xi /θi ) 利用上式求出 的估值,即为 = i i

2.多维正态分布情况 ①∑已知,μ未知,估计μ P( X)服从正态分NogP(Xk|)=0 待估参数为0=91=120μ 所以在正态分布时 P(Xk4)=-bog(2x)Σ-( ∑(Xk-) 代入上式得 ∑∑(Xk-4)=0 ∑(Xk-4)=0 k=1
2. 多维正态分布情况 ① ∑已知, μ未知,估计μ 服从正态分布 所以在正态分布时 ( | ) i i P X log ( | ) 0 1 = = P X k N k ( ) ( ) ( ) − = − − − − 1 2 1 log[ 2 | |] 2 1 P(X | ) X k X k n T k ( ) = − − = N k X k 1 1 0 ( ) = − − = N k X k 1 1 0 =1 = 待估参数为 i 代入上式得

所以∑∑Xk-N)=0 ∧ ∑ⅹk k=1 这说明未知均值的最大似然估计正好是训练样本的算术 平均
所以 这说明未知均值的最大似然估计正好是训练样本的算术 平均。 − = − = 1 1 ( ) 0 N k X k N = = = N k X k N 1 1

②2∑,p均未知 A.一维情况:n=1对于每个学习样本只有一个特征的简单 情况 O1 2 1162=Gi lgP(kk)=-bogp22b,(Xk-)(n=1)由上式得 代入∑。kogP(Xk0)=∑(Xk-6)=0 k=1 61 k=162 gP(Xk|0)=∑ (Xk-) k02 k=1 2202 ∧ b1=1 M之Xk即学习样本的算术平均 ∑(xk 样本方差 N
② ∑, μ均未知 A. 一维情况:n=1对于每个学习样本只有一个特征的简单 情况: (n=1)由上式得 即学习样本的算术平均 样本方差 2 1 1 2 1 = , = ( ) 1 2 2 2 2 1 log 2 2 1 log P(X | ) = − − X k− i k ( ) 0 1 log ( | ) 1 1 1 1 2 = − = = = P X X k N k i k N k 代入 ] 0 2 ( ) 2 1 log ( | ) [ 1 2 2 1 2 1 2 2 = − = − + = = N k i k k N k X P X = = = N k X k N 1 1 1 1 ( ) = = = − N k N X k 1 2 2 2 1 1

讨论 1.正态总体均值的最大似然估计即为学习样本的算术平均 2正态总体方差的最大似然估计与样本的方差不同,当N较 大的时候,二者的差别不大 B.多维情况:n个特征(学生可以自行推出下式) 估计值:1== 之YkB2=1 N Xk-UIX 结论:①μ的估计即为学习样本的算术平均 ②估计的协方差矩阵是矩阵(Xk-4Xk-m的算术 平均(nxn阵列,nxn个值)
• 讨论: 1.正态总体均值的最大似然估计即为学习样本的算术平均 2.正态总体方差的最大似然估计与样本的方差不同,当N较 大的时候,二者的差别不大。 B.多维情况:n个特征(学生可以自行推出下式) 估计值: 结论:①μ的估计即为学习样本的算术平均 ②估计的协方差矩阵是矩阵 的算术 平均(nⅹn阵列, nⅹn个值) = = = N k X k N 1 1 1 ( ) ( ) = = = − X − T X N k N k k 1 2 1 ( )( ) X − X k − T k
按次数下载不扣除下载券;
注册用户24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
- 北京邮电大学信息工程学院:《模式识别导论》课程教学资源(PPT课件讲稿)第二章 判别函数.ppt
- 北京邮电大学信息工程学院:《模式识别导论》课程教学资源(PPT课件讲稿)第三章 分类器的设计.ppt
- 北京邮电大学信息工程学院:《模式识别导论》课程教学资源(PPT课件讲稿)第七章 句法结构模式识别.ppt
- 北京邮电大学信息工程学院:《模式识别导论》课程教学资源(PPT课件讲稿)第一章 概论(盛立东).ppt
- 燕山大学:《微机原理》课程教学资源(PPT课件)第6章 主存储器.ppt
- 燕山大学:《微机原理》课程教学资源(PPT课件)第5章 处理器总线时序和系统总线.ppt
- 燕山大学:《微机原理》课程教学资源(PPT课件)第3章 8086指令系统.ppt
- 燕山大学:《微机原理》课程教学资源(PPT课件)第2章 IA-32结构微处理器.ppt
- 燕山大学:《微机原理》课程教学资源(讲义)第1章 背景知识.pdf
- 燕山大学:《微机原理》课程教学资源(PPT课件)微处理器简史(概述).ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第08讲 自组织竞争人工神经网络.ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第07讲 反馈网络.ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第06讲 反向传播网络.ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第05讲 自适应线性元件.ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第04讲 感知器(Perceptron).ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第03讲 神经元与网络结构.ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第02讲 Matlab与神经网络工具箱.ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第01讲 绪论.ppt
- 《人工神经网络应用及原理》课程教学课件(PPT讲稿)第00讲 前言.ppt
- 北京大学计算机学院:《人工神经网络》课程教学资源(技术入门讲稿)Artificial Neural Networks.pdf
- 北京邮电大学信息工程学院:《模式识别导论》课程教学资源(PPT课件讲稿)第八章 模糊模式识别.ppt
- 北京邮电大学信息工程学院:《模式识别导论》课程教学资源(PPT课件讲稿)第六章 聚类分析.ppt
- 北京邮电大学信息工程学院:《模式识别导论》课程教学资源(PPT课件讲稿)第四章 贝叶斯决策理论.ppt
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)附录二 矩阵方程及矩阵不等式.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)附录一 串联及逆系统和LFT的状态空间表达式.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 01 鲁棒控制问题及其数学描述.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 10 区间对象族系统的稳定性半径.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 02 控制系统的内稳定性.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 03 化模型匹配问题为广义距离问题.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 04 Hankel范数模型逼近理论.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 05 四块问题的解.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 06 H∞控制问题的解.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 07 基于H∞优化的鲁棒控制.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 08 多项式族的鲁棒稳定性分析.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 09 区间对象族系统的鲁棒稳定性检验.pdf
- 北京理工大学:《鲁棒控制》课程教学资源(讲义)Chapter 01 鲁棒控制问题及其数学描述.pdf
- 西安交通大学:智能控制概论-智能控制理论与方法_小脑模型连接控制器(CMAC)网络.ppt
- 西安交通大学:智能控制概论-智能控制理论与方法_遗传算法(GA).ppt
- 西安交通大学:智能控制概论-智能控制理论与方法_无监督学习神经元网络.ppt
- 西安交通大学:智能控制概论-智能控制理论与方法_智能控制概论.ppt