生成模型(Generative)和判别模型(Discriminative)

论坛 期权论坛     
匿名技术用户   2021-1-15 14:47   41   0
<p id="main-toc"><strong>目录</strong></p>
<p id="-toc" style="margin-left:0px;"> </p>
<p id="1%20%E5%86%B3%E7%AD%96%E5%87%BD%E6%95%B0Y%3Df(X)%E6%88%96%E8%80%85%E6%9D%A1%E4%BB%B6%E6%A6%82%E7%8E%87%E5%88%86%E5%B8%83P(Y%7CX)-toc" style="margin-left:0px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#1%20%E5%86%B3%E7%AD%96%E5%87%BD%E6%95%B0Y%3Df%28X%29%E6%88%96%E8%80%85%E6%9D%A1%E4%BB%B6%E6%A6%82%E7%8E%87%E5%88%86%E5%B8%83P%28Y%7CX%29">1 决策函数Y&#61;f(X)或者条件概率分布P(Y|X)</a></p>
<p id="2%20%E7%94%9F%E6%88%90%E6%96%B9%E6%B3%95%E5%92%8C%E5%88%A4%E5%88%AB%E6%96%B9%E6%B3%95-toc" style="margin-left:0px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#2%20%E7%94%9F%E6%88%90%E6%96%B9%E6%B3%95%E5%92%8C%E5%88%A4%E5%88%AB%E6%96%B9%E6%B3%95">2 生成方法和判别方法</a></p>
<p id="2.1%C2%A0%E7%94%9F%E6%88%90%E6%96%B9%E6%B3%95-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#2.1%C2%A0%E7%94%9F%E6%88%90%E6%96%B9%E6%B3%95">2.1 生成方法</a></p>
<p id="2.2%C2%A0%E5%88%A4%E5%88%AB%E6%96%B9%E6%B3%95-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#2.2%C2%A0%E5%88%A4%E5%88%AB%E6%96%B9%E6%B3%95">2.2 判别方法</a></p>
<p id="3%20%E7%89%B9%E7%82%B9%E5%8F%8A%E5%AF%B9%E6%AF%94-toc" style="margin-left:0px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#3%20%E7%89%B9%E7%82%B9%E5%8F%8A%E5%AF%B9%E6%AF%94">3 特点及对比</a></p>
<p id="3.1%20%E7%94%9F%E6%88%90%E6%A8%A1%E5%9E%8B-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#3.1%20%E7%94%9F%E6%88%90%E6%A8%A1%E5%9E%8B">3.1 生成模型</a></p>
<p id="3.2%20%E5%88%A4%E5%88%AB%E6%A8%A1%E5%9E%8B-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#3.2%20%E5%88%A4%E5%88%AB%E6%A8%A1%E5%9E%8B">3.2 判别模型</a></p>
<p id="3.3%20%E6%80%BB%E7%BB%93-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#3.3%20%E6%80%BB%E7%BB%93">3.3 总结</a></p>
<p id="4%C2%A0%E5%AF%B9%E4%BA%8E%E8%B7%9F%E8%B8%AA%E7%AE%97%E6%B3%95-toc" style="margin-left:0px;"><a href="https://blog.csdn.net/weixin_39910711/article/details/89483662#4%C2%A0%E5%AF%B9%E4%BA%8E%E8%B7%9F%E8%B8%AA%E7%AE%97%E6%B3%95">4 对于跟踪算法</a></p>
<hr id="hr-toc">
<h1 id="1%20%E5%86%B3%E7%AD%96%E5%87%BD%E6%95%B0Y%3Df(X)%E6%88%96%E8%80%85%E6%9D%A1%E4%BB%B6%E6%A6%82%E7%8E%87%E5%88%86%E5%B8%83P(Y%7CX)">1 决策函数Y&#61;f(X)或者条件概率分布P(Y|X)</h1>
<p>       监督学习的任务就是从数据中学习一个模型(也叫分类器),应用这一模型,对给定的输入X预测相应的输出Y。这个模型的一般形式为<strong>决策函数Y&#61;f(X)</strong>或者<strong>条件概率分布P(Y|X)</strong>。</p>
<p>       <strong>决策函数Y&#61;f(X):</strong>你输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了该X对应的类别了。</p>
<p>       <strong>条件概率分布P(Y|X)</strong>:你输入一个X,它通过比较它属于所有类的概率,然后输出概率最大的那个作为该X对应的类别。例如:如果P(w1|X)大于P(w2|X),那么我们就认为X是属于w1类的。</p>
<p>        所以上面两个模型都可以实现<strong>对给定的输入X预测相应的输出Y的功能</strong>。实际上通过<strong>条件概率分布P(Y|X)</strong>进行预测也是隐含着表达成<strong>决策函数Y&#61;f(X)</strong>的形式的。例如也是两类w1和w2,那么我们求得了P(w1|X)和P(w2|X),那么实际上判别函数就可以表示为Y&#61; P(w1|X)/P(w2|X),如果Y大于1或者某个阈值,那么X就属于类w1,如果小于阈值就属于类w2。而同样,很神奇的一件事是,实际上决策函数Y&#61;f(X)也是隐含着使用P(Y|X)的。因为一般决策函数Y&#61;f(X)是通过学习算法使你的<strong>预测和训练数据之间的误差平方</strong>最小化,而贝叶斯告诉我们,虽然它没有显式的运用贝叶斯或者以某种形式计算概率,但它实际上也是在<strong>隐含的输出极大似然假设(MAP假设)</strong>。也就是说学习器的任务是在<strong>所有假设模型有相等的先验概率条件下,输出极大似然假设</strong>。</p>
<p>        所以呢,分类器的设计就是在给定训练数据的基础上估计其<strong>概率模型P(Y|X)</strong>。如果可以估计出来,那么就可以分类了。但是一般来说,概率模型是比较难估计的。给一堆数给你,特别是数不多的时候,你一般很难找到这些数满足什么规律吧。那能否不依赖概率模型直接设计分类器呢?事实上,<strong>分类器就是一个决策函数(或决策面)</strong>,如果能够从要解决的问题和训练样本出发直接求出判别函数,就不用估计概
分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:7942463
帖子:1588486
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP