(29 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
<br> | <br> | ||
<center><font size="4"></font> | <center><font size="4"></font> | ||
− | <font size="4"> | + | <font size="4">Bayes Rule and Its Applications </font> |
− | A [ | + | A [http://www.projectrhea.org/learning/slectures.php slecture] by [[ECE]] student Weibao Wang |
− | Partly based on the [[ | + | Partly based on the [[2014_Spring_ECE_662_Boutin_Statistical_Pattern_recognition_slectures|ECE662 Spring 2014 lecture]] material of [[User:Mboutin|Prof. Mireille Boutin]]. |
</center> | </center> | ||
+ | ---- | ||
+ | |||
+ | ---- | ||
+ | == 大纲== | ||
+ | *贝叶斯定理 | ||
+ | *贝叶斯定理的推倒 | ||
+ | *贝叶斯定理应用实例 | ||
+ | *贝叶斯分类器 | ||
+ | *参考文献 | ||
---- | ---- | ||
Line 21: | Line 30: | ||
其中P(A|B)代表在事件B发生的情况下事件A发生的概率。 | 其中P(A|B)代表在事件B发生的情况下事件A发生的概率。 | ||
− | + | 在贝叶斯定理中: | |
*P(A)为A的先验概率,P(B)为B的先验概率 | *P(A)为A的先验概率,P(B)为B的先验概率 | ||
Line 44: | Line 53: | ||
</center> | </center> | ||
+ | 由以上两个方程,我们可以得出: | ||
+ | <center> | ||
+ | <math>P(B|A)P(A) = P(A\cap B) = P(A|B)P(B)</math> | ||
+ | </center> | ||
− | + | 等式两边同时除以P(B),进而得出贝叶斯定理: | |
+ | <center> | ||
+ | <math>P(A|B) = \frac{P(B|A)P(A)}{P(B)}</math> | ||
+ | </center> | ||
+ | |||
+ | 利用贝叶斯定理,我们还可以得出全概率公式。 | ||
+ | |||
+ | 我们已知对于事件A,B和A的补集A',有: | ||
+ | <center> | ||
+ | <math>P(B) = P(B \cap A) + P(B \cap A')</math> | ||
+ | </center> | ||
+ | |||
+ | <center> | ||
+ | <math>P(B\cap A) = P(B|A)P(A)</math> | ||
+ | </center> | ||
+ | |||
+ | 所以我们可以得到全概率公式: | ||
+ | |||
+ | <center> | ||
+ | <math>P(B) = P(B|A)P(A)+P(B|A')P(A')</math> | ||
+ | </center> | ||
+ | |||
+ | 将全概率公式带入条件概率公式,我们可以得到贝叶斯定理的另一种写法: | ||
+ | |||
+ | <center> | ||
+ | <math>P(A|B) = \frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|A')P(A')}</math> | ||
+ | </center> | ||
+ | ---- | ||
+ | |||
+ | ---- | ||
+ | == 贝叶斯定理应用实例== | ||
+ | 我们来看一个例子: 假设我们有两个笼子,一号笼子里有15只鸡和5只兔子,二号笼子里有10只鸡和10只兔子。现在随机选择一个笼子,从中取出一只兔子,请问这只兔子来自一号笼子的概率有多大? | ||
+ | |||
+ | 对于这类问题,我们可以用贝叶斯定理解答。我们假定,B1表示一号笼子,B2表示二号笼子。由于这两个笼子是一样的,所以P(B1)=P(B2),也就是说,在取出兔子之前,这两个笼子被选中的概率相同。因此,P(B1)=P(B2)=0.5. | ||
+ | 再假定,R表示兔子,所以问题就变成了在已知R的情况下,来自一号笼子的概率有多大,即求P(B1|R)。我们把这个概率叫做"后验概率"。 | ||
+ | |||
+ | 根据贝叶斯定理,我们可以得到: | ||
+ | |||
+ | <center> | ||
+ | <math>P(B1|R) = \frac{P(R|B1)P(B1)}{P(R)}</math> | ||
+ | </center> | ||
+ | |||
+ | 已知,P(B1)等于0.5,P(R|B1)为一号笼子中取出兔子的概率,等于0.25,那么求出P(R)就可以得到答案。根据全概率公式, | ||
+ | |||
+ | <center> | ||
+ | <math>P(R) = P(R|B1)P(B1)+P(R|B2)P(B2)</math> | ||
+ | </center> | ||
+ | |||
+ | 所以 | ||
+ | <center> | ||
+ | <math>P(R) = 0.25 \times 0.5 + 0.5 \times 0.5 = 0.375</math> | ||
+ | </center> | ||
+ | |||
+ | 将以上结果带入,我们可以得到: | ||
+ | |||
+ | <center> | ||
+ | <math>P(B1|R) = \frac{0.25}{0.375} \times 0.5 = 0.4</math> | ||
+ | </center> | ||
+ | |||
+ | |||
+ | ---- | ||
+ | |||
+ | ---- | ||
+ | == 贝叶斯分类器 == | ||
+ | 贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。也就是说,贝叶斯分类器是最小错误率意义上的优化。 | ||
+ | |||
+ | 假设<math>x = \{x_1,x_2, ... , x_n \}</math> 为一个待分类项,x属于类别集合<math>C = \{y_1,y_2,...,y_m \}</math>中的一个。 | ||
+ | |||
+ | 取<math>P(y_k|x) = max\{P(y_1|x),P(y_2|x, ... , P(y_m|x) \}</math>,则<math>x \in y_k</math>。 | ||
+ | |||
+ | 现在的关键就是计算各个条件概率:<math>P(y_1|x),P(y_2|x), ... , P(y_m|x)</math>。 | ||
+ | |||
+ | 我们可以这么做: | ||
+ | |||
+ | 1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。 | ||
+ | |||
+ | 2、统计得到在各类别下各个特征属性的条件概率估计。即<math>P(x_1|y_1),P(x_1|y_2), ... , P(x_n|y_m)</math> | ||
+ | |||
+ | 3、如果各个特征属性是条件独立的,则根据贝叶斯定理: | ||
+ | |||
+ | <center> | ||
+ | <math>P(y_i|x) = \frac{P(x|y_i)P(y_i)}{P(x)}</math> | ||
+ | </center> | ||
+ | |||
+ | 因为各特征属性是条件独立的,我们可以得到: | ||
+ | |||
+ | <center> | ||
+ | <math>P(x|y_i)P(y_i) = P(x_1|y_i)P(x_2|y_i)...P(x_n|y_i) = P(y_i)\prod_{k=1}^n P(x_k|y_i)</math> | ||
+ | </center> | ||
+ | |||
+ | 最终我们得到: | ||
+ | |||
+ | <center> | ||
+ | <math>P(y_i|x) = \frac{P(y_i) \prod_{k=1}^n P(x_k|y_i)}{P(x)}</math> | ||
+ | </center> | ||
+ | |||
+ | 因为分母P(x)为常数,我们只需比较分子的大小即可。 | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ---- | ||
+ | ==参考文献== | ||
+ | [1]. http://blog.csdn.net/polly_yang/article/details/8623268 | ||
+ | |||
+ | [2]. [https://engineering.purdue.edu/~mboutin/ Mireille Boutin], "ECE662: Statistical Pattern Recognition and Decision Making Processes," Purdue University, Spring 2014. | ||
+ | |||
+ | |||
+ | <br> | ||
---- | ---- | ||
Line 53: | Line 173: | ||
---- | ---- | ||
− | == [[ | + | == [[Derivation_of_Bayes_rule_In_Chinese review|Questions and comments]] == |
− | If you have any questions, comments, etc. please post them on [[ | + | If you have any questions, comments, etc. please post them on [[Derivation_of_Bayes_rule_In_Chinese review|this page]]. |
---- | ---- |
Latest revision as of 09:43, 22 January 2015
Bayes Rule and Its Applications
A slecture by ECE student Weibao Wang
Partly based on the ECE662 Spring 2014 lecture material of Prof. Mireille Boutin.
Contents
大纲
- 贝叶斯定理
- 贝叶斯定理的推倒
- 贝叶斯定理应用实例
- 贝叶斯分类器
- 参考文献
贝叶斯定理 (Bayes' theorem)
贝叶斯定理由英国数学家托马斯·贝叶斯(Thomas Bayes)在1763提出,因此得名贝叶斯定理。贝叶斯定理也称贝叶斯推理,是关于随机事件的条件概率的一则定理。
对于两个随机事件A和B,贝叶斯定理有如下表达:
$ P(A|B) = \frac{P(B|A)P(A)}{P(B)} $
其中P(A|B)代表在事件B发生的情况下事件A发生的概率。
在贝叶斯定理中:
- P(A)为A的先验概率,P(B)为B的先验概率
- P(A|B)为已知B发生后A的条件概率或后验概率,P(B|A)为已知A发生后B的条件概率或后验概率
另外,P(B|A)有时也被称作相似度(likelihood)。
贝叶斯定理的推倒
根据条件概率的定义,在事件B发生的条件下事件A发生的概率是:
$ P(A|B) = \frac{P(A\cap B)}{P(B)} $
同理,我们可以得到在事件A发生的条件下事件B发生的概率:
$ P(B|A) = \frac{P(B\cap A)}{P(A)} $
由以上两个方程,我们可以得出:
$ P(B|A)P(A) = P(A\cap B) = P(A|B)P(B) $
等式两边同时除以P(B),进而得出贝叶斯定理:
$ P(A|B) = \frac{P(B|A)P(A)}{P(B)} $
利用贝叶斯定理,我们还可以得出全概率公式。
我们已知对于事件A,B和A的补集A',有:
$ P(B) = P(B \cap A) + P(B \cap A') $
$ P(B\cap A) = P(B|A)P(A) $
所以我们可以得到全概率公式:
$ P(B) = P(B|A)P(A)+P(B|A')P(A') $
将全概率公式带入条件概率公式,我们可以得到贝叶斯定理的另一种写法:
$ P(A|B) = \frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|A')P(A')} $
贝叶斯定理应用实例
我们来看一个例子: 假设我们有两个笼子,一号笼子里有15只鸡和5只兔子,二号笼子里有10只鸡和10只兔子。现在随机选择一个笼子,从中取出一只兔子,请问这只兔子来自一号笼子的概率有多大?
对于这类问题,我们可以用贝叶斯定理解答。我们假定,B1表示一号笼子,B2表示二号笼子。由于这两个笼子是一样的,所以P(B1)=P(B2),也就是说,在取出兔子之前,这两个笼子被选中的概率相同。因此,P(B1)=P(B2)=0.5. 再假定,R表示兔子,所以问题就变成了在已知R的情况下,来自一号笼子的概率有多大,即求P(B1|R)。我们把这个概率叫做"后验概率"。
根据贝叶斯定理,我们可以得到:
$ P(B1|R) = \frac{P(R|B1)P(B1)}{P(R)} $
已知,P(B1)等于0.5,P(R|B1)为一号笼子中取出兔子的概率,等于0.25,那么求出P(R)就可以得到答案。根据全概率公式,
$ P(R) = P(R|B1)P(B1)+P(R|B2)P(B2) $
所以
$ P(R) = 0.25 \times 0.5 + 0.5 \times 0.5 = 0.375 $
将以上结果带入,我们可以得到:
$ P(B1|R) = \frac{0.25}{0.375} \times 0.5 = 0.4 $
贝叶斯分类器
贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。也就是说,贝叶斯分类器是最小错误率意义上的优化。
假设$ x = \{x_1,x_2, ... , x_n \} $ 为一个待分类项,x属于类别集合$ C = \{y_1,y_2,...,y_m \} $中的一个。
取$ P(y_k|x) = max\{P(y_1|x),P(y_2|x, ... , P(y_m|x) \} $,则$ x \in y_k $。
现在的关键就是计算各个条件概率:$ P(y_1|x),P(y_2|x), ... , P(y_m|x) $。
我们可以这么做:
1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。
2、统计得到在各类别下各个特征属性的条件概率估计。即$ P(x_1|y_1),P(x_1|y_2), ... , P(x_n|y_m) $
3、如果各个特征属性是条件独立的,则根据贝叶斯定理:
$ P(y_i|x) = \frac{P(x|y_i)P(y_i)}{P(x)} $
因为各特征属性是条件独立的,我们可以得到:
$ P(x|y_i)P(y_i) = P(x_1|y_i)P(x_2|y_i)...P(x_n|y_i) = P(y_i)\prod_{k=1}^n P(x_k|y_i) $
最终我们得到:
$ P(y_i|x) = \frac{P(y_i) \prod_{k=1}^n P(x_k|y_i)}{P(x)} $
因为分母P(x)为常数,我们只需比较分子的大小即可。
参考文献
[1]. http://blog.csdn.net/polly_yang/article/details/8623268
[2]. Mireille Boutin, "ECE662: Statistical Pattern Recognition and Decision Making Processes," Purdue University, Spring 2014.
Questions and comments
If you have any questions, comments, etc. please post them on this page.