Line 33: | Line 33: | ||
== 贝叶斯定理的推倒 == | == 贝叶斯定理的推倒 == | ||
− | 根据条件概率的定义,在事件B发生的条件下事件A发生的概率是: | + | |
+ | 根据条件概率的定义,在事件B发生的条件下事件A发生的概率是: | ||
<center> | <center> | ||
<math>P(A|B) = \frac{P(A\cap B)}{P(B)}</math> | <math>P(A|B) = \frac{P(A\cap B)}{P(B)}</math> | ||
</center> | </center> | ||
− | + | 同理,我们可以得到在事件A发生的条件下事件B发生的概率: | |
− | 同理,我们可以得到在事件A发生的条件下事件B发生的概率: | + | |
− | + | ||
<center> | <center> | ||
<math>P(B|A) = \frac{P(B\cap A)}{P(A)}</math> | <math>P(B|A) = \frac{P(B\cap A)}{P(A)}</math> | ||
</center> | </center> | ||
− | + | 由以上两个方程,我们可以得出: | |
− | 由以上两个方程,我们可以得出: | + | |
<center> | <center> | ||
<math>P(B|A)P(A) = P(A\cap B) = P(A|B)P(B)</math> | <math>P(B|A)P(A) = P(A\cap B) = P(A|B)P(B)</math> | ||
</center> | </center> | ||
− | + | 等式两边同时除以P(B),进而得出贝叶斯定理: | |
− | 等式两边同时除以P(B),进而得出贝叶斯定理: | + | |
− | + | ||
<center> | <center> | ||
<math>P(A|B) = \frac{P(B|A)P(A)}{P(B)}</math> | <math>P(A|B) = \frac{P(B|A)P(A)}{P(B)}</math> | ||
</center> | </center> | ||
+ | 利用贝叶斯定理,我们还可以得出全概率公式。 | ||
− | + | 我们已知对于事件A,B和A的补集A',有: | |
− | + | ||
− | 我们已知对于事件A,B和A的补集A',有: | + | |
<center> | <center> | ||
<math>P(B) = P(B \cap A) + P(B \cap A')</math> | <math>P(B) = P(B \cap A) + P(B \cap A')</math> | ||
+ | </center> <center> | ||
+ | <math>P(B\cap A) = P(B|A)P(A)</math> | ||
</center> | </center> | ||
− | + | 所以我们可以得到全概率公式: | |
<center> | <center> | ||
− | < | + | <span class="texhtml">''P''(''B'') = ''P''(''B'' | ''A'')''P''(''A'') + ''P''(''B'' | ''A''')''P''(''A''')</span> |
</center> | </center> | ||
− | + | 将全概率公式带入条件概率公式,我们可以得到贝叶斯定理的另一种写法: | |
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | 将全概率公式带入条件概率公式,我们可以得到贝叶斯定理的另一种写法: | + | |
− | + | ||
<center> | <center> | ||
<math>P(A|B) = \frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|A')P(A')}</math> | <math>P(A|B) = \frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|A')P(A')}</math> | ||
</center> | </center> | ||
+ | 我们来看一个例子: 假设我们有两个笼子,一号笼子里有15只鸡和5只兔子,二号笼子里有10只鸡和10只兔子。现在随机选择一个笼子,从中取出一只兔子,请问这只兔子来自一号笼子的概率有多大? | ||
− | + | 对于这类问题,我们可以用贝叶斯定理解答。我们假定,B1表示一号笼子,B2表示二号笼子。由于这两个笼子是一样的,所以P(B1)=P(B2),也就是说,在取出兔子之前,这两个笼子被选中的概率相同。因此,P(B1)=P(B2)=0.5. 再假定,R表示兔子,所以问题就变成了在已知R的情况下,来自一号笼子的概率有多大,即求P(B1|R)。我们把这个概率叫做"后验概率"。 | |
− | + | ||
− | 对于这类问题,我们可以用贝叶斯定理解答。我们假定,B1表示一号笼子,B2表示二号笼子。由于这两个笼子是一样的,所以P(B1)=P(B2),也就是说,在取出兔子之前,这两个笼子被选中的概率相同。因此,P(B1)=P(B2)=0.5. | + | |
− | 再假定,R表示兔子,所以问题就变成了在已知R的情况下,来自一号笼子的概率有多大,即求P(B1|R)。我们把这个概率叫做"后验概率"。 | + | |
− | + | ||
− | + | ||
+ | 根据贝叶斯定理,我们可以得到: | ||
<center> | <center> | ||
<math>P(B1|R) = \frac{P(R|B1)P(B1)}{P(R)}</math> | <math>P(B1|R) = \frac{P(R|B1)P(B1)}{P(R)}</math> | ||
</center> | </center> | ||
− | + | 已知,P(B1)等于0.5,P(R|B1)为一号笼子中取出兔子的概率,等于0.25,那么求出P(R)就可以得到答案。根据全概率公式, | |
− | 已知,P(B1)等于0.5,P(R|B1)为一号笼子中取出兔子的概率,等于0.25,那么求出P(R)就可以得到答案。根据全概率公式, | + | |
− | + | ||
<center> | <center> | ||
− | < | + | <span class="texhtml">''P''(''R'') = ''P''(''R'' | ''B''1)''P''(''B''1) + ''P''(''R'' | ''B''2)''P''(''B''2)</span> |
− | </center> | + | </center> |
− | + | 所以 | |
− | 所以 | + | |
<center> | <center> | ||
<math>P(R) = 0.25 \times 0.5 + 0.5 \times 0.5 = 0.375</math> | <math>P(R) = 0.25 \times 0.5 + 0.5 \times 0.5 = 0.375</math> | ||
</center> | </center> | ||
− | + | 将以上结果带入,我们可以得到: | |
− | 将以上结果带入,我们可以得到: | + | |
− | + | ||
<center> | <center> | ||
<math>P(B1|R) = \frac{0.25}{0.375} \times 0.5 = 0.4</math> | <math>P(B1|R) = \frac{0.25}{0.375} \times 0.5 = 0.4</math> | ||
</center> | </center> | ||
− | + | <br> | |
---- | ---- | ||
---- | ---- | ||
+ | |||
== 贝叶斯分类器 == | == 贝叶斯分类器 == | ||
− | |||
− | + | 贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。也就是说,贝叶斯分类器是最小错误率意义上的优化。 | |
− | + | 假设<span class="texhtml">''x'' = {''x''<sub>1</sub>,''x''<sub>2</sub>,...,''x''<sub>''n''</sub>}</span> 为一个待分类项,x属于类别集合<span class="texhtml">''C'' = {''y''<sub>1</sub>,''y''<sub>2</sub>,...,''y''<sub>''m''</sub>}</span>中的一个。 | |
− | + | 取<span class="texhtml">''P''(''y''<sub>''k''</sub> | ''x'') = ''m''''a''''x''{''P''(''y''<sub>1</sub> | ''x''),''P''(''y''<sub>2</sub> | ''x'',...,''P''(''y''<sub>''m''</sub> | ''x'')}</span>,则<math>x \in y_k</math>。 | |
− | 我们可以这么做: | + | 现在的关键就是计算各个条件概率:<span class="texhtml">''P''(''y''<sub>1</sub> | ''x''),''P''(''y''<sub>2</sub> | ''x'',...,''P''(''y''<sub>''m''</sub> | ''x'')</span>。 |
+ | |||
+ | 我们可以这么做: | ||
1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。 | 1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。 | ||
Line 126: | Line 109: | ||
3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导: | 3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导: | ||
+ | |||
<br> | <br> | ||
+ | <br> | ||
---- | ---- |
Revision as of 09:56, 30 April 2014
Bayes Rule and Its Applications
A slecture by ECE student Weibao Wang
Partly based on the ECE662 Spring 2014 lecture material of Prof. Mireille Boutin.
贝叶斯定理 (Bayes' theorem)
贝叶斯定理由英国数学家托马斯·贝叶斯(Thomas Bayes)在1763提出,因此得名贝叶斯定理。贝叶斯定理也称贝叶斯推理,是关于随机事件的条件概率的一则定理。
对于两个随机事件A和B,贝叶斯定理有如下表达:
$ P(A|B) = \frac{P(B|A)P(A)}{P(B)} $
其中P(A|B)代表在事件B发生的情况下事件A发生的概率。
在贝叶斯定理中:
- P(A)为A的先验概率,P(B)为B的先验概率
- P(A|B)为已知B发生后A的条件概率或后验概率,P(B|A)为已知A发生后B的条件概率或后验概率
另外,P(B|A)有时也被称作相似度(likelihood)。
贝叶斯定理的推倒
根据条件概率的定义,在事件B发生的条件下事件A发生的概率是:
$ P(A|B) = \frac{P(A\cap B)}{P(B)} $
同理,我们可以得到在事件A发生的条件下事件B发生的概率:
$ P(B|A) = \frac{P(B\cap A)}{P(A)} $
由以上两个方程,我们可以得出:
$ P(B|A)P(A) = P(A\cap B) = P(A|B)P(B) $
等式两边同时除以P(B),进而得出贝叶斯定理:
$ P(A|B) = \frac{P(B|A)P(A)}{P(B)} $
利用贝叶斯定理,我们还可以得出全概率公式。
我们已知对于事件A,B和A的补集A',有:
$ P(B) = P(B \cap A) + P(B \cap A') $
$ P(B\cap A) = P(B|A)P(A) $
所以我们可以得到全概率公式:
P(B) = P(B | A)P(A) + P(B | A)P(A)
将全概率公式带入条件概率公式,我们可以得到贝叶斯定理的另一种写法:
$ P(A|B) = \frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|A')P(A')} $
我们来看一个例子: 假设我们有两个笼子,一号笼子里有15只鸡和5只兔子,二号笼子里有10只鸡和10只兔子。现在随机选择一个笼子,从中取出一只兔子,请问这只兔子来自一号笼子的概率有多大?
对于这类问题,我们可以用贝叶斯定理解答。我们假定,B1表示一号笼子,B2表示二号笼子。由于这两个笼子是一样的,所以P(B1)=P(B2),也就是说,在取出兔子之前,这两个笼子被选中的概率相同。因此,P(B1)=P(B2)=0.5. 再假定,R表示兔子,所以问题就变成了在已知R的情况下,来自一号笼子的概率有多大,即求P(B1|R)。我们把这个概率叫做"后验概率"。
根据贝叶斯定理,我们可以得到:
$ P(B1|R) = \frac{P(R|B1)P(B1)}{P(R)} $
已知,P(B1)等于0.5,P(R|B1)为一号笼子中取出兔子的概率,等于0.25,那么求出P(R)就可以得到答案。根据全概率公式,
P(R) = P(R | B1)P(B1) + P(R | B2)P(B2)
所以
$ P(R) = 0.25 \times 0.5 + 0.5 \times 0.5 = 0.375 $
将以上结果带入,我们可以得到:
$ P(B1|R) = \frac{0.25}{0.375} \times 0.5 = 0.4 $
贝叶斯分类器
贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。也就是说,贝叶斯分类器是最小错误率意义上的优化。
假设x = {x1,x2,...,xn} 为一个待分类项,x属于类别集合C = {y1,y2,...,ym}中的一个。
取P(yk | x) = m'a'x{P(y1 | x),P(y2 | x,...,P(ym | x)},则$ x \in y_k $。
现在的关键就是计算各个条件概率:P(y1 | x),P(y2 | x,...,P(ym | x)。
我们可以这么做:
1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。
2、统计得到在各类别下各个特征属性的条件概率估计。即。
3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导:
Questions and comments
If you have any questions, comments, etc. please post them on this page.