(27 intermediate revisions by 2 users not shown)
Line 8: Line 8:
  
 
<center><font size= 4>
 
<center><font size= 4>
'''Derivation of Bayes rule_In Greek''' <br />
+
'''Derivation of Bayes rule (In Greek)''' <br />
 
</font size>
 
</font size>
 
<font size=2>
 
<font size=2>
A [https://www.projectrhea.org/learning/slectures.php slecture] by Stylianos Chatzidakis
+
A [http://www.projectrhea.org/learning/slectures.php slecture] by Stylianos Chatzidakis
  
Partly based on the [[2014 Spring ECE 662 Boutin|ECE662 Spring 2014 lecture]] material of [[User:Mboutin|Prof. Mireille Boutin]].   
+
Partly based on the [[2014_Spring_ECE_662_Boutin_Statistical_Pattern_recognition_slectures|ECE662 Spring 2014 lecture]] material of [[User:Mboutin|Prof. Mireille Boutin]].   
 
</font size>
 
</font size>
 
</center>
 
</center>
Line 44: Line 44:
 
2. Ο αθροιστικός κανόνας:
 
2. Ο αθροιστικός κανόνας:
  
<math>\text{P(X)}= \sum_Y P(X,Y)</math>
+
<math>P(X) = \sum_Y P(X,Y)</math>
  
 
3. Ο πολλαπλασιαστικός κανόνας:
 
3. Ο πολλαπλασιαστικός κανόνας:
  
<math>\text{P(X,Y)}=\text{P(Y \mid X)P(X)}</math>
+
<math>P(X,Y)=P(Y|X)P(X) </math>
  
 
Αυτά τα αξιώματα/κανόνες αποτελούν τα μόνα εργαλεία που θα χρειαστούν. Με τους παραπάνω κανόνες μπορεί να λάβει κανείς αποφάσεις υπολογίζοντας την πιθανότητα P(θ|x) όπου θ συμβολίζει την άγνωστη ποσότητα/μεταβλητή και x είναι αυτό που γνωρίζουμε.
 
Αυτά τα αξιώματα/κανόνες αποτελούν τα μόνα εργαλεία που θα χρειαστούν. Με τους παραπάνω κανόνες μπορεί να λάβει κανείς αποφάσεις υπολογίζοντας την πιθανότητα P(θ|x) όπου θ συμβολίζει την άγνωστη ποσότητα/μεταβλητή και x είναι αυτό που γνωρίζουμε.
Line 54: Line 54:
 
Για παράδειγμα, λόγω συμμετρίας έχουμε:
 
Για παράδειγμα, λόγω συμμετρίας έχουμε:
  
 +
<math>P(X,Y)=P(Y, X) \Rightarrow </math>
 +
 +
<math>P(Y|X)P(X)=P(X|Y)P(Y) \Rightarrow </math>
 +
 +
<math>P(Y|X)= \frac{P(X|Y)P(Y)}{P(X)}</math>
  
 
Όπου P(Y|X) είναι η δεσμευμένη πιθανότητα του Y δεδομένου του X, P(X|Y) είναι η δεσμευμένη πιθανότητα του Y δεδομένου του X και P(Y) είναι η “a-priori” πιθανότητα. Συνδυάζοντας τον αθροιστικό κανόνα με τον πολλαπλασιαστικό μπορούμε να μετατρέψουμε τον παρανομαστή ως εξής:
 
Όπου P(Y|X) είναι η δεσμευμένη πιθανότητα του Y δεδομένου του X, P(X|Y) είναι η δεσμευμένη πιθανότητα του Y δεδομένου του X και P(Y) είναι η “a-priori” πιθανότητα. Συνδυάζοντας τον αθροιστικό κανόνα με τον πολλαπλασιαστικό μπορούμε να μετατρέψουμε τον παρανομαστή ως εξής:
  
 +
<math>P(X) = \sum_Y {P(X|Y)P(Y)}</math>
  
 
Για να κατανοήσουμε τον κανόνα Bayes και πως μπορούμε να καταλήξουμε σε συμπεράσματα χρησιμοποιώντας τον κανόνα αυτό, οφείλουμε να κατανοήσουμε το γενικότερο πλαίσιο και συγκεκριμένα τι σημαίνει “στατιστική συμπερασματολογία”. Η στατιστική συμπερασματολογία μας επιτρέπει να εξάγουμε συμπεράσματα για τον ευρύτερο πληθυσμό μελετώντας ένα δείγμα που προέρχεται από τον πληθυσμό.
 
Για να κατανοήσουμε τον κανόνα Bayes και πως μπορούμε να καταλήξουμε σε συμπεράσματα χρησιμοποιώντας τον κανόνα αυτό, οφείλουμε να κατανοήσουμε το γενικότερο πλαίσιο και συγκεκριμένα τι σημαίνει “στατιστική συμπερασματολογία”. Η στατιστική συμπερασματολογία μας επιτρέπει να εξάγουμε συμπεράσματα για τον ευρύτερο πληθυσμό μελετώντας ένα δείγμα που προέρχεται από τον πληθυσμό.
Line 88: Line 94:
 
Το θεώρημα Bayes για διακριτές μεταβλητές που χαρακτηρίζονται από πιθανότητες P μπορεί να γραφεί ως εξής (και σύμφωνα με την εξίσωση 4):
 
Το θεώρημα Bayes για διακριτές μεταβλητές που χαρακτηρίζονται από πιθανότητες P μπορεί να γραφεί ως εξής (και σύμφωνα με την εξίσωση 4):
  
 +
<math>P(\theta|x)= \frac{P(x|\theta)P(\theta)}{\sum_\theta P(x|\theta)P(\theta)}</math>
  
Όπου P(θ|x) είναι η δεσμευμένη πιθανότητα του θ δεδομένου του x, P(x|θ) είναι η δεσμευμένη πιθανότητα του x δεδομένου του θ και P(θ) είναι η “a-priori” πιθανότητα.
+
Όπου P(θ|x) είναι η δεσμευμένη πιθανότητα του θ δεδομένου του x, P(x|θ) είναι η δεσμευμένη πιθανότητα του x δεδομένου του θ και P(θ) είναι η “a-priori” πιθανότητα.
 
Η επιλογής της “a-priori” κατανομής αποτελεί βασικό λίθο στην εφαρμογή του θεωρήματος Bayes και είναι σημαντικό να εκτιμηθεί σωστά. Διαφορετικές “a-priori” κατανομές οδηγούν σε διαφορετικά αποτελέσματα. Η επιλογή του μοντέλου πιθανοφάνειας εξαρτάται από τα δεδομένα του προβλήματος και συνήθως δεν είναι γνωστό εκ των προτέρων. Η δομή των δεδομένων του προβλήματος μπορεί να βοηθήσει στη επιλογή του σωστού μοντέλου πιθανοφάνειας, π.χ., αν θα είναι Γκαουσιανό ή Poisson, και στις περισσότερες περιπτώσεις χρειάζεται να υποθέσουμε ένα μοντέλο κατανομής.
 
Η επιλογής της “a-priori” κατανομής αποτελεί βασικό λίθο στην εφαρμογή του θεωρήματος Bayes και είναι σημαντικό να εκτιμηθεί σωστά. Διαφορετικές “a-priori” κατανομές οδηγούν σε διαφορετικά αποτελέσματα. Η επιλογή του μοντέλου πιθανοφάνειας εξαρτάται από τα δεδομένα του προβλήματος και συνήθως δεν είναι γνωστό εκ των προτέρων. Η δομή των δεδομένων του προβλήματος μπορεί να βοηθήσει στη επιλογή του σωστού μοντέλου πιθανοφάνειας, π.χ., αν θα είναι Γκαουσιανό ή Poisson, και στις περισσότερες περιπτώσεις χρειάζεται να υποθέσουμε ένα μοντέλο κατανομής.
  
Line 95: Line 102:
 
Το θεώρημα Bayes για συνεχείς μεταβλητές που χαρακτηρίζονται από πυκνότητες κατανομής πιθανότητας ρ μπορεί να γραφεί ως εξής:
 
Το θεώρημα Bayes για συνεχείς μεταβλητές που χαρακτηρίζονται από πυκνότητες κατανομής πιθανότητας ρ μπορεί να γραφεί ως εξής:
  
 +
<math>P(\theta|x)= \frac{\rho(x|\theta)P(\theta)}{\int \rho(x|\theta)P(\theta)d\theta}</math>
  
 
Ο παρανομαστής εξαρτάται μόνο από το x, δηλαδή τις παρατηρήσεις ενός πειράματος, είναι σταθερά και ονομάζεται σταθερά κανονικοποίησης. Το θεώρημα του Bayes συνηθίζεται να γράφεται σε διαφορετική μορφή ως εξής:
 
Ο παρανομαστής εξαρτάται μόνο από το x, δηλαδή τις παρατηρήσεις ενός πειράματος, είναι σταθερά και ονομάζεται σταθερά κανονικοποίησης. Το θεώρημα του Bayes συνηθίζεται να γράφεται σε διαφορετική μορφή ως εξής:
  
 
+
<math>P(\theta|x)= \propto{\rho(x|\theta)P(\theta)}</math>
  
 
δηλαδή η “a-posteriori” κατανομή είναι ανάλογη του γινομένου της “a-priori” κατανομής με την κατανομή πιθανοφάνειας.
 
δηλαδή η “a-posteriori” κατανομή είναι ανάλογη του γινομένου της “a-priori” κατανομής με την κατανομή πιθανοφάνειας.
Line 107: Line 115:
 
Ο κανόνας Bayes αποτελεί το κύριο εργαλείο στην θεωρία της λήψης αποφάσεων και βασίζεται σε μία απλοποιημένη εφαρμογή του θεωρήματος Bayes.  
 
Ο κανόνας Bayes αποτελεί το κύριο εργαλείο στην θεωρία της λήψης αποφάσεων και βασίζεται σε μία απλοποιημένη εφαρμογή του θεωρήματος Bayes.  
  
α. Διακριτές μεταβλητές
+
''α. Διακριτές μεταβλητές''
Έστω ότι έχουμε N κατηγορίες {ω1,ω2,....,ωN} στις οποίες θέλουμε να αντιστοιχίσουμε διακριτές μεταβλητές x που εξάγουμε από ένα πείραμα, όπου x είναι ένα διάνυσμα που ανήκει στο Ζn. Οι μεταβλητές αυτές μπορεί να κάποιο χαρακτηριστικό (π.χ., η ηλικία ενός προσώπου) ενώ οι κατηγορίες μπορεί να είναι δύο (π.χ., μαθητής ή καθηγητής) ή περισσότερες.
+
 
 +
Έστω ότι έχουμε N κατηγορίες <math>{\omega_{1},\omega_{2},....,\omega_{N}}</math> στις οποίες θέλουμε να αντιστοιχίσουμε διακριτές μεταβλητές '''x''' που εξάγουμε από ένα πείραμα, όπου '''x''' είναι ένα διάνυσμα που ανήκει στο <math>Z^{n}</math>. Οι μεταβλητές αυτές μπορεί να κάποιο χαρακτηριστικό (π.χ., η ηλικία ενός προσώπου) ενώ οι κατηγορίες μπορεί να είναι δύο (π.χ., μαθητής ή καθηγητής) ή περισσότερες.
  
 
Το κάθε δεδομένο ανήκει σε μία κατηγορία με κάποια πιθανότητα P. Ένα τρόπος να αποφασίσουμε σε ποιά κατηγορία θα εντάξουμε το κάθε δεδομένο είναι να επιλέξουμε την κατηγορία με τη μεγαλύτερη πιθανότητα:
 
Το κάθε δεδομένο ανήκει σε μία κατηγορία με κάποια πιθανότητα P. Ένα τρόπος να αποφασίσουμε σε ποιά κατηγορία θα εντάξουμε το κάθε δεδομένο είναι να επιλέξουμε την κατηγορία με τη μεγαλύτερη πιθανότητα:
  
 +
<math>P(\omega_{i}|\textbf{x}) \geq P(\omega_{j}|\textbf{x})</math>
  
Η παραπάνω ανισότητα ερμηνεύεται ως “η κατηγορία ωi δεδομένου του χαρακτηριστικού x έχει μεγαλύτερη πιθανότητα από την κατηγορία ωj δεδομένου του χαρακτηριστικού x”. Συνεπώς επιλέγουμε την κατηγορία ωi. Στην πράξη η δυσκολία έγκειται στον υπολογισμό των πιθανοτήτων P(ωi|x). Το θεώρημα του Bayes μας επιτρέπει να υπολογίσουμε τις παραπάνω πιθανότητες με ένα πιο εύκολο τρόπο. Σύμφωνα με το θεώρημα Bayes:
 
  
 +
Η παραπάνω ανισότητα ερμηνεύεται ως “η κατηγορία <math>\omega_{i}</math> δεδομένου του χαρακτηριστικού '''x''' έχει μεγαλύτερη πιθανότητα από την κατηγορία <math>\omega_{j}</math> δεδομένου του χαρακτηριστικού '''x'''”. Συνεπώς επιλέγουμε την κατηγορία <math>\omega_{i}</math>. Στην πράξη η δυσκολία έγκειται στον υπολογισμό των πιθανοτήτων <math>P(\omega_{i}|x)</math>. Το θεώρημα του Bayes μας επιτρέπει να υπολογίσουμε τις παραπάνω πιθανότητες με ένα πιο εύκολο τρόπο. Σύμφωνα με το θεώρημα Bayes:
  
 +
<math>P(\omega_{i}|\textbf{x})= \frac{P(\textbf{x}|\omega_{i})P(\omega_{i})}{\sum_i P(\textbf{x}|\omega_{i})P(\omega_{i})}</math>
  
 
Αντικαθιστώντας, έχουμε:
 
Αντικαθιστώντας, έχουμε:
  
 +
<math>P(\omega_{i}|\textbf{x}) \geq P(\omega_{j}|\textbf{x}) \Rightarrow </math>
  
 +
<math>\frac{P(\textbf{x}|\omega_{i})P(\omega_{i})}{\sum_i P(\textbf{x}|\omega_{i})P(\omega_{i})} \geq \frac{P(\textbf{x}|\omega_{j})P(\omega_{j})}{\sum_j P(\textbf{x}|\omega_{j})P(\omega_{j})}  \Rightarrow </math>
  
 +
<math>P(\textbf{x}|\omega_{i})P(\omega_{i}) \geq P(\textbf{x}|\omega_{j})P(\omega_{j}) </math>
  
Όπου λόγω συμμετρίας οι παρανομαστές είναι ίσοι και μπορούν απαλοιφθούν. Η τελευταία ανισότητα αντιπροσωπεύει τον κανόνα Bayes για διακριτές μεταβλητές και μας επιτρέπει να υπολογίσουμε την πιθανότητα P(x|ωi) αντί της πιθανότητας P(ωi|x). Απαραίτητη προυπόθεση φυσικά είναι η γνώση της “a-priori” κατανομής.
+
Όπου λόγω συμμετρίας οι παρανομαστές είναι ίσοι και μπορούν απαλοιφθούν. Η τελευταία ανισότητα αντιπροσωπεύει τον κανόνα Bayes για διακριτές μεταβλητές και μας επιτρέπει να υπολογίσουμε την πιθανότητα <math>P(x|\omega_{i})</math> αντί της πιθανότητας <math>P(\omega_{i}|x)</math>. Απαραίτητη προυπόθεση φυσικά είναι η γνώση της “a-priori” κατανομής.
  
β. Συνεχείς μεταβλητές
+
''β. Συνεχείς μεταβλητές''
Έστω ότι έχουμε N κατηγορίες {ω1,ω2,....,ωN} στις οποίες θέλουμε να αντιστοιχίσουμε συνεχείς μεταβλητές x που εξάγουμε από ένα πείραμα, όπου x είναι ένα διάνυσμα που ανήκει στο Rn . Το κάθε δεδομένο ανήκει σε μία κατηγορία με κάποια πιθανότητα P. Ένα τρόπος να αποφασίσουμε σε ποιά κατηγορία θα εντάξουμε το κάθε δεδομένο είναι να επιλέξουμε την κατηγορία με τη μεγαλύτερη πιθανότητα:
+
Έστω ότι έχουμε N κατηγορίες <math>{\omega_{1},\omega_{2},....,\omega_{N}}</math> στις οποίες θέλουμε να αντιστοιχίσουμε συνεχείς μεταβλητές '''x''' που εξάγουμε από ένα πείραμα, όπου '''x''' είναι ένα διάνυσμα που ανήκει στο <math>R^{n}</math> . Το κάθε δεδομένο ανήκει σε μία κατηγορία με κάποια πιθανότητα P. Ένα τρόπος να αποφασίσουμε σε ποιά κατηγορία θα εντάξουμε το κάθε δεδομένο είναι να επιλέξουμε την κατηγορία με τη μεγαλύτερη πιθανότητα:
  
 +
<math>P(\omega_{i}|\textbf{x}) \geq P(\omega_{j}|\textbf{x})</math>
  
 
Όμοια με την παραπάνω περίπτωση των διακριτών μεταβλητών και σύμφωνα με το θεώρημα Bayes:
 
Όμοια με την παραπάνω περίπτωση των διακριτών μεταβλητών και σύμφωνα με το θεώρημα Bayes:
 +
 +
<math>P(\omega_{i}|\textbf{x})= \frac{\rho(\textbf{x}|\omega_{i})P(\omega_{i})}{\int \rho(\textbf{x}|\omega_{i})P(\omega_{i})d\omega}</math>
  
  
 
Αντικαθιστώντας, έχουμε:
 
Αντικαθιστώντας, έχουμε:
  
 +
<math>P(\omega_{i}|\textbf{x}) \geq P(\omega_{j}|\textbf{x}) \Rightarrow </math>
 +
 +
<math>\frac{\rho(\textbf{x}|\omega_{i})P(\omega_{i})}{\int \rho(\textbf{x}|\omega_{i})P(\omega_{i})d\omega} \geq \frac{\rho(\textbf{x}|\omega_{j})P(\omega_{j})}{\int \rho(\textbf{x}|\omega_{j})P(\omega_{j})d\omega} \Rightarrow </math>
  
Όπου λόγω συμμετρίας οι παρανομαστές είναι ίσοι και μπορούν απαλοιφθούν. Η τελευταία ανισότητα αντιπροσωπεύει τον κανόνα Bayes για συνεχείς μεταβλητές και μας επιτρέπει να υπολογίσουμε την πιθανότητα ρ(x|ωi) αντί της πιθανότητας P(ωi|x). Απαραίτητη προυπόθεση φυσικά είναι η γνώση της “a-priori” κατανομής.
+
<math>\rho(\textbf{x}|\omega_{i})P(\omega_{i}) \geq \rho(\textbf{x}|\omega_{j})P(\omega_{j}) </math>
 +
 
 +
 
 +
Όπου λόγω συμμετρίας οι παρανομαστές είναι ίσοι και μπορούν απαλοιφθούν. Η τελευταία ανισότητα αντιπροσωπεύει τον κανόνα Bayes για συνεχείς μεταβλητές και μας επιτρέπει να υπολογίσουμε την πιθανότητα <math>\rho(x|\omega_{i})</math> αντί της πιθανότητας <math>P(\omega_{i}|x)</math>. Απαραίτητη προυπόθεση φυσικά είναι η γνώση της “a-priori” κατανομής.
  
  
Line 147: Line 170:
 
Mireille Boutin, "ECE662: Statistical Pattern Recognition and Decision Making Processes," Purdue University, Spring 2014.
 
Mireille Boutin, "ECE662: Statistical Pattern Recognition and Decision Making Processes," Purdue University, Spring 2014.
  
 
 
 
The probability tree in Figure 1 is drawn by considering events as sequential. The number of branches in the probability tree depends on the number of events (i.e., how much you know about the problem). The numbers on the branches denote the conditional probabilities. Consider the root node to be at level 0 and thus the leaf nodes to be at level 2. Two events can happen at the root node: <math>CS</math> or <math>\overline{CS}</math>. Since 30% of students are majors, we get <math>\textbf{P}(CS) = 0.3</math> and <math>\textbf{P}(\overline{CS}) = 1 - 0.3 = 0.7</math>. (<font size=2>'''P'''</font size> denotes probability). At level 1, two events can happen at each of the nodes, i.e., either a <math>M</math> or a <math>\overline{M}</math> can happen. From the problem definition we know that 80% of the CS majors are males, therefore we get, <math>\textbf{P}(M\vert CS) = 0.8</math> and <math>\textbf{P}(\overline{M}\vert CS) = 1 - 0.8 = 0.2</math>. Similarly,  we get, <math>\textbf{P}(M\vert \overline{CS}) = 0.4</math> and <math>\textbf{P}(\overline{M}\vert \overline{CS}) = 0.6</math>. It is important to note that the events which can occur at a node are both '''mutually exhaustive''' and '''exclusive'''. The probability at a leaf node represents the probability of happening of all the events along the path from the root node to that leaf. Note that <math>\textbf{P}(CS\cap M)</math> and <math>\textbf{P}(CS\cdot M)</math> are equivalent representations.
 
 
<center>[[Image:tree.png|frame|none|alt=Alt text|<font size= 4> '''Figure 1: Probability tree''' </font size>]] </center><br />
 
 
# From the table, <center><math>\textbf{P}(CS) = \frac{\text{No. of CS majors}}{\text{Total no. of Students}} = \frac{60}{200} = 0.3</math></center><br /> This is nothing but the fraction of the total students who are CS majors.
 
# From the table, <center><math>\textbf{P}(CS\cap M) = \frac{\text{No. of CS majors who are also males}}{\text{Total no. of Students}} = \frac{48}{200} = 0.24</math></center><br /> Using the probability tree we can interpret <math>(CS\cap M)</math> as the occurrence of event <math>CS</math> followed by the occurrence of event <math>M</math>. Therefore,<br /> <center><math>\textbf{P}(CS\cap M) = \textbf{P}(CS)\times\textbf{P}(M\vert CS) = 0.3\times0.8 = 0.24 \text{  (multiplication rule)}</math></center>
 
# From the table, <center><math>\textbf{P}(M) =  \frac{\text{Total no. males}}{\text{Total no. of Students}} = \frac{104}{200} = 0.52</math></center> <br />From the probability tree it is clear that the event <math>M</math> can occur in 2 ways. Therefore we get, <center><math>\textbf{P}(M) = \textbf{P}(M\vert CS)\times \textbf{P}(CS) + \textbf{P}(M\vert \overline{CS})\times \textbf{P}(\overline{CS}) = 0.8\times 0.3 + 0.4\times 0.7 = 0.52\text{ (total probability theorem)}</math></center>
 
#From the table, <center><math>\textbf{P}(CS\vert M) = \frac{\text{No. of males who are CS majors}}{\text{Total no. of males}} = \frac{48}{104} = 0.4615</math></center> <br />Now let us compute the same using the probability tree. If you carefully observe the tree it is evident that the computation is not direct. So let us start from the definition of conditional probability, i.e., <center><math>\textbf{P}(CS\vert M) =  \frac{\textbf{P}(CS\cap M)}{\textbf{P}(M)}</math></center> <br /> Expanding the numerator using multiplication rule, <center><math>\textbf{P}(CS\vert M) =  \frac{\textbf{P}(M\vert CS)\times \textbf{P}(CS)}{\textbf{P}(M)} </math></center> <br /> Using total probability theorem in the denominator, <center><math>\textbf{P}(CS\vert M) =  \frac{\textbf{P}(M\vert CS)\times \textbf{P}(CS)}{\textbf{P}(M\vert CS)\times \textbf{P}(CS) + \textbf{P}(M\vert \overline{CS})\times \textbf{P}(\overline{CS})}\text{  Eq. (1)}</math></center> <br />
 
<center><math>\implies\textbf{P}(CS\vert M) = \frac{0.8\times 0.3}{0.8\times 0.3 + 0.7\times 0.4} =  0.4615</math></center> <br />
 
 
'''<font size= 2>Observation:</font size>'''
 
 
From part 4. and part 1. we observe that <math>\textbf{P}(CS\vert M)>\textbf{P}(CS)</math>, i.e., <math>0.4615 > 0.3</math>. What does this mean? How did the probability that a randomly selected student being a CS major change, when you were informed that the student is a male? Why did it increase?
 
 
'''<font size= 2>Explanation:</font size>'''
 
 
In part 1. of the problem we only knew the percentage of males and females in the course. So, we computed the probability using just that information. In computing this probability the sample space was the total number of students in the course <br /> In part 4. of the problem we were informed that event <math>M</math> has occurred, i.e., we got partial information. What did we do with this information? We used it and revised the probability, i.e., our prior belief, in this case <math>\textbf{P}(CS)</math>. <math>\textbf{P}(CS)</math> is called the prior because that is what we knew about the outcome before being informed about the occurrence of event <math>M</math>. We revised the probability (prior) by changing the sample space from the total number of students to the total number of males in the course. The increase in the prior is justified by the fact that there are more males who are CS majors than females.
 
 
'''<font size= 2>Inference:</font size>'''
 
 
So, what do we learn from this example?
 
# We are supposed to revise our beliefs when we get information. Doing this will help us predict the outcome more accurately.
 
# In this example we computed probabilities using two different methods: constructing a table and, by constructing a probability tree. In practice one could use either of the methods to solve a problem.
 
 
Eq. (1) is called Bayes' theorem and can be generalized as, <center><math>\textbf{P}(A_{i}\vert B) =  \frac{\textbf{P}(B\vert A_{i})\times \textbf{P}(A_{i})}{\sum_{j=1}^n\textbf{P}(B\vert A_{j})\times \textbf{P}(A_{j})}\text{  Eq. (2)}</math></center> <br /> where, <math>n</math> is the number of events (cardinality of the set <math>\{A_{i}\}</math>) in the sample space and, <math>i = 1, 2, ..., n</math>. Note that the events <math>A_{i}</math> should be mutually exclusive and exhaustive as shown in the Figure. 2. In Figure. 2 the green colored region corresponds to event <math>B</math>.
 
 
<center>[[Image:vennDiagram.png|frame|none|alt=Alt text|<font size= 4> '''Figure 2: Venn diagram''' </font size>]] </center> <br />
 
 
Bayes' theorem can be understood better by visualizing the events as sequential as depicted in the probability tree. When additional information is obtained about a subsequent event; it is used to revise the probability of the initial event. The revised probability is called posterior. In other words, we initially have a cause-effect model where we want to predict whether event <math>B</math> will occur or not, given that event <math>A_{i}</math> has occurred. <center><math>A_{i}  \xrightarrow[\textbf{P}(B\vert A_{i})]{cause-effect}  B </math></center> <br />
 
We then move to the inference model where we are told that event <math>B</math> has occurred and our goal is to infer whether event <math>A_{i}</math> has occurred or not '''[3]''' <center><math> A_{i}  \xleftarrow[\textbf{P}(A_{i}\vert B)]{inference}  B </math></center> <br />
 
In summary, Bayes' Theorem '''[4]''' provides us a simple technique to turn information about the probability of different effects (outcomes) from each possible cause, into information about the probable cause given the effect (outcome).
 
----
 
 
==Bayes' Classifier==
 
 
Bayes' Classifier uses Bayes' theorem (in the form of Bayes' rule) to classify objects into different categories. This technique is widely used in the area of pattern recognition. Let us describe the setting for a classification problem and then briefly outline the procedure.
 
 
'''<font size= 2>Problem Setting:</font size>'''
 
Consider a collection of <math>N</math> objects each with a <math>d</math> dimensional feature vector <math>X</math>. Let <math>X_{k}</math> be the feature vector of the <math>k^{th}</math> object. Feature vector can be thought of as a <math>d</math>-tuple describing the object. The task is to classify the objects into one of the <math>C</math> categories (classes)
 
 
'''<font size= 2>Solution Approach:</font size>'''
 
Given an object <math>k</math> with feature vector <math>X_{k}</math> choose a class <math>w_{i}</math> such that, <center><math>\textbf{P}(w_{i}\vert X_{k}) \geq  \textbf{P}(w_{j}\vert X_{k}),  \forall j=1,2,..,C \text{  Eq. (3)} </math></center><br />
 
Using, Bayes' theorem this can be re-written as, <center><math>\frac{\textbf{P}(X_{k}\vert w_{i})\times\textbf{P}(w_{i})}{\sum_{i=1}^C\textbf{P}(X_{k}\vert w_{i})\times\textbf{P}(w_{i})}  \geq  \frac{\textbf{P}(X_{k}\vert w_{j})\times\textbf{P}(w_{j})}{\sum_{j=1}^C\textbf{P}(X_{k}\vert w_{j})\times\textbf{P}(w_{j})} </math></center><br />
 
Since the denominators are the same, we get <center><math>\textbf{P}(X_{k}\vert w_{i})\times\textbf{P}(w_{i})  \geq  \textbf{P}(X_{k}\vert w_{j})\times\textbf{P}(w_{j})\text{  Eq. (4)} </math></center><br />
 
Eq. (4) is called '''Bayes' Rule''', where <math>\textbf{P}(X_{k}\vert w_{i})</math> and <math>\textbf{P}(w_{i})</math> are called the likelihood and prior respectively '''[5]'''. Eq. (4), i.e., Bayes' rule is used in the classification problem instead of Eq. (3) because in most real situations it is easier to estimate the likelihood and prior.
 
 
 
----
 
 
== References ==
 
 
# [http://www.stats.uwo.ca/faculty/bellhouse/ D. R. Bellhouse], "The Reverend Thomas Bayes FRS: a Biography to Celebrate the Tercentenary of his Birth," Statistical Science 19, 2004.
 
# Mario F. Triola, [http://faculty.washington.edu/tamre/BayesTheorem.pdf "Bayes' Theorem"].
 
# Dimitri P. Bertsekas, John N. Tsitsiklis, "Introduction to Probability," Second Edition, Athena Scientific, Belmont, Massachusetts, USA, 2008.
 
# D. S. Sivia, "Data Analysis--A Bayesian Tutorial," Oxford University Press, 1998.
 
# [https://engineering.purdue.edu/~mboutin/ Mireille Boutin], "ECE662: Statistical Pattern Recognition and Decision Making Processes," Purdue University, Spring 2014.
 
  
 
----
 
----
  
==[[Talk:slecture_From_Bayes_Theorem_to_Pattern_Recognition_review|Questions and comments]]==
+
==[[Talk:slecture_Derivation_of_Bayes_rule_In_Greek_review|Questions and comments]]==
  
If you have any questions, comments, etc. please post them on [[Talk:slecture_From_Bayes_Theorem_to_Pattern_Recognition_review|this page]].
+
If you have any questions, comments, etc. please post them on [[Talk:slecture_Derivation_of_Bayes_rule_In_Greek_review|this page]].

Latest revision as of 09:43, 22 January 2015


Derivation of Bayes rule (In Greek)
A slecture by Stylianos Chatzidakis

Partly based on the ECE662 Spring 2014 lecture material of Prof. Mireille Boutin.

click here for PDF version


Προαπαιτούμενα

Οι παρακάτω σημειώσεις προϋποθέτουν:

  • Γνώση των κανόνων πιθανοτήτων
  • Εξοικείωση με την έννοια της δεσμευμένης πιθανότητας

Λήψη αποφάσεων κατά Bayes

Σημειώσεις μαθήματος

1. Εισαγωγή

Οι σημειώσεις αυτές βασίζονται στο μάθημα ECE662 του Πανεπιστημίου Purdue και στόχος είναι να προσφέρουν μία σύντομη εισαγωγή στην συμπερασματολογία κατά Bayes, τα κύρια χαρακτηριστικά και το θεώρημα Bayes και τέλος τον κανόνα Bayes που χρησιμοποιείται στην λήψη αποφάσεων.

Ο λογισμός πιθανοτήτων βασίζεται σε τρεις απλούς κανόνες βάσει των οποίων πραγματοποιούνται όλες οι πράξεις στην θεωρία πιθανοτήτων και τη στατιστική:

1. Η πιθανότητα βρίσκεται μεταξύ 0 και 1, όπου το 0 σημαίνει αδύνατο και το 1 σημαίνει βέβαιο:

$ 0 \leq P(X) \leq 1 $

2. Ο αθροιστικός κανόνας:

$ P(X) = \sum_Y P(X,Y) $

3. Ο πολλαπλασιαστικός κανόνας:

$ P(X,Y)=P(Y|X)P(X) $

Αυτά τα αξιώματα/κανόνες αποτελούν τα μόνα εργαλεία που θα χρειαστούν. Με τους παραπάνω κανόνες μπορεί να λάβει κανείς αποφάσεις υπολογίζοντας την πιθανότητα P(θ|x) όπου θ συμβολίζει την άγνωστη ποσότητα/μεταβλητή και x είναι αυτό που γνωρίζουμε.

Για παράδειγμα, λόγω συμμετρίας έχουμε:

$ P(X,Y)=P(Y, X) \Rightarrow $

$ P(Y|X)P(X)=P(X|Y)P(Y) \Rightarrow $

$ P(Y|X)= \frac{P(X|Y)P(Y)}{P(X)} $

Όπου P(Y|X) είναι η δεσμευμένη πιθανότητα του Y δεδομένου του X, P(X|Y) είναι η δεσμευμένη πιθανότητα του Y δεδομένου του X και P(Y) είναι η “a-priori” πιθανότητα. Συνδυάζοντας τον αθροιστικό κανόνα με τον πολλαπλασιαστικό μπορούμε να μετατρέψουμε τον παρανομαστή ως εξής:

$ P(X) = \sum_Y {P(X|Y)P(Y)} $

Για να κατανοήσουμε τον κανόνα Bayes και πως μπορούμε να καταλήξουμε σε συμπεράσματα χρησιμοποιώντας τον κανόνα αυτό, οφείλουμε να κατανοήσουμε το γενικότερο πλαίσιο και συγκεκριμένα τι σημαίνει “στατιστική συμπερασματολογία”. Η στατιστική συμπερασματολογία μας επιτρέπει να εξάγουμε συμπεράσματα για τον ευρύτερο πληθυσμό μελετώντας ένα δείγμα που προέρχεται από τον πληθυσμό.

Συμπεράσματα για την παράμετρο θ του πληθυσμού μπορεί να πραγματοποιηθεί μόνο εφόσον παρατηρήσουμε την τιμή της τυχαίας μεταβλητής x του δείγματος. Επιπλέον, είναι απαραίτητο να καθοριστεί μία κατανομή πιθανότητας f(x|θ) η οποία καθορίζει τη σχέση της τυχαίας μεταβλητής x και πως κατανέμονται οι πιθανότητας για διάφορες τιμές της παραμέτρου θ.


2. Συμπερασματολογία κατά Bayes

Η συμπερασματολογία κατά Bayes υπολογίζει την κατανομή f(θ|x) χρησιμοποιώντας την κατανομή f(x|θ) και την “a-priori” πιθανότητα P(θ). H “a-priori” πιθανότητα P(θ) συμβολίζει την αρχική γνώση για την κατανομή του θ προτού αποκτήσουμε επιπλέον πληροφορίες για τα δεδομένα μας. Τα συμπεράσματα βασίζονται στον συνδυασμό της “a-priori” γνώσης μας με τα δεδομένα που εξάγουμε από ένα πείραμα. Η συμπερασματολογία κατά Bayes μας οδηγεί στον τρόπο σύνδεσης της “a-priori” γνώσης με τα δεδομένα ώστε να εξάγουμε συμπεράσματα για ολόκληρο τον πληθυσμό ή για τη λήψη αποφάσεων.

Παραδείγματος χάριν, αν μπαίνοντας σε μία αίθουσα ενός πανεπιστημίου έπρεπε να επιλέξουμε αν το πρώτο άτομο που συναντάμε είναι αρσενικό ή θηλυκό χωρίς να γνωρίζουμε τίποτα άλλο, τότε η πιθανότητα να μαντέψουμε σωστά είναι 50/50. Αν όμως μπαίναμε σε μία αίθουσα της σχολής Μηχανολόγων Μηχανικών τότε θα επιλέγαμε αμέσως αρσενικό διότι η εμπειρία μας μας λέει ότι ο αρσενικός πληθυσμός είναι πολύ μεγαλύτερος στη σχολή Μηχανολόγων Μηχανικών. Συνεπώς, η “a-priori” πιθανότητα συμβολίζει τις πεποιθήσεις μας και την αρχική μας γνώση και εξαρτάται από την εκάστοτε περίπτωση όπως φάνηκε στο παραπάνω παράδειγμα.

Έστω τώρα ότι κάποιος μας ζητάει να μαντέψουμε αν το πρώτο πρόσωπο που θα συναντήσουμε είναι φοιτητής ή καθηγητής. Έχοντας σαν πεποίθηση ότι οι φοιτητές είναι πολύ περισσότεροι από τους καθηγητές, επιλέγουμε φοιτητής. Αν όμως το αρχικό δεδομένο εμπεριέχει το γεγονός ότι το πρώτο πρόσωπο έχει ηλικία μεγαλύτερη των 50 χρονών, τότε και παρόλο την αρχική μας πεποίθηση θα επιλέγαμε καθηγητής γνωρίζοντας ότι είναι πολύ σπάνιο να υπάρχει φοιτητής άνω των 50 χρονών ενώ είναι πολύ φυσικό να είναι ένα καθηγητής. Η συμπερασματολογία κατά Bayes μας βοηθάει να συνδυάσουμε την “a-prioiri” γνώση με τα δεδομένα και να εξάγουμε συμπεράσματα.


3. Χαρακτηριστικά

Η συμπερασματολογία κατά Bayes χαρακτηρίζεται από:

α. Την “a-priori” πληροφορία. Αποτελεί την προγενέστερη γνώση που τυχόν έχουμε για ένα πείραμα πριν όμως αποκτήσουμε δεδομένα για το πείραμα αυτό.

β. Την “a-posteriori” κατανομή. Η μορφή της “a-posteriori” κατανομής, δηλαδή του συμπεράσματος εξαρτάται από την μορφή της “a-priori” κατανομής

Ο καθορισμός της “a-priori” κατανομής, η μετατροπή της σε “a-posteriori” κατανομή και η εξαγωγής των κατάλληλων συμπερασμάτων στο πλαίσιο της συμπερασματολογίας κατά Bayes πραγματοποιούνται με τη χρήση του θεωρήματος Bayes.


4. Θεώρημα Bayes

α. Διακριτές μεταβλητές Το θεώρημα Bayes για διακριτές μεταβλητές που χαρακτηρίζονται από πιθανότητες P μπορεί να γραφεί ως εξής (και σύμφωνα με την εξίσωση 4):

$ P(\theta|x)= \frac{P(x|\theta)P(\theta)}{\sum_\theta P(x|\theta)P(\theta)} $

Όπου P(θ|x) είναι η δεσμευμένη πιθανότητα του θ δεδομένου του x, P(x|θ) είναι η δεσμευμένη πιθανότητα του x δεδομένου του θ και P(θ) είναι η “a-priori” πιθανότητα. Η επιλογής της “a-priori” κατανομής αποτελεί βασικό λίθο στην εφαρμογή του θεωρήματος Bayes και είναι σημαντικό να εκτιμηθεί σωστά. Διαφορετικές “a-priori” κατανομές οδηγούν σε διαφορετικά αποτελέσματα. Η επιλογή του μοντέλου πιθανοφάνειας εξαρτάται από τα δεδομένα του προβλήματος και συνήθως δεν είναι γνωστό εκ των προτέρων. Η δομή των δεδομένων του προβλήματος μπορεί να βοηθήσει στη επιλογή του σωστού μοντέλου πιθανοφάνειας, π.χ., αν θα είναι Γκαουσιανό ή Poisson, και στις περισσότερες περιπτώσεις χρειάζεται να υποθέσουμε ένα μοντέλο κατανομής.

β. Συνεχείς μεταβλητές Το θεώρημα Bayes για συνεχείς μεταβλητές που χαρακτηρίζονται από πυκνότητες κατανομής πιθανότητας ρ μπορεί να γραφεί ως εξής:

$ P(\theta|x)= \frac{\rho(x|\theta)P(\theta)}{\int \rho(x|\theta)P(\theta)d\theta} $

Ο παρανομαστής εξαρτάται μόνο από το x, δηλαδή τις παρατηρήσεις ενός πειράματος, είναι σταθερά και ονομάζεται σταθερά κανονικοποίησης. Το θεώρημα του Bayes συνηθίζεται να γράφεται σε διαφορετική μορφή ως εξής:

$ P(\theta|x)= \propto{\rho(x|\theta)P(\theta)} $

δηλαδή η “a-posteriori” κατανομή είναι ανάλογη του γινομένου της “a-priori” κατανομής με την κατανομή πιθανοφάνειας.


5. Κανόνας Bayes

Ο κανόνας Bayes αποτελεί το κύριο εργαλείο στην θεωρία της λήψης αποφάσεων και βασίζεται σε μία απλοποιημένη εφαρμογή του θεωρήματος Bayes.

α. Διακριτές μεταβλητές

Έστω ότι έχουμε N κατηγορίες $ {\omega_{1},\omega_{2},....,\omega_{N}} $ στις οποίες θέλουμε να αντιστοιχίσουμε διακριτές μεταβλητές x που εξάγουμε από ένα πείραμα, όπου x είναι ένα διάνυσμα που ανήκει στο $ Z^{n} $. Οι μεταβλητές αυτές μπορεί να κάποιο χαρακτηριστικό (π.χ., η ηλικία ενός προσώπου) ενώ οι κατηγορίες μπορεί να είναι δύο (π.χ., μαθητής ή καθηγητής) ή περισσότερες.

Το κάθε δεδομένο ανήκει σε μία κατηγορία με κάποια πιθανότητα P. Ένα τρόπος να αποφασίσουμε σε ποιά κατηγορία θα εντάξουμε το κάθε δεδομένο είναι να επιλέξουμε την κατηγορία με τη μεγαλύτερη πιθανότητα:

$ P(\omega_{i}|\textbf{x}) \geq P(\omega_{j}|\textbf{x}) $


Η παραπάνω ανισότητα ερμηνεύεται ως “η κατηγορία $ \omega_{i} $ δεδομένου του χαρακτηριστικού x έχει μεγαλύτερη πιθανότητα από την κατηγορία $ \omega_{j} $ δεδομένου του χαρακτηριστικού x”. Συνεπώς επιλέγουμε την κατηγορία $ \omega_{i} $. Στην πράξη η δυσκολία έγκειται στον υπολογισμό των πιθανοτήτων $ P(\omega_{i}|x) $. Το θεώρημα του Bayes μας επιτρέπει να υπολογίσουμε τις παραπάνω πιθανότητες με ένα πιο εύκολο τρόπο. Σύμφωνα με το θεώρημα Bayes:

$ P(\omega_{i}|\textbf{x})= \frac{P(\textbf{x}|\omega_{i})P(\omega_{i})}{\sum_i P(\textbf{x}|\omega_{i})P(\omega_{i})} $

Αντικαθιστώντας, έχουμε:

$ P(\omega_{i}|\textbf{x}) \geq P(\omega_{j}|\textbf{x}) \Rightarrow $

$ \frac{P(\textbf{x}|\omega_{i})P(\omega_{i})}{\sum_i P(\textbf{x}|\omega_{i})P(\omega_{i})} \geq \frac{P(\textbf{x}|\omega_{j})P(\omega_{j})}{\sum_j P(\textbf{x}|\omega_{j})P(\omega_{j})} \Rightarrow $

$ P(\textbf{x}|\omega_{i})P(\omega_{i}) \geq P(\textbf{x}|\omega_{j})P(\omega_{j}) $

Όπου λόγω συμμετρίας οι παρανομαστές είναι ίσοι και μπορούν απαλοιφθούν. Η τελευταία ανισότητα αντιπροσωπεύει τον κανόνα Bayes για διακριτές μεταβλητές και μας επιτρέπει να υπολογίσουμε την πιθανότητα $ P(x|\omega_{i}) $ αντί της πιθανότητας $ P(\omega_{i}|x) $. Απαραίτητη προυπόθεση φυσικά είναι η γνώση της “a-priori” κατανομής.

β. Συνεχείς μεταβλητές Έστω ότι έχουμε N κατηγορίες $ {\omega_{1},\omega_{2},....,\omega_{N}} $ στις οποίες θέλουμε να αντιστοιχίσουμε συνεχείς μεταβλητές x που εξάγουμε από ένα πείραμα, όπου x είναι ένα διάνυσμα που ανήκει στο $ R^{n} $ . Το κάθε δεδομένο ανήκει σε μία κατηγορία με κάποια πιθανότητα P. Ένα τρόπος να αποφασίσουμε σε ποιά κατηγορία θα εντάξουμε το κάθε δεδομένο είναι να επιλέξουμε την κατηγορία με τη μεγαλύτερη πιθανότητα:

$ P(\omega_{i}|\textbf{x}) \geq P(\omega_{j}|\textbf{x}) $

Όμοια με την παραπάνω περίπτωση των διακριτών μεταβλητών και σύμφωνα με το θεώρημα Bayes:

$ P(\omega_{i}|\textbf{x})= \frac{\rho(\textbf{x}|\omega_{i})P(\omega_{i})}{\int \rho(\textbf{x}|\omega_{i})P(\omega_{i})d\omega} $


Αντικαθιστώντας, έχουμε:

$ P(\omega_{i}|\textbf{x}) \geq P(\omega_{j}|\textbf{x}) \Rightarrow $

$ \frac{\rho(\textbf{x}|\omega_{i})P(\omega_{i})}{\int \rho(\textbf{x}|\omega_{i})P(\omega_{i})d\omega} \geq \frac{\rho(\textbf{x}|\omega_{j})P(\omega_{j})}{\int \rho(\textbf{x}|\omega_{j})P(\omega_{j})d\omega} \Rightarrow $

$ \rho(\textbf{x}|\omega_{i})P(\omega_{i}) \geq \rho(\textbf{x}|\omega_{j})P(\omega_{j}) $


Όπου λόγω συμμετρίας οι παρανομαστές είναι ίσοι και μπορούν απαλοιφθούν. Η τελευταία ανισότητα αντιπροσωπεύει τον κανόνα Bayes για συνεχείς μεταβλητές και μας επιτρέπει να υπολογίσουμε την πιθανότητα $ \rho(x|\omega_{i}) $ αντί της πιθανότητας $ P(\omega_{i}|x) $. Απαραίτητη προυπόθεση φυσικά είναι η γνώση της “a-priori” κατανομής.


Αναφορές

Δελλαπόρτας Π., Τσιαμυρτζής Π., 2004. “Σημειώσεις Μαθήματος: Στατιστική κατά Bayes”, Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Στατιστικής, Αθήνα.

Bishop C.M., 2006. “Pattern Recognition and Machine Learning”, Springer

Duda, R. O., Hart, P. E., Stork, D. G., 2000. “Pattern Classification”, Wiley- Interscience, 2nd Edition.

Mireille Boutin, "ECE662: Statistical Pattern Recognition and Decision Making Processes," Purdue University, Spring 2014.



Questions and comments

If you have any questions, comments, etc. please post them on this page.

Alumni Liaison

Abstract algebra continues the conceptual developments of linear algebra, on an even grander scale.

Dr. Paul Garrett