64
Bayes Classifiers

Bayes Classifiers - UoPvclass.uop.gr/modules/document/file.php/ITCOM664/3Bayes...Θεώρημα Bayes Tο θώθεώ ρημα Bayes εκφάζφράζεται ως: – όπου ω

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Microsoft PowerPoint - 3BayesClassifiers.pptxΘερημα BayesΘερημα Bayes
T θ B φ ζ Tο θερημα Bayes εκφρζεται ως:
– που ωj η κλση j και x το δινυσμα χαρακτηριστικνj νας τυπικς καννας απφασης εναι να επιλγουμε την  κλση με τη μγιστη P[ωj|x]
P[ω ] εκ των προτρων πιθαντητα– P[ωj] εκ των προτρων πιθαντητα – P[ωj|x] εκ των υστρων πιθαντητα – P[x|ωj] πιθανοφνεια[ j] φ – P[x] σταθερ κανονικοποησης
Λγος ΠιθανοφνειαςΛγος Πιθανοφνειας Δεδομνου του θεωρματος Bayes:

H P(x) μπορε να απλοποιηθε και μετ  απ ανακατταξη της σχσης προκπτει  ο λγος πιθανοφνειας Λ(x) και οο λγος πιθανοφνειας Λ(x) και ο  καννας απφασης του Bayes:
Καννας Απφασης Bayes  σκηση
ξ Δεδομνου προβλματος ταξινμησης με  τις πιο κτω υπ συνθκη πιθαντητες  και υποθτοντας σες εκ των προτρωνκαι υποθτοντας σες εκ των προτρων  πιθαντητες, εξγετε καννα απφασης.
Καννας Απφασης Bayes φ Λση
Αντικαθιστντας στον καννα:
ΣυμπρασμαΣυμπρασμα
11
22 in If xRx
Gaussian συνρτηση  πυκντητας πιθαντητας
Σμφωνα με το θερημα κεντρικο ορου, η  συνρτηση πυκντητας πιθαντητας του  αθροσματος ενς πλθους στατιστικς ανεξρτητωναθροσματος ενς πλθους στατιστικς ανεξρτητων  τυχαων μεταβλητν, τενει στη Gaussian συνρτηση  πυκντητας πιθαντητας, ταν το πλθος των ρων η ς η ς, ς ρ τενει στο πειρο.
Gaussian συνρτηση 
που
Ο Βλτιστος Bayesian ταξινομητς απλοποιεται Ο Βλτιστος Bayesian ταξινομητς, απλοποιεται  σημαντικ ταν: – Οι κλσεις εναι ισοπθανες– Οι κλσεις εναι ισοπθανες – Τα δεδομνα σε λες τις κλσεις ακολουθον  κανονικ κατανομκανονικ κατανομ
– Το μητρο συνδιασπορς εναι το διο για λες  τις κλσειςς ς
– Το  μητρο συνδιασπορς εναι διαγνιο με  λα τα στοιχεα σα S=σ2Ι
10
Απστασης Αν ισχουν οι περιορισμο ο Βayes classifier  γνεται:
Euclidean Distance:Euclidean Distance:
Αν δεν ισχει ο τελευταος περιορισμς γνεται: M h l bi Di tMahalanobis Distance:
11
Επιβλεπμενη vs ΜηΕπιβλεπμενη  Μθηση
Μ θ θδ Μχρι τρα θεωρσαμε μεθδους αναγνρισης με  classification που το πρτυπο χαρακτηρζεται απ τα  μεγθη {x,ω}
Αυτ τα προβλματα αναγνρισης ονομζονται  Επιβλεπμενα (supervised) αφο διατθενται και το  χαρακτηριστικ δινυσμα και η σωστ απντησηχαρακτηριστικ δινυσμα και η σωστ απντηση.
Υπρχουν μως περιπτσεις που δνεται το  χαρακτηριστικ δινυσμα χωρς την κλση.
Αυτς οι μθοδοι καλονται ΜηΕπιβλεπμενες  (unsupervised) λγω του τι δεν χρησιμοποιον τη  σωστ απντηση. η η
Επιβλεπμενη vs ΜηΕπιβλεπμενη  Μθηση
Αν και η μθοδοι μη επιβλεπμενης  μθηση φανονται περιορισμνων  δυνατοττων υπρχουν πολλςδυνατοττων υπρχουν πολλς  περιπτσεις που επιβλλεται η  χρση τους:χρ η ς
Ο χαρακτηρισμς πολλν  δεδομνων μπορε να αποβε β δαπανηρς (π.χ. αναγνριση  ομιλας)
Το εδος της κλσης μπορε να μην  εναι γνωστ εξ’αρχς.
Κατηγοριοποιση των μηεπιβλεπμενων  μεθδων εκμθησης
Παραμετρικς (μεγματα κατανομν):  Αυτς οι μθοδοι μοντελοποιον την υπ  συνθκη πυκντητα πιθαντητας με νασυνθκη πυκντητα πιθαντητας με να  μγμα παραμετρικν πυκνοττων με  σκοπ να βρουν τις παραμτρους του βρ ς ρ μ ρ ς μοντλου.
Μηπαραμετρικς (clustering): Δεν γνεται η ρ μ ρ ( g) γ υπθεση για την πυκντητα πιθαντητα  αλλ επιχειρεται διαχωρισμς των  δ δ l tδεδομνων σε clusters.
Μοντλα ΜξηςΜοντλα Μξης Θ βλ λ Θεωρστε το πρβλημα μοντελοποησης  συνρτησης πυκντητας πιθαντητας  δεδομνου ενς συνλου δεδομνων X={x(1, x(2, 
(N…, x(N} Αν η μορφ πυκντητας ταν γνωστ το  πρβλημα θα λνονταν με το κριτριο τηςπρβλημα θα λνονταν με το κριτριο της  Μγιστης Πιθαντητας
Αν η μορφ πυκντητας ταν γνωστη, θα  λ θ θ Pa eμποροσε να λυθε με τα παρθυρα Parzen
Μοντλα ΜξηςΜοντλα Μξης Εδ θ θ λλ θ δ Εδ θα θεωρσουμε μια εναλλακτικ μθοδο  εκτμησης της πυκντητας, μσω μεγματος  παραμετρικν πυκνοττων
Ο αλγριθμος ΕΜ (ExpectationΟ αλγριθμος ΕΜ (Expectation Maximization μεγιστοποηση αναμονς)
Ο ΕΜ εναι γενικ μθοδος για την εκτμηση της  μγιστης πιθαντητας ταν λεπουν δεδομναμγιστης πιθαντητας ταν λεπουν δεδομνα.
Χρησιμοποιεται ταν ντως χουν καταστραφε   λεπουν δεδομνα  τι η υπθεση τι λεπουν  μ η η δεδομνα απλοποιε τη συνρτηση πιθαντητας
Υποθστε σνολο δεδομνων που περιχει δο μ ρ εδη χαρακτηριστικν: τα Χ που εναι γνωστ και  τα Ζ που εναι γνωστα
Ο αλγριθμος ΕΜ (Expectation Maximization μεγιστοποηση αναμονς)
ζ Ορζουμε μια συνρτηση κατανομς  πιθαντητας λων των δεδομνων p(X,Z|θ) που  θ={μ Σ}θ={μ,Σ}
Η συνρτηση εναι τυχαας μεταβλητς ως προς  Ζ δηλ p(X Z|θ)=hX θ(Z)Ζ δηλ. p(X,Z|θ) hX,θ(Z)
Ο ΕΜ χει δο λειτουργες που επαναλαμβνει: – Μια λειτουργα αναμονς (Expectation)Μια λειτουργα αναμονς (Expectation) – Μια λειτουργα μεγιστοποησης (Maximization)
Ο αλγριθμος ΕΜ (Expectation Maximization μεγιστοποηση αναμονς)
A A OANAMONH Υπολγισε την αναμενμενη τιμ της 
θ l [ (X Z|θ)] πιθαντητας log[p(X,Z|θ)] ως προς τα γνωστα  δεδομνα Ζ, δεδομνων των Χ και την τρχουσα  τιμ θ(i1τιμ θ
ΜΕΓΙΣΤΟΠΟΙΗΣΗΜΕΓΙΣΤΟΠΟΙΗΣΗ Υπολγισε το ρισμα θ 
Αποδεικνεται τι ο ΕΜ συγκλνει σε τοπικ  θ μγιστο της συνρτησης πιθαντητας
Ο αλγριθμος ΕΜ (Expectation Maximization μεγιστοποηση αναμονς)
Κατ την Ε λειτουργα τα χαρακτηριστικ Ζ  διχνονται με ολοκλρωση 
Κ Μ λ λ ζ Κατ την Μ λειτουργα υπολογζονται οι τιμς των  παραμτρων που μεγιστοποιον την αναμενμενη  τιμτιμ.
Αφο το Ζ εναι γνωστο μεγιστοποιομε τη Αφο το Ζ εναι γνωστο μεγιστοποιομε τη  λογαριθμικ συνρτηση πιθαντητας για λες τις  πιθανς τιμς του Ζ
Ο αλγριθμος ΕΜ και μγμα μοντλωνΟ αλγριθμος ΕΜ και μγμα μοντλων
χοντας ορσει τον αλγριθμο ΕΜ μπορομε να  λσουμε το πρβλημα μγματος παραμετρικν  κατανομνκατανομν
Για λγους απλοποησης θα θεωρσουμε πρβλημα  μιας μεταβλητς που λα τα μρη χουν γνωστμιας μεταβλητς που λα τα μρη χουν γνωστ  τυπικ απκλιση σ.
Ο αλγριθμος ΕΜ και μγμα μοντλωνΟ αλγριθμος ΕΜ και μγμα μοντλων
Δ δ λ δ δ X { (1 (2 Δεδομνου του συνλου δεδομνων X={x(1, x(2, …,  x(N},  ζητεται να υπολογσουμε τις παραμτρους  του μοντλου θ={μ1, μ2, …μC}του μοντλου θ {μ1, μ2, …μC}
Θεωρομε τι κθε μεταβλητ x(n δημιουργθηκε με τον εξς τρπο: – Αρχικ μια κατανομ Gauss επιλγεται βσει  των συντελεστν του μγματος P(ωc) Τ (n δ β– Ττε, το x(n δημιουργεται βσει της  πιθαντητας p(x|μc) του συγκεκριμνου  συστατικο
Σε να ττοιο πρβλημα, οι κρυφς μεταβλητς  Z={z1(n,z2(n,…zC(n} χρησιμοποιονται για να  ξ δεξουν ποια απ τις C κατανομς Gauss 
παργαγε το x(n
Ο αλγριθμος ΕΜ και μγμα μοντλωνΟ αλγριθμος ΕΜ και μγμα μοντλων
| Η πιθαντητα p(x,z|θ) για να  συγκεκριμνο δεγμα εναι:
Μνο να απ τα zc(n μπορε να εναι 1.
Ο αλγριθμος ΕΜ και μγμα μοντλωνΟ αλγριθμος ΕΜ και μγμα μοντλων
Η λογαριθμικ συνρτηση πιθαντητας  για λο το σνολο θα εναι
Γ λ Q(θ|θ(i 1) Για να υπολογσουμε το Q(θ|θ(i1) πρπει  να προυμε τη μση τιμς ως προς Ζ
E[ (n] θ δ E[zc(n] εναι η πιθαντητα το παρδειγμα  x(n να δημιουργθηκε απ τη cστη  κατανομ Gauss δεδομνων τωνκατανομ Gauss δεδομνων των  παραμτρων θ(i1
Ο αλγριθμος ΕΜ και μγμα μοντλωνΟ αλγριθμος ΕΜ και μγμα μοντλων
Αυτς οι δο εκφρσεις  δνουν την Q συνρτηση:η Q ρ η η
Ο αλγριθμος ΕΜ και μγμα μοντλωνΟ αλγριθμος ΕΜ και μγμα μοντλων
Το δετερο βμα (Maximization) εναι ο  υπολογισμς των τιμν {μ1,μ2,…,μC} που  μεγιστοποιε τη συνρτηση Qμεγιστοποιε τη συνρτηση Q
Και υπολογζοντας τα μηδενικ της μερικς  παραγγισης:παραγγισης:
ΙστγραμμαΙστγραμμα Η πιο απλ μορφ μη παραμετρικς  εκτμησης πυκντητας εναι το ιστγραμμα
Χ ζ δ Χωρζει το δειγματοχρο σε μικρς περιοχς  και προσεγγζει την πυκντητα απ το  πλθος των δειγμτων που εμππτουν στηνπλθος των δειγμτων που εμππτουν στην  κθε περιοχ.
Ιστγραμμα ΜειονεκτματαΙστγραμμα  Μειονεκτματα Το τελικ σχμα της συνρτησης  πυκντητας πιθαντητας εξαρτται απ  το σημεο εκκνησης των περιοχντο σημεο εκκνησης των περιοχν
Η φαινομενικ συνχεια στα δεδομνα  εξαρτται απ την επιλογ τωνεξαρτται απ την επιλογ των  περιοχν
Σε προβλματα πολλν διαστσεων θα ρ β μ απαιτονται πολλ δεγματα αλλις ο  σχηματισμς θα εναι ελλιπς. 
Γενικ διατπωση  εκτμησης
Η πιθαντητα να δινυσμα x, με  κατανομ p(x), να ανκει σε μια περιοχ  εναι: εναι:
R
dxxpP ')'(
Αν υποθσουμε τι Ν εναι τα δεγματα  της κατανομς η πιθαντητα να ανκουν
R
της κατανομς, η πιθαντητα να ανκουν  k στην περιοχ , εναι:
N kNk PP k N
kP
Γενικ διατπωση  εκτμησης
Απ τις ιδιτητες των διωνυμικν  κατανομν χουμε:
k PPkk )1(2






Που σημανει τι ταν Ν→∞ η κατανομ γνεται πιο  αιχμηρ, ρα μπορομε να θεωρσουμε τι μα καλ  εκτμηση της P εναι το μσο των σημεων πουεκτμηση της P εναι το μσο των σημεων που  εμππτουν στην :
N kP N
Γενικ διατπωση  εκτμησης
Αν υποθσουμε τι η περιοχ  εναι τσο μικρ που  η p(x) δεν αλλζει:
Κ δ ζ λ
R
Vxpdxxp )(')'(
VxpdxxpP )(')'(



)(
)()(
Ο υπολογισμς εναι πιο ακριβς σο αυξνει το  λθ δ Ν V
N
πλθος των δειγμτων Ν και μικρανει ο γκος V
Γενικ διατπωση εκτμησηςΓενικ διατπωση εκτμησης Στην προηγομενη σχση ο συνολικς αριθμς  δειγμτων Ν εναι σταθερς
Γ β λ θ β ( ) Για να βελτιωθε η ακρβεια στην εκτμηση του p(x)  μπορομε να ελαχιστοποισουμε τον γκο (σχεδν  0) αλλ ττε η περιοχ θα γνει τσο μικρ που0), αλλ ττε η περιοχ  θα γνει τσο μικρ που  δεν θα περιχει πρακτικ δεγματα
ρα θα πρπει να γνει νας συμβιβασμς στε το V ρ ρ γ ς μβ β μ ς να εναι αρκετ μεγλο για να περιχει αρκετ  δεγματα και αρκετ μικρ στε να στηρζεται η  υπθεση τι το p(x) παραμνει σταθερ εντς της 
Γενικ διατπωση εκτμησηςΓενικ διατπωση εκτμησης Στην πρξη δο προσεγγσεις ακολουθονται:
– Μπορομε να επιλξουμε μια σταθερ τιμ για  V λ τον γκο V και να υπολογσουμε τα περιεχμενα 
δεγματα απ τα δεδομνα (Εκτμηση Πυκντητας  Kernel)Kernel)
– Μπορομε να ορσουμε σταθερ αριθμ  δειγμτων k και να υπολογσουμε τον αντστοιχοδειγμτων k και να υπολογσουμε τον αντστοιχο  γκο V απ τα δεδομνα (kNearest Neighbours)
Αποδεικνεται τι και οι δο πιο πνω προσεγγσεις ρ γγ ς συγκλνουν στην πραγματικ τιμ της συνρτησης  πυκντητας πιθαντητας ταν N→∞, δεδομνου τι ο  V k λ Nγκος V  συρρικννεται και το k μεγαλνει με το N,
Π θ PΠαρθυρα Parzen Αν υποθσουμε τι η περιοχ  που  περικλεει k δεγματα εναι νας κβος  πλευρς h κεντραρισμνος στο σημεοπλευρς h κεντραρισμνος στο σημεο  εκτμησης x, ο γκος εναι V=hD.

)(
Παρθυρα ParzenΠαρθυρα Parzen Αυτ η συνρτηση, μοναδιαου  υπερκβου κεντραρισμνο στο x,  ονομζεται παρθυρο Parzenονομζεται παρθυρο Parzen
Η ποστητα K((xx(n)/h) ισοται με τη  μονδα αν το σημεο x(n βρσκεται μσαμονδα αν το σημεο x βρσκεται μσα  στον κβο.








Βσει των δεδομνων που ακολουθον,  χρησιμοποησε τα παρθυρα Parzen να  υπολογσετε τη συνρτηση πυκντηταςυπολογσετε τη συνρτηση πυκντητας  πιθαντητας στα σημεα y=3,10,15.  Χρησιμοποιστε h=4ρη μ
11611141264(2(1( N 17,16,15,15,14,12,6,5,5,4,...,, (2(1( NxxxX
Παρθυρα Parzen ΛσηΠαρθυρα Parzen Λση ξ Αν παραστσουμε τα δεδομνα σε ναν ξονα,  χουμε:
Εκτμηση Πυκντητας με k NNΕκτμηση Πυκντητας με kNN
Επιλγοντας σταθερ τιμ για το k και  ορζον ας ελχ σ ο γκο V σ ο σνολοορζοντας ελχιστο γκο V στο σνολο  δεδομνων που περικλεει τα k σημεα,  εφαρμζουμε τη μθοδο του k πλησιστερουεφαρμζουμε τη μθοδο του k πλησιστερου  γετονα (k Nearest Neighbor kNN)
Εκτμηση Πυκντητας με kNNΕκτμηση Πυκντητας με kNN Σ θ δ k NN λ λ Στη μθοδο kNN μεγαλνουμε τον γκο που περικλεει το  σημεο εκτμησης x εωστου περικλεει k σημεα δεδομνων. 
)( )(
kD
που Rk(x) εναι η απσταση μεταξ του σημεου εκτμησης  και του kστο πλησιστερου γετονα.
)(xRcNNV kD
cD εναι ο γκος της μοναδιαας σφαρας στις D διαστσεις,  και εναι:
2/D
!2/D cD
Εκτμηση Πυκντητας με k NNΕκτμηση Πυκντητας με kNN
2RVol

Εκτμηση Πυκντητας με k NNΕκτμηση Πυκντητας με kNN k Η εκτμηση με kNN δεν εναι πολ ικανοποιητικ  καθς: Η ζ θ β– Η προσγγιση επηρεζεται απ τοπικ θρυβο
– Καθς η συνρτηση Rk(x) δεν εναι  παραγωγσιμη θα υπρχουν ασυνχειεςπαραγωγσιμη θα υπρχουν ασυνχειες.
– Το αποτλεσμα θα αποκλνει σε λο το  δειγματοχροδειγματοχρο
Εκτμηση Πυκντητας με kNN για δο  Gaussians
4,102/11,02/1)( NNxP
Ε Π k NNΕκτμηση Πυκντητας με kNN Για δο Gaussians που:
),( 2 1),(
Εκτμηση για k=10 γετονες  και Ν=200 δεγματα
Εκτμηση Πυκντητας με k NNΕκτμηση Πυκντητας με kNN E kΠραγματικ περιγρμματα Eκτμησης με kNN
k NN vs Bayes classifierkNN vs Bayes classifier
Το μεγαλτερο πλεονκτημα της μεθδου kNN εναι τι αποτελε μια πολ απλ προσγγισηεναι τι αποτελε μια πολ απλ προσγγιση  του Bayes classifier
Ας υποθσουμε τι χουμε να σνολο Ας υποθσουμε τι χουμε να σνολο  δεδομνων με N δεγματα και Ni ανκουν στην  κλση ωi και θλουμε να ταξινομσουμε η i μ μ μ γνωστο δεγμα xu
Θεωρομε γκο V γρω απ το xuμε k δεγματα  συνολικ και στω ki απ ωi.
kNN vs Bayes classifierkNN vs Bayes classifier
Μ Μπορομε να προσεγγσουμε τη συνρτηση  πιθαντητας με kNN ως:
VN kxP i
NV kxP )(
i )(
P i )(
Ο καννας ταξινμησης του k πλησιστερου γετονα (kNN)
Ο καννας του k Nearest Neighbor Rule (kNN)  εναι διαισθητικ μθοδο που ταξινομε η μ ξ μ γνωστα δεγματα με βσει την ομοιτητα τους  με τα δεγματα εκπαδευσης.
Για δεδομνο γνωστο πρτυπο xu βρες τα k «κοντιντερα» δεγματα απ τα δεδομνα 
δ δ λεκπαδευσης και απδωσε το xu στην κλση  που εμφανζεται πιο πολ στο kυποσνολο
Καννας k NNΚαννας kNN Απαιτε μνο:
ναν ακραιο k να σετ γνωστν δειγμτων 
(σνολο εκπαδευσης) να μτρο «απστασης»
Καννας k NNΚαννας kNN
Στο παρδειγμα χουμε 3  κλσεις και γνωστο δεγμα xuς γ γμ u
Χρησιμοποιεται Ευκλεδεια  απσταση και k=5 γετονες
4 γετονες ανκουν στην ω1 και  1 ανκει στην ω3
Το xu κατατσσεται στην ω1
k NN παρδειγμαkNN  παρδειγμα δ δ δ δ χουμε δεδομνα για διδιστατο  πρβλημα 3 κλσεων πως φανεται  στο δεγμαστο δεγμα
Χρησιμοποιομε k=5 και Ευκλεδεια Χρησιμοποιομε k=5 και Ευκλεδεια  απσταση
k NN παρδειγμαkNN  παρδειγμα ξ Το διο για λλη διταξη δεδομνων
Χρησιμοποιομε k=5 και Ευκλεδεια  απσταση
O kNN ως χαλαρς (lazy)  αλγριθμος
Ο kNN ανκει στην κατηγορα των χαλαρν  αλγορθμων: – Επεξεργζεται τα δεδομνα εκπαδευσης  αφο ζητηθε ταξινμηση
– Απαντει στο ατημα ταξινμησης  συνδυζοντας τα αποθηκευμνα δεδομνα 
δεκπαδευσης – Δεν λαμβνει υπψη λογικ  λλα  αποτελσματααποτελσματα.
lazy αλγριθμοιlazy αλγριθμοι
Tradeoffs χαλαρν αλγορθμων χουν μικρτερο υπολογιστικ κστος κατ τηνχουν μικρτερο υπολογιστικ κστος κατ την  εκπαδευση
χουν μεγαλτερες απαιτσεις αποθκευσης και χ μ γ ρ ς ς ης υπολογιστικ κστος κατ την κλση τους.
Χαρακτηριστικ του k NNΧαρακτηριστικ του kNN Πλ Πλεονεκτματα Απλ υλοποηση Πολ καλ αποτελσματα για μεγλο αριθμ Πολ καλ αποτελσματα για μεγλο αριθμ  δειγμτων (N→∞)
Μειονεκτματα Μεγλη απατηση σε αποθηκευτικ χρογ η η η η χ ρ Υπολογιστικ κστος στην κλση Ευλωτος στην «κατρα πολυδιστατων  προβλημτων»
k NN vs1 ΝΝkNN vs1ΝΝ k Μεγλο k σημανει πιο ομαλς περιοχς αποφσεων Δνει πιο σωστς πιθανοτικ πληροφορες Ωστσο πολ μεγλο k μπορε να χαλσει την  τοπικτητα της απφασης
Α ξ λ Αυξνει το υπολογιστικ κστος
k NN vs1 ΝΝkNN vs1ΝΝ
σκηση 1σκηση 1 Κατηγοριοποησε τα  σημεα  A, B και C  χρησιμοποιντας γιαχρησιμοποιντας για  κατηγοριοποηση  τον  καννα 5ΝΝ και  Ευκλεδεια απσταση
ΛσηΛση
Για το Α, για κθε σημεο η Ευκλεδειος θ απσταση θα εναι:
22 2 )(2)(2
2 )(1)(1 )( iAiAi yyyyd
σκηση 2σκηση 2 Α φ k NN φ Αν εφαρμσουμε τον kNN καννα απφασης στο σχμα της  προηγομενης σκηση, θα προυμε περιοχς απφασης και  ριο απφασης για τις δο κλσεις. Αν y(i) εναι ταριο απφασης για τις δο κλσεις. Αν y(i) εναι τα  χαρακτηριστικ διανσματα της κλσης 1 και  s(i) της κλσης  2, ττε σμφωνα με τον ορισμ, κθε σημεο του ορου  φ θ απφασης θα πρπει  ικανοποιε τη σχση: 
i
i
i
i sydyyd ,ˆmin,ˆmin
Υποθστε Ευκλεδεια απσταση Α) ποια εναι η σχση που καθορζει το ριο απφασης για μια
ii
Α) ποια εναι η σχση που καθορζει το ριο απφασης για μια  περιοχ κοντ στο ριο αν να δινυσμα  y(i) εναι πιο κοντ  στο ριο για την κλση 1 και το s(j) για την κλση 2
Β) σχεδιστε να ριο απφασης για τις δο κλσεις Γ) βρετε τα στοιχεα που η μετακνηση τους δεν αλλζει το ριο

ji dd ˆˆ ji sydyyd ,,
222 2
11 2
22 2
NAIVE BAYES CLASSIFIERNAIVE – BAYES CLASSIFIER


|| iji xpxp
Σε αυτ την περπτωση, κποιος θα χρειαστε, κατ  df
1
|| j
iji pp
προσγγιση, Ν σημεα για κθε pdf. Αρα συνολικ N   θα  αρκοσαν.
64