52

Hmm_em

Embed Size (px)

Citation preview

Page 1: Hmm_em
Page 2: Hmm_em
Page 3: Hmm_em
Page 4: Hmm_em

𝑺𝟐𝑺𝟏

𝒂𝟏𝟐

𝒂𝟐𝟏

𝒂𝟐𝟐𝒂𝟏𝟏

زنجیره مارکوف:

𝐴=[𝑎11 𝑎21𝑎12 𝑎22]F r o

m To ماتریس :گذر

مسئله

4

Page 5: Hmm_em

𝒂𝟏𝟐

𝒂𝟐𝟏

𝒂𝟐𝟐𝒂𝟏𝟏

مدل مخفی مارکوف:

𝐴=[𝑎11 𝑎21𝑎12 𝑎22]

𝒗𝟏 𝒗𝟐

𝒃𝟏𝟏 𝒃𝟏𝟐

𝒗𝟏 𝒗𝟐

𝒃𝟐𝟏 𝒃𝟐𝟐

[𝑏11𝑏12] [𝑏21𝑏22 ]𝐵=[𝑏11 𝑏21

𝑏12 𝑏22 ]𝐵=[𝑏11 𝑏21𝑏12 𝑏22 های قابل ویژگی: [

اندازه گیریV

دنباله : مشاهدات

Oپارامتر :

مخفی𝑠𝑡𝑎𝑡𝑒≜ 𝑠 𝜃=[𝐴𝐵𝜋 پارامتر : [

مجهول

5

مسئله

𝜋 𝑖≜𝑝 (𝑠𝑡=0=𝑖)initial

state:5

Page 6: Hmm_em

زنجیره مارکوف

6

𝑺𝟐𝑺𝟏

𝒂𝟏𝟐

𝒂𝟐𝟏

𝒂𝟐𝟐𝒂𝟏𝟏

𝐴=[𝑎11 𝑎21𝑎12 𝑎22]F r o

m ماتریس :گذر

:مسئله

فعلی stateبعد بر اساس stateپیش بینی :فرضیات

داشتن مدل فوق

To

Page 7: Hmm_em

7

زنجیره مارکوففروشگاه(مثال( :

𝑩𝑨𝟏𝟎%

𝑪

𝟐𝟎𝟎 𝟏𝟐𝟎

𝟏𝟖𝟎

2

𝟏𝟎%𝟏𝟎%

𝟏𝟎%𝟑𝟎%

𝟔𝟎%

𝟖𝟎% 𝟕𝟎%

[200500120500180500

]Current State

[0 .4040 .3160 .280 ]Next State

[0 .8 0 .2 0 .10 .1 0 .7 0 .30 .1 0 .1 0 .6]

Transition

Probabilities

𝟎 .𝟖𝑨 𝑩 𝑪

𝟎 .𝟏

𝟎 .𝟏

𝟎 .𝟐 1 𝑨

𝑩

𝑪

7 3

1 6

× ¿

Transition

Probabilities

Page 8: Hmm_em

8

زنجیره مارکوففروشگاه(مثال( :

𝑩𝑨𝟏𝟎%

𝑪

𝟐𝟎𝟎 𝟏𝟐𝟎

𝟏𝟖𝟎

2

𝟏𝟎%𝟏𝟎%

𝟏𝟎%𝟑𝟎%

𝟔𝟎%

𝟖𝟎% 𝟕𝟎%

[200500120500180500

][0 .4040 .3160 .280 ][0 .8 0 .2 0 .1

0 .1 0 .7 0 .30 .1 0 .1 0 .6]

: توجه

𝟎 .𝟖𝑨 𝑩 𝑪

𝟎 .𝟏

𝟎 .𝟏

𝟎 .𝟐 1 𝑨

𝑩

𝑪

7 3

1 6

× ¿

𝟏+¿𝟏+¿𝟏+¿

𝟏+¿

𝟏+¿

Page 9: Hmm_em

9

زنجیره مارکوفبه کمک مثال( :

𝑺𝒖𝒏𝒏𝒚𝑹𝒂𝒊𝒏𝒚احتماالت(𝟎 .𝟒

𝟎 .𝟐

𝟎 .𝟖𝟎 .𝟔

[0 .6 0 .20 .4 0 .8] [0 .50 .5]=¿

𝑝 (𝑅1 )=𝑝 (𝑅1∨𝑅0 )𝑝 (𝑅0 )+𝑝 (𝑅1∨𝑆0 )𝑝 (𝑆0 )

چرا : سؤالفقط به یک stateهر زنجیر ؟

state قبل خود وابستهاست. دقیقاً مشابه یک

زنجیر

Page 10: Hmm_em

10

ورود به بحث مدل مخفی مارکوف

𝑺𝒖𝒏𝒏𝒚𝑹𝒂𝒊𝒏𝒚𝑯 𝑮𝟎 .𝟒 𝟎 .𝟔

𝑯 𝑮𝟎 .𝟗 𝟎 .𝟏

مثال:

H : HappyG : Grumpy

فردی شاد مشاهده شده است، احتمال آنکه آن روز

بارانی باشد؟

[𝑅0

𝑆0 ]=[0 .50 .5]𝑝 (𝑅1∨𝐻1 )=

𝑝 (𝐻1∨𝑅1 )𝑝 (𝑅1 )𝑝 (𝐻 1)

𝟎 .𝟒

𝟎 .𝟐

𝟎 .𝟖𝟎 .𝟔

¿0 .4×0 . 40 .7 =0 .229

مثال قبل

𝑝 (𝐻1 )=𝑝 (𝐻1∨𝑅1)𝑝 (𝑅1)+𝑝 (𝐻1∨𝑆1 )𝑝 (𝑆1 )=(0 .4×0 . 4 )+ (0 .9×0 .6 )=0 .70

1−0 . 4=0 .6

Page 11: Hmm_em

11

مدل مخفی 𝒂𝟏𝟐مارکوف

𝒂𝟐𝟏

𝒂𝟐𝟐𝒂𝟏𝟏

𝒗𝟏 𝒗𝟐

𝒃𝟏𝟏 𝒃𝟏𝟐

𝒗𝟏 𝒗𝟐

𝒃𝟐𝟏 𝒃𝟐𝟐

:مسئلهتخمین پارامترهای مدل )ساخت مدل(

:فرضیاتداشتن دنباله مشاهدات

𝐴=[𝑎11 𝑎21𝑎12 𝑎22]

𝐵=[𝑏11 𝑏21𝑏12 𝑏22 ]

𝜋 𝑖≜𝑝 (𝑠𝑡=0=𝑖)

𝜃=[𝐴𝐵𝜋 ]O

Page 12: Hmm_em

12

مدل مخفی مارکوف تعاریف مارکوف

1. State transition probability : 2. Observation probability : 3. Initial state : 4. Measurement or Emission or Visible : 5. Observation sequence : 6. Hidden parameter : 7. Unknown parameters :

Page 13: Hmm_em

13

مدل مخفی مارکوف های مارکوف فرض

قبل خود وابسته stateفقط به یک stateهر 1.:است

خروجی فعلی از خروجی قبل مستقل است 2.)استقالل مشاهدات از یکدیگر(:

Page 14: Hmm_em

14

قیود مارکوف

1.

2.

3.

مدل مخفی 𝐴=[𝑎11مارکوف 𝑎21

𝑎12 𝑎22]

𝐵=[𝑏11 𝑏21𝑏12 𝑏22 ]

𝜋 𝑖≜𝑝 (𝑠𝑡=0=𝑖)

𝟏+¿

𝟏+¿

⟹∑𝑗𝑎𝑖𝑗=1

⟹∑𝑘𝑏𝑖 (𝑉 𝑘 )=1

𝟏+¿

𝟏+¿

⟹∑𝑖𝜋 𝑖=1

Page 15: Hmm_em

15

مدل مخفی مارکوف تخمین پارامترهای

مجهول

E-Step:

M-Step:EM

)Expectation Maximization(

راه حل: استفاده ازEMالگوریتم

Page 16: Hmm_em

16

مدل مخفی مارکوف بیشینه کردن امید

:E-Step(EMریاضی )

1. 2.3.

Page 17: Hmm_em

17

مدل مخفی مارکوف بیشینه کردن امید

.1(EMریاضی )

برای یک نمونه:

همان تعریف

است.احتمال بودن در

𝒑 اُمj حالت (𝑺𝒕= 𝒋∨𝑺𝒕−𝟏=𝒊).همان تعریف است بنا به فرض اول حال اگر فرض کنیم حالت اولیه مارکوف :

است، داریم :

𝒑 (𝑺𝒕= 𝒋 )=𝝅𝟎𝒂𝒊𝒋

E-Step:

Page 18: Hmm_em

18

مدل مخفی مارکوف بیشینه کردن امید

.1(EMریاضی )

بنا به فرض دوم 𝒑مارکوف : (𝑶∨𝑺 )𝒑 (𝑺 )=∏

𝒕=𝟏

𝑻𝒑 (𝑶𝒕∨𝑺𝒕= 𝒋 )𝒑 (𝑺𝒕= 𝒋 )

¿𝝅𝟎∏𝒕=𝟏

𝑻𝒂𝒊𝒋 𝒃𝒊 (𝒗𝒌 )

،نحوه tبرای تأکید بر وابستگی متغیرها به نمایش را تغییر می دهیم:

E-Step:

Page 19: Hmm_em

19

مدل مخفی مارکوف بیشینه کردن امید

.1(EMریاضی )

بنا به فرض دوم 𝒑مارکوف : (𝑶∨𝑺 )𝒑 (𝑺 )=∏

𝒕=𝟏

𝑻𝒑 (𝑶𝒕∨𝑺𝒕= 𝒋 )𝒑 (𝑺𝒕= 𝒋 )

¿𝝅𝟎∏𝒕=𝟏

𝑻𝒂𝒊𝒋 𝒃𝒊 (𝒗𝒌 )

¿𝝅𝟎∏𝒕=𝟏

𝑻𝒂𝑺𝒕 −𝟏𝑺 𝒕

𝒃𝑺𝒕 (𝒐𝒕 )

E-Step:

Page 20: Hmm_em

20

مدل مخفی مارکوف بیشینه کردن امید

.2(EMریاضی )𝒍𝒐𝒈 𝒑 (𝑶 ,𝑺;𝜽 )=𝒍𝒐𝒈 [𝒑 (𝑶∨𝑺 )𝒑 (𝑺 ) ]

¿ 𝒍𝒐𝒈 [𝝅𝟎∏𝒕=𝟏

𝑻𝒂𝑺 𝒕−𝟏𝑺𝒕

𝒃𝑺𝒕 (𝒐 𝒕 )]¿ 𝒍𝒐𝒈 𝝅𝟎+∑

𝒕=𝟏

𝑻𝒍𝒐𝒈 (𝒂𝑺𝒕−𝟏𝑺𝒕 )+∑

𝒕=𝟏

𝑻𝒍𝒐𝒈 (𝒃𝑺𝒕 (𝒐𝒕 ))

E-Step:

Page 21: Hmm_em

21

مدل مخفی مارکوف بیشینه کردن امید

.3(EMریاضی )𝑬𝑺∨𝑶 ;𝜽𝒏

{𝒍𝒐𝒈𝒑 (𝑶 ,𝑺 ;𝜽 ) }=∑𝑆

{( 𝒍𝒐𝒈𝒑 (𝑶 ,𝑺 ;𝜽 ) ) (𝒑 (𝑺∨𝑶 ;𝜽𝒏 ) )}E-Step:

Page 22: Hmm_em

22

مدل مخفی مارکوف بیشینه کردن امید

.3(EMریاضی )

¿∑𝑆 {(𝒍𝒐𝒈 𝝅𝟎+∑

𝒕=𝟏

𝑻

𝒍𝒐𝒈 (𝒂𝑺𝒕−𝟏𝑺𝒕 )+∑𝒕=𝟏

𝑻

𝒍𝒐𝒈 (𝒃𝑺𝒕(𝒐𝒕 ))) (𝒑 (𝑺∨𝑶 ;𝜽𝒏 ))}

E-Step:

Page 23: Hmm_em

23

مدل مخفی مارکوف بیشینه کردن امید

:3.E-Step(EMریاضی )

Page 24: Hmm_em

24

مدل مخفی مارکوف بیشینه کردن امید

:3.E-Step(EMریاضی )

Page 25: Hmm_em

25

مدل مخفی مارکوف بیشینه کردن امید

:3.E-Step(EMریاضی )

Page 26: Hmm_em

26

مدل مخفی مارکوف بیشینه کردن امید

:3.E-Step(EMریاضی )

Page 27: Hmm_em

27

مدل مخفی مارکوف بیشینه کردن امید

:M-Step(EMریاضی )1.2.3.

بیشینه کردن عبارت فوق، معادل آن است که هر کدام از سه جمله را به تنهایی بیشینه کنیم:

Page 28: Hmm_em

28

مدل مخفی مارکوف بیشینه کردن امید

-1.M(EMریاضی )Step:

𝒕𝒉𝒆𝟏𝒔𝒕 𝒕𝒆𝒓𝒎𝒐𝒇 𝑸 (𝜽 ,𝜽𝒏 )=∑𝒊=𝟏

𝑵𝒍𝒐𝒈 𝝅 𝒊 (𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 ))

داریم: با استفاده از روش ضرایب الگرانژ و قید 𝝏

𝝏𝝅 𝒊 {∑𝒊=𝟏𝑵

𝒍𝒐𝒈 (𝝅 𝒊 )𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )+ ℷ(∑𝒊=𝟏𝑵

𝝅 𝒊−𝟏)}=𝟎

Page 29: Hmm_em

29

مدل مخفی مارکوف بیشینه کردن امید

-1.M(EMریاضی )Step:

~𝝅 𝒊=𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )

Page 30: Hmm_em

30

مدل مخفی مارکوف بیشینه کردن امید

-2.M(EMریاضی )Step:

𝒕𝒉𝒆𝟐𝒏𝒅 𝒕𝒆𝒓𝒎𝒐𝒇 𝑸 (𝜽 ,𝜽𝒏 )=∑𝒊=𝟏

𝑵

∑𝒋=𝟏

𝑵

∑𝒕=𝟏

𝑻𝒍𝒐𝒈 (𝒂𝒊𝒋 )𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )

داریم:با استفاده از روش ضرایب الگرانژ و قید 𝝏

𝝏𝒂𝒊𝒋 {∑𝒊=𝟏𝑵

∑𝒋=𝟏

𝑵

∑𝒕=𝟏

𝑻

𝒍𝒐𝒈 (𝒂𝒊𝒋) 𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )+ ℷ (∑𝒊=𝟏𝑵

𝒂𝒊𝒋−𝟏)}=𝟎

Page 31: Hmm_em

31

مدل مخفی مارکوف بیشینه کردن امید

-2.M(EMریاضی )Step:

~𝒂𝒊𝒋=∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )

∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕−𝟏=𝒊∨𝑶 ;𝜽𝒏 )

Page 32: Hmm_em

32

مدل مخفی مارکوف بیشینه کردن امید

-3.M(EMریاضی )Step:

𝒕𝒉𝒆𝟑𝒓𝒅 𝒕𝒆𝒓𝒎𝒐𝒇 𝑸 (𝜽 ,𝜽𝒏 )=∑𝒊=𝟏

𝑵

∑𝒕=𝟏

𝑻𝒍𝒐𝒈 𝒃𝒊 (𝒐𝒕 ) 𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )

و اینکه فقط با استفاده از روش ضرایب الگرانژ و قید اُمین احتمال شرکت می کنند که kمشاهداتی در مقدار

بصورت زیر بدست برابر باشند، مقدار بهینه برای می آید:

Page 33: Hmm_em

33

مدل مخفی مارکوف بیشینه کردن امید

-3.M(EMریاضی )Step:

~𝒃𝒊 (𝒌 )=∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 ) 𝜹𝒐𝒕 ,𝒗 𝒌

∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )

Page 34: Hmm_em

34

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )

~𝝅 𝒊=𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )

بنابراین، روابط باز تخمین بصورت زیر خواهند بود:

~𝒂𝒊𝒋=∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )

∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕−𝟏=𝒊∨𝑶 ;𝜽𝒏 )

~𝒃𝒊 (𝒌 )=∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 ) 𝜹𝒐𝒕 ,𝒗 𝒌

∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )

Page 35: Hmm_em

35

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )

~𝝅 𝒊=𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )

~𝒂𝒊𝒋=∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )

∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕−𝟏=𝒊∨𝑶 ;𝜽𝒏 )

~𝒃𝒊 (𝒌 )=∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 ) 𝜹𝒐𝒕 ,𝒗 𝒌

∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )

اکنون با توجه به روابط باز تخمین، باید بدنبال باشیم:

Page 36: Hmm_em

36

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )

برای دنباله t در زمان i: احتمال بودن در حالت متغیرشود. است، که بصورت زير تعريف مي Oحالت

𝒑که در آن: (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )=𝒑 (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )

𝒑 (𝑶 ;𝜽𝒏 )=

𝒑 (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )

∑𝒋=𝟏

𝑵

𝒑 (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )

برای کاهش حجم روابط، متغیر تعریف می کنیم:

Page 37: Hmm_em

37

مدل مخفی مارکوف بیشینه کردن امید

بدلیل استقالل شرطی مارکف )استقالل شرطی+ فرض (EMریاضی )𝒑دوم مارکوف( : (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )=𝒑 (𝒐𝟏 , .. ,𝒐𝒕 ,𝑺𝒕=𝒊 ;𝜽𝒏 ) 𝒑 (𝒐𝒕+𝟏 ,…,𝒐𝑻∨𝑺𝒕=𝒊 ;𝜽𝒏 )

≜𝛼 𝑖 (𝑡 ) ≜𝛽𝑖 (𝑡 )

بنابراین:

𝒑 (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )=𝜶𝒊 (𝒕 ) 𝜷𝒊 (𝒕 )

Page 38: Hmm_em

38

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )

𝜸 𝒊 (𝒕 )=𝜶𝒊 (𝒕 ) 𝜷𝒊 (𝒕 )

∑𝒋=𝟏

𝑵𝜶 𝒋 (𝒕 ) 𝜷 𝒋 (𝒕 )

بنابراین:

Page 39: Hmm_em

39

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )مقدار را می توان بصورت زیر بازنویسی کرد:

~𝝅 𝒊=𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )=𝒑 (𝑶 ,𝑺𝒕=𝟎=𝒊 ;𝜽𝒏 )

𝒑 (𝑶 ;𝜽𝒏 )=𝜸 𝒊 (𝟏 )

Page 40: Hmm_em

40

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )مقدار را می توان بصورت زیر بازنویسی کرد:

Page 41: Hmm_em

41

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )

~𝝅 𝒊=𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )

~𝒂𝒊𝒋=∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )

∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕−𝟏=𝒊∨𝑶 ;𝜽𝒏 )

~𝒃𝒊 (𝒌 )=∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 ) 𝜹𝒐𝒕 ,𝒗 𝒌

∑𝒕=𝟏

𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )

با توجه به روابط باز تخمین، فقط محاسبه باقی میماند:

Page 42: Hmm_em

42

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )

j و در حالت t-1در زمان i در حالتبودن: احتمال متغیرشود. است، که بصورت زير تعريف مي tدر زمان

برای کاهش حجم روابط، متغیر را تعریف می کنیم:

مشابه :37اسالید

Page 43: Hmm_em

43

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی )

𝜶𝒊 (𝒕−𝟏 ) 𝜷 𝒋 (𝒕 )مشابه 17اسالید

Page 44: Hmm_em

44

مدل مخفی مارکوف بیشینه کردن امید

(EMریاضی ) بنابراین:

Page 45: Hmm_em

45

مدل مخفی مارکوف بیشینه کردن امید

اکنون می توان روابط باز تخمین را برحسب متغیرهای (EMریاضی )𝝅~تعریف شده، بصورت زیر بازنویسی کرد: 𝒊=𝜸 𝒊 (𝟏 )

~𝒂𝒊𝒋=∑𝒕=𝟏

𝑻−𝟏𝝃 𝒊𝒋 (𝒕 )

∑𝒕=𝟏

𝑻−𝟏𝜸 𝒊 (𝒕 )

~𝒃𝒊 (𝒌 )=∑𝒕=𝟏

𝑻𝜸 𝒊 (𝒕 )𝜹𝒐𝒕 ,𝒗𝒌

∑𝒕=𝟏

𝑻𝜸 𝒊 (𝒕 )

Page 46: Hmm_em

46

مدل مخفی را برای تخمین پارامترهای EMاکنون می توان الگوریتم مارکوف

مدل مخفی مارکوف بصورت زیر خالصه کرد: )این الگوریتم بام ولش الگوریتم به الگوریتم بام ولش معروف است(

(Baum Welch:)

Page 47: Hmm_em

47

مدل مخفی مارکوف الگوریتم بام ولش

(Baum Welch:)

Page 48: Hmm_em

𝑺𝟏 𝑺𝟏 𝑺𝟏

یک مثال؛ از مدل کردنآوای یک واج:

Ǻ سیگنال گفتار فرایندی غیر ایستان است. Ǻکنیم هایی که فرض می بعد از تبدیل سیگنال به پنجره

ها را سیگنال در آن ایستان است، هر کدام از این پنجرهگیریم. یک حالت مدل مارکوف در نظر می Ǻای توان فرایندی قطعه دنباله بردارهای ویژگی را می

ایستان فرض کرد.

کاربرد

48

Page 49: Hmm_em

استفاده از مدل مخفی مارکوف در بازشناسی واج:

فاز آموزش:1. واج 1 واج + 44 فرض کنی�د زبان مورد نظر دارای

مدل 45 بنابرای�ن باید باشد. واج( 45برای س�کوت )= 3مدل مخف�ی مارکوف ایجاد کرد. ک�ه معموالً برای هر

گیرند. حالت در نظر میداده از اس�تفاده ب�ا کمک حال ب�ه و آموزش های

ول��ش، بام تخمین الگوریت��م را مدل پارامترهای زنیم. می

کاربرد

49

Page 50: Hmm_em

Templates

OrStatistical Models

Test Pattern

Speech

Analysis

S)n(

Pattern

Training

Pattern Classifi

er

Decision

Logic

Recognized

Speech

Reference Pattern

HMM

50

کاربرد

O

Page 51: Hmm_em

منابع

51

1. Fundamental of Speech Recognition _ Lawr2. A Gentle Tutorial of the EM Algorithm and its

Application to Parameter Estimation for Gaussian Mixture and Hidden Markov Models _ Jeff A. Bilmes

3. Tutorial on Hidden Markov Models _ www.Kingston.ac.uk/dirc

4. www.youtube.com/watch?v=5araDjcBHMQ5. www.youtube.com/playlist?list=PLX2gX-ftPVXWgcF0

WATMDr-AfvfaYjJZ36. www.youtube.com/playlist?list=PLKG3ExuC02lsnZUJ

DdOlYJd5CRe3otzq1

Page 52: Hmm_em