Upload
amir-masinaei
View
19
Download
1
Embed Size (px)
Citation preview
𝑺𝟐𝑺𝟏
𝒂𝟏𝟐
𝒂𝟐𝟏
𝒂𝟐𝟐𝒂𝟏𝟏
زنجیره مارکوف:
𝐴=[𝑎11 𝑎21𝑎12 𝑎22]F r o
m To ماتریس :گذر
مسئله
4
𝒂𝟏𝟐
𝒂𝟐𝟏
𝒂𝟐𝟐𝒂𝟏𝟏
مدل مخفی مارکوف:
𝐴=[𝑎11 𝑎21𝑎12 𝑎22]
𝒗𝟏 𝒗𝟐
𝒃𝟏𝟏 𝒃𝟏𝟐
𝒗𝟏 𝒗𝟐
𝒃𝟐𝟏 𝒃𝟐𝟐
[𝑏11𝑏12] [𝑏21𝑏22 ]𝐵=[𝑏11 𝑏21
𝑏12 𝑏22 ]𝐵=[𝑏11 𝑏21𝑏12 𝑏22 های قابل ویژگی: [
اندازه گیریV
دنباله : مشاهدات
Oپارامتر :
مخفی𝑠𝑡𝑎𝑡𝑒≜ 𝑠 𝜃=[𝐴𝐵𝜋 پارامتر : [
مجهول
5
مسئله
𝜋 𝑖≜𝑝 (𝑠𝑡=0=𝑖)initial
state:5
زنجیره مارکوف
6
𝑺𝟐𝑺𝟏
𝒂𝟏𝟐
𝒂𝟐𝟏
𝒂𝟐𝟐𝒂𝟏𝟏
𝐴=[𝑎11 𝑎21𝑎12 𝑎22]F r o
m ماتریس :گذر
:مسئله
فعلی stateبعد بر اساس stateپیش بینی :فرضیات
داشتن مدل فوق
To
7
زنجیره مارکوففروشگاه(مثال( :
𝑩𝑨𝟏𝟎%
𝑪
𝟐𝟎𝟎 𝟏𝟐𝟎
𝟏𝟖𝟎
2
𝟏𝟎%𝟏𝟎%
𝟏𝟎%𝟑𝟎%
𝟔𝟎%
𝟖𝟎% 𝟕𝟎%
[200500120500180500
]Current State
[0 .4040 .3160 .280 ]Next State
[0 .8 0 .2 0 .10 .1 0 .7 0 .30 .1 0 .1 0 .6]
Transition
Probabilities
𝟎 .𝟖𝑨 𝑩 𝑪
𝟎 .𝟏
𝟎 .𝟏
𝟎 .𝟐 1 𝑨
𝑩
𝑪
7 3
1 6
× ¿
Transition
Probabilities
8
زنجیره مارکوففروشگاه(مثال( :
𝑩𝑨𝟏𝟎%
𝑪
𝟐𝟎𝟎 𝟏𝟐𝟎
𝟏𝟖𝟎
2
𝟏𝟎%𝟏𝟎%
𝟏𝟎%𝟑𝟎%
𝟔𝟎%
𝟖𝟎% 𝟕𝟎%
[200500120500180500
][0 .4040 .3160 .280 ][0 .8 0 .2 0 .1
0 .1 0 .7 0 .30 .1 0 .1 0 .6]
: توجه
𝟎 .𝟖𝑨 𝑩 𝑪
𝟎 .𝟏
𝟎 .𝟏
𝟎 .𝟐 1 𝑨
𝑩
𝑪
7 3
1 6
× ¿
𝟏+¿𝟏+¿𝟏+¿
𝟏+¿
𝟏+¿
9
زنجیره مارکوفبه کمک مثال( :
𝑺𝒖𝒏𝒏𝒚𝑹𝒂𝒊𝒏𝒚احتماالت(𝟎 .𝟒
𝟎 .𝟐
𝟎 .𝟖𝟎 .𝟔
[0 .6 0 .20 .4 0 .8] [0 .50 .5]=¿
𝑝 (𝑅1 )=𝑝 (𝑅1∨𝑅0 )𝑝 (𝑅0 )+𝑝 (𝑅1∨𝑆0 )𝑝 (𝑆0 )
چرا : سؤالفقط به یک stateهر زنجیر ؟
state قبل خود وابستهاست. دقیقاً مشابه یک
زنجیر
10
ورود به بحث مدل مخفی مارکوف
𝑺𝒖𝒏𝒏𝒚𝑹𝒂𝒊𝒏𝒚𝑯 𝑮𝟎 .𝟒 𝟎 .𝟔
𝑯 𝑮𝟎 .𝟗 𝟎 .𝟏
مثال:
H : HappyG : Grumpy
فردی شاد مشاهده شده است، احتمال آنکه آن روز
بارانی باشد؟
[𝑅0
𝑆0 ]=[0 .50 .5]𝑝 (𝑅1∨𝐻1 )=
𝑝 (𝐻1∨𝑅1 )𝑝 (𝑅1 )𝑝 (𝐻 1)
𝟎 .𝟒
𝟎 .𝟐
𝟎 .𝟖𝟎 .𝟔
¿0 .4×0 . 40 .7 =0 .229
مثال قبل
𝑝 (𝐻1 )=𝑝 (𝐻1∨𝑅1)𝑝 (𝑅1)+𝑝 (𝐻1∨𝑆1 )𝑝 (𝑆1 )=(0 .4×0 . 4 )+ (0 .9×0 .6 )=0 .70
1−0 . 4=0 .6
11
مدل مخفی 𝒂𝟏𝟐مارکوف
𝒂𝟐𝟏
𝒂𝟐𝟐𝒂𝟏𝟏
𝒗𝟏 𝒗𝟐
𝒃𝟏𝟏 𝒃𝟏𝟐
𝒗𝟏 𝒗𝟐
𝒃𝟐𝟏 𝒃𝟐𝟐
:مسئلهتخمین پارامترهای مدل )ساخت مدل(
:فرضیاتداشتن دنباله مشاهدات
𝐴=[𝑎11 𝑎21𝑎12 𝑎22]
𝐵=[𝑏11 𝑏21𝑏12 𝑏22 ]
𝜋 𝑖≜𝑝 (𝑠𝑡=0=𝑖)
𝜃=[𝐴𝐵𝜋 ]O
12
مدل مخفی مارکوف تعاریف مارکوف
1. State transition probability : 2. Observation probability : 3. Initial state : 4. Measurement or Emission or Visible : 5. Observation sequence : 6. Hidden parameter : 7. Unknown parameters :
13
مدل مخفی مارکوف های مارکوف فرض
قبل خود وابسته stateفقط به یک stateهر 1.:است
خروجی فعلی از خروجی قبل مستقل است 2.)استقالل مشاهدات از یکدیگر(:
14
قیود مارکوف
1.
2.
3.
مدل مخفی 𝐴=[𝑎11مارکوف 𝑎21
𝑎12 𝑎22]
𝐵=[𝑏11 𝑏21𝑏12 𝑏22 ]
𝜋 𝑖≜𝑝 (𝑠𝑡=0=𝑖)
𝟏+¿
𝟏+¿
⟹∑𝑗𝑎𝑖𝑗=1
⟹∑𝑘𝑏𝑖 (𝑉 𝑘 )=1
𝟏+¿
𝟏+¿
⟹∑𝑖𝜋 𝑖=1
15
مدل مخفی مارکوف تخمین پارامترهای
مجهول
E-Step:
M-Step:EM
)Expectation Maximization(
راه حل: استفاده ازEMالگوریتم
16
مدل مخفی مارکوف بیشینه کردن امید
:E-Step(EMریاضی )
1. 2.3.
17
مدل مخفی مارکوف بیشینه کردن امید
.1(EMریاضی )
برای یک نمونه:
همان تعریف
است.احتمال بودن در
𝒑 اُمj حالت (𝑺𝒕= 𝒋∨𝑺𝒕−𝟏=𝒊).همان تعریف است بنا به فرض اول حال اگر فرض کنیم حالت اولیه مارکوف :
است، داریم :
𝒑 (𝑺𝒕= 𝒋 )=𝝅𝟎𝒂𝒊𝒋
E-Step:
18
مدل مخفی مارکوف بیشینه کردن امید
.1(EMریاضی )
بنا به فرض دوم 𝒑مارکوف : (𝑶∨𝑺 )𝒑 (𝑺 )=∏
𝒕=𝟏
𝑻𝒑 (𝑶𝒕∨𝑺𝒕= 𝒋 )𝒑 (𝑺𝒕= 𝒋 )
¿𝝅𝟎∏𝒕=𝟏
𝑻𝒂𝒊𝒋 𝒃𝒊 (𝒗𝒌 )
،نحوه tبرای تأکید بر وابستگی متغیرها به نمایش را تغییر می دهیم:
E-Step:
19
مدل مخفی مارکوف بیشینه کردن امید
.1(EMریاضی )
بنا به فرض دوم 𝒑مارکوف : (𝑶∨𝑺 )𝒑 (𝑺 )=∏
𝒕=𝟏
𝑻𝒑 (𝑶𝒕∨𝑺𝒕= 𝒋 )𝒑 (𝑺𝒕= 𝒋 )
¿𝝅𝟎∏𝒕=𝟏
𝑻𝒂𝒊𝒋 𝒃𝒊 (𝒗𝒌 )
¿𝝅𝟎∏𝒕=𝟏
𝑻𝒂𝑺𝒕 −𝟏𝑺 𝒕
𝒃𝑺𝒕 (𝒐𝒕 )
E-Step:
20
مدل مخفی مارکوف بیشینه کردن امید
.2(EMریاضی )𝒍𝒐𝒈 𝒑 (𝑶 ,𝑺;𝜽 )=𝒍𝒐𝒈 [𝒑 (𝑶∨𝑺 )𝒑 (𝑺 ) ]
¿ 𝒍𝒐𝒈 [𝝅𝟎∏𝒕=𝟏
𝑻𝒂𝑺 𝒕−𝟏𝑺𝒕
𝒃𝑺𝒕 (𝒐 𝒕 )]¿ 𝒍𝒐𝒈 𝝅𝟎+∑
𝒕=𝟏
𝑻𝒍𝒐𝒈 (𝒂𝑺𝒕−𝟏𝑺𝒕 )+∑
𝒕=𝟏
𝑻𝒍𝒐𝒈 (𝒃𝑺𝒕 (𝒐𝒕 ))
E-Step:
21
مدل مخفی مارکوف بیشینه کردن امید
.3(EMریاضی )𝑬𝑺∨𝑶 ;𝜽𝒏
{𝒍𝒐𝒈𝒑 (𝑶 ,𝑺 ;𝜽 ) }=∑𝑆
{( 𝒍𝒐𝒈𝒑 (𝑶 ,𝑺 ;𝜽 ) ) (𝒑 (𝑺∨𝑶 ;𝜽𝒏 ) )}E-Step:
22
مدل مخفی مارکوف بیشینه کردن امید
.3(EMریاضی )
¿∑𝑆 {(𝒍𝒐𝒈 𝝅𝟎+∑
𝒕=𝟏
𝑻
𝒍𝒐𝒈 (𝒂𝑺𝒕−𝟏𝑺𝒕 )+∑𝒕=𝟏
𝑻
𝒍𝒐𝒈 (𝒃𝑺𝒕(𝒐𝒕 ))) (𝒑 (𝑺∨𝑶 ;𝜽𝒏 ))}
E-Step:
23
مدل مخفی مارکوف بیشینه کردن امید
:3.E-Step(EMریاضی )
24
مدل مخفی مارکوف بیشینه کردن امید
:3.E-Step(EMریاضی )
25
مدل مخفی مارکوف بیشینه کردن امید
:3.E-Step(EMریاضی )
26
مدل مخفی مارکوف بیشینه کردن امید
:3.E-Step(EMریاضی )
27
مدل مخفی مارکوف بیشینه کردن امید
:M-Step(EMریاضی )1.2.3.
بیشینه کردن عبارت فوق، معادل آن است که هر کدام از سه جمله را به تنهایی بیشینه کنیم:
28
مدل مخفی مارکوف بیشینه کردن امید
-1.M(EMریاضی )Step:
𝒕𝒉𝒆𝟏𝒔𝒕 𝒕𝒆𝒓𝒎𝒐𝒇 𝑸 (𝜽 ,𝜽𝒏 )=∑𝒊=𝟏
𝑵𝒍𝒐𝒈 𝝅 𝒊 (𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 ))
داریم: با استفاده از روش ضرایب الگرانژ و قید 𝝏
𝝏𝝅 𝒊 {∑𝒊=𝟏𝑵
𝒍𝒐𝒈 (𝝅 𝒊 )𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )+ ℷ(∑𝒊=𝟏𝑵
𝝅 𝒊−𝟏)}=𝟎
29
مدل مخفی مارکوف بیشینه کردن امید
-1.M(EMریاضی )Step:
~𝝅 𝒊=𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )
30
مدل مخفی مارکوف بیشینه کردن امید
-2.M(EMریاضی )Step:
𝒕𝒉𝒆𝟐𝒏𝒅 𝒕𝒆𝒓𝒎𝒐𝒇 𝑸 (𝜽 ,𝜽𝒏 )=∑𝒊=𝟏
𝑵
∑𝒋=𝟏
𝑵
∑𝒕=𝟏
𝑻𝒍𝒐𝒈 (𝒂𝒊𝒋 )𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )
داریم:با استفاده از روش ضرایب الگرانژ و قید 𝝏
𝝏𝒂𝒊𝒋 {∑𝒊=𝟏𝑵
∑𝒋=𝟏
𝑵
∑𝒕=𝟏
𝑻
𝒍𝒐𝒈 (𝒂𝒊𝒋) 𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )+ ℷ (∑𝒊=𝟏𝑵
𝒂𝒊𝒋−𝟏)}=𝟎
31
مدل مخفی مارکوف بیشینه کردن امید
-2.M(EMریاضی )Step:
~𝒂𝒊𝒋=∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )
∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕−𝟏=𝒊∨𝑶 ;𝜽𝒏 )
32
مدل مخفی مارکوف بیشینه کردن امید
-3.M(EMریاضی )Step:
𝒕𝒉𝒆𝟑𝒓𝒅 𝒕𝒆𝒓𝒎𝒐𝒇 𝑸 (𝜽 ,𝜽𝒏 )=∑𝒊=𝟏
𝑵
∑𝒕=𝟏
𝑻𝒍𝒐𝒈 𝒃𝒊 (𝒐𝒕 ) 𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )
و اینکه فقط با استفاده از روش ضرایب الگرانژ و قید اُمین احتمال شرکت می کنند که kمشاهداتی در مقدار
بصورت زیر بدست برابر باشند، مقدار بهینه برای می آید:
33
مدل مخفی مارکوف بیشینه کردن امید
-3.M(EMریاضی )Step:
~𝒃𝒊 (𝒌 )=∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 ) 𝜹𝒐𝒕 ,𝒗 𝒌
∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )
34
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )
~𝝅 𝒊=𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )
بنابراین، روابط باز تخمین بصورت زیر خواهند بود:
~𝒂𝒊𝒋=∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )
∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕−𝟏=𝒊∨𝑶 ;𝜽𝒏 )
~𝒃𝒊 (𝒌 )=∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 ) 𝜹𝒐𝒕 ,𝒗 𝒌
∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )
35
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )
~𝝅 𝒊=𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )
~𝒂𝒊𝒋=∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )
∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕−𝟏=𝒊∨𝑶 ;𝜽𝒏 )
~𝒃𝒊 (𝒌 )=∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 ) 𝜹𝒐𝒕 ,𝒗 𝒌
∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )
اکنون با توجه به روابط باز تخمین، باید بدنبال باشیم:
36
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )
برای دنباله t در زمان i: احتمال بودن در حالت متغیرشود. است، که بصورت زير تعريف مي Oحالت
𝒑که در آن: (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )=𝒑 (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )
𝒑 (𝑶 ;𝜽𝒏 )=
𝒑 (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )
∑𝒋=𝟏
𝑵
𝒑 (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )
برای کاهش حجم روابط، متغیر تعریف می کنیم:
37
مدل مخفی مارکوف بیشینه کردن امید
بدلیل استقالل شرطی مارکف )استقالل شرطی+ فرض (EMریاضی )𝒑دوم مارکوف( : (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )=𝒑 (𝒐𝟏 , .. ,𝒐𝒕 ,𝑺𝒕=𝒊 ;𝜽𝒏 ) 𝒑 (𝒐𝒕+𝟏 ,…,𝒐𝑻∨𝑺𝒕=𝒊 ;𝜽𝒏 )
≜𝛼 𝑖 (𝑡 ) ≜𝛽𝑖 (𝑡 )
بنابراین:
𝒑 (𝑶 ,𝑺𝒕=𝒊 ;𝜽𝒏 )=𝜶𝒊 (𝒕 ) 𝜷𝒊 (𝒕 )
38
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )
𝜸 𝒊 (𝒕 )=𝜶𝒊 (𝒕 ) 𝜷𝒊 (𝒕 )
∑𝒋=𝟏
𝑵𝜶 𝒋 (𝒕 ) 𝜷 𝒋 (𝒕 )
بنابراین:
39
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )مقدار را می توان بصورت زیر بازنویسی کرد:
~𝝅 𝒊=𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )=𝒑 (𝑶 ,𝑺𝒕=𝟎=𝒊 ;𝜽𝒏 )
𝒑 (𝑶 ;𝜽𝒏 )=𝜸 𝒊 (𝟏 )
40
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )مقدار را می توان بصورت زیر بازنویسی کرد:
41
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )
~𝝅 𝒊=𝒑 (𝑺𝒕=𝟎=𝒊∨𝑶 ;𝜽𝒏 )
~𝒂𝒊𝒋=∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕−𝟏=𝒊 ,𝑺𝒕= 𝒋∨𝑶 ;𝜽𝒏 )
∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕−𝟏=𝒊∨𝑶 ;𝜽𝒏 )
~𝒃𝒊 (𝒌 )=∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 ) 𝜹𝒐𝒕 ,𝒗 𝒌
∑𝒕=𝟏
𝑻𝒑 (𝑺𝒕=𝒊∨𝑶 ;𝜽𝒏 )
با توجه به روابط باز تخمین، فقط محاسبه باقی میماند:
42
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )
j و در حالت t-1در زمان i در حالتبودن: احتمال متغیرشود. است، که بصورت زير تعريف مي tدر زمان
برای کاهش حجم روابط، متغیر را تعریف می کنیم:
مشابه :37اسالید
43
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی )
𝜶𝒊 (𝒕−𝟏 ) 𝜷 𝒋 (𝒕 )مشابه 17اسالید
44
مدل مخفی مارکوف بیشینه کردن امید
(EMریاضی ) بنابراین:
45
مدل مخفی مارکوف بیشینه کردن امید
اکنون می توان روابط باز تخمین را برحسب متغیرهای (EMریاضی )𝝅~تعریف شده، بصورت زیر بازنویسی کرد: 𝒊=𝜸 𝒊 (𝟏 )
~𝒂𝒊𝒋=∑𝒕=𝟏
𝑻−𝟏𝝃 𝒊𝒋 (𝒕 )
∑𝒕=𝟏
𝑻−𝟏𝜸 𝒊 (𝒕 )
~𝒃𝒊 (𝒌 )=∑𝒕=𝟏
𝑻𝜸 𝒊 (𝒕 )𝜹𝒐𝒕 ,𝒗𝒌
∑𝒕=𝟏
𝑻𝜸 𝒊 (𝒕 )
46
مدل مخفی را برای تخمین پارامترهای EMاکنون می توان الگوریتم مارکوف
مدل مخفی مارکوف بصورت زیر خالصه کرد: )این الگوریتم بام ولش الگوریتم به الگوریتم بام ولش معروف است(
(Baum Welch:)
47
مدل مخفی مارکوف الگوریتم بام ولش
(Baum Welch:)
𝑺𝟏 𝑺𝟏 𝑺𝟏
یک مثال؛ از مدل کردنآوای یک واج:
Ǻ سیگنال گفتار فرایندی غیر ایستان است. Ǻکنیم هایی که فرض می بعد از تبدیل سیگنال به پنجره
ها را سیگنال در آن ایستان است، هر کدام از این پنجرهگیریم. یک حالت مدل مارکوف در نظر می Ǻای توان فرایندی قطعه دنباله بردارهای ویژگی را می
ایستان فرض کرد.
کاربرد
48
استفاده از مدل مخفی مارکوف در بازشناسی واج:
فاز آموزش:1. واج 1 واج + 44 فرض کنی�د زبان مورد نظر دارای
مدل 45 بنابرای�ن باید باشد. واج( 45برای س�کوت )= 3مدل مخف�ی مارکوف ایجاد کرد. ک�ه معموالً برای هر
گیرند. حالت در نظر میداده از اس�تفاده ب�ا کمک حال ب�ه و آموزش های
ول��ش، بام تخمین الگوریت��م را مدل پارامترهای زنیم. می
کاربرد
49
Templates
OrStatistical Models
Test Pattern
Speech
Analysis
S)n(
Pattern
Training
Pattern Classifi
er
Decision
Logic
Recognized
Speech
Reference Pattern
HMM
50
کاربرد
O
منابع
51
1. Fundamental of Speech Recognition _ Lawr2. A Gentle Tutorial of the EM Algorithm and its
Application to Parameter Estimation for Gaussian Mixture and Hidden Markov Models _ Jeff A. Bilmes
3. Tutorial on Hidden Markov Models _ www.Kingston.ac.uk/dirc
4. www.youtube.com/watch?v=5araDjcBHMQ5. www.youtube.com/playlist?list=PLX2gX-ftPVXWgcF0
WATMDr-AfvfaYjJZ36. www.youtube.com/playlist?list=PLKG3ExuC02lsnZUJ
DdOlYJd5CRe3otzq1