72
ﻣﺼﻨﻮﻋﻲ ﻋﺼﺒﻲﻫﺎي ﺷﺒﻜﻪ01 - 713 - 11 - 13 ﻧﺨﺴﺖ ﺑﺨﺶ ﺑﻬﺸﺘﯽ ﺷﻬﻴﺪ ﺩﺍﻧﺸﮕﺎﻩ ﮐﺎﻣﭙﻴﻮﺗﺮ ﺑﺮﻕ ﻣﻬﻨﺪﺳﯽ ﺩﺍﻧﺸﮑﺪﻩ ﺯﻣﺴﺘﺎﻥ۱۳۹۲ ﺍﺯﻧﺎﻭﻩ ﻣﺤﻤﻮﺩﯼ ﺍﺣﻤﺪhttp://faculties.sbu.ac.ir/~a_mahmoudi/

ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Page 1: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبكه هاي عصبي مصنوعي01-713 -11-13

بخش نخستدانشگاه شهيد بهشتی

دانشکده ی مهندسی برق و کامپيوتر۱۳۹۲زمستان

احمد محمودی ازناوه

http://faculties.sbu.ac.ir/~a_mahmoudi/

Page 2: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

2

فهرست مطالبچرا شبكه ي عصبي•شبكه هاي عصبي زيستي•مدل رياضي تك نرون•الگوريتم يادگيري•پرسپترون•قضيه ي همگرايي•نزول گراديان•تنظيم نرخ يادگيري•

Page 3: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

چرا شبكه ي عصبي؟ طريق از را فرد يك هويت كه نوشت برنامه اي مي توان چگونه •

را متفاوت اشياء بتواند كه برنامه اي يا دهد تشخيص چهرهكند؟ طبقه بندي

فرد، خانوادگي و پزشكي سابقه ي به توجه با كه برنامه اي يا•!بزند حدس را او تقريبي عمر انسان مغز كه حالي در است، دشوار بسيار برنامه هايي چنين نوشتن–

.مي دهد انجام را پردازشي چنين ميلي ثانيه 200 تا 100 و دقيق كامال ارتباط كه هستيم روبرو حجيمي داده هاي با موارد اين در–

دشوار بسيار ارتباط اين كشف يا و نيست برقرار آن ها بين مشخصي.است

.مي دهد انجام را كارهايي چنين چگونه ي ما مغز نمي دانيم– خواهند تغيير زمان مرور با ارتباط اين مواردي، در كه اين ديگر نكته ي–

.شد خواهد مسأله بيشتر دشواري باعث اين و كرد

شبکه عصبی3

Page 4: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

رويكرد يادگيري ماشين زيادي تعداد ،»ماشين يادگيري« الگوريتم هاي در•

برنامه اي و دريافت صحيح پاسخ با همراه مثال.مي كند توليد مسأله حل براي نمونه هاي براي برنامه كار، درست انجام صورت در–

.)تعميم پذيري(كرد خواهد كار درست هم جديد توانايي هم برنامه كنند، تغيير داده ها كه صورتي در–

.)بودن وفقي(داشت خواهد تغيير حجم انجام محاسبات، قدرت افزايش به توجه با•

يك نوشتن از ارزان تر محاسبات از عظيمي.مي باشد خاص الگوريتم

شبکه عصبی4

Page 5: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثالبازشناسي الگو•

تشخيص اشياء–تشخيص چهره، يا تشخيص حاال چهره–تشخيص كلمات–

تشخيص ناهنجاري•استفاده از كارت اعتباري به صورت نامتعارف–

پيش بيني•پيش بيني قيمت سهام–پيش بيني ليست فيلم هاي مورد عالقه ي يك شخص–

شبکه عصبی5

Page 6: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبكه هاي عصبي مصنوعي شبكه هاي« بر مبتني شبكه ها اين اصلي ايده ي•

.است »زيستي عصبي قابل سادگي به انسان توسط مسائل از بسياري•

.مي باشد حل.مي دهد انجام را محاسبات موازي صورت به مغز• ذهن توسط كه مسائلي براي مي تواند مدل اين•

.باشد مفيد مي شود، انجام راحتي به آدمي الهام نوعي به ذهن در رفته كار به شيوه ي واقع در•

مشابه قابليت هايي ايجاد براي مدلي ارائه ي بخش.است مغز با

شبکه عصبی6

Page 7: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

ساختار يك نرون طبيعي به كه است نرون ميليارد يك حدود شامل انسان مغز•

.هستند پيوسته هم به فوق العاده اي صورت و شده شاخه شاخه كه است )آكسون(آسه يك شامل•

.مي كند هدايت ياخته بيرون به را الكتريكي پيام هاي از را الكتريكي پيام هاي كه ها) دندريت(دارينه از خوشه يك•

.مي كند دريافت مجاور سلول هاي

شبکه عصبی7

axon

bodydendritictree

axon hillock(soma)

Page 8: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه(ساختار يك نرون طبيعي در زيستي ساختار يك )سيناپس(همايه•

سلول يك آن راه از كه است آكسون ها پايانه ديگر نورون يك دندريت به را خود پيام عصبي

.مي فرستد غده يك يا ماهيچه اي ياخته يا. جسم سلولي مولد اين سيگنال هاي ارسالي است•

در صورتي كه ميزان سيگنال دريافتي از طريق دارينه ها از يك حد آستانه بيشتر باشد؛

.نرون تحريك مي شود

شبکه عصبی8

Page 9: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مغز چگونه كار مي كند؟.مي كند دريافت ورودي ديگري نرون هاي از نرون هر• )receptor(گيرنده سلول هاي به نرون هاي برخي•

.هستند متصل يكديگر با الكتريكي سيگنال هاي ارسال با نرون ها•

.مي كنند برقرار ارتباط.دارد بستگي سيناپسي ارتباط وزن به ورودي هر اثر• كل تا مي يابند تغيير وفقي صورت به وزن ها اين•

.دهد انجام درستي به را محاسبات شبكه

شبکه عصبی9

Page 10: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه(مغز چگونه كار مي كند؟.دارد خاص وظيفه اي مغز قشر بخش هر•

باعث بالغ، انسان يك مغز از بخش هر به آسيب–.مي شود خاصي تاثيرات

در خون جريان خاص فعاليت هاي انجام صورت در–.مي يابد افزايش بخش ها از بخشي

شبيه بسيار )cortex(مغز قشر مختلف بخش هاي•.هستند هم به ديگر بخش ببيند، آسيب آن از بخشي در كه صورتي در–

به واقع در شود، بخش آن وظيفه ي عهده دار مي تواند يادگيري شيوه ي يك از بخش ها همه ي مي رسد نظر

.مي كنند استفادهشبکه عصبی

10

Page 11: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبكه ي عصبي و شده توزيع ساختار با پردازشگري عصبي شبكه ي•

واحدهاي از كه است موازي سازي باالي قابليت قابليت و است شده تشكيل ساده اي پردازشگر

براي آن كارگيري به و تجربيات كردن ذخيره.مي باشد دارا را آتي استفاده هاي

.مي كند دانش كسب اطراف محيط از يادگيري طريق از– استفاده سيناپسي وزن هاي از دانش ذخيره سازي براي–

.مي كند

شبکه عصبی11

Page 12: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

ويژگي هاي شبكه هاي عصبي)سرعت باال(پردازش موازي •تعميم پذيري•محاسبات غيرخطي•برقراري ارتباط يك سري ورودي و يك سري خروجي•

بازيابي اطالعات–)adaptivity(توانايي تطبيق •پاسخ به داده هاي نويزي•تحمل پذيري خطا•يادگيري•

شبکه عصبی12

Page 13: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

نيازمندي هاي شبكه هاي عصبيجمع آوري و آناليز مناسب داده•طرح، آموزش و تست شبكه ي عصبي•:ورودي ها) normalize(بهنجار كردن•

تغييرات بايد به نحوي باشد كه قابل برگشت بوده و –.هيستوگرام ورودي را تغيير ندهد

شبکه عصبی13

Page 14: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مدل نرونكوچك ترين واحد پردازشگر اطالعات•

زبان ماشين14

ساختار نرون تک ورودی

+W v

X fy

v=W.Xy=f(v)y=f(W.X)

Mcculloch and Pitts 1943

outp

ut

weighted input

1

0threshold

θ

Page 15: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه(مدل نرون

شبکه عصبی15

=y

i ii

v x w= ∑

v θ≥1 if

0 otherwise=y 1 if

0 otherwise

θ = −bi i

iv b x w= +∑

0v ≥

:به دو صورت مي توان چنين نروني را نمايش داد•

+W v

X fy

Page 16: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مدل رياضي يك نرون

زبان ماشين16

+

w1

vk

b

x1k

f

x2k

x3k

xnk

w2

w3

.

.

.wn

yk

0.

nk

k i ii

u w x=

= ∑

k kv u b= +0

.n

kk i i

iy f w x b

=

⎛ ⎞= +⎜ ⎟⎝ ⎠∑

. kku W X=

1 2

1 2

[1, , ,......., ][ , ,......., ]

k k k kn

n

X x x xW w w w

==

Page 17: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

تابع انگيزش

زبان ماشين17

Activation Function

Page 18: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه(تابع انگيزش

زبان ماشين18

Page 19: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

تابع انگيزش

زبان ماشين19

Page 20: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

پرسپترون تركيبي گرفته، را ورودي بردار يك پرسپترون يك•

فراهم را خروجي نموده، محاسبه را آن ها از خطي.مي آورد

در و يك بود باالتر آستانه اي ميزان از خروجي اگر•.مي گرداند باز )يك منهاي(صفر اين صورت غير

شبکه عصبی20

+

w1

vk

b

x1k

f

x2k

x3k

xnk

w2

w3

.

.

.wn

yk

{1 or –1}

Rosenblat 1957

Page 21: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

پرسپترون را دوسطحي داده هاي جداسازي توانايي پرسپترون•

.داراست در دوسطحي جداكننده يك صورت به را آن مي توان•

.گرفت نظر

شبکه عصبی21

++

+

--

-

گيري مرز تصميم

Page 22: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثال

شبکه عصبی22

++

+

--

-

++

+-

-

-

Page 23: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

زبان ماشين23

1

vk

x1

hardlim

x2

1

∑Th=1.5

1.5

x1

x2

AND Gate

Page 24: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

زبان ماشين24

1

vk

x1

hardlim

x2

1

∑Th=0.5

0.5

x1

x2

OR Gate

Page 25: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثال

به ازاي كدام ورودي پاسخ يك است؟•

شبکه عصبی25

1

1

Th=4vk

x1

hardlim

x4

∑x2

x3

-1

-1

Page 26: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

باياس

.به جاي تغيير آستانه مي توان باياس را تغيير داد•

شبکه عصبی26

w1

S

x1

x2

w2

w0

1

1 1 2 2 0

012 1

2 2

S w x w x wwwx x

w w

= + +

= − −شيب عرض از مبدا

Page 27: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبکه عصبی27

XOR Gate

w1

vk

x1

hardlim

x2

w2

w0

y

x1 x2 y

1 1

0 0

1 0

0 1

0

0

1

1

W1+ W2+W0<0

W0<0

W1+ W0>0

W2+W0>0

x1

x2

پذير نيستند پس قابليت جداسازي چنين تابعي را ندارد ي يك خط جدايي به وسيله

Page 28: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

هوش مصنوعي و يادگيري مصنوعي هوش بخش هاي مهم ترين از يكي ،يادگيري•

با محيطي در كه سيستم يك بودن، هوشمند براي .است .باشد داشته آموختن توانايي بايد دارد، قرار متغير شرايط

حاالت همه ي پيش بيني به نيازي طراحان حالتي چنين در.داشت نخواهند ممكن

تشخيص ، ماشين بينايي در مسائل از بسياري حل براي•.مي آيند كار به يادگيري الگوريتم هاي صوت،

زمينه هاست اين از يكي چهره كمك با هويت شناسايي •.مي شود مطرح »الگو بازشناسي« در كه

28شبکه عصبی

Page 29: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

)آموزش(انواع شيوه هاي يادگيرييادگيري بانظارت•

براي ) ورودي و خروجي مطلوب(يك دسته داده ي آموزشي –. آموزش وجود دارد

درون يابي و طبقه بندي: كاربردها–.داده هاي آموزشي داراي برچسب هستند–

يادگيري بي نظارت•مجمو عه اي داده بدون برچسب وجود دارد، هدف يافتن رابطه اي –

.بين داده هاستيادگيري نيمه نظارتي•خروجي مطلوب وجود ندارد، بر اساس يك : يادگيري تقويتي•

.تابع هزينه يا پاداش شبكه آموزش مي بيندشبکه عصبی

29

Supervised learning

Unsupervised learning

Reinforcement learning

semisupervised learning

Page 30: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

يادگيري بانظارتدر اين شيوه همراه با نمونه هاي آموزشي، پاسخ •

.مطلوب هم وجود داردپيش بيني نمونه هاي جديد–استخراج دانش–فشرده سازي–تشخيص نمونه هاي غيرنرمال؛ تشخيص تقلب و –

سو ءاستفاده

30

supervised Learning

شبکه عصبی

Page 31: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

يادگيري بي نظارت بدون دارند، وجود ورودي داده هاي تنها حالت اين در•

.كند مشخص را مطلوب مقدار ناظر كه اين در موجود )regularity( »نظم« كردن پيدا هدف•

.است طبيعي و معمول آن چه است، داده

نمونه هاي گروه بندي :)clustering(خوشه بندي•مشابه

مشتري با ارتباط مديريت–)رنگ چندي سازي(تصوير فشرده سازي–Learning(بيوانفورماتيك– motifs(

31

Unsupervised Learning

Density estimation

شبکه عصبی

Page 32: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

++

_

_

تنها بخشي از داده ها برچسب خورده اند، و حجم •.زيادي از آن بدون برچسب هستند

.برچسب زدن داده ها كار پرهزينه اي است•از طرفي، داده هاي برچسب نخورده ي زيادي در اختيار •

.داريم

يادگيري نيمه نظارتي

32

semi-supervised Learning

++

_

_++

_

_

يادگيري بانظارت يادگيري نيمه نظارتيشبکه عصبی

Page 33: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

يادگيري تقويتي از دنباله اي سيستم، يك خروجي موارد برخي در•

اهميت حركت يك كه گونه اي به .هاست»كنش« مي شود باعث كه است سياستي بلكه ندارد،

.برسند مناسب هدف به حركات، مجموع و مجموع در كه صورتي در است مناسب عمل يك•

حالت اين در .باشد مناسب اعمال ساير كنار در سياست انتخاب به قادر بايد يادگيري الگوريتم.باشد مناسب

33

Reinforcement Learning

Game playingRobot in a mazeMultiple agents, partial observability, ...

شبکه عصبی

Page 34: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

ارزيابي الگوريتم هاي يادگيري يادگيري، الگوريتم هاي ارزيابي براي كاربرد، به بسته•

مورد حافظه ي و محاسبات حجم طبقه بندي، دقت.مي شود گرفته نظر در نياز

بسته دارند؛ وجود متفاوتي يادگيري الگوريتم هاي• متفاوتي الگوريتم هاي نظر، مورد كاربرد شرايط به.داد قرار استفاده مورد مي توان را پيچيدگي آموزشي، داده هاي نياز مورد حجم•

تعميم قابليت و استفاده مورد الگوريتم هاي.گيرند قرار بررسي مورد بايد كه است مسائلي

34شبکه عصبی

Page 35: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مراحل طراحي يك شبكه ي عصبي و الگوريتم هاي آموزش

انتخاب وزن ها به صورت تصادفي•)training set(اعمال مجموعه ي آموزشي •

اعمال هر ورودي به شبكه و به دست آوردن خروجي–مقايسه ي خروجي مطلوب و واقعي–آموزش شبكه به صورت تغيير وزن ها و در جهت نزديك –

شدن خروجي مطلوب و واقعي

شبکه عصبی35

( ) ( ){ }1 1 2 2, , , ,M X d X d=

Page 36: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

اولين قانون آموزش.هستند - 1و 1مقادير ورودي •پله واحد) انگيزش(تابع فعاليت•

36

Hebb 1949

( ) ( )i ii

y t f w t x⎡ ⎤= ⎢ ⎥⎣ ⎦∑

( )y t correct= ( ) ( )1i iw t w t+ =

( ) 1y t = − ( ) ( )1i i iw t w t x+ = +

( ) 1y t = ( ) ( )1i i iw t w t x+ = −

Page 37: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه(اولين قانون آموزش:شد كامل صورت بدين نهايتا و•

يكنوا صورت به فعاليت تابع كه صورتي در• باعث وزن ها تغيير ترتيب بدين باشد، صعودي.مي شود خطا كاهش

شبکه عصبی37

( ) ( )1 ki i k iw t w t d x+ = +

Page 38: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثال

شبکه عصبی38

[ ][ ][ ]

11

22

33

1 1 1 1 , d 1

1 1 1 1 , d 1

1 1 1 1 , d 1

X

X

X

= − − − =

= − − = −

= =

[ ]0, 0 0 0 0 ;t W= = 1X 1;new oldW W X= +

[ ]1, 1 1 1 1 ;t W= = − − − 2X 2;new oldW W X= −

[ ]2, 0 2 0 0 ;t W= = − 3X 3;new oldW W X= +

[ ]3, 1 1 1 1 ;t W= = − 1X 1;new oldW W X= +

[ ]4, 2 2 0 0 ;t W= = − 2X 2;new oldW W X= −

1signum

Page 39: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثال

شبکه عصبی39

[ ]5, 1 3 1 1 ;t W= = − 3X

[ ]6, 2 2 1 2 ;t W= = − 1X

[ ]7, 3 3 1 1 ;t W= = −

3X

3;new oldW W X= +

1X

1;new oldW W X= +

2X new oldW W=

[ ]8, 3 3 1 1 ;t W= = −

[ ]9, 3 3 1 1 ;t W= = −

new oldW W=

new oldW W=

[ ][ ][ ]

11

22

33

1 1 1 1 , d 1

1 1 1 1 , d 1

1 1 1 1 , d 1

X

X

X

= − − − =

= − − = −

= =

2signum

Page 40: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

جمع بندي دوسطحي انگيزش تابع با است نروني پرسپترون•

)rulesLearning( يادگيري قانون به توجه با كه.مي شود روز به آن باياس و وزن ها

شبکه عصبی40

THE PERCEPTRON

Frank Rosenblatt (1958), Marvin Minski & Seymour Papert (1969)

Page 41: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

يادگيري پرسپترون)Supervised(بامعلم •

: خروجي مطلوب باشد براي خطا داريم tاگر

شبکه عصبی41

Page 42: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثال

بردار مرز همواره بر بردار وزن عمود است

شبکه عصبی42

Two-Input Perceptron

Page 43: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

قضيه ي همگرايي داشته وجود *W وزن هاي مجموعه كه صورت در•

محدود مجموعه ي يك جداسازي قابليت كه باشد آموزش قانون باشد، داشته را )خطي جدايي پذير(

.شد خواهد همگرا پاسخ يك به پرسپترون.بود نخواهد يكسان *W با الزاما پاسخ اين– خروجي كه مي دهيم تغيير گونه اي به را خروجي ها تمام–

.شود »+1« مطلوب.مي گيريم نظر در صفر را اوليه وزن–.است تاييn‐ ورودي بردار–

شبکه عصبی43

Convergence theorem

1 2[1, , ,......., ]k k k knX x x x=

Page 44: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

اثبات قضيه ي همگرايي كه است مراحلي تعداد حداكثر محاسبه ي هدف•

مفروضات به توجه با .شوند اصالح بايد وزن ها

وزن ها اصالح به نياز t+1 مرحله ي در كنيد فرض•:دارد وجود

شبکه عصبی44

( ) ( )1 kk

t tW W d X+ = +

*, 0 . , kk W Xδ δ∀ ∃ ≥ ≥

( ) ( )* * *

1. . kt tW W W W W X+ = +

( ) ( )* *

1. .t tW W W W δ+ ≥ + ( )*. tW W tδ≥

Page 45: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه (اثبات قضيه ي همگرايي

شبکه عصبی45

( ) ( ) ( ) ( ) ( )

2

1 1 1

TT k k

k kt t t t tW W W W d X W d X+ + +⎡ ⎤ ⎡ ⎤= = + +⎣ ⎦ ⎣ ⎦

( ) ( ) ( )

2 2 2

1 2Tk k

t t tW W X W X+ ⎡ ⎤= + + ⎣ ⎦

( ) ( )

2 2 2

1k

t tW W X+ ≤ +

( ) ( ) ( )2 2

1 1t tW W n+ ≤ + + ( ) ( )2

1tW t n≤ +

اين مقدار منفي است

(n+1)

Page 46: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه (اثبات قضيه ي همگرايي

شبکه عصبی46

( )*. tW W tδ≥

( ) ( )2

1tW t n≤ +( )* 1W t n tδ+ ≥

( ) ( )

( )

*

*

.cos 1t

t

W W

W Wθ = ≤

( )*

tW W tδ≥

( )2*

2

1W nt

δ

+≤

Page 47: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثال

شبکه عصبی47

[ ][ ][ ]

11

22

33

1 1 1 1 , d 1

1 1 1 1 , d 1

1 1 1 1 , d 1

X

X

X

= − − − =

= − − = −

= = signum

[ ]* 3 3 1 1 ;W = −

( )2*

2

1W nt

δ

+≤ 2

20 4tδ×

Page 48: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

Widrow‐Hoff

استفاده خطا تاثير از جديد وزن هاي توليد براي•.مي شود

ميزان با متناسب به روزنمايي ميزان شيوه اين در• صورت سريع تر همگرايي نتيجه در و بود خواهد خطا

.مي گيردشبکه عصبی

48

new oldw w w= + Δ

Widrow and his graduate student Hoff introduced ADALINE network and learning  rule which they calledthe LMS(Least Mean Square) Algorithm. 

Page 49: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

Widrow‐Hoff

•ADALINE آن تابع تنها است پرسپترون همانند به را )0(- 1 و 1 مقادير كه( بودن دوسطحي جاي به

.است خطي تابعي )مي دهد اختصاص خود•ADALINE مسائل مي تواند پرسپترون همانند

.كند حل را خطي جدايي پذير

شبکه عصبی49

Page 50: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

Widrow‐Hoff

شبکه عصبی50

new oldW W W= + Δ

( ) ( )kk ke n d y n= −خروجي واقعي در مرحله ي

n به ازاي وروديk -امام kخروجي مطلوب ورودي

( ) 0ke n تغيير وزن ها در جهت افزايش خروجي<

( ) 0ke n تغيير وزن ها در جهت كاهش خروجي>

( 1) ( ) ( ) ki i k iw n w n e n xη+ = +

)يادگيري(ضريب آموزش

supervised training

Page 51: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...ادامه فعاليت تابع داراي خروجي واحد كه اين فرض با•

.باشد خطي )انتقال(.مي كنيم بررسي را مساله ورودي n ازاي به•

شبکه عصبی51

(1)11 1

(1)22 2

(1)33 3

(1)

will be generated

"

"........................

"

W

W

W

Wnn n

X y e

X y e

X y e

X y e

⎯⎯⎯→

⎯⎯⎯→

⎯⎯⎯→

⎯⎯⎯→

[ ]2

1

N

ii

E e=

=∑

[ ]2

1

N

ii

eE

N==∑

SSE

Mean SSE

Page 52: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

تغيير گونه اي به را باياس و وزن ها LMS الگوريتم• خروجي بين( خطا مربعات ميانگين كه مي دهد حداقل به را سيستم )واقعي خروجي و مطلوب.برساند

شبکه عصبی52

Page 53: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

53

w1

wm

f

.

.

.

.

w0

1

yخطي

1[1, ,......., ]k k k TmX x x=

N وروديm تايي1 2

( 1)[ , ,......., ]Nm NX X X + ×=X

1 2 1[ , ,......., ]N ND d d d ×=

0 1 1 ( 1)[ , ,......., ]m mW w w w × +=

( ) ( ) kk ke n d W n X= −

Xkخطاي به دست آمده به ازاي ورودي

Page 54: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبکه عصبی54

( ) ( ) kk ke n d W n X= −

1[1, ,......., ]k k k TmX x x= 1 2

( 1)[ , ,......., ]Nm NX X X + ×=X

1 21[ , ,......., ]N

ND d d d ×=0 1 1 ( 1)[ , ,......., ]m mW w w w × +=

2

1( ) ( ( ) )

Nk

ik

SSE E n d W n X=

= = −∑2( ) || ( ) ||E n D W n= − X

Y(n)

1( ) 2( ) ( )( ) [ , ,......., ]n n N nY n y y y=).پارامتر آزاد براي تابع خطا وزن ها هستند )( )nE W

Batch Mode

Number of epoch

Page 55: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

كمينه كردن خطابايد به گونه اي عمل كرد كه تابع خطا طي فرآيند •

:آموزش كم تر شود

هدف يافتن وزن بهينه اي است كه به ازي آن تابع •:مينيمم شود) هزينه(خطا

:شرط الزم براي وجود وزن بهينه اين است كه•

زبان ماشين55

( 1) ( )E n E n+ <

*( ) ( )E W E W≤

( )* 0E W∇ =

( ) ( )1( ) ( )n nE W E W+ يا>

Page 56: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

)Steepest descent(کمينه کردن خطا

شبکه عصبی56

Delta rule

Page 57: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبکه عصبی57

است S.S.Eيا Eهدف به حداقل رساندن مقدار •

( )0 1

( ) ( ) ( )[ , ,........., ]( ) ( ) ( )w n

m

E n E n E nEw n w n w n∂ ∂ ∂

∇ =∂ ∂ ∂

2

1( ) ( ( ) )

Nk

kk

SSE E n d W n X=

= = −∑ داشتيم

1

( )( ) 2 ( ( ))( ) ( )

Nk

k kki i

y nE n d y nw n w n=

∂∂= − −

∂ ∂∑

Batch Mode

Page 58: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبکه عصبی58

مطلوب wبراي انتخاب •

1

( )( ) 2 ( ( ))( ) ( )

Nk

k kki i

y nE n d y nw n w n=

∂∂= − −

∂ ∂∑

1

( ) 2 ( ( ))( )

Nk

k k iki

E n d y n xw n =

∂= − −

∂ ∑

[ ] 1 2 -2( - ( )) [ , ,..., ]T ki i i i iD Y n x x x= =X X

( )( 1) ( )( )i i

i

E nw n w nw n

η ∂+ = −

[ ]( 1) ( ) 2 ( ( )) Ti i iw n w n D y nη+ = + − X

Page 59: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

تنظيم نرخ يادگيري

شبکه عصبی59

Page 60: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

به دست آوردن محدوده نرخ آموزش را »همگرايي سرعت« و »پايداري« آموزش نرخ•

.مي كند مشخص

شبکه عصبی60

( ) ( )

2

1 1t tE D W X+ += −

( ) ( ) ( )( )2

1T

t t tE D W D Y X Xη+⎡ ⎤= − + −⎣ ⎦

( ) ( ) ( )( ) 221t t tE D W X D Y Xη+ = − − −

( ) ( ) ( ) ( )( ) 222 2 22( )1 2tt t tE E D Y X D Y Xη η+ = + − − −

Page 61: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه(به دست آوردن محدوده نرخ آموزش

شبکه عصبی61

( ) ( ) ( ) ( )( ) 222 2 22( )1 2tt t tE E D Y X D Y Xη η+ = + − − −

( ) ( ) ( )22 221 1 2t tE E X Xη η+

⎡ ⎤= + −⎢ ⎥⎣ ⎦

( ) ( )

221 1t tE E Xη+

⎡ ⎤= −⎣ ⎦

( )

( )

221 1 1t

t

EX

Eη+ ⎡ ⎤= − <⎣ ⎦

21 1 1Xη− < − <

Page 62: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

...)ادامه(به دست آوردن محدوده نرخ آموزش

شبکه عصبی62

21 1 1Xη− < − <

20 2Xη< <

2

20X

η< < 2

20max k

kX

η< <

2 2

0.1 2

max max kk

k k

X Xη< <

به صورت تجربي

Page 63: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

تك اليه تك واحد با تابع غير خطيLMSحل به وسيله ي الگوريتم •

شبکه عصبی63

w1

wm

.

.

.

.

S

x1

xm

fy

( ) ( ) ( )( ) ( )21( ) 2

e n d n y n E W n e n= − → =

( ) ( )1k kk

Ew n w nw

η ∂+ = −

∂21

2k k k

E e eew w w∂ ∂ ∂

= =∂ ∂ ∂

.k

e yey w∂ ∂

=∂ ∂

. .k

e y sey s w∂ ∂ ∂

=∂ ∂ ∂

Sequential Mode

Number of iteration

خروجي به ازاي ورودي در امnتكرار

Page 64: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبکه عصبی64

. .k k

E e y sew y s w∂ ∂ ∂ ∂

=∂ ∂ ∂ ∂

-1'( ) ( )yy f s f s

s∂

= → =∂ kx

' ( ) kef s x= −

( ) ( ) ( )1 ( ) k k kw n w n d y n x+ = + −

متفاوت است fبسته به تابع

تابع مي بايد مشتق پذير باشد

Page 65: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبکه عصبی65

Single‐Layer Linear Network

Page 66: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شبکه عصبی66

R تعداد المان هاي وروديS تعداد نرون هاي موجود در يك اليه

Page 67: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

شماي شبكه ي قبل به اختصار

شبکه عصبی67

Page 68: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثال خروجي هاي كه را زير داده ي پنج مي خواهيم•

كالس دو در را است مشخص نيز آن ها مطلوب:كنيم طبقه بندي

شبکه عصبی68

P=[0.7 -0.1 -0.3 0.1 0.5;0.2 0.9 0.3 0.2 -0.5];

T=[1 1 0 0 0];

P1=[0.7,0.2];T1=[1];

P2=[-0.1,0.9];T2=[1];

P3=[-0.3,0.3];T3=[0];

P4=[0.1,0.2];T4=[0];

P5=[0.5,-0.5];T5=[0];

MATLAB

Page 69: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

مثال

شبکه عصبی69

P=[0.7 -0.1 -0.3 0.1 0.5;0.2 0.9 0.3 0.2 -0.5];

T=[1 1 0 0 0];W=[0 0];b=-1;plotpv(P,T);plotpc(W,b);nepoc=0Y=hardlim(W*P+b);while any(Y~=T)

Y=hardlim(W*P+b);E=T-Y;dW=E*P';db=sum(E);W=W+dW; b=b+db;nepoc=nepoc+1;disp('epochs='),disp(nepoc),disp(W), disp(b);plotpv(P,T);plotpc(W,b);

end

W1=2.7 W2=2.9B=-2

Epoch=9[dW,db]= learnp(P,E);

Page 70: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

OR

شبکه عصبی70

Epochs= 5

W1=2 W2= 2

b= -1

Page 71: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

AND

شبکه عصبی71

epochs= 4

W1=1 w2= 1

b= -2

Page 72: ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ 13- 11 - 713-01facultymembers.sbu.ac.ir/a_mahmoudi/ANN_93_2/ANN_93_2_Chp01.pdf · ﻲﻋﻮﻨﺼﻣ ﻲﺒﺼﻋ يﺎﻫﻪﻜﺒﺷ

پرسپترون سه ورودي

شبکه عصبی72

1 2 3 1 2 3hardlim( ) hardlim([ , , ].[ , , ] )Ty z w w w p p p b= = +

epochs=3

w1= 3 w2= -3 w3= 3

b=0