$('#s1').cycle('fade');
  جستجو

 صفحه نخست  |  راهنمای فروشگاه  |  تماس با ما  |نحوه خرید  |  سبد خرید   |        ثبت شده در سايت ساماندهي كشور

برق ، الکترونیک و مخابرات > پايان نامه

Bank Sepah:5892-1010-5735-6012

Email: dociran.pdfiran@gmail.com

09153255543  عالم زاده

 
  برق ، الکترونیک و مخابرات - پروژه
فهرست مطالب: شبكه هاي عصبي Neural Network Genetec Algoritm

تاریخ ایجاد 1390/06/03    تعدادبرگ: 200   قیمت: 20000 تومان   حجم فایل:7516 kb  تعدادمشاهده  1979

  • پيش گفتار1
  • سازماندهي2
  • فصل اول : آشنايي با سيستمهاي هوشمند مصنوعي3
  • 1-1 - شبكه‌هاي عصبي5
  • 2-1 - منطق فازي6
  • 3-1 - الگوريتم‌هاي ژنتيكي8
  • 4-1 - ساختار اين كتاب9
  • خلاصه12
  • فصل دوم  بخش اساسي شبكه عصبي
  • 1-2 - مفاهيم اساسي شبكه‌هاي عصبي14
  • 2-2 - مغز انسان15
  • 3-2 - مدل مصنوعي عصب17
  • عملكرد Signum19
  • عملكرد Sigmoidal20
  • 4-2 - معماري شبكه‌هاي عصبي21
  • 1-4-2 - شبكه پيش خورد تك قشري22
  • 2-4-2- شبكه پيش خورد چند قشري23
  • 3-4-2- شبكه‌هاي متناوب (پس خورد)24
  • 5-2- مشخصات شبكه‌هاي عصبي24
  • 6-2 - روشهاي يادگيري25
  • 7-2 - طبقه‌بندي معماري شبكه عصبي27
  • تاريخچه تحقيقات شبكه عصبي28
  • 9-2 - معماري شبكه عصبي اوليه30
  • 1-9-2 - پرسيترن زرنبلاتس30
  • پرسپترن و فعاليتهاي مجزاي خطي32
  • مسئله XOR33
  • الگوريتم 1-234
  • 2-9-2 - شبكه ADALINE36
  • 10-2 - برخي از كاربردهاي اين زمينه38
  • تشخيص نمونه (PR) پردازنده تصوير38
  • بهينه سازي / رضايت ناگزير39
  • پيش بيني كردن و برآورد خطر39
  • سيستم‌هاي كنترل39
  • خلاصه39
  • تكنيكهاي برنامه‌دار41
  • مطالعات بعدي پيشنهاد شده41
  • فصل سوم  شبكه‌هاي پيش تكثير
  • 1-3 - معماري شبكه پيش تكثير44
  • 1-1-3 مدل پرسپترن44
  • 2-1-3 - راه حل45
  • 3-1-3 - شبكه عصبي مصنوعي تك قشري48
  • 4-1-3 - مدلي براي پرسپترن چند قشري51
  • 2-3- يادگيري باز تكثير53
  • 1-2-3 - محاسبه قشر ورودي54
  • 2-2-3 - محاسبه قشر مخفي54
  • 3-2-3 محاسبه قشر خروجي56
  • 4-2-3 - محاسبه خطا56
  • 5-2-3 - آموزش شبكه عصبي57
  • 6-2-3 - روش شيب استيپست59
  • 7-2-3 - تأثير نرخ يادگيري 64
  • 8-2-3 - افزودن اصطلاح شتاب65
  • 9-2-3- الگوريتم بازتكثير66
  • الگوريتم 1-3 (الگوريتم يادگيري باز تكثير)67
  • الگوريتم BPN67
  • پايان الگوريتم BPN70
  • 3-3- مثال70
  • 4-3- كاربردها73
  • 1-3-4- طراحي ژورنال ياتاقان73
  • 2-4-3- طبقه‌بندي خاك79
  • 3-4-3- فشار كاري فولاد داغ82
  • تأثير پارامترهاي تنظيم شده شبكه عصبي پيش تكثير85
  • دستيابي Sigmoidal 87
  • ارزش آستانه88
  • 3-6 - انتخاب پارامترهاي مختلف در BPN90
  • 3-6-1- تعداد گره هاي مخفي90
  • 3-6-2- ضريب سرعآلفا91
  • 3-6-3- دستيابي  sigmoidal لاندا 92
  • 3-6-4- محلي local Minima92
  • ضريب يادگيري 93
  • 7-3- نوسانهاي استاندارد الگوريتم پيش تكثير93
  • 1-7-3 - روال تكرار Decremental 93
  • 3-7-2- پيش تكثير متناسب شده (يادگيري با سرعت)94
  • 3-7-3- الگوريتم ژنتيكي بر پايه پيش تكثير بودن96
  • 3-7-4- آموزش پروانه سريع96
  • شبكه BP افزايش يافته96
  • 3-7-6- شيوه يادگيري متداولي براي شبكه عصبي تك قشر مخفي100
  • 3-8 - جهت تحقيق101
  • 1-8-3- توپولوژيهاي جديد101
  • 2-8-3- الگوريتمهاي بهتر يادگيري101
  • 3-8-3- استراتژيهاي بهتر آموزشي102
  • 4-8-3 - اجزاي سخت‌افزار102
  • 5-8-3 شبكه‌هاي هوشمند102
  • خلاصه103
  • فصل چهارم حافظه مرتبط
  • 1-4 - خود همبسته‌ها110
  • شناسايي مدلهاي شلوغ112
  • 2-4 - نا همبسته  كاسكو BAM مجزا113
  • 1-2-4 - افزايش و حذف مدلهاي جفت114
  • 2-2-4- عملكرد انرژي براي BAM114
  • 3-4 - استراتژي رمزگذاري آموزشي متعدد ونگ اتال118
  • الگوريتم 1-4 - (استراتژي رمزگذاري آموزشي متعدد ونگ اتال)119
  • 4-4 - BAM نمايي124
  • 1-4-4 تساويهاي توسعه يافته124
  • 5-4 - حافظه مرتبط براي جفت مدلهايي كه به صورت حقيقي كدگذاري شده‌اند126
  • 1-5-4 - نرمال كردن ورودي127
  • 2-5-4 - تساويهاي توسعه يافته127
  • الگوريتم 2-4 (حافظه مرتبط دوجهتي ساده شده)128
  • 6-4 – كاربردها131
  • 1-6-4 - تشخيص نشانه‌ها132
  • فراخواني نشانه‌هاي نويزي134
  • 2-6-4 - شناسايي نقص ساختار134
  • 7-4 - گرايش جديد138
  • خلاصه138
  • تكليفهاي برنامه‌ريزي140
  • فصل پنجم  تئوري رسنانس تنظيم شونده
  • 1-5 – پيشگفتار144
  • 1-1-5 - ساختار گروه144
  • 2-1-5 -كميت سازي بردار145
  • 3-5-1 - شبكه ART سنتي156
  • 4-1-5 - ساده سازي معماري ART159
  • 2-5 -   1ART 160
  • 1-2-5 -   معماري 1ART 161
  • 2-2-5 - مشخصه ويژه مدل 1ART 163
  • 3-2-5- الگوريتمَ ART 167
  • 3-5- 2ART175
  • 3-5معماري2ART175
  • 2-3-5- الگوريتم 2ART177
  • الگوريتم 2-5 ( الگوريتم 2ART )177
  • 4-5 –كاربردها181
  • 1-4-5- شناسايي مشخصه با استفاده از 1ART 181
  • 2-4-5 - طبقه بندي خاك (راجاسكاران اتال2001) 182
  • نمونهIS 183
  • 4-4-5 - شناسايي مشخصه چيني- بعضي بيانات188
  • 5-5 - حساسيت ترتيب اطلاعات189
  • خلاصه190
  • مطالعات اضافي پيشنهاد شده191
  • واژه نامه201
  • منابع
  •  
  • فهرست اشكال
  • شكل 1-1 تعامل تكنولوژيهاي عصبي، منطق امكان و الگوريتم ژنتيكي4
  • شكل 1-2 ساختار فيزيكي مغز انسان – نهاي چند بعدي15
  • شكل 2-2 ساختار عصب17
  • شكل 3-2 مدل ساده‌اي از يك عصب مصنوعي18
  • شكل 4-2 عملكرد ورودي19
  • شكل 5-2 عملكرد Signum19
  • شكل 6-2 عملكرد sigmaidal20
  • شكل 7-2 يك مثال دي‌گراف21
  • شكل 8-2 شبكه پيش خورد تك قشري22
  • شكل 9-2 شبكه پيش خورد چند قشري ( آرايش l- m-n)23
  • شكل 10-2 شبكه عصبي متناوب24
  • شكل 11-2 طبقه‌بندي الگوريتمهاي يادگيري27
  • شكل (12-2) مدل اصلي پرسپترن رزنبلاتس30
  • شكل 13-2 مدل ساده پرسپترن31
  • شكل 14-2 مدل پرسپترن پيش خورد چند قشري31 
  • شكل 15-2 مدلهاي مجزاي خطي و مدلهاي مجزاي غير خطي32
  • جدول 3-2 جدول واقعي XOR33
  • شكل 16-2 مدل مجزاي غير خطي مسئله XOR33
  • شكل 17-2 مدل پرسپترن با دو ورودي x2,x134 
  • شكل18-2خط مستقيم به عنوان حدودتصميم‌گيري جداگانه‌براي‌مسئله‌دو،طبقه‌بندي‌شده34
  • شكل 22-2 تصميم‌هاي اتخاذ شده براي مسئله‌ XOR38
  • شكل 1-3 تركيب پرسپترها براي حل مسئله XOR44
  • شكل 2-3 عملكرد آستانه سخت – ضربه45
  • شكل 3-3 يك عصب مصنوعي46
  • شكل الف 4-3 شبكه عصبي پيش خورد تك قشري49
  • شكل ب 4-3 شبكه عصبي پيش خورد تك قشري از دياگرام دستگاه49
  • شكل الف 5-3 عملكرد S اسكواش براي ارزشهاي مختلف 50
  • شكل ب 5-3 ضريب زاويه S اسكواش50
  • شكل الف 6-3 پرسپترن چند قشري52
  • شكل ب 6-3 دياگرام دستگاه نشانگر ANN سه قشري52
  • شكل 7-3 شبكه باز تكثير پيش خورد چند قشري53
  • شكل 8-3 آستانه در قشر مخفي55
  • شكل 9-3 آستانه قشر خروجي56
  • شكل 10-3 تشابه ميان اطلاعات جديد و دانش گذشته58
  • شكل 11-359
  • شكل 12-3 قاعده اقليد سي خطاها59
  • شكل 13-3 نمونه سطح خطا براي شبكه‌هاي MLFF با عملكرد فعالسازي غير خطي60
  • شكل 14-3 جهت ضريب زاويه حالت دوبعدي61
  • شكل 15-3 روشهاي همگرايي براي ضريب مختلف يادگيري65
  • شكل 16-3 معماري MFNN براي نمونه71
  • شكل الف 17-3 نمونه‌هاي مختلف ياتاقان74
  • شكل ب 17-3 ژورنال ياتاقان75
  • شكل الف 18-3 مقايسه ارزشهاي خروجي pct0   (p*200)=1 76
  • شكل ب 18-3 مقايسه ارزشهاي خروجي p/pmax=276
  • شكل الف 19-3 مقايسه ارزشهاي خروجي pct0   (p*200)=1 78
  • شكل ب 19-3 مقايسه ارزشهاي خروجي p/pmax*=278
  • شكل 20-3 طبقه‌بندي خاك80
  • شكل 21-3 ايده‌آل سازي عنصر محدود82
  • شكل 22-3 قدرت سرعت در مقايسه با بار پتك كاري84
  • شكل 23-3 نرخ يادگيري در مقايسه با نرخ خطا87
  • شكل 24-3 فاكتور سرعت در مقايسه در نرخ خطا88
  • شكل 25-3 تكرار در مقايسه با نرخ خطا89
  • شكل 26-3 گرههاي مخفي در مقايسه با نرخ خطا89
  • شكل 27-3 گرههاي مخفي در مقايسه با نرخ خطا90
  • شكل 28-3 تأثير سرعت بر تغيير وزن91
  • شكل 29-3 معماري شبكه عصبي افزايش يافته97
  • شكل 30-3 انتقال عصب افزايش يافته يا قشر ورودي98
  • شكل 31-3 عملكرد انتقال عصبي افزايش يافته يا قشر خروجي98
  • شكل 1-3 P104
  • شكل 2-3 P فنيك تراس106
  • شكل 1-4 كار كردن حافظه مرتبط108
  • شكل 2-4109
  • شكل 3-4 حافظه‌هاي مرتبط ديناميك و استاتيك 110
  • شكل 4-4 نشانه‌هاي حك شده در يك صفحه132
  • شكل 5-4 معادل قطبي جفت مدلها133
  • شكل 6-4 نشانه‌هاي نويزي134
  • شكل الف 7-4135
  • شكل ب 7-4135
  • شكل ج 7-4136
  • شكل د 7-4136
  • شكل 1-4 P140
  • شكل 2-4 P141
  • شكل 3-4 p142
  • شكل الف 1-5147
  • شكل ب1-5147
  • شكل پ1-5148
  • شكل 2-5 ساده سازي معماري ART159
  • شكل 3-5شبكه 1ART162
  • شكل 4-5 را در نظر بگيريد163
  • شكل 5-5 قشر مقايسه‌اي 1ART164
  • شكل6-5 مرحله1)1 =G1 بردار ورودي از قشر مقايسه اي به قشر شناسايي عبور مي كند165
  • شكل 7-5 مرحله 2بهترين عصب قشر شناسايي به عنوان برنده انتخاب مي شود165
  • شكل 8-5 مرحله 3 بردار ورودي x وبردار p  در قشر شناسايي مقايسه مي شود . 166
  • شكل9-5 مرحله4عصب برنده شده پيشين ناتوان مي‌شوندوبرنده جديدي انتخاب مي شود.166
  • شكل 10-5 معماري 2ART176
  • شكل11-5 نمايش دوتايي حروف182
  • شكل 12-5186
  • شكل 13-5187
  • شكل 14-5 الف189
  • شكل 14-5 ب189
  •  
  • فهرست جداول
  • جدول1-2طبقه‌بندي برخي‌ازسيستمهايNN به‌ترتيب‌شيوه‌هاي‌يادگيري‌ونمونه‌هاي معماري28
  • جدول 2-2 برخي نقطه‌هاي عطف در تحقيق NN29
  • جدول (2- P2)41
  • جدول 1-3 - عملكرد فعالسازي غير خطي معمولي47
  • جدول 2-3 - اطلاعات خروجي و ورودي « مجموعه n»53
  • جدول 3-3 - مجموعه‌هاي آموزشي71
  • جدول 4-3 - اطلاعات آزمايشي (مسئله ژورنال ياتاقان)79
  • جدول 5-3 - اطلاعات آزمايشي (مسئله ژورنال ياتاقان)79
  • جدول 6-381
  • جدول 7-381
  • جدول 8-3 - اطلاعات آموزشي (فشار كاري داغ فولاد)84
  • جدول 9-3- اطلاعات آزمايشي (فشار كاري داغ فولاد)85
  • جدول 10-3- نرخ خطا براي مقادير مختلف 94
  • جدول 11-3 -اجراي شبكه‌هاي مختلف BP100
  • جدول 1-3 P - اطلاعات براي مسئله ورقه104
  • جدول 2-3 P105
  • جدول 3-3p105
  • جدول 4-3 P106
  • جدول 1-4137
  • جدول 2-4137
  • جدول 1-4 P140
  • جدول 2-4 P141
  • جدول 1-5146
  • جدول2-5 اطلاعات خاك182


Label
مقالات مرتبط


ورود به سايت | ثبت نام كاربر


صفحه نخست | تماس با ما
تمامی حقوق این سایت سایت متعلق به سایت DocIran.COM می باشد
طراحی شده توسط فراتک