معرفي روش پس انتشار

وقتي يك شبكه عصبي براي اولين بار با يك الگو روبرو مي شود ، روابط بين عناصر را به صورت تصادفي حدس مي زند ، سپس بررسي مي كند كه تا چه اندازه پاسخش از واقعيت دور است و در نتيجه يك انطباق مناسب با وزن هاي ارتباطي انجام مي دهد ( كاهش خطا ) . معمول ترين روال براي كاهش اين خطا ، روش توزيع معكوس خطاست (Backward Propagation of error) كه در 95% كاربرد هاي امروزي شبكه هاب عصبي ، روش مورد استفاده به همراه توپولوژي Feed Forward است.

در اين روش پس از محاسبه خطاي پيشگويي براي نمونه اول ورودي به سيستم ، وزن هاي سيناپسي از آخرين لايه بسوي نحستين لايه به تدريج طوري تغيير مي كنند كه حطاي پيشگويي كمتر شود. در واقع BP سر شكن كردم خطا بر روي سلول هاي ( گره هاي ) يك لايه و نيز لايه هاي بعدي است. پس از اين ، اطلاعات نمونه دوم به شبكه خوانده مي شود. مسلماً با همان وزن هاي سيناپسي نمونه جديد مجدداً خطا خواهد داشت. بنابر اين روش توزيع معكوس مجدداً دست به كار شده و وزن ها را طوري تغيير مي دهد كه كمترين خطا را ( هم براي اين نمونه و هم براي نمونه قبلي ) ايجاد كند. به اين ترتيب پس از خواندن تعداد نمونه كافي به ورودي شبكه ، اصطلاحاً شبكه Converge يا همگرا شده ، يعني ميزان خطا به حداقل مقدار خود رسيده است. اين به معناي موفقيت در مرحله يادگيري است و شبكه آماده است تا براي پيشگويي به كار رود .

توجه به اين نكته اهميت دارد كه اگر تعداد نرون ها و لايه هاي مياني ( پنهان ) مورد استفاده ، بيش از حد معمول باشد ، سيستم به جاي تجزيه و تحليل داده ها ، آنها را حفظ مي كند و اصطلاحاً دچار ، Over Training (Over Fitting Oscillation) مي شود. در اين حالت مدل بدست آمده قادر خواهد بود كه داده هاي مشابهي را كه در مرحله يادگيري مورد استفاده قرار گرفته است دقيقاً پيش بيني كند ، اما اگر داده جديدي كه در مرحله يادگيري استفاده نشده است به آن داده شود ، سيستم عملكرد بسيار بدي خواهد داشت و خطاي پيش بيني زياد خواهد بود.

به منظور جلوگيري از اين پديده از روش اعتبار سنجي متقاطع (Cross Validation) استفاده مي شود. در اين تكنيم مجموعه داده هاي اوليه به سه دسته آموزش ، تست و اعتبار تقسيم بندي مي شوند. اعتبار شبكه همزمان با آموزش در هر دور سنجيده مي شود و درست وقتي كه خطاي روي داده هاي اعتبار شروع به بالا رفتن مي كند ، آموزش شبكه قطع مي شود.