تحقیق رایگان با موضوع شبکه عصبی، شبکه های عصبی، پردازش اطلاعات، طبقه بندی

توزیع های احتمال استاندارد و شناخته شده تبعیت نمی کنند . متغیرهای مالی یکی از وسیع ترین زمینه های کاربردی این مدل ها در پیش بینی هستند .[۵]
۲ – ۶ – ۱ ساختار مدل های شبکه های عصبی مصنوعی
مدل های شبکه های عصبی مصنوعی را می توان در قالب نظیر کننده های برداری جای داد به طوری که مجموعه ای از داده ها را گرفته و توسط برنامه هایی که توانایی انجام عملیات به صورت موازی و پردازش غیر خطی با حجم بسیار زیادی را دارند ستاده هایی را تحویل می دهند .
مدل های شبکه مصنوعی انواع مختلفی دارند اما ساختار کلی انها مشابه می باشد . یک شبکه عصبی مصنوعی معمولا از بخش های زیر تشکیل شده است که شمای کلی آن در شکل زیر نشان داده شده است .
شکل(۲-۵).نمای کلی یک شبکه عصبی پیشرو
تمامی مدل های شبکه مصنوعی دارای سه نوع لایه می باشند که عبارتند از :
لایه های ورودی۵۳ :
در این لایه به تعداد متغیرهای توضیحی مدل ، واحدهایی وجود دارند که هر یک از
انها داده های مربوط به یک متغیر توضیحی را شامل می شوند . در واقع این لایه ها مشابه
بردار متغیرهای توضیحی در مدل رگرسیون است .
لایه های میانی ( پنهان )۵۴
در این لایه ها واحدهای پردزاشگر اطلاعات قرار دارند که نقش بسیار موثری در فرآیند یادگیری ( برآورد ) صحیح مدل ایفا می کنند . یک مساله ضروری و مهم در طراحی یک شبکه تعیین تعداد واحدهای لایه پنهان است اما متاسفانه هیچ جواب واحدی برای تعیین تعداد این لایه ها و واحدهای پردازش اطلاعات در این لایه ها وجود ندارد . اما تعداد این لایه ها و واحدهای پردازشگر انها طوری باید انتخاب شوند که در آموزش و پیش بینی ، دچار بیش برازش۵۵و یا حفظ کردن۵۶و فرآیند یادگیری ناقص نشویم .
لایه خروجی۵۷
در این لایه عمل پردازش بر روی اطلاعات ارسال شده از لایه پنهان صورت می گیرد . تعداد واحدهای این لایه به اندازه تعداد متغیرهای درونزای مدل می باشد . این لایه مشابه بردار متغیرهای وابسته در مدل رگرسیون است .
واحدهای پردازش۵۸
پردازشگرها واحدهایی هستند که در لایه های پنهان و خروجی قرار دارند و با استفاده از توابع فعالسازی یا تبدیل ، اطلاعات را پردازش کرده و به لایه بعدی ارسال می نمایند . این واحد ها جنبه های مختلف یک الگو را یک جا در نظر گرفته و از فرآیند پردازش توزیع شده موازی (PDP) استفاده می نمایند . عمل این پردازشگرها همانند عمل نرون ها در شبکه های عصبی طبیعی است .
توابع فعال سازی ( تبدیل )۵۹
هر یک از واحدهای پردازشگر در لایه های پنهان و خروجی برای پردازش اطلاعات از توابع ریاضی معینی استفاده می کنند که توابع فعال سازی یا تبدیل نامیده می شوند . این توابع معمولا غیر خطی می باشند . مهم ترین توابع تبدیل مورد استفاده در مدل های های شبکه های عصبی تابع سیگموئید۶۰ و تابع تانژانت هیپربولیک می باشند . توابع دیگری نیز به عنوان توابع فعال سازی استفاده می شوند که می توان تابع گوسین۶۱ ، تابع آستانه ای۶۲ و تابع خطی همانی f(x)=x که معمولا برای نرون لایه خروجی استفاده می شود نام برد .
جدول(۲-۱)توابع محرک با علائم قراردادی[۴]
یک مساله مهم اثبات شده در مورد مدل های شبکه عصبی آن است که یک مدل شبکه عصبی پیشخور با یک لایه پنهان با تابع فعال سازی سیگموئید در لایه پنهان و تابع فعال سازی خطی در نرون خروجی و تعداد نرون های کافی در لایه پنهان قادرند هر تابعی را با دقت دلخواه تقریب بزنند . این مساله نشان دهنده آن است که طراحی یک مدل شبکهعصبی مناسب اهمیت قابل توجهی در برآورد و پیش بینی یک فرآیند دارد.
۲ – ۶ – ۲ چگونگی پردازش اطلاعات در واحدهای پردازشگر
هر واحد پردازشگر اطلاعات ( نرون ها ) در لایه های میانی و خروجی دو عملرا انجام می دهند . ابتدا مجموع حاصل ضرب اطلاعات ورودی و وزن های ارتباطی ( پارامترهایی که مقادیر اولیه انها معمولا تصادفی تعیین می شوند ) را محاسبه می کنند ، سپس این اطلاعات را توسط توابع تبدیل پردازش کرده و به واحد پردازشگر بعدی ارسال می نمایند .
انواع مختلفی از مدل های شبکه عصبی وجود دارد این مدل ها در یک طبقه بندی به مدل های ایستا۶۳ و پویا۶۴ طبقه بندی می شوند . در مدل های ایستا ( پیشخور۶۵ ) مسیر پردزاش اطلاعات از داده ها به ستاده است بدون آن که بازگشتی در سیستم ارتباطی واحدها وجود داشته باشد . در حالی که در مدل های پویا مسیر بازگشتی از بردار ستاده یا بردار واحدهای میانی به بردار داده ها نیز وجود دارد . این مسیرهای بازگشتی را می توان به متغیرهای مستقل بوده بلکه تابعی از ستاده های دوره های قبلی نیز می باشند . یک طبقه بندی دیگر در مورد مدل های شبکه عصبی به این صورت است که اگر بردار داده ها با بردار ستاده ها متفاوت باشند مدل دگر همراهی۶۶ وچنانچه بردار داده ها با بردار ستاده ها یکسان باشند،مدلمدل خود همراهی۶۷ نامیده می شود .
در آموزش شبکه عصبی هر چه مشاهدات کامل تر باشد آنچه انتزاع شده است ، صحیح تر خواهد بود . البته ، این احتمال وجود دارد که برخی مشاهدات گمراه کننده بوده و با روش کلی مشاهدات هماهنگ نباشد . بنابراین آنچه که به عنوان نمونه های آموزشی در اختیار شبکه عصبی قرار می گیرد ، تا حد امکان باید پالایش شده و همسان باشند . شبکه عصبی آنچه را مشاهده می کند در قالب پارامتر های درونی خود به خاطر می سپارد . در واقع ، تکرار هر یک از مشاهدات موجب تغییر پارامترهای درونی شبکه در جهت حفظ روابط حاکم بر مشاهدات است . آنچه در ذهن شبکه عصبی نگهداری می شود, نه تک تک مشاهدات, بلکه روش و برداشت کلی از مشاهدات است . به همین دلیل است که بعضا شبکه عصبی در رویارویی مجدد با نمونه های آموزشی چه بسا همراه با خطای قابل اغماضی عکس العمل نشان دهد اما این استواری و ثبات را در عمل دارد که در برخورد با عموم نمونه های مشابه عملکردی مناسب و همراه با خطای قابل اغماض داشته باشد .
فرآیند یادگیری در مدل های شبکه عصبی در واقع برآورد وزن ها و پارامترهای مدل می باشد که این عمل به دو روش می تواند انجام شود :الف) یادیگری با نظارت۶۸و ب)یادیگری بدون نظارت۶۹ . در یادگیری تحت نظارت مقادیر واقعی متغیر هدف (وابسته) به همراه متغیرهای ورودی به شبکه داده می شود .
شبکه پس از باز تولید مقادیر متغیر وابسته با استفاده از متغیرهای ورودی ،انها را با مقادیر واقعی متغیر وابسته مقایسه نموده و اختلاف (خطای) هر مشاهده را اندازه می گیرد . سپس با استفاده از الگوریتم های مختلف تکرار مانند الگوریتم پس انتشار خطا۷۰، وزن های شبکه تعدیل می گردد تا خطاهای مورد نظر که به وسیله معیارهای مختلف مانند ریشه میانگین مربعات خطاها (RMSE)71 یا میانگین قدر مطلق خطاها (MAE)72 اندازه گیری می شوند حداقل گردند . به این ترتیب شبکه آموزش داده شده و وزن ها و پارامترهای شبکه برآورد می شوند .
می توان از الگوریتم های متفاوتی برای آموزش شبکه عصبی استفاده کرد . مهمترین الگوریتم آموزش شبکه عصبی در یادگیری تحت نظارت الگوریتم پس انتشار خطا می باشد مدل پس انتشار خطا (BPN)73 از نوع ایستا و دگر همراهی بوده که معمولا از سه لایه ورودی پنهان و خورجی تشکیل می شود .
تخمین ضرایب یک شبکه عصبی به عنوان یک سیستم به شدت غیر خطی ، به آسانی تخمین پارامترهای مدل های خطی نیست . ممکن است جواب های بهینه نسبی متعددی برای حداقل کردن اختلاف بین ارزش حقیقی متغیر خروجی و ارزش های بدست آمده از شبکه وجود داشته باشد, که هیچ کدام از انها بهترین جواب نباشند .
مجموعه اولیه از وزن ها می تواند در هر جایی روی محور x ، نزدیک به یک مینیمم نسبی ، ماکزیمم مطلق یا نسبی و یا یک نقطه زینی قرار بگیرد . همان طور که وزن ها تعدیل می شوند , ممکن است در هر کدام از این موقعیت ها که در آن مشتق برابر صفر است به دام بیفتیم . بنابراین تخمین شبکه های عصبی زمان بیشتری می برد و استفاده از روش های گوناگون را طلب می کند .
برای بدست آوردن ضرایبت بهینه شبکه باید، تابع هدف E(w)=∑▒(x-x)^2 که در واقع مجموع مربع خطاها یعنی اختلافات میان ارزش های خروجی هدف و خروجی بدست آمده از شبکه را نشان می دهد ، حداقل شود . در الگوریتم هایتکرار ، کار با یک حدس اولیه درباره ضرایب w آغاز می شود . در این حالت ،رابطه وضعیت مجموعه بهینه ضرایب یا وزن ها از شکل زیر پیروی می کند :
W^(t+1)=W^t+∆W^t (2-38)
که در آن ، t رتبه تکرار و W^tتخمین فعلی از نقطه بهینه ، یعنی مینیمم تابع E(w) در مرحله t ام است . رابطه بالا را به صورت زیر چنین می توان نوشت :
∆W^t=W^(t+1)-W^t=ηp^t (2-39)
که در آن ، p^t بردار جستجو است. به این معنی که از روی آن ، تخمین مرحله بعد 〖 W〗^(t+1)بدست می آید η نیز،یک مقدار اسکالر بزرگتر از صفر است که نرخ یادگیری نامیده می شود و طول قدم در هر تکرار را در مسیر p^t تعیین می کند .
چگونگی انتخاب p^t ، روش های مختلف مینیمم سازی را از هم متمایز می کند . بردار جستجو را می توان از روی اطلاعات بدست آمده از بردار گرادیان ( روش انتشار خطا BP ) و ماتریس هسین تابع خطا E(W) ( روش نیوتن ، روش شبه نیوتن و روش لونبرگ – مارکوانت LM ) تعیین کرد . بعد از تخمین مدل ، برای ارزیابی اجرای مدل های رقیب باید قدرت پیش بینی مدل ها در خارج از نمونه را بررسی کرد . برای این منظور معمولاً داده ها را به دو مجموعه جدا تقسیم می کنند . بخش اول به مجموعه آموزش یا تخمین و مجموعه دوم به مجموعه آزمون موسوم است .
ابتدا ضرایب مدل با استفاده از داده های مجموعه اول تخمین زده می شود و سپس با استفاده از داده های مجموعه دوم قدرت پیش بینی مدل و یا به عبارت دیگر توان تعمیم مدل به خارج از مجموعه داده های مورد استفاده در تخمین ارزیابی می شود . در این قسمت هدف حداقل کردن خطای پیش بینی در مجموعه آزمون است . برای این منظور معمولا از چهار معیار زیر استفاده می شود .
الف ) معیار میانگین مربع خطا MSE یا ریشه میانگین مربع خطا RMSE
MSE=(∑▒(x ̂_t-x_t )^2 )/n RMSE=√((∑▒(x ̂_t-x_t )^2 )/n)(2-40)
ب ) معیار میانگین قدر مطلق انحراف ( MAD ) یا میانگین قدر مطلق درصد خطا ( MAPE ) :
MAD=(∑▒|x ̂_t-x_t | )/n , MAPE= |(x ̂_t-x_t)/x_t |/n(2-41)
۲ – ۷ مروری بر ادبیات تجربی
درباره عملکردهای شبکه عصبی در پیش بینی نرخ ارز در مقایسه با روش های دیگر گزارش های متفاوتی ارائه شده است . ویجند و همکاران

اینم بخونین:   منبع مقاله درموردرگرسیون، سری های زمانی، شبکه‌های عصبی مصنوعی، رگرسیون خطی