Sequence of N examples D <( x1 ,y1 ),….., ( xN, yN )> with labels y i€ Y={ 1,…,L }
Distribution D over the N example
Integer K specifying number of iterations
Weak Learning algorithm WeakLearn (tree)
Do k=1,2,.., K
-
- Choose bootstrapped sample Di (n sample) by randomly from D.
-
- Call WeakLearn k with Di and receive the hypothesis (tree) ht.
-
- Add ht to the ensemble.
End
Test: Simple Majority Voting – Given unlabeled instance x
-
- Evaluate the ensemble {h1,….,hk} on x
-
- Choose the class that receives the highest total vote as the final classification.
شکل ۲-۱٫ معماری کلی الگوریتم بگینگ. با دریافت مجموعهی آموزشی D با سایز N ، به تعداد K مجموعه آموزشی جدید Di، با سایز n<N، تولید میشود)بعنوان Bootstrap sample ). K مدل مختلف با بهره گرفتن از K زیر مجموعه، آموزش داده میشوند و در نهایت کلاسی که تعداد بیشتری از مدلها به آن رای دادهاند، انتخاب می شود.
از جمله عوامل تأثیرگذار در موفقیّت متدهای یادگیری تجمعی، بحث تنوع[۶۱] مدلهای پایه و همچنین دقت هرکدام از مدلهاست. همانطور که واضح است اگر مدلهای پایه متنوع یا به اصطلاح diverse نباشند، ترکیب آنها بی فایده است. در متد بگینگ، استفاده از مجموعههای متفاوت از مجموعه داده اولیه، شرط تنوع را تضمین میکند. از طرف دیگر، زمانی یک مدل میتواند از تغییرات مجموعه داده آموزشی خود استفاده کند که ناپایدار[۶۲] باشد . ناپایدار بودن به این معناست که تغییرات کوچک در ورودی (مجموعه آموزشی) منجر به تغییرات بزرگ در خروجی مدل شود. از جمله پیش بینی کنندههای ناپایدار میتوان به شبکههای عصبی مصنوعی و درختان تصمیمگیری اشاره کرد. هرچند مدل نزدیکترین همسایگی[۶۳] جزء کلاسه بندهای پایدار به حساب میآید [۲۹].
با توجه به مباحث مطرح شده، میتوان نتیجهگیری کرد که استفاده از درخت تصمیمگیری بعنوان مدلهای پایهای متدهای یادگیری تجمعی کارایی مؤثری دارد و برهمین اساس تحقیقات زیادی انجام و منجر به تولید الگوریتمهای بسیار قدرتمندی نظیر رندوم فارست شد. در ادامه نیز به بررسی دو نوع متد مبتنی بر بگینگ خواهیم پرداخت.
از جمله انواع الگوریتمهایی که روند بگینگ را دنبال میکنند، میتوان به دو نوع (۱) pasting small votes و(۲) رندوم فارست اشاره کرد.
- pasting small votes: که طراحی آن در راستای استفاده بر روی پایگاه دادههای بزرگ بوده است. در این الگوریتم، یک مجموعه داده به زیرمجموعه کوچکتر به نام بیت[۶۴] تقسیم شده و روی هرکدام یک کلاسهبند متفاوت آموزش داده میشود. اگر انتخاب این مجموعه دادهها بر اساس رندوم باشد Rvotes (مشابه بگینگ) نامیده شده و اگر بر اساس اهمیت آن بخش باشد، با نام Ivotes (مشابه بوستینگ) شناخته میشوند[۲۹].
- رندوم فارست: نوع دیگر روش بگینگ الگوریتم رندوم فارست است که به دلیل گستردگی استفاده از آن در این پایاننامه، مفاهیم آن بطور مفصل در بطور مجزا در بخش بعدی توضیح داده شده است.
رندوم فارست
در سال ۲۰۰۱، Breiman الگوریتم رندوم فارست را ارائه داد که یک حالت عمومیتر از بگینگ به حساب میآید و در واقع یک لایه رندوم به بگینگ اضافه میکند. در این الگوریتم علاوه بر اینکه هر درخت با بهره گرفتن از سمپلهای متفاوتی از دادهها ساخته میشود، روند ساخت درختها نیز تغییر میکند. در واقع در یک درخت استاندارد، هر گره تصمیم با بهره گرفتن از بهترین نقطه شکست[۶۵] انتخاب از میان همه خصیصهها[۶۶] شکسته میشود، اما در رندوم فارست، هر گره تصمیم بر مبنای بهترین نقطه شکست از میان زیرمجموعهای از خصیصههایی که بطور رندوم در سطح آن گره انتخاب شده اند، شکسته میشود [۳۰]. معماری کلی مربوط به رندوم فارست برگرفته از [۳۱]در شکل۱-۲ آمده است.
شکل ۲-۲٫ نمایی کلی از الگوریتم رندوم فارست که یک متد یادگیری تجمعی برای کلاسهبندی و رگرسیون است. مدلهای پایه، درختان تصمیمگیری CART هستند و خروجی نهایی K، بر اساس رایگیری خروجیهای B عدد درخت تعیین میشود. در مورد کلاسهبندی، رای نهایی بر مبنای مُد خروجیها و در مورد رگرسیون بر اساس میانگینگیری تعیین میشود.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
بکارگیری این استراتژی باعث عملکرد مناسب و کارا در مقایسه با دیگر الگوریتمها همچون آنالیزهای جداسازی، بردارهای پشتیبان کننده[۶۷] و شبکههای عصبی مصنوعی میشود. همچنین این تکنیک فقط به تنظیم دو پارامتر (۱) تعداد متغیرهای قرار گرفته در زیرمجموعهی رندوم انتخاب شده و (۲) تعداد درختان مورد استفاده، نیاز دارد و علاوه بر آن، حساسیت شدیدی نسبت به مقادیر این پارامترها ندارد.
مراحل توسعهی رندوم فارست
بطور کلی الگوریتم رندوم فارست یک مجموعه از درختهای شبه CART[68] است . مروری کلی بر این الگوریتم را تحت ۴ مبحث ۱) مرحله رشد درختان[۶۹]، ۲) مرحله ترکیب درختان[۷۰]، ۳) مرحله خودآزمایی[۷۱]و ۴) مرحله پس پردازش[۷۲] بررسی میکنیم که این مباحث از [۳۲] آمده است.
- مرحله رشد درختان:
درختان موجود در رندوم فارست، شاخههای دوتایی[۷۳] دارند، یعنی هر والد، تنها به دو فرزند تقسیم میشود. رندوم بودن در دو مرحله به هرکدام از این درختان تزریق میشود، (۱) در توسعه هر درخت روی نمونههای رندوم انتخاب شده از داده آموزشی و (۲) در مرحله انتخاب بهترین نقطه شکست از میان متغیرهایی که بطور رندوم از میان همه متغیرها انتخاب شدهاند. اگر m، تعداد کل خصیصهها باشد، مقادیری که Breiman برای تعداد متغیرهای انتخابی R پیشنهاد داد، به ترتیب در فرمولهای (۲-۱)، (۲-۲) و (۲-۳) بدین ترتیب بود: