وقتی ابعاد یا تعداد ویژگیهای یک مدل یادگیری ماشین زیاد باشد میتوانیم از تکنیکهای کاهش ابعاد برای پایین آوردن تعداد ویژگیها بدون از دست دادن اطلاعات اساسی استفاده کنیم. این کار معمولا باعث سادهتر شدن مجموعه دادههای پیچیده و بالا رفتن کارآیی مدلها میشود.
این پایاننامه کارشناسیارشد از دانشگاه پلیتکنیک مادرید با بررسی روشهای مختلف کاهش ابعاد مثل SLMVP، PCA یا LOL ضمن بررسی اثربخشی آنها در نتیجهی مدلسازی، تفسیرپذیر بودن ابعاد جدید را هم بررسی میکند و در واقع بحث در مورد تعادل بین پیچیدگی، تفسیرپذیری و عملکرد مدل در یادگیری ماشین است.
Study of Dimensionality Reduction Techniques and Interpretation of their Coefficients, and Influence on the Learned Models