الگوریتمستان - کاهش ابعاد تفسیرپذیر

معرفی یک پایان‌نامه کارشناسی ارشد

✤    ۲۹ شهریور ۱۴۰۲ - آخرین به‌روزرسانی: ۷ آبان ۱۴۰۲

وقتی ابعاد یا تعداد ویژگی‌های یک مدل یادگیری ماشین زیاد باشد می‌توانیم از تکنیک‌های کاهش ابعاد برای پایین آوردن تعداد ویژگی‌ها بدون از دست دادن اطلاعات اساسی استفاده کنیم. این کار معمولا باعث ساده‌تر شدن مجموعه داده‌های پیچیده و بالا رفتن کارآیی مدل‌ها می‌شود.

این پایان‌نامه کارشناسی‌ارشد از دانشگاه پلی‌تکنیک مادرید با بررسی روش‌های مختلف کاهش ابعاد مثل SLMVP، PCA یا LOL ضمن بررسی اثربخشی آنها در نتیجه‌ی مدل‌سازی، تفسیرپذیر بودن ابعاد جدید را هم بررسی می‌کند و در واقع بحث در مورد تعادل بین پیچیدگی، تفسیرپذیری و عملکرد مدل در یادگیری ماشین است.

Study of Dimensionality Reduction Techniques and Interpretation of their Coefficients, and Influence on the Learned Models


تا کنون ۱ امتیاز ثبت شده
نوشته لایک نداشت؟
 
به اشتراک گذاری نوشته

amasoudfam.ir/l/ms7j4

اشتراک‌گذاری در LinkedIn     اشتراک‌گذاری در Twitter     ارسال با Telegram

نام: *  
پست الکترونیک (محرمانه):
پیام: *