توهم مدل‌های زبانی بزرگ روی یادگیری بر اساس داده‌های جدید

توهم مدل‌های زبانی بزرگ روی یادگیری بر اساس داده‌های جدید

یکی از چالش‌های مهم مدل‌های زبانی بزرگ بحث پاسخ‌های متوهمانه‌ است. یعنی مدل مولد در درستی پاسخ‌هایی که می‌دهد هیچ شکی ندارد، در حالی که ممکن است اشتباه باشد. حال وقتی مدل را با داده‌های جدیدی که از قبل هیچ شناختی ندارد فاین‌تیون (تنظیم دقیق‌تر) می‌کنیم، نگران توهم بیشتر باشیم یا نه؟ مقاله‌ی «Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations» در این مورد بحث می‌کند.

Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations?

✓ مسعود اقدسی‌فام - ۷ خرداد ۱۴۰۳

نسخه‌ی اصلی این نوشته در لینکدین من منتشر شده است. برای مشاهده و ثبت نظر به این پیوند مراجعه کنید.


تا کنون ۱ امتیاز ثبت شده
نوشته لایک نداشت؟
 
به اشتراک گذاری نوشته

algs.ir/q6exen

اشتراک‌گذاری در LinkedIn     اشتراک‌گذاری در Twitter     ارسال با Telegram

نام: *  
پست الکترونیک (محرمانه):
تاریخ امروز با فرمت 14YYMMDD: *  
پیام: *