الگوریتمستان - توهم مدل‌های مولد

توهم مدل‌های زبانی بزرگ روی یادگیری بر اساس داده‌های جدید

✤    ۷ خرداد ۱۴۰۳

یکی از چالش‌های مهم مدل‌های زبانی بزرگ بحث پاسخ‌های متوهمانه‌ است. یعنی مدل مولد در درستی پاسخ‌هایی که می‌دهد هیچ شکی ندارد، در حالی که ممکن است اشتباه باشد. حال وقتی مدل را با داده‌های جدیدی که از قبل هیچ شناختی ندارد فاین‌تیون (تنظیم دقیق‌تر) می‌کنیم، نگران توهم بیشتر باشیم یا نه؟ مقاله‌ی «Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations» در این مورد بحث می‌کند.

Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations?


تا کنون ۱ امتیاز ثبت شده
نوشته لایک نداشت؟
 
به اشتراک گذاری نوشته

amasoudfam.ir/l/6exen

اشتراک‌گذاری در LinkedIn     اشتراک‌گذاری در Twitter     ارسال با Telegram

نام: *  
پست الکترونیک (محرمانه):
پیام: *