یکی از چالشهای مهم مدلهای زبانی بزرگ بحث پاسخهای متوهمانه است. یعنی مدل مولد در درستی پاسخهایی که میدهد هیچ شکی ندارد، در حالی که ممکن است اشتباه باشد. حال وقتی مدل را با دادههای جدیدی که از قبل هیچ شناختی ندارد فاینتیون (تنظیم دقیقتر) میکنیم، نگران توهم بیشتر باشیم یا نه؟ مقالهی «Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations» در این مورد بحث میکند.
Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations?