همانطور که میدانیم، دو رویکرد اصلی برای سفارشیسازی مدلهای زبانی بزرگ (LLMs) وجود دارد: Fine-Tuning و Retrieval-Augmented Generation یا همان RAG.
در روش Fine-Tuning، مدل با دادههای خاص یک حوزه مجدداً آموزش داده میشود. این روش زمانی کاربرد دارد که بخواهیم مدل را در یک زمینهی تخصصی، عمیقتر و دقیقتر آموزش دهیم. هرچند این رویکرد از نظر فنی بسیار قدرتمند است، اما هزینهی بالایی دارد و در صورت تغییر دادهها، لازم است مدل دوباره آموزش ببیند. در مقابل، در روش RAG مستقیماً به خود مدل دست نمیزنیم؛ بلکه با استفاده از اسناد و منابع مرتبط، کیفیت پاسخهای مدل را بهبود میدهیم. به همین دلیل، بهروزرسانی دادهها در این روش هزینهی جانبی قابلتوجهی ندارد و انعطافپذیری بالاتری فراهم میکند.
بر همین اساس، شرکت Uber نیز در برخی از پروژههای خود از رویکرد RAG بهره گرفته است. آنها کار را با توسعهی یک دستیار داخلی به نام Genie آغاز کردند؛ رباتی در محیط Slack که به سؤالات مهندسان آنکال پاسخ میدهد. در ادامه، این پروژه به سطح پیشرفتهتری با نام Enhanced Agentic-RAG ارتقا یافت که با پردازش هوشمندانهتر اسناد، پاسخهای دقیقتر و هدفمندتری ارائه میدهد.