استفاده‌ی Uber از RAG

استفاده‌ی Uber از RAG

✓ مسعود اقدسی‌فام - ۸ مهر ۱۴۰۴ - آخرین به‌روزرسانی: ۱۵ مهر ۱۴۰۴

همان‌طور که می‌دانیم، دو رویکرد اصلی برای سفارشی‌سازی مدل‌های زبانی بزرگ (LLMs) وجود دارد: Fine-Tuning و Retrieval-Augmented Generation یا همان RAG.

در روش Fine-Tuning، مدل با داده‌های خاص یک حوزه مجدداً آموزش داده می‌شود. این روش زمانی کاربرد دارد که بخواهیم مدل را در یک زمینه‌ی تخصصی، عمیق‌تر و دقیق‌تر آموزش دهیم. هرچند این رویکرد از نظر فنی بسیار قدرتمند است، اما هزینه‌ی بالایی دارد و در صورت تغییر داده‌ها، لازم است مدل دوباره آموزش ببیند. در مقابل، در روش RAG مستقیماً به خود مدل دست نمی‌زنیم؛ بلکه با استفاده از اسناد و منابع مرتبط، کیفیت پاسخ‌های مدل را بهبود می‌دهیم. به همین دلیل، به‌روزرسانی داده‌ها در این روش هزینه‌ی جانبی قابل‌توجهی ندارد و انعطاف‌پذیری بالاتری فراهم می‌کند.

بر همین اساس، شرکت Uber نیز در برخی از پروژه‌های خود از رویکرد RAG بهره گرفته است. آن‌ها کار را با توسعه‌ی یک دستیار داخلی به نام Genie آغاز کردند؛ رباتی در محیط Slack که به سؤالات مهندسان آنکال پاسخ می‌دهد. در ادامه، این پروژه به سطح پیشرفته‌تری با نام Enhanced Agentic-RAG ارتقا یافت که با پردازش هوشمندانه‌تر اسناد، پاسخ‌های دقیق‌تر و هدفمندتری ارائه می‌دهد.


نسخه‌ی اصلی این نوشته در لینکدین من منتشر شده است. برای مشاهده و ثبت نظر به این پیوند مراجعه کنید.


تا کنون ۰ امتیاز ثبت شده
نوشته لایک نداشت؟
 
به اشتراک گذاری نوشته

algs.ir/q3e9w7

اشتراک‌گذاری در LinkedIn     اشتراک‌گذاری در Twitter     ارسال با Telegram

نام: *  
پست الکترونیک (محرمانه):
پیام: *