سازمانها در هر اندازه، در همه بخشها، عجله دارند تا از مزایای هوش مصنوعی مولد بهره ببرند، از افزایش کارایی عملیاتی گرفته تا اختراع مجدد کسبوکارشان. اما همانطور که آنها شروع به پذیرش این فناوری تحول آفرین می کنند، با یک چالش مشترک روبرو می شوند – ارائه نتایج دقیق.
این یک مسئله حیاتی است: سوگیری و سایر نادرستی ها باعث کاهش اعتماد می شود. و برای برنامه های کاربردی هوش مصنوعی، اعتماد همه چیز است.
راه حل؟ سفارشیسازی مدلهای زبان بزرگ (LLM)، فناوری کلیدی هوش مصنوعی که همه چیز را از چت رباتهای سطح ابتدایی گرفته تا ابتکارات هوش مصنوعی درجه یک سازمانی را تقویت میکند.
LLM ها به تنهایی ممکن است نتایجی ارائه دهند که نادرست یا خیلی کلی هستند که مفید نباشند. برای ایجاد اعتماد واقعی در بین مشتریان و سایر کاربران برنامه های کاربردی هوش مصنوعی، کسب و کارها باید از پاسخ های دقیق، به روز و شخصی اطمینان حاصل کنند. و این به معنای سفارشی کردن LLM های آنها است.
اما سفارشی کردن یک LLM می تواند پیچیده، وقت گیر و منابع فشرده باشد. این نیاز به تخصص دارد و هر سازمانی متخصصان داده و مهندسان زبان ماشین را در کارمندان خود ندارد. اما تعداد بیشتری از سازمانها یک تکنیک سفارشیسازی ثابت و مقرونبهصرفه را انتخاب میکنند که دقت و ارتباط را افزایش میدهد و در عین حال از منابعی که اکثر سازمانها قبلاً از آنها برخوردار هستند، بهره کامل میبرند: دادهها.
چگونه RAG دقت را هدایت می کند
بازیابی نسل افزوده (RAG) به عنوان یک تکنیک سفارشیسازی ترجیحی برای کسبوکارها در حال ظهور است تا به سرعت برنامههای هوش مصنوعی مولد دقیق و قابل اعتماد بسازند. RAG یک رویکرد سریع و آسان برای استفاده است که به کاهش نادرستی ها (یا “توهمات”) کمک می کند و ارتباط پاسخ ها را افزایش می دهد. این روش مقرون به صرفهتر است و به تخصص کمتری نسبت به تکنیکهای کار فشرده مانند تنظیم دقیق و پیشآموزش مستمر LLM نیاز دارد.
برای سازندگان برنامه های کاربردی هوش مصنوعی، RAG راهی کارآمد برای ایجاد برنامه های کاربردی هوش مصنوعی مولد قابل اعتماد ارائه می دهد. برای مشتریان، کارمندان و سایر کاربران این برنامهها، RAG به معنای پاسخهای دقیقتر، مرتبطتر و کاملتر است که با پاسخهایی که میتوانند منابعی را برای شفافیت ذکر کنند، اعتماد ایجاد میکند.
خروجی هوش مصنوعی مولد فقط به خوبی داده های آن است، بنابراین انتخاب منابع معتبر برای بهبود پاسخ ها حیاتی است. RAG LLM ها را با بازیابی و به کارگیری داده ها و بینش ها از فروشگاه های داده سازمان و همچنین منابع خارجی قابل اعتماد حقیقت برای ارائه نتایج دقیق تر تقویت می کند. حتی با یک مدل آموزشدیده بر روی دادههای قدیمی، RAG میتواند آن را با دسترسی به اطلاعات فعلی و تقریباً زمان واقعی بهروزرسانی کند.
RAG در عمل
شرکت تحویل غذا DoorDash RAG را برای راه حل هوش مصنوعی مولد خود به منظور بهبود سلف سرویس و افزایش تجربه پیمانکاران مستقل خود (“Dashers”) که حجم بالایی از درخواست های کمک ارائه می دهند، اعمال می کند.
DoorDash با خدمات وب آمازون (AWS) همکاری می کند تا مرکز تماس سنتی خود را با راه حل مرکز تماس سلف سرویس صوتی تکمیل کند. DoorDash برای هسته راهحل هوش مصنوعی مولد خود از مدلهای کلود Anthropic و Amazon Bedrock، یک سرویس AWS استفاده میکند که به سازمانها کمک میکند تا برنامههای هوش مصنوعی تولیدی را سریع و آسان بسازند و مقیاسبندی کنند.
با استفاده از RAG برای سفارشی کردن مدل Claude 3 Haiku، Bedrock DoorDash را قادر میسازد تا به یک پایگاه دانش عمیق و متنوع از منابع شرکت دسترسی داشته باشد تا پاسخهای مرتبط و دقیق به Dashers ارائه دهد و میانگین زمان پاسخدهی را به 2.5 ثانیه یا کمتر کاهش دهد. مرکز تماس مولد DoorDash با هوش مصنوعی اکنون صدها هزار تماس را هر روز انجام می دهد.
دسترسی به این پایگاه داده وسیع از طریق RAG کلید ایجاد اعتماد را فراهم کرد. چایتانیا هاری، سرپرست محصول مرکز تماس در DoorDash، میگوید: «ما راهحلی ساختهایم که به داشیرها در صورت نیاز به اطلاعات مورد نیازشان دسترسی مطمئن میدهد.
قدرت سفارشی سازی
سفارشیسازی میتواند دقت و ارتباط پاسخ را بهطور قابلتوجهی بهبود بخشد، بهویژه برای موارد استفاده که نیاز به ضربه زدن به دادههای تازه و بیدرنگ دارند.
RAG تنها استراتژی سفارشی سازی نیست. تنظیم دقیق و سایر تکنیکها میتوانند نقشهای کلیدی را در سفارشیسازی LLM و ساخت برنامههای هوش مصنوعی مولد ایفا کنند. اما همانطور که RAG تکامل می یابد و قابلیت های آن گسترش می یابد، به عنوان یک راه سریع و آسان برای شروع با هوش مصنوعی مولد و اطمینان از پاسخ های بهتر و دقیق تر، ایجاد اعتماد در بین کارمندان، شرکا و مشتریان ادامه خواهد داد.
بیشتر بدانید هوش مصنوعی مولد AWS.