مدیر ارشد فناوری DataStax در مورد نقش RAG در کاهش توهمات هوش مصنوعی بحث می کند


Retrieval Augmented Generation (RAG) برای رهبران فناوری اطلاعات و شرکت هایی که به دنبال پیاده سازی هستند ضروری شده است. هوش مصنوعی مولد. با استفاده از یک مدل زبان بزرگ (LLM) و RAG، شرکت ها می توانند یک LLM را در داده های سازمانی مستقر کنند و دقت خروجی ها را بهبود بخشند.

اما RAG چگونه کار می کند؟ موارد استفاده برای RAG چیست؟ و آیا جایگزین واقعی وجود دارد؟

TechRepublic با داوور بوناچی، مدیر ارشد فناوری و معاون اجرایی پایگاه داده و شرکت هوش مصنوعی DataStax گفت‌وگو کرد تا بفهمد RAG در طول عرضه هوش مصنوعی مولد در سال 2024 چگونه در بازار به کار گرفته می‌شود و او چه چیزی را گام بعدی این فناوری می‌داند. 2025.

Retrieval Augmented Generation چیست؟

RAG تکنیکی است که ارتباط و دقت خروجی های مدل تولیدی AI LLM را با افزودن زمینه توسعه یافته یا افزوده از یک شرکت بهبود می بخشد. این چیزی است که به رهبران فناوری اطلاعات اجازه می دهد از LLM های AI مولد برای موارد استفاده سازمانی استفاده کنند.

بوناچی توضیح داد که در حالی که LLM ها اساساً بر روی تمام اطلاعات موجود در اینترنت آموزش دیده اند، تا یک تاریخ قطعی مشخص، بسته به مدل، نقاط قوت زبان و دانش عمومی آنها با مشکلات مهم و شناخته شده جبران می شود. مانند توهمات هوش مصنوعی.

ببینید: Zetaris در مورد اینکه چرا دریاچه های داده فدرال آینده برای تقویت هوش مصنوعی هستند

“اگر می خواهید از آن در یک محیط سازمانی استفاده کنید، شما باید آن را در داده های سازمانی زمین کنید. در غیر این صورت، توهمات زیادی به شما دست می دهد. “با RAG، به جای اینکه فقط از LLM بخواهید چیزی تولید کند، می گویید، “من از شما می خواهم چیزی تولید کنید، اما لطفاً این موارد را که می دانم دقیق هستند در نظر بگیرید.”

RAG چگونه در یک محیط سازمانی کار می کند؟

RAG یک مرجع LLM به مجموعه اطلاعات سازمانی مانند پایگاه دانش، پایگاه داده یا مجموعه اسناد می دهد. به عنوان مثال، محصول اصلی DataStax پایگاه داده برداری آن، Astra DB است که شرکت ها از آن برای پشتیبانی از ساخت برنامه های هوش مصنوعی در شرکت ها استفاده می کنند.

در عمل، یک ورودی پرس و جو که توسط کاربر داده می‌شود، یک مرحله بازیابی – جستجوی برداری – را طی می‌کند که مرتبط‌ترین اسناد یا قطعات اطلاعات را از یک منبع دانش از پیش تعریف‌شده شناسایی می‌کند. این می تواند شامل اسناد سازمانی، مقالات دانشگاهی یا پرسش های متداول باشد.

اطلاعات بازیابی شده سپس به عنوان زمینه اضافی در کنار پرس و جو اصلی به مدل مولد داده می شود و به مدل اجازه می دهد تا پاسخ خود را در دنیای واقعی، به روز یا دانش خاص دامنه پایه گذاری کند. این زمینه‌سازی خطر توهم‌هایی را که می‌تواند برای یک شرکت مختل کننده باشد، کاهش می‌دهد.

RAG چقدر خروجی مدل‌های هوش مصنوعی مولد را بهبود می‌بخشد؟

بوناچی گفت، تفاوت بین استفاده از هوش مصنوعی مولد با و بدون RAG “شب و روز” است. برای یک شرکت، تمایل به LLM به توهم در اصل به این معنی است که آنها “غیر قابل استفاده” هستند یا فقط برای موارد استفاده بسیار محدود. تکنیک RAG چیزی است که در را به روی هوش مصنوعی مولد برای شرکت ها باز می کند.

«در پایان روز، آنها [LLMs] بوناچی توضیح داد که از دیدن چیزها در اینترنت آگاهی داشته باشید. “اما اگر سوالی بپرسید که به نوعی خارج از میدان سمت چپ است، آنها یک پاسخ بسیار مطمئن به شما خواهند داد که ممکن است … کاملا اشتباه باشد.”

ببینید: هوش مصنوعی مولد به منبع اشتباهات پرهزینه برای شرکت ها تبدیل شده است

بوناچی خاطرنشان کرد که تکنیک‌های RAG می‌توانند دقت خروجی‌های LLM را تا بیش از 90 درصد برای کارهای غیر منطقی، بسته به مدل‌ها و معیارهای مورد استفاده، افزایش دهند. برای کارهای استدلالی پیچیده، آنها با استفاده از تکنیک های RAG به احتمال زیاد بین 70 تا 80 درصد دقت را ارائه می دهند.

موارد استفاده از RAG چیست؟

RAG در چندین مورد معمول استفاده از هوش مصنوعی مولد برای سازمان ها استفاده می شود، از جمله:

اتوماسیون

با استفاده از LLM های تقویت شده با RAG، شرکت ها می توانند وظایف تکرار شونده را خودکار کنند. یکی از موارد استفاده رایج برای اتوماسیون، پشتیبانی مشتری است، که در آن سیستم می‌تواند به جستجوی اسناد، ارائه پاسخ‌ها و انجام اقداماتی مانند لغو بلیط یا خرید قدرت بپردازد.

شخصی سازی

RAG را می توان برای ترکیب و خلاصه کردن مقادیر زیادی از اطلاعات مورد استفاده قرار داد. بوناچی نظرات مشتریان را مثال زد، که می‌توان آن‌ها را به شیوه‌ای شخصی‌سازی‌شده و مرتبط با زمینه کاربر، مانند موقعیت مکانی، خریدهای گذشته، یا ترجیحات سفر خلاصه کرد.

جستجو کنید

RAG را می توان برای بهبود نتایج جستجو در یک شرکت به کار برد و آنها را مرتبط تر و با زمینه خاص تر کرد. بوناچی اشاره کرد که چگونه RAG به کاربران سرویس استریم کمک می کند تا فیلم ها یا محتوای مرتبط با مکان یا علایق خود را پیدا کنند، حتی اگر عبارات جستجو دقیقاً با محتوای موجود مطابقت نداشته باشند.

چگونه می توان از نمودارهای دانش با RAG استفاده کرد؟

استفاده از نمودارهای دانش با RAG “نسخه پیشرفته” RAG اولیه است. بوناچی توضیح داد که در حالی که جستجوی برداری در RAG پایه شباهت‌هایی را در یک پایگاه داده برداری شناسایی می‌کند – که آن را برای دانش عمومی و زبان طبیعی انسان مناسب می‌سازد – برای موارد استفاده سازمانی خاص محدودیت‌هایی دارد.

در سناریویی که یک شرکت تلفن همراه برنامه‌های چند لایه را با گنجاندن متفاوت ارائه می‌کند، یک پرس و جو از مشتری – مانند اینکه آیا رومینگ بین‌المللی نیز گنجانده شده است یا خیر – نیاز به تصمیم گیری هوش مصنوعی دارد. یک نمودار دانش می تواند به سازماندهی اطلاعات کمک کند تا به آن کمک کند تا بفهمد چه چیزی کاربرد دارد.

ببینید: بلوغ دیجیتال کلید موفقیت در هوش مصنوعی برای امنیت سایبری

بوناچی گفت: «مشکل این است که محتوای اسناد طرح با یکدیگر در تضاد است. بنابراین سیستم نمی داند کدام یک درست است. بنابراین می‌توانید از یک نمودار دانش برای کمک به سازماندهی و ارتباط صحیح اطلاعات استفاده کنید تا به شما در حل این تضادها کمک کند.»

آیا جایگزینی برای RAG برای شرکت ها وجود دارد؟

جایگزین اصلی RAG، تنظیم دقیق یک مدل هوش مصنوعی مولد است. با تنظیم دقیق، به‌جای استفاده از داده‌های سازمانی به‌عنوان یک اعلان، داده‌ها به خود مدل وارد می‌شوند تا مجموعه‌ای از داده‌های تحت‌تاثیر ایجاد کنند تا مدل را برای استفاده به‌گونه‌ای آماده کنیم که بتواند از داده‌های سازمانی استفاده کند.

بوناچی گفت که تا به امروز، RAG روشی است که به طور گسترده در صنعت به عنوان مؤثرترین روش برای مرتبط کردن هوش مصنوعی مولد برای یک شرکت مورد توافق قرار گرفته است.

او گفت: «ما می‌بینیم که مردم مدل‌ها را تنظیم می‌کنند، اما این فقط بخش کوچکی از مشکلات را حل می‌کند و بنابراین به‌طور گسترده به عنوان راه‌حل پذیرفته نشده است».



منبع: https://www.techrepublic.com/article/datastax-cto-rag-ai-hallucinations/