با وجود تمام مزایایی که در بهینهسازی فرآیندها و اطلاعرسانی در تصمیمگیریها در کسبوکارها دارد، اعتبار هوش مصنوعی مولد برای موارد استفاده واقعی به دلیل عدم دقت، شفافیت و توضیحپذیری در محتوایی که تولید میکند – که بهعنوان «توهمات» هوش مصنوعی مولد شناخته میشود، مانع میشود.
چرا توهم برای مشاغل مشکل ساز است؟
کسبوکارهایی که تلاش میکنند با استقرار ژنرال هوش مصنوعی برای نتایج عملیتر حرکت کنند، با آن دست و پنجه نرم میکنند نرخ توهم حیرتانگیز 41% مدل زبان بزرگ (LLM).. مشکلی که توهم ایجاد می کند به این معنی است که تصمیم گیرندگان به قمار رها می شوند که نتیجه یک درخواست صحیح خواهد بود، که می تواند تأثیر قابل توجهی بر جهت پروژه یا حتی نتیجه نهایی داشته باشد. بدون پیشرفت تحقیقاتی، LLM ها به همین شکل باقی خواهند ماند. آنها حساس نیستند و نمی توانند جایگزین هوش انسانی شوند.
چه چیزی باعث توهم می شود
نوپا بودن نسبی هوش مصنوعی مولد به این معنی است که تیمهای فناوری اطلاعات هنوز در مورد بهترین راه برای ایجاد، آموزش و نگهداری LLMهایی که این سیستمها را نیرو میدهند، شفافیت کامل ندارند. LLM های سنتی – که به احتمالات متکی هستند نه قطعی – برای استخراج موفقیت آمیز معنی از داده های درهم تنیده مدرن تنظیم نشده اند. آنها با نوشیدن اقیانوسی از محتوای آنلاین و گزینه های بالقوه متناقض، اغلب حقایق نادرست را تکرار می کنند یا بدتر از آن، جاهای خالی را با ساختگی های قابل قبول پر می کنند و توهم ایجاد می کنند.
پروفسور یجین چوی نشان داده است که چگونه ChatGPT در استنتاج استنتاج هایی که برای انسان واضح به نظر می رسد شکست می خورد. به عنوان مثال، اگر به ChatGPT بگویید دو ساعت طول می کشد تا دو پیراهن در آفتاب خشک شوند و سپس بپرسید که خشک شدن پنج پیراهن چقدر طول می کشد، به شما می گوید که پاسخ آن پنج ساعت است. هوش مصنوعی مولد در این مثال ریاضیات را انجام می دهد و منطق را نادیده می گیرد. مهم نیست که 10 پیراهن را بیرون بیاورید، باز هم دو ساعت طول می کشد. بنابراین متخصصان داده به فناوریهای قابل اعتماد و شناخته شده روی میآورند تا به خروجیهای سیستمهای هوش مصنوعی مولد قابل اطمینانتر شوند.
با فناوری Graph و GraphRAG منطقی کردن LLMها
GraphRAG، تکنیکی که نمودارهای دانش را به Retrieval Augmented Generation (RAG) اضافه می کند، برای رسیدگی به توهمات ضروری شده است. RAG سازمان ها را قادر می سازد تا داده ها را از منابع دانش خارجی بازیابی و پرس و جو کنند و به LLM ها راهی منطقی برای دسترسی و استفاده از داده های خود می دهد. دانش، داده ها را در حقایق ترسیم می کند، در حالی که روابط صریح و ضمنی بین نقاط داده را مهار می کند، و مدل را مجبور می کند تا روی پاسخ های صحیح تمرکز کند. نتیجه، خروجیهای هوش مصنوعی مولد را دقیق، غنی از زمینه و – از لحاظ انتقادی – قابل توضیح میکند.
کمک به بررسی نحوه پاسخگویی LLMs
گزینه دیگر برای دقیق تر کردن LLM ها استفاده از آنها برای تولید نمودارهای دانش است. در اینجا، یک LLM مقادیر زیادی از زبان طبیعی را برای استخراج یک نمودار دانش پردازش می کند. در حالی که LLM غیرشفاف است، بنابراین نمودار دانش تولید شده با شفافیت و توضیح پذیری مشخص می شود.
به عنوان مثال، در بخش هایی مانند داروسازی، استفاده از مجموعه پیچیده ای از اسناد تحقیقاتی داخلی و خارجی، توانایی اثبات منشأ نتایج تجربی را بسیار مهم می کند. نمودارهای دانش در این صنعت ابزاری قدرتمند برای سازماندهی و تجزیه و تحلیل دادههای در حال رشد – و گرهها و روابط درون آن – برای ارائه پاسخهای قابل تأیید بدون توهم هستند که در غیر این صورت میتوانند پشتیبانی تصمیمگیری بالینی یا حتی کشف دارو را نادرست کنند.
فورچون به نفع شجاعان (که از فناوری نمودار استفاده می کنند) است.
CIOها باید فراتر از سرفصل های دیوانه وار ChatGPT نگاه کنند. آنها این فرصت را دارند که از نمودارهای دانش و الگوریتمهای علم دادههای نموداری برای ساختن LLMهایی استفاده کنند که پتانسیل موجود در فروشگاههای داده و دادههای بازار شرکتشان را باز کند.
منبع: https://aibusiness.com/nlp/combating-generative-ai-s-hallucination-problem