نویسنده(های): کاوشیک راجان
در ابتدا منتشر شد به سمت هوش مصنوعی.
چارچوب طراحی مکانیزم برای کاهش تعارض و افزایش اعتماد در هوش مصنوعی چند عاملی
این داستان فقط برای اعضا در اختیار ماست. برای دسترسی به تمام Medium ارتقا دهید.
عامل هوش مصنوعی یک برنامه مستقل است که محیط خود را تفسیر می کند و اقداماتی را برای دستیابی به اهداف تعریف شده انجام می دهد. در تئوری، این عوامل می توانند وظایف مختلفی را با حداقل دخالت انسان انجام دهند. چند مثال: تجزیه و تحلیل داده ها، برنامه ریزی مسیر، یا تخصیص منابع.
با این حال، شاه و وایت (2024) در مقاله تحقیقاتی خود: عوامل کافی نیستند، نشان میدهند که سیستمهای تک عامل به ندرت پیچیدگیهای وظایف دنیای واقعی را مدیریت میکنند. آنها نشان می دهند که اهداف همپوشانی، منابع محدود و ذینفعان متنوع اغلب بر ظرفیت یک عامل برای انطباق و هماهنگی غلبه می کنند.
حتی راهاندازیهای چند عاملی اولیه نیز معمولاً مشکلات مشابهی دارند. آنها فاقد مکانیسم های همکاری لازم برای پاسخگویی به خواسته های پویا هستند.
مطالعات متعدد این یافته را تأیید می کند. آنها گزارش می دهند که تا 80 درصد از ابتکارات هوش مصنوعی در استقرار شکست می خورند. این اغلب به دلیل انگیزه های نادرست در بین اجزای مختلف است. [1, 2, 3, 4]
این محدودیت ها مستلزم استراتژی های هماهنگی قوی است. برخلاف رویکردهای متعارف تک عاملی، یک چارچوب چند عاملی میتواند قابلیتهای حل مسئله را در بین نهادهای تخصصی توزیع کند (به عنوان مثال، یک عامل زمانبندی، یک عامل تخصیص منابع و یک عامل کنترل کیفیت).
در این مقاله، با معرفی یک طراحی مکانیزم، بر اساس تحقیقات عاملان کافی نیستند… وبلاگ کامل را به صورت رایگان در Medium بخوانید.
منتشر شده از طریق به سمت هوش مصنوعی