هوش مصنوعی چند عاملی: از عوامل ایزوله تا اکوسیستم های تعاونی


نویسنده(های): کاوشیک راجان

در ابتدا منتشر شد به سمت هوش مصنوعی.

چارچوب طراحی مکانیزم برای کاهش تعارض و افزایش اعتماد در هوش مصنوعی چند عاملی

این داستان فقط برای اعضا در اختیار ماست. برای دسترسی به تمام Medium ارتقا دهید.

تصویر ایجاد شده توسط نویسنده با استفاده از هوش مصنوعی مولد (Imagen 3 توسط Google DeepMind)

عامل هوش مصنوعی یک برنامه مستقل است که محیط خود را تفسیر می کند و اقداماتی را برای دستیابی به اهداف تعریف شده انجام می دهد. در تئوری، این عوامل می توانند وظایف مختلفی را با حداقل دخالت انسان انجام دهند. چند مثال: تجزیه و تحلیل داده ها، برنامه ریزی مسیر، یا تخصیص منابع.

با این حال، شاه و وایت (2024) در مقاله تحقیقاتی خود: عوامل کافی نیستند، نشان می‌دهند که سیستم‌های تک عامل به ندرت پیچیدگی‌های وظایف دنیای واقعی را مدیریت می‌کنند. آنها نشان می دهند که اهداف همپوشانی، منابع محدود و ذینفعان متنوع اغلب بر ظرفیت یک عامل برای انطباق و هماهنگی غلبه می کنند.

حتی راه‌اندازی‌های چند عاملی اولیه نیز معمولاً مشکلات مشابهی دارند. آنها فاقد مکانیسم های همکاری لازم برای پاسخگویی به خواسته های پویا هستند.

مطالعات متعدد این یافته را تأیید می کند. آنها گزارش می دهند که تا 80 درصد از ابتکارات هوش مصنوعی در استقرار شکست می خورند. این اغلب به دلیل انگیزه های نادرست در بین اجزای مختلف است. [1, 2, 3, 4]

این محدودیت ها مستلزم استراتژی های هماهنگی قوی است. برخلاف رویکردهای متعارف تک عاملی، یک چارچوب چند عاملی می‌تواند قابلیت‌های حل مسئله را در بین نهادهای تخصصی توزیع کند (به عنوان مثال، یک عامل زمان‌بندی، یک عامل تخصیص منابع و یک عامل کنترل کیفیت).

در این مقاله، با معرفی یک طراحی مکانیزم، بر اساس تحقیقات عاملان کافی نیستند… وبلاگ کامل را به صورت رایگان در Medium بخوانید.

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/artificial-intelligence/multi-agent-ai-from-isolated-agents-to-cooperative-ecosystems