نویسنده (ها): تامر سیمون ، دکترا
در ابتدا منتشر شده در به سمت هوش مصنوعیبشر
این مقاله از موضوعی است که من در ابتدا در آن به اشتراک گذاشتم x، در پاسخ به گفتگوی رو به رشد پیرامون عوامل هوش مصنوعی – همچنین به عنوان عامل AI شناخته می شود.
ظهور آنها در حال تغییر شکل مجدد است که چگونه ما در مورد هوش مصنوعی فکر می کنیم ، و من می خواستم یک توضیح کوتاه در مورد آنچه که هستند ، چه کاری انجام می دهند و چگونه در مورد آنها فکر می کنیم به جلو ارائه دهم.
بیایید با یک نمودار ساده اما واضح شروع کنیم که بیان می کند سه موج هوش مصنوعی، که به نظر من بسیار مفید است.
من این قاب بندی را می پذیرم – و مهمتر از همه ، آنچه نشان می دهد. برای چند سال گذشته ، من بسیاری از ارائه های خود را با نقل قول پایان داده ام:
“شما نمی توانید امواج را متوقف کنید ، اما می توانید گشت و گذار کنید.” – جان کابات زین
این نقل قول اکنون مستقیماً به نیاز رو به رشد متصل می شود سواد هوش مصنوعی، اما عمیق تر از آن است.
در طول تاریخ ، انسانها سعی کرده اند واقعیت را با بررسی آن – چه به عنوان فیلسوفان و چه محققان علمی – درک کنند.
از نظر من ، این امواج تغییرات در توانایی های ما را برای درگیر شدن با واقعیت توصیف می کنند:
- موج اول، AI سنتی (Gofai) ، به ما اجازه داد تجزیه کردن واقعیت و پیش بینی در مورد آن.
- موج دومبا هوش مصنوعی، ما را فعال کرد جیا اولین بار ایجاد واقعیت و تعامل با آن
- موج سوم، عامل AI ، اکنون ما را قادر می سازد مدیریت و کار کردن واقعیت ما
مهم نیست که مدل های زبانی چقدر پیشرفته باشند ، آنها هنوز هم در داخل خود بسته شده اند – صرف نظر از اندازه داده هایی که در آنها آموزش داده شده است.
برای مدیریت و بهره برداری از واقعیت ، هوش مصنوعی – چه سنتی و چه مولد – به قابلیت های جدیدی نیاز دارد که قبلاً وجود نداشت.
اول و مهمتر از همه ، باید قادر به انجام باشد اقدامات در دنیای “واقعی” – ما جهان
این می تواند به معنای تعامل با سایر سیستم ها ، با کل دامنه سازمانی یا اینترنت گسترده تر باشد.
انفجار اخیر علاقه به MCP (پروتکل ارتباطی چندمودال) دقیقاً همین است:
چگونه می توانیم اجازه دهیم این مدل ها اتصال ، ادغام و عمل در سیستم ها و دامنه های مختلف؟
در مراحل اولیه ، عوامل شامل ابزارهای مورد نیاز خود در درون خود بودند.
اما برای جلوگیری از توسعه مجدد ابزارهای دوباره-و سهولت در دسترسی و استفاده از ابزارها توسط مدل های زبانی-Anthropic پروتکل MCP را توسعه داد.
توانایی فراتر از مدل زبان را پیدا کنید و عمل کنید فوق العاده قدرتمند است – اما کافی نیست.
و این من را به این اصطلاح باز می گرداند عامل AI، و چرا من آن را کاملاً قبول نمی کنم.
مدت نماینده از مفهوم نمایندگی – که در مورد ظرفیت تعریف اهداف و مسیر دستیابی به آنهابشر همچنین مستقیماً به ایده حاکمیت متصل می شود – که ما کنترل سرنوشت خودمان را کنترل می کنیم.
بنابراین ، چگونه می توانیم این نوع را ارائه دهیم نمایندگی به AI؟
ما به آن نیاز داریم خودمانی – برای تعریف اهداف خود و اقدام به دستیابی به آنها.
این جایی است که باید از خود بپرسیم – ما چه سطح نظارت انسانی را می خواهیم یا نیاز داریم؟
برای تصمیم گیری در زمینه کارهایی که به آن اختصاص داده شده است ، هوش مصنوعی باید بتواند دلیلبشر
و این مستقیماً از پنج ماه گذشته به یک روند اصلی متصل می شود: ظهور مدلهای زبان استدلالبشر
در بعضی موارد ، حتی ممکن است نیاز به دویدن داشته باشیم دو مدل مختلف این همکاری – یکی برای برنامه ریزی و استدلال و دیگری برای اعدام – برای دستیابی به هدف مورد نظر.
و این دقیقاً همان جایی است که مفهوم تراز مهم می شود
اکنون که سیستم های AI می توانند داشته باشند بوهاما باید اطمینان حاصل کنیم که اهداف آنها – و روشهایی که برای دستیابی به آنها انتخاب می کنند – با ارزش های انسانی ، اهداف و الزامات ایمنی مطابقت دارند.
این همان چیزی است که زمینه تراز همه چیز در مورد:
اطمینان حاصل کنید که سیستم های قدرتمند هوش مصنوعی کاری را که ما می خواهیم انجام دهند ، انجام می دهند ، حتی اگر آنها مستقل تر و تواناتر شوند.
چه در تنظیمات سازمانی ، سیستم های پیچیده و چه در زمینه های اجتماعی گسترده تر ، تراز هوش مصنوعی در حال حاضر فقط یک نگرانی نظری نیست.
سه سطح درگیری انسان در اتوماسیون هوش مصنوعی
- انسان در حلقه – رایج ترین روشی که با آن کار می کنیم هوش مصنوعی امروز: ما یکی از چت های مورد علاقه خود را باز می کنیم ، چیزی می خواهیم ، پاسخ می دهیم – اما همه تصمیمات و اقدامات در کنار ما باقی می مانند.
- انسان روی حلقه – هوش مصنوعی دارای سطح استقلال است و توصیه می کند که چه اقدامی باید انجام شود. انسان توانایی غلبه یا تغییر آن تصمیم را دارد.
- انسان خارج از حلقه – هوش مصنوعی هم تصمیم می گیرد و هم به طور مستقل عمل می کند ، پس از آن انسان یا سازمان را به روز می کند.
حدود سه سال پیش ، ارتش آمریكا آموزه خود را در مورد استقرار نیرو در دوره هوش مصنوعی منتشر كرد – قبل از آنكه هر كس واقعاً بداند كه AI به کجا هدایت می شود.
دکترین براساس روند زیر است:
حس → معقول → تصمیم گیری → عمل
و توصیه می کنم این چارچوب را برای سازمانها و سیستم های هوش مصنوعی مورد نظر یا ساختمانی اتخاذ کنید.
دکترین براساس روند زیر است:
حس → معقول → تصمیم گیری → عمل
و توصیه می کنم این چارچوب را برای سازمانها و سیستم های هوش مصنوعی مورد نظر یا ساختمانی اتخاذ کنید.
این فرایند همچنین به تعیین سطح نظارت یا مشارکت انسان کمک می کند.
برای نشان دادن ، بیایید سیستم گنبد آهن را باز کنیم:
- سیستم های رادار تشخیص دادن تهدیدهای ورودی (حس)
- هسته سیستم تجزیه و تحلیل این که آیا یک موشک احتمالاً در یک میدان باز یا یک منطقه پرجمعیت فرود می آید (معقول باشد)
- سیستم تصمیم گیری کدام تهدید برای رهگیری و جایی که هشدارها باید فعال شوند (تصمیم بگیرید)
- پس اعمال – راه اندازی رهگیری ها به سمت موشک ها که برای مناطق پرجمعیت حرکت می کنند (ACT)
حال می توانیم از خود بپرسیم: درگیری انسان از کجا می خواهیم یا نیاز داریم؟
فقط در عمل نهایی؟ یا همچنین در خود تصمیم؟
یک مثال معاصر: نوشتن کد با کلین
امروز ، کد نوشتن نیز این الگوی را نشان می دهد.
یکی از برنامه های پیشرو برای توسعه دهندگان ، Cline (دستیار برنامه نویسی AI) نامیده می شود که در دو مرحله فعالیت می کند-برنامه ریزی و اجرای.
وقتی از آن می خواهید که مقداری کد بنویسید ، ابتدا درخواست شما را می آموزد ، پس برنامه و یک دوره دقیق عمل را پیشنهاد می کند.
این اتوماسیون سه مرحله اول است – حس → معنا پیدا کنید. تصمیم بگیریدبشر
در پایان آن مرحله ، شما یک برنامه کاری کامل و پیشنهادی دریافت می کنید – که انسان می تواند آن را بپذیرد یا اصلاح کند. در عمل (نوشتن کد) هنوز هم آنهاست.
این یک نمونه واضح دیگر است انسان روی حلقه، اگرچه ماشه اولیه از انسان ناشی می شود.
بازگشت به عوامل AI
همانطور که گفته شد ، اکنون انواع جدیدی از مدلهای استدلال متمرکز داریم.
و همین اواخر ، یک اصطلاح جدید به واژگان هوش مصنوعی پیوست: استنباط زمانبشر
ممکن است پیچیده به نظر برسد ، اما در واقع بسیار ساده است:
چه مدت زمان به شما اجازه می دهد تا مدل خود را “فکر کند” قبل از اینکه پاسخی به شما بدهد؟
به نظر می رسد که برای برخی از کارها ، وقتی به مدل زمان بیشتری برای فکر کردن می دهید ، نتایج بهتر و دقیق تر است.
این شبیه به یک مدیر است که از شما سؤال می کند – برخی از سؤالاتی که می توانید فوراً به آنها پاسخ دهید ، اما برخی دیگر شما را به مکث ، فکر کردن و تأمل نیاز دارند.
بنابراین هنگام طراحی عوامل هوش مصنوعی خود ، در نظر بگیرید نظریه فرآیند دوگانه دانیل کاننمن:
- سیستم 1 – تفکر سریع ، عاطفی ، شهودی
- سیستم 2 – تفکر آهسته ، عمدی و منطقی
در نتیجه
بسیار مهم است که با دقت در نظر بگیرید کدام وظایف در واقع به یک عامل هوش مصنوعی نیاز دارند – و کدام یک نیستبشر
در حال حاضر سهولت و وسوسه بیش از حد در توسعه عوامل برای کارهایی که به هیچ وجه به آنها احتیاج ندارند وجود دارد.
توصیه می کنم روی فرآیندهای طولانی مدت و پویا به عنوان مناسب ترین موارد استفاده برای عوامل هوش مصنوعی-نه کارهای کوتاه و یک طرفه تمرکز کنید.
برای آن ها ، ما احتمالاً به استقلال ، آژانس ، قابلیت های استدلال و مواردی از این دست احتیاج نداریم.
ما به سرعت در حال حرکت هستیم سیستم های چند عامل که در داخل سازمان های ما فعالیت خواهد کرد – با وت در کنار کارمندان انسانی
این بدان معناست که نمایندگان فقط از طریق API یا سیستم های دیگر کار نمی کنند. آنها با ما کار می کنند.
آنها ممکن است ما را در تیم ها قرار دهند ، ایمیل بفرستند یا حتی با ما تماس بگیرند – و این در حال حاضر اتفاق می افتد.
ما به سرعت در حال نزدیک شدن به دنیایی هستیم که نمایندگان هوش مصنوعی فقط سیستم های ما را کار نمی کنند – آنها با ما همکاری می کنند ، در کنار ما همکاری می کنند و حتی ممکن است وظایف خود را نیز انجام دهند.
درک ماهیت آنها ، طراحی آنها با احتیاط و تراز کردن اهداف آنها با ما اختیاری نیست.
این مرحله بعدی در نحوه کار ما است.
منتشر شده از طریق به سمت هوش مصنوعی
منبع: https://towardsai.net/p/machine-learning/what-are-ai-agents-and-how-should-we-think-about-them