مدیریت AI در زمان واقعی: چرا اعتماد نمی تواند صبر کند – مجله زمانی AI


هوش مصنوعی در حال پیشرفت با سرعت شکافته است ، اما اعتماد ، پاسخگویی و نظارت هنوز عقب مانده است. از آنجا که از سیستم های هوش مصنوعی به طور فزاینده ای برای تصمیم گیری در مورد شغل ، سلامت ، اعتبار ، استفاده می شود آموزش، و حقوق مدنی ، گروهی رو به رشد رهبران خواستار مسئولیت پذیر است دولت این باعث می شود بدون اینکه آن را خفه کند ، نوآوری را حفظ کند.

سوال اصلی: چگونه سریع حرکت کنیم و اعتماد ایجاد کنیم؟

“اگر ما از هوش مصنوعی برای انتخاب هایی استفاده می کنیم که بر افرادی مانند دسترسی آنها به خدمات ، مشاغل یا درمان عادلانه تأثیر می گذارد ، باید در مورد نحوه عملکرد آن روشن باشیم و چه کسی مسئول آن نیست.” روحیه سانجیبشر “شاید جواب یک قانون بزرگ برای همه چیز نباشد ، اما چک های هوشمند بر اساس میزان خطر سیستم خطرناک است.”

در زیر ، ما بینش های کلیدی از رهبران صنعت ، محققان و کارشناسان مدیریت هوش مصنوعی در مورد چگونگی مسئولیت پذیری در مقیاس هوش مصنوعی ضمن محافظت از اعتماد عمومی ، سنتز کرده ایم.

نه یک قانون – اما بسیاری از افراد باهوش

مقررات پتو کار نمی کند. در عوض ، متخصصان طرفدار آن هستند چارچوب های سطح ریسک که از نگهبانان قوی تر در سیستم های AI با تأثیر بالاتر استفاده می شود. به عنوان محمد سید توضیح می دهد ، “نظارت بر نظارت بر آسیب های احتمالی ، به تنظیم مقررات با تغییرات سریع فناوری کمک می کند.”

قانون AI اتحادیه اروپا ، آیدا کانادا و مدلهای ویژه بخش ویژه چین همه به یک اشاره می کنند آینده تنظیم تطبیقی، جایی که نوآوری و پاسخگویی می تواند همزیستی داشته باشد.

حاکمیت توسط طراحی ، نه به عنوان پیچ و مهره

حاکمیت نمی تواند یک نتیجه باشد. از جمع آوری داده ها تا استقرار ، AI مسئول باید باشد در فرایند توسعه پخته شدبشر

می گوید: “حاکمیت واقعی هوش مصنوعی فقط مربوط به انطباق نیست ؛ بلکه مربوط به اعتماد به نفس در مقیاس است.” رجش سورهبشر این شامل مستندات مدل ، ردیابی داده های داده و ممیزی مداوم تعصب است.

رام کومار نیمیماکالا خواستار هر مدل برای ارسال با “صورتحساب مواد” است که فرضیات ، خطرات و موارد استفاده مصوب خود را با نقاط شکست خودکار در صورت تغییر نشان می دهد.

انسان ها را در حلقه نگه دارید – و روی قلاب

در حوزه های حساس مانند مراقبت های بهداشتی ، منابع انسانی یا امور مالی ، هوش مصنوعی باید تصمیمات را پشتیبانی کنید ، آنها را جایگزین نکنیدبشر

آنیل پانتانگی می گوید: “جریان های کار با قضایی ، و دارای قضاوت ، نیاز به نظارت انسانی برای اطمینان از انصاف و همدلی دارند.”

چندین همکار بر اهمیت تأکید کردند ساختارهای پاسخگویی را پاک کنید، با اینكه رام كومار نیمیماكایالا حتی به متخصصان چرخان در “برج های كنترل AI” 24/7 پیشنهاد می دهد تا مدل های پرخطر را در طبیعت نظارت كند.

از اصول تا تمرین

اکنون اکثر سازمان ها مقادیری مانند شفافیت و انصاف را ذکر می کنند ، اما تبدیل آنها به عمل ، ساختار می گیرد. اینجا جایی است که داخلی است چارچوب های حاکمیت هوش مصنوعی وارد شوید

شیلجا گوپتا چارچوب هایی را که “هویت ، پاسخگویی ، اجماع اخلاقی و قابلیت همکاری” در اکوسیستم های هوش مصنوعی مانند پروتکل Loka قرار داده اند ، برجسته می کند.

سانات چیللاکلا مراحل عملی مانند ممیزی های تعصب ، پروتکل های انسانی در حلقه ، استفاده از فرآیندهای تأیید مورد و کنترل نسخه مدل را تشریح می کند-همه بخشی از سیستم های AI ساختمان قابل بحث و قابل اعتمادبشر

پل زدن فناوری ، اخلاق و سیاست

حاکمیت واقعی هوش مصنوعی یک ورزش تیمی است. این فقط یک کار برای تکنسین ها یا تیم های حقوقی نیست – لازم است همکاری متقابل بین محصول ، اخلاق ، حقوقی ، عملیات و جوامع تحت تأثیر.

Sanjay Mood خاطرنشان می کند: “این کمک می کند که افراد مناطق مختلف – فقط فناوری – بخشی از روند باشند.”

چندین رهبر – مانند گایاتری تووا وت پوتام کاکونتلا– نقش کمیته های اخلاق داخلی ، آموزش مداوم و ارتباطات باز با کاربران را به عنوان اهرم مهم برای اعتماد تأکید کنید.

استانداردهای جهانی ، اقدامات محلی

در سراسر جهان ، دولت ها در حال آزمایش با رویکردهای مختلف برای نظارت هوش مصنوعی هستند:

  • در اتحادیه اروپا منجر به مقررات الزام آور می شود.
  • در ما تکیه بر دستورالعمل های آژانس و دستورات اجرایی.
  • چین تراز با سیاست دولت را تقویت می کند.
  • کانادا، انگلستان، و امارات متحده عربی همه در حال بررسی رویکردهای مبتنی بر ریسک و اصل هستند.

می گوید: “در سطح جهانی ، ما شاهد تراز کردن در مورد اصول مشترک مانند انصاف ، شفافیت و ایمنی هستیم.” جان مانکاریوس، حتی به عنوان اجرای محلی متفاوت است.

چارچوب هایی مانند GDPR ، HIPAA و PIPEDA به طور فزاینده ای بر استراتژی های انطباق هوش مصنوعی تأثیر می گذارند. Esperanza Arellano یادداشت هایی در خواستار “منشور حقوق جهانی”.

آینده: قابل توضیح ، بازرسی ، پاسخگو AI

خبر خوب؟ سازمان ها فقط در مورد اخلاق صحبت نمی کنند – آنها عملیاتی کردن آنبشر این بدان معناست که کارت های مدل ، مسیرهای حسابرسی ، نظارت بر زمان واقعی و برنامه های پاسخ به حادثه دیگر اختیاری نیستند.

رام کومار نیماکایالا می گوید: “عرشه های استراتژی تعصب را به خود جلب نمی کنند. حاکمیت باید به همان اندازه اخلاقی فنی باشد.

به قول راجش رانجان: “این فقط مربوط به جلوگیری از آسیب نیست. حاکمیت در مورد هدایت نوآوری برای تراز کردن با ارزش های انسانی است.”

نتیجه گیری: اعتماد زیرساخت واقعی است

برای مقیاس AI با مسئولیت پذیری ، ما به مدل های بیش از مدل های خنک یا لیست های نظارتی نیاز داریم. ما به سیستم هایی نیاز داریم که مردم می توانند درک ، سوال و اعتمادبشر

چالش پیش رو فقط ایجاد هوش مصنوعی بهتر نیست. این ساختمان است حاکمیتی که با سرعت AI حرکت می کند در حالی که مردم را در مرکز نگه می دارد.



منبع: https://www.aitimejournal.com/ai-governance-in-real-time-why-trust-cant-wait/52872/

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *