طراحی هوش مصنوعی با دوراندیشی: جایی که اخلاق منجر به نوآوری می شود – مجله زمانی AI


هوش مصنوعی در حال تغییر چگونگی تصمیم گیری در همه چیز از مصوبات اعتباری گرفته تا تشخیص مراقبت های بهداشتی است. با این وجود سیستم های هوش مصنوعی خودمختار تر می شوند ، سؤالات مربوط به مسئولیت ، انصاف و اعتماد به نفس ضروری تر از همیشه است. در حالی که عملکرد مدل همچنان به سرعت خود ادامه می دهد ، حفاظت های اخلاقی عقب مانده اند. ما دیگر نمی توانیم با اخلاق به عنوان یک وصله پایین دست برای طراحی بالادست رفتار کنیم. اخلاق باید در پایه های هوش مصنوعی ادغام شود، نه برای کندی نوآوری ، بلکه برای اطمینان از پایدار ، پاسخگو و محور انسان.

شفافیت: نه قرار گرفتن در معرض بلکه مهندسی

شفافیت واقعی هوش مصنوعی در مورد آشکار کردن کد اختصاصی نیست. این در مورد ارائه بینش ساختاری در مورد عملکرد سیستم ها و عواقب آنها است. رهول ب.، که در سیستم های مالی تنظیم شده دیجیتال کار کرده است ، استدلال می کند که توضیح و قابلیت شنیداری را می توان “با طراحی” تعبیه کرد – زیرا آنها در نرم افزار مالی سازگار هستند. او و توپاز هورویتز وکیل مدافع شفافیت معماری: با استفاده از توضیحات مدل-آگنوستیک ، سیاهههای مربوط به حسابرسی و تجسم تصمیم گیری ماسهبازی برای ایجاد مدلهای پیچیده قابل تفسیر بدون به خطر انداختن مالکیت معنوی.

سودیر A. وت نیروج k ورما با تأکید بر اینکه توضیحات باید فراتر از تیم های فنی به تنظیم کننده ها ، حسابرسان و کاربران نهایی گسترش یابد ، این دیدگاه را تکرار کنید. شفافیت یک استراتژی افشای اطلاعات نیست – این یک معماری سیستم است که مسئولیت پذیری را پیش بینی می کند.

تعصب یک اشکال نیست – این یک خطر چرخه عمر است

غالباً ، تعصب هوش مصنوعی به عنوان یک نقص فنی رفتار می شود که فقط توسط توسعه دهندگان برطرف می شود. اما تعصب ساختاری است. به عنوان رام کومار ن. آن را بیان می کند ، شناسایی و پرداختن به آن باید “ورزش تیمی” باشد که شامل مهندسین ، طراحان ، تیم های حقوقی و کاربران نهایی است. آرپنا این نکته را تقویت می کند ، با بیان اینکه کاهش تعصب در هنگام ترکیب ابزارهای فنی ، مانند معیارهای انصاف و داده های مصنوعی ، با فرآیندهای سازمانی مانند نظارت در زمان واقعی و نظارت انسانی در هنگام استقرار ، مؤثر است.

امار چدا یک ظرافت مهم را معرفی می کند: همه تعصبات غیر اخلاقی نیستند. به عنوان مثال ، تقسیم مخاطبان ممکن است ارتباط بازاریابی را ارتقا بخشد. با این حال ، هنگامی که چنین راهکارهایی سوءاستفاده می شوند ، مانند طراحی عمدی لباس زنان با جیب های کوچکتر برای ترویج فروش کیف دستی ، مرز اخلاقی عبور می کند. هوش مصنوعی ما را وادار می کند تا با مقیاس و ظرافت چنین تصمیماتی روبرو شویم ، به ویژه هنگامی که سیستم و نه انسان در حال تماس است.

حاکمیت بیش از اصول نیاز دارد

یک موضوع مشترک در بخش ها ، نیاز به حاکمیت فعال است. Srinivas Chippagiri هشدار می دهد در برابر ممیزی های یک طرفه ، توصیف تعصب به عنوان یک آسیب پذیری مداوم که باید مانند تهدیدهای امنیت سایبری مورد بررسی قرار گیرد. در ضمن ، دیمترو ورنر وت شیلجا گوپتا برای ایجاد تیم های حاکمیت عملکردی با مسئولیت مشترک ، طراحی مدل ، پیروی از قانون ، انطباق قانونی و ارزیابی ریسک استدلال کنید. رهول ب. از این مدل پشتیبانی می کند ، و منشورهای متقابل عملکردی را توصیف می کند که تعصب را نه به عنوان یک مسئله فنی بلکه به عنوان یک چالش طراحی استراتژیک درمان می کنند.

راجش رانجان خاطرنشان می کند که حاکمیت صرفاً داخلی نیست ؛ همچنین شامل مکانیسم های عمومی است. گزارش های شفافیت ، افشای ذینفعان و چارچوب های حسابرسی شخص ثالث در ایجاد اعتماد عمومی بسیار مهم است. بدون بررسی ها و تعادل های قابل مشاهده ، ادعاهای اخلاقی آرزو می شود.

یک چارچوب اخلاق مشترک: فوری ، اما یکنواخت نیست

با وجود تنوع فرهنگی ، نظارتی و صنعتی ، توافق گسترده ای در مورد نیاز به یک چارچوب اخلاقی جهانی وجود دارد. سویانا Grecu این موضوع را به زمینه هایی مانند پزشکی و قانون تشبیه می کند ، جایی که استانداردهای بین المللی بدون قربانی کردن قوام اخلاقی ، سازگاری محلی را قادر می سازد. جونایت هاجا مجموعه ای از اصول اصلی را پیشنهاد می کند: انصاف ، شفافیت ، پاسخگویی ، امنیت و نظارت انسانی. اینها می توانند به عنوان ستون فقرات هر منشور اخلاق عمل کنند ، در حالی که برای اجرای خاص بخش انعطاف پذیر باقی مانده است.

با این حال ، به عنوان سای ساریپالی وت Devendra Singh Parmar احتیاط ، اخلاق فقط توسط دولت ها یا شرکت ها نمی تواند دیکته شود. چارچوب های مؤثر باید از طریق همکاری بین تکنسین ها ، تنظیم کننده ها ، جامعه مدنی و آکادمی ایجاد شوند. اخلاق مبتنی بر صنعت ، گرچه ارزشمند است ، به ندرت می تواند خود را پاسخگو باشد.

اخلاق باید عمدی باشد ، نه مشتاق

شاید واضح ترین راه حل از بینش های مشترک این باشد که هوش مصنوعی اخلاقی باید عمدی باشد. به عنوان هینا گاندی یادداشت ها ، ایجاد “حسابرسان اخلاق” اختصاصی و مسئولیت نهادینه کننده ، برنامه های عملی – نه نظری – است. روحیه سانجی هشدار می دهد که رهبری باید در اوایل روند نتایج اخلاقی داشته باشد. با کشف نقص در پایین دست ، اصلاح آنها بدون آسیب عمومی خیلی دیر است.

این دیدگاه توسط تقویت شده است اخبار EBL وت شیلجا گوپتا، که طرفدار ساختارهای غیر متمرکز اما قابل اجرا هستند. زیرساخت های اخلاقی باید به همان اندازه معماری فنی قوی باشد: به طور مرتب حسابرسی ، شفاف اداره می شود و با مشوق ها گره می زند.

نتیجه گیری: آینده هوش مصنوعی به آنچه در آن ایجاد می کنیم بستگی دارد

AI خنثی نیست. هر مدل منعکس کننده فرضیات ، مشوق ها و ارزش های سازندگان آن است. اگر به تنهایی برای سرعت و کارآیی طراحی کنیم ، سیستمهایی را ایجاد خواهیم کرد که نابرابری های موجود و پاسخگویی مبهم را تقویت می کند. اما اگر ما با وجدان طراحی کنیم – شفافیت ، مدیریت تعصب و ساختار ساختار – ما می توانیم سیستمهایی بسازیم که به جای جایگزینی آن ، از شکوفایی انسان پشتیبانی کنند.

اخلاق برعکس نوآوری نیست. این همان چیزی است که باعث می شود نوآوری ارزش اعتماد داشته باشد.



منبع: https://www.aitimejournal.com/designing-ai-with-foresight-where-ethics-leads-innovation/52622/