شفافیت ، انصاف ، مسئولیت: سه ستون اخلاقی AI – AI Time Journal


در سال 2023 ، سرمایه گذاری های جهانی در هوش مصنوعی به 142.3 میلیارد دلار رسید و این رقم به سرعت در حال رشد است. در حالی که شرکت ها در سراسر جهان عجله می کنند که هوش مصنوعی را در فرآیندهای خود پیاده سازی کنند ، سؤالاتی در مورد جنبه اخلاقی این نوآوری ها به طور فزاینده ای در حال افزایش است. با توجه به الف گارتنر مطالعه ، تا سال 2025 ، بیش از 75 ٪ از شرکت ها با چالش های قابل توجهی در رابطه با آنها روبرو خواهند شد اعتماد ، اخلاق و داده ها حریم خصوصی هنگام استفاده از هوش مصنوعی. این موضوعات برای توسعه پایدار مشاغل در دوران تحول دیجیتال بسیار مهم است.

ما در مورد چگونگی یافتن تعادل بین نوآوری و اخلاق با Venkata Ramaiah Turlapati ، یک متخصص شناخته شده در هوش مصنوعی بحث کردیم. آثار او ، “پیامدهای اخلاقی هوش مصنوعی در تصمیم گیری تجارت” وت “نقش هوش مصنوعی قابل توضیح در ایجاد اعتماد”، برای بسیاری از شرکت هایی که راه حل های هوش مصنوعی را اتخاذ می کنند ، بنیادی شده اند. به عنوان یک پزشک و محقق ، Venkata به ده ها سازمان کمک کرده است تا چارچوب های اخلاقی را برای همکاری با هوش مصنوعی و ساخت سیستم هایی که اعتماد کاربر را کسب می کنند ، توسعه دهند.

Venkata ، بیایید با یک سؤال اساسی شروع کنیم: چرا اخلاق هوش مصنوعی به یک مسئله مهم برای مشاغل مدرن تبدیل می شود؟

اخلاق فقط یک کلمه کلیدی نیست. این یک پیش نیاز برای استفاده موفق و طولانی مدت از هوش مصنوعی است. شرکت هایی که با داده های بزرگ کار می کنند با ضرورت توضیح چگونگی تصمیم گیری الگوریتم های خود روبرو هستند. این نه تنها برای انطباق نظارتی بلکه برای حفظ اعتماد مشتری نیز مهم است. به عنوان مثال ، اگر یک سیستم به طور خودکار یک برنامه وام را رد کند ، مشتری حق دارد بداند چرا.

در کار خود ، “پیامدهای اخلاقی هوش مصنوعی در تصمیم گیری در تجارت” ، شما مفهومی از اجرای مسئولیت پذیری AI را پیشنهاد می کنید. آیا می توانید در مورد اصول اصلی این رویکرد توضیح دهید؟

در این کار ، من سه اصل اصلی را بیان کردم: شفافیت ، انصاف و پاسخگویی. شفافیت به این معنی است که الگوریتم ها و داده ها باید برای حسابرسی در دسترس باشند و برای ذینفعان قابل درک باشند. انصاف مستلزم این است که مدل ها از تعصب و تبعیض خودداری کنند. پاسخگویی دلالت بر این دارد که شرکت ها باید افراد یا تیم هایی را که مسئول تصمیمات گرفته شده با استفاده از هوش مصنوعی هستند ، به روشنی تعریف کنند. این رویکرد به به حداقل رساندن خطرات و همچنین ایجاد اعتماد در بین مشتری و شرکا کمک می کند.

چگونه مشاغل می توانند شفافیت تصمیمات محور AI را در عمل تضمین کنند؟

کلید در استفاده از AI قابل توضیح (XAI) نهفته است. در عمل من ، ما متدولوژی هایی را ایجاد کرده ایم که به مؤسسات بانکی کمک می کند تا دلایل تصمیمات خود را برای مشتریان توضیح دهند. این نه تنها تعداد شکایات را کاهش می دهد بلکه باعث افزایش اعتبار شرکت می شود. در یک پروژه ، ما مدل های XAI را اجرا کردیم که داده های مشتری را تجزیه و تحلیل می کنند و توضیحات قابل درک ایجاد می کنند. این به بانک ها کمک کرد تا خطرات قانونی را به میزان قابل توجهی کاهش داده و رضایت مشتری را بهبود بخشد.

تحقیقات شما همچنین به بررسی استفاده از blockchain همراه با هوش مصنوعی برای تقویت شفافیت می پردازد. این چه نتیجه ای حاصل شده است؟

این تحقیق نشان داد که ترکیب blockchain و AI می تواند اعتماد به زنجیره های تأمین را به میزان قابل توجهی بهبود بخشد. در پروژه های ما ، ما خطر جعل محصول و نظارت بیشتر در هر مرحله از زنجیره تأمین را به حداقل رساندیم. در یک مورد خاص ، اجرای blockchain به مشتری کمک کرد تا محصولات خود را مطابق با استانداردهای زیست محیطی متناسب کند ، که به یک مزیت رقابتی قابل توجه تبدیل شد.

شما اغلب بر اهمیت ترکیب هوش مصنوعی با درگیری انسان تأکید می کنید. آیا می توانید نمونه ای از کاربرد موفقیت آمیز از این رویکرد را به اشتراک بگذارید؟

یک مثال مصور ، سیستم انتخاب نامزد خودکار برای فرآیندهای HR است. ما یک الگوریتم ایجاد کردیم که به شرکت ها کمک کرد تا صدها رزومه را تجزیه و تحلیل کنند در حالی که همیشه تصمیم نهایی را به متخصصان منابع انسانی واگذار می کنند. این ترکیب از هوش مصنوعی و تخصص انسانی به ما امکان جلوگیری از تبعیض را داد و به شرکتها کمک کرد تا به سرعت متخصصانی را پیدا کنند که با ارزش های شرکت مطابقت داشته باشند.

آیا می توانید توضیح دهید که چگونه کار می کند و چه نتیجه ای را در عمل به دست آورده است؟

حفظ کارمندان ارزشمند یکی از بزرگترین چالش های امروز برای مشاغل است. سیستم ما عوامل مختلفی را از پیشرفت شغلی تا سطح استرس ، برای شناسایی الگوهای نشان می دهد که ممکن است یک کارمند در نظر داشته باشد ، تجزیه و تحلیل می کند. تیم های منابع انسانی با عمل بر روی این علائم هشدار دهنده اولیه می توانند به مسائل پیشگیرانه بپردازند. به عنوان مثال ، در یک پروژه ، سیستم ما به کاهش گردش مالی 20 ٪ کمک کرد و باعث صرفه جویی در منابع قابل توجهی شرکت شد.

چگونه کار شما در این سیستم در صنعت منابع انسانی به رسمیت شناخته شده است؟

روش و نتایج سیستم ما در کنفرانس بین المللی ITI ارائه شد ، جایی که آنها از طرف متخصصان منابع انسانی در سراسر جهان علاقه زیادی کسب کردند. واضح است که شرکت ها مشتاق راه حل هایی هستند که نه تنها هزینه ها را صرفه جویی می کنند بلکه پویایی محل کار را نیز بهبود می بخشند.

تعصب الگوریتمی اغلب در دنیای هوش مصنوعی مورد بحث قرار می گیرد. آیا با مواردی روبرو شده اید که اصول اخلاقی به جلوگیری از خطاهای جدی سیستم هوش مصنوعی کمک کرده است؟

این یک جنبه بسیار مهم است. در یک پروژه ، ما با یک شرکت بیمه بزرگ کار کردیم ، جایی که یک سیستم هوش مصنوعی خطرات مربوط به برنامه های بیمه را ارزیابی می کند. در حین آزمایش ، متوجه شدیم که الگوریتم به طور ضمنی بر اساس ویژگی های غیرمستقیم در برابر گروه های خاصی از مشتری تبعیض قائل می شود. با اجرای اصول اخلاقی و نظارت مداوم ، ما این مسئله را قبل از استقرار سیستم ، کاملاً دوباره مدل سازی کردیم و میلیون ها دلار شرکت را در ضرر و زیان و دادخواستهای احتمالی پس انداز کردیم.

با توجه به توسعه سریع هوش مصنوعی ، شرکت ها برای جلوگیری از عقب نشینی در اخلاق هوش مصنوعی چه اقدامات خاصی باید انجام دهند؟

مهمتر از همه و مهمتر از همه ، ایجاد یک تیم اختصاصی اخلاق هوش مصنوعی ، از جمله نه تنها متخصصان فنی بلکه وکلا ، جامعه شناسان و کارشناسان امنیتی بسیار مهم است. شرکت ها باید استانداردهای اخلاقی روشن را تدوین کرده و سیستمی را برای ممیزی های الگوریتم منظم اجرا کنند. من اکیداً توصیه می کنم که به ابتکارات بین المللی مانند مشارکت در هوش مصنوعی بپیوندید ، که دسترسی به بهترین شیوه ها را فراهم می کند و به به روز ماندن با آخرین روندها کمک می کند. علاوه بر این ، سرمایه گذاری در آموزش کارمندان در مورد جنبه های اخلاقی کار با هوش مصنوعی ضروری است ، زیرا مردم در نهایت تصمیمات کلیدی می گیرند.

سرانجام ، انتظار دارید که در پنج سال آینده چه پیشرفتی در اخلاق هوش مصنوعی مشاهده کنید؟

من انقلابی را در نحوه نزدیک شدن به شفافیت هوش مصنوعی پیش بینی می کنم. ما در حال حاضر در حال کار هستیم وبلاگ های فناوری این امر به کاربران عادی امکان می دهد الگوریتم های پیچیده “به داخل” از طریق رابط های کاربر پسند “نگاه کنند”. من معتقدم که طی پنج سال ، ما شاهد ظهور استانداردهای اخلاق جهانی هوش مصنوعی خواهیم بود که به اندازه استانداردهای ایمنی یا کیفیت امروزی بسیار مهم خواهد بود. شرکت هایی که شفافیت و پاسخگویی را در اولویت قرار می دهند ، بدون شک رهبر بازار خواهند شد. علاوه بر این ، من اطمینان دارم که هوش مصنوعی اخلاقی به اصلی ترین مزیت رقابتی در عصر دیجیتال تبدیل می شود.

از این گفتگوی جذاب ، ونکاتا بسیار سپاسگزارم. بینش شما غذای عالی را برای فکر در مورد آینده هوش مصنوعی فراهم می کند.

ممنون امیدوارم مکالمه ما به شرکتها کمک کند تا اهمیت جنبه های اخلاقی را هنگام اجرای هوش مصنوعی بهتر درک کنند. از این گذشته ، در پایان ، فناوری باید به مردم خدمت کند ، نه راه دیگر.



منبع: https://www.aitimejournal.com/transparency-fairness-responsibility-the-three-pillars-of-ethical-ai/52195/