به گفته کارشناسان پیشرو در زمینه داده و هوش مصنوعی، سوگیری هوش مصنوعی مولد، که توسط داده های آموزشی مدل هدایت می شود، همچنان یک مشکل بزرگ برای سازمان ها است. این کارشناسان توصیه میکنند که سازمانهای APAC اقدامات پیشگیرانهای را برای مهندسی کردن یا حذف سوگیری انجام دهند، زیرا موارد استفاده مولد هوش مصنوعی را به تولید میرسانند.
ترزا تونگ، مدیر ارشد اجرایی Accenture، به TechRepublic گفت که مدلهای هوش مصنوعی مولد عمدتاً بر روی دادههای اینترنتی به زبان انگلیسی، با دیدگاه قوی آمریکای شمالی آموزش دیدهاند و احتمالاً دیدگاههای رایج در اینترنت را تداوم میبخشند. این مشکلاتی را برای رهبران فناوری در APAC ایجاد می کند.
او گفت: “فقط از منظر زبان، به محض اینکه شما انگلیسی نیستید – اگر در چین یا تایلند و جاهای دیگر هستید – زبان و دیدگاه های خود را در مدل نشان نمی دهید.”
تونگ گفت: فناوری و استعدادهای تجاری مستقر در کشورهای غیر انگلیسی زبان نیز در مضیقه قرار دارند. این نقطه ضعف به این دلیل ظاهر می شود که آزمایش در هوش مصنوعی تولیدی عمدتاً توسط “انگلیسی زبانان و افرادی که بومی هستند یا می توانند با زبان انگلیسی کار کنند” انجام می شود.
در حالی که بسیاری از مدل های پرورش یافته خانگی در حال توسعه هستند، به ویژه در چین، برخی از زبان های منطقه پوشش داده نمی شوند. «این شکاف دسترسی بزرگ خواهد شد، به گونهای که مغرضانه نیز باشد، علاوه بر آن برخی از دیدگاههای غالب در آن مجموعه را تبلیغ میکند. [internet] داده ها،” او گفت.
تعصب هوش مصنوعی می تواند خطرات سازمانی ایجاد کند
Kim Oosthuizen، رئیس هوش مصنوعی در SAP استرالیا و نیوزلند، خاطرنشان کرد که تعصب به جنسیت نیز گسترش می یابد. در یکی مطالعه بلومبرگ از تصاویر تولید شده توسط انتشار پایدارزنان بهرغم نرخهای مشارکت واقعی بالاتر در این حرفهها، بهشدت در تصاویر مشاغل با دستمزد بالاتر مانند پزشکان نشان داده نشدند.
او در جشنواره اخیر SXSW در سیدنی استرالیا به حضار گفت: «این سوگیریهای اغراقآمیز که سیستمهای هوش مصنوعی ایجاد میکنند به عنوان آسیبهای بازنمایی شناخته میشوند. او گفت: «اینها آسیبهایی هستند که با تقویت وضعیت موجود یا با تقویت کلیشهها، گروههای اجتماعی خاصی را تحقیر میکنند.
“هوش مصنوعی فقط به اندازه داده هایی است که روی آن آموزش داده شده است; اگر دادههای اشتباهی به این سیستمها بدهیم، فقط این نتایج را تقویت میکند، و فقط به انجام مداوم آن ادامه میدهد. این همان چیزی است که وقتی داده ها و افرادی که این فناوری را توسعه می دهند دیدگاهی نماینده از جهان نداشته باشند، اتفاق می افتد.
ببینید: چرا پروژه های هوش مصنوعی مولد بدون درک مدیران تجاری با خطر شکست مواجه می شوند؟
اگر کاری برای بهبود داده ها انجام نشود، مشکل می تواند بدتر شود. Oosthuizen به پیشبینیهای متخصصان اشاره کرد که نشان میدهد بخشهای زیادی از تصاویر اینترنت میتوانند بهطور مصنوعی ظرف چند سال تولید شوند. او توضیح داد که «وقتی گروههایی از مردم را در آینده کنار بگذاریم، این کار را ادامه خواهیم داد.»
در مثال دیگری از تعصب جنسیتی، Oosthuizen به یکی از موتورهای پیشبینی هوش مصنوعی اشاره کرد که نمونههای خون را برای سرطان کبد تجزیه و تحلیل میکرد. هوش مصنوعی در نهایت دو برابر بیشتر از زنان احتمال ابتلا به این بیماری را در مردان داشت زیرا این مدل زنان کافی در مجموعه دادهای که برای تولید نتایج استفاده میکرد نداشت.
تونگ گفت تنظیمات بهداشتی نشان دهنده یک خطر خاص برای سازمان ها است، زیرا زمانی که درمان ها بر اساس نتایج مغرضانه توصیه می شوند می تواند خطرناک باشد. برعکس، استفاده از هوش مصنوعی در برنامههای شغلی و استخدام میتواند مشکل ساز باشد، اگر توسط یک انسان در حلقه و یک لنز هوش مصنوعی مسئول تکمیل نشود.
توسعه دهندگان و کاربران مدل هوش مصنوعی باید در مورد تعصب هوش مصنوعی مهندسی کنند
شرکتها باید روشی را که یا مدلهای هوش مصنوعی مولد طراحی میکنند یا مدلهای شخص ثالث را در کسبوکار خود ادغام میکنند، تطبیق دهند تا بر دادههای مغرضانه غلبه کنند یا از سازمانهای خود در برابر آن محافظت کنند.
به گفته تونگ، برای مثال، تولیدکنندگان مدل در حال کار بر روی تنظیم دقیق داده های مورد استفاده برای آموزش مدل های خود با تزریق منابع داده جدید و مرتبط یا با ایجاد داده های مصنوعی برای ایجاد تعادل هستند. یک مثال برای جنسیت استفاده از دادههای مصنوعی است، بنابراین یک مدل نماینده است و «او» را به اندازه «او» تولید میکند.
به گفته تونگ، کاربران سازمانی مدلهای هوش مصنوعی باید به همان روشی که تضمین کیفیت برای کد نرمافزاری یا هنگام استفاده از APIهای فروشندگان شخص ثالث انجام میدهند، سوگیری هوش مصنوعی را آزمایش کنند.
او توضیح داد: «همانطور که تست نرمافزار را اجرا میکنید، این نیز دادههای شما را درست میکند. به عنوان یک کاربر مدل، تمام این تستهای اعتبارسنجی را انجام خواهم داد که به دنبال سوگیری جنسیتی، سوگیری تنوع هستند. این می تواند صرفاً در حول و حوش دقت باشد، مطمئن شویم که ما مقدار زیادی از آن را برای آزمایش چیزهایی که به آنها اهمیت می دهیم، داریم.”
ببینید: آموزش و راهنمایی هوش مصنوعی مشکلی برای کارمندان است
علاوه بر آزمایش، سازمانها باید نردههایی را خارج از مدلهای هوش مصنوعی خود پیادهسازی کنند که میتواند پیش از ارسال خروجیها به کاربر نهایی، تعصب یا دقت را تصحیح کند. تونگ مثالی از شرکتی زد که از هوش مصنوعی مولد برای تولید کدی استفاده میکند که آسیبپذیری جدید پایتون را شناسایی میکند.
من باید آن آسیبپذیری را بپذیرم، و یک متخصص میخواهم که میداند پایتون چند آزمایش ایجاد میکند – این جفتهای پرسش و پاسخ که ظاهر خوب و احتمالاً پاسخهای اشتباه را نشان میدهند – و سپس میخواهم آزمایش کنم. تانگ گفت که آیا این کار را انجام می دهد یا نه.
او افزود: “اگر با خروجی مناسب کار نمی کند، پس باید در مورد آن مهندسی کنم.”
تنوع در صنعت فناوری هوش مصنوعی به کاهش تعصب کمک خواهد کرد
Oosthuizen گفت برای بهبود تعصب جنسیتی در هوش مصنوعی، برای زنان مهم است که “یک صندلی پشت میز داشته باشند.” این بدان معناست که دیدگاههای آنها را در هر جنبهای از سفر هوش مصنوعی شامل میشود – از جمعآوری دادهها، تصمیمگیری تا رهبری. او گفت که این امر مستلزم بهبود درک مشاغل هوش مصنوعی در بین زنان است.
ببینید: Salesforce 5 دستورالعمل برای کاهش تعصب هوش مصنوعی ارائه می دهد
تونگ موافق است که بهبود نمایندگی بسیار مهم است، چه جنسیت، نژاد، سن یا سایر جمعیتشناختیها. او گفت که داشتن تیمهای چند رشتهای «واقعاً کلیدی است» و خاطرنشان کرد که مزیت هوش مصنوعی این است که «امروزه همه نباید دانشمند داده باشند یا بتوانند از این مدلها استفاده کنند».
تونگ توضیح داد: “بسیاری از آن در برنامه است.” بنابراین در واقع کسی است که بازاریابی یا امور مالی یا خدمات مشتری را به خوبی میداند، و فقط به یک مجموعه استعداد محدود نمیشود که، صادقانه بگویم، آنقدر که لازم است متنوع نیست. بنابراین وقتی به هوش مصنوعی امروزی فکر میکنیم، این یک فرصت واقعا عالی است تا بتوانیم این تنوع را گسترش دهیم.»
منبع: https://www.techrepublic.com/article/ai-bias-diversity-sap-accenture-leaders-insights/