Accenture، رهبران SAP در مورد مشکلات و راه حل های تنوع


به گفته کارشناسان پیشرو در زمینه داده و هوش مصنوعی، سوگیری هوش مصنوعی مولد، که توسط داده های آموزشی مدل هدایت می شود، همچنان یک مشکل بزرگ برای سازمان ها است. این کارشناسان توصیه می‌کنند که سازمان‌های APAC اقدامات پیشگیرانه‌ای را برای مهندسی کردن یا حذف سوگیری انجام دهند، زیرا موارد استفاده مولد هوش مصنوعی را به تولید می‌رسانند.

ترزا تونگ، مدیر ارشد اجرایی Accenture، به TechRepublic گفت که مدل‌های هوش مصنوعی مولد عمدتاً بر روی داده‌های اینترنتی به زبان انگلیسی، با دیدگاه قوی آمریکای شمالی آموزش دیده‌اند و احتمالاً دیدگاه‌های رایج در اینترنت را تداوم می‌بخشند. این مشکلاتی را برای رهبران فناوری در APAC ایجاد می کند.

او گفت: “فقط از منظر زبان، به محض اینکه شما انگلیسی نیستید – اگر در چین یا تایلند و جاهای دیگر هستید – زبان و دیدگاه های خود را در مدل نشان نمی دهید.”

تونگ گفت: فناوری و استعدادهای تجاری مستقر در کشورهای غیر انگلیسی زبان نیز در مضیقه قرار دارند. این نقطه ضعف به این دلیل ظاهر می شود که آزمایش در هوش مصنوعی تولیدی عمدتاً توسط “انگلیسی زبانان و افرادی که بومی هستند یا می توانند با زبان انگلیسی کار کنند” انجام می شود.

در حالی که بسیاری از مدل های پرورش یافته خانگی در حال توسعه هستند، به ویژه در چین، برخی از زبان های منطقه پوشش داده نمی شوند. «این شکاف دسترسی بزرگ خواهد شد، به گونه‌ای که مغرضانه نیز باشد، علاوه بر آن برخی از دیدگاه‌های غالب در آن مجموعه را تبلیغ می‌کند. [internet] داده ها،” او گفت.

تعصب هوش مصنوعی می تواند خطرات سازمانی ایجاد کند

Kim Oosthuizen، رئیس هوش مصنوعی در SAP استرالیا و نیوزلند، خاطرنشان کرد که تعصب به جنسیت نیز گسترش می یابد. در یکی مطالعه بلومبرگ از تصاویر تولید شده توسط انتشار پایدارزنان به‌رغم نرخ‌های مشارکت واقعی بالاتر در این حرفه‌ها، به‌شدت در تصاویر مشاغل با دستمزد بالاتر مانند پزشکان نشان داده نشدند.

او در جشنواره اخیر SXSW در سیدنی استرالیا به حضار گفت: «این سوگیری‌های اغراق‌آمیز که سیستم‌های هوش مصنوعی ایجاد می‌کنند به عنوان آسیب‌های بازنمایی شناخته می‌شوند. او گفت: «اینها آسیب‌هایی هستند که با تقویت وضعیت موجود یا با تقویت کلیشه‌ها، گروه‌های اجتماعی خاصی را تحقیر می‌کنند.

هوش مصنوعی فقط به اندازه داده هایی است که روی آن آموزش داده شده است; اگر داده‌های اشتباهی به این سیستم‌ها بدهیم، فقط این نتایج را تقویت می‌کند، و فقط به انجام مداوم آن ادامه می‌دهد. این همان چیزی است که وقتی داده ها و افرادی که این فناوری را توسعه می دهند دیدگاهی نماینده از جهان نداشته باشند، اتفاق می افتد.

ببینید: چرا پروژه های هوش مصنوعی مولد بدون درک مدیران تجاری با خطر شکست مواجه می شوند؟

اگر کاری برای بهبود داده ها انجام نشود، مشکل می تواند بدتر شود. Oosthuizen به پیش‌بینی‌های متخصصان اشاره کرد که نشان می‌دهد بخش‌های زیادی از تصاویر اینترنت می‌توانند به‌طور مصنوعی ظرف چند سال تولید شوند. او توضیح داد که «وقتی گروه‌هایی از مردم را در آینده کنار بگذاریم، این کار را ادامه خواهیم داد.»

در مثال دیگری از تعصب جنسیتی، Oosthuizen به یکی از موتورهای پیش‌بینی هوش مصنوعی اشاره کرد که نمونه‌های خون را برای سرطان کبد تجزیه و تحلیل می‌کرد. هوش مصنوعی در نهایت دو برابر بیشتر از زنان احتمال ابتلا به این بیماری را در مردان داشت زیرا این مدل زنان کافی در مجموعه داده‌ای که برای تولید نتایج استفاده می‌کرد نداشت.

تونگ گفت تنظیمات بهداشتی نشان دهنده یک خطر خاص برای سازمان ها است، زیرا زمانی که درمان ها بر اساس نتایج مغرضانه توصیه می شوند می تواند خطرناک باشد. برعکس، استفاده از هوش مصنوعی در برنامه‌های شغلی و استخدام می‌تواند مشکل ساز باشد، اگر توسط یک انسان در حلقه و یک لنز هوش مصنوعی مسئول تکمیل نشود.

توسعه دهندگان و کاربران مدل هوش مصنوعی باید در مورد تعصب هوش مصنوعی مهندسی کنند

شرکت‌ها باید روشی را که یا مدل‌های هوش مصنوعی مولد طراحی می‌کنند یا مدل‌های شخص ثالث را در کسب‌وکار خود ادغام می‌کنند، تطبیق دهند تا بر داده‌های مغرضانه غلبه کنند یا از سازمان‌های خود در برابر آن محافظت کنند.

به گفته تونگ، برای مثال، تولیدکنندگان مدل در حال کار بر روی تنظیم دقیق داده های مورد استفاده برای آموزش مدل های خود با تزریق منابع داده جدید و مرتبط یا با ایجاد داده های مصنوعی برای ایجاد تعادل هستند. یک مثال برای جنسیت استفاده از داده‌های مصنوعی است، بنابراین یک مدل نماینده است و «او» را به اندازه «او» تولید می‌کند.

به گفته تونگ، کاربران سازمانی مدل‌های هوش مصنوعی باید به همان روشی که تضمین کیفیت برای کد نرم‌افزاری یا هنگام استفاده از APIهای فروشندگان شخص ثالث انجام می‌دهند، سوگیری هوش مصنوعی را آزمایش کنند.

او توضیح داد: «همانطور که تست نرم‌افزار را اجرا می‌کنید، این نیز داده‌های شما را درست می‌کند. به عنوان یک کاربر مدل، تمام این تست‌های اعتبارسنجی را انجام خواهم داد که به دنبال سوگیری جنسیتی، سوگیری تنوع هستند. این می تواند صرفاً در حول و حوش دقت باشد، مطمئن شویم که ما مقدار زیادی از آن را برای آزمایش چیزهایی که به آنها اهمیت می دهیم، داریم.”

ببینید: آموزش و راهنمایی هوش مصنوعی مشکلی برای کارمندان است

علاوه بر آزمایش، سازمان‌ها باید نرده‌هایی را خارج از مدل‌های هوش مصنوعی خود پیاده‌سازی کنند که می‌تواند پیش از ارسال خروجی‌ها به کاربر نهایی، تعصب یا دقت را تصحیح کند. تونگ مثالی از شرکتی زد که از هوش مصنوعی مولد برای تولید کدی استفاده می‌کند که آسیب‌پذیری جدید پایتون را شناسایی می‌کند.

من باید آن آسیب‌پذیری را بپذیرم، و یک متخصص می‌خواهم که می‌داند پایتون چند آزمایش ایجاد می‌کند – این جفت‌های پرسش و پاسخ که ظاهر خوب و احتمالاً پاسخ‌های اشتباه را نشان می‌دهند – و سپس می‌خواهم آزمایش کنم. تانگ گفت که آیا این کار را انجام می دهد یا نه.

او افزود: “اگر با خروجی مناسب کار نمی کند، پس باید در مورد آن مهندسی کنم.”

تنوع در صنعت فناوری هوش مصنوعی به کاهش تعصب کمک خواهد کرد

Oosthuizen گفت برای بهبود تعصب جنسیتی در هوش مصنوعی، برای زنان مهم است که “یک صندلی پشت میز داشته باشند.” این بدان معناست که دیدگاه‌های آن‌ها را در هر جنبه‌ای از سفر هوش مصنوعی شامل می‌شود – از جمع‌آوری داده‌ها، تصمیم‌گیری تا رهبری. او گفت که این امر مستلزم بهبود درک مشاغل هوش مصنوعی در بین زنان است.

ببینید: Salesforce 5 دستورالعمل برای کاهش تعصب هوش مصنوعی ارائه می دهد

تونگ موافق است که بهبود نمایندگی بسیار مهم است، چه جنسیت، نژاد، سن یا سایر جمعیت‌شناختی‌ها. او گفت که داشتن تیم‌های چند رشته‌ای «واقعاً کلیدی است» و خاطرنشان کرد که مزیت هوش مصنوعی این است که «امروزه همه نباید دانشمند داده باشند یا بتوانند از این مدل‌ها استفاده کنند».

تونگ توضیح داد: “بسیاری از آن در برنامه است.” بنابراین در واقع کسی است که بازاریابی یا امور مالی یا خدمات مشتری را به خوبی می‌داند، و فقط به یک مجموعه استعداد محدود نمی‌شود که، صادقانه بگویم، آن‌قدر که لازم است متنوع نیست. بنابراین وقتی به هوش مصنوعی امروزی فکر می‌کنیم، این یک فرصت واقعا عالی است تا بتوانیم این تنوع را گسترش دهیم.»



منبع: https://www.techrepublic.com/article/ai-bias-diversity-sap-accenture-leaders-insights/

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *