از زمانی که ChatGPT و دیگر سیستمهای هوش مصنوعی مولد به طور گسترده محبوب و قابل دسترسی شدند، بحث در مورد خطرات امنیتی آنها قابل توجه بوده است. پرداختن به پیامدهای مخرب سوگیری کنترل نشده نیز به همان اندازه مهم است.
تعصب هوش مصنوعی زمانی اتفاق میافتد که دادههای آموزشی یک سیستم هوش مصنوعی مغرضانه باشد یا نماینده کل جمعیت نباشد، که منجر به نتایج پیش داوری میشود. به عنوان مثال، یک سیستم غربالگری برنامه مبتنی بر هوش مصنوعی می تواند نامزدهای مرد را برای مشاغل خاصی در اولویت قرار دهد. به طور مشابه، هنگامی که سریعاً “افراد در حال بررسی اسناد در حالی که با غذا احاطه شده اند” داده می شود، یک تولید کننده تصویر هوش مصنوعی ممکن است تصویری تولید کند که در آن فقط مردان در حال کار نشان داده می شوند در حالی که زنان به تصویر کشیده می شوند.
برای اینکه هوش مصنوعی مولد به طور موثر استفاده شود و برای کسب و کار شما کار کند، این فناوری باید مسئولانه و اخلاقی مورد استفاده قرار گیرد، و این شامل بدون تعصب می شود. برای دستیابی به این مهم، درک تمام عوامل مختلفی که در تعصب در هوش مصنوعی نقش دارند، مهم است:
-
کلیشه سازی: تعصبات انسانی و کلیشهها در دادهها نه تنها تداوم مییابد، بلکه گاهی اوقات توسط سیستمهای هوش مصنوعی تقویت میشود که منجر به رفتار ناعادلانه میشود.
-
سوگیری تایید: توسعه دهندگان به طور ناخودآگاه از داده هایی حمایت می کنند که باورها یا مفروضات خود را تأیید می کند و منجر به الگوریتم های هوش مصنوعی مغرضانه می شود.
-
سوگیری برچسب زدن: انسانها هنگام برچسبگذاری دادهها، تعصبات خود را تزریق میکنند که منجر به مجموعههای آموزشی منحرف و مدلهای مغرضانه میشود.
-
سوگیری نمایندگی: اگر گروه های خاصی در فرآیند توسعه کمتر حضور داشته باشند، دیدگاه ها و نیازهای آنها ممکن است به اندازه کافی در نتایج بررسی نشود.
-
تعصب فرهنگی: هنجارها و ارزشهای فرهنگی انسانی میتوانند بر سیستمهای هوش مصنوعی تأثیر بگذارند و منجر به تصمیمگیریهای مغرضانه یا تفسیرهایی شوند که منعکسکننده سوگیریهای جامعهای هستند که در آن توسعه یافتهاند.
-
تعصب در دسترس بودن: دادههای در دسترس ممکن است بر اطلاعات کمتر در دسترس اولویت داده شوند که منجر به نتیجهگیری یا توصیههای جانبدارانه شود، برای مثال، برنامههای جمعآوری اخبار.
-
سوگیری حلقه بازخورد: سوگیری های موجود با تقویت الگوهای داده، ایجاد یک حلقه بازخورد که نابرابری یا تبعیض را تداوم می بخشد، تشدید می شود.
بهترین شیوه های پیشگیری
درک اشکال مختلف تعصب هوش مصنوعی مهم است، بنابراین ما سیستمهای هوش مصنوعی منصفانه و مؤثری را ایجاد میکنیم. در اینجا چند روش پیشرو برای اطمینان از اینکه سیستم هوش مصنوعی شما از داده های تمیز و خروجی نتایج با کیفیت استفاده می کند، آورده شده است:
-
اجرای نظارت سرتاسری: سوگیری را می توان در مراحل مختلف جمع آوری داده ها یا فرآیند توسعه مدل معرفی کرد. نظارت و مدیریت چرخه عمر مدل مهم است، نه فقط شروع فرآیند.
-
اعتبارسنجی داده ها: مراقب موارد پرت باشید و اطمینان حاصل کنید که همه افرادی که روی فعالیتهای داده کار میکنند، به عنوان مثال، برچسبگذاری دادهها، به یک روش به دادهها نزدیک میشوند. از ورود سوگیری های فردی در هر نقطه از چرخه زندگی جلوگیری کنید.
-
در محدوده مورد نظر بمانید: در برون یابی داده ها یا مدل ها برای استفاده از مواردی که برای رسیدگی به آنها طراحی نشده است، احتیاط کنید.
-
اطمینان از تنوع: اطمینان حاصل کنید که سازمان مدیریت هوش مصنوعی شما از مجموعه متنوعی از سهامداران تشکیل شده است. برای حفظ تنوع افکار و دیدگاههای منحصربهفرد در فرآیندهای توسعه و نظارت مدل خود، ویژگیهای جمعیتی و همچنین نقش و عمق تجربه آنها را در سراسر شرکت در نظر بگیرید.
-
اولویت بندی تست و بهینه سازی: برای اطمینان از عملکرد بهینه، اغلب آزمایشهای سیستم هوش مصنوعی را انجام دهید. علاوه بر این، از بازخورد مداوم برای بهبود مدل خود استفاده کنید.
-
ارتقاء آگاهی و آموزش کاربر: اطمینان حاصل کنید که کاربران از خطر سوگیری هوش مصنوعی آگاه هستند، آنها را آموزش دهید تا سوگیری را شناسایی کنند و منابع لازم را برای ارائه بازخورد و اصلاح مناطق مشکل در اختیار آنها قرار دهید.
-
رویکرد انسان در حلقه را حفظ کنید: یک فرآیند حاکمیت مدلی داشته باشید که شامل نظارت انسانی مداوم و مستمر باشد، به عنوان مثال، حسابرسی.
مانند هر فناوری جدید، سرعت پذیرش نباید از استفاده ایمن، مسئولانه و اخلاقی فراتر رود. درک اشکال مختلف سوگیری هوش مصنوعی در هوش مصنوعی مولد و انجام اقدامات ذکر شده برای کاهش آنها به سازمان شما کمک می کند تا از مزایای این فناوری تغییر دهنده کسب و کار و در عین حال به حداقل رساندن خطرات استفاده کند.