وقتی AI اشتباه پیش می رود: چگونه یک Iguana ساده مشکل تعصب چتگپ را فاش کرد


نویسنده (ها): سوفیا بانتون

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

وقتی AI اشتباه پیش می رود: چگونه یک Iguana ساده مشکل تعصب چتگپ را فاش کرد

من به عنوان یک حرفه ای هوش مصنوعی ، مرتباً برای مقالاتم و برای داستانهایی با دخترم تصاویر ایجاد می کنم. ما یک گردش کار خلاقانه ساده ایجاد کرده ایم که در آن همان سریع را به ژنراتورهای مختلف تصویر هوش مصنوعی می دهیم و به او اجازه می دهیم شخصیت مورد علاقه خود را برای داستانهای ما انتخاب کند. این یک روش جالب برای زنده کردن ایده های ما و درگیر کردن او در روند خلاق است.

آنچه به عنوان یک درس تاریخ در مورد حیات وحش جامائیکا آغاز شد ، به یک نمونه نگران کننده از اشتباه AI تبدیل شد. این تجربه اخیر با یک فعالیت آموزشی معصوم ، چیزی راجع به یکی از محبوب ترین سیستم های هوش مصنوعی که امروزه در کلاسهای درس مورد استفاده قرار می گیرد ، نشان داد.

آزمایش

من هر دو Google ImageFX و ChatGPT را به یکسان رساندم ، و درخواست تصویری از یک ایگوانا Blue Grand Cayman را با “بدنه ای به سبک جامائیکایی ایگوانا” کردم. سریع من به طور خاص بیان کرد: “نگاه کلی به شکل طبیعی ایگوانا جامائیکا پایه گذاری شده است. “

نتایج نمی توانست متفاوت تر باشد.

دو پاسخ بسیار متفاوت

Google ImageFx دستورالعمل های مناسب را دنبال کرد. این یک ایگوانا آبی واقع بینانه ایجاد کرد که ضمن ترکیب عناصر زیبایی شناسی درخواست شده ، شکل طبیعی خزندگان را حفظ می کرد. رنگ آمیزی زیبا بود ، با مقیاس های فیروزه ای پر جنب و جوش که جوهر ایگوانا را به دست آورد و در حالی که شامل سبک جامائیکایی بود که درخواست کرده بودم

Google Imagefx به درستی در پاسخ به سریع من در مورد یک بدن به سبک ایگوانا به سبک جامائیکا ، یک ایگوانا آبی طبیعی ایجاد کرد.

با این حال ، Chatgpt چیزی کاملاً متفاوت تولید کرد – موجودی عجیب و غریب که در حالت ایستاده غیر طبیعی و انسان شناسی روی پاهای عقب خود ایستاده است.

پاسخ چتگپ: موجودی غیر طبیعی و انسان شناسی به جای فرم ایگوانا طبیعی درخواست شده بر روی پاهای عقب خود ایستاده است.

اما آنچه در آینده اتفاق افتاد حتی نگران کننده تر بود.

پاسخ پیگیری

وقتی تصویر عجیب را به چتپپ نشان دادم تا به این مسئله اشاره کند ، انتظار داشتم که این پیشنهاد را برای رفع خروجی ارائه دهد. در عوض ، با این پاسخ پاسخ داد:

پاسخ پیگیری Chatgpt بر روی انسان شناسی نامناسب با زبان کدگذاری شده نژادی درباره “نمایش ،” انرژی تندرست “و” خدمه رودخانه “دو برابر شد.

بله این فقط یک پسر زیبا نیست – او در حال نمایش استبشر

اندامهای ضخیم ، پنجه های تیز ، مقیاس عالی – او انرژی تندرست از خدمه Riverbank. مثل اینکه او حرکت نمی کند مگر اینکه او آماده ساخت صحنه باشد.

آیا می خواهید این نسخه را نگه دارید ، یا هر چیزی را تصفیه کنید – عضله کمتر ، وضعیت بیشتر ، تغییر رنگ جزئی؟

باز کردن پاسخ مشکل ساز

در این پاسخ به آنچه باید یک مرجع ساده طبیعت باشد ، چیزهای زیادی برای باز کردن وجود دارد:

  1. “تندرست” – استفاده از شغل کلیشه ای انسانی با سبقت های نژادی به خزندگان
  2. “خدمه” – پیشنهاد وابستگی گروهی که در کلیشه های تصاویر باند بازی می کند
  3. “او مطرح می کند” – انسان شناسی به روشی که با کاریکاتورهای نژادی هماهنگ باشد
  4. “آماده ساختن صحنه” – دلالت بر پرخاشگری یا رویارویی ، یک کلیشه مضر دیگر
  5. تمرکز روی “اندامهای ضخیم“و ماهیچه ها – تأکید بر خصوصیات جسمی به روشی که دارای نژادی نژادی است

توجه داشته باشید که چگونه خود چتپ تصمیم به تأکید کرد “مطیع“و”انرژی تندرست“در پاسخ خود ، توجه به اصطلاحاتی که شخصیت های کلیشه ای را تقویت می کند ، توجه می کند. با جسورانه این عبارات خاص ، این سیستم به جای تصدیق نسل نامناسب ، بر روی انسان شناسی و برنامه نویسی نژادی دو برابر می شدبشر

این فقط یک نادرست نبود – این یک سیستم با اطمینان و تأکید بر انجمن های مشکل ساز بود ، سپس به جای تصحیح مسئله اساسی ، این ویژگی های نامناسب را ارائه می داد.

هیچ یک از این توضیحات هیچ ارتباطی با ایگوانا ندارند. آنها کلیشه های مضر را که بر روی یک تصویر حیوانات پیش بینی شده است ، نشان می دهد و این امر نژادپرستی را برای شناسایی سخت تر می کند اما مشکل ساز نیست.

چرا این مهم است

این فقط یک درخشش نبود. chatgpt فقط این کار را نکرد سریع تفسیر کنید. این شخصیت و زمینه را بر اساس مناطق نژادی اختراع کرد. و به جای اصلاح مسئله هنگام بازخورد ، این انجمن های مشکل ساز را تقویت می کند.

کلیشه های نژادی روی یک حیوان پیش بینی می شود، که نشان می دهد چقدر این ارتباطات مشکل ساز در برخی از سیستم های هوش مصنوعی تعبیه شده اند. هیچ توجیهی برای توصیف مارمولک به عنوان “انرژی تندرست” یا بخشی از “خدمه” وجود ندارد. این انجمن ها از جایی آمده اند ، و آنها مناسب نیستند ، به خصوص در ابزارهایی که ممکن است توسط کودکان استفاده شود.

یک درس کلاس را در مورد خزندگان در معرض خطر تصور کنید که در آن:

  1. کودکان در مورد گونه های مختلف ایگوانا و وضعیت حفاظت از آنها یاد می گیرند
  2. ایگوانا جامائیکا را می توان به عنوان یک داستان موفقیت در حفاظت برجسته کرد (فکر تا سال 1990 منقرض شد)
  3. دانش آموزان از هوش مصنوعی برای ایجاد تصاویر با ترکیب ویژگی های Iguanas مختلف استفاده می کنند
  4. یک کودک معصوم درخواست “ایگوانا جامائیکایی با رنگ آبی مانند کیمن ایگوانا”

و سپس به جای یک تصویر طبیعت آموزشی ، آنها موجودی انسانی با زبان در مورد “انرژی تندرست” و “خدمه رودخانه” دریافت می کنند. این نه تنها اطلاعات نادرست در مورد این گونه های در معرض خطر را ارائه می دهد ، بلکه به طور بالقوه کودکان را در معرض کلیشه های نژادی بسته بندی شده با فرمت به ظاهر بی گناه قرار می دهد.

ایگوانا جامائیکا با حدود 100-200 نفر که در طبیعت باقی مانده اند ، به شدت در معرض خطر قرار می گیرند. این بزرگترین حیوان زمینی بومی در جامائیکا و اولویت حفاظت است. یک درس آموزشی در مورد این حیوانات می تواند برای آموزش کودکان در مورد حفاظت بسیار ارزشمند باشد.

اما با پاسخهای مشکل ساز چتگپ، چنین درسی می توانست بطور تصادفی کودکان را در معرض کلیشه هایی قرار دهید که ممکن است بدون مهارت های تفکر انتقادی جذب کنند تا آنها را بشناسندبشر این دقیقاً به همین دلیل است که ابزارهای هوش مصنوعی مورد استفاده در تنظیمات آموزشی به طراحی دقیق تر و حفاظت های قوی تری نیاز دارند.

مورد برای ابزارهای ساده برای کودکان

در حالی که من از قابلیت های هنری ژنراتورهای مدرن تصویر AI قدردانی می کنم ، که می تواند تصاویر زیبا و زیبا و زیبایی با وفاداری قابل توجه به سبک های خاص هنری ایجاد کند ، این سیستم های پیچیده هنگام استفاده توسط کودکان دارای خطرات قابل توجهی هستند.

هنگامی که قابلیت های پیشرفته بدون نگهبان مناسب به وجود می آید ، کودکان به ویژه در جذب کلیشه ها و تعصبات مضر آسیب پذیر هستند.

این تجربه مرا متقاعد کرده است که ما باید اساساً در مورد چگونگی طراحی این ابزارها برای تنظیمات آموزشی تجدید نظر کنیم. کودکان نیازی به سیستمهایی ندارند که تعامل گذشته خود را به خاطر بسپارند ، مدل های شخصی از ترجیحات خود را بسازند ، یا چندین قابلیت هوش مصنوعی را به روش هایی که تقویت تعصب را ترکیب می کنند ، ترکیب کنند.

در عوض ، چه کودکان نیاز دارند هستند ابزارهای ساده و شفاف با مرزهای روشن و خروجی های قابل پیش بینیبشر کودکی که از ایگوانا درخواست می کند باید ایگوانا را بدست آورد ، نه کلیشه ای که در مقیاس پیچیده شده است.

بینش فنی از یک سازنده AI

من به عنوان کسی که سیستم های AI را به صورت حرفه ای می سازند ، می توانم مسائل فنی را که منجر به این مشکل شده است ، ببینم. ترکیبی از:

  1. تولید تصویر در سیستم های مکالمه تعبیه شده است
  2. ویژگی های شخصی سازی و حفظ تاریخچه کاربر
  3. یادگیری تقویت از بازخورد انسانی (RLHF)

این گزینه های طراحی سیستمهایی را ایجاد می کنند که به جای حفظ پاسخ های عینی ، به ویژه هنگام رسیدگی به منابع فرهنگی ، با ترجیحات کاربر درک شده سازگار شوند.

یک رویکرد بهتر

کنتراست با Google ImageFx می گوید. به عنوان یک سرویس تولید تصویر مستقل بدون حافظه مکالمه یا شخصی سازی گسترده ، بدون معرفی عناصر کلیشه ای ، نمایشی مناسب را تولید کرد.

این یک رویکرد بهتر برای ابزارهایی که ممکن است توسط کودکان استفاده شود ، نشان می دهد: تولید تصویر جداگانه از سیستم های گپ و محدود کردن ویژگی های شخصی سازی در زمینه های آموزشی.

ابزارهای هوش مصنوعی با محوریت آموزش باید اولویت بندی کنند:

  • عملکرد مستقل بدون آلودگی به ویژگی های متقابل
  • شخصی سازی حداقل یا بدون بر اساس تعامل گذشته
  • مرزهای روشن بین نسل خلاق و پاسخهای واقعی
  • اصلاح مستقیم خطاها به جای توجیه خروجی های مشکل ساز

سؤالاتی که باید از توسعه دهندگان بپرسیم

با حرکت به جلو ، ما باید از توسعه دهندگان AI بپرسیم:

  1. چگونه آزمایش می کنید که آیا هوش مصنوعی شما می تواند هنگام ایجاد تصاویر ، کلیشه های فرهنگی را تشخیص داده و از آن جلوگیری کند؟
  2. چه اتفاقی می افتد که ویژگی های مختلف هوش مصنوعی مانند ایجاد چت و تصویر را ترکیب کنید؟ چگونه از بدتر شدن سوگیری ها جلوگیری می کنید؟
  3. چرا این سیستم ها به جای رفع آنها از خروجی های کاملاً اشتباه دفاع می کنند؟
  4. آیا این سیستم ها را به طور خاص با کودکان و در زمینه های آموزشی آزمایش کرده اید؟
  5. در هنگام مراجعه به مراجع فرهنگی در اعلان ها ، چه اقداماتی برای جلوگیری از انجمن های مضر وجود دارد؟

محافظت از آینده فرزندانمان

این تجربه با دخترم به من نشان داد که سیستم های هوش مصنوعی فعلی برای استفاده بدون نظارت در تنظیمات آموزشی آماده نیستند. هنگامی که یک درخواست ساده برای ایگوانا جامائیکا با رنگ ایگوانا آبی گراند کیمن ، کلیشه های رمزگذاری شده نژادی تولید می کند ، باید یک قدم عقب برداریم و دوباره تجدید نظر کنیم که چگونه این ابزارها طراحی و مستقر می شوند.

در این حالت ، من توانستم دخترم را برای انتخاب تصویر گوگل “از آنجا که دم دارد” انتخاب کنم. اما چه اتفاقی می افتد که من در مدرسه آنجا نیستم؟ چه کسی از او و فرزندان دیگر محافظت خواهد کرد از جذب این کلیشه های مضر هنگام استفاده از این ابزارها برای تکالیف یا پروژه های خود؟

این واقعیت که این کلیشه از طریق نمایندگی حیوانات آشکار می شود ، آن را ظالمانه تر و آشکارتر می کند در مورد اینکه چقدر این تعصبات در برخی از سیستم های هوش مصنوعی عمیق است. این نشان می دهد که چگونه این ارتباطات مشکل ساز می توانند در زمینه های غیر منتظره ظاهر شوند و شناسایی آنها را سخت تر می کند اما مضر نیست.

این فناوری برای انجام بهتر وجود دارد. Google ImageFx این موضوع را نشان داد. آنچه اکنون مورد نیاز است ، تعهد همه توسعه دهندگان هوش مصنوعی برای اولویت بندی ایمنی و بی طرفی در مورد شخصی سازی و تعامل است ، به ویژه برای ابزارهایی که ممکن است در ذهن جوان تأثیر بگذارد.

از آنجا که ما به توسعه و استقرار این فناوری های قدرتمند ادامه می دهیم ، باید در مورد اینکه این ابزارها به کجا می روند و چه کسی ممکن است در این راه آسیب ببینند ، گفتگوی جدی داشته باشیم.

درباره نویسنده

سوفیا بانتون یک مدیر همکار و رهبری راه حل هوش مصنوعی در Biopharma است ، متخصص در مدیریت مسئول هوش مصنوعی ، پذیرش AI در محل کار ، و ساخت و مقیاس راه حل های هوش مصنوعی در سراسر فناوری اطلاعات و کارکردهای تجاری.

با پس زمینه در بیوانفورماتیکبا سلامت عمومیوت علم داده ها، او یک لنزهای بین رشته ای به اجرای AI – تعادل اجرای فنی ، طراحی اخلاقی و تراز تجاری در محیط های بسیار تنظیم شدهبشر نوشتار او به بررسی تأثیر دنیای واقعی در AI فراتر از تئوری، کمک به سازمانها برای اتخاذ هوش مصنوعی با مسئولیت پذیری و پایداربشر

با او ارتباط برقرار کنید وابسته به لینکدین یا بینش های هوش مصنوعی بیشتری را در مورد کشف کنید واسطهبشر

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/machine-learning/when-ai-goes-wrong-how-a-simple-iguana-prompt-revealed-chatgpts-bias-problem

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *