چالش های اخلاقی هوش مصنوعی: سوالات بی پاسخ


نویسنده (ها): محمود عبدالعزیز ، دکترا

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

عکس توسط الکس نایت در Unsplash

هوش مصنوعی (AI) دیگر داستان های علمی نیست – در اینجا ، تغییر شکل دادن صنایع ، تأثیرگذاری بر تصمیمات و حتی تغییر نحوه تعامل با جهان. از تشخیص بیماری ها گرفته تا آهنگسازی موسیقی ، یادگیری عمیق سیستم ها قابلیت های حیرت انگیز را نشان می دهند. با این حال ، با قدرت عالی مسئولیت بزرگی به همراه دارد. همانطور که هوش مصنوعی عمیق تر در جامعه ادغام می شود ، سؤالات اخلاقی انتقادی پدیدار می شود:

چگونه اطمینان حاصل کنیم که این سیستم ها با ارزش های انسانی مطابقت دارند؟ و چه کسی تصمیم می گیرد که واقعاً “هوش مصنوعی اخلاقی” چیست؟

آیا می توانیم تعصبات احتمالی را در مدل های هوش مصنوعی شناسایی و کاهش دهیم؟

آیا باید اجازه دهیم که هوش مصنوعی اسلحه سازی شود؟

آیا می توانیم به هوش مصنوعی اعتماد کنیم ، و آیا درک می کنیم که چرا تصمیم خاصی گرفته است؟ به عبارت دیگر ، آیا مدل AI قابل توضیح است؟

این فقط نمونه ای از سؤالاتی است که باید در هر سخنرانی مربوط به هوش مصنوعی ، در آزمایشگاه های تحقیقاتی هوش مصنوعی ، در سازمان های دولتی و جامعه به طور کلی برجسته شود.

در این مقاله به بررسی برخی از معضلات کلیدی اخلاقی در هوش مصنوعی می پردازیم و هر دو خطرات و راه حل های بالقوه را بررسی می کند. بسیاری از سؤالات با پاسخ های پایان باز پرسیده می شود. ما باید به عنوان یک جامعه با هم همکاری کنیم تا پاسخ چنین سؤالات مهم را پیدا کنیم.

مشکل تراز: آموزش ارزشهای انسانی AI

عکس آندره د سانتس در Unsplash

تصور کنید که به یک روبات دستور دهید تا مردم را خوشحال کند. بدون توضیح بیشتر ، ممکن است متوسل شود تا به همه افراد تقویت کننده سروتونین ارائه شود – از نظر فنی هدف خود را انجام می دهد اما با عواقب فاجعه بار. این مسئله تراز ارزش است: اطمینان از درک و پیگیری اهداف سیستم ها به روش هایی که با اهداف انسان مطابقت دارند.

چرا تراز

1. اهداف نادرست (سوء استفاده از بیرونی): هوش مصنوعی برای آنچه ما اندازه گیری می کنیم بهینه می شود ، نه منظور ما. به عنوان مثال: یک هوش مصنوعی شطرنج پاداش برای گرفتن قطعات ممکن است پیروزی را برای طولانی کردن بازی به تعویق بیندازد.

2. یادگیری اشتباه (سوء استفاده درونی): حتی با یک هدف صحیح ، هوش مصنوعی ممکن است استراتژی های ناخواسته را توسعه دهد. به عنوان مثال: یک اتومبیل خودران که برای جلوگیری از برخورد آموزش دیده است ، می تواند به طور نامحدود یخ بزند و نه خطر حرکت.

3. فرهنگ های مختلف اخلاق مختلف را در اولویت قرار می دهند. آیا یک عامل هوش مصنوعی در مصر باید از همان قوانینی که در سوئد پیروی می کند ، پیروی کند؟

آیا هوش مصنوعی می تواند اخلاق داشته باشد؟

برخی از محققان برای آژانس اخلاقی مصنوعی استدلال می کنند ، جایی که هوش مصنوعی تصمیمات اخلاقی می گیرد. رویکردها شامل قوانین از بالا به پایین (به عنوان مثال ، “هرگز به انسان آسیب نرسانید”) ، یادگیری از پایین به بالا (آموزش هوش مصنوعی در مورد داوری های اخلاقی انسان) یا مدل های ترکیبی (ترکیب هر دو).

عکس از نهریزول کادری در Unsplash

اما منتقدین هشدار می دهند: آیا باید اخلاق را به دستگاه ها واگذار کنیم؟

تعصب در هوش مصنوعی: وقتی الگوریتم ها تبعیض قائل می شوند

هوش مصنوعی تعصب را اختراع نمی کند – این نابرابری های اجتماعی موجود را تقویت می کند.

عکس توسط JR Korpa در Unsplash

چگونه تعصب در حال خزیدن است

انواع مختلف تعصب می تواند در مدل های AI وجود داشته باشد. یکی از آنها تعصب داده است. به عنوان مثال ، اگر یک سیستم تشخیص چهره بیشتر در چهره های سفید آموزش دیده باشد ، برای افراد رنگی شکست می خورد.
منبع دیگر تعصب می تواند از حلقه های بازخورد ناشی شود. به عنوان مثال ، ابزارهای پلیس پیش بینی شده در ایالات متحده می توانند محلات سیاه را “جرم بالا” برچسب گذاری کنند ، که منجر به بیش از حد پیمانی و در نتیجه تقویت تعصب می شود.
سرانجام ، تبعیض پنهان می تواند به گونه ای وجود داشته باشد که حتی هنگام حذف نژاد یا جنسیت از داده ها ، هوش مصنوعی هنوز هم می تواند آنها را از متغیرهای دیگر مانند کدهای زیپ یا عادت های خرید استنباط کند.

احتمالاً بسیاری از منابع تعصب دیگر وجود دارد: آیا می توانید به برخی دیگر فکر کنید؟

پیامدهای دنیای واقعی تعصب در هوش مصنوعی

نمونه های زیادی از چنین عواقبی وجود دارد ، من دو مورد از آنها را در زیر لیست خواهم کرد ، اما می توان به بسیاری دیگر فکر کرد.

یک مثال این است که استخدام الگوریتم ها ممکن است زنان را برای مشاغل مرتبط با فناوری رد کنند. مثال دیگر این است که ممکن است یک عامل هوش مصنوعی مراقبت های بهداشتی برخی از بیماران را خطرناک تلقی کند و در نتیجه به طور هدفمند از خطرات بیماری آنها غافل شود.

تعصب مبارزه

به منظور مقابله با تعصب ، چندین راه حل فنی وجود دارد که می توانند به طور مشترک در سیستم های AI عملی اجرا شوند.

به عنوان مثال ، تکنیک های “debiasing” ممکن است در مرحله آموزش مدلهای هوش مصنوعی گنجانیده شود. نمونه هایی از چنین تکنیک هایی آموزش مخالف و اضافه کردن محدودیت های انصاف است.
راه حل دیگر استفاده از متنوع است مجموعه داده ها و توسعه دهندگان را با پیشینه های مختلف استخدام کنید. شفافیت همچنین یک راه حل اساسی است که در آن ، به عنوان مثال ، ما به جوامع آسیب دیده اجازه می دهیم تا در کل فرآیند بازخورد ارائه دهند.

مشکل جعبه سیاه: آیا می توانیم به AI اعتماد کنیم؟

یادگیری عمیق مدل ها اغلب غیر قابل توضیح هستند. حتی سازندگان آنها کاملاً درک نمی کنند که چگونه تصمیم می گیرند. این عدم شفافیت نگرانی های جدی را ایجاد می کند.

عکس توسط تامی دیندر در Unsplash

نمونه های بسیاری از برنامه های مهم هوش مصنوعی وجود دارد که در آن داشتن مدلی قابل توضیح نیست که قابل توضیح نباشد.

به عنوان مثال ، اگر یک عامل هوش مصنوعی بیمار مبتلا به سرطان را تشخیص دهد ، پزشکان باید بدانند که این تشخیص به چه مبنایی رسیده است.
مثال دیگر در سیستم های قضایی است ، جایی که تصمیمات اتخاذ شده در دادگاه ها با استفاده از هوش مصنوعی باید قابل توجیه باشد.

بانکداری همچنین به مدل های قابل توضیح نیاز دارد. اگر یک بانک وام را انکار کند ، متقاضی سزاوار توضیح است.

مقررات و قوانین بسیار اساسی است و بخشی جدایی ناپذیر از راه حل در مورد مشکل توضیح در هوش مصنوعی است. یک مثال آیین نامه حمایت از داده های عمومی اتحادیه اروپا (GDPR) است که “حق توضیح” را برای تصمیمات خودکار اعطا می کند. با این حال ، اجرای این حق در برنامه های مختلف هوش مصنوعی همچنان یک چالش است.

صادقانه بگویم ، سرعتی که چنین مقرراتی در حال انجام است بسیار کندتر از پیشرفت فنی در خود هوش مصنوعی است. این قطعاً یک علامت هشدار دهنده بزرگ است.

Deepfakes ، نظارت هوش مصنوعی و اسلحه سازی

عکس توسط سرگئی کوزنوف در Unsplash

همه خطرات هوش مصنوعی تصادفی نیستند. برخی از سوء استفاده عمدی ناشی می شوند. نمونه هایی از چنین خطرات عبارتند از:

1. ظهور Deepfakes. فیلم های جعلی تولید شده AI می توانند انتخابات را بی ثبات کنند. علاوه بر این ، کلاهبرداران می توانند صداهایی را برای دور زدن برخی از چک های امنیتی کلون کنند.

2. نظارت انبوه یکی دیگر از خطرهای بزرگ است. سیستم اعتباری اجتماعی چین از هوش مصنوعی برای نظارت بر شهروندان استفاده می کند. سیستم های تشخیص چهره می توانند جنایتکاران را اشتباه بگیرند و منجر به دستگیری های نادرست شوند.

3. روبات های قاتل در زیر چتر سلاح های AI خطر بزرگی دارند. به عنوان مثال ، هواپیماهای بدون سرنشین خودمختار می توانند اهداف را بدون نظارت انسانی انتخاب کنند. مباحثه سازمان ملل متحد ممنوعیت چنین سلاح ها ، اما چگونه می توان این کار را اجرا کرد؟

کاهش خطرات فوق نیاز به تلاش مشترک در بین جوامع ، دولت ها ، سازمان های مردم نهاد و غیره دارد.

اقدامات احتمالی شامل توسعه ابزارهای تشخیص برای اعماق است. مقررات سختگیرانه تری قطعاً در مورد نظارت هوش مصنوعی لازم است. سرانجام ، ممنوعیت های اخلاقی روی سلاح های کشنده خودمختار باید اجرا شود.

تأثیرات گسترده تر اجتماعی

تأثیر هوش مصنوعی بر جامعه بسیار زیاد است. لیست کامل چنین تأثیرات احتمالی دشوار خواهد بود. با این حال ، من سعی خواهم کرد که برخی از آنها را در اینجا خلاصه کنم.

1. جابجایی شغلی در مقابل ایجاد: هوش مصنوعی می تواند میلیون ها شغل را از بین ببرد (به عنوان مثال ، رانندگان ، صندوق دار و حتی احتمالاً توسعه دهندگان نرم افزار). با این حال ، تاریخ نشان می دهد که هر زمان که یک فناوری جدید شروع به کار کند ، نقش های جدید پدیدار می شوند. به عنوان مثال ، “اخلاق شناس هوش مصنوعی” اکنون حرفه ای است که در گذشته وجود نداشت. چنین عناوین شغلی جدید ممکن است نیاز به پیشینه گسترده تری نسبت به یک فنی داشته باشد. بر این اساس ، مطالعه فلسفه ، اخلاق و قانون در واقع می تواند برای این مشاغل جدید مربوط به هوش مصنوعی بسیار مهم باشد.

2. هزینه محیط زیست: شرکت های هوش مصنوعی می توانند ردپای کربن قابل توجهی داشته باشند. به عنوان مثال ، آموزش GPT-3 به همان اندازه 60 اتومبیل در یک سال انجام می شود. آیا شرکت های هوش مصنوعی باید انتشار کربن خود را علناً اعلام کنند؟ ما این را به عنوان یکی از سؤالات پایان یافته خود رها می کنیم تا در مورد آن فکر کنیم.

3. چه کسی AI را کنترل می کند؟ غول های فنی مانند Google ، Microsoft و OpenAI بر AI برش حاکم هستند. این خواستار دموکراتیک سازی است که ابزارهای AI برای همه در دسترس هستند ، نه فقط نخبگان. با این حال ، دسترسی تنها مشکل نیست. چنین کنترل متمرکز هوش مصنوعی در دست تعدادی خطر عظیم است که نیاز به تفکر جعبه دارد.

همانطور که آلبرت انیشتین یک بار گفت: “ما نمی توانیم مشکلات خود را با همان تفکر که هنگام ایجاد آنها استفاده کردیم حل کنیم. “

نتیجه گیری: مسیر AI اخلاقی

هوش مصنوعی ذاتاً خوب یا شر نیست – این یک آینه بشریت است و بهترین و بدترین تمایلات ما را منعکس می کند. چالش های کلیدی – تغییر ، تعصب ، شفافیت و سوء استفاده – توجه فوری را جلب می کند.

در نتیجه ، استفاده از مجموعه داده های متنوع تر و تیم های توسعه هوش مصنوعی ، اجرای مقررات هوش مصنوعی قوی تر که مسئولیت پذیری را تضمین می کند ، از اهمیت ویژه ای برخوردار است و باعث افزایش آگاهی عمومی در مورد اخلاق هوش مصنوعی برای جلوگیری از سوء استفاده می شود.

همانطور که هوش مصنوعی تکامل می یابد ، باید چارچوب های اخلاقی ما نیز چنین باشد. هدف این نیست که پیشرفت را متوقف کنیم بلکه عاقلانه آن را هدایت کنیم – حصول این ابزارهای قدرتمند به نفع همه بشریت است ، نه فقط تعداد معدودی از افراد ممتاز.

“ما الگوریتم های خود را شکل می دهیم و پس از آن ، آنها ما را شکل می دهند.”

منابع

S. پرنس ، درک یادگیری عمیق. کمبریج ، MA: The MIT Press ، 2023. موجود: http://udlbook.com

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/artificial-intelligence/the-ethical-challenges-of-artificial-intelligence-unanswered-questions