نحوه استفاده از هوش مصنوعی برای آینده ای اخلاقی و پایدار


پتانسیل هوش مصنوعی هیجان انگیز است، زیرا بسیاری از سازمان ها برای پذیرش این فناوری نسل بعدی عجله دارند، که می تواند و باید برای ایجاد ارزش برای همه جامعه استفاده شود. هوش مصنوعی می تواند نتایج عادلانه ای را برای همه فراهم کند و به ساخت جامعه ای کاملاً فراگیر کمک کند. نمونه بارز این موضوع این است که چگونه هوش مصنوعی می تواند از افرادی که شرایط دسترسی دارند پشتیبانی کند. با این حال، نکات منفی برای مردم و کره زمین وجود دارد که اغلب نادیده گرفته می شوند.

برای ایجاد ارزش واقعی برای جامعه و محیط زیست، مهم است که به تأثیر کلی هوش مصنوعی نگاه کنیم. ما باید به حداکثر رساندن اثرات مثبت هوش مصنوعی در حالی که هرگونه تأثیر منفی را به حداقل برسانیم. این به معنای اخلاقی و پایدار کردن هوش مصنوعی، کاهش اثرات مضر آن و افزایش مزایای آن است.

بررسی هوش مصنوعی

در بیشتر موارد، هوش مصنوعی برای تقویت سوگیری های مضر یا آسیب رساندن به محیط ایجاد نمی شود، اما پتانسیل انجام هر دو را دارد. به عنوان مثال، انجمن ملی برای پیشرفت رنگین پوستان (NAACP)، یک سازمان حقوق مدنی در ایالات متحده، از قانونگذاران خواسته است تا استفاده از پلیس پیش بینی و هوش مصنوعی در اجرای قانون. در حالی که هدف این ابزار کمک به اجرای قانون است، شواهد زیادی وجود دارد که می توانند تعصبات نژادی را در نتیجه مشکل جعبه سیاه – جایی که درک نتیجه گیری یا پیش بینی های انجام شده توسط هوش مصنوعی غیرممکن است. به همین دلیل، مواردی از پلیس پیش بینی شده بوده است در قانون هوش مصنوعی اتحادیه اروپا ممنوع شده است و به نظر می رسد که دولت جدید کارگر قوانین و مقررات مشابهی را در مورد استفاده از هوش مصنوعی در سیستم قضایی بریتانیا وضع خواهد کرد.

مرتبط:هوش مصنوعی مولد: وعده یا خطر؟

هوش مصنوعی همچنین می تواند تأثیرات مخربی بر محیط زیست داشته باشد. فناوری دیجیتال تأثیر زیست محیطی بسیار زیادی دارد و بین 3 تا 4 درصد از انتشار گازهای گلخانه ای – بیشتر از هوانوردی – سهم دارد. هوش مصنوعی نیز چهار برابر انرژی مصرف می کند برنامه های ابری استاندارد، که اگر به طور پایدار تامین نشود، بحران آب و هوا را بدتر می کند. با نگاهی به آینده نیز، مراکز داده پشت بسیاری از فناوری هوش مصنوعی امروزی هستند و انتظار می‌رود مصرف انرژی خود را در دو سال آینده دو برابر کنند. بنابراین، اکنون باید برای به حداقل رساندن تأثیر هوش مصنوعی بر روی کره زمین اقدام کرد.

بهترین تمرین برای هوش مصنوعی اخلاقی و پایدار

بنابراین، بهترین تمرین چگونه به نظر می رسد؟ از نظر اخلاقی، این به معنای پاسخ به مشکل جعبه سیاه، افزایش استفاده از هوش مصنوعی قابل توضیح است که در آن عواقب آن قبل از انتشار برای عموم پیش‌بینی می‌شود و استفاده از داده‌ها منعکس‌کننده اصول اعتماد و شفافیت است. این نوع هوش مصنوعی قابل توضیح در حال استفاده است حوزه های خاصی از مراقبت های بهداشتی.

مرتبط:چرا هوش فضایی مرز بزرگ بعدی در مسابقه هوش مصنوعی است؟

از منظر پایداری، شیوه‌های خاصی مانند اولویت‌بندی انرژی‌های تجدیدپذیر برای مراکز داده یا استفاده از داده‌های کمتر و در نتیجه انرژی کمتر، باید در ایجاد هوش مصنوعی گنجانده شوند. این رویکرد به هوش مصنوعی باید از طراحی تا استقرار واضح و روشن باشد و تأثیر منفی هوش مصنوعی بر روی کره زمین را کاهش دهد.

برای سود واقعی جامعه، هوش مصنوعی نباید فقط بر افزایش ارزش مالی تمرکز کند. باید حمایت کند و به عدالت برای همه دست یابد. ابزارهای هوش مصنوعی مانند ChatGPT می‌توانند کارایی را افزایش داده و هزینه‌ها را کاهش دهند، اما می‌توانند تأثیر مثبت بیشتری نیز داشته باشند. به عنوان مثال، “signbot” دستیار هوش مصنوعی توسعه یافته توسط Sopra Steria، IBM و IVèS، یک دستیار مکالمه در زبان اشاره برای جامعه ناشنوایان است.

با طراحی بهتر بودن

هوش مصنوعی باید از نظر طراحی اخلاقی و پایدار باشد. اما این در عمل به چه معناست؟

  1. سازمان‌ها باید ساختارهای حاکمیتی ایجاد کنند که بتواند استفاده غیراخلاقی یا ناپایدار هوش مصنوعی را شناسایی و از آن جلوگیری کند. در بیشتر موارد، سازمان‌هایی که قبلاً انگشتان خود را در سرمایه‌گذاری هوش مصنوعی غوطه‌ور کرده‌اند، این کار را انجام می‌دهند، اما با افزایش استفاده از فناوری، خطر افزایش می‌یابد. هیئت‌های حاکمیتی باید به گونه‌ای طراحی شوند که بتوانند تمام استفاده‌های بالقوه هوش مصنوعی را بررسی کنند و این اختیار را داشته باشند که ملاحظات اخلاقی و پایدار را بر سود ترجیح دهند.

  2. کارکنان باید در مورد اخلاق هوش مصنوعی و پایداری آموزش ببینند. با به دست آوردن دانش برای کمک به کاهش خطرات هوش مصنوعی و ایجاد ارزش، سازمان ها می توانند نوآوری را تسریع بخشند، تمایز را ارتقا دهند و اعتماد مشتری را بالا ببرند. به عنوان مثال، 50٪ از رهبران مسئول هوش مصنوعی، محصولات و خدمات بهتری را در نتیجه عملکرد خود گزارش می دهند تلاش های مسئول هوش مصنوعی. سواد بهبودیافته شامل رویکردهایی مانند اسکن پیامدها برای آشکار کردن تأثیرات ناخواسته هوش مصنوعی، حصول اطمینان از به حداکثر رساندن تأثیرات مثبت هوش مصنوعی و به حداقل رساندن تأثیرات منفی است.

  3. کسب و کارها باید یک بیانیه ماموریت واضح در مورد نحوه استفاده از هوش مصنوعی و ارزشی که به همراه خواهد داشت – از جمله هرگونه ملاحظات اخلاقی و پایداری ایجاد کنند. این نه تنها هدایتی را برای سازمان و کارمندان فراهم می‌کند، بلکه کاتالیزوری برای سازمان‌های همفکر و ذینفعان خواهد بود تا در مورد هوش مصنوعی اخلاقی و پایدار فکر کنند.

چگونه از هوش مصنوعی بیشترین بهره را ببریم

برای اینکه واقعاً بیشترین بهره را از هوش مصنوعی ببریم، باید تأثیرات مثبت آن را تقویت کنیم و موارد منفی را به حداقل برسانیم. هرچه شکاف بین این دو بیشتر باشد، می‌توانیم به ارزش بیشتری دست یابیم و آینده‌ای اخلاقی و پایدار را تضمین می‌کنیم. مهم است که به یاد داشته باشید که گاهی اوقات آسیب ها و نکات منفی هوش مصنوعی آنقدر شدید و غیرقابل قبول است که توسعه و استفاده از آن را متوقف می کند. ما باید در حال حاضر، در حالی که فناوری هنوز در مراحل ابتدایی خود است، برای طراحی مسئولانه قدم برداریم.

سازمان ها باید هنگام تصمیم گیری در مورد هوش مصنوعی از این موضوع آگاه باشند و بر اساس آن عمل کنند. آنها باید همیشه از قانون پیروی کنند و تلاش کنند تا حد ممکن اخلاقی و پایدار باشند. برای دستیابی به این هدف، تأثیر اجتماعی و محیطی گسترده تر باید بخش مهمی از استراتژی کلی هوش مصنوعی آنها باشد. تنها با بحث در مورد خطرات اخلاقی و پایدار، در کنار ارزش تولید شده توسط هوش مصنوعی، احتمالاً آینده موفقی برای این فناوری خواهیم داشت.





منبع: https://aibusiness.com/responsible-ai/how-to-use-ai-for-an-ethical-and-sustainable-future