چگونه می توان از هوش مصنوعی با خیال راحت استفاده کرد؟ محققان متخصص وزن دارند


در تعامل با یک تراشه AI مجازی.
تصویر: سهام Shutter2U/Adobe

تمرکز مهم تحقیقات هوش مصنوعی بهبود واقعیت و اعتماد به نفس یک سیستم هوش مصنوعی است. حتی اگر پیشرفت چشمگیری در این زمینه ها حاصل شده باشد ، برخی از متخصصان هوش مصنوعی بدبین هستند که در آینده نزدیک این مسائل حل می شود. این یکی از یافته های اصلی گزارش جدید انجمن پیشرفت هوش مصنوعی (AAAI) است که شامل بینش متخصصان موسسات مختلف دانشگاهی (به عنوان مثال ، MIT ، هاروارد و دانشگاه آکسفورد) و غول های فناوری (به عنوان مثال ، مایکروسافت و IBM) است.

هدف از این مطالعه تعریف روندهای فعلی و چالش های تحقیق برای ایجاد هوش مصنوعی تر و قابل اعتماد تر بود تا از این فناوری با خیال راحت استفاده شود. وی خاطرنشان كرد: این گزارش شامل 17 موضوع مربوط به تحقیقات هوش مصنوعی است كه توسط گروه 24 نفری “بسیار متنوع” و محققان هوش مصنوعی با تجربه ، به همراه 475 پاسخ دهنده از جامعه AAAI ، همراه است. در اینجا نکات برجسته ای از این گزارش تحقیق AI آورده شده است.

بهبود اعتماد و واقعیت سیستم هوش مصنوعی

اگر اظهارات دروغین را تولید نکند ، یک سیستم هوش مصنوعی واقعی در نظر گرفته می شود ، و با توجه به معیارهایی مانند درک انسان ، استحکام و ادغام ارزشهای انسانی ، می توان اعتماد آن را بهبود بخشید.

سایر معیارهای مورد توجه ، تنظیم دقیق و تأیید خروجی دستگاه و جایگزین کردن مدل های پیچیده با مدل های قابل درک ساده است.

ببینید: چگونه می توان AI را قابل اعتماد نگه داشت از حق بیمه TechRepublic

اخلاق و ایمن تر هوش مصنوعی

براساس این گزارش ، هوش مصنوعی محبوب تر می شود و این امر نیاز به مسئولیت بیشتری برای سیستم های هوش مصنوعی دارد. به عنوان مثال ، تهدیدهای نوظهور مانند جرایم سایبری AI و سلاح های خودمختار ، به همراه پیامدهای اخلاقی تکنیک های جدید هوش مصنوعی نیاز به توجه فوری دارند.

از جمله مهمترین چالش های اخلاقی ، مهمترین نگرانی های پاسخ دهندگان این بود:

  • اطلاعات نادرست (75 ٪)
  • حریم خصوصی (58.75 ٪)
  • مسئولیت (49.38 ٪)

این نشانگر شفافیت ، پاسخگویی و توضیح بیشتر در سیستم های هوش مصنوعی است. و ، این نگرانی های اخلاقی و ایمنی باید با همکاری بین رشته ای ، نظارت مداوم و مسئولیت واضح تر مورد بررسی قرار گیرد.

پاسخ دهندگان همچنین موانع سیاسی و ساختاری را ذکر کردند ، “با نگرانی که ممکن است پیشرفت معنی دار توسط حاکمیت و اختلافات ایدئولوژیک مانع شود.”

ارزیابی هوش مصنوعی با استفاده از عوامل مختلف

محققان این پرونده را مطرح می کنند که سیستم های AI “چالش های ارزیابی منحصر به فرد” را معرفی می کنند. رویکردهای ارزیابی فعلی بر روی آزمایش معیار تمرکز دارند ، اما آنها گفتند که باید به قابلیت استفاده ، شفافیت و پیروی از دستورالعمل های اخلاقی توجه بیشتری شود.

اجرای عوامل هوش مصنوعی چالش هایی را معرفی می کند

عوامل هوش مصنوعی از حل مسئله خودمختار به چارچوب های هوش مصنوعی تبدیل شده اند که باعث افزایش سازگاری ، مقیاس پذیری و همکاری می شوند. با این حال ، محققان دریافتند که معرفی AI عامل ، ضمن ارائه تصمیم گیری انعطاف پذیر ، در مورد کارآیی و پیچیدگی ، چالش هایی را ایجاد کرده است.

نویسندگان این گزارش اظهار داشتند که ادغام هوش مصنوعی با مدل های تولیدی “نیاز به تعادل سازگاری ، شفافیت و امکان سنجی محاسباتی در محیط های چند عامل دارد.”

جنبه های بیشتر تحقیقات هوش مصنوعی

برخی دیگر از موضوعات مرتبط با تحقیقات هوش مصنوعی تحت پوشش گزارش AAAI شامل پایداری ، هوش عمومی مصنوعی ، منافع اجتماعی ، سخت افزار و جنبه های ژئوپلیتیکی.



منبع: https://www.techrepublic.com/article/news-ai-research-aaai/

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *