واقعیت تلخ خطرات هوش مصنوعی


موضوع شفافیت و مقررات هوش مصنوعی از زمان آشفتگی های اخیر در OpenAI، از جمله اخراج و استخدام مجدد مدیر عامل شرکت سام آلتمن، که برخی از مشکلات آشکار در مدیریت هوش مصنوعی در OpenAI و فراتر از آن را برجسته کرد، ادامه یافته است. همراه با هک اخیرکه توسط نیویورک تایمز گزارش شده است، این مجموعه رویدادها مجموعه ای بسیار عمیق تر و شوم تر از خطرات را آشکار می کند که کسب و کارها و دولت ها باید فوراً به آنها رسیدگی کنند، زیرا سرعت توسعه همچنان در حال افزایش است.

شفافیت و مقررات

شفافیت در توسعه هوش مصنوعی دیگر تنها یک بهترین عمل نیست. این یک ضرورت است در حالی که به نظر نمی رسد OpenAI هک سیستم های خود را اشتباه مدیریت کند، گزارش نکردن این حادثه به FBI و عدم شفافیت باعث نگرانی هایی می شود. شفافیت فقط مربوط به رفتار اخلاقی نیست. این در مورد حفظ یکپارچگی سیستم هایی است که به طور فزاینده ای بر زندگی و تصمیمات ما تأثیر می گذارد.

هک

بر اساس گزارش نیویورک تایمز، OpenAI در اوایل سال 2023 هک شد و این نفوذ یک فروم آنلاین داخلی را که برای ارتباطات محرمانه استفاده می شد، هدف قرار داد. در حالی که هیچ داده مشتری یا سیستم اصلی به خطر نیفتد، این حادثه نگرانی های جدی “چه می شود اگر” را ایجاد می کند که آیا هکر به فراتر از سیستم داخلی دسترسی پیدا کند. Mashable گزارش داد که OpenAI به هیئت مدیره و کارمندان خود اطلاع داده است اما گزارش ندادن را انتخاب کرد این حادثه برای FBI، با این تصور که هکر یک فرد خصوصی است و نه یک بازیگر خارجی، اما این تصمیم برای بسیاری از کارمندانی که از تهدیدات بالقوه امنیت ملی می ترسیدند خوشایند نبود.

مرتبط:نقش هوش مصنوعی در املاک و مستغلات

خطرات شوم هوش مصنوعی

اگرچه این هک به ظاهر کم خطر است، اما به خطرات عمیق تری اشاره می کند که در زیر سطح پنهان شده است. فراتر از نقض های داخلی، چشم انداز هشدار دهنده ای وجود دارد که سیستم های هوش مصنوعی برای ارائه اطلاعات نادرست به خطر بیفتند. پتانسیل وجود هوش مصنوعی مسلح شده همانطور که در مقاله ای توسط NCC Group بیان شده است، به خوبی مستند شده است. این خطرات بسیار زیاد است و از دستکاری داده های آموزشی تا بهره برداری از آسیب پذیری های نرم افزاری در حال افزایش است.

اگر بتوان یک سیستم هوش مصنوعی را برای کمک به نوشتن کد آموزش داد، می‌توان آن را برای سوء استفاده از آسیب‌پذیری‌های آن کد آموزش داد. هکرها می توانند هوش مصنوعی را برای ایجاد درهای پشتی در نرم افزار دستکاری کنند که منجر به نقض گسترده داده ها یا حتی حملات سایبری به زیرساخت های حیاتی شود. همان ابزارهایی که برای افزایش بهره وری و نوآوری طراحی شده اند می توانند به ابزاری برای ایجاد اختلال و هرج و مرج تبدیل شوند.

اطلاعات غلط و دستکاری

یکی دیگر از نگرانی های جدی انتشار اطلاعات نادرست است. هوش مصنوعی می تواند اخبار جعلی را تولید و منتشر کند، بر افکار عمومی تأثیر بگذارد و بر نتایج انتخابات تأثیر بگذارد. توانایی ایجاد روایت‌های متقاعدکننده اما نادرست در مقیاس می‌تواند فرآیندهای دموکراتیک را تضعیف کند و اعتماد عمومی به نهادها را از بین ببرد. سناریوهای نگران کننده دیگر شامل مواردی است که هوش مصنوعی به طور ناخواسته اطلاعات محرمانه را افشا می کند یا زمینه رویدادهای تاریخی را تغییر می دهد.

مرتبط:چگونه سیل داده های مولد هوش مصنوعی را رام کنیم

این احتمالات فقط نظری نیستند. آنها خطرات واقعی و فعلی هستند. ادغام فزاینده هوش مصنوعی در زندگی روزمره ما، همانطور که در فناوری هایی مانند Apple Intelligence یا Microsoft CoPilot دیده می شود، تنها این خطرات را افزایش می دهد. در دنیایی که اطلاعات قدرت است، استفاده از هوش مصنوعی برای انتشار دروغ می‌تواند پیامدهای گسترده‌ای داشته باشد.

ریسک زیربنایی

همانطور که هوش مصنوعی فراگیرتر می شود، داستان هشدار دهنده اکنون به طرز نگران کننده ای قابل قبول به نظر می رسد. توانایی بازنویسی تاریخ، تأثیرگذاری بر انتخابات، یا تغییر نامحسوس درک عمومی، دیگر علمی تخیلی نیست. این واقعیتی است که باید با آن روبرو شویم. با حضور رو به رشد هوش مصنوعی، نیاز به نظارت قوی و دستورالعمل های اخلاقی هرگز به این فوریت نبوده است.

فراتر از دیپ فیک ها – محتوای صوتی و تصویری بیش از حد واقعی اما جعلی که برای جعل هویت افراد، انتشار اطلاعات نادرست یا ایجاد محتوای رسوایی که می تواند شهرت را از بین ببرد و خشونت را تحریک کند، استفاده می شود – خطرات برای سیستم ها، مدل ها و داده های اساسی بسیار زیاد است. با دسترسی بیشتر به این فناوری‌ها، موانع ورود عوامل مخرب کاهش می‌یابد.

علاوه بر این، خطر استفاده از هوش مصنوعی برای افشای ناخواسته اطلاعات شخصی یا محرمانه را نمی توان نادیده گرفت. این داده ها می توانند در دستان اشتباه برای سرقت هویت، کلاهبرداری مالی یا باج گیری مورد سوء استفاده قرار گیرند. اعتمادی که ما به سیستم‌های هوش مصنوعی برای مدیریت اطلاعات حساس می‌کنیم باید با اقدامات امنیتی دقیق و دستورالعمل‌های اخلاقی برای جلوگیری از سوء استفاده مطابقت داشته باشد.

تاثیر بر جامعه

تأثیر اجتماعی این خطرات را نمی توان اغراق کرد. با ادغام شدن سیستم های هوش مصنوعی در مراقبت های بهداشتی، مالی و خدمات دولتی، پتانسیل ایجاد اختلال افزایش می یابد. به عنوان مثال، یک سیستم هوش مصنوعی به خطر افتاده در مراقبت‌های بهداشتی می‌تواند منجر به تشخیص‌ها یا برنامه‌های درمانی نادرست شود و زندگی را در معرض خطر قرار دهد. در امور مالی، کلاهبرداری مبتنی بر هوش مصنوعی می تواند منجر به خسارات مالی هنگفت و بی ثباتی بازارها شود. در دولت، دستکاری هوش مصنوعی می تواند خدمات عمومی را تضعیف کند و اعتماد به موسسات را از بین ببرد.

پیامدهای گسترده تر برای امنیت ملی به همان اندازه نگران کننده است. توانایی بازیگران خارجی برای سوء استفاده از آسیب‌پذیری‌های هوش مصنوعی برای جاسوسی یا خرابکاری، یک تهدید مهم است. همانطور که هوش مصنوعی به تکامل خود ادامه می دهد، استراتژی های ما برای محافظت از این سیستم ها نیز باید تکامل یابد. ادغام هوش مصنوعی در سیستم های نظامی و دفاعی بر نیاز به پروتکل های امنیتی سختگیرانه و همکاری بین المللی برای کاهش این خطرات تاکید می کند.

رویدادهای اخیر در OpenAI به عنوان یک زنگ بیدارباش عمل می کند. هک و پیامدهای آن، که در طرح بزرگ چیزها جزئی هستند، نیاز حیاتی به شفافیت، مقررات و مدیریت ریسک فعال را برجسته می کند. همانطور که ما به ادغام هوش مصنوعی در زندگی خود ادامه می دهیم، این مسئله همچنان باقی است: چگونه نوآوری را تشویق می کنید و در عین حال از کاربران و توسعه دهندگان ناخواسته در برابر سوء استفاده، تصادفی یا با اهداف شوم محافظت می کنید؟





منبع: https://aibusiness.com/responsible-ai/ai-s-dark-side-the-grim-reality-of-ai-risks