نظرسنجی CrowdStrike چالش های امنیتی در پذیرش هوش مصنوعی را برجسته می کند


آیا مزایای امنیتی هوش مصنوعی مولد بیشتر از مضرات آن است؟ فقط 39 درصد از متخصصان امنیت می گویند که پاداش ها بیشتر از آن است خطراتطبق گزارش جدید CrowdStrike.

در سال 2024، CrowdStrike 1022 محقق و کارشناس امنیتی را از ایالات متحده، APAC، EMEA و سایر مناطق مورد بررسی قرار داد. یافته‌ها نشان داد که متخصصان سایبری عمیقاً نگران چالش‌های مرتبط با هوش مصنوعی هستند. در حالی که 64 درصد از پاسخ دهندگان هر دو خرید کرده اند ابزارهای مولد هوش مصنوعی برای کار یا تحقیق در مورد آنها، اکثریت محتاط هستند: 32٪ هنوز در حال بررسی ابزارها هستند، در حالی که تنها 6٪ به طور فعال از آنها استفاده می کنند.

محققان امنیتی از هوش مصنوعی مولد به دنبال چه هستند؟

بر اساس این گزارش:

  • بالاترین رتبه انگیزه برای پذیرش هوش مصنوعی مولد پرداختن به کمبود مهارت یا انجام دستورات رهبری نیست – بلکه بهبود توانایی پاسخگویی و دفاع در برابر حملات سایبری است.
  • هوش مصنوعی برای استفاده عمومی لزوماً برای متخصصان امنیت سایبری جذاب نیست. در عوض، آنها خواهان هوش مصنوعی مولد با تخصص امنیتی هستند.
  • 40 درصد از پاسخ دهندگان گفتند پاداش ها و خطرات هوش مصنوعی مولد “قابل مقایسه” هستند. در همین حال، 39٪ گفتند که پاداش ها بیشتر از خطرات است و 26٪ گفتند که پاداش ها اینطور نیست.

در این گزارش آمده است: «تیم‌های امنیتی می‌خواهند GenAI را به‌عنوان بخشی از یک پلتفرم برای به دست آوردن ارزش بیشتر از ابزارهای موجود، ارتقای تجربه تحلیلگر، تسریع در نصب و حذف پیچیدگی یکپارچه‌سازی راه‌حل‌های نقطه‌ای جدید، مستقر کنند.»

اندازه گیری ROI در هنگام استفاده از محصولات هوش مصنوعی مولد یک چالش مداوم بوده است. CrowdStrike دریافت که کمی کردن بازگشت سرمایه به عنوان مهمترین نگرانی اقتصادی در میان پاسخ دهندگان خود است. دو نگرانی بعدی که رتبه اول را داشتند، هزینه صدور مجوز ابزارهای هوش مصنوعی و مدل های قیمت گذاری غیرقابل پیش بینی یا گیج کننده بودند.

CrowdStrike روش های ارزیابی AI ROI را به چهار دسته تقسیم کرد که بر اساس اهمیت رتبه بندی شدند:

  • بهینه سازی هزینه از ادغام پلت فرم و استفاده از ابزار امنیتی کارآمدتر (31%).
  • کاهش حوادث امنیتی (30%).
  • زمان کمتری صرف مدیریت ابزارهای امنیتی (26%).
  • دوره‌های آموزشی کوتاه‌تر و هزینه‌های مرتبط (13%).

CrowdStrike گفت: افزودن هوش مصنوعی به یک پلتفرم موجود به جای خرید یک محصول مستقل هوش مصنوعی می‌تواند «صرفه‌جویی فزاینده‌ای را در ارتباط با تلاش‌های گسترده‌تر یکپارچه‌سازی پلتفرم ایجاد کند».

ببینید: یک گروه باج افزار مسئولیت اواخر نوامبر را بر عهده گرفته است حمله سایبری که عملیات را مختل کرد در استارباکس و سازمان های دیگر.

آیا هوش مصنوعی مولد می تواند مشکلات امنیتی بیشتری نسبت به حل آن ایجاد کند؟

برعکس، خود هوش مصنوعی مولد باید ایمن شود. نظرسنجی CrowdStrike نشان داد که متخصصان امنیتی بیشترین نگرانی را در مورد قرار گرفتن در معرض داده ها با LLM های پشت محصولات هوش مصنوعی و حملاتی که علیه ابزارهای مولد هوش مصنوعی انجام می شود، دارند.

نگرانی های دیگر عبارتند از:

  • فقدان حفاظ یا کنترل در ابزارهای هوش مصنوعی مولد.
  • توهمات هوش مصنوعی
  • مقررات سیاست عمومی ناکافی برای استفاده از هوش مصنوعی مولد.

تقریباً همه (حدود 9 از 10) پاسخ دهندگان گفتند که سازمان های آنها سیاست های امنیتی جدیدی را اجرا کرده اند یا در حال توسعه سیاست هایی در مورد حاکمیت هوش مصنوعی مولد در سال آینده هستند.

چگونه سازمان ها می توانند از هوش مصنوعی برای محافظت در برابر تهدیدات سایبری استفاده کنند

هوش مصنوعی مولد را می توان برای طوفان فکری، تحقیق یا تجزیه و تحلیل استفاده کرد، با این درک که اطلاعات آن اغلب باید دوبار بررسی شود. هوش مصنوعی مولد می‌تواند داده‌ها را از منابع متفاوت به یک پنجره در قالب‌های مختلف بکشد و زمان لازم برای تحقیق در مورد یک حادثه را کوتاه کند. بسیاری از پلتفرم‌های امنیتی خودکار دستیارهای هوش مصنوعی مولد مانند مایکروسافت را ارائه می‌کنند کمک خلبان امنیتی.

GenAI می تواند در برابر تهدیدات سایبری محافظت کند از طریق:

  • شناسایی و تحلیل تهدید
  • پاسخ خودکار حوادث
  • فیشینگ تشخیص
  • تجزیه و تحلیل امنیتی پیشرفته
  • داده های مصنوعی برای آموزش

با این حال، سازمان‌ها باید کنترل‌های ایمنی و حریم خصوصی را به عنوان بخشی از خرید هوش مصنوعی مولد در نظر بگیرند. انجام این کار می تواند از داده های حساس محافظت کند، با مقررات مطابقت داشته باشد و خطراتی مانند نقض داده ها یا سوء استفاده را کاهش دهد. ابزارهای هوش مصنوعی بدون پادمان‌های مناسب می‌توانند آسیب‌پذیری‌ها را آشکار کنند، خروجی‌های مضر ایجاد کنند یا قوانین حفظ حریم خصوصی را نقض کنند که منجر به آسیب مالی، حقوقی و اعتباری شود.



منبع: https://www.techrepublic.com/article/crowdstrike-ai-survey-cybersecurity-trends/