رهبران فناوری اطلاعات می ترسند هزینه های امنیت سایبری AI محور افزایش یابد


رهبران فناوری اطلاعات نگران هزینه های موشکی ابزارهای امنیتی سایبری هستند که با ویژگی های AI در حال غرق شدن هستند. در همین حال ، هکرها تا حد زیادی از هوش مصنوعی فرار می کنند ، زیرا بحث های نسبتاً کمی در مورد چگونگی استفاده از آن در انجمن های جنایات سایبری وجود دارد.

در یک نظرسنجی از 400 تصمیم گیرنده امنیتی IT توسط شرکت امنیتی SOFOS ، 80 ٪ معتقدند که هوش مصنوعی تولیدی به طور قابل توجهی افزایش می یابد هزینه ابزارهای امنیتیبشر این با تحقیقات جداگانه گارتنر که پیش بینی می کند هزینه های جهانی فناوری را برای افزایش تقریباً 10 ٪ امسال افزایش می دهد ، بیشتر به دلیل زیرساخت هوش مصنوعی ارتقاء

تحقیقات سوفوس نشان داد که 99 ٪ از سازمان ها شامل قابلیت های هوش مصنوعی در لیست الزامات سیستم عامل های امنیت سایبری هستند که شایع ترین دلیل آن بهبود محافظت است. با این حال ، تنها 20 ٪ از پاسخ دهندگان این موضوع را دلیل اصلی خود ذکر کردند و این نشانگر عدم اجماع در مورد ضرورت ابزارهای هوش مصنوعی در امنیت است.

سه چهارم رهبران گفتند که اندازه گیری هزینه اضافی ویژگی های هوش مصنوعی در ابزارهای امنیتی آنها چالش برانگیز است. به عنوان مثال ، مایکروسافت به طور بحث برانگیز قیمت را افزایش داد دفتر 365 45 ٪ در این ماه به دلیل گنجاندن کنگرهبشر

از طرف دیگر ، 87 ٪ از پاسخ دهندگان بر این باورند که پس انداز کارآیی مربوط به هوش مصنوعی از هزینه اضافه شده فراتر خواهد رفت ، که ممکن است توضیح دهد که چرا 65 ٪ قبلاً راه حل های امنیتی با هوش مصنوعی را اتخاذ کرده اند. انتشار کم هزینه AI Model Deepseek R1 امیدوار است که قیمت ابزارهای AI به زودی در سراسر صفحه کاهش یابد.

ببینید: Hackerone: 48 ٪ از متخصصان امنیتی معتقدند هوش مصنوعی خطرناک است

اما هزینه تنها نگرانی محققان سوفوس نیست. 84 ٪ قابل توجهی از رهبران امنیتی نگران این هستند که انتظارات زیاد برای توانایی های AI Tools به آنها فشار می آورد تا بتوانند تعداد تیم خود را کاهش دهند. نسبت حتی بزرگتر – 89 ٪ – نگران این هستند که نقص در قابلیت های هوش مصنوعی ابزارها می تواند علیه آنها کار کند و تهدیدات امنیتی را معرفی کند.

محققان سوفوس هشدار دادند: “مدل های هوش مصنوعی با کیفیت و ضعیف اجرا شده می توانند سهواً خطر قابل توجهی از امنیت سایبری خود را معرفی کنند و” زباله های زباله “به ویژه برای هوش مصنوعی مرتبط است.”

مجرمان سایبری به همان اندازه که فکر می کنید از هوش مصنوعی استفاده نمی کنند

براساس تحقیقات جداگانه SOFOS ، نگرانی های امنیتی ممکن است از اتخاذ مجرمان سایبری از اتخاذ هوش مصنوعی به همان اندازه که انتظار می رود ، جلوگیری کند. با وجود پیش بینی های تحلیلگرمحققان دریافتند که AI هنوز در حملات سایبری مورد استفاده قرار نمی گیرد. برای ارزیابی شیوع استفاده از هوش مصنوعی در جامعه هک کردن ، سوفوس پست های مربوط به انجمن های زیرزمینی را مورد بررسی قرار داد.

محققان در سال گذشته کمتر از 150 پست در مورد GPT یا مدل های بزرگ زبان را شناسایی کردند. برای مقیاس ، آنها بیش از 1000 پست در Cryptocurrency و بیش از 600 موضوع مربوط به خرید و فروش دسترسی به شبکه پیدا کردند.

محققان سوفوس نوشتند: “بیشتر بازیگران تهدید در انجمن های جرایم سایبری که ما مورد بررسی قرار دادیم ، به نظر نمی رسد که به ویژه در مورد هوش مصنوعی مولد علاقه مند یا هیجان زده شوند ، و ما هیچ مدرکی از مجرمان سایبری با استفاده از آن برای توسعه سوء استفاده های جدید یا بدافزار پیدا نکردیم.”

یکی از سایت های جرم و جنایت به زبان روسی از سال 2019 دارای یک منطقه هوش مصنوعی اختصاصی است ، اما فقط در مقایسه با بیش از 700 و 1700 موضوع در بخش های بدافزار و دسترسی به شبکه 300 موضوع دارد. با این حال ، محققان خاطرنشان كردند كه این امر را می توان “رشد نسبتاً سریع برای موضوعی كه فقط در دو سال گذشته به طور گسترده ای شناخته شده است” در نظر گرفت.

با این وجود ، در یک پست ، یک کاربر اعتراف کرد که به دلایل اجتماعی برای مبارزه با تنهایی به جای اینکه یک حمله سایبری انجام دهد ، با یک GPT صحبت می کند. کاربر دیگری پاسخ داد: “برای OPSEC شما بد است [operational security]، “در ادامه با اشاره به عدم اعتماد به نفس جامعه به این فناوری.

هکرها از هوش مصنوعی برای هرزنامه ، جمع آوری اطلاعات و مهندسی اجتماعی استفاده می کنند

پست ها و موضوعات ذکر شده AI آن را در تکنیک هایی مانند اسپم ، جمع آوری اطلاعات منبع باز و مهندسی اجتماعی به کار می برند. مورد دوم شامل استفاده از GPT در ایمیل های فیشینگ ایجاد کنید و متون هرزنامه

شرکت امنیتی VIPRE در سه ماهه دوم سال 2024 نسبت به مدت مشابه سال 2023 ، 20 ٪ افزایش حملات سازش ایمیل تجاری را در سه ماهه دوم سال 2024 تشخیص داد. هوش مصنوعی مسئول دو پنجم این حملات BEC بودبشر

پست های دیگر روی آن تمرکز می کنند “فرار از زندان ،” در جایی که به مدل ها دستور داده می شود تا از حفاظت با یک فوریت با دقت ساخته شده استفاده کنند. Chatbots مخرب ، که به طور خاص برای جرایم سایبری طراحی شده است از سال 2023 شیوع داشته است. در حالی که مدل هایی مانند کرم در حال استفاده بوده اند ، موارد جدیدتر مانند شبح هنوز در حال ظهور هستند

فقط چند تلاش “بدوی و با کیفیت پایین” برای تولید بدافزار ، ابزارهای حمله و بهره برداری با استفاده از هوش مصنوعی توسط تحقیقات سوفوس در انجمن ها مشاهده شد. چنین چیزی غافل نیست ؛ در ماه ژوئن ، HP یک کمپین ایمیل را برای پخش بدافزار در طبیعت رهگیری کرد با فیلمنامه ای که “به احتمال زیاد با کمک Genai نوشته شده است.”

پچ پچ در مورد کد تولید شده توسط AI تمایل به همراهی با طعنه یا انتقاد دارد. به عنوان مثال ، در پستی که حاوی کد ظاهراً دست نوشته است ، یک کاربر پاسخ داد ، “آیا این با chatgpt یا چیز دیگری نوشته شده است … این کد به طور ساده کار نخواهد کرد.” محققان سوفوس گفتند که اجماع عمومی این است که استفاده از هوش مصنوعی برای ایجاد بدافزار برای “افراد تنبل و/یا کم مهارت که به دنبال میانبرها هستند” بود.

جالب اینجاست که برخی از پست های ذکر شده به ایجاد بدافزار AI با روشی آرزو ، نشان می دهد که پس از در دسترس بودن این فناوری ، آنها دوست دارند از آن در حملات استفاده کنند. پستی با عنوان “اولین C2 خودمختار AI در جهان” شامل پذیرش بود که “این هنوز هم در حال حاضر فقط محصول تخیل من است.”

محققان نوشتند: “برخی از کاربران همچنین از هوش مصنوعی برای خودکار سازی کارهای روزمره استفاده می کنند.” “اما به نظر می رسد که اجماع این است که بیشتر آنها به هیچ وجه پیچیده تر به آن اعتماد نمی کنند.”



منبع: https://www.techrepublic.com/article/ai-cybersecurity-costs/