از آنجایی که نبرد بین تیمهای امنیت سایبری و بازیگران تهدید شدت میگیرد، هوش مصنوعی مولد یک سلاح حیاتی است. به مجرمان سایبری ابزارهای پیچیده جدیدی داده است تا شناسایی خود را افزایش دهند، ایمیل های فیشینگ را قانع کننده تر کنند و کد بدافزار را در چند ثانیه تولید کنند. جای تعجب نیست که از هر سه رهبر امنیت سایبری، یک نفر حملات سایبری مبتنی بر هوش مصنوعی را یک نگرانی اصلی بداند. برای ایجاد انعطاف پذیری، آنها باید خود را با همان فناوری و مهارت مسلح کنند.
اما قوانین نامزدی ناهموار است. عوامل تهدید مانند مدافعان استانداردهای اخلاقی و مقرراتی وقت گیر را رعایت نمی کنند. در همین حال، عمل به سرعت از سیاست پیشی گرفته است. در حالی که 93٪ از سازمان ها هوش مصنوعی را در برخی از ظرفیت ها پذیرفته اند، بخش قابل توجهی (34٪) فاقد یک خط مشی رسمی AI مولد هستند. برای جلوتر ماندن از مجرمان سایبری و مقررات ورودی، سازمان ها به استراتژی هایی نیاز دارند تا دفاع خود را قبل از مقررات قریب الوقوع دولتی تقویت کنند.
تهدیدها را درک کنید
با توجه به گزارش اخیر دولت بریتانیاخطرات برای سیستمها و جوامع سیاسی احتمالاً با گسترش پذیرش مولد هوش مصنوعی افزایش مییابد. عوامل تهدید از هوش مصنوعی مولد برای تولید کپی فیشینگ بسیار متقاعدکننده یا استقرار دیپفیکهای تولید شده توسط هوش مصنوعی استفاده میکنند که تشخیص واقعیت و اطلاعات نادرست را برای عموم دشوارتر میکند.
همچنین با گسترش هوش مصنوعی، اینترنت اشیا و محیط های چند ابری، نگرانی در مورد حفاظت از داده ها افزایش یافته است. 77 درصد از کارشناسان خطرات نشت داده بیشتر را با رشد پذیرش هوش مصنوعی مولد پیش بینی می کنند. مدلهای زبان بزرگ (LLM) که سیستمهای هوش مصنوعی را هدایت میکنند، خودشان هستند یک هدف جذاب، با بازیگران بد به طور فزاینده ای به دنبال سوء استفاده از نقاط ضعف در برنامه های کاربردی مبتنی بر LLM هستند. به عنوان مثال، مرکز ملی امنیت سایبری (NCSC) دستورالعملی را صادر کرد که در آن بر نیاز به اقدامات امنیتی قوی در مورد سیستمهای هوش مصنوعی، بهویژه با توجه به نقضهای اخیر دادهها که آسیبپذیریها در مدیریت دادههای حساس را آشکار میکرد، تاکید کرد.
علاوه بر تهدیدهای خارجی، سازمانها باید ریسکهای داخلی را نیز در نظر بگیرند – هم عمدی و هم تصادفی. ما دشمنانی را دیدهایم که از فناوری دیپفیک برای مهندسی اجتماعی فرآیند استخدام استفاده میکنند. موارد دیگر شامل نشت ناخواسته داده ها به دلیل پیکربندی اشتباه سیستم ها یا استفاده از هوش مصنوعی مولد راش توسط کارمندان است.
دفاع خود را تقویت کنید
هوش مصنوعی مولد بالقوه ای که به مجرمان سایبری ارائه می دهد دقیقاً به همین دلیل است که مدافعان عاقلانه از آن برای طیف وسیعی از موارد استفاده امنیتی استقبال می کنند.
هوش مصنوعی مولد میتواند برای افزایش هشدار مبتنی بر ریسک با جمعآوری مجموعه دادههای گسترده بسیار سریعتر و کارآمدتر از آنچه که برای انسان ممکن است استفاده شود. سپس LLM ها می توانند به تجزیه و تحلیل و اولویت بندی این تهدیدها کمک کنند و تیم های اطلاعاتی را از ساعت ها شکار دستی نجات دهند و به آنها کمک کنند تا به طور موثر شاخص های سازش را تعیین و رتبه بندی کنند. وقتی نوبت به گزارشدهی میشود، هوش مصنوعی مولد میتواند دادههای امنیتی کلیدی را به طور کامل و دقیق خلاصه و ترکیب کند، جدولهای زمانی را تسریع کرده و دید را افزایش میدهد.
دستیاران هوش مصنوعی همچنین ثابت می کنند که به طور فزاینده ای از تیم های امنیتی داخلی پشتیبانی حیاتی می کنند، هشدارهای امنیتی را خلاصه می کنند، جستجوهای امنیتی را بر اساس ورودی های زبان طبیعی انجام می دهند و گزارش های حوادث را تهیه می کنند.
اما با این همه تغییر و تکنولوژی در حال تحول، سازمان ها باید تلاش خود را در کجا متمرکز کنند؟
چهار روش مولد هوش مصنوعی برای میدان نبرد
برای ایجاد یک استراتژی امنیتی مولد هوش مصنوعی جامع و موثر، ما چهار روش اساسی را توصیه می کنیم.
-
توسعه استراتژی های قوی: اکنون که “gen-ie” از بطری خارج شده است، شرکت هایی که کاملاً آن را ممنوع می کنند، نه تنها در معرض خطر عقب افتادن از رقابت هستند، بلکه خود را در معرض تهدید بازیگرانی قرار می دهند که از حمله دریغ نمی کنند. رهبران امنیتی باید سیاستهای مولد هوش مصنوعی و آموزش کارکنان را در اولویت قرار دهند و ضمن کاهش خطرات احتمالی، نوآوری را پرورش دهند.
-
جبهه متحد را تضمین کنید: از آنجایی که تیمهای توسعه نرمافزار به طور فزایندهای از هوش مصنوعی مولد برای ردیابی سریع تولید کد استفاده میکنند، تیمهای امنیتی و توسعهدهنده باید در طول فرآیند توسعه با یکدیگر همکاری کنند. برای به حداقل رساندن تهدیدها، آنها باید روی نرم افزارهای ایمن با طراحی و همچنین یکپارچه سازی پشته های فناوری همکاری کنند.
-
دفاع از درون: نصب مقررات انطباق مستلزم مشارکت بین بخشی است. انجام بررسیهای منظم قانونی و انطباق به اطمینان از همسویی شیوههای هوش مصنوعی مولد با مقررات در حال تحول، مانند قانون هوش مصنوعی اتحادیه اروپا و سایر قوانین هدفمند هوش مصنوعی کمک میکند. تحقیق از Splunk SURGe همچنین بینش های مهمی را برای ایجاد تشخیص های موثر برای مبارزه با بهره برداری LLM، تقویت دفاع داخلی ارائه می دهد.
-
بهداشت سایبری را تمرین کنید: با وجود افزایش حملات مبتنی بر هوش مصنوعی، خطای انسانی یک آسیب پذیری قابل توجه باقی مانده است. رایجترین حملات، مانند نقض دادهها و به خطر افتادن ایمیلها، هنوز از اشتباهات قابل اجتناب ناشی میشوند. اولویت دادن به بهداشت سایبری، از جمله حفظ موجودی دارایی های فناوری اطلاعات به روز و اطمینان از آموزش منظم آگاهی کارکنان، برای کاهش خطر حملات موفقیت آمیز بسیار مهم است.
ناوبری مقررات نوظهور
دولت ها به سرعت در حال حرکت برای مقابله با تهدید فزاینده امنیت سایبری ناشی از هوش مصنوعی مولد هستند. لایحه امنیت سایبری و انعطاف پذیری بریتانیا، در ارتباط با دستورالعمل NIS2، تلاش قانونی گسترده تری را برای ترویج اقدامات هماهنگ امنیت سایبری نشان می دهد. این مقررات برای افزایش انعطافپذیری و بهبود قابلیتهای واکنش در سراسر اروپا طراحی شدهاند.
برای مشاغل، پیروی از این مقررات شامل مجموعه ای از تنظیمات عملیاتی و اقدامات جدید انطباق است. قابلتوجه، 86 درصد از متخصصان امنیتی پیشبینی میکنند با توجه به این سیاستهای نوظهور، بودجهها را به منظور اولویت دادن به انطباق بر بهترین شیوههای امنیتی، تخصیص مجدد دهند.
برای تسهیل این انتقال، مقررات باید چارچوبهای خاصی را برای کمک به سازمانها در ارزیابی خطرات و منافع، بهویژه در استفاده از هوش مصنوعی مولد، ارائه دهند. دستورالعملهای روشن در مورد استقرار ایمن هوش مصنوعی، همراه با گزارشدهی استاندارد و ساختارهای پاسخگویی، در تضمین شفافیت و جلوگیری از نقضهای مرتبط با هوش مصنوعی بسیار مهم خواهد بود. مقررات همچنین باید انعطافپذیر باقی بمانند و بهروزرسانیهای به موقع را برای انطباق با تکامل سریع فناوریها و تهدیدات هوش مصنوعی امکانپذیر کنند.
در نهایت، مهم است که به یاد داشته باشید که انتظار می رود این تغییرات نه تنها انعطاف پذیری کلی امنیت سایبری را تقویت کند، بلکه رویه های منطقه ای وسیع تری را نیز شکل دهد.
در حال تکامل برای ماندن در آینده
هوش مصنوعی مولد ابزاری قدرتمند در زرادخانه امنیت سایبری است، اما ابزاری که می تواند به راحتی توسط دشمنان مورد استفاده قرار گیرد. همانطور که مجرمان سایبری تاکتیکهای خود را برای بهرهبرداری از قابلیتهای هوش مصنوعی مولد – مانند ترجمه حملات فیشینگ به زبان مادری هدف خود – تکامل میدهند، تیمهای امنیتی نیز باید آماده تکامل باشند.
سازمان ها باید فعال بمانند و به طور مستمر درک خود را از نقش هوش مصنوعی مولد در امنیت سایبری تدافعی و تهاجمی افزایش دهند. امنیت سایبری فقط یک چالش فنی نیست، بلکه یک مسابقه تسلیحاتی تطبیقی است. توانایی پیشی گرفتن از دشمنان خود با فناوری های نوظهور نه تنها برای بقا، بلکه برای پیشرفت در میدان نبرد امنیت سایبری بسیار مهم است.