در حالی که هوش مصنوعی مولد می تواند ابزار قدرتمندی در عملیات امنیتی باشد، اما برای مشکلات این صنعت یک گلوله نقره ای نیست. با وجود این، هیجان ناشی از پتانسیل هوش مصنوعی می تواند شرکت ها را از چالش های عملی ادغام آن در محیط های دنیای واقعی منحرف کند.
برای سالها، هوش مصنوعی بهعنوان تغییردهنده بازی برای تیمهای امنیتی مطرح شده است و به پزشکان این امکان را میدهد تا تهدیدات را با سرعت و دقت بیسابقهای شناسایی و خنثی کنند. در حالی که حقیقتی در این مورد وجود دارد، لازم به یادآوری است که هوش مصنوعی مانند هر فناوری دیگری است: چیزی به نام راهحلی برای همه وجود ندارد و برای استفاده مؤثر از آن باید بررسیها و کنترلهای مناسبی داشته باشید. . در تجربه من، این جایی است که سازمان ها در معرض خطر اشتباه کردن هستند.
یک دام رایج این است که کسبوکارها راهحلی را تنها بر اساس یک نسخه نمایشی فروش چشمگیر انتخاب میکنند، تنها به این دلیل که وقتی در یک محیط تجاری واقعی مستقر میشوند، برای هدف مناسب نیستند. این همان چیزی است که من از آن به عنوان مشکل «قابل دمو در مقابل قابل استقرار» یاد میکنم: فقط به این دلیل که یک فناوری در یک نسخه آزمایشی خوب عمل میکند به این معنی نیست که برای کاربرد در دنیای واقعی آماده است. در دموها، هوش مصنوعی دادههای تمیز را در یک محیط بسیار کنترل شده تغذیه میکند، در حالی که در بیشتر مشاغل، دادهها آشفته و بدون ساختار هستند. هنگامی که با این اطلاعات خام از سیستم ها و تیم های مختلف مواجه می شوید، بسیاری از ابزارها به سادگی قادر به ارائه نیستند.
موضوع دیگر این فرض است که هوش مصنوعی می تواند هر لبه را به طور بی عیب و نقص اداره کند، در حالی که در واقعیت، هوش مصنوعی توسط داده هایی که روی آن آموزش دیده محدود می شود. به عنوان مثال، یک سیستم تشخیص فیشینگ را در نظر بگیرید. اگر هوش مصنوعی بر روی نمونههایی از تلاشهای رایج فیشینگ آموزش دیده باشد، ممکن است در کشف موارد معمول برتر باشد، اما تکنیک پیچیدهتری را که خارج از محدوده آن است از دست بدهد. این پتانسیل ایجاد نقاط کوری را دارد که بازیگران بد می توانند از آنها سوء استفاده کنند و به پرچم های قرمز اجازه می دهد از شکاف ها سر بخورند.
به همین دلیل است که نظارت انسان بر هوش مصنوعی بسیار حیاتی است. وقتی ابزارهای هوش مصنوعی در محیطهای زنده مستقر میشوند، میتوانند با پر کردن شکافهای دانش و ایجاد پاسخهایی که بر اساس دادههای واقعی نیستند، موارد مثبت کاذب تولید کنند یا توهم ایجاد کنند. این منجر به تصمیمگیری ناقص میشود، امنیت عملیاتی را به خطر میاندازد و کار بیشتری را برای متخصصانی که وظیفه تأیید نتایج را دارند، ایجاد میکند.
هوش مصنوعی جایگزین قضاوت انسان نمی شود. درعوض، باید گردشهای کاری خودکار موجود شاغلین را که بینشهای مرتبط را ایجاد میکند و اقداماتی را که در چارچوب سازمان است انجام میدهد، تکمیل و تقویت کند.
وقتی نوبت به معرفی هوش مصنوعی می رسد، بهتر است این کار را به تدریج انجام دهید. پذیرش افزایشی به متخصصان امنیت این فرصت را میدهد تا کاربرد LLM را در محیطهای منحصر به فرد خود اصلاح کنند و به مشکلاتی که پیش میآیند رسیدگی کنند. با افزایش اعتماد به این فناوریها، استفاده از هوش مصنوعی میتواند به حوزههای پیچیدهتر گسترش یابد.
سازمانها باید حفاظهای واضحی مانند کنترل دسترسی مبتنی بر نقش (RBAC) و گزارشهای حسابرسی ایجاد کنند تا به تیمها کمک کنند تا اقدامات هوش مصنوعی را هماهنگ کنند و فرآیندهای تصمیمگیری را دنبال کنند. با مدیریت دسترسی به داده ها و تأیید پاسخ های تولید شده توسط هوش مصنوعی، رهبران امنیتی می توانند به جای افزایش سطح حمله، به فناوری های مبتنی بر هوش مصنوعی اعتماد کنند و وضعیت امنیتی خود را تقویت کنند.
منبع: https://aibusiness.com/cybersecurity/how-to-make-ai-work-in-the-security-operations-center