چگونه هوش مصنوعی را در مرکز عملیات امنیتی کار کنیم


در حالی که هوش مصنوعی مولد می تواند ابزار قدرتمندی در عملیات امنیتی باشد، اما برای مشکلات این صنعت یک گلوله نقره ای نیست. با وجود این، هیجان ناشی از پتانسیل هوش مصنوعی می تواند شرکت ها را از چالش های عملی ادغام آن در محیط های دنیای واقعی منحرف کند.

برای سال‌ها، هوش مصنوعی به‌عنوان تغییردهنده بازی برای تیم‌های امنیتی مطرح شده است و به پزشکان این امکان را می‌دهد تا تهدیدات را با سرعت و دقت بی‌سابقه‌ای شناسایی و خنثی کنند. در حالی که حقیقتی در این مورد وجود دارد، لازم به یادآوری است که هوش مصنوعی مانند هر فناوری دیگری است: چیزی به نام راه‌حلی برای همه وجود ندارد و برای استفاده مؤثر از آن باید بررسی‌ها و کنترل‌های مناسبی داشته باشید. . در تجربه من، این جایی است که سازمان ها در معرض خطر اشتباه کردن هستند.

یک دام رایج این است که کسب‌وکارها راه‌حلی را تنها بر اساس یک نسخه نمایشی فروش چشمگیر انتخاب می‌کنند، تنها به این دلیل که وقتی در یک محیط تجاری واقعی مستقر می‌شوند، برای هدف مناسب نیستند. این همان چیزی است که من از آن به عنوان مشکل «قابل دمو در مقابل قابل استقرار» یاد می‌کنم: فقط به این دلیل که یک فناوری در یک نسخه آزمایشی خوب عمل می‌کند به این معنی نیست که برای کاربرد در دنیای واقعی آماده است. در دموها، هوش مصنوعی داده‌های تمیز را در یک محیط بسیار کنترل شده تغذیه می‌کند، در حالی که در بیشتر مشاغل، داده‌ها آشفته و بدون ساختار هستند. هنگامی که با این اطلاعات خام از سیستم ها و تیم های مختلف مواجه می شوید، بسیاری از ابزارها به سادگی قادر به ارائه نیستند.

مرتبط:کپی‌های دیجیتال، چنگ آهنین کار را در زندگی شخصی ما شل می‌کنند

موضوع دیگر این فرض است که هوش مصنوعی می تواند هر لبه را به طور بی عیب و نقص اداره کند، در حالی که در واقعیت، هوش مصنوعی توسط داده هایی که روی آن آموزش دیده محدود می شود. به عنوان مثال، یک سیستم تشخیص فیشینگ را در نظر بگیرید. اگر هوش مصنوعی بر روی نمونه‌هایی از تلاش‌های رایج فیشینگ آموزش دیده باشد، ممکن است در کشف موارد معمول برتر باشد، اما تکنیک پیچیده‌تری را که خارج از محدوده آن است از دست بدهد. این پتانسیل ایجاد نقاط کوری را دارد که بازیگران بد می توانند از آنها سوء استفاده کنند و به پرچم های قرمز اجازه می دهد از شکاف ها سر بخورند.

به همین دلیل است که نظارت انسان بر هوش مصنوعی بسیار حیاتی است. وقتی ابزارهای هوش مصنوعی در محیط‌های زنده مستقر می‌شوند، می‌توانند با پر کردن شکاف‌های دانش و ایجاد پاسخ‌هایی که بر اساس داده‌های واقعی نیستند، موارد مثبت کاذب تولید کنند یا توهم ایجاد کنند. این منجر به تصمیم‌گیری ناقص می‌شود، امنیت عملیاتی را به خطر می‌اندازد و کار بیشتری را برای متخصصانی که وظیفه تأیید نتایج را دارند، ایجاد می‌کند.

هوش مصنوعی جایگزین قضاوت انسان نمی شود. درعوض، باید گردش‌های کاری خودکار موجود شاغلین را که بینش‌های مرتبط را ایجاد می‌کند و اقداماتی را که در چارچوب سازمان است انجام می‌دهد، تکمیل و تقویت کند.

وقتی نوبت به معرفی هوش مصنوعی می رسد، بهتر است این کار را به تدریج انجام دهید. پذیرش افزایشی به متخصصان امنیت این فرصت را می‌دهد تا کاربرد LLM را در محیط‌های منحصر به فرد خود اصلاح کنند و به مشکلاتی که پیش می‌آیند رسیدگی کنند. با افزایش اعتماد به این فناوری‌ها، استفاده از هوش مصنوعی می‌تواند به حوزه‌های پیچیده‌تر گسترش یابد.

مرتبط:استفاده از هوش مصنوعی مولد برای به دست آوردن مزیت در میدان نبرد امنیت سایبری

سازمان‌ها باید حفاظ‌های واضحی مانند کنترل دسترسی مبتنی بر نقش (RBAC) و گزارش‌های حسابرسی ایجاد کنند تا به تیم‌ها کمک کنند تا اقدامات هوش مصنوعی را هماهنگ کنند و فرآیندهای تصمیم‌گیری را دنبال کنند. با مدیریت دسترسی به داده ها و تأیید پاسخ های تولید شده توسط هوش مصنوعی، رهبران امنیتی می توانند به جای افزایش سطح حمله، به فناوری های مبتنی بر هوش مصنوعی اعتماد کنند و وضعیت امنیتی خود را تقویت کنند.





منبع: https://aibusiness.com/cybersecurity/how-to-make-ai-work-in-the-security-operations-center

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *