چگونه هوش مصنوعی معادله امنیت و ریسک ابر را تغییر می‌دهد


به گفته لیات هایون، کارشناس امنیت سایبری، رونق هوش مصنوعی خطرات را در کل داده های سازمانی و محیط های ابری افزایش می دهد.

در مصاحبه ای با TechRepublic، Hayun، معاون مدیریت محصول و تحقیق برای امنیت ابر در Tenable، به سازمان ها توصیه کرد که درک ریسک و تحمل خود را در اولویت قرار دهند، در حالی که اولویت مقابله با مشکلات کلیدی مانند پیکربندی نادرست ابر و محافظت از داده های حساس را دارند.

عکس پروفایل لیات هایون.
لیات هایون، معاون مدیریت محصول و تحقیقات امنیت ابری در Tenable

او خاطرنشان کرد که در حالی که شرکت‌ها محتاط هستند، دسترسی هوش مصنوعی خطرات خاصی را افزایش می‌دهد. با این حال، او توضیح داد که امروزه CISO ها در حال تبدیل شدن به توانمندسازهای تجاری هستند – و هوش مصنوعی در نهایت می تواند به عنوان یک ابزار قدرتمند برای تقویت امنیت عمل کند.

چگونه هوش مصنوعی بر امنیت سایبری، ذخیره سازی داده ها تأثیر می گذارد

TechRepublic: چه چیزی در محیط امنیت سایبری به دلیل هوش مصنوعی تغییر می کند؟

لیات: اول از همه، هوش مصنوعی برای سازمان ها بسیار قابل دسترس تر شده است. اگر به 10 سال پیش نگاه کنید، تنها سازمان‌هایی که هوش مصنوعی ایجاد می‌کنند باید این تیم تخصصی علم داده را داشته باشند که دارای دکترا در علم داده و آمار هستند تا بتوانند الگوریتم‌های یادگیری ماشین و هوش مصنوعی را ایجاد کنند. ایجاد هوش مصنوعی برای سازمان ها بسیار آسان تر شده است. این تقریباً درست مانند معرفی یک زبان برنامه نویسی جدید یا کتابخانه جدید در محیط خود است. بسیاری از سازمان‌های دیگر – نه فقط سازمان‌های بزرگ مانند Tenable و سایرین – بلکه هر استارت‌آپی هم اکنون می‌تواند از هوش مصنوعی استفاده کند و آن را در محصولات خود معرفی کند.

ببینید: گارتنر به رهبران فناوری اطلاعات استرالیا می‌گوید که هوش مصنوعی را با سرعت خودشان بپذیرند

نکته دوم: هوش مصنوعی به داده های زیادی نیاز دارد. سازمان‌های بیشتری نیاز به جمع‌آوری و ذخیره حجم بالاتری از داده‌ها دارند، که گاهی اوقات سطوح بالاتری از حساسیت را نیز دارد. قبل از این، سرویس پخش من فقط جزئیات بسیار کمی را روی من ذخیره می کرد. حالا شاید جغرافیای من مهم باشد، زیرا آنها می توانند توصیه های خاص تری را بر اساس آن یا سن و جنسیت من و غیره ایجاد کنند. از آنجا که آنها اکنون می توانند از این داده ها برای اهداف تجاری خود استفاده کنند – برای ایجاد تجارت بیشتر – اکنون انگیزه بیشتری برای ذخیره آن داده ها در حجم بالاتر و با سطوح رو به رشد حساسیت دارند.

TechRepublic: آیا این به افزایش استفاده از ابر کمک می کند؟

لیات: اگر می خواهید داده های زیادی را ذخیره کنید، اینطور است انجام این کار در فضای ابری بسیار ساده تر است. هر بار که تصمیم می گیرید نوع جدیدی از داده ها را ذخیره کنید، حجم داده هایی را که ذخیره می کنید افزایش می دهد. لازم نیست به داخل مرکز داده خود بروید و حجم جدیدی از داده را برای نصب سفارش دهید. شما فقط کلیک کنید، و بم، شما یک مکان ذخیره داده جدید دارید. بنابراین ابر ذخیره سازی داده ها را بسیار آسان کرده است.

این سه جزء نوعی دایره را تشکیل می دهند که خود را تغذیه می کند. زیرا اگر ذخیره داده‌ها آسان‌تر باشد، می‌توانید قابلیت‌های هوش مصنوعی بیشتری را ارتقا دهید و سپس انگیزه بیشتری برای ذخیره داده‌ها و غیره خواهید داشت. بنابراین این همان چیزی است که در چند سال گذشته در جهان اتفاق افتاده است – از زمانی که LLM ها به قابلیتی بسیار در دسترس و رایج برای سازمان ها تبدیل شده اند – چالش هایی را در هر سه این سه بخش ایجاد کرده است.

درک خطرات امنیتی هوش مصنوعی

TechRepublic: آیا می بینید که خطرات امنیت سایبری خاصی با هوش مصنوعی افزایش می یابد؟

لیات: استفاده از هوش مصنوعی در سازمان‌ها، برخلاف استفاده از هوش مصنوعی توسط افراد در سراسر جهان، هنوز در مراحل اولیه خود است. سازمان‌ها می‌خواهند مطمئن شوند که آن را به گونه‌ای معرفی می‌کنند که، من می‌گویم، هیچ خطر غیرضروری یا خطر شدید ایجاد نمی‌کند. بنابراین از نظر آمار، ما هنوز فقط چند نمونه داریم، و آنها لزوماً نمایش خوبی نیستند زیرا بیشتر تجربی هستند.

یکی از نمونه های خطر آموزش هوش مصنوعی بر روی داده های حساس است. این چیزی است که ما شاهد آن هستیم. این به این دلیل نیست که سازمان ها مراقب نیستند. به این دلیل که جدا کردن داده‌های حساس از داده‌های غیرحساس بسیار دشوار است و همچنان یک مکانیسم هوش مصنوعی مؤثر که بر روی مجموعه داده‌های مناسب آموزش داده شده است، وجود دارد.

دومین چیزی که می بینیم چیزی است که ما آن را مسمومیت داده می نامیم. بنابراین، حتی اگر یک عامل هوش مصنوعی دارید که روی داده‌های غیرحساس آموزش دیده است، اگر آن داده‌های غیرحساس به‌عنوان یک دشمن، به‌عنوان یک مهاجم در معرض دید عموم قرار گیرد، می‌توانم داده‌های خودم را در آن داده‌های در معرض دید عمومی و در دسترس عموم قرار دهم. ذخیره داده ها و از هوش مصنوعی خود بخواهید چیزهایی را بگوید که شما قصد گفتن آن را نداشتید. این موجود دانا نیست. می داند چه دیده است.

TechRepublic: سازمان ها چگونه باید خطرات امنیتی هوش مصنوعی را ارزیابی کنند؟

لیات: ابتدا، من می‌پرسم چگونه سازمان‌ها می‌توانند سطح قرار گرفتن در معرض آنها را درک کنند، که شامل ابر، هوش مصنوعی، و داده‌ها می‌شود… و همه چیز مربوط به نحوه استفاده آنها از فروشندگان شخص ثالث، و نحوه استفاده از نرم‌افزارهای مختلف در سازمانشان، و غیره. در

ببینید: استرالیا نرده های محافظ اجباری برای هوش مصنوعی پیشنهاد می کند

قسمت دوم این است که چگونه مواجهه های بحرانی را شناسایی می کنید? بنابراین اگر می دانیم که این دارایی در دسترس عموم است و آسیب پذیری بالایی نسبت به آن دارد، احتمالاً ابتدا می خواهید به آن بپردازید. اما این نیز ترکیبی از تاثیر است، درست است؟ اگر دو مشکل دارید که بسیار شبیه هم هستند و یکی می تواند داده های حساس را به خطر بیندازد و دیگری نمی تواند، ابتدا می خواهید به آن بپردازید. [issue] اول

شما همچنین باید بدانید که چه اقداماتی را برای مقابله با این مواجهه ها با کمترین تأثیر تجاری انجام دهید.

TechRepublic: برخی از خطرات بزرگ امنیت ابری که درباره آنها هشدار می دهید چیست؟

لیات: معمولاً سه چیز وجود دارد که ما به مشتریان خود توصیه می کنیم.

مورد اول در تنظیمات اشتباه است. فقط به دلیل پیچیدگی زیرساخت، پیچیدگی ابر و همه فناوری‌هایی که ارائه می‌کند، حتی اگر در یک محیط ابری واحد قرار داشته باشید – به خصوص اگر چند ابری می‌روید – این احتمال وجود دارد که چیزی به یک مشکل تبدیل شود. فقط به این دلیل که به درستی پیکربندی نشده است هنوز بسیار بالا است. بنابراین، این قطعاً یکی از مواردی است که من روی آن تمرکز خواهم کرد، به ویژه هنگام معرفی فناوری های جدیدی مانند هوش مصنوعی.

مورد دوم دسترسی بیش از حد مجاز است. بسیاری از مردم فکر می کنند سازمان آنها فوق العاده امن است. اما اگر خانه شما یک قلعه است و کلیدهای خود را به همه اطرافیان خود می دهید، این هنوز یک مشکل است. بنابراین دسترسی بیش از حد به داده های حساس، به زیرساخت های حیاتی، یکی دیگر از زمینه های تمرکز است. حتی اگر همه چیز به طور کامل پیکربندی شده باشد و هیچ هکری در محیط خود نداشته باشید، خطر بیشتری را ایجاد می کند.

جنبه ای که مردم بیشتر به آن فکر می کنند، شناسایی فعالیت های مخرب یا مشکوک به محض وقوع است. اینجاست که می توان از هوش مصنوعی بهره برد. زیرا اگر از ابزارهای هوش مصنوعی در ابزارهای امنیتی خود در زیرساخت خود استفاده کنیم، می توانیم از این واقعیت استفاده کنیم که آنها می توانند داده های زیادی را مشاهده کنند، و آنها می توانند این کار را خیلی سریع انجام دهند تا بتوانند رفتارهای مشکوک یا مخرب را در یک محیط شناسایی کنند. . بنابراین ما می‌توانیم آن رفتارها، آن فعالیت‌ها را در اسرع وقت قبل از به خطر افتادن هر چیزی مهم، مورد بررسی قرار دهیم.

پیاده سازی هوش مصنوعی “فرصتی بسیار خوب برای از دست دادن”

TechRepublic: CISO ها چگونه به خطراتی که با هوش مصنوعی می بینید نزدیک می شوند؟

لیات: اکنون 15 سال است که در صنعت امنیت سایبری هستم. چیزی که من از دیدن آن لذت می برم این است که اکثر کارشناسان امنیتی، اکثر CISO ها، بر خلاف آنچه که یک دهه پیش بودند، هستند. برخلاف دروازه بان بودن، به جای گفتن «نه، ما نمی توانیم از این کار استفاده کنیم زیرا ریسک دارد»، آنها از خود می پرسند: «چگونه می توانیم از این استفاده کنیم و ریسک آن را کاهش دهیم؟» که یک روند عالی برای دیدن است. آنها در حال تبدیل شدن به یک توانمندتر هستند.

TechRepublic: آیا جنبه خوب هوش مصنوعی و همچنین خطرات آن را می بینید؟

لیات: سازمان ها باید بیشتر به این فکر کنند که چگونه هوش مصنوعی را معرفی می کنند، نه اینکه فکر کنند “هوش مصنوعی در حال حاضر بسیار خطرناک است”. شما نمی توانید این کار را انجام دهید.

سازمان‌هایی که در چند سال آینده هوش مصنوعی را معرفی نکنند، عقب خواهند ماند. این ابزار شگفت‌انگیزی است که می‌تواند برای بسیاری از موارد استفاده تجاری، در داخل برای همکاری و تجزیه و تحلیل و بینش، و در خارج، برای ابزارهایی که ما می‌توانیم به مشتریان خود ارائه کنیم، سودمند باشد. فرصت بسیار خوبی برای از دست دادن وجود دارد. اگر بتوانم به سازمان‌ها کمک کنم تا به این ذهنیت دست یابند که می‌گویند: «خوب، ما می‌توانیم از هوش مصنوعی استفاده کنیم، اما فقط باید این خطرات را در نظر بگیریم،» من کارم را انجام داده‌ام.



منبع: https://www.techrepublic.com/article/cloud-security-for-ai/