به گفته لیات هایون، کارشناس امنیت سایبری، رونق هوش مصنوعی خطرات را در کل داده های سازمانی و محیط های ابری افزایش می دهد.
در مصاحبه ای با TechRepublic، Hayun، معاون مدیریت محصول و تحقیق برای امنیت ابر در Tenable، به سازمان ها توصیه کرد که درک ریسک و تحمل خود را در اولویت قرار دهند، در حالی که اولویت مقابله با مشکلات کلیدی مانند پیکربندی نادرست ابر و محافظت از داده های حساس را دارند.

او خاطرنشان کرد که در حالی که شرکتها محتاط هستند، دسترسی هوش مصنوعی خطرات خاصی را افزایش میدهد. با این حال، او توضیح داد که امروزه CISO ها در حال تبدیل شدن به توانمندسازهای تجاری هستند – و هوش مصنوعی در نهایت می تواند به عنوان یک ابزار قدرتمند برای تقویت امنیت عمل کند.
چگونه هوش مصنوعی بر امنیت سایبری، ذخیره سازی داده ها تأثیر می گذارد
TechRepublic: چه چیزی در محیط امنیت سایبری به دلیل هوش مصنوعی تغییر می کند؟
لیات: اول از همه، هوش مصنوعی برای سازمان ها بسیار قابل دسترس تر شده است. اگر به 10 سال پیش نگاه کنید، تنها سازمانهایی که هوش مصنوعی ایجاد میکنند باید این تیم تخصصی علم داده را داشته باشند که دارای دکترا در علم داده و آمار هستند تا بتوانند الگوریتمهای یادگیری ماشین و هوش مصنوعی را ایجاد کنند. ایجاد هوش مصنوعی برای سازمان ها بسیار آسان تر شده است. این تقریباً درست مانند معرفی یک زبان برنامه نویسی جدید یا کتابخانه جدید در محیط خود است. بسیاری از سازمانهای دیگر – نه فقط سازمانهای بزرگ مانند Tenable و سایرین – بلکه هر استارتآپی هم اکنون میتواند از هوش مصنوعی استفاده کند و آن را در محصولات خود معرفی کند.
ببینید: گارتنر به رهبران فناوری اطلاعات استرالیا میگوید که هوش مصنوعی را با سرعت خودشان بپذیرند
نکته دوم: هوش مصنوعی به داده های زیادی نیاز دارد. سازمانهای بیشتری نیاز به جمعآوری و ذخیره حجم بالاتری از دادهها دارند، که گاهی اوقات سطوح بالاتری از حساسیت را نیز دارد. قبل از این، سرویس پخش من فقط جزئیات بسیار کمی را روی من ذخیره می کرد. حالا شاید جغرافیای من مهم باشد، زیرا آنها می توانند توصیه های خاص تری را بر اساس آن یا سن و جنسیت من و غیره ایجاد کنند. از آنجا که آنها اکنون می توانند از این داده ها برای اهداف تجاری خود استفاده کنند – برای ایجاد تجارت بیشتر – اکنون انگیزه بیشتری برای ذخیره آن داده ها در حجم بالاتر و با سطوح رو به رشد حساسیت دارند.
TechRepublic: آیا این به افزایش استفاده از ابر کمک می کند؟
لیات: اگر می خواهید داده های زیادی را ذخیره کنید، اینطور است انجام این کار در فضای ابری بسیار ساده تر است. هر بار که تصمیم می گیرید نوع جدیدی از داده ها را ذخیره کنید، حجم داده هایی را که ذخیره می کنید افزایش می دهد. لازم نیست به داخل مرکز داده خود بروید و حجم جدیدی از داده را برای نصب سفارش دهید. شما فقط کلیک کنید، و بم، شما یک مکان ذخیره داده جدید دارید. بنابراین ابر ذخیره سازی داده ها را بسیار آسان کرده است.
این سه جزء نوعی دایره را تشکیل می دهند که خود را تغذیه می کند. زیرا اگر ذخیره دادهها آسانتر باشد، میتوانید قابلیتهای هوش مصنوعی بیشتری را ارتقا دهید و سپس انگیزه بیشتری برای ذخیره دادهها و غیره خواهید داشت. بنابراین این همان چیزی است که در چند سال گذشته در جهان اتفاق افتاده است – از زمانی که LLM ها به قابلیتی بسیار در دسترس و رایج برای سازمان ها تبدیل شده اند – چالش هایی را در هر سه این سه بخش ایجاد کرده است.
درک خطرات امنیتی هوش مصنوعی
TechRepublic: آیا می بینید که خطرات امنیت سایبری خاصی با هوش مصنوعی افزایش می یابد؟
لیات: استفاده از هوش مصنوعی در سازمانها، برخلاف استفاده از هوش مصنوعی توسط افراد در سراسر جهان، هنوز در مراحل اولیه خود است. سازمانها میخواهند مطمئن شوند که آن را به گونهای معرفی میکنند که، من میگویم، هیچ خطر غیرضروری یا خطر شدید ایجاد نمیکند. بنابراین از نظر آمار، ما هنوز فقط چند نمونه داریم، و آنها لزوماً نمایش خوبی نیستند زیرا بیشتر تجربی هستند.
یکی از نمونه های خطر آموزش هوش مصنوعی بر روی داده های حساس است. این چیزی است که ما شاهد آن هستیم. این به این دلیل نیست که سازمان ها مراقب نیستند. به این دلیل که جدا کردن دادههای حساس از دادههای غیرحساس بسیار دشوار است و همچنان یک مکانیسم هوش مصنوعی مؤثر که بر روی مجموعه دادههای مناسب آموزش داده شده است، وجود دارد.
دومین چیزی که می بینیم چیزی است که ما آن را مسمومیت داده می نامیم. بنابراین، حتی اگر یک عامل هوش مصنوعی دارید که روی دادههای غیرحساس آموزش دیده است، اگر آن دادههای غیرحساس بهعنوان یک دشمن، بهعنوان یک مهاجم در معرض دید عموم قرار گیرد، میتوانم دادههای خودم را در آن دادههای در معرض دید عمومی و در دسترس عموم قرار دهم. ذخیره داده ها و از هوش مصنوعی خود بخواهید چیزهایی را بگوید که شما قصد گفتن آن را نداشتید. این موجود دانا نیست. می داند چه دیده است.
TechRepublic: سازمان ها چگونه باید خطرات امنیتی هوش مصنوعی را ارزیابی کنند؟
لیات: ابتدا، من میپرسم چگونه سازمانها میتوانند سطح قرار گرفتن در معرض آنها را درک کنند، که شامل ابر، هوش مصنوعی، و دادهها میشود… و همه چیز مربوط به نحوه استفاده آنها از فروشندگان شخص ثالث، و نحوه استفاده از نرمافزارهای مختلف در سازمانشان، و غیره. در
ببینید: استرالیا نرده های محافظ اجباری برای هوش مصنوعی پیشنهاد می کند
قسمت دوم این است که چگونه مواجهه های بحرانی را شناسایی می کنید? بنابراین اگر می دانیم که این دارایی در دسترس عموم است و آسیب پذیری بالایی نسبت به آن دارد، احتمالاً ابتدا می خواهید به آن بپردازید. اما این نیز ترکیبی از تاثیر است، درست است؟ اگر دو مشکل دارید که بسیار شبیه هم هستند و یکی می تواند داده های حساس را به خطر بیندازد و دیگری نمی تواند، ابتدا می خواهید به آن بپردازید. [issue] اول
شما همچنین باید بدانید که چه اقداماتی را برای مقابله با این مواجهه ها با کمترین تأثیر تجاری انجام دهید.
TechRepublic: برخی از خطرات بزرگ امنیت ابری که درباره آنها هشدار می دهید چیست؟
لیات: معمولاً سه چیز وجود دارد که ما به مشتریان خود توصیه می کنیم.
مورد اول در تنظیمات اشتباه است. فقط به دلیل پیچیدگی زیرساخت، پیچیدگی ابر و همه فناوریهایی که ارائه میکند، حتی اگر در یک محیط ابری واحد قرار داشته باشید – به خصوص اگر چند ابری میروید – این احتمال وجود دارد که چیزی به یک مشکل تبدیل شود. فقط به این دلیل که به درستی پیکربندی نشده است هنوز بسیار بالا است. بنابراین، این قطعاً یکی از مواردی است که من روی آن تمرکز خواهم کرد، به ویژه هنگام معرفی فناوری های جدیدی مانند هوش مصنوعی.
مورد دوم دسترسی بیش از حد مجاز است. بسیاری از مردم فکر می کنند سازمان آنها فوق العاده امن است. اما اگر خانه شما یک قلعه است و کلیدهای خود را به همه اطرافیان خود می دهید، این هنوز یک مشکل است. بنابراین دسترسی بیش از حد به داده های حساس، به زیرساخت های حیاتی، یکی دیگر از زمینه های تمرکز است. حتی اگر همه چیز به طور کامل پیکربندی شده باشد و هیچ هکری در محیط خود نداشته باشید، خطر بیشتری را ایجاد می کند.
جنبه ای که مردم بیشتر به آن فکر می کنند، شناسایی فعالیت های مخرب یا مشکوک به محض وقوع است. اینجاست که می توان از هوش مصنوعی بهره برد. زیرا اگر از ابزارهای هوش مصنوعی در ابزارهای امنیتی خود در زیرساخت خود استفاده کنیم، می توانیم از این واقعیت استفاده کنیم که آنها می توانند داده های زیادی را مشاهده کنند، و آنها می توانند این کار را خیلی سریع انجام دهند تا بتوانند رفتارهای مشکوک یا مخرب را در یک محیط شناسایی کنند. . بنابراین ما میتوانیم آن رفتارها، آن فعالیتها را در اسرع وقت قبل از به خطر افتادن هر چیزی مهم، مورد بررسی قرار دهیم.
پیاده سازی هوش مصنوعی “فرصتی بسیار خوب برای از دست دادن”
TechRepublic: CISO ها چگونه به خطراتی که با هوش مصنوعی می بینید نزدیک می شوند؟
لیات: اکنون 15 سال است که در صنعت امنیت سایبری هستم. چیزی که من از دیدن آن لذت می برم این است که اکثر کارشناسان امنیتی، اکثر CISO ها، بر خلاف آنچه که یک دهه پیش بودند، هستند. برخلاف دروازه بان بودن، به جای گفتن «نه، ما نمی توانیم از این کار استفاده کنیم زیرا ریسک دارد»، آنها از خود می پرسند: «چگونه می توانیم از این استفاده کنیم و ریسک آن را کاهش دهیم؟» که یک روند عالی برای دیدن است. آنها در حال تبدیل شدن به یک توانمندتر هستند.
TechRepublic: آیا جنبه خوب هوش مصنوعی و همچنین خطرات آن را می بینید؟
لیات: سازمان ها باید بیشتر به این فکر کنند که چگونه هوش مصنوعی را معرفی می کنند، نه اینکه فکر کنند “هوش مصنوعی در حال حاضر بسیار خطرناک است”. شما نمی توانید این کار را انجام دهید.
سازمانهایی که در چند سال آینده هوش مصنوعی را معرفی نکنند، عقب خواهند ماند. این ابزار شگفتانگیزی است که میتواند برای بسیاری از موارد استفاده تجاری، در داخل برای همکاری و تجزیه و تحلیل و بینش، و در خارج، برای ابزارهایی که ما میتوانیم به مشتریان خود ارائه کنیم، سودمند باشد. فرصت بسیار خوبی برای از دست دادن وجود دارد. اگر بتوانم به سازمانها کمک کنم تا به این ذهنیت دست یابند که میگویند: «خوب، ما میتوانیم از هوش مصنوعی استفاده کنیم، اما فقط باید این خطرات را در نظر بگیریم،» من کارم را انجام دادهام.
منبع: https://www.techrepublic.com/article/cloud-security-for-ai/