بر اساس گزارشی جدید، حجم دادههای حساسی که شرکتها در محیطهای غیرتولیدی مانند توسعه، آزمایش، تجزیه و تحلیل و AI/ML نگهداری میکنند، در حال افزایش است. مدیران نیز نگران محافظت از آن هستند – و تغذیه آن در محصولات جدید هوش مصنوعی کمکی نمی کند.
این “گزارش وضعیت انطباق و امنیت داده ها در دلفیکس 2024” دریافتند که 74 درصد از سازمانهایی که دادههای حساس را مدیریت میکنند، حجم نگهداری شده در محیطهای غیرتولیدی را در سال گذشته افزایش دادهاند. علاوه بر این، 91٪ نگران ردپای گسترده قرار گرفتن در معرض آنها هستند که در نتیجه آنها را در معرض خطر نقض و مجازات های عدم انطباق قرار می دهد.
به دلیل رشد تعداد مصرفکنندگان آنلاین و تلاشهای مستمر آنها برای تحول دیجیتال، میزان دادههای مصرفکنندهای که شرکتها در اختیار دارند به طور کلی در حال افزایش است. IDC پیش بینی می کند که تا سال 2025، دیتاسپهر جهانی به 163 زتابایت افزایش خواهد یافت، ده برابر 16.1 زتابایت داده تولید شده در سال 2016.
در نتیجه، مقدار داده های حساس مانند اطلاعات شناسایی شخصی، اطلاعات بهداشتی محافظت شده و جزئیات مالی نیز در حال افزایش است.
داده های حساس اغلب در محیط های تولیدی یا زنده مانند CRM یا ERP ایجاد و ذخیره می شوند که دارای کنترل های دقیق و دسترسی محدود هستند. با این حال، عملیات استاندارد فناوری اطلاعات اغلب منجر به کپی شدن چندین بار داده ها در محیط های غیر تولیدی می شود که امکان دسترسی بیشتر پرسنل و افزایش خطر نقض را فراهم می کند.
یافته های این گزارش نتیجه نظرسنجی از 250 کارمند ارشد در سازمان هایی با حداقل 5000 کارمند است که داده های حساس مصرف کننده را مدیریت می کنند. این توسط ارائه دهنده نرم افزار Perforce انجام شد.
ببینید: نقض داده های عمومی ملی: 2.7 میلیارد رکورد در دارک وب لو رفت
بیش از نیمی از مشاغل قبلاً نقض داده را تجربه کرده اند
بیش از نیمی از پاسخ دهندگان گفتند که قبلاً نقض داده های حساسی را که در محیط های غیر تولیدی نگهداری می شدند، تجربه کرده اند.
شواهد دیگر حاکی از بدتر شدن این موضوع است: مطالعه ای که توسط اپل انجام شد نشان داد که یک مورد وجود دارد افزایش 20 درصدی نقض اطلاعات از 2022 تا 2023. در واقع، 61 درصد آمریکایی ها دریافته اند که اطلاعات شخصی آنها در مقطعی نقض شده یا به خطر افتاده است.
گزارش پرفورس نشان داد که 42 درصد از سازمانهای پاسخدهنده باجافزار را تجربه کردهاند. این بدافزار، به طور خاص، یک تهدید رو به رشد در سطح جهانی است. مطالعه ای از Malwarebytes که در این ماه منتشر شد نشان داد که حملات جهانی باج افزار در سال گذشته 33 درصد افزایش یافته است.
بخشی از مشکل این است که زنجیره تامین جهانی در حال طولانی تر و پیچیده تر شدن است، افزایش تعداد نقاط ورود بالقوه برای مهاجمان. گزارشی از مرکز منابع سرقت هویت نشان داد که تعداد سازمانهایی که تحت تأثیر حملات زنجیره تامین قرار گرفتهاند. بیش از 2600 واحد درصد افزایش یافته است بین 2018 و 2023. علاوه بر این، پرداخت ها از یک میلیارد دلار فراتر رفت (790 میلیون پوند) برای اولین بار در سال 2023، و آن را به یک سوء استفاده فزاینده سودآور برای مهاجمان تبدیل کرد.
هوش مصنوعی بزرگترین مقصر در مورد داده های ناامن مصرف کننده است
اکنون با شرکت ها استفاده از هوش مصنوعی در فرآیندهای تجاری، به طور فزاینده ای دشوار می شود که کنترل داده ها به کجا می رود.
سیستمهای هوش مصنوعی اغلب به استفاده از دادههای حساس مصرفکننده برای آموزش و عملیات نیاز دارند، و پیچیدگی الگوریتمها و ادغام بالقوه با سیستمهای خارجی میتواند بردارهای حمله جدیدی ایجاد کند که مدیریت آنها سخت است. در واقع، این گزارش نشان داد که هوش مصنوعی و ML دلایل اصلی رشد دادههای حساس در محیطهای غیرتولیدی هستند، همانطور که 60 درصد از پاسخدهندگان به آن اشاره کردند.
نویسندگان گزارش می نویسند: «محیط های هوش مصنوعی ممکن است کمتر از محیط های تولیدی تحت کنترل و محافظت باشند. “در نتیجه، مصالحه با آنها آسان تر است.”
تصمیم گیرندگان تجاری از این خطر آگاه هستند: 85٪ نگرانی در مورد عدم انطباق مقررات در محیط های هوش مصنوعی را گزارش می دهند. در حالی که بسیاری از مقررات ویژه هوش مصنوعی در مراحل اولیه خود هستند، GDPR نیاز به پردازش دادههای شخصی مورد استفاده در سیستمهای هوش مصنوعی به صورت قانونی و شفاف دارد و موارد مختلفی وجود دارد قوانین سطح ایالتی در ایالات متحده
ببینید: دستور اجرایی هوش مصنوعی: کاخ سفید گزارش پیشرفت 90 روزه را منتشر کرد
این قانون هوش مصنوعی اتحادیه اروپا در ماه آگوست به اجرا درآمد که قوانین سختگیرانه ای را در مورد استفاده از هوش مصنوعی برای تشخیص چهره و حفاظت از سیستم های هوش مصنوعی همه منظوره تعیین می کند. شرکتهایی که از قوانین پیروی نکنند با جریمههایی از 35 میلیون یورو (38 میلیون دلار آمریکا) یا 7 درصد از گردش مالی جهانی تا 7.5 میلیون یورو (8.1 میلیون دلار آمریکا) یا 1.5 درصد از گردش مالی، بسته به تخلف و اندازه شرکت، مواجه خواهند شد. . گمان می رود که مقررات مشابه AI خاص در مناطق دیگر به وجود بیاید در آینده نزدیک.
سایر نگرانیهای مربوط به دادههای حساس در محیطهای هوش مصنوعی که بیش از 80 درصد از پاسخدهندگان به مطالعه Perforce به آن اشاره کردهاند، شامل استفاده از داده های با کیفیت پایین به عنوان ورودی به مدلهای هوش مصنوعی، شناسایی مجدد دادههای شخصی و سرقت داده های آموزشی مدل، که می تواند شامل IP و اسرار تجاری باشد.
کسب و کارها نگران هزینه مالی داده های ناامن هستند
یکی دیگر از دلایل اصلی نگرانی کسبوکارهای بزرگ در مورد دادههای ناامن، احتمال جریمه سنگین عدم رعایت آنها است. داده های مصرف کننده به طور گسترده در معرض مقررات در حال گسترش است، مانند GDPR و HIPAA، که می تواند گیج کننده باشد و اغلب تغییر کند.
بسیاری از مقررات، مانند GDPR، جریمههایی را بر اساس گردش مالی سالانه اعمال میکنند، بنابراین شرکتهای بزرگتر با هزینههای بیشتری مواجه میشوند. گزارش پرفورس نشان میدهد که 43 درصد از پاسخدهندگان قبلاً مجبور به پرداخت یا تعدیل موارد عدم انطباق بودهاند و 52 درصد نیز مشکلات حسابرسی و شکستهای مربوط به دادههای غیرتولیدی را تجربه کردهاند.
اما هزینه نقض داده ها می تواند از جریمه عبور کند، زیرا بخشی از درآمد از دست رفته ناشی از توقف عملیات است. گزارش اخیر Splunk نشان داد که بزرگترین علت حوادث خرابی، خطاهای انسانی مرتبط با امنیت سایبری بود، مانند کلیک کردن روی پیوند فیشینگ.
خرابی برنامهریزی نشده برای بزرگترین شرکتهای جهان سالانه 400 میلیارد دلار هزینه دارد که از جمله آنها میتوان به از دست دادن درآمد مستقیم، کاهش ارزش سهامداران، راکد ماندن بهرهوری و آسیب به شهرت اشاره کرد. در واقع، پیشبینی میشود که هزینههای آسیب باجافزار بیشتر شود 265 میلیارد دلار تا سال 2031.
به گفته IBM، میانگین هزینه نقض داده در سال 2024، 4.88 میلیون دلار است10 درصد افزایش نسبت به سال 2023. گزارش غول فناوری اضافه کرد که 40 درصد از نقضها شامل دادههای ذخیرهشده در چندین محیط مانند ابر عمومی و on-prem است و این موارد به طور متوسط بیش از 5 میلیون دلار هزینه دارند و شناسایی و مهار آن طولانیترین زمان را میبرد. . این نشان میدهد که رهبران کسبوکار حق دارند نگران گسترش دادهها باشند.
ببینید: نزدیک به 10 میلیارد رمز عبور در بزرگترین مجموعه تمام دوران فاش شد
برداشتن گام هایی برای ایمن سازی داده ها در محیط های غیر تولیدی می تواند نیازمند منابع باشد
روش هایی وجود دارد که داده های ذخیره شده در محیط های غیر تولیدی را می توان ایمن کرد، مانند پوشاندن داده های حساس. با این حال، گزارش پرفورس نشان داد که کسبوکارها دلایل متعددی برای عدم تمایل به انجام این کار دارند، از جمله اینکه پاسخدهندگان این کار را دشوار و زمانبر میدانند و به این دلیل که ممکن است سازمان را کند کند.
- تقریباً یک سوم نگران هستند که ممکن است توسعه نرمافزار را کند کند، زیرا تکرار پایگاههای داده تولید در محیطهای غیرتولیدی میتواند هفتهها طول بکشد.
- 36 درصد می گویند داده های پوشانده می تواند غیرواقعی باشد و بنابراین بر کیفیت نرم افزار تأثیر می گذارد.
- 38٪ فکر می کنند که پروتکل های امنیتی ممکن است توانایی شرکت برای ردیابی و مطابقت با مقررات را کاهش دهد.
این گزارش همچنین نشان داد که 86 درصد از سازمانها به استثنای انطباق دادهها در محیطهای غیر تولیدی اجازه میدهند تا از دردسر ذخیرهسازی ایمن آنها جلوگیری کنند. اینها شامل استفاده از مجموعه داده های محدود، به حداقل رساندن داده ها، یا کسب رضایت از موضوع داده است.
توصیه هایی برای ایمن سازی داده های حساس در محیط های غیر تولیدی
تیم پرفورس چهار راه اصلی را که کسبوکارها میتوانند دادههای حساس خود را در محیطهای غیرتولیدی ایمن کنند، بیان کردند:
- پوشش داده استاتیک: جایگزینی دائمی مقادیر حساس با معادل های ساختگی و در عین حال واقعی.
- پیشگیری از از دست دادن داده ها (DLP): یک رویکرد امنیتی دفاعی محیطی که نقض احتمالی داده ها و سرقت ها را شناسایی می کند و سعی می کند از آنها جلوگیری کند.
- رمزگذاری داده ها: به طور موقت داده ها را به کد تبدیل می کند و فقط به کاربران مجاز اجازه دسترسی به داده ها را می دهد.
- کنترل دسترسی دقیق: خط مشی ای که کاربران را بر اساس نقش ها و سایر ویژگی ها دسته بندی می کند و دسترسی این کاربران به مجموعه داده ها را بر اساس این دسته بندی ها پیکربندی می کند.
نویسندگان نوشتند: «محافظت از داده های حساس به طور کلی آسان نیست. AI/ML به این پیچیدگی می افزاید.
ابزارهایی که در حفاظت از دادههای حساس در سایر محیطهای غیر تولیدی تخصص دارند – برای مثال توسعه، آزمایش و تجزیه و تحلیل – در موقعیت خوبی قرار دارند تا به شما کمک کنند از محیط هوش مصنوعی خود محافظت کنید.
منبع: https://www.techrepublic.com/article/sensitive-data-management-report/