چگونه AI Deepfakes امنیت سایبری را تهدید می کند


هنگامی که بیشتر مردم به دیپ‌فیک‌های تولید شده توسط هوش مصنوعی فکر می‌کنند، احتمالاً به ویدیوهایی فکر می‌کنند که از سیاستمداران یا افراد مشهور دستکاری می‌شوند تا به نظر برسد که آنها کاری را که انجام نداده‌اند گفته یا انجام داده‌اند. اینها می توانند شوخی یا بدخواهانه باشند. به عنوان مثال، زمانی که دیپ فیک در اخبار است، معمولاً در ارتباط با یک کمپین اطلاعات غلط سیاسی است.

با این حال، آنچه بسیاری از مردم متوجه نمی شوند این است که استفاده مخرب از دیپ فیک بسیار فراتر از قلمرو سیاسی است. کلاهبرداران به طور فزاینده ای در استفاده از دیپ فیک های بلادرنگ برای جعل هویت افراد دارای مجوزها یا مجوزهای خاص مهارت دارند، بنابراین به آنها اجازه دسترسی به اسناد خصوصی، داده های شخصی حساس و اطلاعات مشتری را می دهند. این یک تهدید امنیت سایبری جدی برای کسب و کارها است و کسب و کارهای کافی در برابر آن محافظت نمی شوند.

به همراه توانایی تولید صدا، تصاویر و ویدئو از رهبران کسب و کار که کارهای بحث برانگیز یا غیراخلاقی را می گویند یا انجام می دهند، دیپ فیک می تواند به حریم خصوصی، امنیت، مالی و شهرت کسب و کار آسیب جدی وارد کند. ما در حال حاضر شاهد این اتفاق در سراسر جهان هستیم.

در فوریه سال جاری، یک کارمند مالی در یک شرکت چند ملیتی با موفقیت انجام شد فریب خورده و 25 میلیون دلار از سرمایه شرکت را پرداخت کرده است توسط یک دیپ فیک جعل هویت مدیر مالی و سایر کارکنان در یک تماس ویدئو کنفرانس. مسلماً ویدئو قابل اعتمادترین روش ارتباط تجاری دیجیتال است، بنابراین آسیب پذیری جدید آن در برابر کلاهبرداری های پیچیده و متقاعد کننده با فعال سازی عمیق یک نگرانی جدی است. حتی افراد با سواد تکنولوژیکی نیز می‌توانند گرفتار این تقلبی‌ها شوند و این یک مشکل بزرگ برای مشاغل در همه جا است.

مرتبط:نحوه استفاده از هوش مصنوعی برای آینده ای اخلاقی و پایدار

مری-گو-روند تشخیص Deepfake

دسترسی به قدرت محاسباتی ارزان نه تنها اختراع، بلکه محبوبیت دیپ فیک را نیز ممکن کرد. هزینه تولید دیپ فیک سال به سال در حال کاهش است، به این معنی که ساخت سریع دیپ فیک در مقیاس برای کلاهبرداران آسان تر می شود. این منجر به یک بازی موش و گربه تکراری شده است. متخصصان امنیت سایبری آشکارسازهای جدید و سازندگان دیپ‌فیک ایجاد می‌کنند و متعاقباً روش‌های خود را برای ایجاد ویدیوهای جدید که از شناسایی فرار می‌کنند، تکرار می‌کنند.

آشکارسازهای دیپ فیک عمدتاً توسط هوش مصنوعی کار می کنند. هوش مصنوعی پیشرفته برای تشخیص هوش مصنوعی پیچیده مورد نیاز است، زیرا بسیاری از الگوهایی که نشان می دهد محتوا دستکاری شده است برای چشم انسان نامحسوس است. با رایج‌تر شدن دیپ‌فیک‌ها، مهندسان امنیت سایبری بهتر می‌توانند از تعداد نمونه‌های افزایش‌یافته برای آموزش آشکارسازهای پیشرفته‌تر و مؤثرتر دیپ‌فیک استفاده کنند. با این حال، این می‌تواند خطر حمله را نیز افزایش دهد زیرا آشکارسازهای پیشرفته‌تر خود نقاط کور ذاتی در قابلیت‌های تشخیص خود دارند و در توضیح کامل مشکل از خود نشان می‌دهند. تا زمانی که ردیاب‌ها نتوانند دیپ‌فیک‌ها را گول بزنند و زمینه‌ای برای سوء ظن آن‌ها فراهم کنند، کسب‌وکارها باید هوشیار باشند.

مرتبط:هوش مصنوعی مولد: وعده یا خطر؟

چگونه کسب و کارها می توانند از خود محافظت کنند

دولت ها و کسب و کارها دیپ فیک را بیشتر و بیشتر جدی می گیرند. محافظت در برابر این نوع دستکاری مستلزم ترکیبی از راه حل های تکنولوژیکی و راه حل های مبتنی بر پرسنل است. اول و مهمتر از همه، یک روند منظم تیم قرمز باید انجام شود. تست استرس سیستم های تشخیص دیپ فیک با آخرین فناوری دیپ فیک تنها راه برای اطمینان از عملکرد صحیح یک سیستم تشخیص داده شده است.

دومین جنبه ضروری دفاع در برابر دیپ فیک، آموزش کارمندان است که نسبت به ویدئوها و کنفرانس های ویدئویی با درخواست هایی که خیلی شدید، فوری یا غیرعادی به نظر می رسند، بدبین باشند. فرهنگ شک و تردید متوسط ​​بخشی از آگاهی و آمادگی امنیتی در کنار پروتکل های امنیتی استوار است. اغلب اولین خط دفاعی عقل سلیم و تأیید شخص به فرد است. این می تواند میلیون ها شرکت و تیم های امنیت سایبری آنها را صدها ساعت صرفه جویی کند.

در کنار راه حل های تکنولوژیکی، بهترین دفاع در برابر هوش مصنوعی مخرب عقل سلیم است. کسب‌وکارهایی که از این رویکرد دو جانبه استفاده می‌کنند، نسبت به کسب‌وکارهایی که این کار را نمی‌کنند، شانس بهتری برای محافظت از خود خواهند داشت. با توجه به سرعتی که دیپ‌فیک‌ها با آن در حال تکامل هستند، این چیزی جز حیاتی نیست.





منبع: https://aibusiness.com/generative-ai/how-ai-deepfakes-threaten-cybersecurity