هنگامی که بیشتر مردم به دیپفیکهای تولید شده توسط هوش مصنوعی فکر میکنند، احتمالاً به ویدیوهایی فکر میکنند که از سیاستمداران یا افراد مشهور دستکاری میشوند تا به نظر برسد که آنها کاری را که انجام ندادهاند گفته یا انجام دادهاند. اینها می توانند شوخی یا بدخواهانه باشند. به عنوان مثال، زمانی که دیپ فیک در اخبار است، معمولاً در ارتباط با یک کمپین اطلاعات غلط سیاسی است.
با این حال، آنچه بسیاری از مردم متوجه نمی شوند این است که استفاده مخرب از دیپ فیک بسیار فراتر از قلمرو سیاسی است. کلاهبرداران به طور فزاینده ای در استفاده از دیپ فیک های بلادرنگ برای جعل هویت افراد دارای مجوزها یا مجوزهای خاص مهارت دارند، بنابراین به آنها اجازه دسترسی به اسناد خصوصی، داده های شخصی حساس و اطلاعات مشتری را می دهند. این یک تهدید امنیت سایبری جدی برای کسب و کارها است و کسب و کارهای کافی در برابر آن محافظت نمی شوند.
به همراه توانایی تولید صدا، تصاویر و ویدئو از رهبران کسب و کار که کارهای بحث برانگیز یا غیراخلاقی را می گویند یا انجام می دهند، دیپ فیک می تواند به حریم خصوصی، امنیت، مالی و شهرت کسب و کار آسیب جدی وارد کند. ما در حال حاضر شاهد این اتفاق در سراسر جهان هستیم.
در فوریه سال جاری، یک کارمند مالی در یک شرکت چند ملیتی با موفقیت انجام شد فریب خورده و 25 میلیون دلار از سرمایه شرکت را پرداخت کرده است توسط یک دیپ فیک جعل هویت مدیر مالی و سایر کارکنان در یک تماس ویدئو کنفرانس. مسلماً ویدئو قابل اعتمادترین روش ارتباط تجاری دیجیتال است، بنابراین آسیب پذیری جدید آن در برابر کلاهبرداری های پیچیده و متقاعد کننده با فعال سازی عمیق یک نگرانی جدی است. حتی افراد با سواد تکنولوژیکی نیز میتوانند گرفتار این تقلبیها شوند و این یک مشکل بزرگ برای مشاغل در همه جا است.
مری-گو-روند تشخیص Deepfake
دسترسی به قدرت محاسباتی ارزان نه تنها اختراع، بلکه محبوبیت دیپ فیک را نیز ممکن کرد. هزینه تولید دیپ فیک سال به سال در حال کاهش است، به این معنی که ساخت سریع دیپ فیک در مقیاس برای کلاهبرداران آسان تر می شود. این منجر به یک بازی موش و گربه تکراری شده است. متخصصان امنیت سایبری آشکارسازهای جدید و سازندگان دیپفیک ایجاد میکنند و متعاقباً روشهای خود را برای ایجاد ویدیوهای جدید که از شناسایی فرار میکنند، تکرار میکنند.
آشکارسازهای دیپ فیک عمدتاً توسط هوش مصنوعی کار می کنند. هوش مصنوعی پیشرفته برای تشخیص هوش مصنوعی پیچیده مورد نیاز است، زیرا بسیاری از الگوهایی که نشان می دهد محتوا دستکاری شده است برای چشم انسان نامحسوس است. با رایجتر شدن دیپفیکها، مهندسان امنیت سایبری بهتر میتوانند از تعداد نمونههای افزایشیافته برای آموزش آشکارسازهای پیشرفتهتر و مؤثرتر دیپفیک استفاده کنند. با این حال، این میتواند خطر حمله را نیز افزایش دهد زیرا آشکارسازهای پیشرفتهتر خود نقاط کور ذاتی در قابلیتهای تشخیص خود دارند و در توضیح کامل مشکل از خود نشان میدهند. تا زمانی که ردیابها نتوانند دیپفیکها را گول بزنند و زمینهای برای سوء ظن آنها فراهم کنند، کسبوکارها باید هوشیار باشند.
چگونه کسب و کارها می توانند از خود محافظت کنند
دولت ها و کسب و کارها دیپ فیک را بیشتر و بیشتر جدی می گیرند. محافظت در برابر این نوع دستکاری مستلزم ترکیبی از راه حل های تکنولوژیکی و راه حل های مبتنی بر پرسنل است. اول و مهمتر از همه، یک روند منظم تیم قرمز باید انجام شود. تست استرس سیستم های تشخیص دیپ فیک با آخرین فناوری دیپ فیک تنها راه برای اطمینان از عملکرد صحیح یک سیستم تشخیص داده شده است.
دومین جنبه ضروری دفاع در برابر دیپ فیک، آموزش کارمندان است که نسبت به ویدئوها و کنفرانس های ویدئویی با درخواست هایی که خیلی شدید، فوری یا غیرعادی به نظر می رسند، بدبین باشند. فرهنگ شک و تردید متوسط بخشی از آگاهی و آمادگی امنیتی در کنار پروتکل های امنیتی استوار است. اغلب اولین خط دفاعی عقل سلیم و تأیید شخص به فرد است. این می تواند میلیون ها شرکت و تیم های امنیت سایبری آنها را صدها ساعت صرفه جویی کند.
در کنار راه حل های تکنولوژیکی، بهترین دفاع در برابر هوش مصنوعی مخرب عقل سلیم است. کسبوکارهایی که از این رویکرد دو جانبه استفاده میکنند، نسبت به کسبوکارهایی که این کار را نمیکنند، شانس بهتری برای محافظت از خود خواهند داشت. با توجه به سرعتی که دیپفیکها با آن در حال تکامل هستند، این چیزی جز حیاتی نیست.
منبع: https://aibusiness.com/generative-ai/how-ai-deepfakes-threaten-cybersecurity