دیپفیکهای مولد هوش مصنوعی میتوانند اطلاعات نادرست را تحریک کنند یا تصاویر افراد واقعی را برای اهداف نامطلوب دستکاری کنند. آنها همچنین میتوانند به عوامل تهدید کمک کنند تا احراز هویت دو مرحلهای را مطابق با ۹ اکتبر انجام دهند گزارش تحقیق از تحقیقات تهدید CTRL شبکه Cato.
هوش مصنوعی ویدیوهایی از افراد جعلی که به دوربین نگاه می کنند تولید می کند
عامل تهدید معرفی شده توسط CTRL Threat Research – که با ProKYC شناخته می شود – از دیپ فیک برای جعل شناسه های دولتی و جعل سیستم های تشخیص چهره استفاده می کند. مهاجم این ابزار را در وب تاریک به کلاهبرداران مشتاق می فروشد که هدف نهایی آنها نفوذ به صرافی های ارزهای دیجیتال است.
برخی از صرافیها به یک دارنده حساب بالقوه نیاز دارند که هم شناسه دولتی ارسال کند و هم به صورت زنده در ویدیو ظاهر شود. با هوش مصنوعی مولد، مهاجم به راحتی تصویری واقعی از چهره یک فرد ایجاد می کند. ابزار Deepfake ProKYC سپس آن تصویر را در یک گواهینامه رانندگی یا پاسپورت جعلی قرار می دهد.
تستهای تشخیص چهره صرافیهای رمزنگاری نیازمند مدرک کوتاهی است که نشان دهد فرد مقابل دوربین حضور دارد. ابزار دیپ فیک دوربین را جعل می کند و تصویری از فردی که به چپ و راست نگاه می کند با هوش مصنوعی ایجاد می کند.
ببینید: متا آخرین غول هوش مصنوعی است که ابزارهایی برای آن ایجاد کرده است ویدیوی واقع گرایانه.
سپس مهاجم یک حساب کاربری در صرافی ارزهای دیجیتال با استفاده از هویت شخص ایجاد شده و ناموجود ایجاد می کند. از آنجا، آنها می توانند از این حساب برای شستشوی پول های به دست آمده غیرقانونی یا مرتکب سایر اشکال کلاهبرداری استفاده کنند. این نوع حمله که به نام کلاهبرداری حساب جدید شناخته می شود، در سال 2023 به 5.3 میلیارد دلار خسارت وارد کرد. Javelin Research و AARP.
فروش راههای نفوذ به شبکهها چیز جدیدی نیست: باج افزار به عنوان یک سرویس طرح ها به مهاجمان مشتاق اجازه می دهد تا راه خود را به سیستم ها بخرند.
چگونه از کلاهبرداری حساب جدید جلوگیری کنیم
Etay Maor، استراتژیست امنیتی ارشد Cato Research، نکاتی را برای سازمانها برای جلوگیری از ایجاد حسابهای جعلی با استفاده از هوش مصنوعی ارائه کرد:
- شرکتها باید ویژگیهای رایج ویدیوهای تولید شده با هوش مصنوعی، مانند ویدیوهای با کیفیت بسیار بالا را اسکن کنند – هوش مصنوعی میتواند تصاویری با وضوح بیشتری نسبت به آنچه که معمولاً توسط یک وبکم استاندارد گرفته میشود تولید کند.
- در ویدیوهای تولید شده با هوش مصنوعی، بهویژه بینظمیهای اطراف چشمها و لبها را تماشا یا اسکن کنید.
- به طور کلی داده های اطلاعاتی تهدید را از سراسر سازمان خود جمع آوری کنید.
Maor در گزارش تحقیقاتی Cato Research نوشت: یافتن تعادل بین بررسی بیش از حد یا خیلی کم می تواند دشوار باشد. او نوشت: «همانطور که در بالا ذکر شد، ایجاد سیستمهای احراز هویت بیومتریک که فوقالعاده محدود هستند، میتواند منجر به بسیاری از هشدارهای مثبت کاذب شود. از سوی دیگر، سهل انگاری در کنترل ها می تواند منجر به کلاهبرداری شود.
منبع: https://www.techrepublic.com/article/ai-deepfake-video-crypto-accounts/