Deepfakes می تواند تشخیص چهره را در صرافی های رمزنگاری فریب دهد


دیپ‌فیک‌های مولد هوش مصنوعی می‌توانند اطلاعات نادرست را تحریک کنند یا تصاویر افراد واقعی را برای اهداف نامطلوب دستکاری کنند. آن‌ها همچنین می‌توانند به عوامل تهدید کمک کنند تا احراز هویت دو مرحله‌ای را مطابق با ۹ اکتبر انجام دهند گزارش تحقیق از تحقیقات تهدید CTRL شبکه Cato.

هوش مصنوعی ویدیوهایی از افراد جعلی که به دوربین نگاه می کنند تولید می کند

عامل تهدید معرفی شده توسط CTRL Threat Research – که با ProKYC شناخته می شود – از دیپ فیک برای جعل شناسه های دولتی و جعل سیستم های تشخیص چهره استفاده می کند. مهاجم این ابزار را در وب تاریک به کلاهبرداران مشتاق می فروشد که هدف نهایی آنها نفوذ به صرافی های ارزهای دیجیتال است.

برخی از صرافی‌ها به یک دارنده حساب بالقوه نیاز دارند که هم شناسه دولتی ارسال کند و هم به صورت زنده در ویدیو ظاهر شود. با هوش مصنوعی مولد، مهاجم به راحتی تصویری واقعی از چهره یک فرد ایجاد می کند. ابزار Deepfake ProKYC سپس آن تصویر را در یک گواهینامه رانندگی یا پاسپورت جعلی قرار می دهد.

تست‌های تشخیص چهره صرافی‌های رمزنگاری نیازمند مدرک کوتاهی است که نشان دهد فرد مقابل دوربین حضور دارد. ابزار دیپ فیک دوربین را جعل می کند و تصویری از فردی که به چپ و راست نگاه می کند با هوش مصنوعی ایجاد می کند.

ببینید: متا آخرین غول هوش مصنوعی است که ابزارهایی برای آن ایجاد کرده است ویدیوی واقع گرایانه.

سپس مهاجم یک حساب کاربری در صرافی ارزهای دیجیتال با استفاده از هویت شخص ایجاد شده و ناموجود ایجاد می کند. از آنجا، آنها می توانند از این حساب برای شستشوی پول های به دست آمده غیرقانونی یا مرتکب سایر اشکال کلاهبرداری استفاده کنند. این نوع حمله که به نام کلاهبرداری حساب جدید شناخته می شود، در سال 2023 به 5.3 میلیارد دلار خسارت وارد کرد. Javelin Research و AARP.

فروش راه‌های نفوذ به شبکه‌ها چیز جدیدی نیست: باج افزار به عنوان یک سرویس طرح ها به مهاجمان مشتاق اجازه می دهد تا راه خود را به سیستم ها بخرند.

چگونه از کلاهبرداری حساب جدید جلوگیری کنیم

Etay Maor، استراتژیست امنیتی ارشد Cato Research، نکاتی را برای سازمان‌ها برای جلوگیری از ایجاد حساب‌های جعلی با استفاده از هوش مصنوعی ارائه کرد:

  • شرکت‌ها باید ویژگی‌های رایج ویدیوهای تولید شده با هوش مصنوعی، مانند ویدیوهای با کیفیت بسیار بالا را اسکن کنند – هوش مصنوعی می‌تواند تصاویری با وضوح بیشتری نسبت به آنچه که معمولاً توسط یک وب‌کم استاندارد گرفته می‌شود تولید کند.
  • در ویدیوهای تولید شده با هوش مصنوعی، به‌ویژه بی‌نظمی‌های اطراف چشم‌ها و لب‌ها را تماشا یا اسکن کنید.
  • به طور کلی داده های اطلاعاتی تهدید را از سراسر سازمان خود جمع آوری کنید.

Maor در گزارش تحقیقاتی Cato Research نوشت: یافتن تعادل بین بررسی بیش از حد یا خیلی کم می تواند دشوار باشد. او نوشت: «همانطور که در بالا ذکر شد، ایجاد سیستم‌های احراز هویت بیومتریک که فوق‌العاده محدود هستند، می‌تواند منجر به بسیاری از هشدارهای مثبت کاذب شود. از سوی دیگر، سهل انگاری در کنترل ها می تواند منجر به کلاهبرداری شود.



منبع: https://www.techrepublic.com/article/ai-deepfake-video-crypto-accounts/