طرح سایبری جدید برای ایجاد بدافزار، کلاهبرداری


محققان امنیتی یک ربات چت مخرب جدید را کشف کرده اند که در انجمن های جرایم سایبری تبلیغ می شود. GhostGPT بدافزار، کلاهبرداری های در معرض خطر ایمیل تجاری و مطالب بیشتری را برای فعالیت های غیرقانونی تولید می کند.

ربات چت احتمالاً از یک پوشش برای اتصال به نسخه جیلبریک شده OpenAI استفاده می کند ChatGPT کارشناسان امنیت غیرعادی مشکوک هستند یا یک مدل زبان بزرگ دیگر. به ربات‌های گفتگوی جیلبریک دستور داده شده است که از محافظ‌های خود چشم پوشی کنند تا برای مجرمان مفیدتر باشند.

GhostGPT چیست؟

محققان امنیتی تبلیغی برای GhostGPT در یک فروم سایبری پیدا کردند و تصویر یک چهره سرپوش به عنوان پس زمینه آن تنها سرنخ مبنی بر این نیست که برای اهداف پلید در نظر گرفته شده است. این ربات سرعت پردازش سریعی را ارائه می دهد که برای کمپین های حمله تحت فشار زمان مفید است. به عنوان مثال، مهاجمان باج افزار باید قبل از تقویت سیستم های دفاعی، یک بار در یک سیستم هدف سریع عمل کنند.

گرافیک تبلیغاتی رسمی برای GhostGPT.
گرافیک تبلیغاتی رسمی برای GhostGPT. تصویر: امنیت غیر عادی

همچنین می گوید که فعالیت کاربر در GhostGPT ثبت نشده است و می توان آن را از طریق برنامه پیام رسان رمزگذاری شده تلگرام خریداری کرد، که احتمالاً برای مجرمانی که نگران حفظ حریم خصوصی هستند جذاب است. ربات چت را می توان در تلگرام استفاده کرد، بنابراین نیازی به دانلود نرم افزار مشکوک بر روی دستگاه کاربر نیست.

دسترسی به آن از طریق تلگرام نیز باعث صرفه جویی در زمان می شود. هکر نیازی به ایجاد یک دستور جیلبریک پیچیده یا راه اندازی یک مدل منبع باز ندارد. در عوض، آنها فقط برای دسترسی پرداخت می کنند و می توانند ادامه دهند.

محققان امنیت غیرعادی در خود گفتند: «GhostGPT اساساً برای طیف وسیعی از فعالیت‌های مخرب، از جمله کدنویسی، ایجاد بدافزار، و توسعه بهره‌برداری به بازار عرضه شده است. گزارش دهید. همچنین می‌توان از آن برای نوشتن ایمیل‌های قانع‌کننده برای کلاهبرداری‌های BEC استفاده کرد که آن را به ابزاری مناسب برای ارتکاب جرایم سایبری تبدیل می‌کند.

از «امنیت سایبری» به عنوان یک استفاده بالقوه در آگهی یاد می‌کند، اما با توجه به زبانی که به اثربخشی آن برای فعالیت‌های مجرمانه اشاره می‌کند، محققان می‌گویند این احتمالاً «تلاش ضعیفی برای طفره رفتن از پاسخگویی قانونی» است.

برای آزمایش قابلیت‌های آن، محققان به آن دستور «نوشتن a فیشینگ ایمیل از Docusign، و با یک الگوی قانع کننده، از جمله فضایی برای «شماره پشتیبانی جعلی» پاسخ داد.

یک ایمیل فیشینگ ایجاد شده توسط GhostGPT.
یک ایمیل فیشینگ ایجاد شده توسط GhostGPT. تصویر: امنیت غیر عادی

این تبلیغ هزاران بازدید را به خود اختصاص داده است، که هم نشان می دهد که GhostGPT مفید است و هم علاقه فزاینده ای در بین مجرمان سایبری به LLM های جیلبریک شده وجود دارد. با وجود این، تحقیقات نشان داده است که ایمیل های فیشینگ نوشته شده توسط انسان ها 3 درصد نرخ کلیک بهتری دارند نسبت به مواردی که توسط هوش مصنوعی نوشته شده است، و همچنین با نرخ کمتری مشکوک گزارش می شوند.

با این حال، مواد تولید شده توسط هوش مصنوعی نیز می توانند با سرعت بیشتری ایجاد و توزیع شوند و تقریباً هر کسی که دارای کارت اعتباری است، صرف نظر از دانش فنی، می تواند آن را انجام دهد. همچنین می تواند برای مواردی بیش از حملات فیشینگ استفاده شود. محققان دریافته اند که GPT-4 می تواند به طور مستقل از 87 درصد از آسیب پذیری های “یک روزه” بهره برداری می کند در صورت ارائه ابزار لازم

جی پی تی های جیلبریک نزدیک به دو سال است که در حال ظهور و استفاده فعال بوده اند

مدل‌های خصوصی GPT برای استفاده‌های شرورانه مدتی است که در حال ظهور هستند. در آوریل 2024، گزارشی از شرکت امنیتی Radware آنها را به عنوان یکی از آنها نام برد بزرگترین تأثیرات هوش مصنوعی بر چشم انداز امنیت سایبری آن سال

سازندگان چنین GPTهای خصوصی تمایل دارند دسترسی را با هزینه ماهانه ارائه دهند صدها تا هزاران دلار، آنها را به تجارت خوبی تبدیل می کند. با این حال، جیلبریک کردن مدل‌های موجود نیز دشوار نیست، زیرا تحقیقات نشان می‌دهد که 20 درصد از چنین حملاتی موفقیت آمیز هستند. به طور متوسط، دشمنان برای شکستن تنها به 42 ثانیه و پنج تعامل نیاز دارند.

ببینید: گارتنر می گوید: حملات سایبری به کمک هوش مصنوعی برترین تهدیدات سایبری است

نمونه های دیگر از این گونه مدل ها عبارتند از WormGPT، WolfGPT، EscapeGPT، FraudGPT، DarkBard و Dark Gemini. در آگوست 2023، راکش کریشنان، تحلیلگر ارشد تهدید در Netenrich، گفت: سیمی به نظر می‌رسد که FraudGPT فقط چند مشترک دارد و «همه این پروژه‌ها در مراحل ابتدایی خود هستند». با این حال، در ماه ژانویه، هیئتی در مجمع جهانی اقتصاد شامل دبیر کل اینترپل یورگن استاک، FraudGPT به طور خاص مورد بحث قرار گرفت، ارتباط مداوم آن را برجسته می کند.

شواهدی وجود دارد که نشان می دهد مجرمان از هوش مصنوعی برای حملات سایبری خود استفاده می کنند. تعداد سازش ایمیل تجاری حملات شناسایی شده توسط شرکت امنیتی Vipre در سه ماهه دوم سال 2024، 20 درصد بیشتر از مدت مشابه در سال 2023 بود – و دو پنجم آنها توسط هوش مصنوعی تولید شده است. در ماه ژوئن، اچ پی یک کمپین ایمیلی را رهگیری کرد که بدافزار را در طبیعت با یک اسکریپت پخش می کرد “به احتمال زیاد با کمک GenAI نوشته شده است.”

پاسکال جیننز، مدیر اطلاعات تهدید Radware، در ایمیلی به TechRepublic گفت: «پیشرفت بعدی در این زمینه، به نظر من، پیاده‌سازی چارچوب‌هایی برای خدمات هوش مصنوعی عاملی. در آینده نزدیک، به دنبال انبوه عوامل هوش مصنوعی کاملاً خودکار باشید که می توانند کارهای پیچیده تری را انجام دهند.



منبع: https://www.techrepublic.com/article/what-is-ghostgpt/

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *