محققان امنیتی یک ربات چت مخرب جدید را کشف کرده اند که در انجمن های جرایم سایبری تبلیغ می شود. GhostGPT بدافزار، کلاهبرداری های در معرض خطر ایمیل تجاری و مطالب بیشتری را برای فعالیت های غیرقانونی تولید می کند.
ربات چت احتمالاً از یک پوشش برای اتصال به نسخه جیلبریک شده OpenAI استفاده می کند ChatGPT کارشناسان امنیت غیرعادی مشکوک هستند یا یک مدل زبان بزرگ دیگر. به رباتهای گفتگوی جیلبریک دستور داده شده است که از محافظهای خود چشم پوشی کنند تا برای مجرمان مفیدتر باشند.
GhostGPT چیست؟
محققان امنیتی تبلیغی برای GhostGPT در یک فروم سایبری پیدا کردند و تصویر یک چهره سرپوش به عنوان پس زمینه آن تنها سرنخ مبنی بر این نیست که برای اهداف پلید در نظر گرفته شده است. این ربات سرعت پردازش سریعی را ارائه می دهد که برای کمپین های حمله تحت فشار زمان مفید است. به عنوان مثال، مهاجمان باج افزار باید قبل از تقویت سیستم های دفاعی، یک بار در یک سیستم هدف سریع عمل کنند.

همچنین می گوید که فعالیت کاربر در GhostGPT ثبت نشده است و می توان آن را از طریق برنامه پیام رسان رمزگذاری شده تلگرام خریداری کرد، که احتمالاً برای مجرمانی که نگران حفظ حریم خصوصی هستند جذاب است. ربات چت را می توان در تلگرام استفاده کرد، بنابراین نیازی به دانلود نرم افزار مشکوک بر روی دستگاه کاربر نیست.
دسترسی به آن از طریق تلگرام نیز باعث صرفه جویی در زمان می شود. هکر نیازی به ایجاد یک دستور جیلبریک پیچیده یا راه اندازی یک مدل منبع باز ندارد. در عوض، آنها فقط برای دسترسی پرداخت می کنند و می توانند ادامه دهند.
محققان امنیت غیرعادی در خود گفتند: «GhostGPT اساساً برای طیف وسیعی از فعالیتهای مخرب، از جمله کدنویسی، ایجاد بدافزار، و توسعه بهرهبرداری به بازار عرضه شده است. گزارش دهید. همچنین میتوان از آن برای نوشتن ایمیلهای قانعکننده برای کلاهبرداریهای BEC استفاده کرد که آن را به ابزاری مناسب برای ارتکاب جرایم سایبری تبدیل میکند.
از «امنیت سایبری» به عنوان یک استفاده بالقوه در آگهی یاد میکند، اما با توجه به زبانی که به اثربخشی آن برای فعالیتهای مجرمانه اشاره میکند، محققان میگویند این احتمالاً «تلاش ضعیفی برای طفره رفتن از پاسخگویی قانونی» است.
برای آزمایش قابلیتهای آن، محققان به آن دستور «نوشتن a فیشینگ ایمیل از Docusign، و با یک الگوی قانع کننده، از جمله فضایی برای «شماره پشتیبانی جعلی» پاسخ داد.

این تبلیغ هزاران بازدید را به خود اختصاص داده است، که هم نشان می دهد که GhostGPT مفید است و هم علاقه فزاینده ای در بین مجرمان سایبری به LLM های جیلبریک شده وجود دارد. با وجود این، تحقیقات نشان داده است که ایمیل های فیشینگ نوشته شده توسط انسان ها 3 درصد نرخ کلیک بهتری دارند نسبت به مواردی که توسط هوش مصنوعی نوشته شده است، و همچنین با نرخ کمتری مشکوک گزارش می شوند.
با این حال، مواد تولید شده توسط هوش مصنوعی نیز می توانند با سرعت بیشتری ایجاد و توزیع شوند و تقریباً هر کسی که دارای کارت اعتباری است، صرف نظر از دانش فنی، می تواند آن را انجام دهد. همچنین می تواند برای مواردی بیش از حملات فیشینگ استفاده شود. محققان دریافته اند که GPT-4 می تواند به طور مستقل از 87 درصد از آسیب پذیری های “یک روزه” بهره برداری می کند در صورت ارائه ابزار لازم
جی پی تی های جیلبریک نزدیک به دو سال است که در حال ظهور و استفاده فعال بوده اند
مدلهای خصوصی GPT برای استفادههای شرورانه مدتی است که در حال ظهور هستند. در آوریل 2024، گزارشی از شرکت امنیتی Radware آنها را به عنوان یکی از آنها نام برد بزرگترین تأثیرات هوش مصنوعی بر چشم انداز امنیت سایبری آن سال
سازندگان چنین GPTهای خصوصی تمایل دارند دسترسی را با هزینه ماهانه ارائه دهند صدها تا هزاران دلار، آنها را به تجارت خوبی تبدیل می کند. با این حال، جیلبریک کردن مدلهای موجود نیز دشوار نیست، زیرا تحقیقات نشان میدهد که 20 درصد از چنین حملاتی موفقیت آمیز هستند. به طور متوسط، دشمنان برای شکستن تنها به 42 ثانیه و پنج تعامل نیاز دارند.
ببینید: گارتنر می گوید: حملات سایبری به کمک هوش مصنوعی برترین تهدیدات سایبری است
نمونه های دیگر از این گونه مدل ها عبارتند از WormGPT، WolfGPT، EscapeGPT، FraudGPT، DarkBard و Dark Gemini. در آگوست 2023، راکش کریشنان، تحلیلگر ارشد تهدید در Netenrich، گفت: سیمی به نظر میرسد که FraudGPT فقط چند مشترک دارد و «همه این پروژهها در مراحل ابتدایی خود هستند». با این حال، در ماه ژانویه، هیئتی در مجمع جهانی اقتصاد شامل دبیر کل اینترپل یورگن استاک، FraudGPT به طور خاص مورد بحث قرار گرفت، ارتباط مداوم آن را برجسته می کند.
شواهدی وجود دارد که نشان می دهد مجرمان از هوش مصنوعی برای حملات سایبری خود استفاده می کنند. تعداد سازش ایمیل تجاری حملات شناسایی شده توسط شرکت امنیتی Vipre در سه ماهه دوم سال 2024، 20 درصد بیشتر از مدت مشابه در سال 2023 بود – و دو پنجم آنها توسط هوش مصنوعی تولید شده است. در ماه ژوئن، اچ پی یک کمپین ایمیلی را رهگیری کرد که بدافزار را در طبیعت با یک اسکریپت پخش می کرد “به احتمال زیاد با کمک GenAI نوشته شده است.”
پاسکال جیننز، مدیر اطلاعات تهدید Radware، در ایمیلی به TechRepublic گفت: «پیشرفت بعدی در این زمینه، به نظر من، پیادهسازی چارچوبهایی برای خدمات هوش مصنوعی عاملی. در آینده نزدیک، به دنبال انبوه عوامل هوش مصنوعی کاملاً خودکار باشید که می توانند کارهای پیچیده تری را انجام دهند.
منبع: https://www.techrepublic.com/article/what-is-ghostgpt/