Slopsquatting & Vibe Coding می تواند خطر حملات AI را افزایش دهد


با برنامه نویسی در مانیتور بزرگنمایی شده است.

محققان و توسعه دهندگان امنیتی در حال افزایش هشدارهایی در مورد “Slopsquatting” هستند ، شکل جدیدی از حمله زنجیره تأمین که از اطلاعات نادرست ناشی از AI که معمولاً به عنوان توهم شناخته می شود ، استفاده می کند. از آنجا که توسعه دهندگان به طور فزاینده ای به ابزارهای برنامه نویسی مانند Github Copilot ، Chatgpt و Deepseek تکیه می کنند ، مهاجمان در حال سوءاستفاده از تمایل AI برای اختراع بسته های نرم افزاری هستند و کاربران را در بارگیری محتوای مخرب فریب می دهند.

Slopsquatting چیست؟

اصطلاح slopsquatting در ابتدا توسط ست لارسون ، توسعه دهنده بنیاد نرم افزار پایتون ، ابداع شد و بعداً توسط اندرو نسبیت ، محقق امنیتی فناوری محبوب شد. این به مواردی اشاره دارد که مهاجمان بسته های نرم افزاری را که در واقع وجود ندارند ، ثبت می کنند اما به اشتباه توسط AI Tools پیشنهاد می شوند. پس از زندگی ، این بسته های جعلی می توانند حاوی کد مضر باشند.

اگر یک توسعه دهنده یکی از این موارد را بدون تأیید آن – به سادگی اعتماد به هوش مصنوعی – نصب کند ، آنها ممکن است ناآگاهانه کد مخرب را به پروژه خود معرفی کنند و به هکرها دسترسی به محیط های حساس دسترسی پیدا کنند.

بر خلاف تایپ کردن ، جایی که بازیگران مخرب روی اشتباهات هجی انسان حساب می کنند ، Slopsquatting کاملاً به نقص های هوش مصنوعی متکی است و توسعه دهندگان اعتماد به پیشنهادات خودکار را نادیده گرفته اند.

بسته های نرم افزاری هوش مصنوعی در حال افزایش است

این موضوع بیش از نظری است. یک مطالعه مشترک اخیر توسط محققان دانشگاه تگزاس در سن آنتونیو ، ویرجینیا تکن و دانشگاه اوکلاهما بیش از 576،000 مورد تجزیه و تحلیل کد تولید شده توسط AI نمونه از 16 مدل بزرگ زبان (LLM). آنها دریافتند که نزدیک به 5 بسته پیشنهادی توسط هوش مصنوعی وجود ندارد.

“میانگین درصد بسته های توهم یافته حداقل 5.2 ٪ برای مدل های تجاری و 21.7 ٪ برای مدل های منبع باز ، از جمله 205،474 نمونه منحصر به فرد از نام بسته های توهم یافته ، بیشتر تأکید بر شدت و فراگیر بودن این تهدید ،” مطالعه نشان دادبشر

حتی نگران کننده تر ، این نام های توهم تصادفی تصادفی نبودند. در چندین اجرا با استفاده از همان اعلان ها ، 43 ٪ از بسته های توهم یافته به طور مداوم دوباره ظاهر می شوند و نشان می دهند که این توهمات چقدر قابل پیش بینی است. همانطور که توسط شرکت امنیتی سوکت توضیح داده شده است ، این قوام نقشه راه را به مهاجمان می دهد – آنها می توانند رفتار هوش مصنوعی را رصد کنند ، پیشنهادات مکرر را شناسایی کنند و قبل از هر کس دیگری آن نام های بسته را ثبت کنند.

این مطالعه همچنین به تفاوت در مدل ها اشاره کرد: Codellama 7B و 34B بالاترین میزان توهم بیش از 30 ٪ را داشتند. GPT-4 توربو کمترین نرخ را با 3.59 ٪ داشت.

چگونه برنامه نویسی VIBE ممکن است این خطر امنیتی را افزایش دهد

یک روند رو به رشد به نام Vibe Coding ، اصطلاحی که توسط محقق هوش مصنوعی آندره کارپتی ابداع شده است ، ممکن است این مسئله را بدتر کند. این به یک گردش کار اشاره دارد که توسعه دهندگان آنچه را که می خواهند توصیف می کنند و ابزارهای هوش مصنوعی کد را تولید می کنند. این رویکرد به شدت به اعتماد تکیه می کند-توسعه دهندگان غالباً بدون بررسی همه چیز ، خروجی AI را کپی و چسباندند.

در این محیط ، بسته های توهم یافته به نقاط ورود آسان برای مهاجمان تبدیل می شوند ، به ویژه هنگامی که توسعه دهندگان مراحل بررسی دستی را رد می کنند و فقط به پیشنهادات تولید شده AI متکی هستند.

چگونه توسعه دهندگان می توانند از خود محافظت کنند

برای جلوگیری از قربانی شدن در Slopsquatting ، کارشناسان توصیه می کنند:

  • قبل از نصب ، همه نام های بسته را به صورت دستی تأیید کنید.
  • با استفاده از بسته بندی ابزارهای امنیتی این وابستگی به خطرات را اسکن می کند.
  • بررسی کتابخانه های مشکوک یا کاملاً جدید.
  • اجتناب از دستورات نصب کپی مستقیم از پیشنهادات AI.

در همین حال ، خبرهای خوبی وجود دارد: برخی مدل های AI در حال پیشرفت در خودپلیک کردن است. به عنوان مثال ، GPT-4 Turbo و Deepseek نشان داده اند که می توانند بسته های توهم یافته را در خروجی خود با بیش از 75 ٪ دقت تشخیص دهند و پرچم گذاری کنند.



منبع: https://www.techrepublic.com/article/news-slopsquatting-vide-coding-ai-cybersecurity-risk/