نویسنده(های): روهان رائو
در ابتدا منتشر شد به سمت هوش مصنوعی.
حمله سایبری – دستکاری یادگیری ماشینی مدل ها
این داستان فقط برای اعضا در اختیار ماست. برای دسترسی به تمام Medium ارتقا دهید.
امروز صبح ناگهان فکری به ذهنم رسید که اگر در حال استفاده هستیم یادگیری ماشینی مدلهایی در چنین مقیاس عظیمی، آسیبپذیریها در خود مدلها چگونه بررسی میشوند؟
کمی جستجو کردم و متوجه شدم که چیزی به نام یادگیری ماشین متخاصم وجود دارد – هیجان انگیز به نظر می رسد!
یادگیری ماشین متخاصم یا به طور ساده AML زیرشاخه ای از هوش مصنوعی است که چگونگی دستکاری مدل یادگیری ماشین را بررسی می کند.
همچنین میتوان آن را «حمله سایبری» برای فریب دادن یک مدل با ورودیهای ناخواسته نامید.
برای مثال به شکل نگاه کنید:
مطالعات نشان میدهد که با افزودن یک تغییر بسیار کوچک به دادهها، میتوان مدل یادگیری ماشینی را به تصمیمگیری نادرست و در نتیجه پیشبینی اشتباه سوق داد.
مثال دیگر:
این نگران کننده به نظر می رسد، اینطور نیست؟ بیایید ابتدا مفاهیم کلیدی آن را ببینیم تا درک بهتری داشته باشیم.
انواع مختلفی از حملات دشمن وجود دارد:
این حملات معمولا زمانی اتفاق می افتد که مهاجم بتواند کل معماری مدل را کنترل کند. او کنترل هایی دارد داده های آموزشی، وزن ها و پارامترها
این زمانی اتفاق می افتد که مهاجم دانش محدودی از مدل داشته باشد. او نمی تواند به معماری داخلی مدل دسترسی داشته باشد. او فقط می تواند پرس و جو کند داده های آموزشی، پارامترها و … وبلاگ کامل را به صورت رایگان در Medium بخوانید.
منتشر شده از طریق به سمت هوش مصنوعی
منبع: https://towardsai.net/p/l/adversarial-machine-learning-a-deep-dive