یادگیری ماشین متخاصم: شیرجه عمیق


نویسنده(های): روهان رائو

در ابتدا منتشر شد به سمت هوش مصنوعی.

حمله سایبری – دستکاری یادگیری ماشینی مدل ها

این داستان فقط برای اعضا در اختیار ماست. برای دسترسی به تمام Medium ارتقا دهید.

تصویر ایجاد شده توسط نویسنده در canva

امروز صبح ناگهان فکری به ذهنم رسید که اگر در حال استفاده هستیم یادگیری ماشینی مدل‌هایی در چنین مقیاس عظیمی، آسیب‌پذیری‌ها در خود مدل‌ها چگونه بررسی می‌شوند؟

کمی جستجو کردم و متوجه شدم که چیزی به نام یادگیری ماشین متخاصم وجود دارد – هیجان انگیز به نظر می رسد!

اعتبار تصویر: https://www.researchgate.net/figure/An-adversarial-machine-learning-The-upper-layer-represent-the-traditional-machine_fig1_365747650

یادگیری ماشین متخاصم یا به طور ساده AML زیرشاخه ای از هوش مصنوعی است که چگونگی دستکاری مدل یادگیری ماشین را بررسی می کند.

همچنین می‌توان آن را «حمله سایبری» برای فریب دادن یک مدل با ورودی‌های ناخواسته نامید.

برای مثال به شکل نگاه کنید:

اعتبار تصویر: https://www.researchgate.net/figure/An-illustration-of-machine-learning-adversarial-examples-Studies-have-shown-that-by_fig1_324055823

مطالعات نشان می‌دهد که با افزودن یک تغییر بسیار کوچک به داده‌ها، می‌توان مدل یادگیری ماشینی را به تصمیم‌گیری نادرست و در نتیجه پیش‌بینی اشتباه سوق داد.

مثال دیگر:

اعتبار تصویر: https://www.educba.com/adversarial-machine-learning/

این نگران کننده به نظر می رسد، اینطور نیست؟ بیایید ابتدا مفاهیم کلیدی آن را ببینیم تا درک بهتری داشته باشیم.

انواع مختلفی از حملات دشمن وجود دارد:

این حملات معمولا زمانی اتفاق می افتد که مهاجم بتواند کل معماری مدل را کنترل کند. او کنترل هایی دارد داده های آموزشی، وزن ها و پارامترها

این زمانی اتفاق می افتد که مهاجم دانش محدودی از مدل داشته باشد. او نمی تواند به معماری داخلی مدل دسترسی داشته باشد. او فقط می تواند پرس و جو کند داده های آموزشی، پارامترها و … وبلاگ کامل را به صورت رایگان در Medium بخوانید.

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/l/adversarial-machine-learning-a-deep-dive