سازمان هایی که به طور منظم از هوش مصنوعی مولد استفاده می کنند از سال 2023 تقریباً دو برابر شده اند. گزارش مزایای قابل اندازه گیری. بیشتر تحقیق کنید نشان می دهد که تقریباً یک سوم تیم های جهانی DevOps تخمین می زنند که ابزارهای تقویت شده با هوش مصنوعی معادل یک هفته کاری کامل در هر ماه صرفه جویی می کنند. با این حال، همچنین وجود داشته است 474 درصد افزایش در فورچون 500 شرکت که هوش مصنوعی را به عنوان خطری برای کسب و کار خود فهرست می کنند. همانطور که اخیراً MIT نشان داده است مخزن خطر هوش مصنوعیخطرات هوش مصنوعی با استفاده سازمانی افزایش یافته است. در تقاطع هوش مصنوعی و کاهش خطر، حوزه آزمایش حیاتی قرار دارد.
با تصویب قوانین جدید، تست و تضمین کیفیت به بستری برای استقرار ایمن و مسئولانه هوش مصنوعی و انطباق با مقررات تبدیل می شود. قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی ایالات متحده هر دو به گزارش های آزمایشی به عنوان دارایی های اصلی اشاره می کنند، در حالی که فروشندگان فناوری مانند مایکروسافت به طور فزاینده ای به آنها نیاز دارند.
سیستمهای هوش مصنوعی نسبت به الگوریتمهای سنتی شفافیت کمتری دارند و عدم قطعیتها و انواع خرابیهای جدیدی را معرفی میکنند. بنابراین، برای اطمینان از عملکرد ابزارها بدون عواقب ناخواسته، به رویکردهای آزمایشی جدید نیاز داریم. آزمایش باید موارد لبه، پاسخهای نامناسب را تحت فشار قرار دهد و آسیبپذیریهای مشاهده نشده، سوگیریها و حالتهای خرابی را آشکار کند. تنها با انجام این کار میتوانیم با اطمینان بیشتری یکپارچگی و ثبات ایجاد کنیم، در برابر نقضهای امنیتی دفاع کنیم و عملکرد مطلوب را تضمین کنیم.
رویکرد تست دقیق برای هوش مصنوعی
ایجاد یک رویکرد تست دقیق برای هوش مصنوعی با ارزیابی ریسک آغاز می شود. تیمهای توسعه و تحویل نرمافزار باید نحوه تعامل کاربران با عملکرد سیستم هوش مصنوعی را ارزیابی کنند تا احتمال خرابی و شدت بالقوه آن را تعیین کنند. شناسایی ریسکهای مرتبط، اعم از قانونی، عملیاتی، اعتباری، امنیتی یا مبتنی بر هزینه، اولین قدم ضروری است.
ورودی انسان حیاتی است. سیستمهای هوش مصنوعی فاقد قضاوت انسانی، استدلال اخلاقی یا درک تفاوتهای اجتماعی هستند. آنها می توانند خروجی های نادرست، مغرضانه یا مضر تولید کنند. برای مدیریت این مسائل و ایجاد بیشترین ارزش از خروجی هوش مصنوعی، تیم های توسعه ابتدا باید رفتار، محدودیت های ظرفیت و پیچیدگی های سیستم را درک کنند. آنها باید با مبانی علم داده، تفاوت های ظریف مدل های مختلف هوش مصنوعی و روش های آموزشی خود آشنا شوند. آنها همچنین باید بینشی نسبت به حالت های شکست منحصر به فرد سیستم خود، از فقدان استدلال منطقی تا توهم داشته باشند.
گزارشهای تیم قرمز در حال تبدیل شدن به یک استاندارد شناختهشده هوش مصنوعی، شبیه به آن هستند SOC 2 چارچوب امنیت سایبری این تکنیک آزمایش ساختیافته نقصهای سیستم هوش مصنوعی را آشکار میکند و اولویتهای کاهش خطر را با بازآفرینی حملات دنیای واقعی و تکنیکهای عامل تهدید شناسایی میکند. بررسی یک مدل هوش مصنوعی به این روش محدودیتهای قابلیتهای آن را آزمایش میکند و اطمینان میدهد که سیستم ایمن، ایمن و آماده برای سناریوهای دنیای واقعی است.
شفافیت، ارتباطات و مستندات نیز از عناصر حیاتی یک استراتژی موفقیت آمیز تست هوش مصنوعی هستند، به ویژه در رعایت الزامات انطباق و ممیزی که توسط مقررات اخیر مشخص شده است.
تکامل مستمر
با این حال، باید به یاد داشته باشیم که سیستمهای هوش مصنوعی دائما در حال توسعه هستند، به این معنی که استراتژیهای آزمایش باید با آنها تغییر کنند. آزمایش مداوم و رویکردهای آزمایش نظارت منظم تضمین می کند که سیستم های هوش مصنوعی با پیشرفت ها، الزامات و تهدیدهای نوظهور سازگار می شوند تا یکپارچگی و قابلیت اطمینان خود را در طول زمان حفظ کنند.
رویکردهای جدیدی مانند تولید افزوده بازیابی (RAG) به عنوان ابزارهای آزمایشی عملی برای کاهش خطرات هوش مصنوعی در حال ظهور هستند. RAG با جمعآوری اطلاعات مرتبط و بیدرنگ از پایگاههای دانش خارجی، خروجیهای یک هوش مصنوعی را در دادههای تأیید شده مستقر میکند و پاسخهای دقیقتر و دقیقتری را ارائه میکند و توهمات را به میزان قابل توجهی کاهش میدهد. به این ترتیب، RAG میتواند برای ایجاد ابزارهای قدرتمند و تخصصی هوش مصنوعی که قادر به انجام وظایف پیچیده تست نرمافزاری هستند که مدلهای همه منظوره ممکن است به طور مؤثر به آن رسیدگی نکنند، پیادهسازی شود.
بدون آزمایش جامع، تیمهای توسعه نرمافزار برای ایمن کردن ابزارهای هوش مصنوعی قابل اعتماد، در دسترس و مسئولانه تلاش خواهند کرد، که به نوبه خود، انطباق با مقررات را دشوار میکند. بنابراین، ایجاد استراتژیهای آزمایشی مؤثر برای ارائه تجربیات کاربر ایمن و ایمن مبتنی بر اعتماد و قابلیت اطمینان بسیار مهم است. ترکیب نظارت انسانی، شناخت محدودیتهای هوش مصنوعی و تکنیکهایی مانند تیمسازی قرمز و RAG میتواند سیستمهای هوش مصنوعی ایمنتر و مؤثرتری ایجاد کند که نیازهای انسان و کسبوکار را بهتر برآورده کند.
منبع: https://aibusiness.com/responsible-ai/ai-risk-mitigation-the-role-of-testing