دو سوم رهبران امنیتی به فکر ممنوع کردن کدهای تولید شده توسط هوش مصنوعی هستند


یکی از محبوب ترین مزایای تکثیر هوش مصنوعی این است که چگونه می تواند به توسعه دهندگان در انجام کارهای کوچک کمک کند. با این حال، تحقیقات جدید نشان می دهد که رهبران امنیتی به طور کامل در این زمینه نیستند و 63 درصد به ممنوعیت استفاده از هوش مصنوعی در برنامه نویسی به دلیل خطرات ناشی از آن فکر می کنند.

بخش بزرگ‌تری، 92 درصد از تصمیم‌گیرندگان مورد بررسی، نگران استفاده از کد تولید شده توسط هوش مصنوعی در سازمان خود هستند. نگرانی های اصلی آنها همگی به کاهش کیفیت خروجی مربوط می شود.

مدل‌های هوش مصنوعی ممکن است بر روی کتابخانه‌های منبع باز منسوخ آموزش دیده باشند، و توسعه‌دهندگان می‌توانند به سرعت به استفاده از ابزارهایی که زندگی آنها را آسان‌تر می‌کند، بیش از حد متکی شوند، به این معنی که کد ضعیف در محصولات شرکت تکثیر می‌شود.

ببینید: ابزارهای امنیتی برتر برای توسعه دهندگان

علاوه بر این، رهبران امنیتی معتقدند بعید است که کدهای تولید شده توسط هوش مصنوعی به اندازه خطوط دست‌نویس با دقت بررسی شوند. ممکن است توسعه‌دهندگان نسبت به خروجی یک مدل هوش مصنوعی احساس مسئولیت نکنند و در نتیجه، برای اطمینان از کامل بودن آن نیز فشار زیادی را احساس نکنند.

TechRepublic هفته گذشته با طارق شوکت، مدیر عامل شرکت امنیتی کد Sonar، در مورد چگونگی شنیدن بیشتر و بیشتر در مورد شرکت هایی که از هوش مصنوعی برای نوشتن کد خود استفاده کرده اند صحبت کرد. مشکلات امنیتی و قطعی را تجربه می کند.

او گفت: «به طور کلی، این به دلیل بررسی‌های ناکافی است، یا به این دلیل که شرکت کیفیت کد قوی و شیوه‌های بازبینی کد را پیاده‌سازی نکرده است، یا به این دلیل که توسعه‌دهندگان کدهای نوشته‌شده با هوش مصنوعی را کمتر از کدهای خود موشکافی می‌کنند.»

هنگامی که در مورد هوش مصنوعی باگ پرسیده می شود، یک عبارت رایج این است که “این کد من نیست”، به این معنی که آنها احساس مسئولیت کمتری می کنند زیرا آن را ننوشته اند.

گزارش جدید، “سازمان‌ها برای ایمن کردن کد منبع باز و تولید شده توسط هوش مصنوعی تلاش می‌کنند“از ارائه دهنده مدیریت هویت ماشین Venafi، بر اساس نظرسنجی از 800 تصمیم گیرنده امنیتی در سراسر ایالات متحده، بریتانیا، آلمان و فرانسه است. این نشان داد که 83 درصد از سازمان‌ها در حال حاضر از هوش مصنوعی برای توسعه کد استفاده می‌کنند و علی‌رغم نگرانی‌های متخصصان امنیتی، بیش از نیمی از این روش معمول است.

کوین بوک، مدیر ارشد نوآوری در Venafi، در این باره گفت: «تهدیدهای جدید – مانند مسمومیت با هوش مصنوعی و فرار مدل – در حالی که امواج عظیمی از کدهای مولد هوش مصنوعی توسط توسعه‌دهندگان و تازه‌کارها استفاده می‌شوند، شروع به ظهور کرده‌اند. گزارش دهید.

در حالی که بسیاری ممنوعیت برنامه‌نویسی به کمک هوش مصنوعی را در نظر گرفته‌اند، ۷۲ درصد احساس می‌کنند که چاره‌ای جز ادامه دادن این عمل ندارند تا شرکت بتواند رقابتی باقی بماند. با توجه به گارتنر، 90 درصد از مهندسان نرم افزار سازمانی تا سال 2028 از دستیاران کد هوش مصنوعی استفاده خواهند کرد و در این فرآیند دستاوردهای بهره وری خواهند داشت.

ببینید: 31 درصد از سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند از آن می‌خواهند کد بنویسد (2023)

متخصصان امنیتی به دلیل این موضوع خواب خود را از دست می دهند

دو سوم از پاسخ دهندگان به گزارش Venafi می گویند که برای آنها غیرممکن است که در هنگام اطمینان از امنیت محصولات خود با توسعه دهندگان تولید کننده همگام شوند و 66٪ می گویند که نمی توانند استفاده ایمن از هوش مصنوعی در سازمان را کنترل کنند زیرا آنها این کار را نمی کنند. از جایی که از آن استفاده می شود قابل مشاهده باشد.

در نتیجه، رهبران امنیتی نگران عواقب این هستند که آسیب‌پذیری‌های احتمالی از بین بروند و ۵۹ درصد از این افراد خواب خود را از دست بدهند. تقریباً 80 درصد بر این باورند که گسترش کدهای توسعه‌یافته با هوش مصنوعی منجر به حسابرسی امنیتی می‌شود، زیرا یک حادثه مهم باعث اصلاح در نحوه مدیریت آن می‌شود.

Bocek اضافه شده در a بیانیه مطبوعاتی: «تیم‌های امنیتی در دنیای جدیدی که هوش مصنوعی کد می‌نویسد، بین یک سنگ و یک مکان سخت گیر کرده‌اند. توسعه دهندگان در حال حاضر توسط هوش مصنوعی سوپرشارژ شده اند و از ابرقدرت های خود دست نمی کشند. و مهاجمان در صفوف ما نفوذ می‌کنند – نمونه‌های اخیر مداخله طولانی‌مدت در پروژه‌های منبع باز و نفوذ کره شمالی به فناوری اطلاعات تنها نوک کوه یخ است.



منبع: https://www.techrepublic.com/article/leaders-banning-ai-generated-code/