یکی از محبوب ترین مزایای تکثیر هوش مصنوعی این است که چگونه می تواند به توسعه دهندگان در انجام کارهای کوچک کمک کند. با این حال، تحقیقات جدید نشان می دهد که رهبران امنیتی به طور کامل در این زمینه نیستند و 63 درصد به ممنوعیت استفاده از هوش مصنوعی در برنامه نویسی به دلیل خطرات ناشی از آن فکر می کنند.
بخش بزرگتری، 92 درصد از تصمیمگیرندگان مورد بررسی، نگران استفاده از کد تولید شده توسط هوش مصنوعی در سازمان خود هستند. نگرانی های اصلی آنها همگی به کاهش کیفیت خروجی مربوط می شود.
مدلهای هوش مصنوعی ممکن است بر روی کتابخانههای منبع باز منسوخ آموزش دیده باشند، و توسعهدهندگان میتوانند به سرعت به استفاده از ابزارهایی که زندگی آنها را آسانتر میکند، بیش از حد متکی شوند، به این معنی که کد ضعیف در محصولات شرکت تکثیر میشود.
ببینید: ابزارهای امنیتی برتر برای توسعه دهندگان
علاوه بر این، رهبران امنیتی معتقدند بعید است که کدهای تولید شده توسط هوش مصنوعی به اندازه خطوط دستنویس با دقت بررسی شوند. ممکن است توسعهدهندگان نسبت به خروجی یک مدل هوش مصنوعی احساس مسئولیت نکنند و در نتیجه، برای اطمینان از کامل بودن آن نیز فشار زیادی را احساس نکنند.
TechRepublic هفته گذشته با طارق شوکت، مدیر عامل شرکت امنیتی کد Sonar، در مورد چگونگی شنیدن بیشتر و بیشتر در مورد شرکت هایی که از هوش مصنوعی برای نوشتن کد خود استفاده کرده اند صحبت کرد. مشکلات امنیتی و قطعی را تجربه می کند.
او گفت: «به طور کلی، این به دلیل بررسیهای ناکافی است، یا به این دلیل که شرکت کیفیت کد قوی و شیوههای بازبینی کد را پیادهسازی نکرده است، یا به این دلیل که توسعهدهندگان کدهای نوشتهشده با هوش مصنوعی را کمتر از کدهای خود موشکافی میکنند.»
هنگامی که در مورد هوش مصنوعی باگ پرسیده می شود، یک عبارت رایج این است که “این کد من نیست”، به این معنی که آنها احساس مسئولیت کمتری می کنند زیرا آن را ننوشته اند.
گزارش جدید، “سازمانها برای ایمن کردن کد منبع باز و تولید شده توسط هوش مصنوعی تلاش میکنند“از ارائه دهنده مدیریت هویت ماشین Venafi، بر اساس نظرسنجی از 800 تصمیم گیرنده امنیتی در سراسر ایالات متحده، بریتانیا، آلمان و فرانسه است. این نشان داد که 83 درصد از سازمانها در حال حاضر از هوش مصنوعی برای توسعه کد استفاده میکنند و علیرغم نگرانیهای متخصصان امنیتی، بیش از نیمی از این روش معمول است.
کوین بوک، مدیر ارشد نوآوری در Venafi، در این باره گفت: «تهدیدهای جدید – مانند مسمومیت با هوش مصنوعی و فرار مدل – در حالی که امواج عظیمی از کدهای مولد هوش مصنوعی توسط توسعهدهندگان و تازهکارها استفاده میشوند، شروع به ظهور کردهاند. گزارش دهید.
در حالی که بسیاری ممنوعیت برنامهنویسی به کمک هوش مصنوعی را در نظر گرفتهاند، ۷۲ درصد احساس میکنند که چارهای جز ادامه دادن این عمل ندارند تا شرکت بتواند رقابتی باقی بماند. با توجه به گارتنر، 90 درصد از مهندسان نرم افزار سازمانی تا سال 2028 از دستیاران کد هوش مصنوعی استفاده خواهند کرد و در این فرآیند دستاوردهای بهره وری خواهند داشت.
ببینید: 31 درصد از سازمانهایی که از هوش مصنوعی استفاده میکنند از آن میخواهند کد بنویسد (2023)
متخصصان امنیتی به دلیل این موضوع خواب خود را از دست می دهند
دو سوم از پاسخ دهندگان به گزارش Venafi می گویند که برای آنها غیرممکن است که در هنگام اطمینان از امنیت محصولات خود با توسعه دهندگان تولید کننده همگام شوند و 66٪ می گویند که نمی توانند استفاده ایمن از هوش مصنوعی در سازمان را کنترل کنند زیرا آنها این کار را نمی کنند. از جایی که از آن استفاده می شود قابل مشاهده باشد.
در نتیجه، رهبران امنیتی نگران عواقب این هستند که آسیبپذیریهای احتمالی از بین بروند و ۵۹ درصد از این افراد خواب خود را از دست بدهند. تقریباً 80 درصد بر این باورند که گسترش کدهای توسعهیافته با هوش مصنوعی منجر به حسابرسی امنیتی میشود، زیرا یک حادثه مهم باعث اصلاح در نحوه مدیریت آن میشود.
Bocek اضافه شده در a بیانیه مطبوعاتی: «تیمهای امنیتی در دنیای جدیدی که هوش مصنوعی کد مینویسد، بین یک سنگ و یک مکان سخت گیر کردهاند. توسعه دهندگان در حال حاضر توسط هوش مصنوعی سوپرشارژ شده اند و از ابرقدرت های خود دست نمی کشند. و مهاجمان در صفوف ما نفوذ میکنند – نمونههای اخیر مداخله طولانیمدت در پروژههای منبع باز و نفوذ کره شمالی به فناوری اطلاعات تنها نوک کوه یخ است.
منبع: https://www.techrepublic.com/article/leaders-banning-ai-generated-code/