Thoughtworks رشد سریع ابزارهای هوش مصنوعی برای توسعه دهندگان نرم افزار را گزارش می دهد


بر اساس گزارش اخیر موسسه مشاوره فناوری Thoughtworks، ابزارها و تکنیک های هوش مصنوعی به سرعت در نرم افزار در حال گسترش هستند، زیرا سازمان ها قصد دارند مدل های زبان بزرگ را برای کاربردهای عملی ساده کنند. با این حال، استفاده نادرست از این ابزارها همچنان می تواند چالش هایی را برای شرکت ها ایجاد کند.

در جدیدترین رادار فناوری این شرکت، 40 درصد از 105 ابزار، تکنیک، پلتفرم، زبان و چارچوب‌های شناسایی شده با عنوان «جالب» مربوط به هوش مصنوعی بودند.

سارا تاراپوروالا در استرالیا، شرکت Thoughtworks Australia’s Enterprise Modernisation, Platforms, and Cloud (EMPC) را رهبری می کند. او در مصاحبه ای اختصاصی با TechRepublic توضیح داد که ابزارها و تکنیک های هوش مصنوعی فراتر از هیاهوی هوش مصنوعی موجود در بازار هستند.

عکس پروفایل سارا تاراپوروالا.
سارا تاراپوروالا، مدیر نوسازی سازمانی، پلتفرم‌ها و ابر، Thoughtworks استرالیا.

برای رفتن به رادار فناوریاو توضیح داد، تیم های خودمان باید از آن استفاده کنند، بنابراین ما می توانیم در مورد اینکه آیا این کار موثر است یا خیر، نظر داشته باشیم. آنچه ما در سراسر جهان در تمام پروژه‌های خود می‌بینیم این است که توانسته‌ایم حدود 40 درصد از این مواردی را که در مورد آنها صحبت می‌کنیم، از کارهایی که واقعاً اتفاق می‌افتد تولید کنیم.»

ابزارها و تکنیک های جدید هوش مصنوعی به سرعت در حال تولید هستند

رادار فناوری Thoughtworks برای ردیابی “چیزهای جالب” طراحی شده است که هیئت مشاوره فناوری جهانی مشاوره دریافته است که در فضای جهانی مهندسی نرم افزار در حال ظهور هستند. این گزارش همچنین به آن‌ها رتبه‌بندی می‌دهد که به خریداران فناوری نشان می‌دهد که آیا این ابزارها یا تکنیک‌ها را «اقتباس»، «آزمایش»، «ارزیابی» یا «نگهداری» دارند.

بر اساس این گزارش:

  • اتخاذ: “Blips” که شرکت ها باید به شدت در نظر بگیرند.
  • آزمایشی: ابزارها یا تکنیک هایی که Thoughtworks معتقد است برای استفاده آماده هستند، اما به اندازه مواردی که در دسته adopt هستند ثابت نشده اند.
  • ارزیابی کنید: چیزهایی که باید به دقت بررسی شوند، اما لزوماً هنوز آزمایش نشده اند.
  • نگه دارید: با احتیاط ادامه دهید

این گزارش به نسل افزوده شده با بازیابی وضعیت «اقتباس» داده است، به عنوان «الگوی ترجیحی برای تیم‌های ما برای بهبود کیفیت پاسخ‌های تولید شده توسط یک مدل زبان بزرگ». در همین حال، تکنیک‌هایی مانند «استفاده از LLM به‌عنوان داور» – که از یک LLM برای ارزیابی پاسخ‌های LLM دیگر استفاده می‌کند، که نیاز به تنظیم و کالیبراسیون دقیق دارد – وضعیت «آزمایشی» داده شد.

اگرچه عوامل هوش مصنوعی جدید هستند، سازنده عامل هوش مصنوعی GCP Vertex، که به سازمان‌ها اجازه می‌دهد تا با استفاده از زبان طبیعی یا رویکرد اول کد، عامل‌های هوش مصنوعی بسازند، وضعیت آزمایشی نیز دریافت کرد.

Taraporewalla گفت ابزارها یا تکنیک ها باید قبلاً به تولید رسیده باشند تا برای وضعیت “آزمایشی” توصیه شوند. بنابراین، آنها نشان دهنده موفقیت در موارد استفاده عملی واقعی هستند.

او گفت: «بنابراین وقتی در مورد این انفجار کامبرین در ابزارها و تکنیک‌های هوش مصنوعی صحبت می‌کنیم، در واقع آن‌هایی را در خود تیم‌هایمان می‌بینیم. “در APAC، این نماینده چیزی است که ما از مشتریان می بینیم، از نظر انتظارات آنها و میزان آمادگی آنها برای کاهش تبلیغات و نگاه کردن به واقعیت این ابزارها و تکنیک ها.”

ببینید: آیا در دسترس بودن نیرو، انقلاب هوش مصنوعی را از مسیر خود خارج می کند؟ (TechRepublic Premium)

پذیرش سریع ابزارهای هوش مصنوعی باعث نگرانی ضد الگوها می شود

بر اساس این گزارش، پذیرش سریع ابزارهای هوش مصنوعی شروع به ایجاد الگوهای ضدالگو یا الگوهای بد در سراسر صنعت کرده است که منجر به نتایج ضعیف برای سازمان ها می شود. در مورد ابزارهای کمک به کدگذاری، یک ضدالگوی کلیدی که پدیدار شده است، تکیه بر پیشنهادات کمک به کدنویسی توسط ابزارهای هوش مصنوعی است.

تاراپوروالا گفت: «یک ضدالگوی که ما می‌بینیم تکیه بر پاسخی است که به بیرون ریخته می‌شود. بنابراین، در حالی که یک کوپیلوت به ما کمک می‌کند تا کد را تولید کنیم، اگر شما آن مهارت متخصص را نداشته باشید و انسان در حلقه برای ارزیابی پاسخی که ظاهر می‌شود، در معرض خطر بیش از حد نفخ سیستم‌هایمان قرار می‌گیریم.

رادار فناوری به نگرانی‌هایی در مورد کیفیت کد در کد تولید شده و نرخ رشد سریع پایگاه‌های کد اشاره کرد. در این گزارش آمده است: «مسائل کیفیت کد به‌ویژه حاکی از تلاش مستمر توسعه‌دهندگان و معماران برای اطمینان از غرق نشدن آن‌ها در کدهای «کارساز اما وحشتناک» است.

این گزارش در مورد جایگزینی شیوه‌های برنامه‌نویسی زوجی با هوش مصنوعی «توقف» صادر کرد، با Thoughtworks اشاره کرد که هدف این رویکرد اطمینان از اینکه هوش مصنوعی به جای رمزگذاری پایگاه‌های کد با پیچیدگی، کمک می‌کند.

«چیزی که ما مدافع قوی آن بوده‌ایم کد تمیز، طراحی تمیز و آزمایش است که به کاهش کل هزینه مالکیت پایه کد کمک می‌کند. تاراپوروالا هشدار داد که در جایی که ما بیش از حد به پاسخ‌هایی که ابزارها در حال چرخش هستند تکیه می‌کنیم… این به پشتیبانی از طول عمر پایه کد کمکی نخواهد کرد.

او افزود: «تیم‌ها فقط باید روی آن شیوه‌های مهندسی خوب که همیشه در مورد آنها صحبت کرده‌ایم – مواردی مانند آزمایش واحد، عملکردهای تناسب اندام از منظر معماری و تکنیک‌های اعتبارسنجی – را دو چندان کنند تا مطمئن شوند که کد درست است. بیرون می آید.»

چگونه سازمان ها می توانند تغییرات را در فضای ابزار هوش مصنوعی هدایت کنند؟

تمرکز بر روی مشکل، به جای راه حل فناوری، برای سازمان‌ها کلیدی است که ابزارها و تکنیک‌های مناسب را بدون غرق شدن در هیاهو بکار گیرند.

تاراپوروالا گفت: «توصیه‌ای که ما اغلب می‌دهیم این است که مشکلی را که می‌خواهید حل کنید و سپس از دیدگاه راه‌حل‌ها یا ابزارهایی که می‌تواند به شما در حل آن مشکل کمک کند، پیدا کنید.

حکمرانی هوش مصنوعی همچنین باید یک فرآیند مستمر و مداوم باشد. سازمان‌ها می‌توانند از ایجاد تیمی سود ببرند که می‌تواند به تعریف استانداردهای حکمرانی هوش مصنوعی آنها کمک کند، به آموزش کارکنان کمک کند و به طور مداوم بر این تغییرات در اکوسیستم هوش مصنوعی و محیط نظارتی نظارت کند.

Taraporewalla گفت: «داشتن یک گروه و یک تیم اختصاص داده شده به انجام این کار، راهی عالی برای گسترش آن در سراسر سازمان است. بنابراین شما هر دو نرده محافظ را به روش صحیح در جای خود قرار می دهید، اما همچنین به تیم ها اجازه می دهید آزمایش کنند و ببینند چگونه می توانند از این ابزار استفاده کنند.

شرکت ها همچنین می توانند پلتفرم های هوش مصنوعی با ویژگی های حاکمیت یکپارچه بسازند.

Taraporewalla افزود: “شما می توانید خط مشی های خود را در یک پلت فرم MLOps مدون کنید و آن را به عنوان لایه پایه برای ایجاد تیم ها داشته باشید.” به این ترتیب، آزمایش را محدود کرده‌اید و می‌دانید که چه بخش‌هایی از آن پلتفرم باید در طول زمان تکامل یافته و تغییر کند.»

آزمایش با ابزارها و تکنیک های هوش مصنوعی می تواند نتیجه دهد

به گفته Thoughtworks، سازمان‌هایی که ابزارها و تکنیک‌های هوش مصنوعی را آزمایش می‌کنند، ممکن است مجبور شوند آنچه را که استفاده می‌کنند تغییر دهند، اما در طول زمان پلتفرم و قابلیت‌های خود را نیز ایجاد خواهند کرد.

«من فکر می‌کنم وقتی صحبت از بازگشت سرمایه به میان می‌آید… اگر ذهنیت آزمایشی داشته باشیم، نه تنها از این ابزارها برای انجام یک کار استفاده می‌کنیم، بلکه در حال بررسی عناصری هستیم که به ساختن آنها بر روی پلتفرم خود ادامه می‌دهیم. تاراپوروالا گفت: همانطور که به جلو می رویم، به عنوان پایه و اساس ما.

او خاطرنشان کرد که این رویکرد می‌تواند سازمان‌ها را قادر سازد تا در طول زمان ارزش بیشتری از آزمایش‌های هوش مصنوعی به دست آورند.

“من فکر می کنم بازده سرمایه گذاری در دراز مدت نتیجه خواهد داد – اگر آنها بتوانند از این منظر به آن نگاه کنند، ما قرار است چه بخش هایی را به یک پلت فرم مشترک تر بیاوریم، و چه چیزهایی را از دیدگاه یک بنیاد می آموزیم. که بتوانیم آن را به یک چرخ لنگر مثبت تبدیل کنیم؟»



منبع: https://www.techrepublic.com/article/thoughtworks-radar-technology-ai-software-growth/

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *