نویسنده (ها): رجارشی تارفدار
در ابتدا منتشر شده در به سمت هوش مصنوعیبشر
هوش مصنوعی از طریق تحول سریع انجام شده است مدل های بزرگ زبان که سیستم های فناوری را قادر می سازد با کاربرانی مانند انسان ارتباط برقرار کنند.
رابط های پیشرفته سیستم های اتوماسیون از طریق یک زیرساخت عملیاتی که به اتحاد نیاز دارد ، کار می کنند یادگیری ماشین عملیات (ملوان) و عملیات توسعه (DevOps).
همجوشی ملوان و DevOps یک تغییر اساسی در نحوه عملکرد سازمان ها سیستم های هوش مصنوعی مکالمه در مقیاس بزرگ ایجاد می کند.
مسیر تکاملی برای ادغام
سازمان ها وقتی متوجه شدند که روشهای توسعه سنتی برای آنها ناکافی هستند ، مسیر ادغام MLOPS-DEVOPS خود را آغاز کردند یادگیری ماشین مدیریت سیستم.
مهندسی نرم افزار روشهای کاملاً تعریف شده ای را برای کنترل و آزمایش نسخه همراه با استقرار حفظ می کند در حالی که یادگیری ماشین نیازهای متمایز مانند وابستگی به داده ها و مدل و تقاضای محاسباتی را که به راه حل های تخصصی نیاز داشتند ، معرفی می کند.
تجزیه و تحلیل جامع صنعت از آن خاطرنشان می کند: “MLOP ها برای پرداختن به پیچیدگی های مدیریت چرخه یادگیری ماشین ، الهام بخش از اصول DevOps ، ظاهر شدند.” جوجهبشر
بین سالهای 2018 و 2020 ، چارچوب هایی مانند Kubeflow و MLFlow قابلیت های مهم را برای کنترل نسخه و اتوماسیون گردش کار معرفی کردند ، در حالی که ارائه دهندگان اصلی ابر از جمله AWS Sagemaker و Google Cloud AI Platform شروع به ارائه خطوط لوله ML مقیاس پذیر کردند.
ظهور پیشرفته مدل های بزرگ زبان این همگرایی را به طرز چشمگیری تسریع کرد.
تا 2023-2025، LLM ها به رویکردهای پیچیده تری نیاز داشتند ، از جمله استقرار لبه های ابر ترکیبی ، مکانیسم های بازآموزی خودکار و چارچوب های انطباق قوی برای رسیدگی به مقررات مانند قانون اتحادیه اروپا.
به عنوان آدام مک مورچی، معمار AI و متخصص DevOps ، توضیح می دهد
“LLM ها نشان دهنده یک جهش کوانتومی در پیچیدگی در مقایسه با مدل های سنتی ML هستند ، نه تنها به زیرساخت های مختلف بلکه رویکردهای عملیاتی اساساً متفاوت که بهترین فلسفه های MLOPS و Devops را می آمیزند.”
محرک های اصلی همگرایی MLOPS
اتمای بیش از حد در گردش کار ML
پیچیدگی گسترده مدل های بزرگ زبان نیاز به مدیریت خودکار چرخه عمر دارد که ضروری شده است زیرا عملیات دستی بسیار دشوار است.
زیرساخت خط لوله ML امروز سیستم های ادغام مداوم و استقرار مداوم را که در نیازهای بار کاری یادگیری ماشین تخصص دارند ، ادغام می کند.
این ابزارها اقدامات GitHub و جنکینز را با عملکرد تخصصی خود برای رسیدگی به الزامات ML در سراسر اعتبار سنجی داده ها از طریق آموزش مدل و فرآیندهای نظارت بر استقرار ترکیب می کنند.
به عنوان مثال ، یک خط لوله استقرار LLM معمولی ممکن است شامل موارد زیر باشد:
یال
مراحل:
– ساخت: مدل قطار با استفاده از داده های به روز شده
– آزمون: عملکرد با Pytest را تأیید کنید
– استقرار: از طریق Kubernetes به بیرون بروید
سیستم های نظارت فعلی که برای استقرار LLM طراحی شده اند ، از سیستم عامل هایی مانند WhyLabs و DataDog برای شناسایی مدل های رانش و عملکرد و مشکلات مربوط به تعصب در خروجی های تولید شده استفاده می کنند.
سیستم های مانیتورینگ برای تشخیص سطح عملکرد زیر آستانه های مشخص شده در جایی که آنها توالی های بازآموزی خودکار را فعال می کنند وجود دارد.
تحول سازمانی: شکستن سیلوها
ادغام فنی MLOP با DevOps به سازمان ها نیاز دارد تا ساختار خود را به موازات ادغام لازم اصلاح کنند. موفقیت سازمانی اکنون با موانعی از بخش های سنتی روبرو است که از کار یکپارچه بین دانشمندان داده و مهندسان ML و متخصصان DevOps جلوگیری می کند.
یک مطالعه در این مطالعه گفت: “سازمان ها برای شکستن سیلوها بین دانشمندان داده ، مهندسان ML و تیم های DevOps در حال بازسازی هستند.” مجله بین المللی تحقیقات علمیبشر
این بازسازی شامل ایجاد تیم های عملکردی متقابل با مسئولیت های مشترک و ابزارهای یکپارچه است که کل چرخه عمر مدل را در بر می گیرد.
ابزارهای مشترک به همراه شیوه های استاندارد عناصر اساسی این تکامل را ایجاد کرده اند.
نرم افزار نسخه سازی فرمان در کنار فن آوری های مدیریت پروژه JIRA در کنار سیستم های کد برنامه نویسی کار می کند تا به عنوان مراکز مشترک که بخش های عملیاتی دوردست را به هم متصل می کنند ، کار کنند.
تراز بین کد و داده ها چرخه استقرار SWIFT را با استقرار قوی تر امکان پذیر می کند زیرا هر یک از اعضای تیم از درک یکپارچه از سیستم های LLM کار می کنند.
مدیریت و اجرای اخلاقی هوش مصنوعی
اخلاق هوش مصنوعی همراه با الزامات نظارتی به عنوان محرک های قوی عمل می کند که سازمان ها را به سمت ادغام MLOP ها و شیوه های DevOps سوق می دهد.
مقررات شفافیت و پاسخگویی اجباری اخیراً پدید آمده است قانون AI EU و دستور اجرایی 2023 ایالات متحده در AI برای سیستم های AI.
سازمان ها از جمله چارچوب های حاکمیتی به عنوان یک لایه اصلی عملیاتی در فرآیندهای تجاری خود شروع کرده اند.
خط لوله MLOPS معاصر ویژگی های اتوماتیک را برای ضبط منشاء داده ها در حالی که فرآیندهای تصمیم گیری مدل ها را ارائه می دهد ، ایجاد می کند و مستندات مربوط به انطباق قانونی را برای نیازهای نظارتی تولید می کند.
تغییر قابل توجهی از شیوه های استاندارد DevOps در مورد بهینه سازی عملکرد با ادغام قابلیت ها برای تقویت مراقبت های اخلاقی در توسعه برنامه ها پدیدار شد.
تجزیه و تحلیل در نمای کلی صنعت CoreEdge خاطرنشان می کند: “ادغام بررسی های انطباق در گردش کار خودکار نشان دهنده یک تغییر اساسی در نحوه نزدیک شدن به توسعه AI است.” “این حاکمیت را از یک فرآیند جداگانه به بخش ذاتی چرخه توسعه تبدیل می کند.”
پیمایش چالش های ادغام
علیرغم فواید واضح فیوژن MLOPS ، سازمان ها در اجرای این رویکردهای یکپارچه به طور مؤثر با چالش های مهمی روبرو هستند.
شکاف های فرهنگی و تخصصی
یکی از مداوم ترین موانع ، شکاف فرهنگی بین تیم های توسعه نرم افزار سنتی و گروه های علوم داده است.
“تیم های سنتی DevOps ممکن است فاقد تخصص ML باشند ، در حالی که دانشمندان داده ها اغلب آزمایش های مربوط به نیازهای تولید را در اولویت قرار می دهند.”
این تفکیک اختلافاتی را در مورد اهداف تجاری و شاخص های دستیابی ایجاد می کند.
تیم DevOps در درجه اول هدف از ثبات سیستم به همراه امنیت و استقرار سرعت در حال انجام است اما تیم های علوم داده بر دستاوردهای دقیق مدل در کنار تحویل نوآوری تأکید می کنند.
این شکاف را می توان از طریق آموزش های عمدی به وجود آورد که تضمین می کند هر دو تیم از شاخص های عملکرد یکپارچه استفاده می کنند و تیم های رهبری نیاز به ایجاد ارزش برابر از دیدگاه های مختلف دارند.
پیچیدگی زیرساخت
LMS نیاز به منابع سخت افزاری خاص دارد که استراتژی های تعیین شده توسعه DevOps را به چالش می کشد.
شتاب دهنده های سخت افزاری مشخص شده مانند GPU و TPU برای استقرار این مدل ها به همراه زیرساخت های استقرار که نیاز به اجرای ترکیبی بین دستگاه های ابر و لبه دارند ، لازم است.
تحقیقات مربوط به Hatchworks خاطرنشان می کند: “LLM ها نیاز به سخت افزار تخصصی و استقرار ترکیبی دارند و مقیاس پذیری را پیچیده می کنند.”
پیچیدگی این سیستم افزایش می یابد زیرا عملیات شبکه باید سرعت محاسباتی را حفظ کند و در حالی که در مکان های مختلف نصب اقتصادی است ، سریعاً پاسخ دهد.
سازمانها با استفاده از معماری های بومی ابر به موفقیت دست می یابند که به آنها امکان می دهد منابع پویا را با توجه به تقاضا و الزامات استقرار مقیاس مقیاس دهند.
الگوی آموزش مداوم
MLOPS-DEVOPS فیوژن با ابتدایی ترین چالش خود روبرو می شود زیرا LLM ها از طریق تمایل طبیعی خود به وخیم تر شدن در عملکرد با نرم افزار سنتی متفاوت هستند. داده های آماری در زندگی واقعی از گذشته تکامل می یابد داده های آموزش که منجر به پدیده ای با نام Drift Model می شود.
“بر خلاف نرم افزار استاتیک ، LLMS با گذشت زمان ، نیاز به خطوط لوله بازآموزی خودکار – تغییر از تمرکز DevOps در آزمایش مداوم ،” محل کار وت لبهبشر
این واقعیت مفهوم سنتی DevOps استقرار مداوم را به یک سیستم یادگیری مداوم جامع تر تبدیل می کند ، جایی که مدل ها به طور مرتب در برابر داده های در حال تحول مجدداً مورد بازآزمایی قرار می گیرند و تأیید می شوند.
بهترین روشها برای ادغام موفق
سازمانهایی که با موفقیت MLOPS-DEVOPS FUSION را برای LLM ها اجرا کرده اند ، به طور معمول از چندین بهترین روش تعیین شده پیروی می کنند:
رویکرد کنترل نسخه یکپارچه
پیاده سازی های موفق از استراتژی های کنترل نسخه جامع استفاده می کنند که هم به کد و هم وابستگی داده ها را ردیابی می کنند. “کنترل نسخه: DVC برای داده ها ، Git for Code” ، رویکرد توصیه شده از چندین منبع را خلاصه می کند.
این ردیابی دوگانه قابلیت تکرارپذیری از آموزش مدل را تضمین می کند و تیم ها را قادر می سازد دقیقاً مشخص کنند که داده های مربوط به چه رفتارهای مدل تولید می شوند – یک توانایی اساسی برای اشکال زدایی و انطباق.
استراتژی نظارت جامع
عملیات LLM مؤثر نیاز به نظارت در ابعاد مختلف دارد. رهبران صنعت یک رویکرد دوگانه را توصیه می کنند: “نظارت: Prometheus برای زیرساخت ها ، Whylabs برای معیارهای مدل”.
این استراتژی تیم ها را قادر می سازد تا مسائل مربوط به زیرساخت ها را با مشکلات عملکرد مدل ، تسریع در عیب یابی و اطمینان از عملیات پایدار ، در ارتباط باشند.
ادغام محاسبات لبه
با گسترش LLMS فراتر از مراکز داده متمرکز ، استقرار لبه به طور فزاینده ای اهمیت پیدا کرده است. “Edge Computing: استفاده از LLM های سبک وزن در دستگاه های IoT برای کاهش تأخیر ، که توسط چارچوب هایی مانند فعال شده است تانسور پر Lite ، “یک روند کلیدی در این زمینه را برجسته می کند.
این رویکرد قابلیت های هوش مصنوعی مکالمه را مستقیماً به دستگاه های کاربر نهایی ، کاهش تأخیر و پرداختن به نگرانی های مربوط به حریم خصوصی با به حداقل رساندن انتقال داده ها می رساند.
افق: مسیرهای آینده
همانطور که فیوژن MLOPS-DEVOPS همچنان بالغ می شود ، چندین روند نوظهور در حال شکل گیری تکامل آن هستند:
MLOP های خودمختار
مرز بعدی شامل خطوط لوله خود درمانی است که می توانند با حداقل مداخله انسان ، تشخیص ، تشخیص و رفع مشکلات را برطرف کنند. این توانایی در حال ظهور را توضیح می دهد: “MLOP های خودمختار: خطوط لوله خود درمانی که مدل ها را بدون مداخله انسان بازیابی و مجدداً استخدام می کنند.”
این سیستم ها قدرت خود را برای بهینه سازی و حفظ زیرساخت های هوش مصنوعی به کار می برند و یک چرخه با فضیلت بهبود ایجاد می کنند.
تخصص LLMOPS
شیوه های تخصصی معروف به “LLMOPS” به دلیل ویژگی های بزرگ مدل زبان پدیدار شد. زمینه LLCOPS شامل شیوه های بهینه سازی شده برای تنظیم مدل پایه به همراه مقررات اخلاقی و مدیریت گسترده منابع محاسباتی است.
عملیات پایدار هوش مصنوعی
ملاحظات زیست محیطی به طور فزاینده ای بر تصمیمات عملیاتی تأثیر می گذارد. “هوش مصنوعی پایدار: روشهای آموزش با انرژی و ابزارهای ردیابی ردپای کربن” ، یک منطقه تمرکز رو به رشد در این زمینه را مشخص می کند.
سازمانها در حال توسعه رویکردهای پیشرفته برای اندازه گیری و به حداقل رساندن تأثیر محیط زیست آموزش LLM و استنباط هستند و به فشارهای هزینه و تعهدات پایداری شرکت ها پاسخ می دهند.
سفر به جلو
فناوری بالاتر از تحول عملی صرفاً تکامل یافته است تا به یک تغییر استراتژیک کامل در روش های اجرای سیستم هوش مصنوعی و استقرار تبدیل شود.
این همکاری متقابل به سازمانها اجازه می دهد تا از طریق اتوماسیون فرآیند به همراه پشتیبانی گروه عملکردی و نظارت اخلاقی یکپارچه در فعالیت های عملیاتی ، به استقرار قدرتمند هوش مصنوعی مکالمه دست یابند.
سازمانها به رهبری بازارهای خود می توانند فیوژن MLOPS-DEVOPS را به عنوان یک فرآیند ابدی به جای یک مقصد نهایی درک کنند. سرعت نوآوری مدل به زبان بزرگ به سرعت سرعت می یابد ، بنابراین سازمان ها به روشهای عملیاتی نیاز دارند که با سرعت آن مطابقت داشته باشد و ساختارهای مدل جدید و استقرار سیستم را به همراه تغییرات انطباق نظارتی اداره کند.
تغییر رویکرد از رابط های کدگذاری به ورودی های مکالمه سیال ، نیاز به تغییرات موازی در ساخت سیستم و عملیات دارد.
همکاری پایان به پایان بین سیستم های DevOps و MLOPS ، چارچوبی را ایجاد می کند که مدل های هوش مصنوعی را قادر می سازد تا ضمن حمایت از استانداردهای ضروری کاربر و اجتماعی ، گفت و گوهای معنی دار انجام دهند.
موفقیت اجرای سازمان شما برای استقرار LLM شامل ایجاد یک طرز فکر عملیاتی است که افتخار تعامل نوآورانه هوش مصنوعی و همچنین قابلیت اطمینان عملیاتی و سرپرستی هوش مصنوعی مکالمه اخلاقی را دارد.
تسلط بر همجوشی بین انسان و ماشین ، مسیری دشوار است که سازمان ها را به منظور تعیین تعریف برای سبک های تعامل انسانی و ماشین های بعدی سوق می دهد.
منتشر شده از طریق به سمت هوش مصنوعی