Mastering Hadoop ، قسمت 1: نصب ، پیکربندی و استراتژی های بزرگ داده های بزرگ


نویسنده (ها): نیکلاس لنگ

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

یک راهنمای جامع که شامل تنظیم Hadoop ، دستورات HDFS ، MapReduce ، اشکال زدایی ، مزایا ، چالش ها و آینده فن آوری های داده های بزرگ است.عکس توسط نام Anh در Unsplash

امروزه تعداد زیادی از داده ها در اینترنت جمع آوری می شوند ، به همین دلیل شرکت ها با چالش قادر به ذخیره ، پردازش و تجزیه و تحلیل این حجم ها مواجه می شوند. Hadoop یک چارچوب منبع باز از بنیاد نرم افزار Apache است و در سالهای اخیر به یکی از فناوری های پیشرو در مدیریت داده های بزرگ تبدیل شده است. این سیستم ذخیره سازی و پردازش داده ها را در چندین سرور امکان پذیر می کند. در نتیجه ، یک راه حل مقیاس پذیر برای طیف گسترده ای از برنامه ها از تجزیه و تحلیل داده ها به یادگیری ماشینبشر

در این مقاله یک مرور کلی از Hadoop و مؤلفه های آن ارائه شده است. ما همچنین معماری اساسی را بررسی می کنیم و نکات عملی برای شروع کار با آن ارائه می دهیم.

قبل از اینکه بتوانیم با آن شروع کنیم ، لازم به ذکر است که کل موضوع Hadoop بسیار زیاد است ، و حتی اگر این مقاله از قبل طولانی باشد ، حتی نزدیک نیست که در همه موضوعات به جزئیات بیش از حد بپردازیم. به همین دلیل است که ما آن را به سه بخش تقسیم می کنیم: به شما اجازه می دهیم که خودتان تصمیم بگیرید که چقدر عمیق می خواهید به آن شیرجه بزنید:

قسمت 1: Hadoop 101: چیست ، چرا اهمیت دارد و چه کسی باید اهمیت دهد

این قسمت برای همه افراد علاقه مند به بزرگ است … وبلاگ کامل را به صورت رایگان در رسانه بخوانیدبشر

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/data-science/mastering-hadoop-part-1-installation-configuration-and-modern-big-data-strategies