شروع کار با هوش مصنوعی


هوش مصنوعی (AI) فرصتی را برای سازماندهی هرج و مرج و استفاده از اهرم‌های ضرب‌کننده نیرو ارائه می‌دهد، اما با توجه به همه تبلیغات پیرامون چنین فناوری نسبتاً مبهم و جعبه سیاه، هوش مصنوعی به سطح جدیدی از آگاهی فنی و مسئولیت‌پذیری رهبری نسبت به هر چیزی نیاز دارد. در سال های اخیر دیده ام. با توجه به اینکه بسیاری از رهبران هوش مصنوعی را امری اجتناب‌ناپذیر می‌دانند – آن را در معرض خطر رقابتی خود نادیده بگیرید – یک راهنمای شروع می‌تواند به کاهش همه سر و صداها برای رسیدن به پذیرش فناوری حیاتی و عوامل موفقیت مدیریت ریسک کمک کند.

هوش مصنوعی دلایل خوبی دارد. از آنجایی که ابر و اینترنت اشیا (IoT) همچنان برای ایجاد و جمع‌آوری مجموعه‌های بزرگتر و بالقوه ارزشمندتر از داده‌ها استفاده می‌شوند، برای انسان‌هایی که ما به کار می‌گیریم سخت‌تر می‌شود که همه آن اطلاعات را در اختیار داشته باشند و درک درستی از آن داشته باشند. آن را در حالی که دنیای متصل/IoT مقادیر انبوهی از داده‌ها را در اطراف یک محصول یا فرآیند تولید می‌کند، بسیاری از داده‌های جمع‌آوری‌شده امروزه در بایگانی پایگاه‌داده باقی می‌مانند یا به صورت موقعیتی برای گزارش‌دهی موقت استخراج می‌شوند. هوش مصنوعی وعده می دهد که بینش های عملی را از داده های متفاوت و دست نخورده ایجاد کند.

برخلاف فناوری‌های اطلاعاتی که امروزه ممکن است از آن استفاده کنید، هوش مصنوعی با مجموعه‌ای از عدم قطعیت‌ها همراه است که قبل از در نظر گرفتن پذیرش کلی باید از آنها قدردانی کرد. هوش مصنوعی ممکن است از فناوری‌هایی مانند یادگیری عمیق یا مدل‌های زبانی بزرگ برای دریافت مقادیر زیادی داده، شناسایی الگوها و برون‌یابی توصیه‌ها استفاده کند. چالشی که برای کسانی که تازه به هوش مصنوعی می‌آیند این است که ممکن است واضح نباشد که چنین ماشینی چگونه «یاد می‌گیرد» و چگونه خروجی‌ها یا پاسخ‌های آن را تفسیر می‌کند. ما امروز این پدیده را مشاهده می کنیم که یک هوش مصنوعی تصویری از یک شخص با سه دست ایجاد می کند یا پیشنهاد می کند برای جلوگیری از لیز خوردن پنیر به سس پیتزای خانگی چسب اضافه کنید. در حالی که داستان دوم در واقع یک افسانه شهری ردیت بود، این واقعیت که قابل قبول به نظر می رسید دلیل کافی برای انجام تکالیف بیشتر است.

مرتبط:باز کردن قفل توسعه ایمن هوش مصنوعی

به هر حال، برخی از پیامدهای مدل های یادگیری هوش مصنوعی ممکن است چندان واضح نباشد. کاربران نگران سوگیری ضمنی در مجموعه داده های مورد استفاده برای آموزش هوش مصنوعی هستند که ممکن است تحلیل را به سمت نابرابری های تاریخی منحرف کند. همانطور که مشاهده می شود، یک هوش مصنوعی حتی ممکن است دچار «توهم» شود IBM، “که در آن یک مدل زبان بزرگ … الگوها یا اشیایی را درک می کند که برای ناظران انسانی وجود ندارند یا نامحسوس هستند و خروجی هایی ایجاد می کنند که بی معنی یا کاملاً نادرست هستند.” آیا هوش مصنوعی که به کار می برید سعی می کند یاد بگیرد که چگونه به پاسخ صحیح برسد یا راه حلی بیابد که کاربر را راضی کند؟

مرتبط:چگونه هوش مصنوعی می تواند به رفع شکاف یادگیری کمک کند

برای مدیریت این عدم قطعیت ها، رهبران باید برای درک فناوری های هوش مصنوعی، فروشندگان و ارائه دهندگان خدمات و پیامدهای اعتماد به برندشان وقت بگذارند. این فناوری نیست که بتوان آن را به طور عمده به سازمان های فناوری اطلاعات یا مهندسی خود واگذار کرد. هوش مصنوعی نیاز به سطح بالاتری از (1) تیزبینی، (2) کنترل و (3) حکمرانی دارد قبل از اینکه اجازه دهید در معماری شما تعبیه شود. رهبران ارشد باید همیشه مسئول استفاده و کاربرد فناوری باشند و باید به صراحت بدانند که هوش مصنوعی چگونه پردازش می‌کند، یاد می‌گیرد و توصیه می‌کند.

کنترل: با هوش مصنوعی کمکی شروع کنید

یک مکان خوب برای شروع، درک انواع مختلف هوش مصنوعی است و اینکه کدام اشکال ممکن است به شما امکان آزمایش و یادگیری نحوه تطبیق آن با نیازهای استراتژیک خود را بدهد. واگذاری یک فرآیند به یک ماشین ممکن است یک راه حل سریع برای یک مشکل دشوار ارائه دهد، اما غصب عنصر انسانی احتمالاً به معنای رها شدن خیلی زود از افسار است.

وقتی مردم به هوش مصنوعی فکر می کنند، احتمالاً هوش مصنوعی مولد را تصور می کنند. ChatGPT نمونه‌ای از هوش مصنوعی مولد است که در آن داده‌های زیادی را جذب می‌کند و سپس می‌تواند خروجی‌هایی مانند نامه‌های پوششی برنامه‌های شغلی، تصاویر سه‌بعدی واقع‌گرایانه یا نمونه‌های سهام را ایجاد (تولید) کند.

به طور مشابه، مخازن بزرگی از داده ها نیز می توانند برای پیش بینی نتایج، روندها، رفتارها یا موارد مشابه استفاده شوند که به عنوان هوش مصنوعی پیش بینی کننده شناخته می شوند. هوش مصنوعی پیش‌بینی‌کننده از یادگیری ماشین – یک سیستم کامپیوتری که از الگوریتم‌ها و مدل‌های آماری برای شناسایی الگوها و برون‌یابی‌ها استفاده می‌کند – برای ارائه توصیه‌ها و پیشنهاد اقدامات استفاده می‌کند.

مانند هوش مصنوعی پیش‌بینی‌کننده، دسته دیگری از هوش مصنوعی، هوش مصنوعی کمکی، الگوها و واریانس‌هایی را در مجموعه داده‌های بزرگی که آماده کمک به کاربران در انجام وظایفشان هستند، پیدا می‌کند. هوش مصنوعی کمکی به جای استفاده از داده های تجربی یا ذخیره شده در زمان واقعی عمل می کند. همانطور که از نام آن پیداست، هوش مصنوعی کمکی در کنار اپراتورهای انسانی کار می کند تا به آنها کمک کند تا مهارت ها یا شکاف های منابع را پر کنند. نمونه هایی از هوش مصنوعی کمکی ممکن است شامل ترجمه زبان خارجی یا تشخیص تصویر/اشیاء در نظارت تصویری باشد.

با هوش مصنوعی کمکی، مسئولیت تصمیم‌گیری به عهده انسانی است، ترجیحاً انسانی که می‌داند ابزار چه چیزی را توصیه می‌کند یا توصیه نمی‌کند، در صورت لزوم بر روی سایر اطلاعات پافشاری می‌کند و بر اساس تمام اطلاعات موجود، از جمله اطلاعات ارائه شده توسط هوش مصنوعی، عمل می‌کند. برنامه‌های کاربردی هوش مصنوعی می‌توانند برای پاک کردن ورودی‌ها به طور سازنده بدون فیلتر کردن محتوا از دید، پیاده‌سازی شوند.

هوش مصنوعی کمکی را می توان با در نظر گرفتن موارد استفاده که در آن می توان به طور شفاف به کار گرفت، به بهترین وجه هدایت کرد. به دنبال مکان‌هایی در سازمان یا فرآیندهای خود باشید که در آن کارکنان بیش از حد کار می‌کنند یا جریان کار در حال از هم گسیختگی است. شاید شما یک رشته فنی داشته باشید که در آن کارکنان با تجربه نزدیک به بازنشستگی هستند و یک هوش مصنوعی می تواند آموخته های کلیدی را برای آموزش و توسعه اعضای جدید تیم کسب کند. خودکارسازی فرآیندهای غیر بحرانی یا تریاژ نیز ممکن است فرصتی برای هوش مصنوعی کمکی ایجاد کند، اما فقط در جایی که اصول حاکمیتی دقیقی ابداع شده باشد، به طوری که بدانید هنوز مسئول نحوه اطلاع رسانی و اجرای فرآیندهای کسب و کار خود هستید.

حاکمیت باعث ایجاد اعتماد می شود

حکمرانی هوش مصنوعی به دنبال تضمین این است که سیستم‌ها به‌طور اخلاقی و مسئولانه توسعه می‌یابند و از استراتژی‌های امنیتی و کاهش ریسک برای محافظت از همه ذینفعان استفاده می‌شود. در بیشتر موارد، هوش مصنوعی امروزه یک صنعت خودتنظیمی است. مشتریان و شرکای شما از شما انتظار دارند که این فناوری را به صورت اخلاقی و مسئولانه به کار ببرید. شیوه‌های حاکمیتی – از جمله اقدامات ایمنی، حریم خصوصی و شفافیت – باید برای اطمینان از اعتماد و مقیاس‌پذیری پاسخگو طراحی شوند. برای کاربر نهایی محصول یا خدمات مجهز به هوش مصنوعی شما، این فناوری ممکن است به عنوان یک ویژگی “جعبه سیاه” در نظر گرفته شود که ممکن است ارزش یا قابلیتی بیافزاید، اما تنها در صورتی پذیرفته می شود که فروشنده بتواند به طور واضح نحوه عملکرد آن و نرده های محافظ عملکرد آن را توضیح دهد. .

به نظر می رسد که مردم همچنان به افراد دیگر به عنوان منابع اقتدار بیشتر از ماشین ها اعتماد دارند. در حالی که یک هوش مصنوعی ممکن است کار بهتری در خواندن اشعه ایکس انجام دهد، بیماران همچنان می خواهند تشخیص را از پزشک خود بشنوند. در مواقع اضطراری، ما انتظار داریم که تماس 9-1-1 توسط یک انسان با مراقبت و همدلی که در زمان پریشانی شدید به دنبالش هستیم پاسخ داده شود. اگرچه فرآیند ارسال منابع ممکن است توسط یک ماشین بهینه شود، اعتماد به یک الگوریتم هنوز بخشی از فرهنگ ما نیست و شاید هرگز نباید باشد.

حکمرانی، به عنوان نشان دادن مسئولیت و وظیفه مراقبت در قبال مشتریان شما، ممکن است نیاز به سطح بیشتری از باز بودن نسبت به بسیاری از سازمان ها داشته باشد که در گذشته مایل به افشای آن بوده اند. اگر می‌خواهید یک وسیله نقلیه خودران بفروشید، مثلاً خودرویی که برای کارکرد ایمن به 50 یا 100 میلیون خط کد نیاز دارد، احتمالاً هرگز به دلایل رقابتی به افشای آن معماری نرم‌افزار فکر نمی‌کنید. اما با هوش مصنوعی که استفاده می‌کنید، مشتریان شما چگونه به فناوری آنقدر اعتماد می‌کنند که دست‌هایشان را از روی فرمان بردارند؟ شخصی در یک دفتر بدون پنجره در دره سیلیکون در جایی باید الگوریتمی را بنویسد که تصمیم می‌گیرد خودرویی که در ساعات شلوغی انباشته است یا باید اتوبوس مدرسه را به عقب برگرداند یا به پیاده‌روی با عابران پیاده منحرف شود. آیا مشتریان شما حق دارند بدانند چه کسی چنین تصمیماتی می گیرد و اخلاق آنها چگونه با یادگیری ماشینی تفسیر می شود؟ حکمرانی شبکه بسیار گسترده ای ایجاد می کند.

قوانین سرانگشتی

هر رهبر باید امروز زمانی را صرف بررسی و پیش‌بینی بازار و تنش‌های سازمانی کند که ممکن است از پیاده‌سازی هوش مصنوعی در محصولات یا فرآیندهای خود ایجاد شود. با فکر کردن در مورد برخی از اصول اساسی که تفکر شما را راهنمایی می کند، شروع کنید، مانند موارد زیر:

  1. مدیریت هوش مصنوعی یک فرآیند ثابت نیست. مجموعه داده ها در طول زمان تغییر خواهند کرد، همانطور که مدل هایی که یک هوش مصنوعی برای یادگیری استفاده می کند تغییر خواهد کرد. مطمئن شوید که تیم‌های شما نه تنها می‌دانند چگونه قابل اعتماد بودن را در طول زمان آزمایش کنند، بلکه می‌دانند چه چیزی را آزمایش کنند.

  2. هوش مصنوعی ممکن است بر فرهنگ سازمان تأثیر بگذارد، زیرا تیم‌های شما یاد می‌گیرند که همکاری انسان با ماشین را درک کنند و از آن استقبال کنند. مراقب «تنبلی» سازمانی باشید، زیرا ممکن است کارکنان برای کارهایی که می‌خواهید در دستان انسان باقی بمانند، بیش از حد به هوش مصنوعی وابسته شوند. به یاد داشته باشید که تغییر برای افراد بسیار سخت است حتی زمانی که سودمند باشد.

  3. مانند هر تحول دیجیتالی، تیم‌های خود را روی هدف نهایی متمرکز کنید – بهبود تجربه مشتری در مورد استفاده، نه اجرای یک فناوری به خاطر فناوری. انطباق، نه پذیرش.

در نهایت، ذهن خود را باز نگه دارید. از کوچک شروع کنید، ترجیحاً با یک هوش مصنوعی کمکی برای یک عملیات غیر بحرانی و در حین حرکت یاد بگیرید. روی کنترل ها و حکمرانی خود نقشی اساسی بگذارید، اما از برداشتن آنها نترسید و با مشاهده، آزمایش و یادگیری پروژه آنها را به صورت استراتژیک حرکت دهید.

فناوری هوش مصنوعی دنیای امروزی را که در آن زندگی می کنیم تغییر خواهد داد. این به همه ما بستگی دارد که تصمیم بگیریم که آیا این تغییر برای آینده بهتر و مرفه تر خواهد بود یا برای کاهش هزینه ها، سود بردن و غیرانسانی کردن بیشتر تعاملات ما با مشتریان و یکدیگر. فناوری را متناسب با فرهنگ مورد نظر خود تطبیق دهید – هوش مصنوعی را به گونه ای انتخاب نکنید که روح کسب و کار شما را از بین ببرد.





منبع: https://aibusiness.com/generative-ai/getting-started-with-artificial-intelligence