هوش مصنوعی (AI) فرصتی را برای سازماندهی هرج و مرج و استفاده از اهرمهای ضربکننده نیرو ارائه میدهد، اما با توجه به همه تبلیغات پیرامون چنین فناوری نسبتاً مبهم و جعبه سیاه، هوش مصنوعی به سطح جدیدی از آگاهی فنی و مسئولیتپذیری رهبری نسبت به هر چیزی نیاز دارد. در سال های اخیر دیده ام. با توجه به اینکه بسیاری از رهبران هوش مصنوعی را امری اجتنابناپذیر میدانند – آن را در معرض خطر رقابتی خود نادیده بگیرید – یک راهنمای شروع میتواند به کاهش همه سر و صداها برای رسیدن به پذیرش فناوری حیاتی و عوامل موفقیت مدیریت ریسک کمک کند.
هوش مصنوعی دلایل خوبی دارد. از آنجایی که ابر و اینترنت اشیا (IoT) همچنان برای ایجاد و جمعآوری مجموعههای بزرگتر و بالقوه ارزشمندتر از دادهها استفاده میشوند، برای انسانهایی که ما به کار میگیریم سختتر میشود که همه آن اطلاعات را در اختیار داشته باشند و درک درستی از آن داشته باشند. آن را در حالی که دنیای متصل/IoT مقادیر انبوهی از دادهها را در اطراف یک محصول یا فرآیند تولید میکند، بسیاری از دادههای جمعآوریشده امروزه در بایگانی پایگاهداده باقی میمانند یا به صورت موقعیتی برای گزارشدهی موقت استخراج میشوند. هوش مصنوعی وعده می دهد که بینش های عملی را از داده های متفاوت و دست نخورده ایجاد کند.
برخلاف فناوریهای اطلاعاتی که امروزه ممکن است از آن استفاده کنید، هوش مصنوعی با مجموعهای از عدم قطعیتها همراه است که قبل از در نظر گرفتن پذیرش کلی باید از آنها قدردانی کرد. هوش مصنوعی ممکن است از فناوریهایی مانند یادگیری عمیق یا مدلهای زبانی بزرگ برای دریافت مقادیر زیادی داده، شناسایی الگوها و برونیابی توصیهها استفاده کند. چالشی که برای کسانی که تازه به هوش مصنوعی میآیند این است که ممکن است واضح نباشد که چنین ماشینی چگونه «یاد میگیرد» و چگونه خروجیها یا پاسخهای آن را تفسیر میکند. ما امروز این پدیده را مشاهده می کنیم که یک هوش مصنوعی تصویری از یک شخص با سه دست ایجاد می کند یا پیشنهاد می کند برای جلوگیری از لیز خوردن پنیر به سس پیتزای خانگی چسب اضافه کنید. در حالی که داستان دوم در واقع یک افسانه شهری ردیت بود، این واقعیت که قابل قبول به نظر می رسید دلیل کافی برای انجام تکالیف بیشتر است.
به هر حال، برخی از پیامدهای مدل های یادگیری هوش مصنوعی ممکن است چندان واضح نباشد. کاربران نگران سوگیری ضمنی در مجموعه داده های مورد استفاده برای آموزش هوش مصنوعی هستند که ممکن است تحلیل را به سمت نابرابری های تاریخی منحرف کند. همانطور که مشاهده می شود، یک هوش مصنوعی حتی ممکن است دچار «توهم» شود IBM، “که در آن یک مدل زبان بزرگ … الگوها یا اشیایی را درک می کند که برای ناظران انسانی وجود ندارند یا نامحسوس هستند و خروجی هایی ایجاد می کنند که بی معنی یا کاملاً نادرست هستند.” آیا هوش مصنوعی که به کار می برید سعی می کند یاد بگیرد که چگونه به پاسخ صحیح برسد یا راه حلی بیابد که کاربر را راضی کند؟
برای مدیریت این عدم قطعیت ها، رهبران باید برای درک فناوری های هوش مصنوعی، فروشندگان و ارائه دهندگان خدمات و پیامدهای اعتماد به برندشان وقت بگذارند. این فناوری نیست که بتوان آن را به طور عمده به سازمان های فناوری اطلاعات یا مهندسی خود واگذار کرد. هوش مصنوعی نیاز به سطح بالاتری از (1) تیزبینی، (2) کنترل و (3) حکمرانی دارد قبل از اینکه اجازه دهید در معماری شما تعبیه شود. رهبران ارشد باید همیشه مسئول استفاده و کاربرد فناوری باشند و باید به صراحت بدانند که هوش مصنوعی چگونه پردازش میکند، یاد میگیرد و توصیه میکند.
کنترل: با هوش مصنوعی کمکی شروع کنید
یک مکان خوب برای شروع، درک انواع مختلف هوش مصنوعی است و اینکه کدام اشکال ممکن است به شما امکان آزمایش و یادگیری نحوه تطبیق آن با نیازهای استراتژیک خود را بدهد. واگذاری یک فرآیند به یک ماشین ممکن است یک راه حل سریع برای یک مشکل دشوار ارائه دهد، اما غصب عنصر انسانی احتمالاً به معنای رها شدن خیلی زود از افسار است.
وقتی مردم به هوش مصنوعی فکر می کنند، احتمالاً هوش مصنوعی مولد را تصور می کنند. ChatGPT نمونهای از هوش مصنوعی مولد است که در آن دادههای زیادی را جذب میکند و سپس میتواند خروجیهایی مانند نامههای پوششی برنامههای شغلی، تصاویر سهبعدی واقعگرایانه یا نمونههای سهام را ایجاد (تولید) کند.
به طور مشابه، مخازن بزرگی از داده ها نیز می توانند برای پیش بینی نتایج، روندها، رفتارها یا موارد مشابه استفاده شوند که به عنوان هوش مصنوعی پیش بینی کننده شناخته می شوند. هوش مصنوعی پیشبینیکننده از یادگیری ماشین – یک سیستم کامپیوتری که از الگوریتمها و مدلهای آماری برای شناسایی الگوها و برونیابیها استفاده میکند – برای ارائه توصیهها و پیشنهاد اقدامات استفاده میکند.
مانند هوش مصنوعی پیشبینیکننده، دسته دیگری از هوش مصنوعی، هوش مصنوعی کمکی، الگوها و واریانسهایی را در مجموعه دادههای بزرگی که آماده کمک به کاربران در انجام وظایفشان هستند، پیدا میکند. هوش مصنوعی کمکی به جای استفاده از داده های تجربی یا ذخیره شده در زمان واقعی عمل می کند. همانطور که از نام آن پیداست، هوش مصنوعی کمکی در کنار اپراتورهای انسانی کار می کند تا به آنها کمک کند تا مهارت ها یا شکاف های منابع را پر کنند. نمونه هایی از هوش مصنوعی کمکی ممکن است شامل ترجمه زبان خارجی یا تشخیص تصویر/اشیاء در نظارت تصویری باشد.
با هوش مصنوعی کمکی، مسئولیت تصمیمگیری به عهده انسانی است، ترجیحاً انسانی که میداند ابزار چه چیزی را توصیه میکند یا توصیه نمیکند، در صورت لزوم بر روی سایر اطلاعات پافشاری میکند و بر اساس تمام اطلاعات موجود، از جمله اطلاعات ارائه شده توسط هوش مصنوعی، عمل میکند. برنامههای کاربردی هوش مصنوعی میتوانند برای پاک کردن ورودیها به طور سازنده بدون فیلتر کردن محتوا از دید، پیادهسازی شوند.
هوش مصنوعی کمکی را می توان با در نظر گرفتن موارد استفاده که در آن می توان به طور شفاف به کار گرفت، به بهترین وجه هدایت کرد. به دنبال مکانهایی در سازمان یا فرآیندهای خود باشید که در آن کارکنان بیش از حد کار میکنند یا جریان کار در حال از هم گسیختگی است. شاید شما یک رشته فنی داشته باشید که در آن کارکنان با تجربه نزدیک به بازنشستگی هستند و یک هوش مصنوعی می تواند آموخته های کلیدی را برای آموزش و توسعه اعضای جدید تیم کسب کند. خودکارسازی فرآیندهای غیر بحرانی یا تریاژ نیز ممکن است فرصتی برای هوش مصنوعی کمکی ایجاد کند، اما فقط در جایی که اصول حاکمیتی دقیقی ابداع شده باشد، به طوری که بدانید هنوز مسئول نحوه اطلاع رسانی و اجرای فرآیندهای کسب و کار خود هستید.
حاکمیت باعث ایجاد اعتماد می شود
حکمرانی هوش مصنوعی به دنبال تضمین این است که سیستمها بهطور اخلاقی و مسئولانه توسعه مییابند و از استراتژیهای امنیتی و کاهش ریسک برای محافظت از همه ذینفعان استفاده میشود. در بیشتر موارد، هوش مصنوعی امروزه یک صنعت خودتنظیمی است. مشتریان و شرکای شما از شما انتظار دارند که این فناوری را به صورت اخلاقی و مسئولانه به کار ببرید. شیوههای حاکمیتی – از جمله اقدامات ایمنی، حریم خصوصی و شفافیت – باید برای اطمینان از اعتماد و مقیاسپذیری پاسخگو طراحی شوند. برای کاربر نهایی محصول یا خدمات مجهز به هوش مصنوعی شما، این فناوری ممکن است به عنوان یک ویژگی “جعبه سیاه” در نظر گرفته شود که ممکن است ارزش یا قابلیتی بیافزاید، اما تنها در صورتی پذیرفته می شود که فروشنده بتواند به طور واضح نحوه عملکرد آن و نرده های محافظ عملکرد آن را توضیح دهد. .
به نظر می رسد که مردم همچنان به افراد دیگر به عنوان منابع اقتدار بیشتر از ماشین ها اعتماد دارند. در حالی که یک هوش مصنوعی ممکن است کار بهتری در خواندن اشعه ایکس انجام دهد، بیماران همچنان می خواهند تشخیص را از پزشک خود بشنوند. در مواقع اضطراری، ما انتظار داریم که تماس 9-1-1 توسط یک انسان با مراقبت و همدلی که در زمان پریشانی شدید به دنبالش هستیم پاسخ داده شود. اگرچه فرآیند ارسال منابع ممکن است توسط یک ماشین بهینه شود، اعتماد به یک الگوریتم هنوز بخشی از فرهنگ ما نیست و شاید هرگز نباید باشد.
حکمرانی، به عنوان نشان دادن مسئولیت و وظیفه مراقبت در قبال مشتریان شما، ممکن است نیاز به سطح بیشتری از باز بودن نسبت به بسیاری از سازمان ها داشته باشد که در گذشته مایل به افشای آن بوده اند. اگر میخواهید یک وسیله نقلیه خودران بفروشید، مثلاً خودرویی که برای کارکرد ایمن به 50 یا 100 میلیون خط کد نیاز دارد، احتمالاً هرگز به دلایل رقابتی به افشای آن معماری نرمافزار فکر نمیکنید. اما با هوش مصنوعی که استفاده میکنید، مشتریان شما چگونه به فناوری آنقدر اعتماد میکنند که دستهایشان را از روی فرمان بردارند؟ شخصی در یک دفتر بدون پنجره در دره سیلیکون در جایی باید الگوریتمی را بنویسد که تصمیم میگیرد خودرویی که در ساعات شلوغی انباشته است یا باید اتوبوس مدرسه را به عقب برگرداند یا به پیادهروی با عابران پیاده منحرف شود. آیا مشتریان شما حق دارند بدانند چه کسی چنین تصمیماتی می گیرد و اخلاق آنها چگونه با یادگیری ماشینی تفسیر می شود؟ حکمرانی شبکه بسیار گسترده ای ایجاد می کند.
قوانین سرانگشتی
هر رهبر باید امروز زمانی را صرف بررسی و پیشبینی بازار و تنشهای سازمانی کند که ممکن است از پیادهسازی هوش مصنوعی در محصولات یا فرآیندهای خود ایجاد شود. با فکر کردن در مورد برخی از اصول اساسی که تفکر شما را راهنمایی می کند، شروع کنید، مانند موارد زیر:
-
مدیریت هوش مصنوعی یک فرآیند ثابت نیست. مجموعه داده ها در طول زمان تغییر خواهند کرد، همانطور که مدل هایی که یک هوش مصنوعی برای یادگیری استفاده می کند تغییر خواهد کرد. مطمئن شوید که تیمهای شما نه تنها میدانند چگونه قابل اعتماد بودن را در طول زمان آزمایش کنند، بلکه میدانند چه چیزی را آزمایش کنند.
-
هوش مصنوعی ممکن است بر فرهنگ سازمان تأثیر بگذارد، زیرا تیمهای شما یاد میگیرند که همکاری انسان با ماشین را درک کنند و از آن استقبال کنند. مراقب «تنبلی» سازمانی باشید، زیرا ممکن است کارکنان برای کارهایی که میخواهید در دستان انسان باقی بمانند، بیش از حد به هوش مصنوعی وابسته شوند. به یاد داشته باشید که تغییر برای افراد بسیار سخت است حتی زمانی که سودمند باشد.
-
مانند هر تحول دیجیتالی، تیمهای خود را روی هدف نهایی متمرکز کنید – بهبود تجربه مشتری در مورد استفاده، نه اجرای یک فناوری به خاطر فناوری. انطباق، نه پذیرش.
در نهایت، ذهن خود را باز نگه دارید. از کوچک شروع کنید، ترجیحاً با یک هوش مصنوعی کمکی برای یک عملیات غیر بحرانی و در حین حرکت یاد بگیرید. روی کنترل ها و حکمرانی خود نقشی اساسی بگذارید، اما از برداشتن آنها نترسید و با مشاهده، آزمایش و یادگیری پروژه آنها را به صورت استراتژیک حرکت دهید.
فناوری هوش مصنوعی دنیای امروزی را که در آن زندگی می کنیم تغییر خواهد داد. این به همه ما بستگی دارد که تصمیم بگیریم که آیا این تغییر برای آینده بهتر و مرفه تر خواهد بود یا برای کاهش هزینه ها، سود بردن و غیرانسانی کردن بیشتر تعاملات ما با مشتریان و یکدیگر. فناوری را متناسب با فرهنگ مورد نظر خود تطبیق دهید – هوش مصنوعی را به گونه ای انتخاب نکنید که روح کسب و کار شما را از بین ببرد.
منبع: https://aibusiness.com/generative-ai/getting-started-with-artificial-intelligence