نویسنده (ها): شین کالبرسون
در ابتدا منتشر شده در به سمت هوش مصنوعیبشر
هوش مصنوعی (AI) در همه جا است ، اما تعداد زیادی از اتاق های هیئت مدیره هنوز هم آن را به عنوان یک پروژه جانبی رفتار می کنند. این نیاز به تغییر دارد. سریع
من به عنوان کسی که مستقیماً با کارگردانان و لباس های C کار می کند ، من از طریق به روزرسانی های هوش مصنوعی نشسته ام که بیشتر شبیه به راه اندازی محصول از جلسات استراتژی است. من همچنین تابلوهایی را دیده ام که به هیچ وجه درباره AI بحث نمی کنند ، حتی اگر در آنها تعبیه شده باشد استخدام سیستم ها ، سیستم عامل های بازاریابی و موتورهای تأیید اعتبار. این سکوت یک اشتباه است و شرکت ها را در معرض خطر قرار می دهد.
خبر خوب این است که این شکاف ها قابل رفع هستند. اما ابتدا ، بیایید سه مورد از متداول ترین اشتباهات سطح هیئت مدیره را هنگام نظارت بر هوش مصنوعی فراخوانی کنیم.
اشتباه 1: هوش مصنوعی هنوز در دستور کار نیست
براساس نظرسنجی در اتاق جهانی جهانی Deloitte ، تنها 17 ٪ از هیئت مدیره در هر جلسه درباره هوش مصنوعی بحث می کنند. حدود یک سوم آن را به هیچ وجه در دستور کار ندارید. در زمانی که هوش مصنوعی ابزارها می توانند در طی چند هفته کل گردش مشتری را بالا ببرند ، این یک هیئت نظارت است که نمی توانند از پس آن برآیند.
یک سوم تابلوها هنوز در مورد هوش مصنوعی صحبت نمی کنند. این سکوت خنثی نیست – سهل انگاری است.
نگه داشتن هوش مصنوعی از دستور کار به معنای عدم پاسخگویی ، ردیابی پیشرفت و نظارت بر ساختار ریسک نیست. حاکمیت هوش مصنوعی به جای یک ستون استراتژیک ، به یک نتیجه تبدیل می شود.
نحوه رفع آن:
· به مدیریت نیاز دارید تا در هر جلسه هیئت مدیره یک بروزرسانی وضعیت هوش مصنوعی کوتاه ارائه دهد.
· بپرسید که چگونه هر مورد از AI استفاده می کند با اهداف استراتژیک تراز می شود.
· اطمینان حاصل کنید که هوش مصنوعی در ثبت ریسک شما ، گزارش های انطباق و برنامه های حسابرسی داخلی قرار دارد.
اگر AI تعامل ، عملیات و ریسک انطباق مشتری شما را لمس کند ، در آن زمان در اتاق هیئت مدیره تعلق دارد.
اشتباه 2: شکاف دانش AI هیئت مدیره بسیار گسترده است
بیش از نیمی از تابلوها گزارش می دهند که آنها دارای تسلط کمی هستند. این یکی از دو سناریو را ایجاد می کند: یا کارگردان بی فکر به مدیریت خود می پردازند ، یا آنها به طور کلی موضوع را رد می کنند. هر دو خطرناک هستند.
بدون آگاهی از نحوه عملکرد سیستم های هوش مصنوعی ، نحوه یادگیری ، جایی که می توانند اشتباه کنند و محدودیت های آنها چیست ، تابلوها نمی توانند نظارت معنادار ارائه دهند.
نحوه رفع آن:
- حداقل یک بار در سال آموزش AI بنیادی را برنامه ریزی کنید.
- کارشناسان خارجی را برای اجرای بررسی های سناریو و جلسات پرسش و پاسخ به همراه داشته باشید.
- حداقل یک مدیر را با تجربه AI عملیاتی تعیین یا استخدام کنید.
لازم نیست هیئت مدیره خود را به تیمی از دانشمندان داده تبدیل کنید. با این حال ، شما باید بدانید که چه چیزی را بپرسید ، چگونه می توانید پاسخ های مبهم را به چالش بکشید ، و در کجا ممکن است پرچم های قرمز اخلاقی پنهان شود.
اشتباه 3: اخلاق و انصاف در اختیار توسعه دهندگان قرار می گیرد
بسیاری از تابلوها تصور می کنند که مهندسین و مدیران محصول در حال انجام انصاف ، حریم خصوصی و آزمایش تعصب هستند. این فرض ناقص است. توسعه دهندگان به ندرت انگیزه یا منابع لازم برای رسیدگی به نظارت بر اخلاق دارند. اگر هیئت مدیره در مورد آن سؤال نکند ، احتمالاً انجام نمی شود.
توسعه دهندگان می توانند هوش مصنوعی بسازند ، اما نباید از آنها انتظار داشت که به تنهایی حاکم باشند.
بررسی بازرگانی هاروارد یک “شکاف اعتماد AI” مداوم با تصمیم گیری در جعبه سیاه ، تعصب الگوریتمی و چارچوب های شفافیت ضعیف را مشخص می کند. این شکاف اعتماد در حال حاضر در حال کاهش پذیرش در صنایعی مانند مراقبت های بهداشتی و خدمات مالی است.
اعتماد محصول جانبی عملکرد نیست. از ابتدا باید در سیستم ساخته شود.
نحوه رفع آن:
- حکم مبنی بر اینکه هر ابتکار مهم هوش مصنوعی تحت یک بررسی ریسک اخلاقی قرار دارد.
- شامل معیارهای نظارت بر تعصب و آستانه های توضیح در پروژه KPI ها.
- ایجاد سناریو برای زمان عدم موفقیت AI: چه کسی پاسخگو است؟ چگونه تصمیمات حسابرسی یا معکوس می شود؟
یک چارچوب قوی اخلاق هوش مصنوعی فقط از آسیب دیدن جلوگیری می کند ، بلکه اعتماد به تنظیم کننده ها ، مشتریان و مردم را ایجاد می کند.
خط پایین: تابلوهای پیشگیرانه برنده خواهند شد
هیئت هایی که نتوانند این اشتباهات را برطرف کنند ، با موضع اعتبار خود ، قرار گرفتن در معرض انطباق و فرصت های بالقوه نوآوری ، خطر می کنند. کسانی که اکنون عمل می کنند می توانند نحوه عملکرد AI در سازمان را شکل دهند ، مدتها قبل از مقررات یا بحران ها این مسئله را مجبور می کنند.
نظارت هوش مصنوعی دیگر اختیاری نیست. این بخشی از کار شماست.
تسخیر هیئت مدیره:
- نظارت AI دیگر اختیاری نیست.
- لازم نیست که یک متخصص فنی شوید ، اما باید سؤالات بهتری بپرسید.
- اخلاق و انصاف باید در چرخه عمر ساخته شود ، پس از آن پیچیده نشود.
این لحظه ای است که با قصد هدایت می شود. شرکت هایی که از حقوق حاکمیت هوش مصنوعی برخوردار می شوند ، فقط از مشکل جلوگیری نمی کنند. آنها همچنین از مزایا بهره می گیرند. آنها سیستم هایی را ایجاد می کنند که مردم می توانند به آنها اعتماد کنند.
منابع و خواندن بیشتر
بررسی برنامه اتاق خواب جهانی Deloitte – “مدیریت هوش مصنوعی: یک ضرورت مهم برای تابلوهای امروز ،” مجمع دانشکده حقوق هاروارد (27 مه 2025). https://corpgov.law.harvard.edu
بررسی تجارت هاروارد – Bhaskar Chakravorti ، “مشکل اعتماد هوش مصنوعی: دوازده خطرات مداوم هوش مصنوعی که باعث شک و تردید می شوند ،” (3 مه 2024). https://hbr.org/2024/05/ais-trust-problem
Mamia Agbese و همکاران ، “حاکمیت در سیستم های هوش مصنوعی اخلاقی و قابل اعتماد ،” E-informatica (2023). https://doi.org/10.37190/e-inf230101
منتشر شده از طریق به سمت هوش مصنوعی