از زمانی که IBM در سال 2000 نقش افسر ارشد حفظ حریم خصوصی (CPO) را معرفی کرد، ما برای پاسخگویی به نیازهای حفاظت از داده در حال حاضر تکامل یافته ایم. و به لطف معرفی مقررات متمرکز بر حریم خصوصی مانند GDPR در سال 2018 و CCPA در سال 2020، اهمیت ما در سازمان ها به ندرت زیر سوال می رود.
اما در سال گذشته، مرز جدیدی به تیمهای اجرایی رسید: حکمرانی هوش مصنوعی. به طور پیش فرض، این مسئولیت اغلب بر دوش CPO ها قرار گرفته است، خواه ناخواه. ما برای ارتقاء مهارت عجله داشتیم تا بتوانیم خطرات منحصر به فرد و ارزش بالقوه هوش مصنوعی را درک کنیم و نحوه ادغام حاکمیت هوش مصنوعی را در جریان کار فعلی خود تعیین کنیم.
اما پذیرش هوش مصنوعی نقش ما در تیم اجرایی را نیز زیر سوال برده است. برخی از شرکتها در حال ایجاد «افسران ارشد هوش مصنوعی» یا سایر نقشهای انحصاری هوش مصنوعی هستند که هم خود فناوری و هم مدیریت آن را مدیریت میکنند. دیگران برای مدیریت حاکمیت هوش مصنوعی به CISO ها، CSO ها و دیگر رهبران فناوری اطلاعات روی می آورند. برخی از شرکتهای بزرگ فناوری، با تغییر از تمرکز نرمافزاری به تمرکز بر هوش مصنوعی، عملکردهای حریم خصوصی خود را به طور کامل کاهش میدهند.
حاکمیت هوش مصنوعی یک بحران هویت برای CPOها ایجاد کرده است. ما یا میتوانیم برای دیدار با این لحظه برخیزیم، یا عملکردمان خطر حرکت به سمت عقب را میگیرد. با حاکمیت داده خوب که به عنوان شبکه ایمنی در زیر همه فناوری های سازمانی – از جمله هوش مصنوعی – عمل می کند، محافظت از موقعیت ما هرگز مهم تر از این نبوده است.
خوشبختانه، دلایل زیادی وجود دارد که چرا ما برای این شغل مناسب هستیم.
چرا CPO ها رهبرانی هستند که ما به آن نیاز داریم؟
به همان اندازه که اضافه کردن یک مسئولیت جدید به بشقابهای افسران حفظ حریم خصوصی چالش برانگیز است، ما بهترین حرفهای هستیم که بتوانیم مرز بین تیمهای محصول تشنهی نوآوری و دپارتمانهای حقوقی محافظهکار را طی کنیم. مدیریت حاکمیت هوش مصنوعی ساده است زیرا ما در حال حاضر:
پیمایش مقررات پیچیده: از زمانی که برای اولین بار در سال 2018 ظهور کردند، شرکت ها را از طریق مجموعه قوانین حفظ حریم خصوصی داده ها هدایت کرده ایم. مقررات هوش مصنوعی احتمالاً به همان شیوه پیشرفت خواهد کرد. ما میتوانیم انتظار داشته باشیم که قوانین متقاطع – و متناقض – بیشتری در دهه آینده تصویب شوند. CPO ها از سال ها تجربه ما در فناوری های سازمانی مقاوم در برابر آینده برای مقابله با این موج آینده استفاده می کنند.
کارکرد متقابل: CPO شکاف بین تقریباً هر بخش تجاری را پر می کند – افرادی از حقوق، محصولات، فناوری اطلاعات، پشتیبانی مشتری و مجموعه اجرایی را گرد هم می آورد. ما قبلاً روابطی را ایجاد کردهایم که شالوده یک ساختار حکومتی مشترک هوش مصنوعی را تشکیل میدهند.
مسئول نگه داشتن سازمان های ما: فراتر از رسیدگی به موارد قانونی، CPOها به عنوان قطب نما و میانجی اخلاقی در اتاق هیئت مدیره عمل می کنند. به جای اینکه بپرسیم آیا میتوانیم کاری انجام دهیم، تیمهایمان را وادار میکنیم که سؤال کنند که آیا باید انجام دهیم یا خیر. ما از تشریح معضلات اخلاقی، بحث در برابر محصولات و ویژگیهای مخاطرهآمیز نمیترسیم، و تیمهای محصول خود را تحت فشار قرار میدهیم تا حریم خصوصی، مسئولیتپذیری و شفافیت را در خط مقدم قرار دهند. CPOها همان بررسی دقیق را در مورد نوآوری های هوش مصنوعی اعمال خواهند کرد.
حفاظت از صحت داده ها: هوش مصنوعی تشنه داده است. به عنوان مباشر داده، CPOها دائماً به حداقل سازی و دقت داده ها فکر می کنند. ما مطمئن میشویم که دادههای سازمانی ما قابل استفاده، کاملاً رضایتبخش، غیر سیلو و ساختارمند هستند. این یک مهارت ضروری در حکمرانی هوش مصنوعی است، جایی که داده های با کیفیت همه تفاوت را ایجاد می کند.
مدیریت ریسک: خاموش کردن اطلاعات آتش سوزی در سطح سازمان یک بعد از ظهر متوسط دوشنبه برای یک CPO است. ما پروتکلهای واکنش حادثه را آزمایش کردهایم، هر محصول جدید را در سازمان خود از بالا به پایین ارزیابی کردهایم و میتوانیم ارزیابیهای تاثیر حریم خصوصی را در خواب انجام دهیم. در اغلب موارد، CPO ها همچنین سابقه ای در زمینه حقوق دارند، یا – مانند من به عنوان یک غیر وکیل – در عملیات حقوقی داده ها به خوبی آشنا شده اند. هنگامی که فشار برای هل دادن می آید، شما CPO آرام، خنک و جمع آوری شده در اتاق را می خواهید.
مرز انطباق جدید
مانند عصر Big Data که مقررات جدید و معماهای اخلاقی را معرفی کرد، هوش مصنوعی نیز همینطور خواهد بود. ما قبلاً با قانون هوش مصنوعی و با لوایح در دست بررسی در ایالت هایی مانند کالیفرنیا، تصوری از این مقررات در اروپا دیده ایم. سیستمهای هوش مصنوعی حجم عظیمی از دادههای ایجاد شده توسط انسان را مصرف میکنند، که آنها (و شرکتهایی که با آنها میسازند و کار میکنند) را به اهداف اصلی هکرها تبدیل میکند. خوشبختانه، CPOها، حاکمیت داده را بهتر از سایرین می دانند.
اعتماد عمومی به سیستمهای هوش مصنوعی یکی دیگر از چالشهایی است که CPOها در ابتدا باید با آن روبرو شوند. مصرفکنندگان واکنشهای مثبت و منفی شدیدی نسبت به شرکتهایی که برنامههای هوش مصنوعی را بر اساس عملکرد و شفافیت شرکتی اتخاذ میکنند، نشان میدهند: متا به دلیل استفاده از دادههای مصرفکننده برای آموزش مدلها با واکنشهای شدید مواجه شد، با این حال کاربران اپل برای ایموجیهای هوش مصنوعی مولد هیجانزده هستند. گرایش سیستمهای هوش مصنوعی برای تعصب و شفافیت محدود را در نظر بگیرید، و حکمرانی هوش مصنوعی به یک غول به ظاهر غیرقابل مدیریت تبدیل میشود.
واکنش تند شرکت ها به ایجاد یک موقعیت کاملاً جدید فقط برای حاکمیت هوش مصنوعی قابل درک است. اما مانند رعایت حریم خصوصی، حکمرانی هوش مصنوعی یک ورزش تیمی است. این نیاز به همکاری بین تیمهای IT، حقوقی، علوم داده، منابع انسانی و محصول دارد – با یک CPO در راس آن به عنوان بافت همبند بین. سازمانهایی که دارای CPO مدیریت حکمرانی هوش مصنوعی هستند، مزیت رقابتی عملیاتهای آتی، اعتماد عمومی و امنیت نظارتی را به دست خواهند آورد.
به عنوان CPO، ما به خوبی در اختراع مجدد مهارت داریم. عصر هوش مصنوعی فرصت دیگری برای ما است تا در دهه آینده پیشرفت کنیم و شرکت ها را پیش ببریم. در اینجا امیدواریم که بقیه C-suite موافقت کنند.
منبع: https://aibusiness.com/responsible-ai/is-the-chief-privacy-officer-role-dead-