آیا نقش افسر ارشد حریم خصوصی مرده است؟


از زمانی که IBM در سال 2000 نقش افسر ارشد حفظ حریم خصوصی (CPO) را معرفی کرد، ما برای پاسخگویی به نیازهای حفاظت از داده در حال حاضر تکامل یافته ایم. و به لطف معرفی مقررات متمرکز بر حریم خصوصی مانند GDPR در سال 2018 و CCPA در سال 2020، اهمیت ما در سازمان ها به ندرت زیر سوال می رود.

اما در سال گذشته، مرز جدیدی به تیم‌های اجرایی رسید: حکمرانی هوش مصنوعی. به طور پیش فرض، این مسئولیت اغلب بر دوش CPO ها قرار گرفته است، خواه ناخواه. ما برای ارتقاء مهارت عجله داشتیم تا بتوانیم خطرات منحصر به فرد و ارزش بالقوه هوش مصنوعی را درک کنیم و نحوه ادغام حاکمیت هوش مصنوعی را در جریان کار فعلی خود تعیین کنیم.

اما پذیرش هوش مصنوعی نقش ما در تیم اجرایی را نیز زیر سوال برده است. برخی از شرکت‌ها در حال ایجاد «افسران ارشد هوش مصنوعی» یا سایر نقش‌های انحصاری هوش مصنوعی هستند که هم خود فناوری و هم مدیریت آن را مدیریت می‌کنند. دیگران برای مدیریت حاکمیت هوش مصنوعی به CISO ها، CSO ها و دیگر رهبران فناوری اطلاعات روی می آورند. برخی از شرکت‌های بزرگ فناوری، با تغییر از تمرکز نرم‌افزاری به تمرکز بر هوش مصنوعی، عملکردهای حریم خصوصی خود را به طور کامل کاهش می‌دهند.

حاکمیت هوش مصنوعی یک بحران هویت برای CPOها ایجاد کرده است. ما یا می‌توانیم برای دیدار با این لحظه برخیزیم، یا عملکردمان خطر حرکت به سمت عقب را می‌گیرد. با حاکمیت داده خوب که به عنوان شبکه ایمنی در زیر همه فناوری های سازمانی – از جمله هوش مصنوعی – عمل می کند، محافظت از موقعیت ما هرگز مهم تر از این نبوده است.

مرتبط:نحوه استفاده از هوش مصنوعی برای فعال کردن، نه فقط تحریک، تغییر

خوشبختانه، دلایل زیادی وجود دارد که چرا ما برای این شغل مناسب هستیم.

چرا CPO ها رهبرانی هستند که ما به آن نیاز داریم؟

به همان اندازه که اضافه کردن یک مسئولیت جدید به بشقاب‌های افسران حفظ حریم خصوصی چالش برانگیز است، ما بهترین حرفه‌ای هستیم که بتوانیم مرز بین تیم‌های محصول تشنه‌ی نوآوری و دپارتمان‌های حقوقی محافظه‌کار را طی کنیم. مدیریت حاکمیت هوش مصنوعی ساده است زیرا ما در حال حاضر:

پیمایش مقررات پیچیده: از زمانی که برای اولین بار در سال 2018 ظهور کردند، شرکت ها را از طریق مجموعه قوانین حفظ حریم خصوصی داده ها هدایت کرده ایم. مقررات هوش مصنوعی احتمالاً به همان شیوه پیشرفت خواهد کرد. ما می‌توانیم انتظار داشته باشیم که قوانین متقاطع – و متناقض – بیشتری در دهه آینده تصویب شوند. CPO ها از سال ها تجربه ما در فناوری های سازمانی مقاوم در برابر آینده برای مقابله با این موج آینده استفاده می کنند.

کارکرد متقابل: CPO شکاف بین تقریباً هر بخش تجاری را پر می کند – افرادی از حقوق، محصولات، فناوری اطلاعات، پشتیبانی مشتری و مجموعه اجرایی را گرد هم می آورد. ما قبلاً روابطی را ایجاد کرده‌ایم که شالوده یک ساختار حکومتی مشترک هوش مصنوعی را تشکیل می‌دهند.

مرتبط:سرمایه گذاری در هوش مصنوعی: چرا هوش مصنوعی مولد پیش بینی کننده شرط هوشمندی برای بازده واقعی است

مسئول نگه داشتن سازمان های ما: فراتر از رسیدگی به موارد قانونی، CPOها به عنوان قطب نما و میانجی اخلاقی در اتاق هیئت مدیره عمل می کنند. به جای اینکه بپرسیم آیا می‌توانیم کاری انجام دهیم، تیم‌هایمان را وادار می‌کنیم که سؤال کنند که آیا باید انجام دهیم یا خیر. ما از تشریح معضلات اخلاقی، بحث در برابر محصولات و ویژگی‌های مخاطره‌آمیز نمی‌ترسیم، و تیم‌های محصول خود را تحت فشار قرار می‌دهیم تا حریم خصوصی، مسئولیت‌پذیری و شفافیت را در خط مقدم قرار دهند. CPOها همان بررسی دقیق را در مورد نوآوری های هوش مصنوعی اعمال خواهند کرد.

حفاظت از صحت داده ها: هوش مصنوعی تشنه داده است. به عنوان مباشر داده، CPOها دائماً به حداقل سازی و دقت داده ها فکر می کنند. ما مطمئن می‌شویم که داده‌های سازمانی ما قابل استفاده، کاملاً رضایت‌بخش، غیر سیلو و ساختارمند هستند. این یک مهارت ضروری در حکمرانی هوش مصنوعی است، جایی که داده های با کیفیت همه تفاوت را ایجاد می کند.

مدیریت ریسک: خاموش کردن اطلاعات آتش سوزی در سطح سازمان یک بعد از ظهر متوسط ​​دوشنبه برای یک CPO است. ما پروتکل‌های واکنش حادثه را آزمایش کرده‌ایم، هر محصول جدید را در سازمان خود از بالا به پایین ارزیابی کرده‌ایم و می‌توانیم ارزیابی‌های تاثیر حریم خصوصی را در خواب انجام دهیم. در اغلب موارد، CPO ها همچنین سابقه ای در زمینه حقوق دارند، یا – مانند من به عنوان یک غیر وکیل – در عملیات حقوقی داده ها به خوبی آشنا شده اند. هنگامی که فشار برای هل دادن می آید، شما CPO آرام، خنک و جمع آوری شده در اتاق را می خواهید.

مرز انطباق جدید

مانند عصر Big Data که مقررات جدید و معماهای اخلاقی را معرفی کرد، هوش مصنوعی نیز همینطور خواهد بود. ما قبلاً با قانون هوش مصنوعی و با لوایح در دست بررسی در ایالت هایی مانند کالیفرنیا، تصوری از این مقررات در اروپا دیده ایم. سیستم‌های هوش مصنوعی حجم عظیمی از داده‌های ایجاد شده توسط انسان را مصرف می‌کنند، که آن‌ها (و شرکت‌هایی که با آن‌ها می‌سازند و کار می‌کنند) را به اهداف اصلی هکرها تبدیل می‌کند. خوشبختانه، CPOها، حاکمیت داده را بهتر از سایرین می دانند.

اعتماد عمومی به سیستم‌های هوش مصنوعی یکی دیگر از چالش‌هایی است که CPOها در ابتدا باید با آن روبرو شوند. مصرف‌کنندگان واکنش‌های مثبت و منفی شدیدی نسبت به شرکت‌هایی که برنامه‌های هوش مصنوعی را بر اساس عملکرد و شفافیت شرکتی اتخاذ می‌کنند، نشان می‌دهند: متا به دلیل استفاده از داده‌های مصرف‌کننده برای آموزش مدل‌ها با واکنش‌های شدید مواجه شد، با این حال کاربران اپل برای ایموجی‌های هوش مصنوعی مولد هیجان‌زده هستند. گرایش سیستم‌های هوش مصنوعی برای تعصب و شفافیت محدود را در نظر بگیرید، و حکمرانی هوش مصنوعی به یک غول به ظاهر غیرقابل مدیریت تبدیل می‌شود.

واکنش تند شرکت ها به ایجاد یک موقعیت کاملاً جدید فقط برای حاکمیت هوش مصنوعی قابل درک است. اما مانند رعایت حریم خصوصی، حکمرانی هوش مصنوعی یک ورزش تیمی است. این نیاز به همکاری بین تیم‌های IT، حقوقی، علوم داده، منابع انسانی و محصول دارد – با یک CPO در راس آن به عنوان بافت همبند بین. سازمان‌هایی که دارای CPO مدیریت حکمرانی هوش مصنوعی هستند، مزیت رقابتی عملیات‌های آتی، اعتماد عمومی و امنیت نظارتی را به دست خواهند آورد.

به عنوان CPO، ما به خوبی در اختراع مجدد مهارت داریم. عصر هوش مصنوعی فرصت دیگری برای ما است تا در دهه آینده پیشرفت کنیم و شرکت ها را پیش ببریم. در اینجا امیدواریم که بقیه C-suite موافقت کنند.





منبع: https://aibusiness.com/responsible-ai/is-the-chief-privacy-officer-role-dead-