CIOهای سازمانی باید از شن و ماسه قانونی در اطراف هوش مصنوعی اجتناب کنند


مدیران ارشد اطلاعات سازمانی (CIO) دارای دو استاندارد هستند که باید آنها را هنگام بررسی مواردی که برای کاربران، مشتریان و کارمندان خود افشا کنند، اعمال کنند: قانونی و اخلاقی. خطوط پایه برای آن استانداردها در حال تکامل هستند زیرا فناوری از درک آنچه فناوری هوش مصنوعی مولد می تواند به دست آورد پیشی می گیرد. ChatGPT و سایر برنامه‌های کاربردی هوش مصنوعی قبلاً تست بدنام تورینگ را گذرانده‌اند، بنابراین چگونه مدیران ارشد فناوری می‌توانند حداقل با سرعت خود ادامه دهند و از همه شن‌های روان قانونی اجتناب کنند؟

خلاصه نمی توانند.

در اروپا، قانون‌گذاران قانون هوش مصنوعی اتحادیه اروپا را اجرا کرده‌اند – نوعی سندباکس نظارتی برای آزمایش توسعه هوش مصنوعی. این قانون نظارت بر برنامه‌های هوش مصنوعی را فراهم می‌کند و قدرت ممنوعیت برنامه‌های هوش مصنوعی را که رفتارهای شناختی را دستکاری می‌کنند، طبقه‌بندی افراد بر اساس وضعیت اجتماعی-اقتصادی، رفتار یا ویژگی‌های شخصی، یا شناسایی بیومتریک و دسته‌بندی افراد را اعطا می‌کند.

اگر یک CIO بخواهد به دولت اجازه دهد به استفاده شرکتشان از برنامه‌های هوش مصنوعی نمره قبولی بدهد تا در صورت بروز مشکل بتوانند انگشت خود را به سمت دولت بگیرند، بسیار خوب است، اما همچنین می‌تواند توسعه را مختل کند و شرکتی را تبرئه نکند. برنامه های کاربردی هوش مصنوعی در نهایت از قابلیت های اولیه خود عبور می کنند. یعنی حتی با وجود پارامترهای فنی تعیین شده روی برنامه‌های هوش مصنوعی، هدف این برنامه‌های هوش مصنوعی یادگیری و تکامل مداوم و مستقل است تا در نهایت از هر محدودیت تحمیلی پیشی بگیرند.

مرتبط:چگونه هوش مصنوعی ایمنی مصرف کننده و کسب و کار را تقویت می کند

ایالات متحده چنین طرح نظارتی فدرال گسترده ای ندارد. طرح ایالات متحده برای منشور حقوق هوش مصنوعی یک راهنما است، نه یک قانون. همانطور که نوشته شده است، هیچ دندان واقعی برای آن وجود ندارد و در حال حاضر از نظر توانایی ارزیابی مفاهیم هوش مصنوعی عقب مانده است. به طور مشابه، فرمان اجرایی کاخ سفید در مورد هوش مصنوعی، وظایفی را برای دولت فدرال تعیین می کند، اما نه برای بخش خصوصی.

برخی از ایالت‌ها، از جمله نیویورک، قوانینی دارند که نیازمند ممیزی هوش مصنوعی مورد استفاده در بخش‌های منابع انسانی هستند تا اطمینان حاصل شود که آنها عاری از تعصب هستند، اما هیچ کدام به اندازه قانون هوش مصنوعی اتحادیه اروپا گسترده نیستند. از آنجایی که این فناوری سریعتر از آنچه قانونگذار می توانسته است حرکت کند، این بر عهده دادگاه خواهد بود که برخی از نرده های محافظ فوری برای صنعت فراهم کند.

دعاوی حقوقی پاتاگونیا، پلوتون – مشتریان برای چه ثبت نام می کنند؟

شکایتی در ژوئیه 2024 در شهرستان ونتورا، کالیفرنیا علیه تولید کننده لباس پاتاگونیا، باعث ایجاد ابروها شده است. شاکیان به دنبال این هستند که به عنوان یک دعوای دسته جمعی برای اتهامات مربوط به نشت اطلاعات و حریم خصوصی در رابطه با استفاده پاتاگونیا از هوش مصنوعی مولد در بازوی خدمات مشتری خود تأیید شوند. در شکایت، شاکیان ادعا می کنند که پاتاگونیا از یک شرکت شخص ثالث، Talkdesk، برای گوش دادن و ضبط ارتباطات بین پاتاگونیا و مشتریانش استفاده کرده است. این دستگاه از هوش مصنوعی مولد برای تجزیه و تحلیل کلمات تماس‌گیرندگان استفاده می‌کند تا پیش‌بینی کند تماس‌گیرنده در مورد چه چیزی صحبت می‌کند و حتی احساس تماس‌گیرنده چیست.

مرتبط:هوش مصنوعی به یک لایه داده مصرفی بستگی دارد

این دادخواست ادعا می کند که اطلاعیه حریم خصوصی پاتاگونیا صرفاً در پایین صفحه وب سایت است و به مشتریان ارائه نمی شود و بنابراین با شرایط اعلامیه حریم خصوصی موافقت نمی کنند. همچنین، اطلاعیه حریم خصوصی فاش نمی کند که Talkdesk مکالمات را رهگیری و ضبط می کند، برخلاف قوانین ایالتی. اگر دادگاه در اینجا با شاکیان طرف شود، این یک هشدار جدی برای طرفین خواهد بود که از یک چشم پوشی عمومی برای حذف مسئولیت استفاده می کنند و به آن تکیه می کنند.

به طور مشابه، شکایت دسته جمعی دیگری در کالیفرنیا در ژوئیه 2024 علیه Peloton Interactive مطرح شد که ادعا می‌کرد این شرکت به‌طور نادرست داده‌های چت هوش مصنوعی خود را به شخص ثالث ارسال می‌کند. یک سوال محدودتر در مورد Peloton مطرح است – اینکه آیا شرکت قبل از انتقال آن اطلاعات به شخص ثالث، اجازه مشتریان را دریافت کرده است، زیرا این سوال که آیا Peloton حق دارد اطلاعات را در وهله اول به دست آورد یا نه، مورد بحث نیست. در اینجا، پس از جمع‌آوری داده‌ها، این سوال مطرح می‌شود که یک شرکت چه مسئولیتی برای محافظت از آن داده‌ها دارد و چگونه از آن استفاده می‌شود؟

حفاظت از شرکت و بهترین شیوه ها

در بخش خصوصی در ایالات متحده، معافیت‌های عمومی که می‌گویند: «ما می‌دانیم که A را جمع‌آوری می‌کنیم، اما حق جمع‌آوری BZ را با بهبود هوش مصنوعی برای خود محفوظ می‌دانیم»، احتمالاً برای اجتناب از مسئولیت در همه موارد کافی نیست. ممکن است این بهترین چیزی باشد که در حال حاضر داریم، اما نمی‌توانیم تحت نظارت دقیق دادگاه قرار بگیریم. در حالی که هر ایالت یا ناحیه فدرال ممکن است استانداردهای متمایزی برای قابل اجرا بودن معافیت‌های تعهدی داشته باشد، خط پایه کمابیش جهانی مورد نیاز این است که آنها “روشن و بدون ابهام” و “مخالف سیاست عمومی نباشند”. چشم پوشی ذکر شده در بالا احتمالاً هیچ یک از آن عناصر را برآورده نمی کند.

بنابراین CIOهای سازمانی باید چه کار کنند؟ برنامه های کاربردی هوش مصنوعی مولد فقط به اندازه داده هایی که به آنها وارد می شود مفید هستند. اعمال محدودیت در مورد داده‌های جمع‌آوری‌شده، کارآیی آن‌ها را مختل می‌کند و ممکن است بعد از مدتی نتیجه معکوس داشته باشد. چنین محدودیت هایی ضروری است، اما یک اقدام متعادل کننده است. علاوه بر این، کاربران نهایی بیش از حد مایل به آزمایش این محدودیت‌ها هستند، چه برای ابزارهای فکری صادقانه یا شرورانه.

بهترین راه حل برای این امر، ترکیبی از آزمایش دقیق و صداقت آشکار به کاربر نهایی است. CIOها باید با هوشیاری برنامه‌ها را آزمایش کنند و مشخص کنند چه چیزی جمع‌آوری می‌شود، چگونه پردازش می‌شود، چقدر ایمن ذخیره می‌شود و آیا گیرندگان شخص ثالثی از داده‌ها وجود دارد یا خیر. آنها همچنین باید با کاربر نهایی صادق باشند که به سادگی نمی دانند برنامه هوش مصنوعی به کجا می تواند منجر شود. CIOها باید آنچه را که می دانند و هنوز نمی دانند را برای کاربر نهایی فاش کنند و یک انصراف واضح ارائه دهند. برای پاسخگویی به نیازهای مشتری و منعکس کننده چشم انداز قانونی، یک شرایط خدمات در حال تحول یا توافق نامه کاربر نهایی ضروری است.

در نهایت، برای آن دسته از CIOهایی که از فروشندگان شخص ثالث برای برنامه های هوش مصنوعی خود استفاده می کنند، همکاری با مشاور عمومی آنها برای ایجاد مسئولیت های قطعی، بندهای غرامت/مسئولیت و حمایت های مشابه در قرارداد اولیه ضروری است. فرو بردن انگشت پا در عدم قطعیت شن‌های روان هوش مصنوعی، اگر یک طناب مطمئن به آن وصل شده باشد تا از شرکت در برابر خطرات احتمالی که با فناوری در حال توسعه هوش مصنوعی در انتظار آن است محافظت کند، شرکتی را از بین نخواهد برد.





منبع: https://aibusiness.com/responsible-ai/enterprise-cios-must-avoid-legal-quicksand-around-ai