مدیران ارشد اطلاعات سازمانی (CIO) دارای دو استاندارد هستند که باید آنها را هنگام بررسی مواردی که برای کاربران، مشتریان و کارمندان خود افشا کنند، اعمال کنند: قانونی و اخلاقی. خطوط پایه برای آن استانداردها در حال تکامل هستند زیرا فناوری از درک آنچه فناوری هوش مصنوعی مولد می تواند به دست آورد پیشی می گیرد. ChatGPT و سایر برنامههای کاربردی هوش مصنوعی قبلاً تست بدنام تورینگ را گذراندهاند، بنابراین چگونه مدیران ارشد فناوری میتوانند حداقل با سرعت خود ادامه دهند و از همه شنهای روان قانونی اجتناب کنند؟
خلاصه نمی توانند.
نرده های قانونی
در اروپا، قانونگذاران قانون هوش مصنوعی اتحادیه اروپا را اجرا کردهاند – نوعی سندباکس نظارتی برای آزمایش توسعه هوش مصنوعی. این قانون نظارت بر برنامههای هوش مصنوعی را فراهم میکند و قدرت ممنوعیت برنامههای هوش مصنوعی را که رفتارهای شناختی را دستکاری میکنند، طبقهبندی افراد بر اساس وضعیت اجتماعی-اقتصادی، رفتار یا ویژگیهای شخصی، یا شناسایی بیومتریک و دستهبندی افراد را اعطا میکند.
اگر یک CIO بخواهد به دولت اجازه دهد به استفاده شرکتشان از برنامههای هوش مصنوعی نمره قبولی بدهد تا در صورت بروز مشکل بتوانند انگشت خود را به سمت دولت بگیرند، بسیار خوب است، اما همچنین میتواند توسعه را مختل کند و شرکتی را تبرئه نکند. برنامه های کاربردی هوش مصنوعی در نهایت از قابلیت های اولیه خود عبور می کنند. یعنی حتی با وجود پارامترهای فنی تعیین شده روی برنامههای هوش مصنوعی، هدف این برنامههای هوش مصنوعی یادگیری و تکامل مداوم و مستقل است تا در نهایت از هر محدودیت تحمیلی پیشی بگیرند.
ایالات متحده چنین طرح نظارتی فدرال گسترده ای ندارد. طرح ایالات متحده برای منشور حقوق هوش مصنوعی یک راهنما است، نه یک قانون. همانطور که نوشته شده است، هیچ دندان واقعی برای آن وجود ندارد و در حال حاضر از نظر توانایی ارزیابی مفاهیم هوش مصنوعی عقب مانده است. به طور مشابه، فرمان اجرایی کاخ سفید در مورد هوش مصنوعی، وظایفی را برای دولت فدرال تعیین می کند، اما نه برای بخش خصوصی.
برخی از ایالتها، از جمله نیویورک، قوانینی دارند که نیازمند ممیزی هوش مصنوعی مورد استفاده در بخشهای منابع انسانی هستند تا اطمینان حاصل شود که آنها عاری از تعصب هستند، اما هیچ کدام به اندازه قانون هوش مصنوعی اتحادیه اروپا گسترده نیستند. از آنجایی که این فناوری سریعتر از آنچه قانونگذار می توانسته است حرکت کند، این بر عهده دادگاه خواهد بود که برخی از نرده های محافظ فوری برای صنعت فراهم کند.
دعاوی حقوقی پاتاگونیا، پلوتون – مشتریان برای چه ثبت نام می کنند؟
شکایتی در ژوئیه 2024 در شهرستان ونتورا، کالیفرنیا علیه تولید کننده لباس پاتاگونیا، باعث ایجاد ابروها شده است. شاکیان به دنبال این هستند که به عنوان یک دعوای دسته جمعی برای اتهامات مربوط به نشت اطلاعات و حریم خصوصی در رابطه با استفاده پاتاگونیا از هوش مصنوعی مولد در بازوی خدمات مشتری خود تأیید شوند. در شکایت، شاکیان ادعا می کنند که پاتاگونیا از یک شرکت شخص ثالث، Talkdesk، برای گوش دادن و ضبط ارتباطات بین پاتاگونیا و مشتریانش استفاده کرده است. این دستگاه از هوش مصنوعی مولد برای تجزیه و تحلیل کلمات تماسگیرندگان استفاده میکند تا پیشبینی کند تماسگیرنده در مورد چه چیزی صحبت میکند و حتی احساس تماسگیرنده چیست.
این دادخواست ادعا می کند که اطلاعیه حریم خصوصی پاتاگونیا صرفاً در پایین صفحه وب سایت است و به مشتریان ارائه نمی شود و بنابراین با شرایط اعلامیه حریم خصوصی موافقت نمی کنند. همچنین، اطلاعیه حریم خصوصی فاش نمی کند که Talkdesk مکالمات را رهگیری و ضبط می کند، برخلاف قوانین ایالتی. اگر دادگاه در اینجا با شاکیان طرف شود، این یک هشدار جدی برای طرفین خواهد بود که از یک چشم پوشی عمومی برای حذف مسئولیت استفاده می کنند و به آن تکیه می کنند.
به طور مشابه، شکایت دسته جمعی دیگری در کالیفرنیا در ژوئیه 2024 علیه Peloton Interactive مطرح شد که ادعا میکرد این شرکت بهطور نادرست دادههای چت هوش مصنوعی خود را به شخص ثالث ارسال میکند. یک سوال محدودتر در مورد Peloton مطرح است – اینکه آیا شرکت قبل از انتقال آن اطلاعات به شخص ثالث، اجازه مشتریان را دریافت کرده است، زیرا این سوال که آیا Peloton حق دارد اطلاعات را در وهله اول به دست آورد یا نه، مورد بحث نیست. در اینجا، پس از جمعآوری دادهها، این سوال مطرح میشود که یک شرکت چه مسئولیتی برای محافظت از آن دادهها دارد و چگونه از آن استفاده میشود؟
حفاظت از شرکت و بهترین شیوه ها
در بخش خصوصی در ایالات متحده، معافیتهای عمومی که میگویند: «ما میدانیم که A را جمعآوری میکنیم، اما حق جمعآوری BZ را با بهبود هوش مصنوعی برای خود محفوظ میدانیم»، احتمالاً برای اجتناب از مسئولیت در همه موارد کافی نیست. ممکن است این بهترین چیزی باشد که در حال حاضر داریم، اما نمیتوانیم تحت نظارت دقیق دادگاه قرار بگیریم. در حالی که هر ایالت یا ناحیه فدرال ممکن است استانداردهای متمایزی برای قابل اجرا بودن معافیتهای تعهدی داشته باشد، خط پایه کمابیش جهانی مورد نیاز این است که آنها “روشن و بدون ابهام” و “مخالف سیاست عمومی نباشند”. چشم پوشی ذکر شده در بالا احتمالاً هیچ یک از آن عناصر را برآورده نمی کند.
بنابراین CIOهای سازمانی باید چه کار کنند؟ برنامه های کاربردی هوش مصنوعی مولد فقط به اندازه داده هایی که به آنها وارد می شود مفید هستند. اعمال محدودیت در مورد دادههای جمعآوریشده، کارآیی آنها را مختل میکند و ممکن است بعد از مدتی نتیجه معکوس داشته باشد. چنین محدودیت هایی ضروری است، اما یک اقدام متعادل کننده است. علاوه بر این، کاربران نهایی بیش از حد مایل به آزمایش این محدودیتها هستند، چه برای ابزارهای فکری صادقانه یا شرورانه.
بهترین راه حل برای این امر، ترکیبی از آزمایش دقیق و صداقت آشکار به کاربر نهایی است. CIOها باید با هوشیاری برنامهها را آزمایش کنند و مشخص کنند چه چیزی جمعآوری میشود، چگونه پردازش میشود، چقدر ایمن ذخیره میشود و آیا گیرندگان شخص ثالثی از دادهها وجود دارد یا خیر. آنها همچنین باید با کاربر نهایی صادق باشند که به سادگی نمی دانند برنامه هوش مصنوعی به کجا می تواند منجر شود. CIOها باید آنچه را که می دانند و هنوز نمی دانند را برای کاربر نهایی فاش کنند و یک انصراف واضح ارائه دهند. برای پاسخگویی به نیازهای مشتری و منعکس کننده چشم انداز قانونی، یک شرایط خدمات در حال تحول یا توافق نامه کاربر نهایی ضروری است.
در نهایت، برای آن دسته از CIOهایی که از فروشندگان شخص ثالث برای برنامه های هوش مصنوعی خود استفاده می کنند، همکاری با مشاور عمومی آنها برای ایجاد مسئولیت های قطعی، بندهای غرامت/مسئولیت و حمایت های مشابه در قرارداد اولیه ضروری است. فرو بردن انگشت پا در عدم قطعیت شنهای روان هوش مصنوعی، اگر یک طناب مطمئن به آن وصل شده باشد تا از شرکت در برابر خطرات احتمالی که با فناوری در حال توسعه هوش مصنوعی در انتظار آن است محافظت کند، شرکتی را از بین نخواهد برد.
منبع: https://aibusiness.com/responsible-ai/enterprise-cios-must-avoid-legal-quicksand-around-ai