هیئت حفاظت از داده های اروپا یک گزارش را منتشر کرده است نظر پرداختن به حفاظت از داده ها در مدل های هوش مصنوعی این ارزیابی ناشناس بودن هوش مصنوعی، مبنای قانونی برای پردازش داده ها، و اقدامات کاهشی برای تأثیرات بر موضوعات داده ها برای شرکت های فناوری فعال در بلوک را پوشش می دهد.
این در پاسخ به درخواست کمیسیون حفاظت از داده های ایرلند، مرجع نظارتی اصلی تحت GDPR برای بسیاری از شرکت های چندملیتی
نکات کلیدی راهنمایی چه بود؟
DPC به دنبال اطلاعات بیشتر در مورد:
- چه زمانی و چگونه میتوان یک مدل هوش مصنوعی را «ناشناس» در نظر گرفت – مدلهایی که بعید است افرادی را که از دادههایشان در ایجاد آن استفاده شده است شناسایی کنند و بنابراین از قوانین حفظ حریم خصوصی مستثنی هستند.
- وقتی شرکتها میتوانند بگویند که «نفع مشروع» در پردازش دادههای افراد برای مدلهای هوش مصنوعی دارند و بنابراین، نیازی به جلب رضایت آنها ندارند.
- پیامدهای پردازش غیرقانونی داده های شخصی در مرحله توسعه یک مدل هوش مصنوعی.
آنو تالوس، رئیس EDPB، در یک بیانیه مطبوعاتیفن آوری های هوش مصنوعی ممکن است فرصت ها و مزایای بسیاری را برای صنایع و حوزه های مختلف زندگی به ارمغان بیاورد. ما باید اطمینان حاصل کنیم که این نوآوری ها از نظر اخلاقی، ایمن و به گونه ای انجام می شوند که به نفع همه باشد.
EDPB می خواهد از نوآوری مسئول هوش مصنوعی با اطمینان از محافظت از داده های شخصی و با رعایت کامل مقررات حفاظت از داده ها حمایت کند.
وقتی یک مدل هوش مصنوعی را می توان «ناشناس» در نظر گرفت
یک مدل هوش مصنوعی را میتوان ناشناس در نظر گرفت اگر احتمال اینکه دادههای شخصی مورد استفاده برای آموزش به هر فردی – چه به طور مستقیم یا غیرمستقیم، از طریق یک اعلان – ردیابی شود – «بیاهمیت» تلقی شود. ناشناس بودن توسط مقامات نظارتی بر اساس “مورد به مورد” ارزیابی می شود و “ارزیابی کامل احتمال شناسایی” مورد نیاز است.
با این حال، این نظر فهرستی از راه هایی را ارائه می دهد که توسعه دهندگان مدل ممکن است ناشناس بودن را نشان دهند، از جمله:
- انجام اقداماتی در حین انتخاب منبع برای جلوگیری یا محدود کردن جمع آوری داده های شخصی، مانند حذف منابع نامربوط یا نامناسب.
- اجرای اقدامات فنی قوی برای جلوگیری از شناسایی مجدد.
- اطمینان از اینکه داده ها به اندازه کافی ناشناس هستند.
- استفاده از تکنیک های کمینه سازی داده ها برای جلوگیری از داده های شخصی غیر ضروری.
- ارزیابی منظم خطرات شناسایی مجدد از طریق آزمایش و ممیزی.
کاترین وین، وکیل حفاظت از داده از Pinsent Masons، گفت که این الزامات ادعای ناشناس ماندن را برای شرکت های هوش مصنوعی دشوار می کند.
او در یک گزارش گفت: «مضرات احتمالی به حریم خصوصی شخصی که از دادههایش برای آموزش مدل هوش مصنوعی استفاده میشود، بسته به شرایط، میتواند نسبتاً کم باشد و ممکن است از طریق اقدامات امنیتی و نام مستعار کاهش یابد.» مقاله شرکت.
با این حال، روشی که EDPB قانون را تفسیر میکند، سازمانها را ملزم میکند تا به تعهدات سنگین و در برخی موارد غیرعملی، مربوط به محدودیت هدف و شفافیت، به ویژه رعایت کنند.
زمانی که شرکت های هوش مصنوعی می توانند داده های شخصی را بدون رضایت افراد پردازش کنند
نظر EDPB بیان میکند که شرکتهای هوش مصنوعی میتوانند دادههای شخصی را بدون رضایت بر اساس «منافع مشروع» پردازش کنند، اگر بتوانند نشان دهند که منافع آنها، مانند بهبود مدلها یا خدمات، بر حقوق و آزادیهای افراد بیشتر است.
این امر بهویژه برای شرکتهای فناوری مهم است، زیرا کسب رضایت برای حجم عظیمی از دادههای مورد استفاده برای آموزش مدلها نه بیاهمیت است و نه از نظر اقتصادی مقرونبهصرفه. اما برای واجد شرایط بودن، شرکت ها باید این سه آزمون را بگذرانند:
- تست مشروعیت: یک دلیل قانونی و مشروع برای پردازش داده های شخصی باید شناسایی شود.
- تست ضرورت: پردازش داده ها باید برای هدف ضروری باشد. هیچ راه جایگزین دیگری برای دستیابی به هدف شرکت نمی تواند وجود داشته باشد و میزان داده های پردازش شده باید متناسب باشد.
- تست تعادل: منافع مشروع در پردازش داده ها باید بیشتر از تأثیر آن بر حقوق و آزادی های افراد باشد. این در نظر میگیرد که آیا افراد به طور منطقی انتظار دارند دادههایشان به این روش پردازش شود، مثلاً اگر آنها را در دسترس عموم قرار دهند یا با شرکت رابطه داشته باشند.
حتی اگر شرکتی در آزمون تعادل رد شود، در صورت اعمال اقدامات کاهنده برای محدود کردن تأثیر پردازش، ممکن است باز هم نیازی به جلب رضایت افراد داده نباشد. چنین اقداماتی عبارتند از:
- حفاظت فنی: اعمال حفاظتی که خطرات امنیتی را کاهش می دهد، مانند رمزگذاری.
- نام مستعار: جایگزینی یا حذف اطلاعات قابل شناسایی برای جلوگیری از پیوند داده ها به یک فرد.
- پوشش داده ها: جایگزینی داده های شخصی واقعی با داده های جعلی زمانی که محتوای واقعی ضروری نیست.
- سازوکارهایی برای افراد سوژه داده برای اعمال حقوق خود: آسان کردن افراد برای استفاده از حقوق داده خود، مانند انصراف، درخواست پاک کردن، یا ادعای تصحیح داده ها.
- شفافیت: افشای عمومی شیوه های پردازش داده ها از طریق کمپین های رسانه ای و برچسب های شفافیت.
- اقدامات ویژه خراش دادن وب: اعمال محدودیتهایی برای جلوگیری از حذف غیرمجاز دادههای شخصی، مانند ارائه فهرست انصراف به افراد سوژه داده یا حذف دادههای حساس.
مالکوم داودن، وکیل فناوری از Pinsent Masons در مقاله شرکت گفت که تعریف «منافع قانونی» اخیراً بحث برانگیز بوده است، به ویژه در لایحه داده های بریتانیا (استفاده و دسترسی)..
او گفت: «حامیان هوش مصنوعی پیشنهاد میکنند که پردازش دادهها در زمینه هوش مصنوعی منجر به نوآوری میشود و منافع و منافع اجتماعی ذاتی را به همراه دارد که یک «منافع قانونی» برای اهداف قانون حفاظت از دادهها است. مخالفان بر این باورند که این دیدگاه خطرات مرتبط با هوش مصنوعی، مانند حریم خصوصی، تبعیض یا انتشار احتمالی «دیپفیک» یا اطلاعات نادرست را در نظر نمیگیرد.»
طرفداران خیریه Privacy International ابراز نگرانی کرده اند که مدل های هوش مصنوعی مانند سری GPT OpenAI ممکن است به درستی تحت این سه آزمایش مورد بررسی قرار نگیرند زیرا فاقد آن هستند. دلایل خاص برای پردازش داده های شخصی.
پیامدهای پردازش غیرقانونی داده های شخصی در توسعه هوش مصنوعی
اگر مدلی با پردازش دادهها به گونهای توسعه یابد که GDPR را نقض کند، این بر نحوه عملکرد مدل تأثیر میگذارد. مقام مربوطه «شرایط هر مورد جداگانه» را ارزیابی میکند اما نمونههایی از ملاحظات احتمالی را ارائه میکند:
- اگر همان شرکت داده های شخصی را حفظ و پردازش کند، قانونی بودن هر دو مرحله توسعه و استقرار باید بر اساس مشخصات مورد ارزیابی شود.
- اگر شرکت دیگری در حین استقرار داده های شخصی را پردازش کند، EDPB بررسی می کند که آیا آن شرکت از قبل ارزیابی مناسبی از قانونی بودن مدل انجام داده است یا خیر.
- اگر دادهها پس از پردازش غیرقانونی ناشناس شوند، پردازش دادههای غیرشخصی بعدی مسئولیتی در قبال GDPR ندارد. با این حال، هر گونه پردازش داده های شخصی بعدی همچنان مشمول مقررات خواهد بود.
چرا شرکت های هوش مصنوعی باید به راهنمایی ها توجه کنند؟
راهنمایی EDPB برای شرکت های فناوری بسیار مهم است. اگرچه هیچ قدرت قانونی ندارد، اما بر نحوه اجرای قوانین حفظ حریم خصوصی در اتحادیه اروپا تأثیر می گذارد.
در واقع، شرکتها را میتوان تا 20 میلیون یورو یا 4 درصد از گردش مالی سالانه آنها – هر کدام بزرگتر – به دلیل نقض GDPR جریمه کرد. حتی ممکن است از آنها خواسته شود که نحوه عملکرد مدل های هوش مصنوعی خود را تغییر دهند یا آنها را به طور کامل حذف کنند.
ببینید: قانون هوش مصنوعی اتحادیه اروپا: قوانین جدید اروپا برای هوش مصنوعی
شرکتهای هوش مصنوعی به دلیل حجم گسترده دادههای شخصی مورد نیاز برای آموزش مدلها، که اغلب از پایگاههای داده عمومی تهیه میشوند، برای پیروی از GDPR تلاش میکنند. این امر چالشهایی را در حصول اطمینان از پردازش قانونی دادهها و رسیدگی به درخواستهای دسترسی، اصلاحات یا پاک کردن موضوع داده ایجاد میکند.
این چالش ها در مبارزات حقوقی و جریمه های متعدد خود را نشان داده است. به عنوان مثال:
علاوه بر این، در ماه سپتامبر، اداره حفاظت از داده هلند Clearview AI 30.5 میلیون یورو جریمه شد برای جمع آوری غیرقانونی تصاویر چهره از اینترنت بدون رضایت کاربر، نقض GDPR. در همان ماه، DPC ایرلندی بلافاصله پس از اینکه ایلان ماسک را با موفقیت متقاعد کرد که ایکس X را متقاعد کرد، این نظر ارائه شود. استفاده از پست های عمومی کاربران اروپایی برای آموزش ربات چت هوش مصنوعی خود، Grok را متوقف کنید، بدون کسب رضایت آنها.
منبع: https://www.techrepublic.com/article/eu-guidance-ai-privacy-laws/