گزارش جدیدی از Deloitte نشان می دهد که نگرانی ها در مورد حفظ حریم خصوصی داده ها در رابطه با هوش مصنوعی مولد افزایش یافته است. در حالی که سال گذشته تنها 22 درصد از متخصصان آن را در میان سه نگرانی اصلی خود قرار دادند، امسال این رقم به 72 درصد افزایش یافته است.
بالاترین نگرانی های اخلاقی GenAI شفافیت و منشأ داده ها بود که 47٪ و 40٪ از متخصصان آنها را در سه رتبه برتر امسال خود قرار دادند. در همین حال، تنها 16 درصد نسبت به این موضوع ابراز نگرانی کردند جابجایی شغلی.
کارکنان در مورد نحوه عملکرد فناوری هوش مصنوعی، به ویژه در مورد داده های حساس، کنجکاوتر می شوند. مطالعه سپتامبر توسط HackerOne نشان داد که تقریبا نیمی از متخصصان امنیتی معتقدند هوش مصنوعی خطرناک است، در حالی که بسیاری از داده های آموزشی درز کرده به عنوان یک تهدید می بینند.
به طور مشابه، 78٪ از رهبران کسب و کار “ایمن و ایمن” را به عنوان یکی از سه اصل برتر فناوری اخلاقی خود رتبه بندی کردند که نشان دهنده یک 37 درصد افزایش نسبت به سال 2023، بیشتر نشان می دهد که چگونه موضوع امنیت در ذهن شماست.
نتایج نظرسنجی از Deloitte 2024 آمده است.وضعیت اخلاق و اعتماد در فناوریگزارشی که بیش از 1800 متخصص فنی و تجاری در سراسر جهان را در مورد اصول اخلاقی که آنها در مورد فناوریها بهویژه GenAI اعمال میکنند مورد بررسی قرار داد.
حوادث امنیتی با سطح بالای هوش مصنوعی احتمالا توجه بیشتری را به خود جلب می کند
فقط بیش از نیمی از پاسخ دهندگان به سال جاری و سال گذشته گزارشها حاکی از آن است که فناوریهای شناختی مانند هوش مصنوعی و GenAI در مقایسه با سایر فناوریهای نوظهور مانند واقعیت مجازی، محاسبات کوانتومی، وسایل نقلیه خودمختار و روباتیک، بزرگترین خطرات اخلاقی را به همراه دارند.
این تمرکز جدید ممکن است به آگاهی گستردهتر از اهمیت امنیت دادهها به دلیل حوادثی که به خوبی اعلام شده است، مانند زمانی که یک اشکال در ChatGPT OpenAI وجود دارد، مرتبط باشد. اطلاعات شخصی حدود 1.2٪ از مشترکین ChatGPT Plus را در معرض دید قرار داده است، از جمله نام، ایمیل، و جزئیات پرداخت جزئی.
اعتماد به ربات چت نیز مطمئناً با این خبر از بین رفت هکرها یک فروم آنلاین مورد استفاده کارمندان OpenAI را نقض کرده بودند و اطلاعات محرمانه سیستم های هوش مصنوعی این شرکت را به سرقت برد.
ببینید: سیاست اخلاقی هوش مصنوعی
بینا آمانات، مؤسسه جهانی دیلویت هوش مصنوعی و رهبر هوش مصنوعی قابل اعتماد، در یک گزارش گفت: «در دسترس بودن و پذیرش گسترده GenAI ممکن است آشنایی و اعتماد پاسخ دهندگان به این فناوری را افزایش داده باشد و خوشبینی را نسبت به پتانسیل آن افزایش دهد. بیانیه مطبوعاتی.
«احساسات احتیاطی مستمر در مورد خطرات ظاهری آن بر نیاز به چارچوبهای اخلاقی خاص و تکاملیافته که تأثیر مثبت را ممکن میسازد، تأکید میکند.»
قوانین هوش مصنوعی بر نحوه عملکرد سازمان ها در سراسر جهان تأثیر می گذارد
به طور طبیعی، تعداد پرسنل بیشتری نسبت به سال گذشته در محل کار خود از GenAI استفاده می کنند، به طوری که درصد متخصصان گزارش داده اند که در داخل از آن استفاده می کنند، در گزارش های سال به سال Deloitte 20 درصد افزایش یافته است.
94 درصد بزرگی گفتند که شرکت هایشان به نوعی آن را در فرآیندها القا کرده اند. با این حال، اکثر آنها هنوز در مرحله آزمایشی است یا استفاده از آن محدود است و تنها 12 درصد گفته اند که در حال استفاده گسترده است. این با تحقیقات اخیر گارتنر مطابقت دارد اکثر پروژه های GenAI از مرحله اثبات مفهوم عبور نمی کنند.
ببینید: IBM: در حالی که پذیرش سازمانی از هوش مصنوعی افزایش می یابد، موانع استفاده از آن را محدود می کند
صرف نظر از فراگیر بودن آن، تصمیم گیرندگان می خواهند اطمینان حاصل کنند که استفاده از هوش مصنوعی آنها را به دردسر نمی اندازد، به خصوص وقتی صحبت از قانون می شود. بالاترین دلیل برای داشتن خطمشیها و دستورالعملهای فنی اخلاقی، مطابقت بود که 34 درصد از پاسخدهندگان به آن اشاره کردند، در حالی که مجازاتهای نظارتی جزو سه نگرانی اصلی گزارششده در صورت عدم رعایت چنین استانداردهایی بود.
این قانون هوش مصنوعی اتحادیه اروپا از اول آگوست به اجرا درآمد و الزامات سختگیرانه ای را برای سیستم های هوش مصنوعی پرخطر برای اطمینان از ایمنی، شفافیت و استفاده اخلاقی اعمال می کند. عدم رعایت می تواند منجر به جریمه هایی از 35 میلیون یورو (38 میلیون دلار آمریکا) یا 7 درصد از گردش مالی جهانی تا 7.5 میلیون یورو (8.1 میلیون دلار آمریکا) یا 1.5 درصد از گردش مالی شود.
بیش از صد شرکت از جمله آمازون، گوگل، مایکروسافت و OpenAI قبلاً این قرارداد را امضا کرده اند پیمان هوش مصنوعی اتحادیه اروپا و داوطلب شد تا قبل از موعد مقرر قانونی، اجرای الزامات این قانون را آغاز کند. این امر هم تعهد آنها را به استقرار هوش مصنوعی مسئولانه برای عموم نشان می دهد و هم به آنها کمک می کند تا از چالش های قانونی آینده اجتناب کنند.
به همین ترتیب، در اکتبر 2023، ایالات متحده از یک دستگاه رونمایی کرد دستور اجرایی هوش مصنوعی دارای راهنمایی های گسترده در مورد حفظ ایمنی، حقوق مدنی و حریم خصوصی در سازمان های دولتی و در عین حال ترویج نوآوری و رقابت هوش مصنوعی در سراسر کشور. در حالی که این یک قانون نیست، بسیاری از شرکت های فعال در ایالات متحده ممکن است در پاسخ به اطمینان از انطباق با نظارت فدرال در حال تحول و انتظارات عمومی از ایمنی هوش مصنوعی، تغییراتی در سیاست ایجاد کنند.
ببینید: کشورهای G7 کد رفتار داوطلبانه هوش مصنوعی را ایجاد می کنند
قانون هوش مصنوعی اتحادیه اروپا در اروپا نفوذ داشته است، به طوری که 34 درصد از پاسخ دهندگان اروپایی گفتند که سازمان های آنها در سال گذشته تغییراتی در استفاده از هوش مصنوعی ایجاد کرده اند. با این حال، این تأثیر گسترده تر است، زیرا 26 درصد از پاسخ دهندگان آسیای جنوبی و 16 درصد از پاسخ دهندگان آمریکای شمالی و جنوبی نیز به دلیل قسط قانون تغییراتی ایجاد کردند.
علاوه بر این، 20 درصد از پاسخ دهندگان مستقر در ایالات متحده گفتند که در پاسخ به فرمان اجرایی تغییراتی در سازمان خود ایجاد کرده اند. یک چهارم از پاسخ دهندگان جنوب آسیا، 21 درصد در آمریکای جنوبی و 12 درصد در اروپا همین را گفتند.
نویسندگان این گزارش نوشتند: «فناوریهای شناختی مانند هوش مصنوعی به عنوان دارای بالاترین پتانسیل برای نفع جامعه و بالاترین خطر سوء استفاده شناخته شدهاند.
پذیرش سریع GenAI ممکن است از ظرفیت سازمانها برای اداره این فناوری پیشی بگیرد. شرکتها باید هم اجرای استانداردهای اخلاقی برای GenAI و هم انتخاب معنادار موارد استفاده که ابزارهای GenAI برای آنها اعمال میشود را در اولویت قرار دهند.»
منبع: https://www.techrepublic.com/article/genai-data-privacy-concern-deloitte/