پس از یک تحقیق هشت ماهه در مورد پذیرش هوش مصنوعی در کشور، یک کمیته منتخب سنای استرالیا اخیرا گزارشی را منتشر کرد که به شدت از شرکت های فناوری بزرگ – از جمله OpenAI، Meta و Google – انتقاد کرد و در عین حال خواستار طبقه بندی محصولات مدل زبان بزرگ آنها به عنوان “شد. پر خطر» بر اساس قانون جدید هوش مصنوعی استرالیا.
کمیته منتخب سنا برای پذیرش هوش مصنوعی وظیفه بررسی فرصتها و چالشهایی را که هوش مصنوعی برای استرالیا ایجاد میکند، داشت. تحقیق آن طیف وسیعی از حوزه ها را شامل می شود منافع اقتصادی بهره وری مبتنی بر هوش مصنوعی به خطرات سوگیری و اثرات زیست محیطی.
مال کمیته گزارش نهایی به این نتیجه رسیدند که شرکت های فناوری جهانی در مورد جنبه های LLM خود مانند استفاده از داده های آموزشی استرالیا فاقد شفافیت هستند. توصیه های آن شامل معرفی قانون هوش مصنوعی و نیاز کارفرمایان به مشورت با کارمندان در صورت استفاده از هوش مصنوعی در محل کار بود.
این گزارش نشان می دهد که شرکت های بزرگ فناوری و مدل های هوش مصنوعی آنها فاقد شفافیت هستند
این کمیته در گزارش خود گفت که زمان قابل توجهی به بحث در مورد ساختار، رشد و تأثیر «مدلهای هوش مصنوعی عمومی» در جهان، از جمله LLMهای تولید شده توسط شرکتهای بزرگ فناوری چندملیتی اختصاص داده شده است. OpenAI، آمازون، متا، و گوگل.
این کمیته گفت نگرانیهای مطرح شده شامل عدم شفافیت در مورد مدلها، قدرت بازاری که این شرکتها در زمینههای مربوطه خود دارند، «سوابق بیزاری از پاسخگویی و رعایت مقررات» و «سرقت آشکار و صریح اطلاعات دارای حق چاپ از دارندگان حق چاپ استرالیایی است. “
این نهاد دولتی همچنین «خراش دادن غیر توافقی از اطلاعات شخصی و خصوصیوسعت و مقیاس بالقوه کاربردهای مدلها در زمینه استرالیا، و «اجتناب ناامیدکننده از سؤالات این کمیته در مورد این موضوعات» به عنوان زمینههای مورد نگرانی.
در این گزارش آمده است: «کمیته معتقد است که این مسائل مستلزم یک پاسخ نظارتی است که به صراحت مدلهای هوش مصنوعی هدف کلی را پرخطر تعریف میکند». با انجام این کار، این توسعهدهندگان نسبت به بسیاری از کاربردهای کم خطر و کمتأثیر هوش مصنوعی، تحت شرایط تست، شفافیت و مسئولیتپذیری بالاتری قرار خواهند گرفت.
گزارش نگرانیهای مرتبط با هوش مصنوعی، از جمله از دست دادن شغل به دلیل اتوماسیون را تشریح میکند
در حالی که اذعان به هوش مصنوعی منجر به بهبود بهره وری اقتصادی می شود، کمیته احتمال زیاد از دست دادن شغل از طریق اتوماسیون را تایید کرد. این زیانها میتواند بر مشاغلی که نیازهای آموزشی و تحصیلی پایینتری دارند یا گروههای آسیبپذیر مانند زنان و افراد در گروههای اجتماعی-اقتصادی پایینتر تأثیر بگذارد.
این کمیته همچنین در مورد شواهد ارائه شده به آن در مورد تأثیرات هوش مصنوعی بر حقوق کارگران و شرایط کار در استرالیا، به ویژه جایی که سیستم های هوش مصنوعی برای موارد استفاده مانند برنامه ریزی نیروی کار، مدیریت و نظارت در محل کار استفاده می شود، ابراز نگرانی کرد.
در این گزارش آمده است: «کمیته خاطرنشان میکند که چنین سیستمهایی در حال حاضر در محیطهای کاری پیادهسازی شدهاند، که در بسیاری از موارد پیشگام شرکتهای چندملیتی بزرگ هستند که به دنبال سودآوری بیشتر با استخراج حداکثر بهرهوری از کارکنان خود هستند.»
ببینید: مدیرعامل Dovetail از یک رویکرد متعادل برای مقررات نوآوری هوش مصنوعی دفاع می کند
“شواهد دریافت شده توسط تحقیقات نشان می دهد که خطر قابل توجهی وجود دارد که این استفاده های تهاجمی و غیرانسانی از هوش مصنوعی در محل کار، مشاوره در محل کار و همچنین حقوق و شرایط کارگران را به طور کلی تضعیف می کند.”
رهبران فناوری اطلاعات از توصیه های کمیته چه چیزی باید بگیرند؟
این کمیته به دولت استرالیا توصیه کرد:
- اطمینان حاصل کنید که تعریف نهایی هوش مصنوعی پرخطر به صراحت شامل برنامه هایی است که بر حقوق کارگران تأثیر می گذارد.
- چارچوب قانونی بهداشت و ایمنی کار موجود را برای رسیدگی به خطرات محل کار مرتبط با پذیرش هوش مصنوعی گسترش دهید.
- اطمینان حاصل کنید که کارگران و کارفرمایان «در مورد نیاز و بهترین رویکرد برای پاسخهای نظارتی بیشتر برای رسیدگی به تأثیر هوش مصنوعی بر کار و محل کار، به طور کامل مشورت میکنند».
ببینید: چرا سازمان ها باید از هوش مصنوعی استفاده کنند تا حساس تر و انعطاف پذیرتر شوند؟
دولت استرالیا نیازی به عمل به گزارش کمیته ندارد. با این حال، باید رهبران محلی فناوری اطلاعات را تشویق کند تا اطمینان حاصل کنند که مسئولانه تمام جنبههای کاربرد فناوریها و ابزارهای هوش مصنوعی را در سازمانهای خود در نظر میگیرند و در عین حال به دنبال مزایای بهرهوری مورد انتظار هستند.
اولاً، بسیاری از سازمانها قبلاً در نظر گرفتهاند که چگونه استفاده از LLMهای مختلف بر اساس دادههای آموزشی مورد استفاده برای ایجاد آنها از منظر قانونی یا شهرت بر آنها تأثیر میگذارد. رهبران فناوری اطلاعات باید به هنگام استفاده از LLM در سازمان خود، داده های آموزشی اساسی را در نظر بگیرند.
انتظار میرود هوش مصنوعی تأثیر قابلتوجهی بر نیروی کار داشته باشد و فناوری اطلاعات در گسترش آن مؤثر خواهد بود. رهبران فناوری اطلاعات می توانند ابتکارات “صدای کارکنان” بیشتری را در معرفی هوش مصنوعی تشویق کنند، که می تواند از تعامل کارمندان با سازمان حمایت کند. و جذب فناوری ها و ابزارهای هوش مصنوعی.
منبع: https://www.techrepublic.com/article/australia-urges-high-risk-label-2024/