استرالیا OpenAI، Meta، و Google LLM را به عنوان پرخطر می‌بیند


پس از یک تحقیق هشت ماهه در مورد پذیرش هوش مصنوعی در کشور، یک کمیته منتخب سنای استرالیا اخیرا گزارشی را منتشر کرد که به شدت از شرکت های فناوری بزرگ – از جمله OpenAI، Meta و Google – انتقاد کرد و در عین حال خواستار طبقه بندی محصولات مدل زبان بزرگ آنها به عنوان “شد. پر خطر» بر اساس قانون جدید هوش مصنوعی استرالیا.

کمیته منتخب سنا برای پذیرش هوش مصنوعی وظیفه بررسی فرصت‌ها و چالش‌هایی را که هوش مصنوعی برای استرالیا ایجاد می‌کند، داشت. تحقیق آن طیف وسیعی از حوزه ها را شامل می شود منافع اقتصادی بهره وری مبتنی بر هوش مصنوعی به خطرات سوگیری و اثرات زیست محیطی.

مال کمیته گزارش نهایی به این نتیجه رسیدند که شرکت های فناوری جهانی در مورد جنبه های LLM خود مانند استفاده از داده های آموزشی استرالیا فاقد شفافیت هستند. توصیه های آن شامل معرفی قانون هوش مصنوعی و نیاز کارفرمایان به مشورت با کارمندان در صورت استفاده از هوش مصنوعی در محل کار بود.

این گزارش نشان می دهد که شرکت های بزرگ فناوری و مدل های هوش مصنوعی آنها فاقد شفافیت هستند

این کمیته در گزارش خود گفت که زمان قابل توجهی به بحث در مورد ساختار، رشد و تأثیر «مدل‌های هوش مصنوعی عمومی» در جهان، از جمله LLM‌های تولید شده توسط شرکت‌های بزرگ فناوری چندملیتی اختصاص داده شده است. OpenAI، آمازون، متا، و گوگل.

این کمیته گفت نگرانی‌های مطرح شده شامل عدم شفافیت در مورد مدل‌ها، قدرت بازاری که این شرکت‌ها در زمینه‌های مربوطه خود دارند، «سوابق بیزاری از پاسخگویی و رعایت مقررات» و «سرقت آشکار و صریح اطلاعات دارای حق چاپ از دارندگان حق چاپ استرالیایی است. “

این نهاد دولتی همچنین «خراش دادن غیر توافقی از اطلاعات شخصی و خصوصیوسعت و مقیاس بالقوه کاربردهای مدل‌ها در زمینه استرالیا، و «اجتناب ناامیدکننده از سؤالات این کمیته در مورد این موضوعات» به عنوان زمینه‌های مورد نگرانی.

در این گزارش آمده است: «کمیته معتقد است که این مسائل مستلزم یک پاسخ نظارتی است که به صراحت مدل‌های هوش مصنوعی هدف کلی را پرخطر تعریف می‌کند». با انجام این کار، این توسعه‌دهندگان نسبت به بسیاری از کاربردهای کم خطر و کم‌تأثیر هوش مصنوعی، تحت شرایط تست، شفافیت و مسئولیت‌پذیری بالاتری قرار خواهند گرفت.

گزارش نگرانی‌های مرتبط با هوش مصنوعی، از جمله از دست دادن شغل به دلیل اتوماسیون را تشریح می‌کند

در حالی که اذعان به هوش مصنوعی منجر به بهبود بهره وری اقتصادی می شود، کمیته احتمال زیاد از دست دادن شغل از طریق اتوماسیون را تایید کرد. این زیان‌ها می‌تواند بر مشاغلی که نیازهای آموزشی و تحصیلی پایین‌تری دارند یا گروه‌های آسیب‌پذیر مانند زنان و افراد در گروه‌های اجتماعی-اقتصادی پایین‌تر تأثیر بگذارد.

این کمیته همچنین در مورد شواهد ارائه شده به آن در مورد تأثیرات هوش مصنوعی بر حقوق کارگران و شرایط کار در استرالیا، به ویژه جایی که سیستم های هوش مصنوعی برای موارد استفاده مانند برنامه ریزی نیروی کار، مدیریت و نظارت در محل کار استفاده می شود، ابراز نگرانی کرد.

در این گزارش آمده است: «کمیته خاطرنشان می‌کند که چنین سیستم‌هایی در حال حاضر در محیط‌های کاری پیاده‌سازی شده‌اند، که در بسیاری از موارد پیشگام شرکت‌های چندملیتی بزرگ هستند که به دنبال سودآوری بیشتر با استخراج حداکثر بهره‌وری از کارکنان خود هستند.»

ببینید: مدیرعامل Dovetail از یک رویکرد متعادل برای مقررات نوآوری هوش مصنوعی دفاع می کند

“شواهد دریافت شده توسط تحقیقات نشان می دهد که خطر قابل توجهی وجود دارد که این استفاده های تهاجمی و غیرانسانی از هوش مصنوعی در محل کار، مشاوره در محل کار و همچنین حقوق و شرایط کارگران را به طور کلی تضعیف می کند.”

رهبران فناوری اطلاعات از توصیه های کمیته چه چیزی باید بگیرند؟

این کمیته به دولت استرالیا توصیه کرد:

  • اطمینان حاصل کنید که تعریف نهایی هوش مصنوعی پرخطر به صراحت شامل برنامه هایی است که بر حقوق کارگران تأثیر می گذارد.
  • چارچوب قانونی بهداشت و ایمنی کار موجود را برای رسیدگی به خطرات محل کار مرتبط با پذیرش هوش مصنوعی گسترش دهید.
  • اطمینان حاصل کنید که کارگران و کارفرمایان «در مورد نیاز و بهترین رویکرد برای پاسخ‌های نظارتی بیشتر برای رسیدگی به تأثیر هوش مصنوعی بر کار و محل کار، به طور کامل مشورت می‌کنند».

ببینید: چرا سازمان ها باید از هوش مصنوعی استفاده کنند تا حساس تر و انعطاف پذیرتر شوند؟

دولت استرالیا نیازی به عمل به گزارش کمیته ندارد. با این حال، باید رهبران محلی فناوری اطلاعات را تشویق کند تا اطمینان حاصل کنند که مسئولانه تمام جنبه‌های کاربرد فناوری‌ها و ابزارهای هوش مصنوعی را در سازمان‌های خود در نظر می‌گیرند و در عین حال به دنبال مزایای بهره‌وری مورد انتظار هستند.

اولاً، بسیاری از سازمان‌ها قبلاً در نظر گرفته‌اند که چگونه استفاده از LLM‌های مختلف بر اساس داده‌های آموزشی مورد استفاده برای ایجاد آن‌ها از منظر قانونی یا شهرت بر آنها تأثیر می‌گذارد. رهبران فناوری اطلاعات باید به هنگام استفاده از LLM در سازمان خود، داده های آموزشی اساسی را در نظر بگیرند.

انتظار می‌رود هوش مصنوعی تأثیر قابل‌توجهی بر نیروی کار داشته باشد و فناوری اطلاعات در گسترش آن مؤثر خواهد بود. رهبران فناوری اطلاعات می توانند ابتکارات “صدای کارکنان” بیشتری را در معرفی هوش مصنوعی تشویق کنند، که می تواند از تعامل کارمندان با سازمان حمایت کند. و جذب فناوری ها و ابزارهای هوش مصنوعی.



منبع: https://www.techrepublic.com/article/australia-urges-high-risk-label-2024/

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *