دولت بریتانیا ابزار خود ارزیابی هوش مصنوعی را معرفی کرد


دولت بریتانیا یک ابزار خودارزیابی رایگان راه اندازی کرده است تا به کسب و کارها کمک کند تا به طور مسئولانه استفاده خود را مدیریت کنند. هوش مصنوعی.

این پرسشنامه برای استفاده توسط هر سازمانی در نظر گرفته شده است که خدماتی را توسعه می دهد، ارائه می دهد یا استفاده می کند که از هوش مصنوعی به عنوان بخشی از عملیات استاندارد خود استفاده می کند، اما در درجه اول برای شرکت های کوچکتر یا استارت آپ ها در نظر گرفته شده است. نتایج به تصمیم گیرندگان نقاط قوت و ضعف سیستم های مدیریت هوش مصنوعی آنها را می گوید.

نحوه استفاده از AI Management Essentials

اکنون موجود استخود ارزیابی یکی از سه بخش ابزار موسوم به “ضرورت های مدیریت هوش مصنوعی” است. دو بخش دیگر شامل یک سیستم رتبه‌بندی است که یک نمای کلی از نحوه مدیریت هوش مصنوعی کسب‌وکار و مجموعه‌ای از نکات عملی و توصیه‌هایی را برای سازمان‌ها ارائه می‌دهد. هیچ کدام هنوز منتشر نشده است.

AIME بر اساس استاندارد ISO/IEC 42001 است. چارچوب NIST، و قانون هوش مصنوعی اتحادیه اروپا. پرسش‌های خودارزیابی نحوه استفاده شرکت از هوش مصنوعی، مدیریت ریسک‌هایش و شفافیت در مورد آن با ذینفعان را پوشش می‌دهد.

ببینید: به گزارش مایکروسافت، گزارش مایکروسافت نشان می دهد که تاخیر پنج ساله عرضه هوش مصنوعی در بریتانیا ممکن است بیش از 150 میلیارد پوند برای اقتصاد هزینه داشته باشد.

این ابزار برای ارزیابی محصولات یا خدمات هوش مصنوعی طراحی نشده است، بلکه برای ارزیابی فرآیندهای سازمانی است که برای ایجاد امکان توسعه و استفاده مسئولانه از این محصولات وجود دارد. گزارش وزارت علوم، نوآوری و فناوری.

هنگام تکمیل خودارزیابی، ورودی باید از کارکنان دارای دانش فنی و گسترده تجاری، مانند یک مدیر ارشد فنی یا مهندس نرم افزار و یک مدیر بازرگانی منابع انسانی به دست آید.

دولت می‌خواهد خود ارزیابی را در سیاست تدارکات و چارچوب‌های خود بگنجاند تا تضمین را در بخش خصوصی تعبیه کند. همچنین مایل است آن را در دسترس خریداران بخش عمومی قرار دهد تا به آنها کمک کند تا تصمیمات آگاهانه تری در مورد هوش مصنوعی بگیرند.

در 6 نوامبر، دولت مشاوره باز کرد دعوت از کسب و کارها برای ارائه بازخورد در مورد خود ارزیابی، و نتایج برای اصلاح آن استفاده خواهد شد. بخش های رتبه بندی و توصیه ابزار AIME پس از پایان مشاوره در 29 ژانویه 2025 منتشر می شود.

خود ارزیابی یکی از ابتکارات برنامه ریزی شده دولت برای تضمین هوش مصنوعی است

در یک کاغذ این هفته منتشر شد، دولت گفت که AIME یکی از بسیاری از منابع موجود در “پلتفرم تضمین هوش مصنوعی” خواهد بود که به دنبال توسعه آن است. این موارد به کسب‌وکارها کمک می‌کند تا ارزیابی‌های تاثیر را انجام دهند یا داده‌های هوش مصنوعی را برای سوگیری بررسی کنند.

دولت همچنین در حال ایجاد یک ابزار اصطلاحی برای هوش مصنوعی مسئول برای تعریف و استاندارد کردن شرایط کلیدی تضمین هوش مصنوعی برای بهبود ارتباطات و تجارت فرامرزی، به ویژه با ایالات متحده است.

نویسندگان نوشتند: «به مرور زمان، مجموعه‌ای از ابزارهای در دسترس را ایجاد خواهیم کرد تا عملکرد خوب پایه را برای توسعه و استقرار مسئولانه هوش مصنوعی فعال کنیم.

دولت می گوید که بازار تضمین هوش مصنوعی بریتانیا، بخشی که ابزارهایی را برای توسعه یا استفاده از ایمنی هوش مصنوعی فراهم می کند و در حال حاضر شامل 524 شرکت است، اقتصاد را رشد خواهد داد. بیش از 6.5 میلیارد پوند در یک دهه آینده. این رشد را می توان تا حدی به افزایش اعتماد عمومی به این فناوری نسبت داد.

این گزارش می افزاید که دولت با موسسه ایمنی هوش مصنوعی که توسط نخست وزیر سابق ریشی سوناک راه اندازی شد، همکاری خواهد کرد. اجلاس ایمنی هوش مصنوعی در نوامبر 2023 – برای پیشبرد تضمین هوش مصنوعی در کشور. همچنین بودجه ای را برای گسترش برنامه کمک هزینه ایمنی سیستمی اختصاص خواهد داد که در حال حاضر تا 200000 پوند برای طرح هایی که اکوسیستم تضمین هوش مصنوعی را توسعه می دهند در دسترس است.

قانون الزام آور قانونی در مورد ایمنی هوش مصنوعی در سال آینده ارائه می شود

در همین حال، پیتر کایل، وزیر فناوری بریتانیا، متعهد شد که توافق داوطلبانه در مورد آزمایش ایمنی هوش مصنوعی را با اجرای این قانون الزام آور قانونی کند. لایحه هوش مصنوعی در سال آینده در اجلاس آینده هوش مصنوعی فایننشال تایمز در روز چهارشنبه

در اجلاس ایمنی هوش مصنوعی نوامبر، شرکت‌های هوش مصنوعی – از جمله OpenAI، Google DeepMind و Anthropic – داوطلبانه موافقت کردند که به دولت‌ها اجازه دهند ایمنی آخرین مدل‌های هوش مصنوعی خود را قبل از انتشار عمومی آزمایش کنند. اولین بار گزارش شد که کایل داشته است برنامه های خود را برای قانون گذاری موافقت نامه های داوطلبانه بیان کرد به مدیران شرکت های برجسته هوش مصنوعی در یک جلسه در ماه جولای.

ببینید: قراردادهای OpenAI و Anthropic با موسسه ایمنی هوش مصنوعی ایالات متحده، ارائه مدل های مرزی برای آزمایش

او همچنین گفت که لایحه هوش مصنوعی خواهد بود بر روی مدل های بزرگ پایه به سبک ChatGPT تمرکز کنید توسط چند شرکت ایجاد شده و مؤسسه ایمنی هوش مصنوعی را از یک اداره DSIT به یک “سازمان دولتی تمام عیار” تبدیل می کند. به گزارش FT، کایل این نکات را در اجلاس سران این هفته تکرار کرد و تاکید کرد که می‌خواهد به موسسه “استقلال” بدهد تا کاملاً در راستای منافع شهروندان بریتانیا عمل کند.

علاوه بر این، او متعهد شد در قدرت محاسباتی پیشرفته برای حمایت از توسعه مدل‌های هوش مصنوعی مرزی در بریتانیا سرمایه‌گذاری کند و به انتقادات از سوی دولت پاسخ دهد. حذف 800 میلیون پوند از بودجه یک ابر رایانه دانشگاه ادینبورگ در ماه اوت

ببینید: دولت بریتانیا 32 میلیون پوند برای پروژه های هوش مصنوعی پس از حذف بودجه برای ابررایانه ها اعلام کرد.

کایل اظهار داشت که در حالی که دولت نمی تواند به تنهایی 100 میلیارد پوند سرمایه گذاری کند، با سرمایه گذاران خصوصی همکاری خواهد کرد تا بودجه لازم برای طرح های آینده را تامین کند.

یک سال در قانون ایمنی هوش مصنوعی برای انگلستان

انبوهی از قوانین در سال گذشته منتشر شده است که بریتانیا را متعهد به توسعه و استفاده مسئولانه از هوش مصنوعی می کند.

در 30 اکتبر 2023، گروه هفت کشور، از جمله بریتانیا، یک کد رفتاری داوطلبانه هوش مصنوعی شامل 11 اصل است که “هوش مصنوعی ایمن، ایمن و قابل اعتماد را در سراسر جهان ترویج می کند.”

نشست ایمنی هوش مصنوعی که در آن 28 کشور متعهد به تضمین توسعه و استقرار ایمن و مسئولانه شدند، تنها چند روز بعد آغاز شد. در ماه نوامبر، مرکز ملی امنیت سایبری بریتانیا، آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده، و آژانس های بین المللی از 16 کشور دیگر دستورالعمل های منتشر شده در مورد چگونگی تضمین امنیت در طول توسعه مدل های جدید هوش مصنوعی.

ببینید: اجلاس ایمنی هوش مصنوعی بریتانیا: قدرت های جهانی به ایمنی هوش مصنوعی قول “عطف” می دهند

در ماه مارس، کشورهای G7 توافقنامه دیگری را امضا کردند که متعهد به بررسی این موضوع است که چگونه هوش مصنوعی می تواند خدمات عمومی را بهبود بخشد و رشد اقتصادی را تقویت کند. این توافقنامه همچنین شامل توسعه مشترک یک جعبه ابزار هوش مصنوعی تا اطمینان حاصل شود که مدل های مورد استفاده ایمن و قابل اعتماد هستند. ماه بعد، دولت محافظه کار وقت موافقت کرد که با آمریکا همکاری کند در توسعه آزمایش‌های مدل‌های پیشرفته هوش مصنوعی با امضای یادداشت تفاهم.

در ماه مه، دولت آزاد شد بازرسی کنید، یک پلت فرم آزمایشی رایگان و منبع باز که ایمنی مدل های جدید هوش مصنوعی را با ارزیابی دانش اصلی، توانایی استدلال و قابلیت های مستقل آنها ارزیابی می کند. میزبانی مشترک نیز داشت یکی دیگر از اجلاس ایمنی هوش مصنوعی در سئول، که شامل موافقت انگلستان با همکاری با کشورهای جهانی در زمینه اقدامات ایمنی هوش مصنوعی و اعلام کمک های مالی تا سقف 8.5 میلیون پوندی برای تحقیقات برای محافظت از جامعه در برابر خطرات آن بود.

سپس، در ماه سپتامبر، بریتانیا این قرارداد را امضا کرد اولین معاهده بین المللی جهان در زمینه هوش مصنوعی در کنار اتحادیه اروپا، ایالات متحده و هفت کشور دیگر، آنها را متعهد به اتخاذ یا حفظ اقداماتی می کند که تضمین می کند استفاده از هوش مصنوعی مطابق با حقوق بشر، دموکراسی و قانون است.

و هنوز تمام نشده است. با ابزار و گزارش AIME، دولت از طریق یک یادداشت همکاری، همکاری ایمنی هوش مصنوعی جدیدی را با سنگاپور اعلام کرده است. همچنین در اولین نشست مؤسسه‌های بین‌المللی ایمنی هوش مصنوعی در سانفرانسیسکو اواخر این ماه حضور خواهد داشت.

ایان هوگارت، رئیس موسسه ایمنی هوش مصنوعی، گفت: «رویکرد مؤثر ایمنی هوش مصنوعی نیازمند همکاری جهانی است. به همین دلیل است که ما بر شبکه بین‌المللی مؤسسات ایمنی هوش مصنوعی تأکید می‌کنیم و در عین حال مشارکت‌های تحقیقاتی خود را نیز تقویت می‌کنیم.»

با این حال، ایالات متحده از همکاری هوش مصنوعی با خود دورتر شده است بخشنامه اخیر محدود کردن اشتراک‌گذاری فناوری‌های هوش مصنوعی و اجباری شدن حفاظت در برابر دسترسی خارجی به منابع هوش مصنوعی.



منبع: https://www.techrepublic.com/article/uk-government-ai-management-essentials/