نویسنده(های): ویتا هاس
در ابتدا منتشر شد به سمت هوش مصنوعی.
چشم انداز هوش مصنوعی در حال رسیدن به نقطه عطف بحرانی است. با جسارت عمیقتر، یک تناقض شگفتانگیز ظاهر میشود: در حالی که قابلیتهای هوش مصنوعی با سرعتی سرسامآور به جلو میروند، چارچوبهای نظارتی ما برای حفظ سرعت تلاش میکنند. تحقیقات اخیر از ETH زوریخ یک واقعیت نگران کننده را نشان می دهد – هیچ یک از مدل های پیشرو هوش مصنوعی، از جمله وزنه های سنگین مانند GPT-4، Claude 3 و Meta’s Llama، به طور کامل با قانون آینده اتحادیه اروپا AI مطابقت ندارد.
The Regulatory Catch-22
«تغییر تصاعدی در راه است. اجتناب ناپذیر است. این واقعیت باید مورد توجه قرار گیرد.»
مصطفی سلیمان هشدار می دهد و احساسی را تکرار می کند که در محافل فناوری به طور فزاینده ای فوری می شود. اما نکته اینجاست: چگونه چیزی را تنظیم کنیم که سریعتر از توانایی ما برای نوشتن قوانین تکامل می یابد؟
زنگ های در را به عنوان یک داستان هشدار دهنده در نظر بگیرید. این نوآوری به ظاهر ساده اساساً نظارت بر محله را قبل از اینکه قوانین حریم خصوصی به نتیجه برسد تغییر داد. آیا قرار است این الگو را با هوش مصنوعی تکرار کنیم یا می توانیم داستان متفاوتی بنویسیم؟
چشم انداز نظارتی جهانی هوش مصنوعی
همه مناطق به طور یکسان به مقررات هوش مصنوعی نزدیک نمی شوند. در اینجا نحوه برخورد نقاط مختلف جهان با این چالش، از بیشترین تا کمترین میزان سازگاری با هوش مصنوعی، آمده است:
ایالات متحده: قهرمان نوآوری
ایالات متحده موقعیت خود را به عنوان مرکز نوآوری هوش مصنوعی در جهان با موارد زیر حفظ می کند:
- ترجیح دادن دستورالعمل های انعطاف پذیر نسبت به قوانین سفت و سخت
- اجازه دادن به نیروهای بازار و سرمایههای مخاطرهآمیز توسعه را پیش میبرند
- تاکید بر سازگاری و تکرار سریع
- حفظ یک لمس تنظیمی سبک برای تشویق آزمایش
آسیا: آداپتور عملی
رویکرد آسیا به استراتژیهای مجزا در میان بازیگران اصلی تقسیم میشود:
چین: کنترل کننده استراتژیک
- پیشرو در اقدامات محدود کننده خاص
- اجرای حکمرانی دقیق داده
- تمرکز بر برنامههای هوش مصنوعی که با اولویتهای ملی همسو هستند
- حفظ نظارت دقیق بر هوش مصنوعی روبروی مصرف کننده
ژاپن: مبتکر متعادل
- ایجاد یک “قانون اساسی هوش مصنوعی” جامع
- تلفیق خودتنظیمی با نظارت دولت
- تاکید بر توسعه هوش مصنوعی انسان محور
- هدف گذاری اواخر سال 2024 برای تکمیل چارچوب نظارتی
کره جنوبی: کاوشگر جسور
- پذیرش فلسفه «اول اجازه، بعد تنظیم کن».
- تقویت نوآوری سریع هوش مصنوعی در بخش های کلیدی
- حمایت از استارتآپهای هوش مصنوعی از طریق سندباکسهای نظارتی
- تمرکز بر نظارت بر برنامه های پرخطر
آسیای جنوب شرقی + هند: پیشگامان تطبیقی
- رویکردهای “قانون نرم” انعطاف پذیر پیشگام
- ایجاد محیط های نوآورانه دوستدار
- ایجاد چارچوب های نظارتی که از زمینه های محلی پشتیبانی می کند
- استفاده از هوش مصنوعی برای توسعه اقتصادی
آمریکای لاتین: پیرو استراتژیک
منطقه یک رویکرد سنجیده اتخاذ می کند:
- برزیل با سه قانون جامع هوش مصنوعی پیشتاز است
- کشورهای دیگر در حال توسعه چارچوب های اخلاقی هستند
- استقراض و تطبیق بهترین شیوه های جهانی
- مقررات ساختمانی که به چالش های محلی می پردازد
آفریقا: پیشگام در حال ظهور
با وجود چالش های زیرساختی، آفریقا حرکت امیدوارکننده ای را نشان می دهد:
- هفت کشوری که سیاست های ملی هوش مصنوعی را اجرا می کنند
- طرح هوش مصنوعی اتحادیه آفریقا راهنمایی قاره ای را ارائه می دهد
- پتانسیل برای جهش فناوری
- تمرکز بر راه حل های هوش مصنوعی برای توسعه منطقه ای
اتحادیه اروپا: نگهبان مراقب
تعیین معیار جهانی برای نظارت جامع:
- ایجاد استانداردهای جهانی از طریق قانون هوش مصنوعی اتحادیه اروپا
- اجرای الزامات انطباق دقیق
- ایجاد یک اکوسیستم ساختاریافته برای نوآوری مسئولانه
- حفظ تعادل با پیشرفت
گزینه ها چیست؟
وقتی مصطفی سلیمان درباره حکمرانی هوش مصنوعی صحبت میکند، دنیای فناوری گوش میدهد – و دلیل خوبی هم دارد. سلیمان به عنوان یکی از بنیانگذاران DeepMind (که توسط گوگل به قیمت 500 میلیون دلار خریداری شد) و هوش مصنوعی Inflection، بیش از یک دهه است که در خط مقدم توسعه هوش مصنوعی قرار داشته است. سفر او از تحقیقات پیشگام در زمینه هوش مصنوعی تا تبدیل شدن به یکی از تأثیرگذارترین صداهای صنعت در توسعه اخلاقی هوش مصنوعی به بینش او وزن خاصی می بخشد.
سلیمان صرفاً یکی دیگر از تئوریهای اجرایی فنی در مورد مقررات نیست. او کسی است که از نزدیک شاهد پتانسیل تحول آفرین هوش مصنوعی و خطرات آن بوده است. او پس از کمک به ساخت یکی از پیشرفتهترین شرکتهای تحقیقاتی هوش مصنوعی در جهان، قدمی غیرمعمول برداشت: تبدیل شدن به یکی از سرسختترین مدافعان ایمنی و مقررات هوش مصنوعی. کتاب اخیر او، «موج آینده»، نیاز فوری به حکمرانی متوازن هوش مصنوعی را بررسی میکند، که از تجربه منحصربهفرد او در زمینه توسعه و نظارت هوش مصنوعی استخراج میشود.
چارچوب او برای حاکمیت هوش مصنوعی از این ترکیب نادر از دانش فنی عمیق و تجربه عملی با چالشهای نظارتی ناشی میشود. بیایید هر ستون را بررسی کنیم و درک کنیم که چرا آنها یک رویکرد جامع برای توسعه هوش مصنوعی مسئول ایجاد می کنند:
- ایمنی فنی
- نه فقط یک مفهوم نظری، بلکه یک الزام عملی
- شامل پروتکلهای تست قوی و مکانیسمهای ایمن در برابر شکست است
- با حفظ نوآوری بر جلوگیری از عواقب ناخواسته تمرکز می کند
2. حسابرسی
- ارزیابی منظم و سیستماتیک سیستم های هوش مصنوعی
- تأیید شخص ثالث ادعاهای ایمنی
- شفافیت در گزارش و مستندسازی
3. نقاط خفه کردن
- توقف های توسعه استراتژیک که امکان ارزیابی ایمنی را فراهم می کند
- نقاط از پیش تعیین شده که در آن سیستم ها تحت بررسی کامل قرار می گیرند
- تعادل بین پیشرفت و احتیاط
4. سازندگان
- تعبیه ملاحظات اخلاقی در فرآیند توسعه
- آموزش و پاسخگویی برای توسعه دهندگان هوش مصنوعی
- ایجاد فرهنگ نوآوری مسئولانه
5. همسویی کسب و کار
- ایجاد انگیزه برای پاداش دادن به توسعه ایمن
- ایجاد مدل های کسب و کار که ثبات بلندمدت را در اولویت قرار می دهد
- متعادل کردن انگیزه های سود با منافع اجتماعی
6. تعامل دولت
- همکاری فعال با نهادهای نظارتی
- ورودی در اجرای عملی قوانین
- ایجاد پل بین جوامع فناوری و سیاست
7. اتحادهای بین المللی
- ایجاد استانداردهای منسجم در سراسر مرزها
- به اشتراک گذاری بهترین شیوه ها و درس های آموخته شده
- ایجاد اجماع جهانی در مورد ایمنی هوش مصنوعی
8. چارچوب های فرهنگی
- توسعه فرهنگ سازمانی که ایمنی را در اولویت قرار می دهد
- ایجاد سیستم هایی برای گزارش دهی و رسیدگی به نگرانی ها
- تقویت گفتگوی باز در مورد خطرات و مزایای هوش مصنوعی
9. جنبش های عمومی
- تعامل با جامعه مدنی
- ایجاد اعتماد عمومی از طریق شفافیت
- ایجاد کانال هایی برای بازخورد سهامداران
آنچه این ستون ها را به ویژه ارزشمند می کند، کاربردی بودن آنهاست. آنها اصول انتزاعی نیستند، بلکه دستورالعمل های عملی هستند که از تجربه دنیای واقعی گرفته شده اند. چارچوب سلیمان اذعان میکند که حکمرانی مؤثر هوش مصنوعی در مورد انتخاب بین نوآوری و ایمنی نیست – بلکه ایجاد سیستمهایی است که هر دو را قادر میسازند.
ساخت نردههایی که با هوش مصنوعی رشد میکنند
تصویر تلاش برای تنظیم یک تغییر شکل. این اساساً همان چیزی است که ما با مقررات AI تلاش می کنیم. راه حل این نیست که یک کتاب قانون آهنین ایجاد کنید – بلکه طراحی چارچوب هایی است که به اندازه فناوری حاکم بر آنها سازگار است.
آن را به عنوان ساختن یک سیستم زنده و تنفسی به جای ایجاد دیوارهای ساکن در نظر بگیرید. ما به حاکمیتی نیاز داریم که بتواند در کنار قابلیتهای هوش مصنوعی که به سرعت در حال گسترش است، تکامل یابد. اما در واقع چگونه به این امر دست یابیم؟
این گفتگو نمی تواند در یک برج عاج اتفاق بیفتد. ما به صداهایی از هر گوشه جامعه نیاز داریم – از بنیانگذاران استارتاپ گرفته تا مدافعان حقوق مدنی، از محققان هوش مصنوعی تا کاربران روزمره. هر کدام یک چشم انداز منحصر به فرد را به ارمغان می آورد که به ما کمک می کند تأثیر کامل هوش مصنوعی بر دنیای خود را درک کنیم.
این یک آزمایشگاه زنده است که ما دائماً روش خود را آزمایش و اصلاح می کنیم. آنچه امروز کار می کند ممکن است فردا نیاز به تعدیل داشته باشد، و این اشکالی ندارد. در واقع، لازم است. ارزیابی منظم و اصلاح دوره نباید به عنوان پذیرش شکست، بلکه به عنوان نشانه های یک سیستم سالم و پاسخگو تلقی شود.
همانطور که ما در این چشم انداز پیچیده حرکت می کنیم، یک چیز مشخص می شود: حکمرانی موثر هوش مصنوعی نیازمند تعادل ظریف است. ما باید در حین نوآوری از جامعه محافظت کنیم، ضمن ایجاد امکان پیشرفت، نظارت را حفظ کنیم، و استانداردهای جهانی را با رعایت شرایط محلی ایجاد کنیم.
قانون هوش مصنوعی اتحادیه اروپا نشان دهنده اولین قدم جسورانه است، اما راه حل های پایدار مستلزم همکاری مداوم در سراسر مرزها و بخش ها است. ما به عنوان متخصصان صنعت، هم فرصت و هم مسئولیت داریم که این چارچوب ها را شکل دهیم.
منتشر شده از طریق به سمت هوش مصنوعی