نوآوری هوش مصنوعی باید با مقررات معقول متعادل شود


مدیرعامل استارت‌آپ فناوری استرالیایی Dovetail از نیاز به مقررات هوش مصنوعی برای اطمینان از عدم استفاده از فناوری پررونق برای «مقادیر شوم» حمایت کرده است. با این حال، او گفت که جنبه‌های عملی انطباق تعیین می‌کند که تبعیت از آن برای مشاغلی که هوش مصنوعی را به کار می‌گیرند چقدر آسان یا دشوار است.

بنجامین هامفریس پلتفرم بینش مشتری Dovetail را در طول هفت سال گذشته به 120 نفر مستقر در استرالیا و ایالات متحده افزایش داده است. او به TechRepublic گفت که نیاز به اقداماتی از سوی دولت ها برای محافظت از “خیر بیشتر جامعه” در برابر برخی موارد استفاده بالقوه وجود دارد. هوش مصنوعی

در حالی که او گفت پیشنهاد استرالیا برای نرده‌های محافظ هوش مصنوعی اجباری بعید است که مانع نوآوری در Dovetail شود، به دلیل تمرکز این پیشنهاد بر هوش مصنوعی پرخطر، هر حرکتی که نیاز به بررسی گسترده انسانی از خروجی‌های هوش مصنوعی در مقیاس محصولات فناوری داشته باشد، می‌تواند بازدارنده باشد. .

ببینید: نرده های محافظ اجباری پیشنهادی استرالیا برای هوش مصنوعی را کاوش کنید

تنظیم هوش مصنوعی لازم برای محافظت از شهروندان در برابر بدترین پتانسیل های هوش مصنوعی

هامفریس، که پلت فرم Dovetail از مدل های هوش مصنوعی Anthropic استفاده می کند برای ارائه بینش عمیق‌تر به مشتریان در مورد داده‌های مشتریان خود، گفت که مقررات هوش مصنوعی در برخی مناطق پرخطر یا موارد استفاده مورد استقبال قرار می‌گیرد. به عنوان مثال، او نیاز به مقرراتی را برای جلوگیری از تبعیض هوش مصنوعی علیه متقاضیان شغل ذکر کرد بر اساس داده های آموزشی جانبدارانه.

او گفت: “من یک فرد فناوری هستم، اما در واقع ضد فناوری هستم که خیر بشریت را مختل می کند.” «آیا هوش مصنوعی باید برای منافع بیشتر جامعه تنظیم شود؟ من می گویم بله، قطعا؛ من فکر می کنم ترسناک است که چه کاری می توانید انجام دهید، به خصوص با آن توانایی تولید عکس و چیزهایی از این قبیلاو گفت.

انتظار می‌رود مقررات جدید هوش مصنوعی پیشنهادی استرالیا منجر به معرفی نرده‌های محافظ برای توسعه هوش مصنوعی در محیط‌های پرخطر شود. این اقدامات شامل اجرای فرآیندهای مدیریت ریسک و آزمایش مدل های هوش مصنوعی قبل از راه اندازی است. او گفت که آنها به احتمال زیاد بر مشاغل در محیط های پرخطر تأثیر خواهند گذاشت.

هامفریس گفت: «من فکر نمی‌کنم که این تأثیر زیادی بر میزان نوآوری شما داشته باشد.

ببینید: گارتنر فکر می کند که رهبران فناوری اطلاعات استرالیا باید هوش مصنوعی را با سرعت خود اتخاذ کنند

“من فکر می کنم این مقررات بر روی مناطق پرخطر متمرکز شده است … و ما در حال حاضر باید با انواع مقررات مطابقت داشته باشیم. که شامل قانون حفظ حریم خصوصی استرالیاو ما همچنین کارهای زیادی را در اتحادیه اروپا انجام می دهیم، بنابراین باید با GDPR مقابله کنیم. بنابراین از این نظر تفاوتی ندارد.» او توضیح داد.

هامفریس گفت که مقررات مهم است زیرا سازمان هایی که هوش مصنوعی را توسعه می دهند مشوق های خاص خود را دارند. او رسانه‌های اجتماعی را به عنوان نمونه‌ای مرتبط از حوزه‌ای معرفی کرد که در آن جامعه می‌تواند از مقررات متفکرانه بهره‌مند شود، زیرا معتقد است که با توجه به سابقه‌اش، «رسانه‌های اجتماعی باید پاسخ‌گوی زیادی برای آنها باشد».

شرکت‌های بزرگ فناوری بسیار انگیزه های متفاوتی نسبت به آنچه ما به عنوان شهروند داریموی خاطرنشان کرد. زمانی که افرادی مانند متا، گوگل و مایکروسافت و دیگران با انگیزه‌های تجاری بسیار سنگین و سرمایه‌های زیادی که مدل‌هایی را ایجاد می‌کنند که در خدمت اهدافشان هستند، بسیار ترسناک است.»

انطباق قانونی با هوش مصنوعی به ویژگی مقررات بستگی دارد

فرآیند بازخورد برای حفاظ‌های اجباری پیشنهادی دولت استرالیا در 4 اکتبر بسته شد. هامفریس گفت که تأثیر مقررات هوش مصنوعی می‌تواند به این بستگی داشته باشد که اقدامات انطباق چقدر خاص هستند و به چه تعداد منابع برای ادامه سازگاری نیاز است.

«اگر یک بخش از مقررات اجباری می‌گوید که وقتی اساساً یک پاسخ هوش مصنوعی ارائه می‌شود، رابط نرم‌افزار باید به کاربر اجازه دهد تا به نوعی پاسخ را بررسی کند، من فکر می‌کنم این چیزی است که رعایت آن نسبتاً آسان است. هامفریس گفت که این یک انسان در مسائل حلقه است.

Dovetail قبلاً این ویژگی را در محصول خود قرار داده است. اگر کاربران از داده‌های مشتری سؤال کنند تا یک پاسخ تولید شده توسط هوش مصنوعی را دریافت کنند، هامفریز می‌گوید که این پاسخ به عنوان «تولید شده توسط هوش مصنوعی» برچسب‌گذاری می‌شود. و در صورت امکان به کاربران ارجاعاتی به مطالب منبع داده می شود، بنابراین آنها می توانند خودشان نتیجه گیری را تأیید کنند.

ببینید: چرا هوش مصنوعی مولد در حال تبدیل شدن به منبع «اشتباهات پرهزینه» برای خریداران فناوری است

اما اگر قرار بود قانون بگوید، هی، می دانید، هر پاسخی که نرم افزار شما ارائه می دهد باید توسط یکی از کارمندان Dovetail بررسی شود، بدیهی است که این چیزی نیست که بتوانیم با آن مطابقت کنیم، زیرا هزاران مورد از این جستجوها وجود دارد. هر ساعت بر روی نرم افزار ما اجرا می شود.

شرکت فناوری Salesforce در ارسالی در مورد نرده‌های محافظ اجباری که با TechRepublic به اشتراک گذاشته شد، به استرالیا پیشنهاد کرد رویکردی مبتنی بر اصول اتخاذ کند. این سازمان گفت که تهیه یک لیست گویا همانطور که در اتحادیه اروپا و کانادا دیده می شود می تواند به طور ناخواسته موارد استفاده کم خطر را ثبت کند و بر بار انطباق اضافه کند.

چگونه Dovetail هوش مصنوعی مسئول را در پلتفرم خود ادغام می کند

Dovetail اطمینان حاصل کرده است که هوش مصنوعی را به طور مسئولانه در محصول خود عرضه می کند. هامفریس گفت که در بسیاری از موارد، این همان چیزی است که مشتریان انتظار دارند، زیرا آنها یاد گرفته اند که به طور کامل به مدل های هوش مصنوعی و خروجی های آنها اعتماد نکنند.

ملاحظات زیرساخت برای هوش مصنوعی مسئول
از دم کبوتر استفاده می کند سرویس AWS Bedrock برای هوش مصنوعی مولدو همچنین Anthropic LLMs. هامفریس گفت این به مشتریان اطمینان می دهد که داده های آنها از سایر مشتریان جدا شده و محافظت می شود و خطر نشت داده وجود ندارد. Dovetail از ورودی داده های کاربر از مشتریان برای تنظیم دقیق مدل های هوش مصنوعی استفاده نمی کند.

خروجی های تولید شده توسط هوش مصنوعی برچسب گذاری شده و قابل بررسی هستند
از منظر تجربه کاربر، تمام خروجی های تولید شده توسط هوش مصنوعی Dovetail به این صورت برچسب گذاری شده اند تا برای کاربران روشن شود. در مواردی که امکان پذیر است، به مشتریان نیز نقل قول هایی در پاسخ های ایجاد شده توسط هوش مصنوعی ارائه می شود، به طوری که کاربر می تواند هر گونه بینش به کمک هوش مصنوعی را بیشتر بررسی کند.

خلاصه های تولید شده توسط هوش مصنوعی توسط کاربران انسانی قابل ویرایش هستند
پاسخ های تولید شده توسط هوش مصنوعی Dovetail را می توان به طور فعال توسط انسان در حلقه ویرایش کرد. برای مثال، اگر خلاصه‌ای از یک تماس ویدیویی از طریق ویژگی خلاصه‌نویسی رونوشت آن ایجاد شود، کاربرانی که خلاصه را دریافت می‌کنند، در صورتی که تشخیص دهند خطایی وجود دارد، می‌توانند خلاصه را ویرایش کنند.

برآورده کردن انتظارات مشتری با یک انسان در حلقه

هامفریس گفت که مشتریان اکنون انتظار دارند که نظارت بر هوش مصنوعی یا یک انسان در حلقه داشته باشند.

این همان چیزی است که بازار انتظار دارد، و من فکر می‌کنم که نرده محافظ خوبی است، زیرا اگر از نرم‌افزار ما نتیجه‌گیری می‌کنید تا استراتژی کسب‌وکار یا نقشه راه یا هر کاری که انجام می‌دهید را اطلاع دهید، باید مطمئن شوید. او گفت که این نتایج دقیق است.

هامفریس گفت که مقررات هوش مصنوعی ممکن است نیاز به در سطح بالایی داشته باشد تا تنوع بالای موارد استفاده را پوشش دهد.

هامفریس گفت: «الزام باید سطح بالایی داشته باشد تا همه موارد استفاده مختلف را پوشش دهد. آنها به قدری گسترده هستند، موارد استفاده از هوش مصنوعی، که فکر می کنم برای آنها بسیار دشوار خواهد بود. [The Government] برای نوشتن چیزی که به اندازه کافی خاص باشد. راستش این یک میدان مین است.»



منبع: https://www.techrepublic.com/article/dovetail-ceo-ai-innovation-regulation/