مدیرعامل استارتآپ فناوری استرالیایی Dovetail از نیاز به مقررات هوش مصنوعی برای اطمینان از عدم استفاده از فناوری پررونق برای «مقادیر شوم» حمایت کرده است. با این حال، او گفت که جنبههای عملی انطباق تعیین میکند که تبعیت از آن برای مشاغلی که هوش مصنوعی را به کار میگیرند چقدر آسان یا دشوار است.
بنجامین هامفریس پلتفرم بینش مشتری Dovetail را در طول هفت سال گذشته به 120 نفر مستقر در استرالیا و ایالات متحده افزایش داده است. او به TechRepublic گفت که نیاز به اقداماتی از سوی دولت ها برای محافظت از “خیر بیشتر جامعه” در برابر برخی موارد استفاده بالقوه وجود دارد. هوش مصنوعی
در حالی که او گفت پیشنهاد استرالیا برای نردههای محافظ هوش مصنوعی اجباری بعید است که مانع نوآوری در Dovetail شود، به دلیل تمرکز این پیشنهاد بر هوش مصنوعی پرخطر، هر حرکتی که نیاز به بررسی گسترده انسانی از خروجیهای هوش مصنوعی در مقیاس محصولات فناوری داشته باشد، میتواند بازدارنده باشد. .
ببینید: نرده های محافظ اجباری پیشنهادی استرالیا برای هوش مصنوعی را کاوش کنید
تنظیم هوش مصنوعی لازم برای محافظت از شهروندان در برابر بدترین پتانسیل های هوش مصنوعی
هامفریس، که پلت فرم Dovetail از مدل های هوش مصنوعی Anthropic استفاده می کند برای ارائه بینش عمیقتر به مشتریان در مورد دادههای مشتریان خود، گفت که مقررات هوش مصنوعی در برخی مناطق پرخطر یا موارد استفاده مورد استقبال قرار میگیرد. به عنوان مثال، او نیاز به مقرراتی را برای جلوگیری از تبعیض هوش مصنوعی علیه متقاضیان شغل ذکر کرد بر اساس داده های آموزشی جانبدارانه.
او گفت: “من یک فرد فناوری هستم، اما در واقع ضد فناوری هستم که خیر بشریت را مختل می کند.” «آیا هوش مصنوعی باید برای منافع بیشتر جامعه تنظیم شود؟ من می گویم بله، قطعا؛ من فکر می کنم ترسناک است که چه کاری می توانید انجام دهید، به خصوص با آن توانایی تولید عکس و چیزهایی از این قبیلاو گفت.
انتظار میرود مقررات جدید هوش مصنوعی پیشنهادی استرالیا منجر به معرفی نردههای محافظ برای توسعه هوش مصنوعی در محیطهای پرخطر شود. این اقدامات شامل اجرای فرآیندهای مدیریت ریسک و آزمایش مدل های هوش مصنوعی قبل از راه اندازی است. او گفت که آنها به احتمال زیاد بر مشاغل در محیط های پرخطر تأثیر خواهند گذاشت.
هامفریس گفت: «من فکر نمیکنم که این تأثیر زیادی بر میزان نوآوری شما داشته باشد.
ببینید: گارتنر فکر می کند که رهبران فناوری اطلاعات استرالیا باید هوش مصنوعی را با سرعت خود اتخاذ کنند
“من فکر می کنم این مقررات بر روی مناطق پرخطر متمرکز شده است … و ما در حال حاضر باید با انواع مقررات مطابقت داشته باشیم. که شامل قانون حفظ حریم خصوصی استرالیاو ما همچنین کارهای زیادی را در اتحادیه اروپا انجام می دهیم، بنابراین باید با GDPR مقابله کنیم. بنابراین از این نظر تفاوتی ندارد.» او توضیح داد.
هامفریس گفت که مقررات مهم است زیرا سازمان هایی که هوش مصنوعی را توسعه می دهند مشوق های خاص خود را دارند. او رسانههای اجتماعی را به عنوان نمونهای مرتبط از حوزهای معرفی کرد که در آن جامعه میتواند از مقررات متفکرانه بهرهمند شود، زیرا معتقد است که با توجه به سابقهاش، «رسانههای اجتماعی باید پاسخگوی زیادی برای آنها باشد».
شرکتهای بزرگ فناوری بسیار انگیزه های متفاوتی نسبت به آنچه ما به عنوان شهروند داریموی خاطرنشان کرد. زمانی که افرادی مانند متا، گوگل و مایکروسافت و دیگران با انگیزههای تجاری بسیار سنگین و سرمایههای زیادی که مدلهایی را ایجاد میکنند که در خدمت اهدافشان هستند، بسیار ترسناک است.»
انطباق قانونی با هوش مصنوعی به ویژگی مقررات بستگی دارد
فرآیند بازخورد برای حفاظهای اجباری پیشنهادی دولت استرالیا در 4 اکتبر بسته شد. هامفریس گفت که تأثیر مقررات هوش مصنوعی میتواند به این بستگی داشته باشد که اقدامات انطباق چقدر خاص هستند و به چه تعداد منابع برای ادامه سازگاری نیاز است.
«اگر یک بخش از مقررات اجباری میگوید که وقتی اساساً یک پاسخ هوش مصنوعی ارائه میشود، رابط نرمافزار باید به کاربر اجازه دهد تا به نوعی پاسخ را بررسی کند، من فکر میکنم این چیزی است که رعایت آن نسبتاً آسان است. هامفریس گفت که این یک انسان در مسائل حلقه است.
Dovetail قبلاً این ویژگی را در محصول خود قرار داده است. اگر کاربران از دادههای مشتری سؤال کنند تا یک پاسخ تولید شده توسط هوش مصنوعی را دریافت کنند، هامفریز میگوید که این پاسخ به عنوان «تولید شده توسط هوش مصنوعی» برچسبگذاری میشود. و در صورت امکان به کاربران ارجاعاتی به مطالب منبع داده می شود، بنابراین آنها می توانند خودشان نتیجه گیری را تأیید کنند.
ببینید: چرا هوش مصنوعی مولد در حال تبدیل شدن به منبع «اشتباهات پرهزینه» برای خریداران فناوری است
اما اگر قرار بود قانون بگوید، هی، می دانید، هر پاسخی که نرم افزار شما ارائه می دهد باید توسط یکی از کارمندان Dovetail بررسی شود، بدیهی است که این چیزی نیست که بتوانیم با آن مطابقت کنیم، زیرا هزاران مورد از این جستجوها وجود دارد. هر ساعت بر روی نرم افزار ما اجرا می شود.
شرکت فناوری Salesforce در ارسالی در مورد نردههای محافظ اجباری که با TechRepublic به اشتراک گذاشته شد، به استرالیا پیشنهاد کرد رویکردی مبتنی بر اصول اتخاذ کند. این سازمان گفت که تهیه یک لیست گویا همانطور که در اتحادیه اروپا و کانادا دیده می شود می تواند به طور ناخواسته موارد استفاده کم خطر را ثبت کند و بر بار انطباق اضافه کند.
چگونه Dovetail هوش مصنوعی مسئول را در پلتفرم خود ادغام می کند
Dovetail اطمینان حاصل کرده است که هوش مصنوعی را به طور مسئولانه در محصول خود عرضه می کند. هامفریس گفت که در بسیاری از موارد، این همان چیزی است که مشتریان انتظار دارند، زیرا آنها یاد گرفته اند که به طور کامل به مدل های هوش مصنوعی و خروجی های آنها اعتماد نکنند.
ملاحظات زیرساخت برای هوش مصنوعی مسئول
از دم کبوتر استفاده می کند سرویس AWS Bedrock برای هوش مصنوعی مولدو همچنین Anthropic LLMs. هامفریس گفت این به مشتریان اطمینان می دهد که داده های آنها از سایر مشتریان جدا شده و محافظت می شود و خطر نشت داده وجود ندارد. Dovetail از ورودی داده های کاربر از مشتریان برای تنظیم دقیق مدل های هوش مصنوعی استفاده نمی کند.
خروجی های تولید شده توسط هوش مصنوعی برچسب گذاری شده و قابل بررسی هستند
از منظر تجربه کاربر، تمام خروجی های تولید شده توسط هوش مصنوعی Dovetail به این صورت برچسب گذاری شده اند تا برای کاربران روشن شود. در مواردی که امکان پذیر است، به مشتریان نیز نقل قول هایی در پاسخ های ایجاد شده توسط هوش مصنوعی ارائه می شود، به طوری که کاربر می تواند هر گونه بینش به کمک هوش مصنوعی را بیشتر بررسی کند.
خلاصه های تولید شده توسط هوش مصنوعی توسط کاربران انسانی قابل ویرایش هستند
پاسخ های تولید شده توسط هوش مصنوعی Dovetail را می توان به طور فعال توسط انسان در حلقه ویرایش کرد. برای مثال، اگر خلاصهای از یک تماس ویدیویی از طریق ویژگی خلاصهنویسی رونوشت آن ایجاد شود، کاربرانی که خلاصه را دریافت میکنند، در صورتی که تشخیص دهند خطایی وجود دارد، میتوانند خلاصه را ویرایش کنند.
برآورده کردن انتظارات مشتری با یک انسان در حلقه
هامفریس گفت که مشتریان اکنون انتظار دارند که نظارت بر هوش مصنوعی یا یک انسان در حلقه داشته باشند.
این همان چیزی است که بازار انتظار دارد، و من فکر میکنم که نرده محافظ خوبی است، زیرا اگر از نرمافزار ما نتیجهگیری میکنید تا استراتژی کسبوکار یا نقشه راه یا هر کاری که انجام میدهید را اطلاع دهید، باید مطمئن شوید. او گفت که این نتایج دقیق است.
هامفریس گفت که مقررات هوش مصنوعی ممکن است نیاز به در سطح بالایی داشته باشد تا تنوع بالای موارد استفاده را پوشش دهد.
هامفریس گفت: «الزام باید سطح بالایی داشته باشد تا همه موارد استفاده مختلف را پوشش دهد. آنها به قدری گسترده هستند، موارد استفاده از هوش مصنوعی، که فکر می کنم برای آنها بسیار دشوار خواهد بود. [The Government] برای نوشتن چیزی که به اندازه کافی خاص باشد. راستش این یک میدان مین است.»
منبع: https://www.techrepublic.com/article/dovetail-ceo-ai-innovation-regulation/