وقتی هوش مصنوعی مثل ما می آید


من در اینجا چیزهای بدیهی را بیان می کنم، اما انسان ها کامل نیستند. این چیزی است که ما را انسان می کند. بنابراین، هنگامی که ما در مورد همگرایی استدلال انسان و هوش مصنوعی (AI) و ایجاد داپلگانگرهای دیجیتال (کپی از خود) صحبت می کنیم، دو راه برای بررسی آن وجود دارد. یکی در مورد اینکه چه اتفاقی می افتد زمانی که هوش مصنوعی آن را کاملاً “درست” نمی کند و دیگری در مورد آنچه که وقتی LLM ها کاری را بدون نقص انجام می دهند از دست می دهیم. البته در هر دو مشکل وجود دارد. این گفتگوی اخلاقی فراتر از بحث پیشگیری از آسیب است و در عوض تحلیلی بسیار جامع تر از جایی است که هوش مصنوعی در حال حاضر در آن قرار دارد.

مشکل همیشه جواب داشتن

مشکل ایجاد یک دوقلوی دیجیتالی از استدلال انسانی این است که سیستم‌های هوش مصنوعی کنونی بدون توجه به اینکه به پاسخ اعتماد دارند یا نه، مجبور به پاسخگویی هستند. بیا جهنم یا آب بالا، چیزی به ذهنشان می رسد. اما این طرز کار انسان ها نیست، درست است؟ اگر واقعاً چیزی را نمی‌دانند و شما اصلاً هیچ خروجی نخواهید داشت، اکثر انسان‌ها می‌گویند نه. نگرانی‌های اخلاقی اکنون باید در مورد نحوه نصب نرده‌های محافظ زمانی که با چیزی کار می‌کنید که اساساً نمی‌تواند نه بگوید کار می‌کند.

و بیایید مشکل مقیاس را اضافه کنیم – به گوگل نگاه کنید، بیش از یک تریلیون خط کد دارد. هیچ انسانی قادر به رمزگشایی آن نیست. به هر حال شما اساساً در تاریکی نسبی در هر زمان عمل می کنید. بنابراین وقتی هوش مصنوعی بدون در نظر گرفتن اطمینان به پاسخ‌ها ادامه می‌دهد، شما فقط مشکلی را که از قبل وجود دارد تقویت می‌کنید – شما هنوز در تاریکی جزئی و با سرعتی بسیار سریع‌تر عمل می‌کنید.

مرتبط:شکاف مهارت های مبتنی بر هوش مصنوعی

سوال تعصب آن چیزی نیست که شما فکر می کنید

یک تصور غلط رایج وجود دارد که هوش مصنوعی باید با حذف سوگیری خود را از استدلال انسانی جدا کند. با این حال، چیزی به نام داده های بی طرفانه وجود ندارد. سوگیری دارد زیرا همیشه توسط یک انسان و با یک هدف تامین می شود. آمازون در سال 2015، زمانی که ابزار استخدام هوش مصنوعی آنها پس از جریمه کردن رزومه های حاوی کلمه “زنان” مجبور به لغو شد، این را به سختی آموختند. – هوش مصنوعی سوگیری های جنسیتی موجود را در داده های استخدامی که در آن آموزش دیده بود، تقویت کرده بود.

چالش ما نباید حذف تعصب باشد، بلکه باید آن را محدود کنیم و اجازه ندهیم که اتاق پژواک ایجاد کند. تعداد دفعاتی که یک هوش مصنوعی می تواند تکرار کند بسیار سریعتر از یک انسان است و بنابراین شما اساساً یک چرخ لنگر تعصب ایجاد می کنید. به همین دلیل است که اصول اخلاقی ایجاد داپلگانگرهای دیجیتالی در مورد ساختن کپی های کامل از استدلال انسانی نیست، بلکه در مورد بازسازی کل اکوسیستم نحوه کار انسان ها با یکدیگر است.

در عوض، ما باید به دنبال بازسازی کارهایی باشیم که انسان ها انجام می دهند. چگونه انسان خروجی را تأیید می کند؟ آنها با یک انسان دیگر چک می کنند. شما باید طرف دیگر هوش مصنوعی را نیز بسازید.

مرتبط:پاسپورت بیماران: کلید جهانی سازی خدمات بهداشت ملی

بیایید به عنوان مثال مهندسی کد هوش مصنوعی را در نظر بگیریم. ما به این فکر می کنیم که چگونه بازبین کدهای هوش مصنوعی یا افرادی که از کد پیروی می کنند ایجاد کنیم. شما باید همتای آن را ایجاد کنید.

مسئله مالکیت

اگر هوش مصنوعی و انسان‌ها اکنون با هم کار می‌کنند و با هم استدلال می‌کنند، مطمئناً این سؤال وجود خواهد داشت که چه کسی مالک چه چیزی است و مسئولیت کجاست. مدل‌های بنیادی همگی با استفاده از داده‌های شکایت IP عمل می‌کنند، هر آنچه که واقعاً به معنای آن باشد، و بنابراین فکر می‌کنم ما به یک رویکرد عقل سلیم نیاز داریم. آنچه ایجاد می شود متعلق به هر کسی است که آن را ایجاد یا تحریک می کند. به اکوسیستم های دیگر فکر کنید – هر آنچه در Google Docs ایجاد می کنم متعلق به من است. احتمالاً اینگونه است که باید در مورد محتوای تولید شده توسط هوش مصنوعی نیز فکر کنیم.

حکمرانی این داپلگانگرهای دیجیتال نباید بر محدودیت، بلکه بر بهینه سازی تمرکز کند. به‌عنوان یک ماکسیمالیست هوش مصنوعی، من معتقدم تمرکز ما باید به جای نگاه کردن مداوم به گذشته، روی تلاش برای رسیدن به قابلیت‌های کامل هوش مصنوعی باشد. مشکل خود هوش مصنوعی نیست، بلکه نحوه به کارگیری هوش مصنوعی است. این معادل این است که بگوییم ما نباید فولاد بسازیم زیرا می تواند به گلوله و موشک تبدیل شود.

آن سوی آینه

رابطه بین انسان و دوقلوهای دیجیتالی آنها در حال حاضر فراتر از آینه سازی ساده در حال تکامل است. در حالی که هوش مصنوعی وظایف شناختی دقیق را انجام می دهد – کنترل ها، تعادل ها و کار خرخر کردن – انسان ها در حال تبدیل شدن به خالق و هدایت کننده هستند. ما در حال حاضر شاهد این تحول هستیم. افرادی که با اکسل دست و پنجه نرم می کردند اکنون در آن عالی هستند و وکلای جوان می توانند مانند سالمندان استدلال کنند. تجربه زمان در حال کاهش است، اما آنچه حیاتی‌تر می‌شود، توانایی هدایت این دوپلنگ‌های دیجیتال به سمت نتایج معنادار است.

در مورد ما انسان ها؟ بیایید با توجه به اینکه اکنون این همه وقت آزاد داریم، بر تکمیل مهارت های خود در حوزه خلاقیت و احساسی تمرکز کنیم.





منبع: https://aibusiness.com/responsible-ai/the-ethics-of-digital-doppelgangers-when-ai-reasons-like-us