من در اینجا چیزهای بدیهی را بیان می کنم، اما انسان ها کامل نیستند. این چیزی است که ما را انسان می کند. بنابراین، هنگامی که ما در مورد همگرایی استدلال انسان و هوش مصنوعی (AI) و ایجاد داپلگانگرهای دیجیتال (کپی از خود) صحبت می کنیم، دو راه برای بررسی آن وجود دارد. یکی در مورد اینکه چه اتفاقی می افتد زمانی که هوش مصنوعی آن را کاملاً “درست” نمی کند و دیگری در مورد آنچه که وقتی LLM ها کاری را بدون نقص انجام می دهند از دست می دهیم. البته در هر دو مشکل وجود دارد. این گفتگوی اخلاقی فراتر از بحث پیشگیری از آسیب است و در عوض تحلیلی بسیار جامع تر از جایی است که هوش مصنوعی در حال حاضر در آن قرار دارد.
مشکل همیشه جواب داشتن
مشکل ایجاد یک دوقلوی دیجیتالی از استدلال انسانی این است که سیستمهای هوش مصنوعی کنونی بدون توجه به اینکه به پاسخ اعتماد دارند یا نه، مجبور به پاسخگویی هستند. بیا جهنم یا آب بالا، چیزی به ذهنشان می رسد. اما این طرز کار انسان ها نیست، درست است؟ اگر واقعاً چیزی را نمیدانند و شما اصلاً هیچ خروجی نخواهید داشت، اکثر انسانها میگویند نه. نگرانیهای اخلاقی اکنون باید در مورد نحوه نصب نردههای محافظ زمانی که با چیزی کار میکنید که اساساً نمیتواند نه بگوید کار میکند.
و بیایید مشکل مقیاس را اضافه کنیم – به گوگل نگاه کنید، بیش از یک تریلیون خط کد دارد. هیچ انسانی قادر به رمزگشایی آن نیست. به هر حال شما اساساً در تاریکی نسبی در هر زمان عمل می کنید. بنابراین وقتی هوش مصنوعی بدون در نظر گرفتن اطمینان به پاسخها ادامه میدهد، شما فقط مشکلی را که از قبل وجود دارد تقویت میکنید – شما هنوز در تاریکی جزئی و با سرعتی بسیار سریعتر عمل میکنید.
سوال تعصب آن چیزی نیست که شما فکر می کنید
یک تصور غلط رایج وجود دارد که هوش مصنوعی باید با حذف سوگیری خود را از استدلال انسانی جدا کند. با این حال، چیزی به نام داده های بی طرفانه وجود ندارد. سوگیری دارد زیرا همیشه توسط یک انسان و با یک هدف تامین می شود. آمازون در سال 2015، زمانی که ابزار استخدام هوش مصنوعی آنها پس از جریمه کردن رزومه های حاوی کلمه “زنان” مجبور به لغو شد، این را به سختی آموختند. – هوش مصنوعی سوگیری های جنسیتی موجود را در داده های استخدامی که در آن آموزش دیده بود، تقویت کرده بود.
چالش ما نباید حذف تعصب باشد، بلکه باید آن را محدود کنیم و اجازه ندهیم که اتاق پژواک ایجاد کند. تعداد دفعاتی که یک هوش مصنوعی می تواند تکرار کند بسیار سریعتر از یک انسان است و بنابراین شما اساساً یک چرخ لنگر تعصب ایجاد می کنید. به همین دلیل است که اصول اخلاقی ایجاد داپلگانگرهای دیجیتالی در مورد ساختن کپی های کامل از استدلال انسانی نیست، بلکه در مورد بازسازی کل اکوسیستم نحوه کار انسان ها با یکدیگر است.
در عوض، ما باید به دنبال بازسازی کارهایی باشیم که انسان ها انجام می دهند. چگونه انسان خروجی را تأیید می کند؟ آنها با یک انسان دیگر چک می کنند. شما باید طرف دیگر هوش مصنوعی را نیز بسازید.
بیایید به عنوان مثال مهندسی کد هوش مصنوعی را در نظر بگیریم. ما به این فکر می کنیم که چگونه بازبین کدهای هوش مصنوعی یا افرادی که از کد پیروی می کنند ایجاد کنیم. شما باید همتای آن را ایجاد کنید.
مسئله مالکیت
اگر هوش مصنوعی و انسانها اکنون با هم کار میکنند و با هم استدلال میکنند، مطمئناً این سؤال وجود خواهد داشت که چه کسی مالک چه چیزی است و مسئولیت کجاست. مدلهای بنیادی همگی با استفاده از دادههای شکایت IP عمل میکنند، هر آنچه که واقعاً به معنای آن باشد، و بنابراین فکر میکنم ما به یک رویکرد عقل سلیم نیاز داریم. آنچه ایجاد می شود متعلق به هر کسی است که آن را ایجاد یا تحریک می کند. به اکوسیستم های دیگر فکر کنید – هر آنچه در Google Docs ایجاد می کنم متعلق به من است. احتمالاً اینگونه است که باید در مورد محتوای تولید شده توسط هوش مصنوعی نیز فکر کنیم.
حکمرانی این داپلگانگرهای دیجیتال نباید بر محدودیت، بلکه بر بهینه سازی تمرکز کند. بهعنوان یک ماکسیمالیست هوش مصنوعی، من معتقدم تمرکز ما باید به جای نگاه کردن مداوم به گذشته، روی تلاش برای رسیدن به قابلیتهای کامل هوش مصنوعی باشد. مشکل خود هوش مصنوعی نیست، بلکه نحوه به کارگیری هوش مصنوعی است. این معادل این است که بگوییم ما نباید فولاد بسازیم زیرا می تواند به گلوله و موشک تبدیل شود.
آن سوی آینه
رابطه بین انسان و دوقلوهای دیجیتالی آنها در حال حاضر فراتر از آینه سازی ساده در حال تکامل است. در حالی که هوش مصنوعی وظایف شناختی دقیق را انجام می دهد – کنترل ها، تعادل ها و کار خرخر کردن – انسان ها در حال تبدیل شدن به خالق و هدایت کننده هستند. ما در حال حاضر شاهد این تحول هستیم. افرادی که با اکسل دست و پنجه نرم می کردند اکنون در آن عالی هستند و وکلای جوان می توانند مانند سالمندان استدلال کنند. تجربه زمان در حال کاهش است، اما آنچه حیاتیتر میشود، توانایی هدایت این دوپلنگهای دیجیتال به سمت نتایج معنادار است.
در مورد ما انسان ها؟ بیایید با توجه به اینکه اکنون این همه وقت آزاد داریم، بر تکمیل مهارت های خود در حوزه خلاقیت و احساسی تمرکز کنیم.