چرا آزمون تورینگ اشتباه است


تست تورینگ که در سال 1950 توسط آلن تورینگ ارائه شد، مدتهاست که معیاری در هوش مصنوعی بوده است. این نشان می‌دهد که هوش مصنوعی زمانی به هوش واقعی دست می‌یابد که بتواند رفتاری غیرقابل تشخیص از انسان از خود نشان دهد. با این حال، من معتقدم که این آزمایش اشتباه است و صنعت ما نباید برای رسیدن به آن تلاش کند. در عوض، هوش مصنوعی باید بر ایجاد روابطی تمرکز کند که تجربه انسانی را افزایش دهد، نه اینکه سعی کند ما را فریب دهد.

خطر قبولی در آزمون تورینگ

ابتدا باید از خود بپرسیم: چرا ساختن ماشینی که سعی می کند ما را فریب دهد و فریب دهد به نفع بشریت است؟ آیا می‌خواهیم در دنیایی زندگی کنیم که در آن تشخیص اینکه آیا با یک شخص واقعی صحبت می‌کنیم یا نه – حتی با کسی که می‌شناسیم و از او مراقبت می‌کنیم، غیرممکن است؟

اکنون خطر را در نظر بگیرید که این فریب توسط یک عامل ایجاد شده توسط یک بازیگر بد، یا حتی توسط یک عامل با دستور کار خودش ارائه شود. چنین سناریوهایی نگرانی های اخلاقی قابل توجهی ایجاد می کند. وقتی این فرصت به انسان ها داده می شود، اغلب از فناوری بهره برداری می کنند، چه به دلایل مخرب و چه به دلیل گمراهی. یک مثال اولیه قابل توجه از پتانسیل فریب دادن ما، نمایش Google Duplex در سال 2018 است که قبل از انتشار مدل‌های زبان بزرگ و سیستم‌های مبتنی بر ترانسفورماتور انجام شد. سیستم پیشرفته تبدیل متن به گفتار آن‌ها، که با ویژگی‌های انسان‌مانندی مانند مکث نفس و «امم» کامل می‌شود، با موفقیت یک مسئول پذیرش را فریب داد تا یک قرار ملاقات برای یک فرد غیرمجاز رزرو کند. تصور کنید که آن مسئول پذیرش هستید و فکر می‌کنید دارید با یک انسان صحبت می‌کنید، اما بعداً متوجه می‌شوید که یک عامل هوش مصنوعی است و وانمود می‌کند که یک فرد است. با پیشرفت‌های تکنولوژیک امروزی با LLM، این قابلیت‌ها تنها افزایش یافته و با تقلبی‌های عمیق ترکیب شده‌اند، نتایج می‌تواند دیستوپیک باشد.

مرتبط:شروع کار با هوش مصنوعی

ایجاد رابطه بین انسان ها و هوش مصنوعی معتبر

در Intuition Robotics، کار ما بر روی ElliQ – یک ربات غیر انسان نما که برای کاهش تنهایی در میان افراد مسن طراحی شده است – نشان داده است که هوش مصنوعی برای تأثیرگذاری نیازی به فریب دادن افراد ندارد. مشتریان ما به جای تقویت روابط با یک “انسان جعلی”، روابط عمیق و طولانی مدتی را با “هوش مصنوعی معتبر” ایجاد می کنند. آنها از ElliQ به عنوان یک “موجود جدید” در زندگی خود یاد می کنند. ما آموخته‌ایم که انسان‌ها قدرت تخیل و ظرفیت ایجاد چنین روابطی با غیرانسان‌ها را دارند، مشابه پیوندهای عمیق و محبت‌آمیز ما با حیوانات خانگی‌مان.

تحقیقات در مورد تعامل انسان و ربات (HRI) از این یافته پشتیبانی می‌کند و نشان می‌دهد که روابط بین انسان‌ها و ماشین‌ها به جای تقلید کامل از انسان، بر اساس نشانه‌های ظریف – مانند ژست‌ها، زبان بدن و نگاه – رشد می‌کند. مطالعات HRI نشان می‌دهد که روبات‌هایی که از این رفتارهای غیرکلامی استفاده می‌کنند، جذاب‌تر و قابل اعتمادتر تلقی می‌شوند. این امر بر اهمیت ارتباط غیرکلامی در ایجاد ارتباط با هوش مصنوعی تأکید می کند و این ایده را تقویت می کند که اصالت از تقلید ارزشمندتر است.

مرتبط:باز کردن قفل توسعه ایمن هوش مصنوعی

برای تحقق این امر، ElliQ از ابزارهایی فراتر از تقلید از انسانیت استفاده می کند: ژست ها، زبان بدن، تعاملات فعال، شوخ طبعی (بازتاب یک موجود رباتیک که به طور کامل انسان را درک نمی کند)، زمینه، خاطرات و دسترسی به دانش بی پایان. همراه با صدای همدلانه و گرم، شاهد ظهور همراهی های معنادار هستیم. ما آن را به عنوان یک اصل طراحی واضح اعلام کردیم که ElliQ همیشه خود را به عنوان یک هوش مصنوعی معرفی می کند و اغلب آن را تقویت می کند. برای مثال، حتی در موارد لبه‌ای که مردم به ElliQ می‌گویند که او را دوست دارند، پاسخ ElliQ قابل توجه است، اما به فرد یادآوری می‌کند که این یک هوش مصنوعی است و با چیزی مانند: “متشکرم، این باعث می‌شود پردازنده من بیش از حد داغ شود.”

این رویکرد، که هم بر اساس تجربه ما است و هم توسط تحقیقات HRI پشتیبانی می‌شود، ثابت کرده است که روابط پایدار و معتبر را در طول زمان تقویت می‌کند.

بینش از در حال توسعه همراهان مبتنی بر هوش مصنوعی

هزاران نفر در حال حاضر با ElliQ زندگی می کنند و ده ها بار در روز با هم تعامل دارند و چیزی را ایجاد می کنند که من فقط می توانم از آن به عنوان یک رابطه واقعی یاد کنم. در توسعه ElliQ، من به طور مستقیم تاثیر عمیقی که هوش مصنوعی می تواند بر زندگی افراد داشته باشد دیده ام. همدلی و فعال بودن برای همراهان هوش مصنوعی بسیار مهم است. آنها باید احساسات انسانی را بدون تلاش برای تکرار رفتار انسانی درک کنند و به آنها پاسخ دهند. اصالت کلیدی است – هوش مصنوعی باید در مورد ماهیت خود شفاف باشد و در عین حال ارتباطات واقعی را تقویت کند. من معتقدم که این برای سایر عوامل هوش مصنوعی نیز صادق است.

هوش مصنوعی باید مکمل تعامل انسانی باشد نه جایگزین. این امر به ویژه در مورد افراد مسن که ممکن است به دلیل کاهش تحرک یا از دست دادن عزیزانشان با تنهایی مواجه شوند، صادق است. هوش مصنوعی می تواند همراهی را ارائه دهد که مکمل، به جای جایگزینی، روابط انسانی است. این اصل برای همه موارد استفاده که در آن عوامل هوش مصنوعی با انسان‌ها تعامل دارند، اعمال می‌شود – نقش هوش مصنوعی باید تقویت تجربه انسانی باشد، نه تقلید و فریب ما.

یک هدف جدید برای هوش مصنوعی

تمرکز تست تورینگ بر عدم تشخیص انسان، هدف گمراه‌کننده‌ای را برای هوش مصنوعی تعیین می‌کند. در عوض، هوش مصنوعی باید در زمینه هایی که می تواند به طور قابل توجهی ما را تقویت کند و زندگی ما را بهبود بخشد، برتر باشد. عوامل هوش مصنوعی همیشه باید به وضوح خود را به عنوان عامل هوش مصنوعی معرفی کنند. این شفافیت راه را برای ما هموار می کند تا هوش مصنوعی را به عنوان بخشی از زندگی روزمره خود بپذیریم و به فناوری اجازه می دهد تجربیات ما را افزایش دهد. بیایید هوش مصنوعی ایجاد کنیم که همدلانه، پیشگیرانه و مبتنی بر رابطه باشد – تجربه انسان را بدون تظاهر به خودمان غنی کند.





منبع: https://aibusiness.com/ml/why-the-turing-test-is-wrong