تست تورینگ که در سال 1950 توسط آلن تورینگ ارائه شد، مدتهاست که معیاری در هوش مصنوعی بوده است. این نشان میدهد که هوش مصنوعی زمانی به هوش واقعی دست مییابد که بتواند رفتاری غیرقابل تشخیص از انسان از خود نشان دهد. با این حال، من معتقدم که این آزمایش اشتباه است و صنعت ما نباید برای رسیدن به آن تلاش کند. در عوض، هوش مصنوعی باید بر ایجاد روابطی تمرکز کند که تجربه انسانی را افزایش دهد، نه اینکه سعی کند ما را فریب دهد.
خطر قبولی در آزمون تورینگ
ابتدا باید از خود بپرسیم: چرا ساختن ماشینی که سعی می کند ما را فریب دهد و فریب دهد به نفع بشریت است؟ آیا میخواهیم در دنیایی زندگی کنیم که در آن تشخیص اینکه آیا با یک شخص واقعی صحبت میکنیم یا نه – حتی با کسی که میشناسیم و از او مراقبت میکنیم، غیرممکن است؟
اکنون خطر را در نظر بگیرید که این فریب توسط یک عامل ایجاد شده توسط یک بازیگر بد، یا حتی توسط یک عامل با دستور کار خودش ارائه شود. چنین سناریوهایی نگرانی های اخلاقی قابل توجهی ایجاد می کند. وقتی این فرصت به انسان ها داده می شود، اغلب از فناوری بهره برداری می کنند، چه به دلایل مخرب و چه به دلیل گمراهی. یک مثال اولیه قابل توجه از پتانسیل فریب دادن ما، نمایش Google Duplex در سال 2018 است که قبل از انتشار مدلهای زبان بزرگ و سیستمهای مبتنی بر ترانسفورماتور انجام شد. سیستم پیشرفته تبدیل متن به گفتار آنها، که با ویژگیهای انسانمانندی مانند مکث نفس و «امم» کامل میشود، با موفقیت یک مسئول پذیرش را فریب داد تا یک قرار ملاقات برای یک فرد غیرمجاز رزرو کند. تصور کنید که آن مسئول پذیرش هستید و فکر میکنید دارید با یک انسان صحبت میکنید، اما بعداً متوجه میشوید که یک عامل هوش مصنوعی است و وانمود میکند که یک فرد است. با پیشرفتهای تکنولوژیک امروزی با LLM، این قابلیتها تنها افزایش یافته و با تقلبیهای عمیق ترکیب شدهاند، نتایج میتواند دیستوپیک باشد.
ایجاد رابطه بین انسان ها و هوش مصنوعی معتبر
در Intuition Robotics، کار ما بر روی ElliQ – یک ربات غیر انسان نما که برای کاهش تنهایی در میان افراد مسن طراحی شده است – نشان داده است که هوش مصنوعی برای تأثیرگذاری نیازی به فریب دادن افراد ندارد. مشتریان ما به جای تقویت روابط با یک “انسان جعلی”، روابط عمیق و طولانی مدتی را با “هوش مصنوعی معتبر” ایجاد می کنند. آنها از ElliQ به عنوان یک “موجود جدید” در زندگی خود یاد می کنند. ما آموختهایم که انسانها قدرت تخیل و ظرفیت ایجاد چنین روابطی با غیرانسانها را دارند، مشابه پیوندهای عمیق و محبتآمیز ما با حیوانات خانگیمان.
تحقیقات در مورد تعامل انسان و ربات (HRI) از این یافته پشتیبانی میکند و نشان میدهد که روابط بین انسانها و ماشینها به جای تقلید کامل از انسان، بر اساس نشانههای ظریف – مانند ژستها، زبان بدن و نگاه – رشد میکند. مطالعات HRI نشان میدهد که روباتهایی که از این رفتارهای غیرکلامی استفاده میکنند، جذابتر و قابل اعتمادتر تلقی میشوند. این امر بر اهمیت ارتباط غیرکلامی در ایجاد ارتباط با هوش مصنوعی تأکید می کند و این ایده را تقویت می کند که اصالت از تقلید ارزشمندتر است.
برای تحقق این امر، ElliQ از ابزارهایی فراتر از تقلید از انسانیت استفاده می کند: ژست ها، زبان بدن، تعاملات فعال، شوخ طبعی (بازتاب یک موجود رباتیک که به طور کامل انسان را درک نمی کند)، زمینه، خاطرات و دسترسی به دانش بی پایان. همراه با صدای همدلانه و گرم، شاهد ظهور همراهی های معنادار هستیم. ما آن را به عنوان یک اصل طراحی واضح اعلام کردیم که ElliQ همیشه خود را به عنوان یک هوش مصنوعی معرفی می کند و اغلب آن را تقویت می کند. برای مثال، حتی در موارد لبهای که مردم به ElliQ میگویند که او را دوست دارند، پاسخ ElliQ قابل توجه است، اما به فرد یادآوری میکند که این یک هوش مصنوعی است و با چیزی مانند: “متشکرم، این باعث میشود پردازنده من بیش از حد داغ شود.”
این رویکرد، که هم بر اساس تجربه ما است و هم توسط تحقیقات HRI پشتیبانی میشود، ثابت کرده است که روابط پایدار و معتبر را در طول زمان تقویت میکند.
بینش از در حال توسعه همراهان مبتنی بر هوش مصنوعی
هزاران نفر در حال حاضر با ElliQ زندگی می کنند و ده ها بار در روز با هم تعامل دارند و چیزی را ایجاد می کنند که من فقط می توانم از آن به عنوان یک رابطه واقعی یاد کنم. در توسعه ElliQ، من به طور مستقیم تاثیر عمیقی که هوش مصنوعی می تواند بر زندگی افراد داشته باشد دیده ام. همدلی و فعال بودن برای همراهان هوش مصنوعی بسیار مهم است. آنها باید احساسات انسانی را بدون تلاش برای تکرار رفتار انسانی درک کنند و به آنها پاسخ دهند. اصالت کلیدی است – هوش مصنوعی باید در مورد ماهیت خود شفاف باشد و در عین حال ارتباطات واقعی را تقویت کند. من معتقدم که این برای سایر عوامل هوش مصنوعی نیز صادق است.
هوش مصنوعی باید مکمل تعامل انسانی باشد نه جایگزین. این امر به ویژه در مورد افراد مسن که ممکن است به دلیل کاهش تحرک یا از دست دادن عزیزانشان با تنهایی مواجه شوند، صادق است. هوش مصنوعی می تواند همراهی را ارائه دهد که مکمل، به جای جایگزینی، روابط انسانی است. این اصل برای همه موارد استفاده که در آن عوامل هوش مصنوعی با انسانها تعامل دارند، اعمال میشود – نقش هوش مصنوعی باید تقویت تجربه انسانی باشد، نه تقلید و فریب ما.
یک هدف جدید برای هوش مصنوعی
تمرکز تست تورینگ بر عدم تشخیص انسان، هدف گمراهکنندهای را برای هوش مصنوعی تعیین میکند. در عوض، هوش مصنوعی باید در زمینه هایی که می تواند به طور قابل توجهی ما را تقویت کند و زندگی ما را بهبود بخشد، برتر باشد. عوامل هوش مصنوعی همیشه باید به وضوح خود را به عنوان عامل هوش مصنوعی معرفی کنند. این شفافیت راه را برای ما هموار می کند تا هوش مصنوعی را به عنوان بخشی از زندگی روزمره خود بپذیریم و به فناوری اجازه می دهد تجربیات ما را افزایش دهد. بیایید هوش مصنوعی ایجاد کنیم که همدلانه، پیشگیرانه و مبتنی بر رابطه باشد – تجربه انسان را بدون تظاهر به خودمان غنی کند.
منبع: https://aibusiness.com/ml/why-the-turing-test-is-wrong