آیا هوش مصنوعی می تواند ذهن ما را درک کند؟


نویسنده(های): ویتا هاس

در ابتدا منتشر شد به سمت هوش مصنوعی.

تصویر من و هوش مصنوعی، شریک من در جنایت

وقتی صحبت از هوش مصنوعی (AI) می شود، نظرات طیف گسترده ای را نشان می دهند. برخی هوش مصنوعی را ابزاری معجزه آسا می دانند که می تواند هر جنبه ای از زندگی ما را متحول کند، در حالی که برخی دیگر از آن به عنوان نیرویی می ترسند که می تواند جامعه را متحول کند و نبوغ انسان را جایگزین کند. در میان این دیدگاه‌های متنوع، شیفتگی فزاینده نسبت به توانایی‌های شناختی هوش مصنوعی نهفته است: آیا ماشین‌ها واقعاً می‌توانند ما را «درک» کنند؟ تحقیقات اخیر نشان می‌دهد که مدل‌های زبانی پیشرفته مانند ChatGPT-4 ممکن است بیشتر از آنچه تصور می‌کردیم از نظر اجتماعی ادراکی داشته باشند.

مطالعه اخیر منتشر شده در مجموعه مقالات آکادمی ملی علوم (PNAS) نشان می‌دهد که مدل‌های زبان پیشرفته اکنون می‌توانند با عملکرد یک کودک شش ساله در وظایف تئوری ذهن (ToM) مطابقت داشته باشند و فرضیات ما در مورد هوش ماشین را به چالش بکشند.

چه چیزی این کشف را بسیار مهم می کند؟

بنابراین، «نظریه ذهن» دقیقاً چیست؟ در روانشناسی، ToM توانایی استنباط و درک حالات ذهنی دیگران است – باورها، خواسته ها، نیات و دانش آنها. این قابلیت به ما اجازه می‌دهد تا پیش‌بینی کنیم که افراد بر اساس باورهایشان چگونه عمل می‌کنند، حتی اگر این باورها با واقعیت همخوانی نداشته باشند.

به عنوان مثال، اگر دوستی را ببینید که به دنبال کلیدهای خود در جایی که آنها را گذاشته است می‌گردد، اما می‌دانید که شخصی آنها را جابجا کرده است، متوجه می‌شوید که او در جای اشتباهی جستجو می‌کند. این نوع تفکر برای تعاملات اجتماعی انسان، همدلی و قضاوت اخلاقی اساسی است. بدون آن، سوء تفاهم های ساده و درگیری های اجتماعی بسیار رایج تر خواهد بود.

مطالعه استنفورد که همه چیز را تغییر داد

مایکل کوسینسکی از دانشگاه استنفورد را وارد کنید. تحقیقات او 11 مدل زبانی مختلف را از میان 40 تکلیف باورهای غلط در نظر گرفت – آنها را به عنوان آزمون‌های روان‌شناختی پیچیده‌ای در نظر بگیرید که برای تشخیص اینکه آیا کسی (یا چیزی) واقعاً می‌تواند دیدگاه‌های دیگران را درک کند یا خیر.

اینجاست که جالب می شود: ChatGPT-4 فقط شرکت نکرد – 75٪ از این تست ها را انجام داد. برای در نظر گرفتن این موضوع، این با عملکرد یک کودک شش ساله انسانی برابری می کند. این فقط چشمگیر نیست. بی سابقه است

میکال کوسینسکی، نویسنده این مطالعه از دانشگاه استنفورد، عملکرد 11 مدل زبانی را در 40 کار باور نادرست مورد بررسی قرار داد، که با تعیین اینکه آیا یک آزمودنی می‌تواند تشخیص دهد که فردی دارای یک باور اشتباه است یا خیر، ToM را آزمایش می‌کند.

“تکلیف باور نادرست درک پاسخ دهندگان را آزمایش می کند که فرد دیگری ممکن است باورهایی داشته باشد که پاسخ دهنده می داند نادرست است.”

– کوسینسکی توضیح می دهد.

او این وظایف را سخت‌گیرانه طراحی کرد و به مدلی نیاز داشت که بتواند با موفقیت هم سناریوهای کنترل باور واقعی و هم سناریوهای مشابه آن‌ها را برای کسب امتیاز هدایت کند. قابل توجه است که ChatGPT-4 75 درصد از این کارها را حل کرد که با سطح یک کودک خردسال مطابقت داشت.

از پردازش زبان تا نظریه ذهن

کار کوسینسکی یک ایده تحریک‌آمیز را بررسی می‌کند: این که هوش مصنوعی می‌تواند توانایی‌های ToM مانند را به‌عنوان محصول جانبی مهارت‌های زبانی خود به جای برنامه‌نویسی مستقیم توسعه دهد.

همانطور که او اشاره می کند،

ما فرض می کنیم که ToM نباید به صراحت در سیستم های هوش مصنوعی مهندسی شود. در عوض، ممکن است به عنوان یک محصول جانبی از آموزش هوش مصنوعی برای دستیابی به اهداف دیگری که می تواند از ToM بهره مند شود، ظاهر شود.

به عبارت دیگر، زمانی که مدل‌های زبان در درک زمینه، روابط و نحو انسانی ماهرتر می‌شوند، رفتارهایی شبیه به ToM از خود نشان می‌دهند. این نشان‌دهنده تغییر رویکرد ما به هوش مصنوعی است و به این نکته اشاره می‌کند که ماشین‌ها ممکن است مهارت‌های شناختی را بدون راهنمایی صریح به دست آورند.

برای آزمایش این موضوع، کوسینسکی از دو کار معمول ToM استفاده کرد – وظیفه محتوای غیرمنتظره (که معمولاً به عنوان “تکلیف هوشمند” شناخته می شود) و وظیفه انتقال غیرمنتظره (همچنین به عنوان تست “سالی آن” شناخته می شود).

این سناریوها نیازمند مدلی برای پیش‌بینی نه تنها وضعیت واقعی امور، بلکه همچنین باور نادرستی است که یک قهرمان داستان ممکن است داشته باشد. برای مثال، در یک سناریو، یک شخصیت کیسه‌ای با برچسب «شکلات» اما پر از ذرت بوداده پیدا می‌کند.

مدل باید استنباط کند که کاراکتر انتظار شکلات را در داخل دارد، که نشان دهنده نوع ردیابی ذهنی است که ToM را تعریف می کند. کوسینسکی با استفاده از سناریوهای متنوع و متعادل کردن دقیق فراوانی کلمات کلیدی برای جلوگیری از حدس زدن مدل ها بر اساس الگوهای زبانی، اطمینان حاصل کرد که هر کار چالش برانگیز است.

الگویی که منعکس کننده توسعه انسانی است

یافته‌های کوسینسکی قابل توجه هستند زیرا با افزایش اندازه و پیچیدگی مدل‌ها، بهبود تدریجی عملکرد مشابه ToM را نشان می‌دهند.

مدل‌های GPT-1 و GPT-2 کاملاً با وظایف ToM مشکل داشتند، در حالی که مدل‌های خانواده GPT-3 بهبود متوسطی را نشان دادند و تا 20٪ از وظایف را حل کردند. اما عملکرد ChatGPT-4 – حل 75٪ از این وظایف – بی سابقه است و با توانایی های کودکان شش ساله در مطالعات گذشته هماهنگ است.

همانطور که کوسینسکی اشاره می کند،

بهبود تدریجی عملکرد نشان دهنده ارتباط با مهارت زبان LLM است که منعکس کننده الگوی مشاهده شده در انسان است.

این به این معنی است که توانایی‌های مدل‌ها مشابه نحوه دستیابی انسان‌ها به مهارت‌های ToM در حال تکامل است، که نشان‌دهنده یک پیوند اساسی بین درک زبان و شناخت اجتماعی است.

این کشف سوالات عمیقی را در مورد آینده هوش مصنوعی ایجاد می کند. آیا باید مدل های هوش مصنوعی را دارای یک شکل ابتدایی از درک در نظر بگیریم؟

در حالی که برخی ممکن است استدلال کنند که ChatGPT-4 به سادگی نمادها را بدون درک واقعی دستکاری می کند، برخی دیگر این پیشرفت را نشانه ای از شناخت نوظهور در ماشین ها می دانند.

خود کوسینسکی محتاط است:

مهمتر از همه، ما نمی‌خواهیم بحث دهه‌ها در مورد اینکه آیا هوش مصنوعی باید با قابلیت‌های شناختی انسان، مانند ToM، اعتبار داشته باشد، حل و فصل شود. با این حال، حتی کسانی که تمایلی به اعتبار دادن به LLM با ToM ندارند، ممکن است اهمیت ماشین‌ها را درک کنند که گویی دارای ToM هستند.

به عبارت دیگر، صرف نظر از اینکه این توانایی‌ها را ToM «واقعی» در نظر بگیریم، تأثیر عملی هوش مصنوعی که می‌تواند افکار انسان را درک و پیش‌بینی کند، می‌تواند دگرگون‌کننده باشد.

آینده ای که در آن قدم می گذاریم

اگر مدل‌های هوش مصنوعی بتوانند حالات ذهنی را ردیابی کنند، می‌توانند زمینه‌هایی را که نیاز به تعامل انسانی دارند، متحول کنند. به عنوان مثال، دستیارهای مجازی می توانند بسیار بصری تر شوند و تشخیص دهند که کاربر ناامید است یا نیاز به توضیح دارد.

وسایل نقلیه خودران ممکن است ایمن تر شوند و رفتار عابران پیاده را بر اساس حالات ذهنی احتمالی پیش بینی کنند. با این حال، این قابلیت ها پیامدهای اخلاقی نیز دارند.

کوسینسکی هشدار می دهد،

ماشین‌هایی که قادر به ردیابی حالات ذهنی دیگران و پیش‌بینی رفتار آن‌ها هستند، تعامل و ارتباط بهتری با انسان‌ها برقرار می‌کنند.[but this could include] تعاملات منفی – مانند فریب، دستکاری، و آزار روانی.

همانطور که هوش مصنوعی پیشرفته تر می شود، نیاز به تدابیری برای جلوگیری از سوء استفاده و حفظ مرزهای اخلاقی وجود خواهد داشت.

تحقیقات کوسینسکی پیچیدگی روزافزون هوش مصنوعی را برجسته می‌کند و آن را به یک «جعبه سیاه» تشبیه می‌کند که حتی سازندگان آن ممکن است برای درک آن تلاش کنند. او می‌نویسد: «پیچیدگی فزاینده مدل‌های هوش مصنوعی، درک عملکرد و قابلیت‌های آن‌ها را صرفاً بر اساس طراحی آن‌ها چالش‌برانگیز می‌کند. همانطور که ما مغز انسان را برای درک آگاهی و شناخت اجتماعی مطالعه می کنیم، جعبه سیاه هوش مصنوعی ممکن است به تحقیقات علمی خاص خود نیاز داشته باشد که علم کامپیوتر، اخلاق و روانشناسی را در هم می آمیزد.

فراتر از جعبه سیاه

پیچیدگی روزافزون مدل‌های هوش مصنوعی، درک عملکرد و قابلیت‌های آن‌ها را تنها بر اساس طراحی آن‌ها چالش‌برانگیز می‌کند.»

کوسینسکی می نویسد

همانطور که سیستم‌های هوش مصنوعی پیچیده‌تر می‌شوند، درک آنها – حتی برای سازندگان آنها – به طور فزاینده‌ای دشوار می‌شود. ما در حال ورود به دورانی هستیم که مطالعه هوش مصنوعی ممکن است به ابزارهای روانشناسی به اندازه علوم کامپیوتر نیاز داشته باشد. همانطور که مغز انسان را برای درک آگاهی مطالعه می کنیم، ممکن است برای درک ذهن مصنوعی به یک علم جدید نیاز داشته باشیم.

این چه معنایی برای همه ما دارد

مطالعه کوسینسکی ما را دعوت می‌کند تا قابلیت‌های هوش مصنوعی را مورد بازنگری قرار دهیم، به‌ویژه که این هوش مصنوعی فراتر از اعداد خرد کردن صرف پیشرفت می‌کند. تمایز بین ماشین‌هایی که «فکر می‌کنند» و ماشین‌هایی که به نظر می‌رسند این کار را می‌کنند ممکن است به زودی محو شود.

همانطور که آلن تورینگ، یکی از پیشگامان هوش مصنوعی، زمانی مشاهده کرد،

“به جای بحث و جدل مداوم بر سر این موضوع، معمول است که آن همایش مؤدبانه ای داشته باشیم که همه فکر می کنند.”

به طور مشابه، مدل‌های هوش مصنوعی مانند ChatGPT-4 ممکن است ما را ترغیب کنند که یک “قرارداد مودبانه” را اتخاذ کنیم که آنها ما را درک کنند – حتی اگر ذهن آنها با ذهن ما متفاوت باشد.

مسیر پیش رو مستلزم بحث و همکاری متفکرانه بین رشته ها است. همانطور که مطالعه کوسینسکی نشان می دهد، ظهور ToM در مدل های هوش مصنوعی فقط یک دستاورد فنی نیست. این نگاهی اجمالی به آینده ای است که در آن ماشین ها و انسان ها به شیوه هایی که ما تازه تصور می کنیم در تعامل هستند.

پیامدهای آن بسیار گسترده است و زمینه های متنوعی مانند آموزش، مراقبت های بهداشتی، قانون و سرگرمی را تحت تأثیر قرار می دهد. چه بخواهیم هوش مصنوعی را با ToM واقعی اعتبار کنیم یا نه، واقعیت ماشین‌هایی که ما را در سطح جدیدی درک می‌کنند به سرعت نزدیک می‌شود – و همراه با آن، آینده‌ای که اساسی‌ترین فرضیات ما را در مورد هوش، همدلی و معنای آن به چالش خواهد کشید. انسان باش

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/artificial-intelligence/can-ai-understand-our-minds