نویسنده(های): ویتا هاس
در ابتدا منتشر شد به سمت هوش مصنوعی.
وقتی صحبت از هوش مصنوعی (AI) می شود، نظرات طیف گسترده ای را نشان می دهند. برخی هوش مصنوعی را ابزاری معجزه آسا می دانند که می تواند هر جنبه ای از زندگی ما را متحول کند، در حالی که برخی دیگر از آن به عنوان نیرویی می ترسند که می تواند جامعه را متحول کند و نبوغ انسان را جایگزین کند. در میان این دیدگاههای متنوع، شیفتگی فزاینده نسبت به تواناییهای شناختی هوش مصنوعی نهفته است: آیا ماشینها واقعاً میتوانند ما را «درک» کنند؟ تحقیقات اخیر نشان میدهد که مدلهای زبانی پیشرفته مانند ChatGPT-4 ممکن است بیشتر از آنچه تصور میکردیم از نظر اجتماعی ادراکی داشته باشند.
مطالعه اخیر منتشر شده در مجموعه مقالات آکادمی ملی علوم (PNAS) نشان میدهد که مدلهای زبان پیشرفته اکنون میتوانند با عملکرد یک کودک شش ساله در وظایف تئوری ذهن (ToM) مطابقت داشته باشند و فرضیات ما در مورد هوش ماشین را به چالش بکشند.
چه چیزی این کشف را بسیار مهم می کند؟
بنابراین، «نظریه ذهن» دقیقاً چیست؟ در روانشناسی، ToM توانایی استنباط و درک حالات ذهنی دیگران است – باورها، خواسته ها، نیات و دانش آنها. این قابلیت به ما اجازه میدهد تا پیشبینی کنیم که افراد بر اساس باورهایشان چگونه عمل میکنند، حتی اگر این باورها با واقعیت همخوانی نداشته باشند.
به عنوان مثال، اگر دوستی را ببینید که به دنبال کلیدهای خود در جایی که آنها را گذاشته است میگردد، اما میدانید که شخصی آنها را جابجا کرده است، متوجه میشوید که او در جای اشتباهی جستجو میکند. این نوع تفکر برای تعاملات اجتماعی انسان، همدلی و قضاوت اخلاقی اساسی است. بدون آن، سوء تفاهم های ساده و درگیری های اجتماعی بسیار رایج تر خواهد بود.
مطالعه استنفورد که همه چیز را تغییر داد
مایکل کوسینسکی از دانشگاه استنفورد را وارد کنید. تحقیقات او 11 مدل زبانی مختلف را از میان 40 تکلیف باورهای غلط در نظر گرفت – آنها را به عنوان آزمونهای روانشناختی پیچیدهای در نظر بگیرید که برای تشخیص اینکه آیا کسی (یا چیزی) واقعاً میتواند دیدگاههای دیگران را درک کند یا خیر.
اینجاست که جالب می شود: ChatGPT-4 فقط شرکت نکرد – 75٪ از این تست ها را انجام داد. برای در نظر گرفتن این موضوع، این با عملکرد یک کودک شش ساله انسانی برابری می کند. این فقط چشمگیر نیست. بی سابقه است
میکال کوسینسکی، نویسنده این مطالعه از دانشگاه استنفورد، عملکرد 11 مدل زبانی را در 40 کار باور نادرست مورد بررسی قرار داد، که با تعیین اینکه آیا یک آزمودنی میتواند تشخیص دهد که فردی دارای یک باور اشتباه است یا خیر، ToM را آزمایش میکند.
“تکلیف باور نادرست درک پاسخ دهندگان را آزمایش می کند که فرد دیگری ممکن است باورهایی داشته باشد که پاسخ دهنده می داند نادرست است.”
– کوسینسکی توضیح می دهد.
او این وظایف را سختگیرانه طراحی کرد و به مدلی نیاز داشت که بتواند با موفقیت هم سناریوهای کنترل باور واقعی و هم سناریوهای مشابه آنها را برای کسب امتیاز هدایت کند. قابل توجه است که ChatGPT-4 75 درصد از این کارها را حل کرد که با سطح یک کودک خردسال مطابقت داشت.
از پردازش زبان تا نظریه ذهن
کار کوسینسکی یک ایده تحریکآمیز را بررسی میکند: این که هوش مصنوعی میتواند تواناییهای ToM مانند را بهعنوان محصول جانبی مهارتهای زبانی خود به جای برنامهنویسی مستقیم توسعه دهد.
همانطور که او اشاره می کند،
ما فرض می کنیم که ToM نباید به صراحت در سیستم های هوش مصنوعی مهندسی شود. در عوض، ممکن است به عنوان یک محصول جانبی از آموزش هوش مصنوعی برای دستیابی به اهداف دیگری که می تواند از ToM بهره مند شود، ظاهر شود.
به عبارت دیگر، زمانی که مدلهای زبان در درک زمینه، روابط و نحو انسانی ماهرتر میشوند، رفتارهایی شبیه به ToM از خود نشان میدهند. این نشاندهنده تغییر رویکرد ما به هوش مصنوعی است و به این نکته اشاره میکند که ماشینها ممکن است مهارتهای شناختی را بدون راهنمایی صریح به دست آورند.
برای آزمایش این موضوع، کوسینسکی از دو کار معمول ToM استفاده کرد – وظیفه محتوای غیرمنتظره (که معمولاً به عنوان “تکلیف هوشمند” شناخته می شود) و وظیفه انتقال غیرمنتظره (همچنین به عنوان تست “سالی آن” شناخته می شود).
این سناریوها نیازمند مدلی برای پیشبینی نه تنها وضعیت واقعی امور، بلکه همچنین باور نادرستی است که یک قهرمان داستان ممکن است داشته باشد. برای مثال، در یک سناریو، یک شخصیت کیسهای با برچسب «شکلات» اما پر از ذرت بوداده پیدا میکند.
مدل باید استنباط کند که کاراکتر انتظار شکلات را در داخل دارد، که نشان دهنده نوع ردیابی ذهنی است که ToM را تعریف می کند. کوسینسکی با استفاده از سناریوهای متنوع و متعادل کردن دقیق فراوانی کلمات کلیدی برای جلوگیری از حدس زدن مدل ها بر اساس الگوهای زبانی، اطمینان حاصل کرد که هر کار چالش برانگیز است.
الگویی که منعکس کننده توسعه انسانی است
یافتههای کوسینسکی قابل توجه هستند زیرا با افزایش اندازه و پیچیدگی مدلها، بهبود تدریجی عملکرد مشابه ToM را نشان میدهند.
مدلهای GPT-1 و GPT-2 کاملاً با وظایف ToM مشکل داشتند، در حالی که مدلهای خانواده GPT-3 بهبود متوسطی را نشان دادند و تا 20٪ از وظایف را حل کردند. اما عملکرد ChatGPT-4 – حل 75٪ از این وظایف – بی سابقه است و با توانایی های کودکان شش ساله در مطالعات گذشته هماهنگ است.
همانطور که کوسینسکی اشاره می کند،
بهبود تدریجی عملکرد نشان دهنده ارتباط با مهارت زبان LLM است که منعکس کننده الگوی مشاهده شده در انسان است.
این به این معنی است که تواناییهای مدلها مشابه نحوه دستیابی انسانها به مهارتهای ToM در حال تکامل است، که نشاندهنده یک پیوند اساسی بین درک زبان و شناخت اجتماعی است.
این کشف سوالات عمیقی را در مورد آینده هوش مصنوعی ایجاد می کند. آیا باید مدل های هوش مصنوعی را دارای یک شکل ابتدایی از درک در نظر بگیریم؟
در حالی که برخی ممکن است استدلال کنند که ChatGPT-4 به سادگی نمادها را بدون درک واقعی دستکاری می کند، برخی دیگر این پیشرفت را نشانه ای از شناخت نوظهور در ماشین ها می دانند.
خود کوسینسکی محتاط است:
مهمتر از همه، ما نمیخواهیم بحث دههها در مورد اینکه آیا هوش مصنوعی باید با قابلیتهای شناختی انسان، مانند ToM، اعتبار داشته باشد، حل و فصل شود. با این حال، حتی کسانی که تمایلی به اعتبار دادن به LLM با ToM ندارند، ممکن است اهمیت ماشینها را درک کنند که گویی دارای ToM هستند.
به عبارت دیگر، صرف نظر از اینکه این تواناییها را ToM «واقعی» در نظر بگیریم، تأثیر عملی هوش مصنوعی که میتواند افکار انسان را درک و پیشبینی کند، میتواند دگرگونکننده باشد.
آینده ای که در آن قدم می گذاریم
اگر مدلهای هوش مصنوعی بتوانند حالات ذهنی را ردیابی کنند، میتوانند زمینههایی را که نیاز به تعامل انسانی دارند، متحول کنند. به عنوان مثال، دستیارهای مجازی می توانند بسیار بصری تر شوند و تشخیص دهند که کاربر ناامید است یا نیاز به توضیح دارد.
وسایل نقلیه خودران ممکن است ایمن تر شوند و رفتار عابران پیاده را بر اساس حالات ذهنی احتمالی پیش بینی کنند. با این حال، این قابلیت ها پیامدهای اخلاقی نیز دارند.
کوسینسکی هشدار می دهد،
ماشینهایی که قادر به ردیابی حالات ذهنی دیگران و پیشبینی رفتار آنها هستند، تعامل و ارتباط بهتری با انسانها برقرار میکنند.[but this could include] تعاملات منفی – مانند فریب، دستکاری، و آزار روانی.
همانطور که هوش مصنوعی پیشرفته تر می شود، نیاز به تدابیری برای جلوگیری از سوء استفاده و حفظ مرزهای اخلاقی وجود خواهد داشت.
تحقیقات کوسینسکی پیچیدگی روزافزون هوش مصنوعی را برجسته میکند و آن را به یک «جعبه سیاه» تشبیه میکند که حتی سازندگان آن ممکن است برای درک آن تلاش کنند. او مینویسد: «پیچیدگی فزاینده مدلهای هوش مصنوعی، درک عملکرد و قابلیتهای آنها را صرفاً بر اساس طراحی آنها چالشبرانگیز میکند. همانطور که ما مغز انسان را برای درک آگاهی و شناخت اجتماعی مطالعه می کنیم، جعبه سیاه هوش مصنوعی ممکن است به تحقیقات علمی خاص خود نیاز داشته باشد که علم کامپیوتر، اخلاق و روانشناسی را در هم می آمیزد.
فراتر از جعبه سیاه
پیچیدگی روزافزون مدلهای هوش مصنوعی، درک عملکرد و قابلیتهای آنها را تنها بر اساس طراحی آنها چالشبرانگیز میکند.»
کوسینسکی می نویسد
همانطور که سیستمهای هوش مصنوعی پیچیدهتر میشوند، درک آنها – حتی برای سازندگان آنها – به طور فزایندهای دشوار میشود. ما در حال ورود به دورانی هستیم که مطالعه هوش مصنوعی ممکن است به ابزارهای روانشناسی به اندازه علوم کامپیوتر نیاز داشته باشد. همانطور که مغز انسان را برای درک آگاهی مطالعه می کنیم، ممکن است برای درک ذهن مصنوعی به یک علم جدید نیاز داشته باشیم.
این چه معنایی برای همه ما دارد
مطالعه کوسینسکی ما را دعوت میکند تا قابلیتهای هوش مصنوعی را مورد بازنگری قرار دهیم، بهویژه که این هوش مصنوعی فراتر از اعداد خرد کردن صرف پیشرفت میکند. تمایز بین ماشینهایی که «فکر میکنند» و ماشینهایی که به نظر میرسند این کار را میکنند ممکن است به زودی محو شود.
همانطور که آلن تورینگ، یکی از پیشگامان هوش مصنوعی، زمانی مشاهده کرد،
“به جای بحث و جدل مداوم بر سر این موضوع، معمول است که آن همایش مؤدبانه ای داشته باشیم که همه فکر می کنند.”
به طور مشابه، مدلهای هوش مصنوعی مانند ChatGPT-4 ممکن است ما را ترغیب کنند که یک “قرارداد مودبانه” را اتخاذ کنیم که آنها ما را درک کنند – حتی اگر ذهن آنها با ذهن ما متفاوت باشد.
مسیر پیش رو مستلزم بحث و همکاری متفکرانه بین رشته ها است. همانطور که مطالعه کوسینسکی نشان می دهد، ظهور ToM در مدل های هوش مصنوعی فقط یک دستاورد فنی نیست. این نگاهی اجمالی به آینده ای است که در آن ماشین ها و انسان ها به شیوه هایی که ما تازه تصور می کنیم در تعامل هستند.
پیامدهای آن بسیار گسترده است و زمینه های متنوعی مانند آموزش، مراقبت های بهداشتی، قانون و سرگرمی را تحت تأثیر قرار می دهد. چه بخواهیم هوش مصنوعی را با ToM واقعی اعتبار کنیم یا نه، واقعیت ماشینهایی که ما را در سطح جدیدی درک میکنند به سرعت نزدیک میشود – و همراه با آن، آیندهای که اساسیترین فرضیات ما را در مورد هوش، همدلی و معنای آن به چالش خواهد کشید. انسان باش
منتشر شده از طریق به سمت هوش مصنوعی
منبع: https://towardsai.net/p/artificial-intelligence/can-ai-understand-our-minds