
گرگ نائومی لاتینی کار خود را در چهارراه هوش مصنوعی ، آموزش و سهام اجتماعی گذرانده است ، و بررسی می کند که چگونه فناوری می تواند هنگام پرداختن به نابرابری های سیستمیک ، یادگیری را تغییر دهد. او به عنوان یک مدافع EDTech فراگیر ، هم فرصت ها را برجسته می کند و هم خطرات ارائه شده در آموزش را در آموزش ، از شکاف های دسترسی به تعصب الگوریتمی برجسته می کند. در این مصاحبه ، ولف در مورد چالش های یادگیری عادلانه AI محور ، نقش ساختارهای اجتماعی در فرزندخواندگی و آنچه برای تقویت تنوع در رهبری هوش مصنوعی لازم خواهد بود ، بحث می کند. او همچنین یک دیدگاه جسورانه برای آینده به اشتراک می گذارد – یکی از اقدامات فوری برای اطمینان از AI در خدمت همه زبان آموزان به طور عادلانه.
مصاحبه های بیشتری مانند این را در اینجا کشف کنید: شکل دادن به آینده یادگیری: Esmeralda Baños در مورد تأثیر AI در آموزش در Slidesgo ، شرکت Freepik
کار شما در تقاطع هوش مصنوعی ، آموزش و سهام اجتماعی قرار دارد. چه چیزی در ابتدا شما را به این فضا سوق داده است ، و چگونه دیدگاه شما به عنوان نقش AI در آموزش گسترش یافته است؟
آنچه من را به این فضا سوق داد این یک عقیده اساسی بود که آموزش و پرورش باید یک اکولایزر عالی باشد و من پتانسیل فناوری را برای کمک به سطح بازی بازی دیدم. من به عنوان یک جامعه شناس ، همیشه آموزش دیده ام تا بررسی کنم که چگونه ساختارهای اجتماعی و نیروهای فرهنگی هویت و فرصتهای ما را شکل می دهند. آوردن آن لنز به آموزش و پرورش مانند یک تناسب طبیعی بود.
با افزایش نقش هوش مصنوعی در آموزش ، درک من از پتانسیل و مشکلات آن نیز وجود دارد. به عنوان مثال ، من دیده ام که چگونه سیستم عامل های آنلاین می توانند موانع جغرافیایی و اقتصادی و اقتصادی را تجزیه کنند و به یادگیرندگان از طریق تجربیات در دسترس و جذاب توانمندسازی کنند. اما من همچنین به شدت آگاه شده ام که چگونه AI می تواند ناخواسته تعصبات و نابرابری های سیستمیک را تقویت کند. به همین دلیل من به شدت از شمول فعال در طول چرخه عمر نوآوری – از طراحی گرفته تا اجرای و ارزیابی حمایت می کنم. ما باید در هر مرحله از راه ، سؤالات سختی راجع به سهام عدالت بپرسیم.
به عنوان یک مدافع Edtech فراگیر ، برخی از بزرگترین موانعی که در دستیابی به سهام واقعی در محیط های یادگیری AI محور مشاهده می کنید ، و چه راهکارهایی را برای غلبه بر آنها توصیه می کنید؟
وقتی نوبت به ایجاد محیط های یادگیری واقعاً عادلانه AI می رسد ، چند مانع مهم را می بینم. یکی از مهمترین آنها دسترسی است. بسیاری از دانشجویان ، به ویژه کسانی که از پیشینه های حاشیه نشین یا کم درآمد هستند ، در سواد دیجیتال و دسترسی به فناوری با اختلافات روبرو هستند. بدون اینترنت یا دستگاه های معتبر ، این دانش آموزان اغلب از آن عقب مانده اند ، که فقط شکاف آموزشی موجود را گسترش می دهد.
یکی دیگر از چالش های مهم در هوش مصنوعی ، تعصب در الگوریتم ها است ، زیرا بسیاری از سیستم ها از داده های تاریخی منعکس کننده نابرابری های سیستمیک استفاده می کنند و منجر به نتایج ناعادلانه آموزشی می شوند. این باعث تقویت مضرات گروه های جمعیتی خاص می شود. مسائل اخلاقی نیز بوجود می آیند ، زیرا اتخاذ سریع هوش مصنوعی اغلب فاقد چارچوب های روشن ، ایجاد حریم خصوصی و نگرانی های تعصب است. سرانجام ، همکاری کافی بین مربیان و کارشناسان هوش مصنوعی وجود ندارد ، که مانع ادغام و هماهنگی مؤثر با اهداف آموزشی می شود.
برای غلبه بر این موانع ، من یک رویکرد چند جانبه را توصیه می کنم:
- سرمایه گذاری در توسعه حرفه ای: مربیان را با مهارت های اخلاقی و مؤثر از هوش مصنوعی استفاده کنید.
- تجزیه و تحلیل داده های اهرم: از AI برای ایجاد مسیرهای یادگیری شخصی متناسب با نیازهای دانشجویی استفاده کنید.
- طراحی به صورت فراگیر: ذینفعان متنوع ، از جمله گروه های حاشیه نشین را در توسعه هوش مصنوعی درگیر کنید.
- وکیل مدافع سیاست های متمرکز بر حقوق صاحبان سهام: به مقررات مربوط به اولویت بندی استفاده از هوش مصنوعی اخلاقی و بازنمایی متنوع بپردازید.
در نهایت ، دستیابی به عدالت نیاز به یک رویکرد مشترک و تطبیقی دارد که به همه دانش آموزان احساس می کند که از آنها حمایت و توانمند می شوند.
تحقیقات شما به بررسی پیامدهای اخلاقی هوش مصنوعی در آموزش می پردازد. برخی از تعصبات نادیده گرفته شده در سیستم های یادگیری AI محور چیست ، و چگونه می توان مربیان و توسعه دهندگان برای کاهش آنها همکاری کردند؟
یکی از تعصبات غالباً نادیده گرفته شده است که چگونه نابرابری های اجتماعی می توانند در سیستم های داده های هوش مصنوعی تعبیه شوند ، که سپس در تصمیم گیری آنها تکرار می شود. هوش مصنوعی خنثی نیست – این نشان دهنده مقادیر و تعصبات سازندگان و داده های آن است.
برای پرداختن به این موضوع ، همکاری بین مربیان و توسعه دهندگان مهم است:
- مربیان بینش در مورد نیازهای متنوع زبان آموزان را به دست می آورند و به شناسایی تعصبات احتمالی کمک می کنند.
- توسعه دهندگان می توانند سیستم ها را شفاف تر و پاسخگو تر کنند و به مربیان این امکان را می دهد تا تصمیمات را درک و به چالش بکشند.
به عنوان مثال ، در کار من در زمینه طراحی دوره های فراگیر ، من دیده ام که چگونه ابزارهای هوش مصنوعی مورد استفاده برای ارزیابی دانش آموزان می توانند به دلیل تعصب زبان در الگوریتم ها ، به طور ناخواسته انگلیسی های انگلیسی غیر بومی را ضرر کنند. با همکاری با توسعه دهندگان ، این سیستم می تواند تنظیم شود تا تنوع زبانی را به خود اختصاص دهد و از نتایج عادلانه تر برای همه دانش آموزان اطمینان حاصل کند.
شما یک پروژه کمک هزینه 3 میلیون دلاری را بر روی برنامه های مبتنی بر شواهد برای انتشار ملی هدایت کرده اید. آیا می توانید یک چالش تعیین کننده را که در این ابتکار عمل با آن روبرو شده اید و نحوه پرداختن به آن به اشتراک بگذارید؟
یکی از چالش های تعریف کننده اطمینان از اجرای یکپارچه در 20+ سایت متنوع ، هر یک با زمینه ها و منابع منحصر به فرد بود. برای پرداختن به این موضوع ، ما به ارتباطات واضح ، آموزش کامل و پشتیبانی مداوم متمرکز شدیم.
به عنوان مثال ، من 20+ تیم شریک زندگی را از طریق فرآیند راه اندازی کارگردانی و آموزش دادم و اطمینان حاصل کردم که همه به ابزارهای مورد نیاز مجهز شده اند. ما همچنین معیارهای کلیدی و بررسی داده های هماهنگ را برای رفع چالش های زمان واقعی کنترل کردیم. این یک کار پیچیده بود ، اما دیدن تأثیر مثبت این برنامه بر جوامع ، آن را فوق العاده پاداش بخشید.
کتابهای درسی شما بر رویکردهای محور راه حل ها بر چالش های اجتماعی تأکید می کنند. نمونه ای از بینش دستیابی به موفقیت یا مطالعه موردی از کار شما که تغییر شکل داده است که چگونه مربیان به طراحی دوره فراگیر نزدیک می شوند؟
بله ، در کتاب درسی ، مشکلات اجتماعی و پوشش های نقره ای ، من واقعاً می خواستم تأکید کنم که دانش آموزان فقط ناظران منفعل مشکلات اجتماعی نیستند ، بلکه عوامل فعال تغییر هستند. من می خواستم آنها را توانمند کنم تا خود را به عنوان بخشی از راه حل ببینند.
یکی از بینش های دستیابی به موفقیت که من و امیدوارم که من و امیدوارم سایر مربیان ، به طراحی دوره فراگیر نزدیک شوند ، اهمیت ارتقاء گنجاندن پیشرو در طول چرخه عمر نوآوری است. این کافی نیست که به سادگی محتوای متنوع را اضافه کنید یا به عنوان یک پس از آن به سهام خود بپردازید.
به عنوان مثال ، من در دوره ای کار کردم که دانش آموزان از پیشینه های متنوع را در فرایند طراحی درگیر کردم. ورودی آنها منجر به مطالب فراگیرتر و روشهای تدریس ، افزایش تعامل و میزان موفقیت شد. ما باید از ابتدا در مورد گنجاندن فکر کنیم و اطمینان حاصل کنیم که همه صداها شنیده می شوند و چشم اندازها ارزش دارند.
به عنوان یک سفیر Techmakers Techmakers Google و یک مدافع قوی برای زنان در هوش مصنوعی ، به نظر شما چه تغییراتی برای تقویت شمول جنسیت در رهبری و تحقیقات هوش مصنوعی بسیار مهم است؟
به عنوان یک سفیر Techmakers Google Women ، این موضوع برای قلب من نزدیک و عزیز است. من معتقدم چندین تغییر مهم وجود دارد که ما باید برای تقویت شمول جنسیت در رهبری و تحقیقات هوش مصنوعی ایجاد کنیم:
- اول ، مربیگری و حمایت مالی ضروری است. ما باید فرصت های بیشتری را برای زنان ایجاد کنیم تا با مربیان باتجربه که می توانند راهنمایی و پشتیبانی ارائه دهند ، ارتباط برقرار کنند. ما همچنین باید زنان را ترغیب کنیم که از پیشرفت یکدیگر ، خواه از طریق تبلیغات و یا فرصت های پروژه ، از پیشرفت یکدیگر حمایت کنند.
- دوم ، ما باید شبکه های قوی و حمایتی بسازیم که زنان احساس می کنند تجربیات اشتراک ایمن را احساس می کنند و پشتیبانی می کنند. این شبکه ها می توانند یک زندگی باشند و حس جامعه را فراهم می کنند و به آنچه که گاهی اوقات مانند یک زمینه بسیار منزوی احساس می شود ، تعلق دارد.
- سوم ، ما باید به تعصبات درونی بپردازیم و کلیشه هایی را که زنان را به عقب باز می گرداند ، به چالش بکشیم. این بدان معناست که مکالمه های باز و صادقانه در مورد پویایی جنسیت و همکاری مشترک برای ایجاد یک فرهنگ عادلانه تر.
- سرانجام ، من به استفاده از ابزارهای دیجیتالی برای اتصال و تقویت صدای زنان در فناوری اعتقاد دارم.
و البته ، تأکید بر تقاطع ، به رسمیت شناختن چالش های منحصر به فرد که زنان با پیشینه های متنوع با آن روبرو هستند ، بسیار مهم است. زنان رنگی ، زنان LGBTQ+ و زنان دارای معلولیت ممکن است با موانع اضافی روبرو شوند و ما باید به این تجربیات توجه داشته باشیم.
با پیشینه شما در جامعه شناسی و فناوری ، چگونه می بینید که ساختارهای اجتماعی در پذیرش و اثربخشی هوش مصنوعی در آموزش عالی تأثیر می گذارد و به نظر شما چه تغییرات سیستمی لازم است؟
ساختارهای اجتماعی به طور قابل توجهی پذیرش و اثربخشی AI در آموزش عالی را شکل می دهد. به عنوان مثال ، نابرابری های سیستمیک می تواند به الگوریتم های مغرضانه منجر شود که گروه های خاصی را ضرر می کنند.
برای پرداختن به این ، ما نیاز داریم:
- دسترسی عادلانه: اطمینان حاصل کنید که همه دانش آموزان می توانند بدون در نظر گرفتن پیشینه اقتصادی اقتصادی ، به ابزارهای هوش مصنوعی دسترسی پیدا کنند.
- چارچوب های اخلاقی: دستورالعمل هایی را برای استفاده مسئول از هوش مصنوعی ، پرداختن به تعصب و حریم خصوصی تهیه کنید.
- آموزش سواد دیجیتال: دانش آموزان و مربیان را با مهارت برای حرکت در محیط های AI محور مجهز کنید.
- طراحی فراگیر: برای اطمینان از سیستم های عادلانه ، ذینفعان متنوع را در توسعه AI درگیر کنید.
با پرداختن به تعصبات ، اطمینان از شفافیت و درگیر شدن با همه ذینفعان ، مؤسسات آموزش عالی می توانند ضمن حفظ ارزش اجتماعی و معیارهای اخلاقی ، از پتانسیل هوش مصنوعی استفاده کنند.
با نگاهی به آینده ، پیش بینی جسورانه ای که برای آینده هوش مصنوعی در آموزش و پرورش دارید ، و چه اقداماتی را باید انجام دهیم تا اطمینان حاصل کنیم که آینده هم فراگیر و هم مؤثر است؟
خوب ، پیش بینی جسورانه من در اینجا وجود دارد: هوش مصنوعی پتانسیل انقلابی در آموزش را دارد ، اما همچنین این پتانسیل را دارد که نابرابری های موجود را تشدید کند و سیاره ما را تحت الشعاع قرار دهد. راه حل های هوش مصنوعی باید به نفع همه اعضای جامعه ، به ویژه گروه های کم نماینده باشد. این واقعاً به انتخاب هایی که امروز انجام می دهیم جوش می خورد.
برای اطمینان از اینکه آینده هوش مصنوعی در آموزش و پرورش هم فراگیر و هم مؤثر است ، ما باید:
- توسعه و استقرار مسئول AI را در اولویت قرار دهید. این به معنای پرداختن به تعصب ، محافظت از حریم خصوصی و اطمینان از پاسخگویی است.
- در آموزش سواد دیجیتال و مهارت برای همه زبان آموزان سرمایه گذاری کنید. ما باید همه را تجهیز کنیم که نه تنها از ابزارهای AI بلکه برای درک محدودیت ها و پیامدهای اخلاقی آنها نیز استفاده کنیم.
- همکاری و تقسیم دانش در رشته ها. مربیان ، توسعه دهندگان ، سیاستگذاران و اعضای جامعه باید برای شکل دادن به آینده AI در آموزش همکاری کنند.
- ترویج پایداری. با پیوستن به جوامع اختصاص داده شده به پایداری ، می توانیم قول AI را با تأثیر زیست محیطی آن متعادل کنیم.
در نهایت ، این در مورد اطمینان از این است که هوش مصنوعی زبان آموزان را توانمند می کند ، عدالت را ارتقا می بخشد و دنیایی عادلانه تر و پایدار ایجاد می کند.