#48 ممکن است تفسیرپذیری آن چیزی نباشد که جامعه در هوش مصنوعی به دنبال آن است


نویسنده(های): به سمت تیم تحریریه هوش مصنوعی

در ابتدا منتشر شد به سمت هوش مصنوعی.

صبح بخیر، علاقه مندان به هوش مصنوعی! این هفته، ما در حال بررسی منابع بسیار جالبی در مورد “مشکل جعبه سیاه” هوش مصنوعی، قابلیت تفسیر و تصمیم گیری هوش مصنوعی هستیم. به موازات آن، ما همچنین به چارچوب جدید Anthropic برای ارزیابی خطر خرابکاری مدل‌های هوش مصنوعی در تلاش‌های انسان برای کنترل و ارزیابی آنها می‌پردازیم. اطلاعات بیشتری در مورد RAG، همکاری کارشناسان، و دیگر فرصت‌های همکاری جالب وجود دارد. از خواندن لذت ببرید!

هفتگی هوش مصنوعی چیست

این هفته در نرخ یادگیری بالا، دیگری من خبرنامه، ما به اصول اولیه باز می گردیم و روش محبوب تولید تقویت شده بازیابی (RAG) را بررسی می کنیم که توسط مقاله متا در سال 2020 معرفی شده است. RAG در یک خط به محدودیت های شناخته شده LLM ها مانند عدم دسترسی به موارد جدید پاسخ می دهد. اطلاعات تاریخ و توهم بیایید به این بپردازیم که واقعاً چیست (ساده‌تر از آنچه فکر می‌کنید)، چگونه کار می‌کند و چه زمانی از آن استفاده کنیم (یا نه)!

– لویی فرانسوا بوچارد، بنیانگذار و رئیس انجمن به سوی هوش مصنوعی

اگر به‌روزرسانی بزرگ هفته گذشته را از دست دادید، در اینجا یک یادآوری سریع وجود دارد ساخت LLM برای تولید (ویرایش دوم) اکنون به عنوان یک کتاب الکترونیکی با قیمت انحصاری در دسترس است به سمت آکادمی هوش مصنوعی!

به علاوه، اگر قبلاً نسخه اول را دارید، برای این نسخه دوم کتاب (بعد از سپتامبر 2024) واجد شرایط تخفیف اضافی هستید – فقط کافی است با [email protected] برای ارتقا مقرون به صرفه!

PS ما به زودی یک دوره آموزشی کاملاً عمیق و عملی 90-درسی برای تبدیل “LLM Developer” منتشر خواهیم کرد. این دوره جدید در حال حاضر برای پیش سفارش در جدید ما موجود است به سمت پلتفرم دوره آکادمی هوش مصنوعی.

بخش جامعه هوش مصنوعی را یاد بگیرید!

نظرسنجی هفته هوش مصنوعی!

به نظر می رسد بسیاری از شما در مورد قابلیت های جستجوی وب ChatGPT هیجان زده هستید. من شخصاً در مورد تجربه جستجوی بدون آگهی نیز هیجان‌زده هستم، اما کنجکاو هستم که نظرات شما را در مورد ChatGPT بدانم که به طور خودکار جستجوی وب را براساس آنچه می‌پرسید انتخاب می‌کند. بیایید در تاپیک Discord چت کنیم!

فرصت های همکاری

انجمن Learn AI Together Discord مملو از فرصت های همکاری است. اگر مشتاق هستید که در هوش مصنوعی کاربردی شیرجه بزنید، یک شریک تحصیلی می خواهید، یا حتی می خواهید شریکی برای پروژه اشتیاق خود پیدا کنید، به کانال همکاری بپیوندید! مراقب این بخش نیز باشید – ما هر هفته فرصت های جالبی را به اشتراک می گذاریم!

1. شریشا1573 به دنبال هم تیمی برای مسابقات Kaggle با درک RAG است. اگر در این ماه در دسترس هستید، در نخ وصل کنید!

2. Lazybutlearning_44405 به دنبال یک شریک مطالعه است که می خواهد از طریق پروژه های عملی با استفاده از چارچوب پایتون یاد بگیرد. اگر این رویکرد یادگیری را ترجیح می دهید، در تاپیک دراز کنید!

میم هفته!

یک فریاد ویژه به ghost_in_the_machine برای تقریباً به تنهایی فعال نگه داشتن کانال میم!

بخش سرپرستی TAI

مقاله هفته

تصمیم گیری مبتنی بر هوش مصنوعی: مقایسه فرآیند تصمیم گیری مارکوف و یادگیری تقویتی توسط شنگانگ لی

این مقاله کاربرد فرآیندهای تصمیم گیری مارکوف (MDP) و یادگیری تقویتی (RL) را در تصمیم گیری، به ویژه با تمرکز بر انتخابات ریاست جمهوری 2024 ایالات متحده بررسی می کند. تفاوت‌های بین MDP و RL را روشن می‌کند و نشان می‌دهد که چگونه می‌توان از آنها برای بهینه‌سازی استراتژی‌های کمپین استفاده کرد و یک تفکیک گام به گام از نحوه مدل‌سازی تصمیم کمپین با استفاده از MDP، از جمله نمونه‌های کد برای تکرار ارزش و تکرار خط‌مشی ارائه می‌دهد. سپس Q-learning، نوعی RL را معرفی می کند و کاربرد آن را در یک سناریوی کمپین شبیه سازی شده نشان می دهد. همچنین راه‌هایی را برای بهبود استراتژی‌های تصمیم‌گیری از طریق تکنیک‌هایی مانند ماتریس‌های انتقال پویا، MDP‌های چند عاملی و یادگیری ماشینی برای پیش بینی

مقالاتی که باید حتما بخوانید

1. ایجاد هوش مصنوعی قابل اعتماد: تفسیرپذیری در مدل‌های بینایی و زبانی توسط روهان ویج

این مقاله به بررسی چالش های هوش مصنوعی می پردازد جعبه سیاه مشکل و نیاز به تفسیر پذیر یادگیری ماشینی در بینایی کامپیوتر و مدل های زبان بزرگ. خطرات استفاده از سیستم‌های هوش مصنوعی جعبه سیاه در برنامه‌های کاربردی مهم را برجسته می‌کند و تکنیک‌هایی مانند LIME و Grad-CAM را برای افزایش شفافیت مدل مورد بحث قرار می‌دهد. این مقاله استدلال می‌کند که اگرچه تفسیرپذیری ارزشمند است، اما اعتماد جامعه به هوش مصنوعی ممکن است با ساختن سیستم‌هایی که بیشتر شبیه انسان عمل می‌کنند، نشان‌دهنده یکنواختی و انتساب منبع مانند LLM با نسل افزوده‌شده بازیابی (RAG) و تأکید بر ویژگی‌های انسان‌مانند به جای توضیح‌پذیری خالص، بهتر مورد استفاده قرار گیرد. ، نشان دهنده تغییر در تعاملات ما با هوش مصنوعی به سمت یک رابطه شهودی تر و مبتنی بر اعتماد است.

2. CCoE: رویکردی به تسلط بر دامنه های متعدد با LLM توسط مانپریت سینگ

این مقاله چارچوبی به نام همکاری کارشناسان (CCoE) را بررسی می کند که به محدودیت های LLM های فعلی در حوزه های تخصصی می پردازد. CCoE یک LLM همه منظوره (مدل ستون فقرات) را با مدل های متخصص کوچکتر و تخصصی که برای زمینه های خاص آموزش دیده اند ترکیب می کند. این به مدل ستون فقرات اجازه می دهد تا در صورت نیاز از مدل های خبره استفاده کند و دقت بالاتری را بدون قربانی کردن دانش عمومی یا نیاز به آموزش مجدد گسترده به دست آورد. این رویکرد کارآمدتر، مقیاس پذیرتر و انعطاف پذیرتر است و آن را برای توسعه هوش مصنوعی آینده امیدوار می کند.

3. تحقیقات جدید Anthropic نشان می دهد که مدل های هوش مصنوعی می توانند ارزیابی های انسانی را خراب کنند توسط خسوس رودریگز

این مقاله ارزیابی‌های خرابکاری Anthropic را بررسی می‌کند، چارچوبی که برای اندازه‌گیری پتانسیل مدل‌های هوش مصنوعی برای تضعیف نظارت انسانی طراحی شده است. خطرات خرابکاری کلیدی، مانند توانایی مدل برای عمل مستقل، پنهان کردن اقدامات مضر و معرفی آسیب‌پذیری‌ها را با سناریوهای شبیه‌سازی شده برای آزمایش خرابکاری در زمینه‌هایی مانند کج‌کردن تحقیقات، تصمیم‌های گمراه‌کننده، و درج نقص‌های امنیتی پنهان، تعریف می‌کند. همچنین توضیح می‌دهد که آزمایش‌های اولیه روی مدل‌های کلود توانایی‌های خرابکاری اولیه را نشان می‌دهد و به نیاز به استراتژی‌های نظارتی پیشرفته با تکامل و پیچیده‌تر شدن قابلیت‌های هوش مصنوعی اشاره می‌کند.

4. با استفاده از Pytesseract و Gemini API یک OCR و ترجمه چند زبانه بسازید توسط نویسنده محبوب

این مقاله شما را در ساخت یک OCR چند زبانه و برنامه ترجمه با استفاده از Pytesseract و Gemini API راهنمایی می کند. این شامل نصب Tesseract، Pillow و Pytesseract برای استخراج متن از تصاویر و استفاده از Gemini API برای ترجمه با مهندسی سریع است. همچنین ادغام این ویژگی‌ها را در یک برنامه Streamlit نشان می‌دهد، به کاربران امکان می‌دهد تصاویر را آپلود کنند، زبان‌ها را انتخاب کنند، متن استخراج‌شده را مشاهده کنند، و ترجمه‌ها را دانلود کنند، و تجربه‌ای تعاملی و کاربرپسند برای OCR و ترجمه چند زبانه ایجاد کنند.

اگر علاقه مند به انتشار با Towards AI هستید، دستورالعمل های ما را بررسی کنید و ثبت نام کنید. اگر کار شما با خط مشی ها و استانداردهای ویرایشی ما مطابقت داشته باشد، ما آن را در شبکه خود منتشر خواهیم کرد.

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/artificial-intelligence/48-interpretability-might-not-be-what-society-is-looking-for-in-ai