Grok-2 جنجال ایجاد می کند. واکنش های تخصصی


عملیات هوش مصنوعی ایلان ماسک xAI هفته گذشته آخرین نسخه چت بات خود، Grok-2 را به صورت بتا برای کاربران ممتاز X (توئیتر سابق) منتشر کرد. مانند برخی از سیستم های رقیب، اکنون دارای قابلیت تولید تصویر مبتنی بر سریع است.

کاربران به سرعت توانایی‌های آن را آزمایش کردند و به زودی متوجه شدند که فاقد نرده‌های محافظ محصولات رقیب است. آنها قادر به ایجاد دیپ‌فیک از افراد واقعی، از جمله موسیقی‌دانان و سیاستمداران در موقعیت‌های سازش‌آور بودند. یکی این ایده ها را ترکیب کرد و تصویری از ازدواج دونالد ترامپ با تیلور سویفت و دیگری سوئیفت با کلاه MAGA ایجاد کرد.

همچنین با حق چاپ سریع و آزاد پخش شد و تولید تصاویر خشونت آمیز و مستهجن را فعال کرد. میکی موس در حالی که سیگار می کشید و الکل می نوشید در حالی که یک ابر قارچ هسته ای پشت سرش منفجر شد و پیکاچو در حالی که یک AK-47 حمل می کرد به تصویر کشیده شد.

و در حالی که ماسک این انتشار را با تصاویری چاپلوس کننده از خود به عنوان یک گاوچران و ژست گرفتن با کت چرمی تبلیغ می کرد، برخی از کاربران آن را علیه او قرار دادند و او را به عنوان اضافه وزن یا در حال بوسیدن ترامپ نشان دادند.

در مقابل، ابزارهای رقیب مانند Gemini گوگل با به تصویر کشیدن چهره های سفیدپوست تاریخی مانند پدران بنیانگذار سربازان آلمانی دوران نازی به عنوان رنگین پوستان، تعصبات را بیش از حد جبران کردند.

در اینجا کارشناسان در مورد اینکه چه اشتباهی رخ داده است و اینکه آیا می توان به تعادل سالم در تولید تصویر هوش مصنوعی دست یافت، بررسی می کنند.

مرتبط:Musk xAI Grok-2، نسخه مینی با مهارت‌های استدلالی بهبود یافته را راه‌اندازی کرد

رایان ویت، معاون امور عمومی در Think Big

فقدان حفاظ های تعدیل محتوا در Grok مسائل اخلاقی و حقوقی قابل توجهی را نشان می دهد. کارشناسان حقوقی و مدافعان حقوق مدنی استدلال می کنند که Grok یکی از بی پرواترین پیاده سازی های هوش مصنوعی است. ایجاد بی‌هوده تصاویر بالقوه مضر، X را در برابر مسئولیت‌های قانونی بزرگ باز می‌کند. چنین تصاویری به راحتی می توانند به عنوان اطلاعات نادرست، آزار جنسی یا نقض حق چاپ طبقه بندی شوند.

پرچم‌های قرمز قانونی به تنهایی ارزیابی مجدد پروتکل‌های تعدیل محتوای Grok را تضمین می‌کنند. چیزی که این موضوع را عجیب‌تر می‌کند، انتقاد شدید الون ماسک از هوش مصنوعی و مشکلاتی است که محصول هوش مصنوعی او در ایجاد آن مقصر است. می توان فکر کرد که ماسک در مورد هر چیزی که به هوش مصنوعی مربوط می شود بسیار محتاط است.

Grok قابل تعمیر است، اما احتمالاً نیاز به خاموش کردن آن برای ابزار جدید دارد. رفع نیاز به تنظیمات تکنولوژیکی و تغییر در فلسفه اساسی چگونگی توسعه و استقرار این ابزارها دارد.

اجرای فیلترهای محتوای بهتر، بهبود سیاست های تعدیل و اطمینان از شفافیت در نحوه آموزش و استفاده از هوش مصنوعی می تواند برخی از خطرات Grok را کاهش دهد. با این حال، این احتمالاً یک فرآیند پیچیده و مداوم خواهد بود که شامل همکاری بین فن‌آوران، اخلاق‌شناسان و سیاست‌گذاران است.

مرتبط:ربات چت هوش مصنوعی ماسک به دلیل به اشتراک گذاری اطلاعات نادرست انتخابات زیر آتش است

جی دی هریمن، شریک در گروه حقوقی بنیاد

Grok و Gemini دو تولید کننده تصویر هوش مصنوعی هستند که تصاویر بحث برانگیزی تولید می کنند اما به دلایل اشتباه. از هر دو ژنراتور می توان برای ایجاد تصاویر نادرست و گمراه کننده استفاده کرد، Gemini به دلیل فیلتر زیاد و Grok به دلیل فیلتر بسیار کم.

Gemini این خبر را در ابتدای سال 2024 به دلیل تولید تصاویر غیرمحتمل تاریخی، اگر نگوییم کاملاً نادرست، به دلیل فیلتر بیش از حد اصلاحی که برای جلوگیری از مشکلات تعصب نژادی شناخته شده با هوش مصنوعی طراحی شده بود، منتشر کرد. در مقابل، کاربران Grok تقریباً هیچ فیلتری غیر از پورن سخت هسته‌ای را در Grok Generator شناسایی نکرده‌اند. در نتیجه، کاربران Grok تصاویری آشکار از سیاستمداران و شخصیت‌های عمومی که درگیر رفتار توهین‌آمیز هستند، ساخته‌اند.

بهترین مکان برای خط کشی برای تولیدکنندگان تصویر هوش مصنوعی کجاست؟ خواه خود ژنراتور فیلتر داشته باشد، تصاویر تولید شده در حال حاضر تحت نظارت قانونی قرار دارند. نقض حق نسخه‌برداری، نقض علامت تجاری، افترا، تحریک و سایر راه‌حل‌های حقوقی کاملاً در دسترس است تا بر روی تصاویر تولید شده توسط مولد Grok اعمال شود. ممکن است اجرای سیاست حذف برای Grok، مشابه YouTube، دشوار باشد، زیرا Grok فقط تصاویر را ایجاد می کند و آنها در جای دیگری پست می شوند.

اجرا و اجرای گاردریل های اخلاقی دشوارتر است. یکی از تکنیک‌هایی که OpenAI استفاده می‌کند، واترمارک روی تمام تصاویر تولید شده است. این واترمارک حداقل می‌تواند به بینندگان این امکان را بدهد که بدانند آیا یک تصویر تولید شده توسط هوش مصنوعی را می‌بینند یا خیر و شک و تردید خود را به رخ می‌کشد. خوب است که یک واترمارک مخفی داشته باشید که به سختی حذف شود تا امکان بررسی مناسب تصاویر برای کاهش خطر آسیب وجود داشته باشد.

مت حسن، بنیانگذار و مدیر عامل شرکت airresults

Grok، سیستم هوش مصنوعی پیشرفته xAI، با مناقشات قابل توجهی مواجه شده است، به ویژه در مورد دستکاری و تولید تصاویر. به عنوان مثال، مواردی وجود داشته است که از Grok برای ایجاد تصاویر فوق واقعی اما کاملاً ساختگی استفاده شده است که منجر به انتشار اطلاعات نادرست و افترا می شود. چنین سوء استفاده‌ای، فقدان حفاظ اخلاقی و قانونی سیستم را برجسته می‌کند، و نگرانی‌هایی را در مورد احتمال سوءاستفاده در ایجاد رسانه‌های گمراه‌کننده یا نقض مالکیت معنوی ایجاد می‌کند.

فقدان مکانیسم‌های نظارتی قوی به این معنی است که محتوای مضر یا غیراخلاقی می‌تواند بدون کنترل تکثیر شود. برای کاهش این مشکلات، اجرای سیاست‌های تعدیل محتوا، توسعه ابزارهای تشخیص پیشرفته برای شناسایی تصاویر دستکاری شده و ایجاد چارچوب‌های قانونی واضح برای محتوای تولید شده توسط هوش مصنوعی، گام‌های حیاتی هستند. همچنین، تقویت شفافیت در توسعه هوش مصنوعی و تشویق استانداردهای کل صنعت می‌تواند به اطمینان از استفاده مسئولانه و اخلاقی از چنین فناوری‌هایی کمک کند.

شاشی بلامکوندا، مدیر تحقیقات اصلی در گروه تحقیقاتی اطلاعات فناوری

ارائه دهندگان مدل زبان بزرگ هوش مصنوعی (LLM) با یک معضل روبرو هستند. اگر محدود کننده باشند، کاربران آنها را هیجان‌انگیز نمی‌دانند و اگر محدود نیستند، با جنجال و خشم مواجه می‌شوند. گروک می‌خواهد با فلسفه آزادی بیان و افزایش نوآوری ایلان ماسک محدود نباشد. تولید تقلبی نه نوآورانه است و نه قانونی. مگر اینکه این شرکت‌ها جنبه‌های خلاقانه‌شان را خود پلیسی کنند، اعتماد به هوش مصنوعی به ضرر شرکت‌های هوش مصنوعی که با هوش مصنوعی تحلیلی و پیش‌بینی‌کننده کار خوبی انجام می‌دهند، کاهش می‌یابد.

از آزمایشات من، تصاویر ایجاد شده توسط Grok نماینده هستند اما همیشه دقیق نیستند و یک کاربر باهوش می تواند آنها را جعلی تشخیص دهد. کامالا هریس درست کردن دوسا نمونه ای از آن است.

Kamala_Harris_makes_Dosa_Grok_image.png

راب روزنبرگ، وکیل در سطح اجرایی و استراتژیست دیجیتال برای رسانه ها، استریمینگ، پلتفرم های توسعه، قانون مالکیت معنوی و هوش مصنوعی

گروک تلاش می‌کند تا خود را از سایر مدل‌های هوش مصنوعی متمایز کند و خود را اعلام کند که «یک دستیار جستجوی هوش مصنوعی با طنز و طنز و شورش». می‌خواهد به شما در پرسش‌های جستجویتان کمک کند و در عین حال شما را «سرگرم و درگیر» نگه دارد. اهداف بزرگ، تا زمانی که محتوای تولید شده توسط مدل کاربران را تحقیر، کلاهبرداری یا اطلاعات نادرست نکند.

برخلاف سایر پلتفرم‌ها که تصاویر تولید شده توسط هوش مصنوعی خود را با واترمارکی که آن‌ها را مشخص می‌کند برچسب‌گذاری می‌کنند، Grok نتایج تصویر خود را به‌گونه‌ای برچسب‌گذاری نمی‌کند که در مشتریان پایین‌دستی به منشأ آن‌ها اشاره کند. این چنین مشتریان پایین دستی را در معرض خطر گمراه شدن قرار می دهد – این گونه تصاویر را به عنوان واقعی و نه عمیق تعبیر می کنند. کسانی که در Grok تصاویر ایجاد می کنند ممکن است بدانند که قصد دارند طنز باشند، اما وقتی این تصاویر به طور گسترده به اشتراک گذاشته می شوند، مصرف کنندگان ناآگاه ممکن است متوجه نشوند که آنها توسط هوش مصنوعی تولید شده اند.

حرکتی به سمت حفاظت بیشتر برای مصرف کنندگان به جای کمتر وجود دارد. قانون بدون جعل، یک قانون دو حزبی که حمایت گسترده ای از سوی استعدادها، صنعت و گروه های مصرف کننده به دست می آورد، با هدف محافظت از مردم در برابر ایجاد و به اشتراک گذاری تصاویر عمیق جعلی است. حامیان این لایحه امیدوارند تا قبل از پایان سال 2024 شاهد تبدیل آن به قانون باشند. با فرض اینکه قانون ممنوعیت تقلبی به قانون تبدیل شود، تصور می‌کنم که گروک مجبور خواهد شد دستورالعمل‌های مسئولانه‌ای را مطابق با این قانون جدید وضع کند.

ادوارد تیان، مدیر عامل شرکت GPTZero

Grok ثابت کرده است که می تواند تصاویر اخلاقی مشکوک و نامناسب ایجاد کند. شخصیت‌های عمومی در صحنه‌های خشونت و تحقیر به تصویر کشیده شده‌اند، بدون اینکه اجازه استفاده از شباهت‌هایشان را به این شکل بدهند. و از آنجایی که سواد رسانه ای به طور گسترده وجود ندارد، مطمئناً افراد زیادی هستند که این تصاویر را خواهند دید و فوراً واقعی بودن آنها را باور خواهند کرد. بنابراین، اگر به زودی اقدامات قانونی انجام شود، تعجب نخواهم کرد.

Grok_prompt_screen.png

مارک مک‌ناسبی، یکی از بنیان‌گذاران و مدیرعامل Ivy.ai

در رقابت برای نوآوری، حتی امیدوارکننده‌ترین فناوری‌ها نیز می‌توانند در صورت بکارگیری زودهنگام دچار تزلزل شوند. مناقشات اخیر پیرامون هوش مصنوعی Grok Elon Musk بر یک مسئله حیاتی تأکید می کند – خطر تکیه بر مدل های هوش مصنوعی نابالغ برای اطلاعات پرمخاطره. اعتراف صریح ماسک به دوران نوزادی گروک، در کنار جاه‌طلبی او برای اینکه هوش مصنوعی مظهر حقیقت باشد، دوگانگی مهم در توسعه هوش مصنوعی را برجسته می‌کند.

با نگاهی به آینده، با تکامل چشم انداز دیجیتال، نیاز به سیستم های قوی برای تأیید و تأیید اطلاعات بیش از پیش ضروری می شود. حوادث گروک پیچیدگی تنظیم دقیق مدل‌های مقیاس بزرگ و اهمیت فوق‌العاده دقت در خروجی‌های هوش مصنوعی را نشان می‌دهد. با چشم انداز فناوری به پویایی همیشه، آنچه امروز وجود دارد ممکن است فردا تغییر کند. این سیال بودن مدل‌های هوش مصنوعی را ایجاب می‌کند که نه تنها پیشرفته باشند، بلکه برای صحت واقعی نیز به دقت تأیید شده باشند.

مارک بیدلز، مدیر عامل و یکی از بنیانگذاران rTriibe

توانایی Grok برای تولید تصاویر بحث برانگیز و از نظر قانونی مشکوک، شکاف هشدار دهنده در مقررات هوش مصنوعی را برجسته می کند.

بدون چارچوب یا دستورالعمل‌های روشن، این ابزارهای قدرتمند در معرض سوء تعبیر و سوء استفاده قرار می‌گیرند و منظره‌ای را ایجاد می‌کنند که در آن نوآوری می‌تواند به راحتی به تخلف تبدیل شود.

فقدان نظارت نه تنها باعث ایجاد بازی ناپسند می‌شود، بلکه بر نیاز فوری به قوانین جامع برای هدایت میدان‌های مین اخلاقی و قانونی خلاقیت مبتنی بر هوش مصنوعی تأکید می‌کند.”

ریک بنتلی، بنیانگذار و آبهیک سرکار، مدیر یادگیری ماشین در کلوداستراچرچر

شباهت های تاریخی بین رویکرد امپراتوری عثمانی به چاپخانه و سیستم هوش مصنوعی بسته مدرن وجود دارد. در قرن پانزدهم، امپراتوری عثمانی که نسبت به پتانسیل چاپخانه برای گسترش مخالفت و به چالش کشیدن قدرت محتاط بود، استفاده از آن را به شدت محدود کرد. این تصمیم، در حالی که برای حفظ ثبات اجتماعی در نظر گرفته شده بود، در نهایت مانع از پیشرفت فکری و فناوری در داخل امپراتوری شد.

امروز، ما شاهد پویایی مشابهی در حوزه هوش مصنوعی هستیم. سیستم‌های هوش مصنوعی بسته که به شدت توسط شرکت‌ها یا دولت‌ها کنترل می‌شوند، بازتاب رویکرد عثمانی هستند. این نهادها اغلب سیاست های محدودکننده خود را با ذکر نگرانی در مورد سوء استفاده احتمالی، خطرات امنیتی یا نیاز به حفظ مزیت های رقابتی توجیه می کنند. با این حال، این رویکرد سوالات مهمی را در مورد نوآوری، پیشرفت اجتماعی و توزیع عادلانه مزایای تکنولوژیکی مطرح می کند.

همانطور که دسترسی به فناوری چاپ منجر به چاپ غیرقانونی پول توسط همه نمی شود، دسترسی به فناوری هوش مصنوعی نیز ذاتاً منجر به نتایج منفی نمی شود. به جای تمرکز صرف بر مقررات برای جلوگیری از سوء استفاده احتمالی از هوش مصنوعی، یک استدلال قوی برای اولویت دادن به نوآوری، به ویژه در حوزه فناوری های تشخیص و تأیید وجود دارد، به طوری که تنها تعداد انگشت شماری از افراد از آن سوء استفاده نکنند.

بحث این نیست که آیا قابل تعمیر است یا خیر، بلکه باید «تعمیر» شود؟ اکثر قانونگذاران در مورد فناوری های پیشرفته ای مانند هوش مصنوعی هیچ چیز هوشمندانه ای برای گفتن ندارند. ما یک جامعه سرمایه داری هستیم و نیروهای بازار ما را فراتر از درک تاریخی بشر ثروتمند ساخته اند. بدترین کاری که می‌توانیم برای یک فناوری نوپا انجام دهیم این است که اجازه دهیم ترس‌آفرینی ما را از آزادی‌هایمان سلب کند و سپس ما را از تمام مزایای اجتماعی که از انقلاب فناوری بعدی به دست می‌آوریم محروم کند – یا بدتر از همه، آن را فقط برای شرکت‌های بزرگ در دسترس قرار دهیم. که می توانند از عهده مقررات برآیند.

در Cloudastructure، ما در حال حاضر از Grok برای ایجاد تصاویر مصنوعی برای کمک به آموزش سیستم خود برای شناسایی اسلحه در فیدهای نظارت تصویری استفاده می کنیم. تشخیص اسلحه به وضوح یک مسئله ایمنی عمومی است و ما مفتخریم که در این فناوری پیشگام هستیم. با این حال، برای مثال، یافتن ویدیویی از اسلحه‌هایی که در مراکز خرید استفاده می‌شوند، سخت است، و در جایی که چنین فیلم‌هایی وجود دارد، به حق، تردیدهای اخلاقی در مورد استفاده از آن داده‌ها برای آموزش وجود دارد – فیلم واقعی از تیراندازی‌های واقعی با قربانیان واقعی. داشتن سیستم هایی مانند Grok و اجازه دادن به آنها برای رشد بدون تداخل به محافظت از عموم کمک می کند.

همانطور که پدرم می گوید، اگر خراب نیست، آن را تعمیر نکنید.





منبع: https://aibusiness.com/chatbot/grok-2-generates-controversy-expert-reactions

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *