
کارشناسان سیاست هشدار می دهند شرکت های ممانعت از Openai ، Google و Meta از آموزش AI در مورد مطالب دارای حق چاپ در انگلستان ممکن است کیفیت مدل و تأثیر اقتصادی را تضعیف کنند. آنها می گویند که این امر منجر به تعصب در خروجی های مدل خواهد شد و اثربخشی آنها را تضعیف می کند ، در حالی که افراد راست گلها بعید به نظر می رسد سطح جبران خسارت مورد نظر خود را دریافت کنند.
در دولت انگلستان مشاوره ای افتتاح کرد در دسامبر سال 2024 برای کشف راه های محافظت از حقوق هنرمندان ، نویسندگان و آهنگسازان هنگام استفاده از محتوای خلاق برای آموزش مدل های هوش مصنوعی. این سیستمی را تشریح کرد که به توسعه دهندگان هوش مصنوعی اجازه می دهد از محتوای آنلاین برای آموزش استفاده کنند ، مگر اینکه صریح راست صریح از آن خارج شود.
نهادهای نماینده صنایع خلاق تا حد زیادی این پیشنهاد را رد کردند ، زیرا این امر باعث می شود تا سازندگان به جای نیاز به توسعه دهندگان AI برای رضایت ، محتوای خود را محروم کنند. شرکتهای فنی این امر را دوست ندارد ، با بیان اینکه این سیستم تعیین محتوای قانونی که از نظر قانونی می توانند از آن استفاده کنند ، محدود کردن برنامه های تجاری و نیاز به شفافیت بیش از حد را دشوار می کند.
در طی یک وبینار اخیر که به میزبانی مرکز اندیشکده نوآوری داده ها برگزار می شود ، سه کارشناس سیاست توضیح می دهند که چرا آنها معتقدند هر راه حلی کوتاه از متن کامل و داده های استخراج معافیت در قانون حق چاپ در انگلستان ، خطرات تولید سیستم های هوش مصنوعی ناکارآمد و متوقف کردن نوآوری را نشان می دهد.
رژیم های امتناع ممکن است منجر به AI آموزش دیده ضعیف و درآمد حداقل برای افراد حقوقی شود
بنیامین وایت ، بنیانگذار گروه حمایت از اصلاح حق چاپ در گروه حقوق دانش 21 ، اظهار داشت كه مقررات مربوط به آموزش هوش مصنوعی بیش از صنایع خلاق را تحت تأثیر قرار می دهد و از آنجا كه حق چاپ در زمینه تحریک سرمایه گذاری با حمایت از مالکیت معنوی ، گفت: تأثیر اقتصادی گسترده تر از هرگونه محدودیت نیز باید در نظر گرفته شود. وی گفت: “قوانینی که خوانندگان را تحت تأثیر قرار می دهد بر دانشمندان تأثیر می گذارد ، و قوانینی که پزشکان را تحت تأثیر قرار می دهد ، آهنگسازان را نیز تحت تأثیر قرار می دهد.
وی افزود: جامعه علمی “بسیار نگران چارچوب مشاوره” است و خاطرنشان می کند که از مزایای احتمالی اشتراک دانش در پیشرفت تحقیقات دانشگاهی غافل است ، که به نوبه خود مزایای گسترده ای را برای جامعه و اقتصاد ارائه می دهد.
وایت گفت: “استثناء موجود به دانشگاه ها اجازه نمی دهد داده های آموزش یا داده های تجزیه و تحلیل را با سایر دانشگاه ها در مشارکتهای متناسب به اشتراک بگذارند ، به اعتماد NHS اجازه نمی دهد تا داده های آموزشی حاصل از مطالب دارای حق چاپ مانند مقالات ژورنال یا مطالب را که از وب خارج شده اند به اشتراک بگذارند.”
ببینید: چرا هنرمندان از هنر AI متنفر هستند
Bertin Martens ، همکار ارشد Think Tank Bruegel ، افزود: “من فکر می کنم صنایع رسانه ای می خواهند کیک خود را بخورند و همزمان آن را بخورند. همه آنها از این مدل ها برای افزایش بهره وری خود در این لحظه استفاده می کنند و از مدل های با کیفیت خوب بهره می برند و با نگه داشتن داده های خود برای آموزش ، کیفیت را کاهش می دهند … بنابراین این کاهش را کاهش می دهد.”
اگر توسعه دهندگان هوش مصنوعی فقط با ناشران رضایت بخش یا راست گلها توافق نامه های صدور مجوز را امضا می کردند ، طبق گفته مارتنز ، داده هایی که مدل های آنها آموزش داده می شوند ، کمرنگ می شوند. وی گفت: “واضح است ، حتی شرکت های بزرگ هوش مصنوعی نیز قصد ندارند در آن دم بلند ناشران کوچک مجوزها را امضا کنند.” “این از نظر هزینه معاملات بسیار پرهزینه است ، امکان پذیر نیست ، بنابراین ما با اطلاعات جزئی مدل های مغرضانه می گیریم.”
جولیا ویلمنز ، بنیانگذار پروژه تحقیقاتی سیاست فناوری روز اول انگلستان ، اظهار داشت که رژیم امتناع بعید است در عمل مؤثر باشد ، زیرا حوزه های قضایی با قوانین محدود کننده کمتری هنوز امکان دسترسی به همان محتوا را برای آموزش فراهم می کنند. وی هشدار داد که مسدود کردن دسترسی به خروجی از این حوزه های قضایی در نهایت انگلیس را از بهترین مدل های موجود محروم می کند. او گفت که این “انتشار فناوری” را کند می کند و “اثرات بهره وری منفی” دارد.
ببینید: دولت انگلستان برنامه اقدام AI را منتشر می کند
علاوه بر این ، هنرمندان بعید است از معاملات مجوز هوش مصنوعی درآمد معنادار کسب کنند. ویلمینز گفت: “مشکل این است که هر قطعه داده برای مدل ها ارزش زیادی ندارد ، این مدل ها در مقیاس کار می کنند.” حتی اگر رژیم های صدور مجوز در سطح جهان اجرا شوند و از محتوای حقوقی راست می توان با رضایت صریح قانونی استفاده کرد ، سود اقتصادی برای سازندگان هنوز “احتمالاً بسیار ، بسیار حداقل” خواهد بود. وی گفت: “بنابراین ، ما در حال انجام اثرات اقتصادی در سراسر کشور هستیم که به نظر می رسد بسیار ناچیز است.”
ویلمینز افزود: بیش از حد استفاده از رویکرد حق چاپ در انگلستان ، به عنوان مثال ، نیاز به رژیم های جداگانه برای آموزش هوش مصنوعی در مورد مواد علمی و خلاق ، می تواند عدم اطمینان قانونی را ایجاد کند. این امر باعث بار سنگین شدن دادگاه ها ، جلوگیری از اتخاذ مشاغل و خطر از دست دادن بهره وری هوش مصنوعی می شود. معافیت متن و داده کاوی ، سادگی را تضمین می کند.
بحث و جدال Ghibli Chatgpt خطوط تاری در خلاقیت AI را تحت تأثیر قرار می دهد
بحث در مورد حفاظت از هنری در مقابل نوآوری نیز ماه گذشته در جریان بحث و جدال شامل هنر تولید شده توسط AI به سبک ظاهر شد استودیوی غیبلی، خانه انیمیشن ژاپنی در پشت “Spirited Away” و “همسایه من توتورو”. منتقدین معتقدند كه این خطر را برای تخصیص یک سبک هنری متمایز و بدون اجازه به خطر می اندازد ، و Openai سرانجام مکانیسم امتناع را معرفی كرد كه هنگام تلاش كاربران سعی در تولید تصاویر به سبک یك هنرمند زنده می كند.
پانل با این رویکرد مخالف بود. ویلمینز گفت که سهام شرکت مادر استودیو غیبلی “به وضوح بالا رفته” است زیرا توجه بیشتر باعث می شود افراد بیشتری را به تماشای فیلم های آن سوق دهند. وی گفت: “من احساس می کنم استدلال هایی که AI Slop در واقع نمی خواهد محتوا را به دست بگیرد ، به نوعی دوباره تأیید شده است.” مارتنز موافقت كرد ، و اظهار داشت كه “اگر بسیاری از نگاه های غیبلی وجود داشته باشد كه تولید می شود ، رقابت را در اطراف یك محصول محبوب افزایش می دهد ، و این چیزی است كه باید از آن استقبال كنیم.”
ببینید: تعهدات بریتانیا در بخش عمومی AI تعمیرات اساسی
وایت افزود: کارتون ها با سبک هنری غیبلی توسط بسیاری از استودیوهای مختلف ژاپنی تولید می شوند. وی گفت: “آنها همه افراد با چشمان بزرگ ، غربی به نظر می رسند ، این سبک است.” “این توسط حق چاپ محافظت نمی شود ، آنچه از قانون حق چاپ محافظت می کند ، شباهت اساسی است.”
مارتنز خاطرنشان کرد: چقدر نزدیک یک اثر خاص تولید شده توسط AI می تواند به یک اصل برسد “به دادگاه ها” است ، اما این فقط می تواند به صورت موردی تعیین شود. در نهایت ، پانل موافقت كرد كه مدل ها نباید بتوانند مستقیماً محتوای آموزش را تولید كنند ، اما آموزش در مورد مطالب در دسترس عموم باید مجاز باشد. ویلمینز گفت: “داشتن انعطاف پذیری در نحوه ساخت سیستم ها و نحوه یادگیری فناوری از محتوایی که در دسترس عموم است ، به احتمال زیاد بهترین راه پیش رو است.”
منبع: https://www.techrepublic.com/article/news-uk-ai-copyright-law-policy-experts/