طرف تاریک هوش مصنوعی: وقتی نوآوری با بهره برداری روبرو می شود


نویسنده (ها): دکتر شریف علم

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

طرف تاریک هوش مصنوعی: وقتی نوآوری با بهره برداری روبرو می شود
شکل: حتی وقتی این قطعه را در مورد استفاده اخلاقی از داده ها و هوش مصنوعی می نویسم ، تصویر هدر که استفاده کردم از همان نوع است مجموعه داده تمرینی که من نقد می کنم. این تناقض برجسته می کند که چگونه خراش و استفاده مجدد از کار خلاقانه در اکوسیستم دیجیتال ما چقدر تعبیه نشده است.

چگونه قول هوش مصنوعی بر پایه رویاهای دزدیده شده ساخته شده است

“من کاملاً منزجر هستم. من نمی توانم این چیزها را تماشا کنم و آن را جالب می دانم. این یک توهین به خود زندگی است.” -Hayao Miyazaki ، هنگامی که انیمیشن های تولید شده AI نشان داده شده است

آینده بی سر و صدا وارد شد ، نه با فن ، بلکه با نرم و نرم سرورها که اینترنت را خراب می کنند. هر مقاله ای که نوشتید ، هر عکسی که به اشتراک گذاشته اید ، هر اثر خلاقانه ای که روح خود را در آن ریخته اید – همه اینها برداشت شده ، پردازش شده و تبدیل شده است داده های آموزش برای سیستم های هوش مصنوعی که اکنون با سازندگان بسیار خود رقابت می کنند.

آنچه ما شاهد آن هستیم فقط یک انقلاب تکنولوژیکی نیست. این بزرگترین تخصیص غیر مجاز خلاقیت انسان در تاریخ است. و داستانهای موجود در این تحول ، الگوی نگران کننده ای از تضادها را نشان می دهد که خلاء اخلاقی را در قلب رونق AI افشا می کند.

حتی وقتی این قطعه را در مورد استفاده اخلاقی از داده ها و هوش مصنوعی می نویسم ، تصویر هدر که من استفاده کردم از همان نوع شیوه های مجموعه داده است که من نقد می کنم. این تناقض برجسته می کند که چگونه خراش و استفاده مجدد از کار خلاقانه در اکوسیستم دیجیتال ما چقدر تعبیه نشده است.

تناقضاتی که دوران AI ما را تعریف می کند

1. دلهره Hayao Miyazaki: وقتی رویاها به داده می شوند

در مارس 2025 ، اینترنت هنگامی که GPT-4O Openai شروع به تولید تکرارهای تقریباً کامل از آثار هنری استودیو Ghibli کرد ، منفجر شد. اکنون کاربران می توانند تصاویر استودیو Ghibli را در پرواز تولید کنند ، تصاویری که فقط از خانه انیمیشن ذخیره شده الهام گرفته نشده بودند ، اما “ریپ های مستقیم سبک Ghibli” بودند.

ظلم و ستم این پیشرفت هنگامی مشخص می شود که رابطه میازاکی با هوش مصنوعی را درک می کنید. در یک مستند سال 2016 ، هنگامی که انیمیشن های تولید شده توسط AI نشان داده شد ، میازاکی آنها را “توهین به زندگی” خواند و ابراز انزجار کامل خود از این فناوری. این فقط انتقاد زیبایی شناختی نبود – این یک رد اساسی از آفرینش بی روح بود.

با این وجود کار زندگی او در اینجا بود که از اینترنت جدا شده و توسط ماشین آلات مجدداً مورد استفاده قرار نمی گرفت که هیچ چیزی از دهه های اشتیاق دست در پشت هر فریم نمی فهمید. همانطور که Techcrunch خاطرنشان کرد ، “وضعیت غیبلی عصبی به خصوص قوی در بین طرفداران از آنجا که مغز متفکر استودیو ، هایائو میازاکی ، در مورد نفرت خود برای آثار هنری تولید شده AI آواز خوانده است.”

همان هنرمندی که هوش مصنوعی را “توهین به زندگی” خواند ، کار زندگی خود را برای تغذیه دستگاه مورد تحقیر به سرقت برد.

2. وجدان 1.5 میلیارد دلاری آنروپیک

Anthropic ، شرکت پشت کلود AI ، با نویسندگانی که کتابهای آنها بدون اجازه برای آموزش مدلهای هوش مصنوعی خود استفاده می شد ، به 1.5 میلیارد دلار تسویه حساب حیرت انگیز رسید. این شرکت گفته می شود از کتابهای دیجیتالی دزدان دریایی از کتابخانه های سایه مانند کتابخانه پیدایش برای آموزش کلود استفاده کرده است.

شرکتی که براساس اصول ایمنی و اخلاق هوش مصنوعی تأسیس شده است ، محصول پرچمدار خود را بر روی دزدی دریایی ادبی ساخته و سپس بزرگترین تسویه حساب حق چاپ را در تاریخ پرداخت کرده است تا آن را درست کند.

3. هنرمندانی که از خلاقیت های خود شکایت می کنند

کارلا اورتیز ، هنرمند مفهومی در پشت شخصیت های نمادین در Black Panther ، Avengers: Infinity War و Doctor Strange ، خود را در موقعیت سورئال شکایت شرکت های هوش مصنوعی که در کار خودش آموزش دیده بودند ، پیدا کرد. در آگوست سال 2024 ، یک قاضی ادعاهای حق چاپ را توسط هنرمندان علیه ژنراتورهای هنری هوش مصنوعی پیش بینی کرد و از رد ادعاهای نقض خودداری کرد.

گتی تصاویر بیش از 15،000 عکس از کتابخانه خود را در مجموعه داده های آموزشی پایدار Diffusion کشف کرد و منجر به یک دادخواست بزرگ شد. این تصاویر مبهم نبودند – این عکسهای دارای مجوز حرفه ای بودند که بدون اجازه و جبران خسارت استفاده می شدند.

همان آثار خلاقانه ای که این هنرمندان را تأسیس کرد مشاغل برای آموزش جایگزینی آنها استفاده می شد.

4. دنباله شواهد ناپدید شده

شاید نگران کننده ترین داستان مجموعه داده های ناپدید شده Openai باشد. اسناد دادگاه نشان داد كه Openai دو مجموعه داده بزرگ “كتابهای اینترنتی” (كتاب 1 و كتاب 2) را كه برای آموزش GPT-3 استفاده شده بود ، نابود كرد ، با محققانی كه آنها را دیگر در این شركت تهیه نکردند.

این شرکت که از شفافیت هوش مصنوعی دفاع می کند ، شواهدی را که می تواند مشروعیت داده های آموزشی آنها را اثبات کند ، نابود کرد.

5. تاسف خودی

چویر بالاجی ، محقق سابق OpenAi ، علناً از روشهای جمع آوری داده های کارفرمای سابق خود انتقاد کرد و گفت که مدل های آموزش با استفاده از متن اینترنت ، قانون حق چاپ را نقض کرده و به اکوسیستم سازندگان محتوا آسیب می رساند. وی این شرکت را تا حدودی به دلیل این نگرانی های اخلاقی ترک کرد.

افرادی که این سیستم ها را می سازند نتیجه گرفتند که مضر هستند و از آنجا دور شدند.

6. وقتی اخبار “اخبار جعلی” می شود

آژانس خبری هند آنی از Openai شکایت کرد و ادعا کرد نه تنها از محتوای آنها بدون اجازه استفاده شده است ، بلکه این که چتپ گاهی اوقات اخبار ساختگی را به ANI نسبت می دهد. این نشان دهنده شاید موذیانه ترین تضاد همه است.

سیستم های هوش مصنوعی که روی روزنامه نگاری واقعی آموزش دیده اند ، تولید اخبار جعلی را آغاز کردند و آن را به رسانه هایی نسبت دادند که اعتبار آنها را تضعیف می کرد.

7. پارادوکس پرداخت شده

تحقیقات نشان می دهد که GPT-4O به طور غیرمعمول از محتوای کتاب Paywalled O’Reilly ، بسیار بیشتر از مدل های قدیمی ، نشان می دهد که داده های آموزشی ممکن است شامل محتوای بسته یا پرداخت شده تر از OpenAI باشد که به طور عمومی تصدیق شده است.

شرکت هایی که از ما می خواهند برای اشتراک های هوش مصنوعی بپردازیم ، گفته می شود مدل های خود را بر روی محتوایی که قبلاً برای آنها پرداخت می کنیم ، آموزش داده اند.

8. بهانه حریم خصوصی

ایتالیا 15 میلیون یورو برای نقض GDPR جریمه کرد و دریافت که این شرکت داده های شخصی کاربران را بدون ارائه شفافیت کافی یا مبنای قانونی پردازش می کند. این آسیب نظری نبود – اطلاعات خصوصی افراد واقعی در مقیاس گسترده پردازش می شد.

شرکت های هوش مصنوعی قول می دهند زندگی ما را تقویت کنند و در حالی که مخفیانه داده های ما را برای انجام این کار برداشت می کنند.

9. خرابکاری فرهنگی کیت هارینگ

وقتی شخصی از هوش مصنوعی برای “تکمیل” کیت هارینگ به عمد استفاده کرد نقاشی ناتمام، دنیای هنر با وحشت واکنش نشان داد. منتقدین آن را “هراسیت” میراث این هنرمند خواندند. این کار به معنای ناتمام بود – تکمیل آن ، هدف این هنرمند را نقض کرد.

AI فقط هنر را کپی نمی کند. این اساساً معنای پشت آن را اشتباه درک می کند.

10. مجموعه داده هیچ کس نمی خواست ببیند

داده های Laion-5B ، که برای آموزش چندین مدل تصویر AI استفاده می شود ، حاوی پیوندهایی با مواد سوء استفاده جنسی از کودکان و سایر محتوای غیرقانونی بود. این کشف منجر به انتشار نسخه “تمیز” شد ، اما این آسیب ها انجام شد – مدل های AI به طور بالقوه در مورد بدترین محتوای قابل تصور آموزش دیده بودند.

مجموعه داده های قدرتمند ابزارهای “تمیز” ما با تاریک ترین محتوای جامعه آلوده بودند.

سوال واقعی: هوش مصنوعی شما چقدر اخلاقی است؟

این داستانها الگویی را نشان می دهد که فراتر از نقض کپی رایت ساده است. آنها صنعتی را نشان می دهند که بر بی احترامی اساسی به خلاقیت ، حریم خصوصی و رضایت انسان ساخته شده است. اما به عنوان کاربران ، ما هم همدست هستیم. هر بار که از این ابزارها استفاده می کنیم بدون اینکه از ریشه آنها سؤال کنیم ، در این سیستم شرکت می کنیم.

ارزیابی اخلاق هوش مصنوعی: راهنمای کاربر

هنگام استفاده از ابزارهای AI ، از خود بپرسید:

1. ارائه داده ها

  • آیا شرکت به وضوح بیان کرده است که چگونه داده های آموزش آنها به دست آمده است؟
  • آیا آنها محتوا را مجوز داده اند یا به سادگی آن را خراشیده اند؟
  • آیا آنها به سیگنال های امتناع از سازندگان احترام می گذارند؟

2. شفافیت

  • آیا می توانید اطلاعات مفصلی در مورد استفاده از داده ها پیدا کنید؟
  • آیا مسیرهای حسابرسی و اقدامات پاسخگویی وجود دارد؟
  • چگونه آنها اختلافات حق چاپ را کنترل می کنند؟

3. حقوق خالق

  • آیا شرکت با سازندگان محتوا توافق نامه صدور مجوز دارد؟
  • آیا آنها به اشتراک گذاری درآمد با سازندگان اصلی ارائه می دهند؟
  • آیا سازندگان می توانند به راحتی درخواست حذف کار خود را داشته باشند؟

4. حفاظت از کاربر

  • آیا فیلترهای محتوا برای جلوگیری از خروجی های مضر وجود دارد؟
  • آیا می توانید منابع محتوای تولید شده را تأیید کنید؟
  • آیا این ابزار در صورت امکان انتساب مناسب را ارائه می دهد؟

مسیر به جلو

انقلاب هوش مصنوعی قرار بود خلاقیت انسان را تقویت کند ، نه جایگزین آن. این به معنای دموکراتیک کردن دسترسی به ابزارهای قدرتمند بود ، نه اینکه ثروت را در دست چند غول فنی متمرکز کنیم که امپراطوری های خود را بر روی کار دیگران بنا کردند.

هزاران هنرمند اظهاراتی را علیه ضایعات محتوای هوش مصنوعی امضا کرده اند ، از جمله چهره های اصلی مانند هانس هاک و دبورا باترفیلد. جامعه خلاق در حال مبارزه است ، اما آنها به حمایت ما احتیاج دارند.

کاری که می توانید انجام دهید

  1. ابزارهای اخلاقی هوش مصنوعی را انتخاب کنید: از شرکت هایی که به درستی مجوز داده های آموزشی خود را مجوز می دهند پشتیبانی کنید
  2. شفافیت را تقاضا کنید: در مورد نحوه آموزش سیستم های AI سوالات سختی بپرسید
  3. سازندگان پشتیبانی: از سیستم عامل هایی استفاده کنید که به طور عادلانه هنرمندان و نویسندگان را جبران می کند
  4. مدافع تغییر: از قانون مانند هوش مصنوعی قانون افشای حق چاپ
  5. از انتساب استفاده کنید: هنگام استفاده از ابزارهای AI ، خلاقیت انسانی را که ممکن است ممکن کرده باشد تصدیق کنید

خط پایین

دفعه بعد که از یک ابزار AI برای تولید تصویر ، نوشتن متن یا حل یک مشکل استفاده می کنید ، به یاد داشته باشید: شما فقط از یک فناوری خنثی استفاده نمی کنید. شما در اکوسیستم شرکت می کنید که بر روی رویاها ، عرق و خلاقیت میلیون ها انسان ساخته شده است – بیشتر آنها هرگز موافقت نکرده اند که از این طریق کار خود را استفاده کنند.

سوال این نیست که آیا هوش مصنوعی دنیای ما را دگرگون می کند – در حال حاضر. سؤال این است که آیا ما خواهان این هستیم که این تحول بر اساس رضایت ، احترام و انصاف بنا شود یا همچنان به پذیرش این نوآوری است که بهره برداری را توجیه می کند.

“من نمی توانم این چیزها را تماشا کنم و آن را جالب می دانم ،” میازاکی درباره هوش مصنوعی گفت. شاید زمان آن رسیده باشد که ما آن را بسیار جالب از یافتن آن متوقف کنیم و شروع به درخواست چیزی بهتر کردیم.

آینده هوش مصنوعی لازم نیست در رویاهای دزدیده شده ساخته شود. اما تغییر مسیر ما را ملزم می کند تا تضادهایی را که ما مایل به نادیده گرفتن هستیم – تصدیق کنیم – و از سیستم هایی که دنیای ما را شکل می دهند بهتر تقاضا می کنیم.

منابع و منابع

  1. AP News – حل و فصل انسان شناسی
  2. واشنگتن پست – معامله حق چاپ
  3. رویترز – آنی در مقابل اوپای
  4. TechCrunch – استودیوی Ghibli Ai Consorovery
  5. هالیوود ریپورتر – هنرمندان از ژنراتورهای AI شکایت می کنند
  6. روزنامه هنری – بیانیه هنرمندان علیه هوش مصنوعی
  7. Business Insider – Openai مجموعه داده های نابود شده
  8. پیامدهای بعدی – به اشتراک گذاری Ghibli AI را متوقف کنید
  9. Artnet News – هنرمندان از ژنراتورهای AI شکایت می کنند
  10. رصدخانه اینترنتی استنفورد-مطالعه CSAM LAION-5B
  11. 404 رسانه – مجموعه داده های لائون حذف شد
  12. TechCrunch – Laion Cleanted Dataset
  13. Fedscoop – خطرات تحقیقات فدرال Laion
  14. TechPolicy.Press – Laion Original Sin
  15. وبلاگ رسمی Laion-انتشار مجدد LAION-5B

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/machine-learning/the-dark-side-of-ai-when-innovation-meets-exploitation