
با یک فیلم شروع می شود.
یک سیاستمدار ادعا می کند که هرگز نگفتند.
مشهور تأیید محصولی که هرگز از آنها استفاده نکرده است.
یکی از دوستان در حال ارسال یک یادداشت صوتی است که … احساس می کند.
اما هیچ درخشش وجود ندارد. هیچ سرنخ آشکاری جعلی نیست.
فقط پیکسل ها. بی عیب و نقص بدون اصطکاک داستان
به دوران Deepfake ، جایی که مصنوعی است خوش آمدید رسانه ها دیگر یک تازگی نیست بلکه الف خطر روشن و در حال حاضربشر در دنیایی که دیدن دیگر باور ندارد ، قوانین اعتماد ، حقیقت و پاسخگویی در زمان واقعی بازنویسی می شوند.
آسیب واقعی است ، حتی اگر جعلی در معرض دید قرار گیرد
“حتی تقلبی های اصلاح شده می توانند از طریق تأثیر تأثیرگذاری ، به شهرت آسیب برساند.”
– بن اسپیندت
در تأثیر ادامه تأثیر (CIE) یعنی مردم هنوز هم به اطلاعات نادرست اعتقاد دارند – حتی پس از آنکه از بین برود. این همان چیزی است که Deepfakes را منحصر به فرد خطرناک می کند: آسیب همچنان ادامه دارد، مدتها پس از رسیدن حقیقت.
برای دوک، مقررات باید مستقیم و غیر سازنده باشد:
- Deepfakes ساخته شده بدون رضایت قانونی را حذف کنید
- پاسخگویی را برای سازندگان و توزیع کنندگان اعمال کنید
- علامت گذاری دیجیتالی را درست کنید اجباری
- مجرمان تکرار را با مجازات مجازات کنید عواقب تشدید کننده
“بهترین پاسخ اخلاقی ، تشخیص خودکار ، جریمه ها و مجازات های تشدید شده است … به ویژه برای سازندگانی که علامت های سفید را از بین می برند.”
رضایت ، هویت و عوارض عاطفی
“این برای سرگرمی نیست … بسیار خطرناک است.”
– جاروود تئو
جاروود تئو از بارگذاری هر شباهت خود خودداری می کند. هیچ سلفی های هوش مصنوعی، بدون فیلتر ، بدون ضبط صدا. حتی حرکاتی مانند انگشت شست را می توان سلاح کرد. در عصری که تصویر شما را می توان در مقیاس کلون کرد ، هویت آسیب پذیری می شودبشر
در ضمن ، Srinivas Chippagiri می بیند بالقوه از Deepfakes – برای تقویت آموزش ، دسترسی و داستان پردازی خلاق – اما فقط با رضایت وت طراحی اخلاقیبشر
“در دنیایی که دیدن دیگر اعتقاد ندارد ، تعریف مجدد اعتماد به محتوای دیجیتال ضروری می شود.”
نسخه وی شامل موارد زیر است:
- حفاظت از توسعه دهنده
- تشخیص سطح بسترهای نرم افزاری
- مسئولیت مشترک در سراسر اکوسیستم
- هوش مصنوعی که فقط ایجاد نمی کند ، بلکه دفاع می کند در برابر سوء استفاده
زیرساخت ها ، سیستم عامل ها و نیاز به نگهبان های جدید
همانت سونی زنگ هشدار را برای سیستم های مخابراتی و سازمانی افزایش می دهد: کلاهبرداری صوتی و تصویری سطوح حمله در حال رشد است. راه حل؟ تشخیص ناهنجاری AI محور، اعتبار سنجی بیومتریک و سیستم هایی که نه فقط پیام ها را تأیید می کنند بلکه هویت را تأیید می کنند.
دیمترو ورنر این نیاز را در سطح زیرساخت ها تکرار می کند. تمرکز او: چهره اثبات رمزنگاریبا استانداردهای برچسب زدنوت تأیید شخص ثالثبشر
“مردم اعتماد خود را از محتوای بصری به هویت ضامن می دهند.”
وی به ابتکارات دنیای واقعی مانند ابتکار عمل اصالت محتوای Adobe اشاره می کند ، که ابرداده رمزنگاری را برای تأیید در منبع به محتوا اضافه می کند.
چه کسی مسئول است؟ همه
“مسئولیت Deepfakes باید با توسعه دهنده و شرکت آغاز شود. اما این یک همکاری اخلاق است.”
– بروک تسمان
“ترک پاسخگویی به هر لایه واحد کار نخواهد کرد.”
– نودنان سورش
هر دو تزمن وت سورپراع استرس که حاکمیت مشترک تنها راه پیش رو است.
- توسعه دهندگان باید با محدودیت های اخلاقی بسازند
- سیستم عامل ها باید نظارت و مداخله کنند
- کاربران باید با آگاهی عمل کنند
- قانونگذاران باید اطمینان حاصل کنند عواقب قابلیت مطابقت
“محتوای دیجیتال باید سیگنال های واضح تری از اصالت داشته باشد … هوش مصنوعی باید به ما در تشخیص کمک کند ، نه فقط تولید.”
– نودنان سورش
حقیقت پلاگین و بازی نیست
“Deepfakes مشکل نیست. ایمان کور ما این است.”
– دکتر آنورادا رائو
ارباب به ما یادآوری می کند: تهدید واقعی رسانه مصنوعی نیست ، بلکه اعتقاد مصنوعی استبشر از تلویزیون تا تیکتوک ، ما مدتهاست که خودمان را آموزش داده ایم تا به صفحه نمایش اعتماد کنیم.
“حقیقت پلاگین و بازی نیست ، هنوز هم نیاز به تلاش دارد.” – دکتر آنورادا رائو
ابزارهای هوش مصنوعی می تواند کمک کند بنابراین تنظیم و تشخیص می تواند. اما در نهایت ، تشخیص انسان آخرین خط دفاع استبشر
بعد چه اتفاقی می افتد؟
Deepfakes قانع کننده تر خواهد شد. دسترسی آنها گسترش خواهد یافت. اما ابزارهای دفاعی ما ، در صورت تراز کردن ، می توانند ادامه دهند:
- علامت گذاری به علامت گذاری و برچسب زدن به
- تشخیص تشخیص AI را در سکوها مستقر کنید
- عواقب قانونی را برای سوء استفاده اعمال کنید
- سواد دیجیتالی را برای همه کاربران بالا ببرید
اگر اکنون عمل کنیم ، از آنچه واقعی است محافظت می کنیم. اگر منتظر بمانیم ، تقلبی واقعیت را تعریف می کند.