با افزایش اطلاعات نادرست مبتنی بر هوش مصنوعی در آستانه انتخابات ریاستجمهوری ایالات متحده، نیاز به تأیید هویت امن برای مقاومت در برابر نفوذ دیپفیکها و کمپینهای مبتنی بر رباتها بسیار مهم میشود.
تهدید ناشی از دیپ فیک بیش از هر زمان دیگری مبرم است و آن را به نگرانی بسیار بزرگتری نسبت به یکپارچگی این انتخابات نسبت به انتخابات قبلی تبدیل می کند. دیپفیکها، ویدیوهای دستکاری شده بیش از حد واقعگرایانه و تأییدیههای تولید شده با استفاده از هوش مصنوعی به ابزاری قدرتمند برای تحت تأثیر قرار دادن افکار عمومی تبدیل شدهاند.
در حالی که تشخیص بیشتر اکانتهای دیپفیک و رباتها آسان است، تفکیک برخی از آنها تقریباً غیرممکن است، و این نگرانی از پتانسیل آنها برای گمراه کردن رأیدهندگان و ایجاد اختلاف بیشتر در یک محیط سیاسی از قبل قطبیشده است.
حضور رو به رشد دیپ فیک ها و ربات ها
Deepfakes و ربات ها برای اولین بار شروع به کار کردند. با این حال، امروزه از آنها به روش های پیچیده تر در سیاست استفاده می شود. انتخابات اخیر در سرتاسر جهان قبلاً شاهد استفاده از رسانه های تولید شده توسط هوش مصنوعی برای تضعیف مخالفان سیاسی بوده است و به نظر می رسد چرخه انتخابات 2024 ایالات متحده از همین روال پیروی می کند.
حمایت اخیر تیلور سوئیفت از کمپین هریس-والز در اینستاگرام حتی به درعوض از تشبیه او برای تایید کمپین ترامپ و ونس استفاده می شود.
یک مثال اخیر شامل یک کلیپ صوتی عمیق از رئیس جمهور بایدن بود که ظاهراً درباره ارسال هواپیمای نظامی به تگزاس برای سرکوب درگیری های مرزی صحبت می کرد.. این قبل از افشاگری به سرعت در رسانه های اجتماعی پخش شد، اما زمانی که حقیقت شناسان آن را جعلی تشخیص دادند، آسیب از قبل وارد شده بود. رای دهندگانی که در معرض این کلیپ قرار می گیرند، به خصوص اگر به صورت جداگانه با آن مواجه شده باشند، ممکن است اصلاً این بی اعتمادی را ندیده باشند، که بی اعتمادی پایدار ایجاد می کند.
رباتها همچنین برای ایجاد انجمنهای آنلاین و پلتفرمهای رسانههای اجتماعی مستقر شدهاند که پیامهای سیاسی خاص را تقویت میکنند.. در اولین استیضاح رئیس جمهور دونالد ترامپ، ربات ها مسئول نفوذ زیاد در توییتر بودند. اگرچه رباتها تنها 1 درصد از کاربران را تشکیل میدهند، اما بیش از 31 درصد از تمام توییتهای مربوط به استیضاح را تولید میکنند که به طور قابل توجهی به مکالمه آنلاین کمک میکند. در میان پیروان تئوری توطئه QAnon، شیوع ربات ها به نزدیک به 10٪ رسید که نقش آنها را در شکل دادن به افکار عمومی از طریق کمپین های هماهنگ اطلاعات نادرست نشان می دهد.
این تاکتیک شامل غلبه بر یک رشته یا مکالمه خاص با پستها، لایکها یا اشتراکگذاریهای هماهنگ شده از حسابهای ربات است تا ظاهری از حمایت یا مخالفت گسترده ایجاد کند. با انجام این کار، رباتها میتوانند محبوبیت درک شده یک نامزد یا سیاست را مخدوش کنند، و در عین حال، بحثهای واقعی را سرکوب کنند، روایتهای خاصی را پیش ببرند.
خطر سلامت انتخابات
خطر واقعی دیپ فیک در پتانسیل آنها برای تضعیف یکپارچگی انتخابات با انتشار اطلاعات نادرست در مورد نامزدها در آستانه روز انتخابات نهفته است. از آنجایی که دیپفیکها را میتوان به سرعت و به طور گسترده به اشتراک گذاشت، اغلب از طریق پلتفرمهای رسانههای اجتماعی، جایی که کنترل آنها سخت است، دروغهایی که ایجاد میکنند میتوانند مدتها قبل از شناسایی و افشای آنها تثبیت شوند..
نظام سیاسی هنوز روش موثری برای مبارزه با این تهدید پیدا نکرده است. قوانین فدرال علیه دیپفیکهای با انگیزه سیاسی محدود باقی ماندهاند و تصمیمات دادگاهها را برای دولت سخت کرده است که پلتفرمها را به حذف فوری دیپفکها مجبور کند. برخی از ایالت ها اقدامات خود را اجرا کرده اند، اما اجرای آن همچنان چالش برانگیز است. حتی زمانی که دیپفیکها شناسایی میشوند، جریمهها معمولاً پس از آسیبدیدگی ایجاد میشوند.
بازیگران خارجی که به دنبال اخلال در انتخابات هستند می توانند از دیپ فیک برای ایجاد تفرقه و بی اعتبار کردن نامزدها استفاده کنند. وزارت امنیت داخلی ایالات متحده قبلاً نگرانی هایی را در مورد چگونگی استفاده دولت های خارجی از رسانه های تولید شده توسط هوش مصنوعی برای بی ثبات کردن دموکراسی آمریکایی در سال 2024 مطرح کرده است.
نیاز به تایید هویت برای حفظ اعتماد
با سختتر شدن شناسایی دیپفیکها و رباتها، این سوال گستردهتر پیش میآید: چگونه اعتماد را به رسانهها و گفتمان سیاسی بازگردانیم؟ در قلب این مشکل مسئله هویت نهفته است. وقتی هر کسی می تواند یک ویدیوی جعلی قانع کننده از یک شخصیت عمومی ایجاد کند، رای دهندگان چگونه می توانند از واقعی بودن آن مطمئن شوند؟
اینجاست که مفهوم گواهی هویت انتقادی می شود. در عصری که دیپفیکها میتوانند میلیونها نفر را فریب دهند، ایجاد سیستمهایی که صحت محتوای دیجیتال را تأیید میکنند میتواند به عنوان یک محافظ عمل کند. سیستمی را تصور کنید که در آن هر ویدئو، فایل صوتی یا بیانیه آنلاین صادر شده توسط یک نامزد یا شخصیت سیاسی می تواند صحت آن تایید شود. چنین سیستمی تضمین میکند که رایدهندگان میتوانند اعتماد کنند که آنچه آنلاین میبینند منعکسکننده اعمال یا اظهارات واقعی فرد مورد نظر است و با سردرگمی گسترده ناشی از دیپفیک مبارزه میکند.
حفاظت از دموکراسی
با نزدیکتر شدن به انتخابات 2024 ایالات متحده، نقش دیپفیکها و رباتها همچنان در حال رشد خواهد بود و به طور بالقوه بر کمپینهای سیاسی و ادراک رأیدهندگان تأثیر میگذارد. بدون مقررات واضح و قابل اجرا و روشهای قابل اعتماد برای تأیید محتوای دیجیتال، دیپفیکها میتوانند به طور قابلتوجهی اعتماد عمومی را به فرآیند انتخابات تضعیف کنند. اطلاعات نادرست منتشر شده از طریق رسانه های دستکاری شده با هوش مصنوعی ممکن است ترازو را در ایالت های بحرانی پایین بیاورد، یا حتی رای دهندگان را از مشارکت منصرف کند، زیرا کل فرآیند را فاسد می دانند.
در حالی که پلتفرمهای رسانههای اجتماعی و توسعهدهندگان هوش مصنوعی گامهایی برای مبارزه با استفاده نادرست از فناوری دیپفیک برداشتهاند، این تلاشها به جای فعالانه، واکنشی بوده است. آنچه مورد نیاز است، چارچوبی جامع برای تأیید هویت دیجیتال است که می تواند از گسترش رسانه های تغییر داده شده به طور مخرب قبل از اینکه فرصتی برای آسیب ماندن داشته باشد، جلوگیری کند. تنها با تعبیه تأیید هویت در زیرساخت دیجیتال خود، میتوانیم امیدوار باشیم که از آینده انتخابات دموکراتیک در برابر تهدید عمیق جعلی محافظت کنیم.