لینک‌های قابلیت دسترسی

خبر فوری
یکشنبه ۴ آذر ۱۴۰۳ تهران ۰۸:۳۹

جعل ویدئو با هوش مصنوعی، چالشی جدید در دنیای خبر و سیاست


«جعل عمقی» مفهوم جدید و خطرناکی است که می‌تواند خطوط بین جعل و واقعیت را کمرنگ کند
«جعل عمقی» مفهوم جدید و خطرناکی است که می‌تواند خطوط بین جعل و واقعیت را کمرنگ کند

هر روز خبرهایی از پیشرفت در رشته هوش مصنوعی منتشر می‌شود و همزمان، این خبرها به نگرانی از پیامدهای احتمالاً خطرناک این فناوری دامن می‌زند.

اخیراً انتشار دو ویدئوی جعلی که برای تخریب دو چهره معروف با استفاده از هوش مصنوعی ساخته شده این بحث را وارد مرحله جدیدی کرده است، به‌ویژه که تشخیص تفاوت جعل و واقعیت در این ویدئوها تقریباً ناممکن است.

اواخر ماه گذشته میلادی یک ویدئوی جعلی و دستکاری‌شده از «سخنرانی» نانسی پلوسی، رئیس دموکرات مجلس نمایندگان آمریکا و از مخالفان سیاست‌های رئیس جمهوری آمریکا، منتشر شد که در آن وی به عنوان شخصی «مست و دچار لکنت‌زبان» معرفی شده که از بیان درست کلمات عاجز است.

این ویدئو به سرعت در فیس‌بوک، یوتیوب و توئیتر پخش شد، دست‌کم سه میلیون بار تماشا شد، دونالد ترامپ، رئیس جمهوری آمریکا، در مورد آن توئیت کرد و شبکه تلویزیونی فاکس‌نیوز هم در برنامه‌های خود به آن پرداخت.

پس از آن‌که مشخص شد که ویدئو کاملاً جعلی است و با فناوری هوش مصنوعی ساخته شده، از فیس‌بوک خواسته شد که آن را حذف کند. فیس‌بوک با ذکر بندهایی از مقررات خود از حذف این ویدئو از صفحات این شبکه اجتماعی خودداری کرد، اما کمی بعد، یک ویدئوی جعلی دیگر دامن‌گیر مارک زاکربرگ، بنیان‌گذار خود فیس‌بوک شد.

در این ویدئو که هفته پیش منتشر شد، از بخشی از یک ویدئوی دو سال پیش مارک زاکربرگ استفاده شده و با یک الگوریتم هوش مصنوعی در آن تغییرات کاملی داده شده و در آن سخنانی جعلی از زبان زاکربرگ بیان می‌شود.

در ویدئوی جعلی، بنیان‌گذار فیس‌بوک به «تسلط یک‌نفره خود بر جهان از طریق در دست داشتن اطلاعات میلیاردها نفر» افتخار می‌کند و می‌گوید که «جان و آینده شما در دستان من است.» این ویدئو در اینستاگرام منتشر شد، شبکه‌ای که مالک آن شرکت فیس‌بوک است.

بنا بر گزارش‌ها، این دستکاری‌ها با استفاده از یکی از شاخه‌های پرکاربرد هوش مصنوعی، به نام یادگیری ماشینی انجام می‌شود. به‌خصوص یکی از تکنیک‌های یادگیری ماشینی به نام «یادگیری عمقی» برای این کار استفاده می‌شود که اطلاعات خام تصاویر و ویدئوها را دریافت کرده و لایه لایه به آن «عمق می‌دهد» تا این‌که محتوایی متفاوت اما به‌ظاهر شبیه واقعیت پیدا کند. برای همین به این نوع دستکاری «جعل عمقی» (Deepfake) می‌گویند.

نگرانی در مورد ویدئوهایی جعلی عمقی هم‌اینک در محافل سیاسی آمریکا بالا گرفته و کمیته اطلاعاتی مجلس نمایندگان آمریکا در روزهای اخیر جلسه ویژه‌ای در این مورد و چالش‌های مرتبط با آن تشکیل داد.

در این جلسه، آدام شیف، رئیس کمیته اطلاعاتی، با اشاره به ویدئوی جعلی نانسی پلوسی گفت که با توجه به در پیش بودن انتخابات سال آینده ریاست‌جمهوری در آمریکا، «کابوسی» از پخش اطلاعات جعلی از زبان نامزدها بر این انتخابات سایه افکنده است.

آدام شیف پس از این جلسه به خبرنگاران گفت که هم‌اکنون نیاز به بازبینی جدی مقررات فدرال در این زمینه حس می‌شود اما با این حال گفت که این مشکل جدید را شاید نتوان هیچگاه به طور کامل حل کرد بلکه تنها می‌شود آن را مرتباً سرکوب کرد.

در حال حاضر، پژوهشگران هوش مصنوعی در آمریکا در حال رقابتی تنگاتنگ با سازندگان ویدئوهایی جعلی عمقی هستند و تیم‌های تحقیقاتی، به‌ویژه در دانشگاه کالیفرنیا در برکلی، در حال ساخت نرم‌افزارهایی پیشرفته برای مقابله با این پدیده تا پیش از فرارسیدن تاریخ انتخابات ۲۰۲۰ آمریکا هستند.

این محققان، ساعت‌های طولانی از ویدئوهای در دست از شخصیت‌های مهم را به این نرم‌افزار وارد می‌کنند تا این برنامه با تجزیه و تحلیل تمامی حرکات و وجنات این اشخاص به مرور بتواند کوچک‌ترین انحراف از واقعیت را در ویدئوهای جدید شناسایی کند.

با وجود این تلاش‌ها، نگرانی‌ها در مورد آینده جعل عمقی، به‌ویژه در شبکه‌های اجتماعی، بسیار زیاد است و به نوشته یکی از کاربران این شبکه‌ها: «بزرگ‌ترین تهدید از سوی فناوری جعل عمقی این نیست که دروغ را به جای حقیقت به خورد ما بدهند، بلکه ایجاد این حس در ماست که از این پس همه واقعیت‌هایی را هم که می‌بینیم و می‌شنویم جعل و دروغ بپنداریم.»

منابع: آسوشیتدپرس، واشینگتن پست، ده‌ورج، وایس، سایت دانشگاه کالیفرنیا / پ.پ
XS
SM
MD
LG