لینک‌های قابلیت دسترسی

خبر فوری
یکشنبه ۴ آذر ۱۴۰۳ تهران ۰۴:۰۲

پژوهش: دسترسی هوش مصنوعی خلق تصویر به هزاران عکس از آزار جنسی کودکان


براساس نتایج یک پژوهش جدید که چهارشنبه ۲۹ آذر منتشر شد، در اعماق پستوهای فناوری پرطرفدار هوش مصنوعی که از داده‌های موجود در اینترنت می‌تواند تصاویر مصنوعی خلق کند، هزاران عکس از آزار جنسی کودکان نیز وجود دارد.

دست‌اندرکاران این پژوهش از شرکت‌های بزرگ فناوری دیجیتال خواسته‌اند که با انجام اقدامات ضروری و عاجل از ورود این تصاویر به عرصهٔ نامحدود تولید تصویر توسط هوش مصنوعی جلوگیری کنند.

وجود این تصاویر برهنه و حاوی آزار جنسی کودکان در شبکهٔ اینترنت کار تولید تصاویر جعلی (فیک) اما با ظاهر بسیار واقعی توسط هوش مصنوعی را بسیار ساده کرده است.

در عین حال فراگیری این روش مولد تصاویر جعلی (فيک) توسط برخی کاربران و تبدیل کردن عکس‌های معمولی کودکان و نوجوانان به تصاویر برهنه در ماه‌های اخیر جنجال‌برانگیز و در بسیاری از کشورها موجب نگرانی شدید والدین و مسئولان مراکز آموزشی شده است.

تاکنون پژوهشگران عرصهٔ مبارزه با آزار کودکان بر این تصور بودند که تصاویر جعلی (فیک) کودکان برهنه توسط ابزارهای غیرقانونی و خارج از کنترل هوش مصنوعی و با ترکیب عکس‌های پورن با عکس‌های معمولی خردسالان تولید می‌شود.

اما پژوهشگران «مرکز دیده‌بانی اینترنت» در دانشگاه استنفورد آمریکا توانسته‌اند بیش از سه هزار و ۲۰۰ تصویر واقعی از آزار جنسی کودکان در LAION پيدا کنند. لایون شرکتی است که یک بایگانی علنی و عظیم از داده‌هایی را در اختیار دارد که توسط فناوری هوش مصنوعی مورد استفاده قرار می‌گیرد.

بسیاری از ابزارهای هوش مصنوعی مولد تصویر از جمله هوش مصنوعی «استیبل دیفیوژن» برای خلق تصویر از همین بایگانی استفاده می‌کنند.

«مرکز دیده‌بانی اینترنت» در دانشگاه استنفورد در همکاری با مرکز حفاظت از خردسالان در کانادا و چندین نهاد خیریهٔ دیگر که در زمینهٔ مبارزه با آزار و سوء‌استفاده جنسی از کودکان فعال هستند، وجود این محتواهای غیرقانونی و غیراخلاقی در دسترس ابزارهای هوش مصنوعی را شناسایی کرده و به نهادهای انتظامی گزارش داده‌اند.

واکنش‌ها به این پژوهش بسیار سریع بود. شرکت لایون به خبرگزاری‌ها گفت به طور موقت دسترسی به تمامی داده‌های خود را مسدود می‌کند. این شرکت در بیانیه‌ای افزوده که به هیچ وجه سوء‌استفادهٔ غیرقانونی از داده‌های خود را تحمل نمی‌کند و قبل از بازبینی تمامی مضامین موجود در این شبکه به‌طور موقت دسترسی به آن را مسدود کرده است.

پژوهشگران در «مرکز دیده‌بانی اینترنت» در دانشگاه استنفورد می‌گویند تعداد تصاویر برهنه و یا آزار جنسی کودکان در بایگانی لایون که ۵.۸ میلیارد تصویر دارد، درصد بسيار ناچیزی است، ولی به احتمال فراوان روی قابلیت ابزارهای هوش مصنوعی برای تولید تصاویر مشابه تأثیر می‌گذارد و اگر تصاویر قربانیان واقعی آزار جنسی کودکان را بازنشر کند، به‌منزلهٔ تأیید این تجاوزها و آزارها خواهد بود.

دیوید ثیل، تنظیم‌کنندهٔ این پژوهش و کارشناس ارشد «مرکز دیده‌بانی اینترنت» در دانشگاه استنفورد معتقد است که حل این مشکل کار ساده‌ای نیست، چون بسیاری از نسخه‌های هوش مصنوعی مولد بدون انجام اقدامات پیشگیرانه و بررسی‌های دقیق به یک بازار پررقابت عرضه شده‌اند و همهٔ آن‌ها به بخش اعظم همهٔ مضامین نوشتاری، صوتی و تصویری که سال‌های سال در شبکهٔ اینترنت پخش شده، دسترسی دارند.

برای مثال دیوید ثیل از هوش مصنوعی CivitAI نام برده که مورد علاقهٔ افرادی است که از هوش مصنوعی برای تولید هرزه‌نگاری استفاده می‌کنند. به‌گفتهٔ ثیل، این هوش مصنوعی فاقد اقدامات ایمنی برای سنجش تصاویر و مقابله با ساخت تصاویر کودکان است.

دیوید ثیل همچنین گفته است «باز گذاشتن دست ابزارهای هوش مصنوعی مولد برای دسترسی به تمامی محتواهای موجود در اینترنت قبل از آن‌که محدودیت یا فیلترهای صحیح و قانونی به اجرا درآید، کار نادرستی بود».

کریستف شوهمن، پژوهشگر آلمانی که مغز متفکر شرکت لایون (LAION) شناخته می‌شود، معتقد است که تنها راه «دموکراتیزه کردن» هوش مصنوعی این بود که تمامی مضامینی که این فناوری می‌تواند از آن‌ها بهره بگیرد، در منابع و بایگانی‌های علنی در اختیار همگان قرار بگیرد.

مسئولان نهادهای دولتی و خیریهٔ حفاظت از کودکان اکنون با معضل پیچیده‌ای روبه‌رو هستند. از یک سو به خوبی می‌دانند که تمام داده‌های موجود در شبکهٔ اینترنت را نمی‌توان بازرسی و درصورت لزوم فیلتر کرد.

از سوی دیگر نگران‌اند که دسترسی بخش وسیع‌تری از کاربران به ابزارهای هوش مصنوعی می‌تواند آزار کودکان و نوجوانان و به‌خصوص آزار روانی آن‌ها را توسط افراد تبهکار و يا حتی کم‌سالانی که از روی شیطنت و یا کينه‌ورزی به‌دنبال تخریب وجههٔ دیگران هستند، افزایش دهد.

XS
SM
MD
LG