لینک‌های قابلیت دسترسی

خبر فوری
یکشنبه ۴ آذر ۱۴۰۳ تهران ۰۳:۰۲

چرا ورود هوش مصنوعی به صحنۀ جنگ باعث نگرانی شده است؟


نمونۀ یک پهپاد نظامی که با هوش مصنوعی کار می‌کند
نمونۀ یک پهپاد نظامی که با هوش مصنوعی کار می‌کند

ورود هوش مصنوعی به میدان جنگ باعث نگرانی از شدت گرفتن درگیری‌ها و تضعیف نقش حیاتی انسان در تصمیم‌گیری‌های جنگی شده است. هوش مصنوعی نشان داده که می‌تواند سریع‌تر عمل کند، اما لزوماً ایمن‌تر یا اخلاقی‌تر نیست.

آنتونیو گوترش، دبیرکل سازمان ملل متحد، اخیراً گفت از گزارش‌های رسانه‌های اسرائیلی مبنی بر استفاده اسرائیل از هوش مصنوعی برای شناسایی اهداف در غزه که «منجر به تلفات زیاد غیرنظامیان شده»، «عمیقاً ناراحت» است.

گذشته از نرم‌افزار مورد اشارۀ آقای گوترش، یعنی نرم‌افزار لَوندر و انکار و تکذیب اسرائیل، در این‌جا نگاهی داریم به تحولات حوزۀ فناوری که درحال دگرگون کردن چهرۀ جنگ است.

همان‌طور که در مورد لوندر دیده شد، هوش مصنوعی با الگوریتم‌های پرسرعت خود که حجم عظیمی از داده‌ها را برای شناسایی تهدیدات بالقوه پردازش می‌کنند، می‌تواند به‌ویژه برای انتخاب اهداف مفید باشد.

اما نتایج فناوری باز هم در حوزۀ احتمالات قرار می‌گیرند و کارشناسان هشدار می‌دهند که بروز خطا در آن اجتناب‌ناپذیر است.

هوش مصنوعی در فن آرایش رزمی نیز کاربرد دارد، برای مثال، آرایش جنگی پهپادها به صورت دسته‌ای؛ تاکتیکی که به نظر می‌رسد چین به سرعت در حال توسعۀ آن است. با این روش، پهپادها این قابلیت را خواهند داشت که با یکدیگر ارتباط برقرار کنند و بر اساس اهداف تعیین‌شدهٔ قبلی با هم همکاری داشته باشند.

در مقیاسی بزرگ‌تر، هوش مصنوعی مدل‌هایی از میدان‌های نبرد فراهم می‌کند و برای مقابله با حملات راه‌هایی پیشنهاد می‌کند که هیچ بعید نیست شامل استفاده از سلاح‌های هسته‌ای هم بشود.

فکر کردن با سرعتی هرچه بیشتر

آلساندرو آکورسی از گروه بین‌المللی بحران می‌گوید: «یک درگیری تمام‌عیار بین دو کشور را تصور کنید که برای تهیه راهبرد و طرح‌های نظامی آن سراغ هوش مصنوعی رفته‌اند و هوش مصنوعی در آنِ واحد نسبت به هر رخداد و تحول جدید پاسخ می‌دهد.»

او می‌افزاید که با این کار «فاصلۀ زمانیِ واکنش‌های طرفین درگیری بسیار کاهش می‌یابد و تصمیم و اقدامی برای یک انسان یک ساعت طول می‌کشد، برای هوش مصنوعی چند ثانبه بیشتر طول نمی‌کشد».

برای نمونه، پدافند هوایی اسرائیل، که به «گنبد آهنین» معروف است، می‌تواند ورود یک پرتابه را شناسایی کند و ماهیت آن، مقصد و خسارت احتمالی آن را تعیین کند. با اشاره به این سامانه، لور دو روشی-روشگوند از مؤسسه روابط بین‌الملل فرانسه می‌گوید: «متصدی این پدافند تنها یک دقیقه فرصت دارد تصمیم بگیرد که موشک را منهدم کند یا نه.»

و به‌گفتۀ او، این متصدی «اغلب یک سرباز جوان ۲۰ ساله است که چندان از قوانین جنگ آگاه نیست. بنابر این، جای این پرسش هست که تسلط او بر تصمیم‌گیری مناسب تا چه اندازه می‌تواند دقیق باشد».

یک خلأ اخلاقی نگران‌کننده

با توجه به تشدید مسابقه تسلیحاتی و دشواری‌های همیشگی صحنه جنگ، بعید نیست هوش مصنوعی را هم در آینده بسیار نزدیک وارد میدان نبرد کنند و این درحالی است که بخش بزرگی از جهان هنوز به‌طور کامل از پیامدهای بالقوه آن آگاه نیست.

دو روشی-روشگوند می‌گوید: انسان‌ها با این کار «پیشنهاد‌های یک ماشین را مبنای تصمیمات خود قرار می‌دهند، اما از اطلاعاتی که دستگاه برای رسیدن به چنین تصمیمی از آن استفاده‌ کرده، بی‌اطلاع‌اند».

او اضافه می‌کند: «درست است که در نهایت انسان دکمه پرتاب یا شلیک را فشار می‌دهد، اما عدم آگاهی فرد از روند تصمیم‌گیری و همچنین سرعت کار ماشین بدین معناست که فرد شلیک‌کننده کنترل واقعی بر روی نتیجه‌گیری‌ها و تصمیمات خود ندارد.»

اولریکه فرانکه از شورای روابط خارجی اروپا می‌گوید: هوش مصنوعی «مثل سیاه‌چاله است؛ لزوماً نمی‌فهمیم چه می‌داند یا چه فکر می‌کند، یا چگونه به این نتایج می‌رسد».

او ادامه می‌دهد: «چرا هوش مصنوعی این یا آن هدف را پیشنهاد می‌کند؟ چه می‌شود که این اطلاعات یا آن اطلاعات را به من می‌دهد؟ با این وضع اگر اجازه دهیم هوش مصنوعی جنگ‌افزار را هم کنترل کند، با یک پرسش اخلاقی جدی روبه‌رو می‌شویم».

اوکراین به‌عنوان صحنۀ آزمایش

خبر می‌رسد که ایالات متحده به تازگی از الگوریتم‌هایی در حملات اخیر خود علیه شورشیان حوثی در یمن استفاده کرده است.

اما آکورسی می‌گوید: «تغییردهنده واقعی شیوه بازی، جنگ اوکراین است که به آزمایشگاهی برای کاربرد نظامی هوش مصنوعی تبدیل شده است».

ویتالی گونچاروک از رصدخانه هوش مصنوعی دفاعی در دانشگاه هلموت اشمیت هامبورگ می‌گوید: از زمان حمله روسیه به اوکراین در سال ۲۰۲۲، طرفین درگیری شروع به «توسعه و به‌کارگیری راه حل‌های هوش مصنوعی برای حوزه‌هایی مانند اطلاعات جغرافیایی فضایی، عملیات با سامانه‌های بدون سرنشین، آموزش نظامی و جنگ سایبری» کرده‌اند.

گونچاروک می‌گوید: «در نتیجه، جنگ در اوکراین به اولین درگیری تبدیل شده که در آن هر دو طرف،‌ در جهت استفاده از هوش مصنوعی رقابت می‌کنند؛ عاملی که به یک مؤلفه حیاتی برای دستیابی به پیروزی بدل شده است.»

برتری‌جویی و خطر هسته‌ای

«ترمیناتور»، ربات قاتلی که انسان کنترل خود را بر آن از دست می‌دهد، جزو تخیلات هالیوودی است. با این‌حال، محاسبات سرد این ماشین، پژواکی از واقعیات هوش مصنوعی مدرن را در خود دارد: اینکه این سیستم‌ها نه غریزه بقا دارند و نه تردید.

محققان چهار مؤسسه و دانشگاه آمریکایی در ژانویه نتایج یک مطالعه علمی انجام‌شده روی پنج مدل زبانی بزرگ (سیستمی شبیه به نرم‌افزار مولد چت‌جی‌پی‌تی) در موقعیت‌های تنش سیاسی و درگیری را منتشر کردند.

این مطالعه نشان داد که گرایش این مدل‌های هوش مصنوعی، «به سمت ایجاد رقابت تنگاتنگ تسلیحاتی است که منجر به درگیری‌های بزرگ‌تر و در موارد نادر استفاده از سلاح‌های هسته‌ای می‌شود».

قدرت‌های بزرگ جهانی کوشش فراوانی دارند تا در میدان مسابقهٔ کاربرد نظامی هوش مصنوعی، پیروز صحنه شوند و همین تکاپوی بی‌امان، مانع سامان‌دهی و قانون‌گذاری به‌موقع در این حوزه شده است.

جو بایدن، رئیس‌جمهور ایالات متحده و شی جین پینگ، رئیس‌جمهور چین در ماه نوامبر توافق کردند که کارشناسان خود را برای سامان دادن به این وضعیت به‌کار بگمارند.

بحث‌هایی نیز ده سال پیش در سازمان ملل متحد آغاز شد، اما بدون نتیجه‌ای ملموس باقی ماند.

آکورسی می‌گوید: «دربارهٔ کارهای که باید در ارتباط با خطرات ورود هوش مصنوعی به حوزه غیرنظامی انجام شود، بحث‌هایی وجود دارد، اما وقتی نوبت به صنعت دفاعی می‌رسد، کسی به آن نمی‌پردازد.»

با استفاده از گزارش خبرگزاری فرانسه و وب‌سایت رادیوفردا؛ پ.پ/ر.ش
XS
SM
MD
LG