ارتش آمریکا برای «استفاده مسئولانه» از هوش مصنوعی آماده می‌شود

یک‌شنبه ۳۰ بهمن ۱۴۰۱ - ۱۴:۰۰
مطالعه 2 دقیقه
سرباز ارتش آمریکا با اسلحه و عینک واقعیت افزوده
ایالات متحده رهنمود استفاده‌ی نظامی مسئولانه از هوش مصنوعی را تدوین کرده و از کشورها خواسته است به قوانین بین‌المللی پایبند باشند.
تبلیغات

وزارت امور خارجه‌ی ایالات متحده رهنمود جدیدی برای «استفاده‌ی نظامی مسئولانه» از هوش مصنوعی و فناوری‌های خودمختار منتشر کرده است تا خواستار پیاده‌سازی مسئولانه‌ی هوش مصنوعی در عملیات‌های نظامی در سراسر دنیا شود. آمریکا تأکید می‌کند که انسان‌ها در صورت استفاده از هوش مصنوعی در نهادهای نظامی باید مسئولیت کامل را برعهده بگیرند.

بیانیه‌ی وزارت امور خارجه‌ی ایالات متحده در حالی منتشر می‌شود که این کشور در اجلاسی بین‌المللی با تمرکز بر استفاده‌ی مسئولانه از هوش مصنوعی نظامی حاضر شده است. این اجلاس در شهر لاهه‌ی هلند برگزار می‌شود. Ars Technica می‌گوید این نخستین باری است که شاهد برگزاری چنین اجلاسی هستیم.

بانی جنکینز، معاون وزیر خارجه‌ی ایالات متحده در امور کنترل تسلیحات، می‌گوید: «ما از تمامی کشورها دعوت می‌کنیم که به ما در پیاده‌سازی هنجارهای بین‌المللی مرتبط‌ به توسعه‌ و استفاده‌ی نظامی از هوش مصنوعی و اسلحه‌های خودمختار ملحق شوند.»

ایالات متحده در بیانیه‌ی جدیدش می‌گوید تعداد کشورهایی که مشغول توسعه‌ی هوش مصنوعی نظامی هستند همواره در حال افزایش است و احتمالا این کشورها سراغ استفاده از سیستم‌های خودمختار خواهند رفت. این روند باعث افزایش نگرانی‌ها درباره‌ی استفاده‌ی نامناسب از پتانسیل‌های هوش مصنوعی شده است.

در بخشی از بیانیه‌ی آمریکا می‌خوانیم: «نحوه‌ی استفاده‌ی نظامی از هوش مصنوعی بهتر است اخلاقی و مسئولیت‌پذیرانه باشد و امنیت بین‌المللی را افزایش دهد. استفاده از هوش مصنوعی در درگیری‌های مسلحانه باید با قوانین انسانی قابل‌اجرای بین‌المللی منطبق باشد و سوگیری و حوادث ناخواسته به حداقل برسد. بهتر است دولت‌ها تدابیر مناسبی برای اطمینان از توسعه، پیاده‌سازی و استفاده‌ی مسئولانه از توانایی‌های نظامی خود در حوزه‌ی هوش مصنوعی بیندیشند.»

ایالات متحده ۱۲ شیوه برای استفاده‌ی مناسب از هوش مصنوعی تدوین کرده است که روی مسائلی مانند ایمنی سلاح‌های هسته‌ای، طراحی مسئولانه‌ی سیستم‌ها و آموزش پرسنل تأکید دارند.

آمریکا به مثال‌هایی برای مسئول‌دانستن اپراتورهای انسانی در سلسله‌مراتب نهادهای نظامی به هنگام استفاده از هوش مصنوعی اشاره کرده است. آمریکا می‌گوید که بهتر است دولت‌ها در تمامی تصمیمات خارجی مرتبط‌به سلاح‌های هسته‌ای، کنترل انسانی را در اولویت قرار دهند. آمریکا همچنین می‌گوید سیستم‌های نظامی هوش مصنوعی باید به‌گونه‌ای طراحی شوند که «عواقب ناخواسته» به دنبال نداشته باشند. همچنین باید سازوکاری تعیین شود که بتوان در صورت بروز عواقب ناخواسته، سریعاً سیستم‌های هوش مصنوعی را از دسترس خارج کرد.

بیش از ۶۰ دولت در سراسر دنیا «فراخوان برای اقدام» در حوزه‌ی استفاده‌ی نظامی مسئولانه از هوش مصنوعی را امضا کرده‌اند. متخصصان حقوق بشر و دانشگاهیان در مصاحبه با نشریه‌ی رویترز گفته‌اند بیانیه‌ی آمریکا از لحاظ قانون هیچ الزاماتی تعیین نمی‌کند و در رسیدگی به نگرانی‌هایی مانند پهپادهای خودمختار، ربات‌های قاتل و احتمال تشدید درگیری نظامی توسط هوش مصنوعی، ناتوان است.

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات