هشدار پنتاگون درباره نقش فزآینده هوش مصنوعی در جنگهای آینده
دیدگاه وزارت دفاع ایالاتمتحده درمورد آینده، دنیایی مملو از سلاحهای جنگی خودکار است. از سال ۲۰۱۲ این اولین بهروزرسانی دستورالعملهای پنتاگون درمورد نظارت بر توسعه و آزمایش و استفاده از تسلیحات خودمختار و نیمهخودکار است و حالا به نقش فزآیندهی هوش مصنوعی در جنگهای آینده اشاره میکند.
پنتاگون آخرینبار دستورالعمل سیاست خود را درمورد سلاحهای خودکار با عنون «خودمختاری در سیستمهای تسلیحاتی» بهروز کرد و حالا این چارچوب در هفتهی اخیر تغییر کرده است. مقامات وزارت دفاع آمریکا، تعهد خود را نسبتبه پیگیری سیستمهای خودمختار و ادغام هوش مصنوعی پیشرفته در تلاشهای نظامی آینده ابراز کردهاند. ارتش ایالاتمتحده با بهروزرسانی اخیر سیاستهای کاریاش، موضع خود را درمورد خودمختاری تثبیت میکند، و این درحالی است که سایر کشورها و فعالان با هم متحد میشوند تا گسترش آن را محدود کنند.
بهروزرسانی جدید، پیشرفتهای هوش مصنوعی را در ۱۰ سال گذشته درنظر میگیرد و یک گروه نظارتی تازه تأسیس در سطح ارشد معرفی میکند. اکنون سلاحهای خودکار در بیشتر موارد قبلاز اینکه بتوانند بهطور رسمی وارد فاز توسعه شوند باید ازطرف معاون رئیس ستاد مشترک، معاون وزیر دفاع در امور سیاسی و معاون وزیر دفاع برای تحقیقات و مهندسی بهطور رسمی مورد تأیید قرار بگیرند.
مایکل هوروویتز، مدیر دفتر سیاست قابلیتهای نوظهور وزارت دفاع آمریکا در مصاحبهی اخیر خود با Breaking Defense گفت:
اکنون سلاحهای خودکار مثل سایر سیستمهای مبتنیبر هوش مصنوعی باید از دستورالعملهای جدید پیروی کنند و ما این بخش را نوعی حکمرانی خوب میدانیم.- مایکل هوروویتز
پنتاگون درمورد سلاحهای مجهز به هوش مصنوعی چه نظری دارد؟
دستورالعمل جدید از اصول اخلاقی هوش مصنوعی پنتاگون استفاده میکند؛ گفتنی است این دستورالعملها اولینبار درسال ۲۰۲۰ معرفی شدند و حالا سیستمهای تسلیحاتی خودمختار نیز باید از آن پیروی کنند. این اصول بهطور خلاصه بیان میکند ابزارهای هوش مصنوعی وزارت دفاع باید مسئولانه، عادلانه، قابل ردیابی، قابلاعتماد و قابلکنترل باشند. پنتاگون سال گذشته با هدف ارائهی مسیر تحقق بخشیدن به اصول خود، یک سند تکمیلی نیز منتشر کرد. سند مذکور همچنین تهدیدات بالقوه در حوزهی هوش مصنوعی ازسوی قدرتهای جهانی مثل چین را توضیح میدهد.
اگرچه بهروزرسانی دستورالعملهای پنتاگون هنوز کامل نیست اما چشمانداز فناوری متمرکز بر هوش مصنوعی این سازمان را بهوضوح نشان میدهد. کاتلین هیکس، معاون وزیر دفاع آمریکا در بیانیهای اعلام کرد:
پنتاگون با شیوهای مسئولانه و قانونی، به توسعه و استفاده از همهی سیستمهای تسلیحاتی ازجمله سامانههایی که از ویژگیهای خودمختار استنفاده میکنند، تعهد دارد.- کاتلین هیکس
هیکس با نگاه به آینده اذعان کرد که سیستمهای مبتنیبر هوش مصنوعی احتمالاً نقش فزآیندهای در طیف گستردهای از سیستمها و قابلیتها ایفا خواهند کرد. او در مصاحبهی دیگری با وبسایت گیزمودو درمورد اهمیت حفظ رویکرد انسانی در سلاحهای مبتنیبر هوش مصنوعی صحبت کرد؛ جاییکه اپراتورهای انسانی همچنان در تصمیمگیریهای هوش مصنوعی درمورد اهداف شناساییشده، نقش تأییدکنندهی نهایی را برعهده دارند.
آیا باید جلوی سلاحهای مبتنیبر هوش مصنوعی و جنگهای خودمختار را بگیریم؟
دیدگاه پنتاگون نسبتبه سلاحهای خودمختار موردتأیید همه نیست. درمجموع حداقل ۳۰ کشور از ممنوعیت کامل این فناوری حمایت کردهاند. حتی آنتونیو گوترش، دبیرکل سازمان ملل متحد نیز از ممنوعیت کامل سلاحهای هوش مصنوعی حمایت کرده است. گوترش درسال ۲۰۱۹ بیانیهای در مورد اینکه سیستمهای هوش مصنوعی، طبق قوانین بینالمللی باید ممنوع شوند، منتشر کرد. در بخش از این بیانیه آمده است:
ماشینهای خودکاری که بدون دخالت انسان، قدرت و اختیار کافی برای انتخاب اهداف و ازبین بردن آنها را دارند ازنظر سیاسی غیرقابل قبول و ازنظر اخلاقی منفور هستند.- آنتونیو گوترش
بهطور مشابه، اکثریت ۱۲۵ کشوری که در کنوانسیون سازمان ملل متحد از برخی از سلاحهای متعارف پشتیبانی میکنند، نسبت به قوانین جدیدی که اساساً توسعهی سلاحهای خودمختار را ممنوع میداند ابراز علاقه کردهاند. CNBC خاطرنشان میکند این تلاشها بهدلیل مخالفت روسیه، چین، ایالاتمتحده و تعداد معدودی از کشورهای دیگر که در خط مقدم فناوری تسلیحات خودمختار هستند، شکست خورد.
منتقدان سیستمهای تسلیحاتی خودکار از بخشهایی مثل عفو بینالملل تا دیدهبان حقوق بشر، توسعهی این ابزارها را با سلاحهای هستهای مقایسه کردهاند. این منتقدان نگران هستند که گسترش کنترلنشدهی تسلیحات خودمختار به یک رقابت خطرناک منجر شود که میتواند خطر درگیریهای ژئوپلیتیکی را افزایش دهد.