رقابت تسلیحاتی هوش مصنوعی و عجله قدرتهای جهان برای استفاده از رباتهای جنگجو
جسی سویت، کارگردان فیلم «ناشناخته: رباتهای مرگبار» (UNKNOWN: Killer Robots) میگوید: «رهبران جهان در روسیه و چین و آمریکا اعلام کردهاند که هوش مصنوعی مزیتهای بسیاری در جنگها بهارمغان خواهد آورد.»
سویت که قبلاً جایزهی امی را بهدست آورده است، هشدار داد: «انقلاب هوش مصنوعی در حال رخدادن است؛ اما فکر میکنم آگاهی ما از سرعت رشد این فناوری عقب مانده است.»
سویت در مستند خود نشان میدهد که استفاده از رباتها و پهپادهای درجهیک در نبردها موضوع جدیدی نیست؛ اما بهرهگرفتن از هوش مصنوعی سختافزارهای موجود را تقویت و جنگها را مدرن میکند.
بهگفتهی کارشناسان، پیشرفتهای هوش مصنوعی ما را به نقطهای سوق داده است که قدرتهای جهانی اکنون چارهای غیر از بازنگری استراتژیهای نظامی خود ندارند.
ناتان مایکل، مدیر ارشد فناوری Shield AI، اعلام کرد: «انتظار اینکه هوش مصنوعی جنگندهی F-16 را خلبانی کند، واقعبینانه است و دستیابی به چنین سطحی از فناوری، چندان دور از ذهن نیست.» Shield AI شرکتی است که هدفش ساخت بهترین خلبان هوش مصنوعی جهان است.
بههرحال، برخی از فیلمسازان و ازجمله کسانی که آثارشان دربارهی هوش مصنوعی است، دربارهی نظامیسازی سریع رباتیک ابراز نگرانی کردهاند و هشدار دادهاند که از آنچه میسازیم، درک درستی نداریم.
سویت اظهار کرد: «روشی که الگوریتمها با استفاده از آن اطلاعات را پردازش میکنند، باعث میشود حتی توسعهدهندگان سیستمهای مذکور نتوانند تصمیمات آنها را کاملاً درک کنند. این فناوری آنقدر سریع حرکت میکند که حتی پاسخ به پرسشهایی مانند «آیا میتواند انسان را بکشد یا نه؟» را همچنان بیپاسخ باقی گذاشته است.»
روشی که الگوریتمها با استفاده از آن اطلاعات را پردازش میکنند، باعث میشود حتی توسعهدهندگان سیستمهای مذکور نتوانند تصمیمات آنها را بهطور کامل درک کنند
علاوهبراین، تکیه بر دقت و صحت فناوری که بهعنوان سوگیری اتوماسیون از آن یاد میشود، باردیگر مطرح خواهد شد.
نگرانی دیگر به نرمافزار تشخیص چهرهی هوش مصنوعی ارتباط دارد که برای تقویت ربات یا پهپادهای خودران هنگام نبرد استفاده میشود. درحالحاضر، تیراندازی نهایی در چنین ابزارهایی برعهدهی انسان است؛ اما درصورتیکه عامل انسانی برداشته شود، چنین سیستمهایی برای غیرنظامیان بسیار خطرناک خواهند بود.
سویت میگوید: «هوش مصنوعی در شناسایی افراد سفیدپوست عملکرد بهتری دارد؛ بنابراین، افراد تیرهپوست تیره را بهراحتی میتواند با یکدیگر اشتباه بگیرد. وقتی در میدان نبرد باشیم و چنین سیستمی نتواند دوست و دشمن را بهدرستی تشخیص دهد، آن زمان با فاجعهای بزرگ مواجه خواهیم شد.»
قطعاً تاکنون فیلمهای اکشن آیندهنگرانهای دیدهاید که در آنها، رباتها و سلاحهای قدرتمند هوش مصنوعی علیه انسانها اقدام میکنند. سویت در بخش دیگری از توضیحاتش گفت: «با هوش مصنوعی، رخدادن سناریو مذکور واقعاً امکانپذیر است و همین تفکر باعث ایجاد تنش در نیروهای ارتش سرتاسر جهان شده است.»
نبود پیچیدگی موردنیاز برای نفوذ به سیستمهای جنگی، باید همهی مردم را نگران کند
علاوهبراین، نگرانیهایی دربارهی امنیت سایبری هوش مصنوعی و توانایی دولتهای خارجی یا افراد مستقل برای در دستگرفتن ابزارهای حیاتی ارتشها وجود دارد. سویت دراینباره گفت: «فکر نمیکنم همچنان پاسخ روشنی برای این نگرانیها وجود داشته باشد و همه میدانند هرچه ارتش بیشتر به اتوماسیون روی بیاورد، افراد بدنیت میتوانند بیشتر از این فناوریها سوءاستفاده کنند.»
کارشناسان میگویند نبود پیچیدگی موردنیاز برای نفوذ به سیستمهای جنگی باید همهی مردم را نگران کند. سویت اظهار کرد: «قبلاً برای سوءاستفاده از تجهیزات ارتشها به دانش فنی بسیار زیاد در حوزهی کامپیوتر نیاز داشتید؛ اما درحالحاضر تقریباً هرکسی با هر ضریب هوشی میتواند چنین کارهایی انجام دهد.»
درحالیکه هوش مصنوعی در فناوریهای پزشکی و دارویی و برای درمان بیماریها پیشرفت میکند، دانشمندان هشدار میدهند چیزی به سادگی تغییر صفر به یک در کامپیوتر میتواند ازطریق اجرای هزاران شبیهسازی که به تولید ترکیبات سمی منجر میشود، سلاحهای شیمیایی بسازد.
دکتر شان اکینز، مدیرعامل شرکت Collaborations Pharmaceuticals، در مستند سویت داستانی را بیان میکند که گروه ناظر هوش مصنوعی سوئیسی چگونه در سال ۲۰۲۱ به او مأموریت دادند تا امکان طراحی سلاح بیولوژیکی را آزمایش کند.
اکینز در گفتوگو با NYPost اعلام کرد: «در حال ساخت مدلهای یادگیری ماشینی مختلفی هستیم تا احتمال سمیبودن مولکولها را بررسی کنیم. ما بهمعنای واقعی کلمه، سوئیچ را روی یکی از مدلها چرخاندیم و یکشبه مولکولهای سلاح شیمیایی تولید کرد. جالب اینکه چنین کاری را شرکت کوچکی با مک رومیزی مدل ۲۰۱۵ انجام داد.»
در میان مدلهای تولیدشده با هوش مصنوعی، ترکیبات مشابهی با VX وجود داشت که یکی از کشندهترین عوامل عصبی شناختهشده در جهان است.
دکتر اکینز افزود: «از فناوریهای مولد برای انجام این کار استفاده کردیم که البته در سال ۲۰۲۱ بسیار ابتدایی بودند. اکنون تقریباً دو سال از آن زمان گذشته و فکر میکنم کاری که انجام دادیم درمقایسهبا آنچه امروز امکانپذیر شده، بسیار ناچیز است.»
اکینز نگران است که دانشمندان سرکش یا افراد فاقد صلاحیت کافی با استفاده از هوش مصنوعی سلاحهای زیستی و شیمیایی خطرناک تولید کنند. او میگوید: «فکر میکنم خطر واقعی این است بهنقطهای برسیم که به مولکولهای جدید با سنتر بسیار آسانتر دست یابیم. این موضوع واقعاً جای نگرانی دارد و هوش مصنوعی میتواند به انسانها کمک کند تا مولکولهایی دههاهزار برابر سمیتر تولید کنند.»
اکینز میگوید همچنان اقدامی جدی برای جلوگیری از ساخت سلاحهای شیمیایی با هوش مصنوعی صورت نگرفته و دلیل آن درکنکردن خطر بالقوهی فناوری مذکور است. دکتر اکینز سرعت سرسامآور ارتقای فناوری یادگیری ماشینی را در رشتهی خود با دانشمندان سازندهی بمب اتم مقایسه کرد؛ زیرا آنها نیز به عواقب کار خود فکر نمیکردند.
اکینز همچنین اشاره کرد: «حتی پدرخواندهی هوش مصنوعی نیز اکنون متوجه شده است که این فناوری چقدر خطرناک است و گسترش آن چه خطرهای دیگری بهدنبال خواهد داشت. همچنین، فکر میکنم بازگرداندن شرایط به حالت قبل بسیار دشوار خواهد بود.»
نظرات