زنگ خطر در ۲۲ کلمه؛ پژوهشگران از احتمال انقراض انسان بهدست هوش مصنوعی میگویند
گروهی از مدیران و مهندسان و پژوهشگران ارشد هوش مصنوعی اعتقاد دارند که این فناوری خطری جدی برای نسل بشر محسوب میشود و ممکن است عامل انقراض ما باشد. بیانیهی این افراد متنی ۲۲ کلمهای است. دلیل کوتاهبودن بیانیه این است که تاحدممکن تعداد بیشتری از افراد آن را امضا کنند.
در متن بیانیه میخوانیم: «کاهش خطر انقراض ناشی از هوش مصنوعی باید درکنار سایر خطرهای اجتماعی نظیر همهگیری و جنگ هستهای، اولویتی جهانی باشد.»
بیانیهی مذکور را یکی از سازمانهای غیرانتفاعی آمریکایی به نام مرکز ایمنی هوش مصنوعی منتشر کرده است و افراد سرشناسی نظیر مدیرعامل گوگل دیپمایند و مدیرعامل OpenAI (شرکت خالق ChatGPT) آن را امضا کردهاند.
همچنین، دو نفر از سه پژوهشگر هوش مصنوعی برندهی جایزهی تورینگ در سال ۲۰۱۸ بیانیهی یادشده را امضا کردهاند. از جایزهی تورینگ بهعنوان جایزهی نوبل حوزهی کامپیوتر یاد میشود. یان لیکان، سومین پژوهشگر برندهی جایزهی تورینگ و دانشمند ارشد هوش مصنوعی شرکت متا، فعلاً بیانیه را امضا نکرده است.
بیانیهی ۲۲ کلمهای جدیدترین نمونه از مجادله بر سر ایمنی هوش مصنوعی است. مدتی قبل نامهای سرگشاده که به امضای افراد سرشناسی نظیر ایلان ماسک رسید، خواستار توقف ۶ ماههی توسعهی هوش مصنوعی پیشرفته شد. شماری از متخصصان گفتند آن نامه برخی از خطرهای هوش مصنوعی را بیشازحد بزرگ جلوه داده است. عدهای دیگر با کلیات موضوع موافق بودند؛ اما با راهکار ارائهشده موافقت نکردند.
براساس گزارش ورج، کوتاهبودن بیانیهی ۲۲ کلمهای جدید باعث میشود که تعداد بیشتری از متخصصان با آن همراه شوند. در این بیانیه، راهکار مشخصی برای مقابله با هوش مصنوعی ارائه نشده است. مدیر مرکز ایمنی هوش مصنوعی میگوید افرادی که نگران خطرهای این فناوری هستند، میتوانند ازطریق بیانیهی جدید دیدگاه خود را آشکار کنند.
مخالفان هوش مصنوعی میگویند سیستمهای مبتنیبر این فناوری ممکن است بهیکباره شروع به سرپیچی از دستورهای انسان کنند و برای نابودی ما قدم بردارند. عدهای دیگر میگویند چنین آیندهای غیرمحتمل است؛ چون هوش مصنوعی درحالحاضر نمیتواند حتی کارهای سادهای نظیر راندن خودرو را انجام دهد و هنوز فاصلهی زیادی تا دوران خودروهای کاملاً خودران داریم.
نظرات