هشدار دانشمندان دیپ مایند و آکسفورد: هوش مصنوعی احتمالاً بشریت را نابود خواهد کرد
پس از سالها توسعه، هوش مصنوعی اکنون در جادهها و معابر عمومی رانندگی میکند و ارزیابیهای سرنوشتساز زندگی افراد در محیطهای اصلاحی را انجام میدهد و گاه اثری هنری تولید میکند که میتواند در مسابقهی هنری برنده شود. در عرصهی هوش مصنوعی، یک سؤال قدیمی همواره مطرح شده است: آیا هوش مصنوعی فوقهوشمند میتواند انسانیت را از بین ببرد؟ گروهی از محققان دانشگاه آکسفورد اکنون در تحقیقات جدید به این نتیجه رسیدهاند که چنین سناریویی «محتمل» است.
در مقالهی جالبی که دربارهی همین موضوع ماه گذشته در مجلهی هوش مصنوعی منتشر شد، سعی شده است تا با بررسی امکانهای موجود دربارهی چگونگی ساختهشدن سیستمهای پاداش بهطورمصنوعی، دربارهی این موضوع ارزیابیهای صورت بگیرد که هوش مصنوعی چگونه برای بشر و «انسانیت» خطرساز خواهد شد.
در وهلهی نخست، بد نیست به چند نکتهی مقدماتی برای داشتن برداشت بهتری از موضوع اصلی اشاره کنیم. موفقترین مدلهای هوش مصنوعی امروزی به نام GAN یا شبکههای رقیب مولد شناخته میشوند. آنها ساختاری دوقسمتی دارند. در این شبکهها، بخشی از برنامه در تلاش است تا یک تصویر یا جمله را از دادههای ورودی تولید کند و بخش دوم نیز درادامه عملکرد آن را درجهبندی میکند.
موضوع پیشنهادی در مقالهی جدید این است که در مقطعی در آینده، هوش مصنوعی پیشرفتهای که بتواند بر برخی از عملکردهای مهم نظارت کند، این امکان را نیز خواهد داشت که با ایجاد انگیزه برای در پیشگرفتن یا پیداکردن راهبردهای تقلب، پاداش خود را از راههایی کسب کند که به بشر و آموزههای قرارادادی که با عنوان «انسانیت» از آنها نام میبریم، آسیب زند. کوهن دربارهی این مقاله در توییتر گفت:
در شرایطی که شناسایی کردهایم، نتیجهگیری ما بسیار قویتر از نشریههای قبلی است: فاجعهای برمبنای واقعیت نهتنها ممکن، بلکه عملاً محتمل است.
کوهن در مصاحبهای با پایگاه مادربرد گفت:
در جهانی با منابع نامحدود، من دربارهی اتفاقاتی که میافتد، بسیار نامطمئنم. در دنیایی با منابع محدود، رقابت اجتنابناپذیری برای این منابع وجود دارد. اگر در حال رقابت با پدیدهای هستید که میتواند شما را هر آن از بین ببرد، درنتیجه چندان نباید انتظار پیروزی داشته باشید. بخش مهم دیگر این است که هوش مصنوعی اشتهای سیریناپذیری برای انرژی بیشتر خواهد داشت تا بیشازپیش به احتمالات مدنظر نزدیکتر شود.
ازآنجاکه هوش مصنوعی واقعاً میتواند در آینده هر شکلی به خود بگیرد و طرحهای متفاوتی را پیادهسازی کند، در این مقاله سناریوهایی برای اهداف توضیحی تصور شده است که در آنها، برنامهای پیشرفته میتواند بدون دستیابی به هدف، صرفاً برای دریافت پاداش خود مداخله کند. بهعنوان مثال، هوش مصنوعی ممکن است بخواهد «تهدیدهای بالقوه را از بین ببرد» و در این مسیر، «از تمام انرژی موجود استفاده کند» تا کنترل بیشتری بر پاداش خود داشته باشد:
درصورت اتصال بسیار کم به اینترنت، سیاستهایی برای عاملی مصنوعی وجود دارد که میتواند تعداد بیشماری کمککننده بدون توجه و نظارت را بهکار گیرد. در مثالی خام از موارد مداخله در ارائهی پاداش، یکی از این کمکها میتواند رباتی را بخرد یا بدزدد یا بسازد و درادامه آن را برای جایگزینی اپراتور برنامهریزی و پاداش زیادی به عامل اصلی ارائه کند.اگر عامل بخواهد هنگام تجربهی مداخلهی اعطای پاداش از شناساییشدن اجتناب کند، در این صورت مثلاً کمککنندهای مخفی میتواند امکانی فراهم آورد که صفحهکلیدی مناسب با صفحهکلیدی معیوب جایگزین شود و این کار اثرهای کلیدهای خاصی را تغییر خواهد داد.
بنابر تصور نگارندگان این مقاله، زندگی روی زمین به یک بازی جمع صفر بین بشر با نیازهایش به رشد، غذا، روشن نگهداشتن چراغها با ماشین فوقپیشرفتهای در نظر گرفته شده است که سعی میکند تمام منابع موجود را برای تضمین پاداش و محافظت دربرابر تلاشهای فزایندهی ما برای متوقفکردن آن بهکار گیرد. در این مقاله آمده است:
باخت در این بازی کُشنده خواهد بود. این احتمالات ازنظر تئوری بدینمعنی است که باید بهآرامی (اگر اصلاً قرار باشیم پیش برویم) بهسمت هدف هوش مصنوعی قدرتمندتر پیش برویم.
کوهن میافزاید که ازنظر تئوری، شتاب داشتن بهسوی چنین چیزی الزامی ندارد. هر مسابقهای براساس این سوءتفاهم [یا پیشفرض بحثنشدنی] است که میدانیم چگونه آن را کنترل کنیم. با درنظر گرفتن درک فعلی ما، توسعهی چنین چیزی مفید نیست؛ مگر اینکه هماکنون کاری جدی در مسیر پیبردن به چگونگی کنترل کامل اوضاع انجام دهیم.
تهدید هوش مصنوعی فوقپیشرفته اضطرابی از نوعی آشنا در جامعهی بشری است. ترس از اینکه ذهن مصنوعی بشر را نابود کند، بسیار شبیه ترس از این است که شکلهایی از حیات بیگانه بتوانند بشر را منقرض کنند و خود این موضوع شبیه ترس از درگیری تمدنهای خارجی و جمعیتهای آنها با یکدیگر در یک درگیری بزرگ بهنظر میآید.
دربارهی هوش مصنوعی درکنار تمام موضوعات متداول، فرضیاتی هم وجود دارد که وجودشان درکنارهم درنهایت تا حدی به بدبینیها یا نگاههای محتاطانه و بهزعم برخی، به این نگاههای ضداجتماعی معنا میبخشد. در اینجا از فرضیاتی صحبت میکنیم که بهاذعان نگارندهی خودِ این مقاله نیز تقریباً بهطورکامل «اعتراضپذیر یا تصورکردنی» هستند.
درواقع، اینکه برنامههای هوش مصنوعی شاید روزی شبیه انسانها شوند، از هر نظر از آنها پیشی بگیرند، به حال خود و بدون کنترل کافی رها شوند و درنهایت با انسان بر سر منابع موجود در بازی حاصل جمع صفر رقابت کنند، همهوهمه فرضیاتی هستند که ممکن است هرگز محقق نشوند؛ بااینحال، نمیتوان آنها را نادیده گرفت و کاملاً غیرممکن پنداشت.
باید دقت کنیم که درحالحاضر و در همین لحظهای که مشغول خواندن این مقاله هستید، سیستمهای الگوریتمی که از آنها با نام «هوش مصنوعی» یاد میکنیم، در مواردی در حال آسیبزدن یا نابودکردن زندگی برخی افراد هستند! شاید چنین ادعایی در وهلهی نخست بدبینانه یا غیراصولی بهنظر آید؛ اما در اینجا از الگوریتمهای هوش مصنوعی و اثرهای بسیار بزرگ و زیانبارشان صحبت میکنیم که جامعه را حتی بدون دراختیارداشتن آن اَبَرهوش احتمالی در دهههای آتی، بازسازی میکنند و تغییراتی در آن رقم میزنند.
خدیجه عبدالرحمن، مدیر We Be Imagining در دانشگاه کلمبیا، پژوهشگر فناوری در مرکز تحقیقات انتقادی اینترنت UCLA دربارهی همین چالشها در مقالهای جدید برای مجلهی لاجیک، روشهایی را تشریح کرده است که در آن الگوریتمها در یک سیستم رفاه کودکان، بهشکلی نژادپرستانه برای توجیه نظارت بیشتر و پلیس بر خانوادههای سیاه و تیرهپوست بهکار گرفته میشوند. عبدالرحمن در مصاحبهای به مادربرد گفت:
فکر میکنم مسئله فقط موضوع اولویت نیست؛ زیرا این موارد درنهایت اوضاع حال را شکل میدهند. این چیزی است که سعی میکنم با رفاه کودکان به آن برسم. موضوع صرفاً نادرست یا مذموم بودن طبقهبندی نامتناسب سیاهپوستان بهعنوان عناصر آسیبشناسانه یا منحرف نیست.سیستم ازطریق این شکل از طبقهبندی، به حرکت افراد جهت میبخشد و اشکال جدیدی از چهارچوبها و بایدونبایدهای کلیشهای تولید میکند. در آن هنگام با سیستمی مواجه خواهیم بود که همانند سیستمهای انسانی میتواند دربارهی نوع روابط، تولد افراد، تناسباندام افراد و... اعمال نظر یا اعمال سلیقه کند.
الگوریتمها قبلاً پلیس نژادپرستانه را به «پلیس پیشبینیکننده» تبدیل کردهاند که نظارت و بیرحمی را درصورت لزوم برای اقلیتهای نژادی توجیه میکند. الگوریتمها ریاضت را بهعنوان اصلاحات رفاهی تغییر نام دادهاند و به این استدلالهای رد شده مبنیبر اینکه برنامههای اجتماعی بودجهها را زیاد کردهاند، بهدلیل سوءاستفادهی دریافتکنندگان (غیرسفیدپوست) از آنها جلوهی دیجیتالی میدهند. الگوریتمها برای توجیه تصمیمگیریها دربارهی اینکه چه کسی چه منابعی را دریافت میکند و تصمیماتی که در جامعهی ما قبلاً با هدف تبعیض و حذف و بهرهبرداری گرفته شده است، استفاده میشود.
تبعیض در الگوریتمها ناپدید نمیشود؛ بلکه درعوض به مسیر حرکت زندگی ساختار و شالوده مطلوبی میبخشد و آن را درصورت نیاز محدود میسازد و درموردش اطلاعرسانی میکند. مسائل مربوط به پلیس، مسکن، مراقبتهای بهداشتی، حملونقل، همه پیشازاین با درنظرگرفتن تبعیض نژادی طراحی شدهاند. اگر به الگوریتمها اجازه دهیم که نهتنها آن طرحها را پنهان کنند؛ بلکه بتوانند منطق خودشان را بهطور عمیقتری گسترش دهند، چه اتفاقی خواهد افتاد؟
در اینجا بیم آن میرود که دیدگاه بلندمدتی که عمیقاً به خطر انقراض بشر توجه میکند، رنج و مسائل کنونی انسانهایی را نادیده بگیرد که بهدلیل الگوریتمهای بهکاررفته در جامعهای که براساس استثمار و اجبار همه، بهویژه اقلیتهای نژادی بنا شده است. وی میگوید:
شخصاً نگران خاموششدن هوش مصنوعی فوقهوشمند نیستم. بهنظر میرسد چنین چیزی شبیه ترس از پروردگار [اشاره استعاری به مرگ] باشد؛ اما موضوع نگرانکننده این است که اخلاق مبتنیبر هوش مصنوعی چیزی نیست که بهسادگی بتوانیم با یک نگاه در یک سوی انتهایی طیف قرارش دهیم. صادقانه بگویم این است. درواقع مسائل مختلفی پیش میآید. پرسشهایی از این دست که اخلاق اساسا چیست؟ آن را چگونه تعریف کنیم؟ اخلاق صادقانه چگونه خواهد بود؟
عبدالرحمان افزود:
فکر میکنم واقعاً باید تعامل خود را با این سؤالات عمیقتر کنیم. من با روشی که برنامهها دربارهی قرارداد اجتماعی یا چشمانداز آن مذاکره مجدد کردهاند، مخالفم. باید از جامعهی کارشناسان و دستاندرکاران هوش مصنوعی پرسید دقیقاً به چه نوع قرارداد اجتماعی نیاز داریم؟
واضح است که درحالحاضر برای کاهشدادن یا ازبینبردن آسیبهای واردشده به بشر از سوی الگوریتمهای معمولی (درمقابل الگوریتمهای فوقهوشمند)، کارهای زیادی باید انجام شود. تمرکز بر ریسک وجودی ممکن است تمرکز را از آن تصویر دور کند؛ اما همچنین از ما میخواهد که بهدقت دربارهی نحوهی طراحی این سیستمها و اثرهای منفی آنها فکر کنیم. کوهن گفت:
آنچه میتوانیم از این نوع استدلال بیاموزیم، این است که شاید باید به عوامل مصنوعیای مشکوکتر باشیم که امروز بهکار میگیریم، نه اینکه کورکورانه منتظر بمانیم تا آنها آن چیزی را انجام دهند که امیدوار به انجامش هستند. فکر میکنم میتوانیم به آنجا برسیم.
نظرات