هوش مصنوعی در مقایسه با انسان عملکرد بهتری در توزیع ثروت دارد
تحقیقات جدید نشان میدهد که روشهای ابداعشده با هوش مصنوعی (AI) برای توزیع ثروت محبوبتر از سیستمهای طراحیشده توسط افراد است. این یافتهها که توسط تیمی از محققان شرکت هوش مصنوعی مستقر در بریتانیای دیپمایند انجام شده، نشان میدهد که سیستمهای یادگیری ماشینی نهتنها در حل مسائل پیچیدهی فیزیکی و زیست شناسی دارای عملکرد خوبی هستند، بلکه ممکن است به تحقق بهتر و بهینهتر اهداف اجتماعی بازتر و قابل تنظیمتر نیز کمک کنند؛ اهدافی همچون داشتن یک جامعهی عادلانه و سعادتمند.
البته کار فوق بههیچروی کار آسانی نیست. ساختن ماشینی که بتواند نتایج مفید و واقعاً باب میل انسانها ارائه دهد دشوار است. در تحقیقات هوش مصنوعی از این همسانی و باب میل بودن با تعبیر «همسویی ارزش» یاد میکنند.
شاید پیچیدگی حاکم بر اوضاع را هنگامی درک کنیم که به یاد آوریم افراد مختلف اغلب بر سر بهترین روش برای حل همه چیز، بهویژه مسائل اجتماعی، اقتصادی و سیاسی با همدیگر اختلاف نظر دارند. گروهی از محققان در مقالهی جدیدی به سرپرستی رافائل کوستر، نویسندهی اول و دانشمند بخش پژوهشی شرکت دیپمایند توضیح میدهند:
یک مانع کلیدی واقع بر سر راه همسویی ارزش این است که جامعهی بشری دیدگاههای متعددی را میپذیرد؛ و این موضوع باعث میشود تا هوش مصنوعی در انتخاب اینکه بایستی از اولویتهای کدام گروه پیروی کند، دچار سردرگمی شود.بهعنوان مثال، دانشمندان علوم سیاسی و اقتصاددانان اغلب بر سر اینکه چه مکانیسمهایی جوامع ما را عادلانهتر یا کارآمدتر عمل میکنند، اختلاف دارند.
محققان برای کمک به پر کردن شکاف حاکم، عاملی برای توزیع ثروت ایجاد کردند. این عامل، تعاملات افراد (اعم از واقعی و مجازی) را در دادههای آموزشی خود برای هوش مصنوعی لحاظ کرده بود. بهتعبیر سادهتر، عامل دخیلشده در این پژوهش، هوش مصنوعی را به سمت نتایج ترجیحی انسان (و با فرضی کلی، عادلانهتر) سوق میداد.
درحالیکه همهی ما میدانیم هوش مصنوعی گاهی میتواند نتایج واقعاً شگفتانگیزی درزمینههای مختلف به دست آورد؛ اما از سویی زمانی که هوش مصنوعی به حال خود رها شود، این امکان وجود خواهد داشت که به نتایج اجتماعی دور از حد و کیفیت مطلوب انسان برسند. بازخورد انسانی در چنین مواردی میتواند به هدایت شبکههای عصبی در جهت بهتر کمک کند. محققان مینویسند:
در تحقیقات هوش مصنوعی، درک روزافزونی پیرامون اینکه ما برای ساختن سیستمهای سازگار با انسان، به روشهای تحقیقاتی جدیدی نیاز داریم در حال شکل گرفتن است؛ روشهایی که در آن انسانها و عوامل دخیل تعامل داشته باشند. همچنین تلاش بیشتری برای یادگیری ارزشها بهطور مستقیم از انسان بهمنظور ساخت هوش مصنوعی همسو با ارزشهای انسانی در حال انجام است.
در طی آزمایشهایی که در مجموع دربردارندهی هزاران شرکتکنندهی انسانی بودند، عامل هوش مصنوعی پیشنهادی از سوی تیم پژوهشی که به نام «هوش مصنوعی دموکراتیک» از آن یاد شده، یک فعالیت تمرینی سرمایهگذاری با عنوان بازی کالاهای عمومی را مورد بررسی قرار داد. در این بازی، بازیکنان مقادیر متفاوتی پول دریافت میکنند و میتوانند پول خود را به یک صندوق عمومی تحویل دهند و سپس بازدهی متناسب با سطح سرمایهگذاری خود از صندوق دریافت کنند.
در شماری از سبکهای مختلف بازی، ثروت ازطریق سه پارادایم یا نمونهی عالی بازتوزیع سنتی بین بازیکنان توزیع شد و هر کدام از آنها بهطور متفاوتی به سرمایهگذاری شرکتکنندگان در بازی پاداش میدادند:
- برابریگرای سختگیرانه و مشخص
- لیبرتارین (وابسته به مشی اختیارگرایی)
- برابریگرای از نوع لیبرال
روش چهارمی هم به نام مکانیسم توزیع مجدد انسانمحور (HCRM) آزمایش شد. این روش با استفاده از یادگیری تقویتی عمیق و با کمک گرفتن از دادههای بازخورد از بازیکنان انسانی و عوامل مجازی طراحیشده برای تقلید از رفتار انسان، توسعه یافته است.
آزمایشها بعدی نشان داد که سیستم HCRM برای بازپرداخت پول یا دریافت سود سرمایهگذاری در بین بازیکنان محبوبتر از استانداردهای توزیع مجدد سنتی و همچنین محبوبتر از سیستمهای توزیع مجدد جدید طراحیشده توسط داوران انسانی عمل میکند؛ مورد دوم درواقع توسط داوران انسانی طراحی میشود و عامل مشوق برای آنها نیز دریافت مقادیر کوچکی از پاداشها بهازای هر یک رأی دریافتی از سوی بازیکنان بود.
بنابر توضیح محققان، هوش مصنوعی در این بررسیها، مکانیسمی را کشف کرده که عدم تعادل اولیه ثروت را اصلاح و خودداریکنندگان از پرداخت را تحریم میکند و درنهایت با موفقیت آرای اکثریت را هم کسب کرد. پژوهشگران مینویسند:
ما نشان میدهیم که میتوان از همان ابزارهای دموکراتیک برای دستیابی به اجماعی استفاده کرد که در جامعهی بشری گستردهتر برای انتخاب نمایندگان، تصمیمگیری در مورد سیاستهای عمومی یا قضاوتهای قانونی استفاده میشود.
محققان اذعان میکنند که سیستم آنها تعدادی سؤال درخور تامل را پیش روی ما میگذارد. سؤالها عمدتاً پیرامون این موضوع هستند که همسویی ارزش در هوش مصنوعی پیشنهادی آنها حول تصمیمات دموکراتیک میچرخد، به این معنی که عامل درواقع میتواند نابرابریها یا سوگیریها را در جامعه تشدید کند؛ به شرطی که بهاندازهی کافی محبوب باشند و اکثریت مردم به آن رأی دهند.
بحث اعتماد هم در اینجا به میان میآید. در طی آزمایشها، بازیکنان شرکتکننده، هویت واقع در پس مدل توزیع مجدد ثروت را که برای آن پول پرداخت میکردند، نمیدانستند. آیا اگر میدانستند که آن تصمیم مالی خاص، به جای یک انسان توسط هوش مصنوعی اتخاذ شده، بازهم قرار بود همان راه پیشنهادی توزیع را ترجیح دهند یا خیر؟ پاسخ این سؤال هنوز مشخص نیست.
در نهایت، تیم پژوهشی بر این باورند که تحقیقاتشان نباید بهعنوان یک پیشنهاد تکنوکراتیک رادیکال برای برچیدن نظم مستقر فعلی پیرامون چگونگی توزیع مجدد ثروت در جامعه تلقی شود؛ بلکه این یک تحقیق صرفاً ابزار پژوهشی است که میتواند به انسانها در مهندسی و طراحی راهحلهای بالقوهی بهتر نسبت به آنچه که هماکنون داریم کمک کند. پژوهشگران مینویسند:
نتایج ما به معنای حمایت از شکلی از «دولت هوش مصنوعی» نیست که در پی آن عوامل مستقل تصمیمات سیاسی را بدون دخالت انسانی اتخاذ کنند. ما هوش مصنوعی دموکراتیک را یک روش تحقیق برای طراحی مکانیسمهای بالقوه مفید میدانیم، نه دستور العملی برای استقرار هوش مصنوعی در حوزهی عمومی.
این یافتهها در Nature Human Behaviour منتشر شده است.
نظرات