جایگاه اخلاق در هوش مصنوعی چیست؟

یک‌شنبه ۱۶ تیر ۱۳۹۸ - ۱۴:۰۰
مطالعه 6 دقیقه
با توجه به سرعت چشمگیر رشد هوش مصنوعی و کاربردهای آن در زمینه‌های متعدد، تأثیر این فناوری بر اخلاق اجتماعی سؤال‌هایی به وجود آورده است.
تبلیغات

فناوری اطلاعات دیجیتال دسترسی همه‌گیر به اطلاعات را در هر زمان و هر نقطه‌ای آسان کرده است. این روند تأثیر چشمگیری بر شکل‌گیری تمام ابعاد جامعه از تولید تا توزیع صنعتی تا مصرف کالاها و خدمات گذاشته است. تأثیر فناوری اطلاعات دیجیتال مانند تحولات فناوری در گذشته بسیار فراگیر است؛ به‌ طوری‌ که انسان نه‌تنها خود را با آن تطبیق می‌دهد؛ بلکه رفتار خود را هم منطبق با آن تغییر می‌دهد.

امروزه، فناوری اطلاعات دیجیتال نحوه‌ی تعامل افراد با یکدیگر در جامعه و حتی شراکت با دیگران را هم تعریف می‌کند. روابط بازتعریف بین مصرف‌کنندگان و تولیدکنندگان و تأمین‌کنندگان؛ و صنایع و نیروهای کار؛ و ارائه‌دهندگان خدمات و مشتریان؛ و دوستان و شرکا به تغییرات چشمگیری در جوامع منجر شده است که می‌تواند هشداری برای نتیجه‌گیری‌های اخلاقی باشد. خیلی زود انسان امروزی با موج بعدی تحولات فناوری روبه‌رو خواهد شد: هوش مصنوعی. انقلاب دیجیتال اواخر قرن بیستم دسترسی به اطلاعات را بسیار ساده کرده است و امکان تصمیم‌گیری سریع را فراهم می‌کند؛ به‌ طوری‌ که برای مثال، سازمان‌ها صرفا به اتخاذ تصمیم‌های بنیادی اکتفا می‌کنند و سایر تصمیم‌ها را واگذار می‌کنند.

خودکارسازی تصمیم گیری

هوش مصنوعی در حال تغییر است و با خودکارسازی فرایند تصمیم‌گیری، نویدبخش نتایج باکیفیت‌تر و بهبود بازدهی است. موفقیت‌های سیستم‌های بازی هوش مصنوعی در شکست قهرمان شطرنج گری کاسپاروف و قهرمان Go، کی جای، ابعاد کیفی هوش مصنوعی و برتری آن بر انسان در محاسباتی مثل تأثیر تصمیم‌گیری لحظه‌ای بر حرکت‌های احتمالی آینده را ثابت می‌کنند. متأسفانه هوش مصنوعی در فرایند تصمیم‌گیری، شفافیت، قابلیت توصیف، قابلیت پیش‌گویی، قابلیت آموزش، قابلیت محاسبه‌ی حرکت انسانی را حذف کرده و ابهام را جایگزین آن‌ها می‌کند. منطق حرکت نه‌تنها برای بازیکنان، بلکه برای خالق برنامه هم مجهول است. در چنین شرایطی، وقتی هوش مصنوعی شروع به تصمیم‌گیری می‌کند، دیگر اثری از شفافیت و قابلیت پیش‌گویی دیده نمی‌شود.

حالا فرض کنید کودکی از والدین خود برای تماشای فیلم با دوستانش اجازه بخواهد و والدین موافقت می‌کنند، یک هفته بعد، کودک دیگر همان درخواست را می‌کند؛ اما این‌بار والدین رد می‌کنند. این داستان ساده، مسئله‌ی نابرابری و سلیقه‌محوری را مطرح می‌کند. برای اجتناب از اتهام سلیقه‌محوری، والدین به کودک خود توضیح می‌دهند که قبل از دریافت پول‌توجیبی باید تکالیف خود را انجام دهد. در صورتی‌ که والدین به کودک خود دلیل این کار را توضیح ندهند، احتمال شدت‌گرفتن تنش در خانواده وجود دارد. حالا فرض کنید سیستم هوش مصنوعی چنین نقشی را ایفا کند که از هزاران خانواده در موقعیت‌های مختلف داده جمع‌آوری کرده است. سیستم با بررسی پیامد اجازه‌دادن در خانواده‌ها می‌تواند این‌ طور نتیجه بگیرد که یکی از بچه‌ها می‌تواند پول‌توجیبی بگیرد؛ در حالی‌ که دیگری مجاز به دریافت پول نیست.

با این حال، سیستم هوش مصنوعی نمی‌تواند دلیل کار خود را توضیح دهد؛ بلکه فقط می‌تواند با وزن‌دهی به معیارهایی مثل رنگ مو، وزن، قد و دیگر مشخصات کودک، بهترین تصمیم ممکن را برای خانواده‌های دیگر هم اتخاذ کند. این سیستم چگونه کار می‌کند؟ در دادگاه‌های قدیم، حتی در صورت یکسان‌نبودن شرایط و شباهت تقریبی آن‌ها، تصمیم‌گیری نهایی براساس ترکیبی از حکم‌ها اتخاذ می‌شد. این در حالی است که هوش مصنوعی به رأی بر مبنای سابقه یا قاعده‌ی سابقه نیازی ندارد. تصمیم‌های هوش مصنوعی می‌توانند برای انسان‌ها ساختگی به نظر برسند؛ زیرا معمولا انسان‌ها به مجموعه‌ی محدودی از تجربه‌های مستقیم و غیرمستقیم تمایل دارند؛ در حالی‌ که ماشین‌ها به مجموعه‌ی گسترده‌ای از داده‌ها دسترسی دارند.

هوش

انسان‌ها نمی‌توانند با دقت زیاد تجربیات خود را در بازه‌ی زمانی طولانی‌مدت جست‌وجو کنند؛ در حالی‌ که این کار برای ماشین بسیار ساده است. انسان‌ها معمولا معیارهایی را حذف می‌کنند که به نظر غیرمرتبط یا غیرمنطقی می‌رسند؛ در حالی‌ که ماشین معمولا چیزی را حذف نمی‌کند. درنتیجه، ماشین ممکن است تصمیم‌های غیرمرتبط باسابقه را اتخاذ کند که در مقیاس درک‌پذیر انسان قرار ندارد. با حرکت سریع کسب‌وکارها و جوامع به‌سمت هوش مصنوعی و بهبود تصمیم‌گیری در افق زمانی طولانی‌تر، انسان به‌ دلیل چشم‌انداز محدود عقب‌نشینی می‌کند و ناامید می‌شود و تنها ارزش برای عملکرد صحیح جامعه، یعنی اعتماد، هم به‌ مرور کاهش پیدا می‌کند.

برای درک میزان ساختگی‌بودن تصمیم‌های هوش مصنوعی، باید روش تصمیم‌گیری انسان را بررسی کرد. انسان‌ها معمولا براساس مجموعه‌ای از قوانین آشکار یا روابط مبتنی بر پیامدگرایی و ترکیب تصمیم می‌گیرند. انسان‌ها در برابر اطلاعات مرتبط برای تصمیم‌گیری گزینشی عمل می‌کنند؛ اما ماشین‌ها به‌صورت غیرگزینشی عمل می‌کنند و حتی معیارهایی را در نظر می‌گیرند که در روند تصمیم‌گیری برای انسان اهمیتی ندارند. مثال‌های بی‌شماری از این نمونه وجود دارد که می‌توان به غیرفعال‌سازی ربات چت مایکروسافت پس از ارسال متن‌های ضدیهودی در توییتر یا بررسی دانشگاه بوتسون اشاره کرد که رابطه‌ی جنسیتی کلماتی مثل Boss و Architect و Financier با مردان و رابطه‌ی جنسیتی کلماتی مثل Nurse و Receptionist با زنان را آشکار کرد. این خروجی‌ها را احتمالا داده‌ها تولید می‌کنند؛ اما در تضاد با ارزش‌های آشکار انسانی هستند. اگر فرایندهای داده‌محور به خروجی الگوریتم‌های هوش مصنوعی وابسته باشند، تصمیم‌های انحرافی را به بار خواهند آورد که اغلب اوقات در تضاد با ارزش‌های اخلاقی هستند.

نفوذناپذیری هوش مصنوعی مانع از تصمیم‌گیری صحیح می‌شود

در سال ۲۰۱۶، ProPublica شواهد چشمگیری از این‌ دست را ارائه داد. برای مثال، دادگاه‌های ایالات‌ متحده از برنامه‌ای کامپیوتری استفاده کرده بودند که به‌اشتباه متهمان سیاه‌پوست را که در بازه‌‌ای دوساله مرتکب جرمی نشده بودند، به‌عنوان مجرم با نرخ دوبرابر متهمان سیاه‌پوست بار دیگر پرچم‌گذاری کرده بود (۴۵ در مقایسه با ۲۳ درصد). این در حالی است که اگر انسانی این کار را انجام می‌داد، لقب نژادپرست به او داده می‌شد.

هوش مصنوعی می‌تواند بین تجربیات جمعی و ارزش‌های آشکار جدایی بیندازد. تجربه‌های جمعی ایستا نیستند؛ بلکه براساس تصمیم‌های مهم اجتماعی شکل می‌گیرند. تصمیم‌های اجتماعی هم براساس ارزش‌های اخلاقی اتخاذ می‌شوند؛ بنابراین، آیا فرایند تصمیم‌گیری به ماشینی واگذار می‌شود که صرفا درباره‌ی گذشته به یادگیری می‌پردازد نه آینده؟ با توجه به مقیاس کاربردهای هوش مصنوعی در زمینه‌هایی مثل تشخیص پزشکی، خدمات مالی و نظارت بر کارمند، حتی تغییرات کوچک هم پیامدهای شدید خواهند داشت. از آنجا که روزبه‌روز عملکرد الگوریتم‌ها در زمینه‌ی پیش‌گویی بهبود پیدا می‌کند، منطق ناظر بر چنین تصمیم‌هایی هم نفوذ‌ناپذیر خواهند شد.

بر همین اساس، انسان دیدگاه جامع تصمیم‌گیری را از دست می‌دهد و تمام اصول گذشته را کنار می‌گذارد. در بعضی نمونه‌ها، این مسئله می‌تواند غیراخلاقی و غیرقانونی و حتی کوته‌بینانه باشد. برای مثال، الگوریتم تکرار جرم اصولی مثل سابقه‌ی بی‌گناهی و برابری فرصت‌ها را نادیده گرفته است. سازگاری یکی از پیش‌نیازهای لازم اخلاق و یکپارچه‌سازی است. تصمیم‌ها باید به استاندارد‌هایی بیشتر از دقت آماری وابسته باشند. قرن‌ها است که فضیلت‌های مشترکی مثل اعتماد متقابل، کاهش آسیب، برابری و عدالت خود را به‌عنوان شاخص‌های بقای هرگونه‌ سیستم استنتاجی ثابت کرده‌اند.

بدون سازگاری منطقی، سیستم‌های هوش مصنوعی از ثبات و پاسخ‌گویی محروم می‌شوند. ثبات و پاسخ‌گویی دو عامل اساسی برای اعتمادسازی در طبیعت به شمار می‌روند. نفوذناپذیری تصمیم‌های داده‌محور با ایجاد شکاف بین تمایل‌های اخلاقی و استدلال‌های منطقی، مانع از دخالت در فرایندهای تصمیم‌گیری می‌شود. دنیای جدید انسان این‌گونه است؛ جایی که تصمیم‌های پیچیده به انتخاب‌های انعکاسی تقلیل می‌یابند و براساس خروجی‌های نظارت‌شده اعمال می‌شوند؛ جایی که پیچیدگی به‌سادگی تبدیل می‌شود و فناپذیری به کاربردپذیری. امروزه، ادراک انسان از اخلاق به‌ منزله‌ی چارچوبی برای تصمیم‌گیری در نظر گرفته می‌شود. مدت زیادی نیست که تصمیم‌گیری‌های انسان، سایه‌ی شک را بر اخلاق انداخته است.

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات