خودروهای خودران بهزودی تصمیمات اخلاقی میگیرند
پیشرفت فناوری افقهای جدیدی پیش روی انسان میگشاید. چندین سال است که شرکتهای بزرگی مانند گوگل، فورد و اوبر روی خودروهای خودران سرمایهگذاری میکنند. پژوهشگران میگویند ممکن است در خودروهای خودران، سیستم تصمیمگیری بر اساس اصول اخلاقی استفاده شود. توسعهی چنین خودروهایی، سؤالهای زیادی مطرح کرده است، از جمله تصمیمات مهمی که بالقوه، تعیینکنندهی مرگ و زندگی هستند.
آیا خودروهای خودران باید به هر قیمتی از صاحب خود حفاظت کنند یا اینکه باید آنها را قربانی کرد تا گروه بزرگتری از مردم را نجات دهند؟ اگرچه هیچ پاسخ مشخصی به این سؤال وجود ندارد؛ ولی یک تیم تحقیقاتی در آلمان میگوید اخلاق بهزودی نقش مهمی در نحوه تصمیمگیری خودروهای خودران بازی میکند. علم نشان میدهد که اخلاق انسانی برای مدلسازی دقیق، بیش از حد وابسته به شرایط است؛ به این معنی که نمیتوان شرایط و پیچیدگی آن را بهخوبی در الگوریتم خودروهای خودران اضافه کرد.
پژوهشگران دانشگاه اسنابروک آلمان معتقدند این همهی داستان نیست. در یک پروژهی واقعیت مجازی، از شرکتکنندگان در مطالعه خواسته شده بود سوار بر یک ماشین، در خیابانهای حومه شهر در شب رانندگی کنند. در سفرهای مجازی آنها، کوبیدن به اشیاء، حیوانات یا انسانها هم در حوادث اجتنابناپذیر، به انتخابهای افراد اضافه شد تا بتوان تصمیمگیری آنها را سنجید. درنهایت تصمیمات آنها مدلسازی و به قوانینی تبدیل شد که ارزش «زندگی» برای هر شیء، انسان و حیوان را که احتمالا در تصادف دخیل بودند، تعریف میکرد.
پروفسور پیتر کنیگ، یکی از نویسندگان این مقاله میگوید:
ما میدانیم که چگونه تصمیمات اخلاقی انسان را در ماشینها اجرایی کنیم؛ ولی ما بهعنوان افراد جامعه انسانی هنوز در یک معضل ابهامانگیز درماندهایم. اولا باید تصمیم بگیریم که آیا ارزشهای اخلاقی باید در دستورالعملهای رفتار ماشین قرار بگیرند یا اینکه در صورت لزوم، ماشینها هم باید مانند انسان عمل کنند؟
وزارت حمل و نقل و زیرساختهای دیجیتال دولت فدرال آلمان، اخیرا ۲۰ اصل اخلاقی برای خودروهای خودران تعریف کرده است؛ اما این قوانین بر اساس این فرض هستند که اخلاق انسانی نمیتواند مدلسازی شود. آنها همچنین در مورد برخی ادعاهای جسورانه درباره چگونگی عملکرد ماشینها، بحث میکنند. آیا باید کودکانی را که ناگهان به وسط جاده میپرند نجات داد یا افراد بزرگسالی که در مسیر پیادهرو ایستادهاند؟ از نظر آنها به علت اینکه کودک خودش باعث این خطر شد، مقصر است و بزرگسالان در اولویت هستند. اگر چه این استدلال منطقی است؛ اما لزوما به این معنی نیست که یک انسان واقعی در وضعیت مشابه، چگونه عمل میکند.
روش مناسب برای حل این معضل چیست؟ مطالعات دانشگاه اسنابروک پاسخ قطعی نمیدهند؛ ولی این پژوهشگران خاطرنشان میکنند که «تعداد قابل توجهی از حوادثی که قضاوت اخلاقی در آنها دخیل است، ضرورت وجود سیستمهای تصمیمگیری اخلاقی در خودروهای خودران را ایجاد میکند.»
فقط این خودروها نیستند که باید در مورد آنها فکر کنیم. به احتمال زیاد سیستمها و رباتهای هوش مصنوعی مسئولیت بیشتری در دیگر شرایط مرگ و زندگی مانند بیمارستانها به عهده خواهند داشت؛ بنابراین به نظر میرسد ایده خوبی باشد که چارچوب اخلاقی برای کار با آنها ایجاد و اجرایی شود.