درسهایی که مایکروسافت از بات هوش مصنوعی Tay گرفت
مارس ۲۰۱۶، مایکروسافت فعالیت بات هوش مصنوعی Tay را در توییتر آغاز کرد تا ببیند این باتِ مبتنیبر یادگیری ماشین و هوش مصنوعی چگونه با انسانها تعامل میکند. بهگفتهی دایانا کِلی (Dianna Kelley)، مدیر بخش امنیت سایبری مایکروسافت، گروهی که وظیفهی توسعه و پشتیبانی از Tay را برعهده داشت، میخواست این بات زبان طبیعی را یاد بگیرد. از دیدگاه افراد گروه، توییتر محیطی طبیعی بود که میشد از آن برای آزمایش بات استفاده کرد. دایانا کِلی در کنفرانس RSA آسیاپسیفیک و ژاپن ۲۰۱۹ که ماه پیش در سنگاپور برگزار شد، دربارهی بات Tay گفت:
Tay مثالی عالی برای هوش مصنوعی و یادگیری ماشین است.
Tay آمریکاییهای ۱۸ تا ۲۴ ساله را هدف قرار داده و برای سرگردمکردن افرادی طراحی شده بود که بهصورت تفننی و تفریحی باهم گپ میزدند. در کمتر از ۲۴ ساعت پس از آغاز فعالیت Tay در توئیتر، این بات بیش از ۵۰ هزار دنبالکننده پیدا و نزدیک به ۱۰۰ هزار توییت منتشر کرده بود. Tay ابتدا خیلی دوستداشتنی شروع کرد و سلامی داد و آدمها را باحال خطاب کرد؛ اما وقتی نوبت به تعامل با دیگر کاربران توییتر رسید، ساختار یادگیری ماشینیاش فورا تمام تعاملات را به خوب و بد و زشت تقسیمبندی کرد. برخی از توییتهای Tay بسیار تهاجمی و در کمتر از ۱۶ ساعت، به نژادپرستی بیپروا تبدیل شد که باید برای تنظیمات مجدد از مدار خارج میشد. کِلی گفت:
درواقع، Tay صرفا درمعرض واژهها و اصطلاحات اندکی از زبان قرار گرفته بود که بخش زیادی از آن کاملا نژادپرستانه و خشن بود. نمیخواهم مجددا حرفهای Tay را تکرار کنم؛ اما مثلا گفته بود «حق با نازیها بود». بسیاری از این اتفاقات ناخواسته بود. بالاخره بعضی وقتها از این چیزها هم پیش میآید.
وی معتقد است این اتفاق مثالی فوقالعاده برای درک این مسئله است که هنگام خلق چیزهایی همچون هوش مصنوعی در زمان دریافت اطلاعات و آموزش، باید به این موارد توجه کرد. کِلی در این باره گفت:
همزمان که هوش مصنوعی و یادگیری ماشینی را برای تقویت کسبوکارمان بهکار میبریم، باید بدانیم تبعاتی همچون احتمال انحراف در آنها هم وجود دارد. در این مورد خاص، تبعات آن خیلی برای مایکروسافت شدید نبود. آنها همراه عذرخواهی عمومی گفتند Tay را از مدار خارج میکنند؛ اما جالب این بود که مدیر مایکروسافت شخصا با تیم مرتبط تماس گرفت و بهجای شکایت و گفتن جملاتی چون «وای خدا، خیلی کارتان وحشتناک بود» یا «خیلی بد شد»، صرفا گفت که درس گرفتیم.
هوش مصنوعی باید دربرابر بدآموزی کاملا مقاوم شده باشد
بهگفتهی کِلی، این درسی مهم برای تمام کسانی است که بهشکلی درگیر این مسئله هستند. همهی شرکتها باید هنگام طراحی هوش مصنوعی و یادگیری ماشینی، آنها را دربرابر چنین رفتار آزاردهندهای کاملا مقاوم کنند. کِلی در این زمینه گفت:
درسگرفتن از Tay حقیقتا سهم مهمی در توسعهی مبانی دانش تیم طراحی Tay داشت. حالا آنها حین یادگیری، تنوع و تفاوتهای خودشان را هم یاد میگیرند. در نگاهمان به هوش مصنوعی و نحوهی تحقیق و خلق آن به نحوی که هم برای جهان پیرامون مفید و هم بهدرستی پیادهسازی شده باشد، بسیار مهم است که ظرفیتهای اخلاقی اجزای هوش مصنوعی را درک کنیم. هنگام توسعهی هوش مصنوعی، درواقع درحال دستزدن به این خطر هستیم که شاید بهجای تسریع در انجام کارها و امنیت سایبری بیشتر، سامانههایی خلق کنیم که خودکار اعمالی حقیقتا متعصبانه انجام میدهند.
از دیدگاه دایانا کِلی، جلوگیری از چنین چیزی مستلزم وجود انصاف و برابری است. مثالی که او برای این موضوع زد، ابزاری برای استخدام بود؛ ابزاری که از هوش مصنوعی برای بررسی رزومهی افراد و تعیین داوطلبان مناسب درمقابل داوطلبان نامناسب استفاده میکند.
اگر خوراک هوش مصنوعی را صرفا رزومهی افرادی قرار دهید که همگی قبلا شاغل بودهاند، درواقع به الگوریتم آموزش میدهید که بیشتر بهدنبال همانها هم باشد. شاید ظاهرا برای شروع بد نباشد؛ اما مگر ما دربارهی مهندسی و بسیاری از مشاغل مرتبط با کامپیوتر، بهویژه امنیت سایبری چه میدانیم؟ آیا ذاتا ازلحاظ جنسیتی بهسمت جنس خاصی سنگینی ندارد؟ البته، بسیاری از افراد شاغل در مشاغل برنامهنویسی کامپیوتر و امنیت سایبری، غالبا مرد هستند و این نسبت درزمینهی امنیت سایبری میتواند به ۹۰ درصد هم برسد.
وی معتقد است آموزش هوش مصنوعی با اطلاعاتی از این دست که «داوطلب خوب» شبیه کیست، ابزار را به جهتی سوق میدهد که بیشتر بهدنبال کسانی باشد که قبلا در آن شغل بودهاند.
اگر هوش مصنوعی در تشخیص بیماری اشتباه کند، چه کسی پاسخگو است؟
کِلی در بخش دیگری از سخنان در کنفرانس RSA آسیاپسیفیک و ژاپن ۲۰۱۹ گفت:
نکتهی مهم دربارهی هوش مصنوعی، همراهکردن آن با قابلیت اطمینان و امنیت است؛ زیرا وقتی از هوش مصنوعی برای کسب تصمیمات مهمی همچون مقولهی تشخیص بیماری استفاده کنیم که مثلا آیا فلان غده، سرطانی است یا خیر، باید مطمئن باشیم تصمیم گرفتهشده کاملا درست است. اگر برایتان تشخیص سرطان داده شود یا بگویند مبتلا به سرطان نیستید؛ اما بعدا مشخص شود مبتلا هستید، چه کسی پاسخگو است؟ بنابراین، در تمامی این موارد باید بسیار دقیق باشیم و هنگام توسعهی هوش مصنوعی و یادگیری ماشینی، آنها را دخیل کنیم. هوش مصنوعی باید دربرابر سوءاستفاده نیز قابلاطمینان باشند. Tay داشت بسیار نژادپرست میشد. میخواهیم مطمئن باشیم که در موارد بعدی، دربرابر چنین حملاتی مقاوم است.
مثال دیگری که کِلی مطرح کرد، حسگر دستشویی برای شستوشوی دستها بود:
طراحان حسگر آن را با پوست دست خودشان امتحان کردند که خیلی عمومیت نداشت؛ درنتیجه، اگر پوستی رنگپریده مثل من داشتید، شاید خیلی عالی کار میکرد. بااینحال، بهاحتمال زیاد با پوستی تیرهتر درست عمل نمیکرد؛ بنابراین، سامانهای داشتید که جامع نبود.
حریم خصوصی و شفافیت از دیگر مقولات بسیار مهم در هوش مصنوعی هستند که دایانا کِلی به آنها اشاره کرد:
حریم خصوصی کسی که اطلاعاتش موجود است و شفافیت در روش کمک به دیگران، درک نحوهی کار مدل را موجب میشود. این نهتنها مشکل فناوری، بلکه مشکلی بزرگتر است و گروهی متنوع از مردم باید در ایجاد سامانهها همکاری کنند تا مطمئن شویم کاملا اخلاقمدار خواهند بود.
دیدگاه شما در بارهی باتهای هوش مصنوعی چیست و آنها را چقدر سودمند میدانید؟