سوگیری عمدی در هوش مصنوعی چگونه به ما آسیب می‌رساند

پنج‌شنبه ۳ آبان ۱۳۹۷ - ۱۲:۰۰
مطالعه 5 دقیقه
اشتباهات هوش مصنوعی، دیگر اتفاقی نیستند. سوگیری عمدی در هوش مصنوعی، تعریفی جدید از تهدیدات حملات سایبری است که افکار عمومی را جهت می‌دهد.
تبلیغات

موضوع تعصب ناخودآگاه در هوش مصنوعی، اغلب بر الگوریتم‌‌هایی تمرکز دارد که به‌‌صورت ناخواسته باعث آسیب به بخش‌هایی از جامعه می‌شوند؛ برای نمونه می‌‌توان به تصورات اشتباهی اشاره کرد مبنی بر اینکه احتمال ارتکاب جرائم درمورد متهمان سیاه‌‌پوست بیشتر است. این مشکل از آنجا ناشی می‌‌شود که تکنولوژی‌های تشخیص چهره عمدتاً با استفاده از تصاویر مردان سفیدپوست توسعه می‌‌یابند و در نتیجه الگوریتم در تشخیص چهره‌‌ی‌‌ زنان یا افراد دارای پوست تیره، عملکرد بسیار ضعیفی را از خود نشان می‌‌دهد.

اما مشکل می‌تواند بسیار عمیق‌تر از این موارد باشد. در حقیقت، جامعه باید مراقب انحراف دیگری نیز باشد؛ این احتمال وجود دارد که افراد شرور به دنبال حمله‌‌ به سیستم‌های هوش مصنوعی باشند؛ به‌‌گونه‌‌ای که تعصب و سوگیری‌‌های عامدانه را به‌‌صورت مخفیانه وارد سیستم یادگیری آن‌‌ها کنند. این موضوع می‌تواند به‌‌عنوان جنبه‌ای نگران‌کننده و تازه از حملات سایبری، کمپین‌‌های دروغ‌‌پراکنی یا تکثیر اخبار جعلی مطرح شود.

ai

با توجه به مطالعات دولت آمریکا روی داده‌های بزرگ و حریم خصوصی، الگوریتم‌های مغرضانه می‌توانند اموری نظیر پوشش‌دهی تسهیلات تبعیض‌آمیز، استخدام و دیگر فعالیت‌های تجاری نامشروع را آسان‌تر کنند. الگوریتم‌‌ها را می‌‌توان به‌منظور بهره‌‌برداری از عوامل به‌‌ظاهر بی‌ضرر که در حقیقت تبعیض‌آمیز هستند، طراحی کرد. به‌‌کارگیری تکنیک‌های فعلی با استفاده از داده‌‌ها یا الگوریتم های مغرضانه، می‌تواند زمینه را برای پنهان‌‌سازی نیات پلید اشخاص و سازمان‌ها هموار کند. دلالان اطلاعات تجاری، انواع اطلاعات نظیر جستجوهای آنلاین یا عادات خرید را جمع‌آوری و نگهداری می‌‌کنند که با کمک چنین ابزاری می‌‌توان از آن‌‌ها سوءاستفاده کرد.

اطلاعات مغرضانه همچنین می‌تواند به‌عنوان طعمه نیز مورد استفاده واقع شود. شرکت‌ها می‌توانند شروع به انتشار داده‌های مغرضانه کنند؛ به امید آنکه رقیبان آن‌ها روزی از این اطلاعات برای آموزش الگوریتم‌های هوش مصنوعی استفاده کنند و بدین ترتیب باعث کاهش کیفیت محصولات و نیز سلب اعتماد مصرف‌کننده از آن‌ها شوند.

این‌گونه حملات الگوریتمی همچنین می‌تواند برای پیشبرد اهداف ایدئولوژیکی به‌‌راحتی مورد استفاده قرار گیرند. اگر گروه‌های کینه‌‌جوی سازمان‌های هواداری سیاسی بخواهند مردم را بر اساس نژاد، جنسیت، مذهب یا سایر ویژگی‌ها هدف قرار دهند یا حذف کنند، الگوریتم‌های مغرضانه می‌توانند به آن‌ها توجیه لازم یا روش‌های پیشرفته‌‌تری را برای پیاده‌‌سازی مستقیم این اهداف ارائه دهند. اطلاعات مغرضانه همچنین می‌‌توانند در تلاش‌‌ برای نهادینه‌‌سازی تبعیض‌‌های نژادی و همچنین محدودسازی حق رأی، مؤثر واقع شوند.

نهایتاً، در بحث تهدیدهای امنیت ملی (از سوی بازیگران خارجی) می‌توان از حملات متعصبانه برای بی‌ثبات کردن جوامع از طریق تضعیف مشروعیت دولت یا تشدید دودستگی مردم استفاده کرد. این روش در راستای همان تاکتیک‌هایی است که به دنبال بهره‌برداری از شکاف ایدئولوژیکی هستند؛ که در آن، گروه‌ها با استفاده از ابزارهایی نظیر تولید پست در شبکه‌‌های اجتماعی و خریدن تبلیغات آنلاین به دنبال شعله‌ور کردن تنش‌های نژادی در جوامع هدف هستند.

هوش مصنوعی / AI

نفوذ سوگیری‌های عمدی در الگوریتم‌‌های تصمیم‌‌گیری می‌تواند بسیار ساده و درعین‌حال مؤثر باشد. رسیدن به این هدف ممکن است با تکرار یا تشدید آن دسته از عواملی میسر شود که خود دارای نوعی جهت‌گیری هستند. بسیاری از الگوریتم‌ها، پیش‌ از این نیز با داده‌های جهت‌دار و مغرضانه تغذیه‌ شده‌اند. مهاجمان می‌توانند با علم بر اینکه این مجموعه‌‌داده‌‌ها جهت‌دار هستند؛ با همین داده‌‌ها به آموزش الگوریتم‌‌ها بپردازند. انکارپذیری قابل‌‌قبولی که در این روش ایجاد می‌‌شود، همان عاملی است که این حملات را به‌‌صورت بالقوه مؤثر و کارساز خواهد کرد. مهاجمان، افکار عمومی را به‌واسطه‌ی الگوریتم‌هایی که به‌‌صورت عمدی آموزش‌دیده‌اند، به‌‌گونه‌‌ای هدایت می‌‌کنند که منجر به تشدید دودستگی و تعصب در جوامع شوند.

الگوریتم «مسموم‌‌سازی» با دست‌کاری داده‌های آموزشی، ایده‌‌ی جدیدی نیست. مقامات ارشد اطلاعاتی آمریکا هشدار داده‌اند که مهاجمان سایبری ممکن است مخفیانه به داده‌‌ها دسترسی پیدا کنند و با دست‌کاری در آن‌ها، موجب شوند که داده‌ها به‌کلی از اعتبار ساقط شوند. واضح است که اثبات کردن نیات بدخواهانه‌ی موجود در پس این اقدام‌ها، موضوعی بسیار چالش‌‌برانگیز برای بررسی و پیش‌‌آگاهی دادن در مورد آن است.

سوگیری هوش مصنوعی می‌تواند ابزاری برای پیشبرد اهداف ایدئولوژیک، تبعیض‌های نژادی و مهندسی انتخابات باشد

اما انگیزه‌‌ی چنین اقداماتی ممکن است موضوعی باشد که در حاشیه قرار بگیرد. درواقع هرگونه تعصب و سوگیری می‌‌تواند برای ما جای نگرانی داشته باشد. دولت‌ها، شرکت‌ها و اشخاص به‌طور فزاینده‌ای در حال جمع‌آوری و استفاده از داده‌ها به روش‌هایی گوناگون هستند که ممکن است نوعی تعصب یا سوگیری را به همراه داشته باشند.

قطعا تعصب، یک چالش سیستماتیک به حساب می‌‌آید؛ موضوعی که نیازمند راه‌حل‌هایی جامع است. راه‌حل‌های پیشنهادی فعلی برای پیشگیری از انحراف ناخواسته در هوش مصنوعی شامل افزایش تنوع نیروی کار، گسترش دسترسی به داده‌های آموزشی متنوع و ایجاد شفافیت الگوریتمی (به‌معنای قابلیت مشاهده‌‌ی نحوه‌‌ی تولید خروجی در الگوریتم‌ها) هستند.

پیش‌تر، اقداماتی با هدف پیاده‌‌سازی این ایده‌ها صورت گرفته است. مقامات دانشگاهی و ناظران صنایع، خواستار اعمال نظارت قانونی شده‌اند؛ به‌‌گونه‌‌ای که سوگیری‌‌های فناوری به‌دقت تحت نظر قرار بگیرند. شرکت‌های فنی متعهد شده‌اند که با متنوع ساختن نیروی کار خود و ارائه‌ی آموزش‌‌های مرتبط، با سوگیری ناخودآگاه در مورد محصولات خود مبارزه کنند.

هم‌‌زمان با پیشرفت‌ فناوری در طول تاریخ، ما باید به بررسی چگونگی به‌‌کارگیری الگوریتم‌‌ها در جامعه و نتایج حاصل از آن ادامه دهیم. شناسایی و رسیدگی به جهت‌گیری‌ها در کسانی که الگوریتم‌ها را توسعه می‌دهند و همچنین در داده‌های مورد استفاده برای آموزش آن‌ها، راهی طولانی برای حصول اطمینان از این‌‌ است که سیستم‌های هوش مصنوعی در نهایت همه‌‌ی ما را بهره‌مند خواهند کرد؛ نه فقط آن‌هایی را که از آن‌ بهره‌برداری می‌کنند.

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات