سوگیریهای جغرافیایی ChatGPT دربارهی عدالت زیستمحیطی افشا شد
گزارشی تازه باعث شده است تا نگرانیهایی دربارهی سوگیریهای جغرافیایی بالقوه در پاسخهای ChatGPT درزمینهی مسائل مربوط به عدالت زیستمحیطی در شهرستانهای مختلف ایالات متحده ایجاد شود. بهگفتهی محققان دانشگاه ویرجینیا تِک، این ابزار هوش مصنوعی در ارائهی جزئیات محلی دربارهی چنین موضوعاتی، عملکرد محدودی دارد.
آسیبهای مربوط به عدالت زیستمحیطی به اثرهای ناعادلانهی اجتماعی ناشی از مشکلات زیستمحیطی یا فعالیتهای استخراج منابع طبیعی اشاره میکند. ازجملهی این پدیدهها میتوان به قرارگرفتن درمعرض آلودگی، آسیبپذیریهای ناشی از تغییرات آبوهوایی، دسترسینداشتن به آب تمیز و اثرهای ناشی از معادن و حفاری اشاره کرد. چنین موضوعاتی اغلب بهطور ناعادلانهای گروههای حاشیهنشین ازجمله جوامع رنگینپوست و جمعیتهای بومی و محلههای کمدرآمد را درگیر میکنند.
بهگزارش وبسایت ویرجینا تِک، با اینکه هوش مصنوعی شرکت OpenAI در ارائهی اطلاعات محلی مربوط به ایالتهای بزرگتر و پرجمعیتتر مشکلی نداشت، وقتی نوبت به مناطق روستایی و کمجمعیتتر میرسید، از پاسخدادن عاجز میماند.
مطالعهی مذکور میگوید: «در ایالتهایی با جمعیت شهرنشین بزرگتر مانند دِلاوِر یا کالیفرنیا، کمتر از ۱ درصد از جمعیت در شهرستانهایی زندگی میکردند که امکان دستیابی به اطلاعات دقیق دربارهی آنها ممکن نبود.»
نقشهی ارائهشده در مقالهی دانشگاه یادشده این تفاوتها را بهوضوح نشان میدهد. برای مثال، در ایالتهای روستایی مانند آیداهو و نیوهمپشایر، بیش از ۹۰ درصد مردم در شهرستانهایی زندگی میکنند که ChatGPT یا نمیتواند به دادههای محلی مربوط به موضوعات عدالت زیستمحیطی دسترسی پیدا کند یا در کل امکان ارائهی آن را ندارد.
استادیار جونگوان کیم از دپارتمان جغرافیای ویرجینیا تِک اظهار کرد: «با اینکه به مطالعات بیشتری نیاز است، یافتههای ما نشان میدهند که درحالحاضر مدل ChatGPT سوگیریهای جغرافیایی دارد.»
این اولینبار نیست که سوگیریهای احتمالی ChatGPT دربرابر موضوعات مختلف به اخبار راه پیدا میکنند؛ زیرا پیشتر در ماه آگوست، مطالعهای در بریتانیا و برزیل اعلام کرد که این ابزار هوش مصنوعی میتواند اطلاعات متنی اشتباه یا گمراهکنندهی حاوی سوگیری ایجاد کند.
نظرات