گوگل میگوید هوش مصنوعی جدیدش توانایی تشخیص احساسات را دارد
مدلهای هوش مصنوعی جدید گوگل به نام PaliGemma 2 روز پنجشنبه معرفی شدند. هوش مصنوعی جدید گوگل با دیدن اشخاص در تصاویر، احساسات آنها را تشخیص میدهد، کپشن تولید میکند و به سؤالات کاربر نیز پاسخ میدهد.
بهگزارش تککرانچ، PaliGemma 2 کپشنهای دقیقی تولید میکند و فراتر از شناسایی سادهی اشیاء، به توصیف اعمال، احساسات و روایت کلی صحنه میپردازد؛ اما تشخیص احساسات بهخودی خود فعال نیست و PaliGemma 2 برای تشخیص احساسات، نیاز به تنظیمات ویژهای دارد. بااینحال، کارشناسان نسبت به احتمال وجود یک تشخیصدهندهی احساسات، که در دسترس عموم قرار گیرد، نگران هستند.
ساندرا واچر، استاد اخلاق داده و هوش مصنوعی در مؤسسهی اینترنت آکسفورد میگوید: «من این فرض را که میتوانیم احساسات مردم را بخوانیم، نگرانکننده میدانم. مثل این است که از یک توپ جادویی بخواهید تا به شما مشاوره بدهد.»
استارتاپها و شرکتهای بزرگ فناوری از سالها پیش تلاش کردهاند هوش مصنوعیای بسازند که بتواند احساسات را تشخیص دهد، فروش را آموزش دهد و از تصادفات پیشگیری کند. برخی ادعا میکنند که به هدفشان دست یافتهاند، اما علم در این زمینه روی پایههای سست تجربی استوار است.
بیشتر تشخیصدهندههای احساسات، از نظریهی اولیهی پل اکرمن، روانشناس معروف، بهره میبرند؛ مطابق نظریهی اکرمن، انسانها ۶ احساس بنیادی مشترک دارند: خشم، شگفتی، تنفر، لذت، ترس و غم. بااینحال، مطالعات بعدی، فرضیهی اکرمن را زیر سؤال میبرند و ثابت میکنند که تفاوتهای عمدهای در نحوهی ابراز احساسات افراد از زمینههای مختلف وجود دارد.
میک کوک، پژوهشگر دانشگاه کین ماری و متخصص هوش مصنوعی، باور دارد تشخیص احساسات در حالت کلی ممکن نیست، زیرا افراد درک احساسات خود را بهصورت پیچیدهای تجربه میکنند. ما فکر میکنیم میتوانیم احساسات دیگران را با نگاه کردن به آنها دریابیم و بسیاری از مردم نیز در طول سالها همین کار را کردهاند؛ مانند سازمانهای جاسوسی یا شرکتهای بازاریابی. نتیجهای که چندان غافلگیرکننده نیست، این است که سیستمهای تشخیص احساسات معمولاً غیرقابل اعتماد هستند و تحتتأثیر پیشفرضهای طراحان خود قرار دارند. کارهای اخیر نیز نشان میدهند که مدلهای تحلیل احساسات به چهرههای افراد سیاهپوست نسبت به چهرههای افراد سفیدپوست، احساسات منفیتری را نسبت میدهند.
گوگل میگوید که آزمونهای گستردهای برای ارزیابی تعصبات جمعیتی در PaliGemma 2 انجام داده؛ اما این شرکت فهرست کامل معیارهایی را که استفاده کرده یا نوع آزمونهایی را که انجام داده، ارائه نکرده است.
تنها معیاری که گوگل ارائه کرده، FairFace است؛ مجموعهای شامل دهها هزار عکس چهره که غول آمریکایی ادعا میکند PaliGemma 2 در آن نمرهی خوبی بهدست آورد؛ اما برخی از محققان این معیار را بهعنوان یک معیار تعصبی مورد انتقاد قرار میدهند و خاطرنشان میکنند که FairFace تنها چند گروه نژادی را نمایندگی میکند.
هیدی خلاف، دانشمند ارشد هوش مصنوعی در مؤسسهی AI Now که به بررسی تأثیرات اجتماعی هوش مصنوعی میپردازد، باور دارد که تفسیر احساسات موضوعی بسیار شخصی است و تحقیقات نشان دادهاند که نمیتوانیم احساسات را فقط از روی ویژگیهای چهره استنباط کنیم.
بخش اصلی قوانین هوش مصنوعی در اتحادیهی اروپا، مدارس و کارفرمایان را از بهکارگیری ابزارهای تشخیص احساسات منع میکند (بهجز سازمانهای اجرای قانون). بزرگترین نگرانی دربارهی مدلهای باز مانند PaliGemma 2، این است که مورد سوءاستفاده قرار بگیرند و آسیبهایی جدی وارد کنند.
گوگل درمورد خطرات ناشی از انتشار PaliGemma 2 اطمینان میدهد که ارزیابیهای زیادی از نظر اخلاقی و امنیت، بهخصوص در زمینهی امنیت کودکان و محتوا انجام داده است. گوگل باور دارد نوآوری مسئولانه یعنی شما از روز اول که آزمایش را شروع میکنید به عواقب آن فکر کنید و این کار را در طول چرخهی عمر یک محصول ادامه دهید.