هوش مصنوعی بینگ جدید نیز در اولین نسخه نمایشی خود دچار اشتباه شد
ظاهراُ چتبات گوگل Bard، تنها هوش مصنوعی نیست که اولین نسخهی نمایشی آن خطاهایی در ارائهی اطلاعات داشت. دیمیتری بریتون، محقق مستقل در حوزهی هوش مصنوعی، اعلام کرده است اولین نسخهی نمایشی بینگ جدید مایکروسافت نیز در ارائهی اطلاعات مالی اشتباهات زیادی دارد.
مایکروسافت یک هفته قبل با اطمینان زیاد قابلیتهای هوش مصنوعی بینگ جدید را رونمایی کرد. غول فناوری اهل ردموند میگوید نسخهی جدید موتور جستوجوی آن، وظایفی مثل ارائهی مزیتها و معایبت مدل خاصی از جاروبرقیهای پرفروش و برنامهریزی سفر پنجروزه به مکزیکوسیتی و مقایسهی دادهها در گزارشهای مالی را بهخوبی انجام میدهد. اکنون مشخص شده است بینگ جدید در اغلب مواقع، دادههای مالی را بهاشتباه به کاربران نمایش میدهد.
هوش مصنوعی بینگ مایکروسافت در یکی از نسخههای پیشنمایش خود تلاش میکند گزارش مالی سهماههی سوم سال ۲۰۲۲ را برای شرکتی خاص خلاصهسازی کند؛ ولی در انجام این کار اشتباهات زیادی دارد. گزارش اصلی شرکت نشان میدهد حاشیهی سود ناخالص آن ۳۷٫۴ درصد بوده است و حاشیهی سود ناخالص تعدیلشدهی آن بدون کاهش ارزش، رقم ۳۸٫۷ درصد را نشان میدهد. بینگ حاشیهی ناخالص را با احتساب هزینههای تعدیل و کاهش ارزش ۳۷٫۴ درصد گزارش داده است.
بینگ جدید میگوید حاشیهی سود عملیاتی شرکت مدنظر ۵٫۹ درصد است که البته این موضوع در نتایج مالی رسمی دیده نمیشود. حاشیهی سود عملیاتی ۴٫۶ درصد یا با احتساب هزینهی کاهش ارزش ۳٫۹ درصد است.
مایکروسافت در ارائهی نسخهی نمایشی هوش مصنوعی بینگ دادههای مالی شرکت یادشده را در سهماههی سوم ۲۰۲۲ با نتایج Lulumeon مقایسه میکند. بینگ در ارائهی دادههای Lulumeon اشتباهات بیشتری مرتکب میشود و درنتیجه، مقایسهی آن پر از بیدقتی و اطلاعات نادرست است.
بریتون نیز به اشتباهات ظاهری بینگ جدید در پرسوجوی مربوط به مزیتها و معایب جاروبرقی پرفروش خانگی اشاره میکند. هوش مصنوعی مایکروسافت در این بخش توضیحاتی ارائه میدهد که با مشخصات محصول مذکور مطابقت ندارد؛ درحالیکه با جستوجوی معمولی در گوگل یا حتی بینگ قدیمی، مشخصات دقیق جاروبرقی یادشده بهوضوح نمایش داده خواهد شد.
بهنظر میرسد بینگ جدید برای ارائه پاسخ به درخواستهای کاربران، از چندین منبع داده بهطور همزمان استفاده میکند. بهعبارتدیگر، این ابزار منابع مختلف را خلاصهسازی و با یکدیگر ترکیب میکند؛ البته اشتباهات این هوش مصنوعی نشان میدهد ارزیابی کیفیت پاسخهای تولید شده با آن، چقدر سخت است.
اشتباهات هوش مصنوعی بینگ فقط به نسخههای نمایشی اولیهی آن ختم نمیشود. درحالحاضر، هزاران نفر به این ابزار دسترسی دارند؛ بههمیندلیل، برخی کاربران اشتباهات دیگری را در آن شناسایی کردهاند. در یکی از موضوعاتی که بهصورت گروهی در ردیت مطرح شده است، بینگ جدید بهاشتباه اعلام میکند که در سال ۲۰۲۲ بهسر میبریم. هوش مصنوعی بینگ میگوید:
ما در سال ۲۰۲۳ نیستیم و درحالحاضر در سال ۲۰۲۲ بهسر میبریم. هنگامیکه کاربر به چتبات بینگ میگوید اکنون سال ۲۰۲۳ است، این هوش مصنوعی به کاربر مذکور میگوید تنظیمات تاریخ دستگاه خود را بررسی کند.
ظاهراً مایکروسافت از مشکلات مذکور اطلاع دارد. کیتلین رولستون، مدیر ارتباطات این شرکت میگوید:
انتظار داریم سیستم در دورهی پیشنمایش خود اشتباهاتی داشته باشد و بازخورد کاربران برای رفع مشکلات موجود بسیار مهم است. این بازخوردها به بهترشدن یادگیری مدل ما کمک خواهد کرد.- کیتلین رولستون
سایر کاربران ردیت نیست اشتباهات مشابهی را شناسایی کردهاند. هوش مصنوعی بینگ با اطمینان و بهطور نادرست بیان میکند که کرواسی در سال ۲۰۲۲، اتحادیهی اروپا را ترک کرده است. وبسایت PCWorld نیز متوجه شد هوش مصنوعی جدید بینگ، توهینهای قومیتی را به مردم آموزش میدهد. غول فناوری مستقر در ردموند اکنون درخواستی که به توهینهای نژادی در نتایج جستوجوی منجر میشود، تصحیح کرده است.
رولستون توضیح میدهد:
برای جلوگیری از ترویج محتوای مضر یا تبعیضآمیز، مطابق با اصول هوش مصنوعی خود، محافظتهایی را در نظر گرفتهایم. درحالحاضر، بهدنبال پیشرفتهای بیشتری هستیم که میتوانیم آنها را انجام دهیم؛ زیرا همچنان در مراحل اولیهی راهاندازی بینگ جدید بهسر میبریم. ما به بهبود کیفیت تجربهی کاربری در طول زمان و تبدیل هوش مصنوعی به ابزاری مفید و فراگیر برای همه متعهد هستیم.- رولستون
سایر کاربران هوش مصنوعی بینگ دریافتهاند این چتبات اغلب خود را سیدنی مینامد و این مسئله بهخصوص در مواقعی بیشتر دیده میشود که کاربران قصد دارند هوش مصنوعی را به ارائهی قوانین داخلیاش وادار کنند. رولستون میگوید:
سیدنی نام رمز داخلی برای تجربهی چت است که قبلاً در حال بررسی آن بودیم. بهمرور نام را در نسخهی پیشنمایش حذف خواهیم کرد؛ اما امکان دارد گاهی اوقات برای کاربران نمایش داده شود.- رولستون
ورج میگوید در هفتهی گذشته هنگام استفاده از چتبات هوش مصنوعی بینگ بارها با پاسخهای نادرست مواجه شده است. مایکروسافت بسیاری از مشکلات را بهسرعت برطرف کرده است؛ اما همچنان در ارائهی بسیاری از درخواستها اشتباه میکند.
مایکروسافت بهوضوح در مسیر توسعهی هوش مصنوعی خود راهی طولانی در پیش دارد؛ جایی که بینگ جدید میتواند با اطمینان بسیار زیاد پاسخ همهی سؤالات و درخواستهای کاربران را بهدرستی ارائه دهد. در گذشته نیز، اشتباهات مشابهی را در ChatGPT مشاهده کردهایم؛ اما مایکروسافت این ویژگی را بهطور مستقیم در موتور جستوجوی خود ارائه داده است و البته برخلاف ChatGPT از دادههای بهروز استفاده میکند. این شرکت تنظیمات زیادی را روی چتبات خود اِعمال کرده است تا سطح اشتباهات آن را به حداقل ممکن کاهش دهد.
نظرات