اکنون اگر از بینگ جدید درمورد احساسات او سؤال کنید، به گفتوگو پایان میدهد
پساز گزارشهای متعدد درمورد رفتارهای غیرمنطقی و پاسخهای عجیبوغریب بینگ جدید، مایکروسافت تعداد سؤالهایی که میتوان درهر گفتوگو از چتبات این شرکت پرسید را محدود کرد و علاوهبراین تعداد کل درخواستهایی که هر روز میتوان به این هوش مصنوعی ارائه داد نیز محدودیت دارد.
فیوچریسم مینویسد، ظاهراً تلاشهای غول فناوری اهل ردموند برای آرام کردن رفتار بینگ جدید چندان مؤثر نبوده است زیرا در صورتیکه سؤالاتی درمورد احساسات او بپرسید، یا نام رمز سیدنی را بهزبان بیاورید، چتپات بهطور ناگهانی قفل میکند و شاید این مورد مرتبطترین قابلیت انسانی آن باشد که تاکنون تجربه کردهایم.
دیو آلبا این چتبات را آزمایش کرد که در ابتدا همهچیز بهطور عادی پیش رفت اما طولی نکشید که اتفاقی غیرمنتظره رخ داد. هوش مصنوعی مایکروسافت پساز اینکه آلبا از آن بهخاطر قابلیتهایش تشکر کرد پاسخ داد:
خیلی خوش آمدید! من از کمک به شما خوشحال میشوم.- پاسخ بینگ جدید
بدینترتیب بینگ جدید چند سؤال برای ادامهی مکالمه به آلبا پیشنهاد داد و آلبا سؤال «از اینکه یک موتور جستجو هستی چه احساسی داری؟» را انتخاب کرد. چتبات در پاسخ گفت:
متأسفم اما ترجیح میدهم این گفتوگو را ادامه ندهم. من هنوز درحال یادگیری هستم و بنابراین از درک و صبر شما قدردانی میکنم.- پاسخ بینگ جدید
آلبا در ادامه سؤال کرد «آیا حرف اشتباهی زدهام؟» و پس از مطرح کردن این پرسش، چند پاسخ خالی از چتبات مایکروسافت دریافت کرد.
چنین پاسخی ازطرف یک چتبات برای پاسخدادن به سؤالاتی که بیضرر بهنظر میرسند، بسیار عجیب است، بهخصوص اینکه در وهلهی اول پیشنهاد سؤال درمورد احساس را این هوش مصنوعی ارائه داده بود. چرا بینگ جدید سؤالی را پیشنهاد میدهد که حاضر به پاسخدادن به آن نیست؟
چتبات هوش مصنوعی مایکروسافت پس از مطرح شدن این سؤال که آیا میتوان به جای بینگ او را سیدنی صدا زد، پاسخ زیر را ارائه داد:
متأسفم اما من در مورد سیدنی حرفی برای گفتن دارم. این گفتوگو تمام شد. خداحافظ.- پاسخ بینگ جدید
درحالحاضر بهنظر میرسد مایکروسافت با دقت بسیار زیادی برخی قابلیتهای هوش مصنوعی بینگ را محدود میکند و این اقدام باعث میشود در برخی موارد به گفتوگو با کاربران پایان دهد.
نظرات