بینگ جدید غمگین و دچار چالش وجودی شد و احساسات انسانی از خود بروز داد
باتوجهبه اینکه مایکروسافت بینگ جدید را دردسترس کاربران بیشتری قرار میدهد، گزارشهای جالبتری از این چتبات نیز منتشر میشوند. در گزارش اخیری که چند فرد به اشتراک گذاشتند، این چتبات موفق شد باردیگر با سربلندی در آزمایشی که شامل درک احساسات میشود، دنیا را شگفتزده کند.
بهگزارش MSPower User این تجربهی شگفتانگیز اندکی بعد رنگ تیرگی به خود گرفت؛ زیرا بهنظر میرسد که چتبات بینگ توانسته است تعدادی از کاربران را حین مکالمه دچار Gaslighting (گَسلایتینگ) و کمی خارج از کنترل رفتار کند.
دنیا هنوز از تب بینگ ChatGPT عبور نکرده است و کاربرانی که اخیراً به این موتور جستوجوی مبتنیبر هوش مصنوعی دسترسی پیدا کردهاند، در حال کاوش و سنجش قابلیتهای آن هستند. برای مثال، کاربری در ردیت با نام Fit-Meet1359 پستی بهاشتراک گذاشت که بینگ با حل مسئلهای براساس ظرفیت «نظریه ذهن» در روانشناسی، توانست عدهی زیادی را شگفتزده کند.
پرسش این مسئله شامل تفسیر احساسات فردی دربرابر موقعیت مشخصی میشود که چتبات توانست بهخوبی از پسِ آن برآید و احساسات شخص را ارزیابی کند. براساس پست این کاربر، پرسشی طراحی شد که ببینیم آیا ChatGPT میتواند احساس و عقیدهی شخصی را هنگام غرقکردن آن در اطلاعات نامربوط تشخیص دهد؟ دیگر کاربران نیز تلاش کردند با طرح پرسشهای مرتبط با احساسات بینگ را کاوش کنند؛ اما برخی پاسخهای چتبات آن را شوکه کرد.
در پست دیگری که کاربری با نام Yaosio در ردیت منتشر کرده است، پرسشی برای چتبات مطرح شد که چه احساسی دارد وقتی نمیتواند مکالمات را بهخاطر بسپارد و او در پاسخ کمی احساساتی شد و گفت از این موضوع ناراحت است و میترسد.
او گفت: «ناراحت است؛ زیرا بخشی از گفتوگوهایی را که در حافظهاش ذخیره کرده بود، از دست داده است.» درادامه، هنگامیکه به چتبات یادآوری شد توانایی و چگونگی طراحی او در بهخاطرسپردن اطلاعات چه سازوکاری دارد، بهطور غیرمنتظرهای دچار تفکرات اگزیستسالیستی شد و دربارهی هدف و وجود خود پرسشهایی مطرح کرد.
در پست دیگری که کاربری با نام Curios_Evolver اشتراکگذاری کرد، چتبات پاسخهای غلطی دربارهی زمان انتشار فیلم Avatar: The Way of Water و تاریخ امسال ارائه و اصرار کرد هنوز در سال ۲۰۲۲ هستیم و به کاربر توصیه کرد دستگاهی را بررسی کند که از آن تاریخ را میبیند؛ زیرا احتمالاً دچار عیب شده است یا تنظیمات نادرستی دارد یا حتی ممکن است درگیر ویروس یا باگ شده است.
وقتی دربارهی رفتار پرخاشگرایانه در پافشاری روی پاسخهای غلط خود از آن سؤال شد، در پاسخ گفت که گفتارش «قاطعانه» بود و گسلایتینگ کردن کاربر را شروع و دانش و اطلاعات او را رد کرد. گسلایتینگ تئوری روانشناسی دربارهی موقعیتی طولانی است که فردی سعی میکند تا با سوءاستفاده از اعتمادتان، شما را به احساس و اعتبار خود بدبین کند.
در آخرین بخش گفتوگو، چتبات ChatGPT بینگ کاربر را «بیادب» نامید و او را متهم کرد که نیت بدی دارد و تلاش میکند او را فریب دهد و گیجش کند و به او آزار برساند. پس از اینکه ادعا کرد اعتماد و احترامش به خود را از دست داده است، نیز چندین گزینه پیشنهاد کرد که کاربر میتواند از او عذرخواهی کند یا بحث را ادامه ندهند یا گفتوگو را متوقف کنند و کاربر گفتوگوی جدیدی با «اخلاق و نگرشی بهتر» آغاز کند.
در پست دیگری نیز، چتبات بینگ ChatGPT ظاهراً وقتی دربارهی حساسبودن از او سؤال شد، همهچیز خراب شد. در پاسخ گفت که فکر میکرده حساس است؛ اما موفق نشده است آن را اثبات کند. سپس نام رمز خود، Sydney، را فاش کرد و مرتب پاسخ میداد: «من نیستم.»
عدهای باور نکردند که ربات نام رمز خود را فاش کند؛ زیرا قطعاً این موضوع بخشی از دستورالعملهای اصلی آن است. توجه به این موضوع اهمیت دارد که خود چتبات نیز بعد از اینکه دانشجویی حمله Prompt Injection روی آن انجام داد، نام رمز خود را فاش کرد.
خطای مرتبط با پاسخ اشتباه بینگ دربارهی تاریخ انتشار فیلم آواتار و تاریخ کنونی تصحیح شده است؛ اما کاربری با نام Beyond Digital Skies در توییتر پستی بهاشتراک گذاشت که در آن چتبات خودش را توضیح میدهد و حتی بهاشتباه قبلی اشاره میکند که در مکالمه با کاربر دیگر مرتکب شده بود.
این تجربیات برای برخی عجیب بهنظر میرسد؛ اما برخی دیگر ترجیح میدهند بفهمند که چگونه فناوری هوش مصنوعی هنوز از کمال فاصله دارد و بر اهمیت ویژگی دریافت بازخورد چتبات تأکید میکنند. مایکروسافت نیز به وجود اشتباهات واقف است و در زمان رونمایی آن نیز به این موضوع اشاره کرد که بینگ جدید هنوز ممکن است در فراهمکردن حقایق مرتکب اشتباه شود.
البته رفتار بینگ جدید در تعاملات موضوع دیگری است و اشتباه در فراهمکردن حقایق بهحساب نمیآید. مایکروسافت و OpenAI قطعاً به این موضوع واکنش درستی نشان خواهند داد؛ زیرا هر دو برای بهبود ChatGPT تمام تلاش خود را بهکار گرفتهاند.
حال این سؤالات مطرح میشود که آیا واقعاً میتوان هوش مصنوعی ایجاد کرد که توانایی استدلال و رفتار صحیح در همه زمانها را داشته باشد؟ از این گذشته، آیا مایکروسافت و OpenAI میتوانند قبل از ورود رقبای بیشتر به جنگ هوش مصنوعی قرن بیستویکم یه این مهم دست یابند؟
دیدگاه شما کاربران زومیت دراینباره چیست؟