ChatGPT جایگزین روان‌شناس‌ها می‌شود؟

یک‌شنبه ۹ مهر ۱۴۰۲ - ۱۵:۴۷
مطالعه 2 دقیقه
مرد و زن دکتر با لباس سفید و سیستم هوش مصنوعی
کارمند OpenAI می‌گوید اگرچه هرگز درمان با روش روان‌شناسی را امتحان نکرده، ChatGPT می‌تواند جایگزین بسیار مناسبی برای این کار باشد.
تبلیغات

یکی از کارمندان ارشد OpenAI ادعا کرد جدیدترین نسخه‌ی ChatGPT که اکنون از قابلیت تشخیص صدا نیز بهره می‌برد، دقیقاً می‌تواند شبیه درمانگران انسانی رفتار کند. البته او اعتراف کرد خودش تاکنون با چت‌بات هوش مصنوعی مذکور اقدام به درمان با روش روان‌شناسی نکرده است.

لیلیان ونگ، رئیس سیستم‌های امنیتی OpenAI در شبکه‌ی اجتماعی ایکس (توییتر سابق) اعلام کرد:

ازطریق چت صوتی، مکالمه‌ای کاملاً احساسی و شخصی با ChatGPT داشتم و درمورد استرس و تعادل بین کار و زندگی با آن صحبت کردم و پس‌ از پایان صحبت با هوش مصنوعی، احساس کردم حرفم را شنیده است و دلگرم شدم.
- لیلیان ونگ، OpenAI

ونگ دربخش دیگری از توضیحاتش گفت:

قبلاً هرگز روش درمان با روان‌شناسی را امتحان نکرده‌ام اما ChatGPT در این زمینه خیلی خوب عمل می‌کند. این ویژگی را بررسی کنید، به‌خصوص اگر از چت‌بات مذکور برای بهبود بهره‌وری استفاده می‌کنید.
- لیلیان ونگ

البته یکی از کاربران ایکس در پاسخ به پست ونگ گفت: «این درمان نیست و گفتنش خطرناک است.» کاربر دیگری نوشت: «تصور شخصی شما برای کسی که در چنین موقعیتی قرار دارد، برداشت درستی نیست.»

اگرچه اشاره به ظرفیت ChatGPT برای درمان ازطریق روان‌شانسی آن‌ هم از طرف کارمند ارشد ایمنی OpenAI عجیب به‌نظر می‌رسد، مفهوم درمانگرهای هوش مصنوعی درواقع به دهه‌ی ۱۹۶۰ میلادی برمی‌گردد؛‌ زمانی‌ که دانشمندی پیشگام، کامپیوتر چت‌بات ساده‌ای توسعه داد. این رایانه که Eliza نامیده می‌شود اساساً از روشی مشابه درمانگران انسانی استفاده می‌کرد.

جوزف وایزنبام، دانشمند MIT سال ۱۹۹۶، کامپیوتر Eliza را ارائه داد و قصد داشت سطحی بودن هوش مصنوعی را به‌ نمایش بگذارد اما به منبع ناخواسته‌ی اثر الیزا (ELIZA effect) معرف شد؛ جایی‌که مردم خواص انسانی را به ماشین‌هایی نسبت‌ می‌دهند که قادر به تعامل با آن‌ها هستند.

مارگارت میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face اوایل سال جاری در گفت‌وگو با وب‌سایت Build in اعلام کرد:

این اساساً توهم است که ماشینی که با آن صحبت می‌کنید، درک شبیه انسان از جهان دارد. این یعنی ذهنیت و غرضی بزرگ در پشت سیستم وجود دارد.
- مارگارت میچل، Hugging Face

Eliza از زمان خود جلوتر بود، درمانگران هوش مصنوعی در دهه‌ی گذشته چیزی شبیه رنسانس را تجربه کردند. سال ۲۰۱۵ محققان دانشگاه کالیفرنیانی جنوبی چت‌باتی به‌ نام Ellie را منتشر کردند که از آواتار انسان‌نما بهره می‌برد و برای تشخیص حالات چهره و ظاهراً بیان احساسات انسانی که با آن‌ها در تعامل است، آموزش دیده بود.

در سال‌های بعد، چند تلاش دیگر برای راه‌اندازی درمانگران هوش مصنوعی صورت گرفت اما به‌نظر می‌رسد ChatGPT آمادگی ایجاد تغییری بزرگ در درمان با روان‌شناسی را دارد که این مورد باعث ناراحتی بسیاری از متخصصان سلامت روان شده است.

ونگ اولین کسی نیست که احساس می‌کند ChatGPT مزایای درمانی دارد و بی‌شک آخرین نفر هم نخواهد بود.

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات