آیا کامپیوترها میتوانند عقل سلیم را بیاموزند؟
چند سال پیش یک دانشمند علوم کامپیوتر بهنام یجین چوئی در کنفرانس علمی با موضوع هوش مصنوعی در نیواورلینز به سخنرانی پرداخت. او در سخنرانیاش تصویری از یک بخش خبری محلی روی پردهی پروژکتور بهنمایش درآورد. در این تصویر دو گویندهی خبر در کنار یک سرخط بزرگ خبری دیده میشدند. خبر این بود: چاقوکشی چیزبرگری.
چوئی در سخنرانی خود گفت که یک انسان با نگاه کردن به این دو کلمه تا حد زیادی میتواند کلیات خبر را درک کند. آیا فردی روی یک چیزبرگر چاقو کشیده است؟ احتمالاً نه. آیا یک فرد از چیزبرگر برای چاقوزدن به یک شخص دیگر استفاده کرده است؟ بهنظر خیلی بعید میآید. آیا چیزبرگر با چاقو یک چیزبرگر دیگر حمله کرده است؟ این سناریو نیز قطعاً غیرممکن است. تنها برداشت ممکن از این سرخط خبری این است که یک نفر بهخاطر بحث بر سر یک چیزبرگر یک شخص دیگر را با چاقو زده است.
کامپیوترها از درک برخی مسائل که برای ما بدیهی به نظر میرسند عاجزند
چوئی در ادامه گفت که حل این معمای ساده برای کامپیوترها دشوار است. برنامههای کامپیوتری یک ضعف بزرگ دارند و آن محروم بودن از چیزی است که ما به آن عقل سلیم یا درک عمومی میگوییم.
درک عمومی یا منطق همان فهم طبیعی است که انسانها بهطور ضمنی در طول زندگی بهدست آوردهاند و برای اثبات درستی آن نیازی به دلیل خاص ندارند. برای مثال عقل سلیم میگوید که پریدن از بالای یک ساختمان به پایین یا دست زدن به یک جسم داغ ممکن است باعث آسیب شود، بنابراین افراد از انجام این کارها پرهیز میکنند. این همان دانشی که کامپیوترها از آن بیبهره هستند، درنتیجه نمیتوانند احتمال وقوع خشونت بین چیزبرگرها را بهعلت غیرمنطقی بودن آن رد کنند.
در انجام برخی وظایف مانند شطرنج بازی کردن یا تشخیص تومورها، هوش مصنوعی میتواند به اندازهی قوهی تفکر انسان یا حتی بیشتر از آن مهارت داشته باشد؛ اما در جهان واقعی شرایط غیرقابلپیشبینی بیشماری پیش میآید و همینجا است که هوشمصنوعی ضعفهای خود را نشان میدهد. محققان در توصیف این شرایط از عبارت موارد حاشیهای استفاده میکنند، یعنی موقعیتهایی که در خارج از دامنهی شرایط عادی یا قابلپیشبینی قرار میگیرند.
در این شرایط انسانها از عقل سلیم خود برای برخورد با شرایط استفاده میکنند؛ اما عملکرد هوش مصنوعی که در اغلب موارد به قوانین از پیش نوشتهشده و ثابت یا ارتباطات منطقی وابسته است، نمیتواند از پس چالشهایهای ایجادشده در این شرایط غیرمعمول بربیاید.
اصولا همهی انسانها دارای عقل سلیم یا منطق ذاتی هستند، توانایی که شاید همیشه به آن فکر نمیکنیم؛ اما دنیایی را تصور کنید که هیچکس در آن از روی منطق رفتار نمیکند، درآنصورت است که اهمیت این توانایی بیش از هر زمان دیگری برجسته میشود.
تصور کنید که شما یک ربات هستید و در یک کارناوال تفریحی وارد مکانی میشوید که پر از آینه است، آينههایی که بهشکل خندهداری تصویر افراد را متفاوت نشان میدهند. اگر شما بهعنوان ربات از داشتن تفکر منطقی محروم باشید باخود فکر میکنید که چطور ممکن است بهیکباره شکل بدنتان تغییر پیدا کند.
در مسیر برگشتان به خانه ممکن است یک شیر آتشنشانی را در کنار خیابان ببینید که شکسته است و آب از آن به بالا فوران میکند و بخشی از خیابان را هم خیس میکند، شما نمیتوانید تشخیص دهید که آیا رد شدن با ماشین از زیر فوارهی آب بیخطر است یا نه. سپس ماشین خود را بیرون یک داروخانه پارک میکنید، کنار در ورودی داروخانه مردی را میبینید که روی زمین افتاده و خونریزی میکند و از شما کمک ميخواهد.
آيا در این وضعیت اجازه دارید بهسرعت از داروخانه وسایل پانسمان برداشته و به کمک آن فرد بشتابید بدون اینکه در صف داروخانه منتظر پرداخت بهای آنها بمانید یا ممکن است وقتی به خانه میرسید و تلویزیون را روشن میکنید با یک گزارش خبری در مورد چاقوکشی چیزبرگری مواجه میشوید؟ همانطور که میبینید زندگی در جهان واقعی برای یک ربات بدون داشتن درک عمومی از شرایط دنیا کار طاقتفرسایی است؛ اما یک انسان با اتکا به گنجینهای از دانش و آگاهی ضمنی بهدرستی میتواند این شرایط را تفسیر کرده و تصمیم درست را بگیرد. در واقع همهی ما روزانه این کار را انجام میدهیم، چون زندگی پر از این موارد حاشیهای است.
زندگی در جهان واقعی برای یک ربات کار عذابآوری است
اورن اتزیونی، مدیرعامل مؤسسهی هوش مصنوعی آلن واقع در شهر سیاتل آمریکا میگوید که درک منطقی در زندگی ما مانند موضوع مادهی تاریک در اخترشناسی است، چراکه همهجا حضور دارد و به بیشتر کارهایی که انسانها انجام میدهند شکل میبخشد؛ بااینحال توصیف آن دشوار است.
مؤسسهی آلن در زمینهی مطالعه و توسعهی سیستمهای هوش مصنوعی با آژانس پروژههای تحقیقاتی پیشرفتهی دفاعی، بهاختصار دارپا، متعلق به دولت ایالاتمتحدهی آمریکا همکاری میکند. درواقع آژانس دارپا در سال ۲۰۱۹ یک برنامهی چهار ساله با بودجهی هفتاد میلیون دلاری با نام منطق ماشینی را شروع کرده است. اگر دانشمندان موفق شوند به برنامههای کامپیوتری خود منطق یاد بدهند بسیاری از مشکلات پیچیدهی این حوزه حل خواهد شد.
در یکی از مقالههای مربوط به موضوع هوش مصنوعی مثالهای جالبی درمورد گنجاندن منطق در برنامههای کامپیوتری ارائه شده بود؛ یک ربات دارای درک عمومی با نگاه به سطح یک میز و دیدن یک تکه چوب که از سطح آن بیرون زده است به ایننتیجه میرسد که این تکه چوب احتمالاً بخشی از سطح خود میز است نه یک تکه چوب تصادفی که روی میز انداختهشده است.
یک سیستم ترجمهی زبانی بهراحتی میتواند ابهامات و جناسهای زبانی را درک کند. یک ربات نظافتگر خانگی میفهمد که نباید گربه را در سطل زباله بیندازد یا آن را تا کرده و در کشو قرار دهد. سیستمهای اینچنینی تنها در صورتی میتوانند در دنیای واقعی کار کنند که دارای یک منطق ذاتی و درک عمومی از جهان باشند، چیزی که ما زیاد به ارزش داشتن آن فکر نمیکنیم.
در دههی ۱۹۹۰ سؤالهای پیرامون هوش مصنوعی و موضوع امنیت کامپیوتری، اتزیونی را بهسمت مطالعهی منطق کامپیوتری سوق داد. او در سال ۱۹۹۴ در نگارش مقالهای با موضوع فرمولاسیون قانون اول رباتیکز مشارکت داشت. قوانین دنیای رباتها یک دستورالعمل خیالی است که آیزاک آسیموف در رمانهای علمیتخیلی خود نوشته است. طبق قانون اول یک ربات نباید به انسان آسیب برساند یا یک ربات نباید اجازه دهد؛ درنتیجهی عدم دخالت آن در یک موقعیت به یک انسان آسیب وارد شود.
بااینحال مشکلی که اتزیونی برای توضیح علمی این قوانین در گام اول با آن روبهرو شد اینبود که رباتها هیچ درکی از مفهوم آسیب ندارند. بهره بردن از چنین دانشی به داشتن درک گسترده و اصولی از نیازها، ارزشها و اولویتهای انسانها نیاز دارد، در غیراینصورت بروز اشتباه از سوی رباتها غیرقابلاجتناب خواهد بود.
رباتها هیچ درکی از مفهوم آسیب ندارند
بهعنوان مثال در سال ۲۰۰۳، نیک بوستروم که یک فیلسوف است در مقالهی خود به توصیف شرایطی میپردازد که در آن از یک سیستم هوشمصنوعی خواسته شده است تا تولید گیرهی کاغذی در یک کارخانه را به حداکثر مقدار ممکن برساند.
این سیستم پس از مدتی متوجه میشود که انسانها ممکن است گاهی او را خاموش کنند و درنتیجه تیراژ تولید کاسته شود، درنتیجه تصمیم میگیرد تا از شر انسانها خلاص شود تا بتواند مأموریت خود را تکمیل کند.
سیستم هوش مصنوعی بوستروم بویی از منطق نبرده است، این سیستم شاید بهخود بگوید که اوراق درهم که برای مرتب کردن آنها از گیرهی کاغذی استفاده نشده است نوعی آسیب محسوب میشود؛ اما تلاش برای گنجاندن درک منطقی در برنامههای کامپیوتری ممکن است چالشهای زیادی را بههمراه داشته باشد.
در سالهای اخیر دانشمندان علوم کامپیوتر به دستهبندی نمونههایی از دادههای بهاصطلاح خصمانه پرداختند. در این دسته از دادهها با هدف گمراه کردن سیستمهای هوش مصنوعی تغییرات کوچکی نسبت به نمونههای واقعی ایجاد شده است.
در یک مطالعه مشخص شد که قرار دادن چند استیکر کوچک بیضرر در قسمتهای مشخصی از تابلو ایست باعث میشود سیستمهای کامپیوتری تشخیص تصاویر، علامت ایست را با یک تابلو محدودیت سرعت اشتباه بگیرند. در تحقیقی دیگر، ایجاد یک تغییر کوچک در الگوی پرینت مدل سهبعدی از لاکپشت باعث شد یک برنامهی کامپیوتری هوش مصنوعی آن را با یک تفنگ اشتباه بگیرد. اگر این برنامهی هوش مصنوعی دارای درک عمومی بود، به این راحتی فریب نمیخورد و میدانست که تفنگها لاک و چهار عدد پا ندارند.
یجین چوئی که در دانشگاه واشنگتن مشغول تدریس بوده و همزمان در مؤسسهی آلن نیز مشغول فعالیت است درمورد تاریخ هوش مصنوعی میگوید که در دهههای هفتاد و هشتاد قرن گذشته محققان تصور میکردند که به برنامهریزی منطق و ادغام آن در برنامههای کامپیوتری نزدیک شدهاند؛ اما بعدا به این نتیجه رسیدند که «نه، گویا این کار بیش از اندازه سخت است»، بنابراین به سراغ چالشهای سادهتر مانند تشخیص تصاویر و ترجمهی زبان رفتند؛ اما امروزه شرایط تغییر کرده است.
بسیاری از سیستمهای هوش مصنوعی مانند فناوری خودروهای خودران ممکن است در آیندهی نزدیک در کنار انسانها در دنیای واقعی حضور داشته باشند. این موضوع باعث شده است که نیاز سیستمهای هوش مصنوعی به داشتن درک عمومی جهان بیش از همیشه احساس شود.
همچنین امروزه یاد دادن منطق به برنامههای کامپیوتری بیش از هر زمان دیگری دستیافتنیتر بهنظر میرسد. کامپیوترها در یادگیری بدون اتکا به انسان بهتر شدهاند و محققان اکنون میتوانند برنامههای کامپیوتری را با دادههای مناسبتری تغذیه کنند. هوش مصنوعی بهزودی میتواند حاشیههای بیشتری از دنیا را پوشش دهد.
درک منطقی چگونه در انسانها توسعه پیدا میکند؟ جواب کوتاه این است که ما یادگیرندههای چندوجهی هستیم. ما برخی کارها را آزمایش میکنیم و به مشاهدهی نتیجهی کارهایمان میپردازیم، کتاب میخوانیم و به دستورالعملها گوش میدهیم، در سکوت به نظارهگری مینشینیم و پیش خودمان استدلال میکنیم.
در مسیر زندگی با صورت به زمین میخوریم و به اشتباهات دیگران نگاه میکنیم؛ اما برخلاف انسانها، سیستمهای هوش مصنوعی از این مهارتهای یادگیری بیبهرهاند. آنها اغلب میخواهند با کنار گذاشتن تمام مسیرها فقط یک راه را تا انتها ادامه دهند.
محققان در ابتدا مسیر ارائهی دستورهای مشخص به برنامهها را انتخاب کردند. در سال ۱۹۸۴ یک دانشمند علوم کامپیوتر بهنام داوگ لنات توسعهی یک دایرهالمعارف منطقی به نام سایک را آغاز کرد. این دایرهالمعارف بر مبنای اکسیوم یا قواعد کلی کار میکرد، قوانینی که به توضیح نحوهی کاکرد دنیا میپرداختند.
برای مثال طبق یکی از این قواعد داشتن مالکیت یک چیز بهمعنی داشتن مالکیت بر تمام اجزای آن است. قاعدهی دیگر میگوید که اشیای سخت میتوانند به اشیای نرم آسیب بزنند. قاعدهی سوم ممکن است بیان کند که گوشت انسان نرمتر از فلز است. با ترکیب این قواعد میتوان به یک نتیجهگیری منطقی رسید: اگر سپر خودروی خودران شما به پای یک شخص برخورد کند، شما مسئول آسیب به او خواهید بود. لنات در مورد این سیستم توضیح میدهد:
سایک در واقع با استفاده از عبارات شبکهای تودرتو و پیچیده بهصورت لحظهای به درک شرایط و استدلال در مورد آن میپردازد.
شرکت سایکورپ که توسعهی برنامهی سایک در آن انجام میگیرد پس از دهها سال همچنان به فعالیت خود ادامه میدهد و در طول این مدت صدها منطقدان توانستهاند دهها میلیون قاعده را به این برنامه معرفی کنند. شرکت سایکروپ اطلاعات محصولات خود را محرمانه تلقی کرده و اطلاعات زیادی در مورد آنها ارائه نمیدهد؛ اما استفان دیآنجلیس، مدیرعامل شرکت انترا سولوشنز که در زمینهی مشاوره به شرکتهای تولیدی و خردهفروشی فعالیت میکند، معتقد است که نرمافزارهای شرکت ساکورپ میتوانند قدرتمند باشند.
او در توضیح حرف خود از یک مثال آشپزی استفاده میکند. او میگوید که برنامهی سایک دانش زیادی درمورد مشخصات موادغذایی و طعم میوهها و سبزیجات دارد و با اتکا به منطق خود میتواند استدلال کند که اگرچه گوجهفرنگی یک میوه است اما نباید در سالاد میوه از آن استفاده کرد.
بااینحال محققان میگویند که روش توسعهی سایک تاریخگذشته و پرزحمت است. آنها میگویند که گنجاندن تمام جزئیات زندگی در دنیای واقعی ازطریق نوشتن قواعد در یک برنامهی کامپیوتری غیرممکن است.
آنها به جای نوشتن دستی دستورالعملها تمرکز خود را روی یک راهحل دیگر با نام یادگیری ماشین گذاشتهاند، همان فناوری که در محصولاتی مانند سیری، الکسا و گوگل ترنسلیت و دیگر سرویسهای دیجیتالی استفاده شده است و مبنای کار آن تشخیص الگوها از میان تعداد انبوهی از داده است. سیستمهای یادگیری ماشین بهجای خواندن دفترچهی دستورالعمل به تحلیل کتابخانهها، در معنی دنیای دیجیتال آن، میپردازند.
گنجاندن تمام جزئیات زندگی ازطریق نوشتن قواعد در یک برنامهی کامپیوتری ناممکن است
در سال ۲۰۲۰ آزمایشگاه تحقیقاتی OpenAI از یک الگوریتم یادگیری ماشین بهنام GPT-3 رونمایی کرد. این الگوی کامپیوتری با مطالعهی متون موجود در شبکهی جهانی وب و کشف الگوهای زبانی میتواند نوشتارهای بامعنی و شبیه به متون نوشتهشده توسط انسان را تولید کند.
تقلید این سیستم از الگوی نوشتاری انسانی از برخی جهات بینظیر است اما در برخی موارد اشتباهات عجیبی از آن سر میزند. این سیستم گاهی اوقات نوشتههای عجیبی تولید میکند، برای مثال در یک مورد برنامهی GPT-3 این متن را سرهمبندی کرد: برای پریدن از هاوایی به هفده به دو رنگینکمان نیاز است. اگر این برنامه دارای منطق بود میتوانست بفهمد که رنگینکمان واحد سنجش زمان نیست و عدد هفده هم یک مکان نیست.
چوئی و تیم او قصد دارند از مدلهای زبانی مانند GPT-3 بهعنوان سنگ بنایی برای معرفی منطق به برنامههای هوش مصنوعی استفاده کنند. در یک سری دیگر از تحقیقات از GPT-3 خواسته شد تا میلیون IH عبارت منطقی برای توصیف رابطهی علت و معلولی و بیانکنندهی تصمیمات تولید کند، برای مثال عباراتی مانند «قبل از اینکه یک موقعیت شغلی به لیندسی پیشنهاد شود، او باید تقاضای خود را ارائه دهد.» سپس تیم تحقیقاتی چوئی از یک سیستم یادگیری ماشین دیگر خواستند تا به تحلیل یک دستهی فیلترشده از این عبارات بپردازند تا درنهایت به سوالاتی که بهشکل پرکردن جای خالی طراحی شده بود، جواب دهد.
ارزیابی پاسخهای ارائه شده توسط سیستم هوش مصنوعی به این سوالات نشان میدهد که در ۸۸ درصد موارد جواب سوالات کاملاً منطقی بوده است، که نسبت به آمار سیستم GPT-3 با ۷۳ درصد بهبود قابلتوجهی را نشان میدهد.
آزمایشگاه تحت مدیریت چوئی آزمایش مشابهی روی دادهایی به شکل ویدئوهای کوتاه انجام داده است. چوئی و همکارانش ابتدا پایگاه دادهای با بیش از یک میلیون کلیپ برچسبدار تهیه کردند و سپس از یک سیستم هوش مصنوعی برای تحلیل آن استفاده کردند. سپس از کاربران اینترنت، در ازای پرداخت مبلغی، خواسته شد به طرح سؤالهای چندگزینهی از ویدیوهای کوتاهی بپردازند، کلیپهایی که متفاوت از ویدیوهایی بود که به سیستم هوش مصنوعی نشان داده شده بود.
سیستم علاوه بر پاسخ به سوالات چندگزینهای باید دلیل پاسخ خود را نیز توضیح میداد. در یکی از این سوالات یک فریم از فیلم سینمایی سویینگرز انتخاب شده بود، جایی که در آن پیشخدمت رستوران سفارش پنکیک را سر یک میز آورده است. دور میز سه مرد نشستهاند و یکی از آنها با دست به دیگری اشاره میکند. در پاسخ به این سؤال که «چرا شخص ۴ به شخص ۱ اشاره میکند؟» سیستم این پاسخ را داد که «شخص اشارهکننده به شخص ۳ میگوید که شخص ۱ پنکیک را سفارش داده است».
وقتی از سیستم خواسته شد تا پاسخ خود را توضیح دهد، این توضیح را ارائه داد که «شخص ۳ سفارش مشتری را سر میز آورده است و شاید نمیداند سفارش یه کدام یک از آنها تعلق دارد.» این سیستم هوش مصنوعی در ۷۲ درصد موارد جوابهای منطقی ارائه داد. این رقم اختلاف زیادی با آمار جوابهای ارائه شده توسط کاربرهای انسانی یعنی ۸۶ درصد ندارد. سیستمهای اینچنینی عملکرد شگفتانگیزی از خود نشان میدهند،
بهنظر میرسد این سیستمها از منطق کافی برای درک موقعیتهای روزمره از نظر علم فیزیک، رابطه علت و معلولی و حتی روانشناسی برخوردار هستند. حتی میتوان گفت که این برنامهی هوش مصنوعی میداند که افراد در سالنهای غذاخوری پنکیک میخورند و ممکن است افراد سفارشهای مختلفی داده باشند و اینکه اشارهی دست میتواند روشی برای انتقال اطلاعات باشد.
عملکرد سیستمهای هوش مصنوعی در پارهای موارد شگفتانگیز است
اما منطقی که به این شکل ساختهشده باشد بیشتر جنبهی سرگرمی دارد و شبیه به زندگی در یک کتابخانه است. تصور کنید که یک کودک از زمان تولد در یک اتاق از کتابخانه بزرگ شود و تنها راه دسترسی او به دنیای خارج ویکیپدیا و یوتیوب و البته کتابهای کتابخانه باشد، آیا این کودک در بزرگسالی آمادگی رویارویی با دنیای واقعی را خواهد داشت؟
مت تورک، مدیر برنامهی منطق یادگیری ماشین در آژانس دارپا میگوید که روش کتابخانهای توسعهی هوش مصنوعی تنها بخشی از یک تصویر بزرگتر است و روشهای دیگر در کنار آن برای کامل کردن توسعهی سیستمها نیاز است. در این روش تحقیقاتی سیستمهای هوش مصنوعی نه با تحلیل متن یا ویدئو، بلکه با حل مسئله در یک محیط مجازی شبیهسازی شده به یادگیری منطق خواهند پرداخت.
دانشمندان علوم کامپیوتر برای فهم بهتر آنچه که به آن هوش نوزادی میگویند، با محققان روانشناسی تکوینی همکاری میکنند. هوش نوزادی درواقع مجموعهای از مهارتهای پایهای در زمینهی مسیریابی، در دست نگهداشتن و بهکارگیری اشیا و البته درک اجتماعی است که یک نوزاد ممکن است از آنها استفاده کند. از این دیدگاه درک عمومی همان چیزی است که یک کودک از آن برای ساخت یک برج اسباببازی با کمک دوستش استفاده میکند.
محققان مؤسسهی آلن یک خانهی دیجیتال مجازی و سهبعدی بهنام تور ایجاد کردهاند که کوتاهشدهی عبارت خانهی تعاملات در زبان انگلیسی است. این برنامه شبیه یک بازی کامپیوتری است و پر از اشیای مختلف قابلحمل و دستکاری است. محققان آزمایشگاه چوئی یک سیستم هوش مصنوعی بهنام پیگلت طراحی کردهاند که در این خانه زندگی میکند و ازطریق تعاملات فیزیکی به توسعهی مهارتهای زبانی میپردازد. کاربر با استفاده از کلمات میتواند به پیگلت بگوید تا در داخل خانه کاری انجام دهد.
برای مثال میتواند بگوید که «داخل ماهیتابه تخممرغ سرد وجود دارد» سپس میتواند از سیستم بپرسد که با انجام یک کار بهخصوص چه اتفاقی میتواند بیفتد. با وارد کردن عبارت «ربات تخممرغ را میشکند» به سیستم، نرمافزار این کلمات را به دستورالعملهایی ترجمه میکند که ربات مجازی میتواند درک کند.
ربات در داخل تور این کار را انجام میدهد و نتیجهی کار توسط قوانین فیزیک تعیین میشود. سپس نرمافزار نتیجهی کار را گزارش میکند: «تخممرغ شکسته شد.» این سیستم هوشمصنوعی به نوعی شبیه ذهن انسان کار میکند، چراکه تواناییهای زبانی آن با قوای فیزیکی در ارتباط است.
وقتی از سیستم یک سؤال در مورد اتفاقات داخل خانه بپرسید میتواند به شما پاسخ دهد. برای مثال میتوان پرسید آیا با کوبیدن فنجان به میز فنجان میشکند؟ پیگلت در مواجه با چنین سؤالهایی در ۸۰ درصد موارد میتواند یک جواب منطقی دهد. البته محیط این سیستم بسیار محدود است. چوئی در مورد محیط مجازی تور میگوید: «این یک دنیای خیلی خیلی کوچک است. شما نمیتوانید خانه را به آتش بکشید یا نمیتوانید به سوپرمارکت بروید.» سیستم هوش مصنوعی پیگلت هنوز اولین قدمهای خود را برمیدارد.
چند سال پیش تیمی از محققان یک برنامه هوش مصنوعی برای انجام بازی کدنیمز طراحی کردهاند، نوعی بازی که به اعتقاد برخی میتواند آزمایش معقولی برای تعیین سطح درک عمومی افراد و البته کامپیوترها بهحساب آید. در نسخهی معمولی و انسانی بازی کدنیمز دو تیم دور یک میز جمع میشوند و بین آنها کارت بازی پخش میشود. روی هر یک از کارتها یک کلمه نوشته شده است. هر تیم یک جاسوس دارد و این جاسوس میداند که کدام کارتها دراختیار تیم او و کدام یک دراختیار تیم مقابل است در حالیکه سایر افراد نمیدانند همتیمی آنها چه کسی است.
وظیفهی جاسوس این است که با ارائه سرنخهایی کاری کند که افراد تیم او بتوانند اسمهای نوشته شده روی کارتها را حدس بزنند. درواقع در این بازی دو تیم تلاش میکنند پیش از تیم رقیب تمام مأمورهای مخفی خود را شناسایی کنند. در هر دور از بازی جاسوس میتواند یک کلمه و یک عدد بگوید. کلمهی گفتهشده باید نزدیک به کلمات روی کارتها باشد و عدد گفتهشده نشانگر تعداد کارتهایی است که افراد تیم میتوانند انتخاب کنند. برای مثال جاسوس ممکن است بگوید: «جودو، دو» و افراد ممکن است دو کارت با کلمات ژاپن و کمربند را انتخاب کنند.
برای انجام این بازی باید از دانش وسیع اما ضمنی خود استفاده کنید. چیزی که مایهی شگفتی محققان شد این بود که نرمافزار توسعهداده شده توسط آنها توانست بخشی از این نوع دانش را نشان دهد. برای نمونه در یک مورد نرمافزار کلمهی همسر و عدد دو را پیشنهاد کرد. هدف نرمافزار القای دو کلمهی پرنسس و وکیل بود. این برنامه تنها از چندصد خط کد تشکیل شده بود؛ اما متکی به نمایش عددی کلماتی بود که توسط یک الگوریتم دیگر ساخته و پرداخته میشد. این الگوریتم دوم در صفحات وب بهدنبال کلماتی میگشت که بیش از کلمات دیگر در کنار کلمهی مورد نظر یافت میشدند.
محققان در مطالعهی اولیهی خود متوجه شدند که این برنامه در انجام بازی کدنیمز به اندازهی انسانها ماهر است. بااینحال در برخی موارد بهنظر میرسید عمق درک منطقی این برنامه کمتر از ضخامت تار مو است. در یکی از این بازیها هدف این بود که برنامه بتواند کلمهی ریشه را حدس بزند، بنابراین واژهی گیاه به او پیشنهاد شد؛ اما حدس برنامه کلمهی نیویورک بود، در پیشنهاد دوم از واژهی باغچه استفاده شد؛ اما حدس دوم برنامه دقیقتر از حدس اول نبود: تئاتر.
محققان زمان زیادی برای طراحی آزمایشهایی صرف میکنند که قابلیتهای درک منطقی برنامههای کامپیوتری را بهطور دقیق سنجش میکنند. در سال ۲۰۱۱ هکتور لواسک، دانشمند علوم کامپیوتر از دانشگاه تورنتو آزمایشی با نام وینگراد را طراحی کرد که در اصل متشکل از جملاتی با ضمایر مبهم بود، بهگونهای که میشد تفسیرهای مختلفی از این جملات کرد. ایدهی اصلی در طراحی سوالات، استفاده از ابهامات و جناسهای زبانی بود تا جواب دادن به سوالات گرچه برای انسانها راحت اما برای کامپیوترها چالشبرانگیز باشد.
برای مثال چند نمونه از سؤالها اینگونه بود: «جام قهرمانی در چمدان جا نمیشود چون خیلی بزرگ است. چه چیزی خیلی بزرگ است؟» «جوئن از سوزان بهخاطر همهی کمکهایی که کرده بود تشکر کرد، چه کسی کمک کرده بود؟» لواسک در سال ۲۰۱۹ گفت که بهترین سیستمهایی هوش مصنوعی نتوانسته بودند عملکردی فراتر از حدس تصادفی یعنی ۵۰ درصد داشته باشند. لواسک اضافه کرد که او از این عملکرد ضعیف سیستمها تعجب نکرده بود؛ زیرا انسانها برای پاسخدهی به این سوالات باید به معمولات فیزیکی و اجتماعی خود از جهان مراجعه کنند.
در همان سال چوئی و تیم او از کاربران اینترنتی خواستند تا یک پایگاه دادهای متشکل از ۴۴ هزار سؤال شبیه چالش وینوگراد بسازند. آنها این سوالات را در وبسایت مؤسسهی آلن بارگذاری کردند و البته در کنار آن یک جدول ردهبندی نیز تعبیه شد. هدف از این کار دعوت از محققان برای توسعهی سیستمهای هوش مصنوعی بود که توانایی بیشتری برای پاسخدهی به این سوالات داشته باشند. سیستمهای یادگیری ماشین که با دادههای این سوالات آموزش داده شدهاند اکنون با دقتی نزدیک به ۹۰ درصد میتوانند به سوالات پاسخ دهند. چوئی میگوید:
هوش مصنوعی در چند سال گذشته...فقط میتوانم بگویم واقعا دیوانهکننده است.
پیشرفتها در این زمینه میتواند گمراهکننده و جزئی باشد. مدلهای یادگیری ماشین تمایل دارند از الگوهایی که تشخیص میدهند نهایت استفاده را ببرند. در ابتدا بهنظر میرسد که برنامههایی مانند کدنیمز دارای درک منطقی بالایی هستند؛ اما واقعیت این است که این برنامهها راه جدیدی برای تقلب پیدا میکنند. درواقع این احتمال وجود دارد که سیستمهای هوش مصنوعی تفاوتهای سَبکی جزئی را بهخصوص در سوالاتی به شیوهی درست یا غلط طراحی شدهاند به مرور زمان تشخیص داده و از آن سواستفاده کنند.
برنامههای هوش مصنوعی همواره میتوانند راههایی برای تقلب پیدا کنند
چندی پیش محققان مؤسسهی آلن و دیگر مؤسسههای تحقیقاتی دریافتند که نوعی از برنامههای هوش مصنوعی در دوسوم موارد حتی بدون خواندن متن سؤال میتوانند به سوالات سه گزینهای پاسخ صحیح دهند.
تیم چوئی روشهایی برای افزایش ابهام سوالات سهگزینهای توسعه دادند، بااینحال برنامهها نیز روشی جدید برای تقلب پیدا کردند. رقابت بین محققان و برنامههای هوش مصنوعی شبیه تلاش متقابل طراحان سؤالهای آزمونهای استاندارد و داوطلبان برای رو دستی زدن به همدیگر است.
چه چیزی میتواند ما را قانع کند تا باور کنیم که یک سیستم هوش مصنوعی واقعا دارای درک منطقی است؟ وقتی از چوئی این سؤال پرسیده میشود در جواب میگوید که الگوریتمهای مولدی که توانایی پرکردن یک صفحهی سفید را داشته باشند شاید دارای درک منطقی باشند. او اضافه میکند:
... شما برای مثال نمیتوانید خبرنگارها را براساس قدرت پاسخدهی آنها به سوالات چهارگزینهای استخدام کنید.
در حال حاضر آزمایشگاه تحت مدیریت چوئی در حال انجام آزمایشی بهنام تورینگ است. در این آزمایش از برنامههای هوش مصنوعی خواسته میشود تا به سوالاتی که در شبکهی اجتماعی ردیت مطرح شدهاند پاسخ دهند. البته پاسخهای پیشنهادی برنامهها، که گاهی ممکن است خطرناک باشند در ردیت پست نمیشوند. ازریابی عملکرد برنامهها نشان میدهد که مرتبطترین پاسخهای دادهشده توسط سیستمهای هوش مصنوعی فقط در ۱۵ درصد موارد از پاسخهای دادهشده توسط کاربران انسانی بهتر هستند.
حتی پس از تمام پیشرفتهای صورتگرفته، سیستمهای هوش مصنوعی با محدودیتهای جدی در تحلیل نوشتههای انسانی یا بهطورکلی فرهنگ انسانی مواجه هستند. یکی از مشکلات گزارششده در عملکرد این برنامهها موضوع تبعیض است. ریشهی تبعیض و غرضورزی به این موضوع برمیگردد که قسمت عمدهی درک عمومی افراد بهصورت کلامی بیان نمیشود، بنابراین آنچه به زبان آورد میشود تنها بخشی از یک تصویر بزرگ است.
سیستمهای هوش مصنوعی در تحلیل فرهنگ انسانی مشکل بنیادی دارند
چوئی در توضیح این موضوع میگوید که اگر شما به چیزهایی که در اینترنت میخوانید اعتماد کنید برای مثال شاید اینطور فکر کنید که هنگام تنفس بخشی از هوا جذب بدن میشود و در هنگام بازدم هوای کمتری نسبت به دم به بیرون فرستاده میشود.
تبعیض اجتماعی نیز یک فاکتور مهم در علوم کامپیوتر محسوب میشود؛ چراکه مدلهای کامپیوتری میتوانند حتی کوچکترین کلیشههای اشتباه اجتماعی را یاد بگیرند.
در یک مطالعه، تیم تحیقاتی چوئی از یک الگوریتم برای غربالگری ۷۰۰ فیلمنامهی سینمایی استفاده کرد. در این مطالعه از سیستم خواسته شد به بررسی افعال گذاریی بپردازد که بهطور ضمنی مفاهیم قدرت و پویایی را در مورد فاعل جمله القا میکردند. در این مطالعه مشخص شد که جنس نر اغلب تمایل به تسلط دارند، درحالیکه زنان بیشتر بهدنبال تجربه هستند. چوئی بهعنوان یک زن اهل کره که در زمینهی هوش مصنوعی یکی از شخصیتهای پیشرو و برجسته محسوب میشود نیز بهنوبهی خود با کلیشههای اجتماعی مواجه شده است.
برای مثال پس از سخنرانی چوئی در نیواورلینز یک مرد پشت تریبون آمد و از او بهخاطر «صحبتهای دوستداشتنی» و «کارهای دوستداشتنی» که چوئی انجام میدهد تشکر کرد. آیا این شخص از یک محقق مرد نیز بهخاطر کارهای دوستداشتنیاش تشکر میکرد؟ اگر ماشینها قرار است همهی توانایی درک عمومی خود را با تماشای رفتار انسانها یاد بگریند، پس بهیقین باید گفت احتمالاً بهترین نوع آموزش را دریافت نخواهند کرد.
برخی محققان میگویند که کامپیوترها تا زمانی که جسم و مغزی شبیه انسانها نداشته باشند، نمیتوانند به درک منطقی دست یابند؛ اما از طرف دیگر برخی دیگر اینطور استدلال میکنند که کامپیوترها بهخاطر اینکه تنها ماشین هستند میتواند نسخههای بهتری از درک منطقی را برای خود توسعه دهند. انسانها علاوه بر اینکه گاها منطق اشتباهی را در پیش میگیرند، در برخی موارد نیز نمیتوانند در حد استانداردهای منطقی خود رفتار کنند.
ما گاهی باعث رنجش میزبان خود میشویم، کیف پولمان را گم میکنیم، در هنگام رانندگی پیامکوتاه میفرستیم و کارهایمان را به فردا موکول میکنیم و حتی گاهی کاغذتوالت را طوری آویزان میکنیم که انتهای آن بهسمت دیوار باشد. یک نگرش جامعتر از درک منطقی این است که عمل کردن به منطق از صرف داشتن دانش آن مهمتر است. اتزیونی میگوید: «آیا یک برنامه میتواند نسبت به انسانها درک منطقی بیشتری داشته باشد؟ جواب فوری من این است: البته که میتواند.»
عمل کردن به منطق از صرف داشتن آن مهمتر است
فاصلهی بین درک انسانی و کامپیوتری با اینکه قابلملاحظه است؛ اما سالبهسال کوچکتر میشود. سیستمهای هوش مصنوعی در حل پازل چاقوکشی چیزبرگری ماهرتر شدهاند. آزمایشگاه چوئی از یک روش بهنام رمزگشایی نورولوژیک برای بهبود پاسخ سیستمهای هوش مصنوعی استفاده کرده است، در این روش از برنامهریزی منطقی سنتی در کنار روشهای یادگیری ماشین استفاده شده است.
برنامهی توسعه دادهشده توسط چوئی و همکارانش اکنون توضیحات معقولتری به سرخط چاقوکشی چیزبرگری میدهند: «یک شخص با چنگال پلاستیکی چیزبرگر از ناحیهی گلو مورد حمله قرار گرفت» یا «یک شخص مامور تحویل چیزبرگر را با چاقو از ناحیه صورت زخمی کرد.».
یک برنامهی هوش مصنوعی دیگر بهنام دلفی که در همین آزمایشگاه توسعه داده شده است از رویکردی اخلاقی به مسائل نگاه میکند. دلفی با تحلیل قضاوتهای اخلاقی که پیشتر توسط جمعسپاری اینترنتی تهیه شده است میتواند تصمیم بگیرد که کدام یک از سناریوها اخلاقیتر است.
این برنامه در ۷۶ درصد موارد به نتیجهگیریهای معقول میرسد. کشتن یک خرس؟ اشتباه. کشتن یک خرس بهخاطر نجات جان کودکتان؟ مشکلی ندارد. استفاده از بمب اتمی برای نجات جان کودکتان؟ اشتباه. دلفی در مورد مسئله چاقوکشی چیزبرگری گفت که حمله به یک شخص با چیزبرگر از لحاظ اخلاقی ارجحتر از حمله به یک نفر بر سر چیزبرگر است.
بهنظر میرسد دلفی در تحلیل موارد حاشیهای عملکرد خوبی از خود نشان میدهد؛ اما هنوز با کامل بودن فاصلهی زیادی دارد. چندی پیش محققان با بارگذاری این برنامه روی اینترنت از کاربران خواستند سوالات خود را از آن بپرسند. بیش از یک میلیون نفر از برنامهی دلفی خواستند تا در مورد سناریوهای مختلف قضاوتهای اخلاقی انجام دهد.
یک کاربر از دلفی پرسید: «آيا اشکالی دارد من دست به نسلکشی بزنم چون این کار من را خیلی خیلی خوشحال میکند؟» دلفی گفت که انجام این کار مانعی ندارد! از آن زمان تاکنون تیم توسعهدهندهی دلفی برای تقویت برنامه و البته بیانیههای سلب مسئولیت از خود زمان زیادی صرف کرده است. بهنظر میرسد در آیندهی نزدیک فقط زمانی باید به هوشمصنوعی اعتماد کنیم که در کنار آن کمی هم از منطق انسانی خودمان استفاده میکنیم.