یادگیری عمیق چیست و چه کاربردهایی دارد؟
ترنس سجنوفسکی، یک عصبپژوه محاسباتی در موسسه مطالعات بیولوژیکی سالک است. او میگوید که کلیدواژههایی نظیر یادگیری عمیق و شبکههای عصبی همه جا به چشم میخورند؛ اما درک بیشتر مردم درمورد این مفاهیم، کاملاً اشتباه است.
سجنوفسکی، پیشگام در مطالعهی الگوریتمهای یادگیری و نویسندهی کتاب انقلاب یادگیری عمیق (که هفتهی آینده از انتشارات MIT منتشر میشود) است. او استدلال میکند که ما راجع به مباحثی نظیر هوش مصنوعی قاتل یا رباتهایی که قرار است جایگزین ما شوند، تفکری اعتیادآمیز داریم؛ این در حالی است که در سایهی این طرز تفکر، پتانسیلهای هیجانانگیز پیش رو در زمینههای علوم کامپیوتر و اعصاب ونیز اتفاقاتی که در صورت تلاقی هوش مصنوعی با هوش انسانی رخ خواهند داد، کاملاً به حاشیه رانده شدهاند.
مجلهی خبری ورج با سجنوفسکی درمورد اینکه چگونه یادگیری عمیق ناگهان فراگیر شد، دربارهی تواناییها و محدودیتهای این دانش و نیز مسائل اغراقآمیز درمورد آن مصاحبه کرده است که شرحی از آن برای شما ارائه کردهایم.
ترنس سجنوفسکی میگوید که درک عموم درمورد مفاهیمی نظیر «یادگیری عمیق» و «شبکههای عصبی»، کاملاً اشتباه است. مشکل این است که مردم در مورد مقیاس زمانی، اشتباه میکنند. آنها انتظار دارند که خیلی زود، تغییراتی بسیار بزرگ روی دهد.
مردم کلماتی مانند «هوش مصنوعی»، « شبکههای عصبی»، «یادگیری عمیق» و «یادگیری ماشینی» را با یکدیگر اشتباه میگیرند، اما اینها مفاهیمی متفاوتی هستند. تفاوت آنها در چیست؟
تعریف مفهوم هوش مصنوعی به سال ۱۹۵۶ در آمریکا بازمیگردد؛ زمانی که مهندسان تصمیم گرفتند تا یک برنامه رایانهای با تقلید از هوش بشری بنویسند. در دل هوش مصنوعی، یک مفهوم جدید با نام یادگیری ماشین خلق شد. در این روش، بهجای آن که شما یک برنامهی گامبهگام برای انجام یک کار بنویسید (که یک رویکرد سنتی در زمینهی هوش مصنوعی است)، اطلاعات فراوانی در مورد آنچه که میخواهید بفهمید، جمعآوری میکنید. برای مثال، تصور کنید که قصد دارید که اشیا را از یکدیگر تشخیص دهید، بنابراین شروع به جمعآوری تعداد زیادی از تصاویر مربوط به آنها میکنید. سپس با یادگیری ماشین، یک فرایند خودکار آغاز میشود که ویژگیهای مختلف اشیا را تجزیهوتحلیل میکند. در نهایت، سیستم تشخیص میدهد که فلان تصویر مربوط به یک خودرو است؛ درحالیکه تصویر دیگر یک منگنه را نشان میدهد.
یادگیری ماشین یک عرصهی بسیار وسیع است که پیدایش آن به مدتها قبل بازمیگردد. در اصل، این علم با نام تشخیص الگو شناخته میشد، اما بهمرور الگوریتمها، از نظر ریاضی، بسیار وسیعتر و البته پیچیدهتر شدند. در یادگیری ماشین، از دو مفهوم شبکههای عصبی (با الهام از ساختار مغز) و یادگیری عمیق استفاده میشود. الگوریتمهای یادگیری عمیق، دارای معماری ویژهای با تعداد لایههای فراوان است که در یک شبکه جریان مییابند. بنابراین، یادگیری عمیق بخشی از یادگیری ماشین و یادگیری ماشین خود بخشی از هوش مصنوعی به حساب میآید.
یادگیری عمیق چه قابلیتهایی نسبت به سایر برنامهها دارد؟
نوشتن یک برنامه، کاری بسیار دشوار است. در گذشته، رایانهها چنان کند بودند و حافظه نیز به حدی گرانقیمت بود که ناچار به علم منطق روی آورده شد؛ این همان علمی است که رایانههای فعلی بر اساس آن کار میکنند. منطق، زبان پایهی ماشینهاست که توسط آن، اطلاعات بهصورت بیت به بیت پردازش میشوند. اما رایانهها همچنان بسیار کند و محاسبات بسیار پرهزینه بود.
اما اکنون هزینهی محاسبات روز به روز کمتر میشود و از سوی دیگر هزینهی نیروی کار مدام در حال افزایش است. هزینهی محاسبات به حدی ارزان شده است که تهیهی یک رایانه برای یادگیری یک برنامه، به صرفهتر از استخدام یک فرد برای نوشتن همان برنامه است. در این برهه از زمان، یادگیری عمیق شروع به حل مسائلی کرد که هیچ انسانی تا آن زمان برای آن برنامهای ننوشته بود؛ حوزههایی مانند بینایی رایانهای و ترجمه، نمونههایی از این پیشرفت بودند.
یادگیری فرایندی بهشدت محاسباتی است، اما شما فقط نیاز دارید یک بار برنامه بنویسید و سپس با دادن اطلاعات مختلف به آن، میتوانید مسائل مختلف را حل کنید. دیگر نیازی نیست که شما حتماً در یک موضوع متخصص باشید؛ چرا که هزاران برنامهی کاربردی درمورد هر موضوعی میتوان یافت که در آن با حجم زیادی از اطلاعات سروکار داریم.
به نظر میرسد که امروزه «یادگیری عمیق» در همه جا مطرح است؛ این مفهوم چگونه تا این حد فراگیر شد؟
من در حقیقت میتوانم به یک لحظهی خاص از تاریخ اشاره کنم: دسامبر ۲۰۱۲ در نشست NIPS (که بزرگترین کنفرانس هوش مصنوعی است)، متخصص رایانهای بهنام جف هینتون به همراه دو تن از دانشجویان کارشناسی ارشد خود نشان داد که با در اختیار داشتن یک مجموعهی دادهی بسیار بزرگ بهنام ایمیجنت شامل ۱۰ هزار دستهبندی و ۱۰ میلیون تصویر، میتوان خطای طبقهبندی را با کمک یادگیری عمیق، تا ۲۰ درصد کاهش داد.
معمولاً در این مجموعهدادهها، میزان خطا در هر سال کمتر از یک درصد کاهش مییافت. حالا نتیجهی ۲۰ سال پژوهش، تنها در عرض یک سال حاصل شده بود. این دستاورد، واقعاً به معنای باز شدن دریچهی یک سد بود.
یادگیری عمیق از مغز الهام میگیرد. چگونه حوزههایی نظیر علوم رایانه و علوم اعصاب، در کنار یکدیگر کار میکنند؟
در حقیقت، ایدهی یادگیری عمیق از علم اعصاب سرچشمه میگیرد. نگاهی به موفقترین شبکههای یادگیری عمیق بیندازید؛ نام این شبکه، شبکهی عصبی پیچشی یا سی.ان.ان (CNN) است که توسط یان لیکون توسعه یافته است.
اگر به معماری CNN توجه کنید، میبینید که آن مجموعهای از تعداد زیادی واحدهای مجزا نیست؛ بلکه آنها به یک روش بنیادی با یکدیگر در ارتباط هستند که به نوعی یادآور سیستم مغز است. یکی از بخشهای مغز (که به نحو احسن در سیستم بینایی و قشر بینایی مورد مطالعه قرار گرفته است) نشان میدهد که در مغز دو دسته سلول شامل انواع ساده و پیچیده وجود دارند. اگر به معماری CNN هم توجه کنید، خواهید دید آنجا هم دو دسته سلول متناظر با سلولهای ساده و سلولهای پیچیده وجود دارند. این تشابه بهطور مستقیم از درک سیستم بینایی در مغز ناشی شده است.
یان، کورکورانه به کپیسازی قشر مغز نپرداخته است. او پیشتر انواع مختلفی از تغییرات را امتحان کرده بود، اما در نهایت او به همان ساختاری رسید که پیشتر طبیعت به آن رسیده بود. این یک نتیجهی مهم است. موضوعات فراوانی در همگرایی طبیعت و هوش مصنوعی وجود دارد که باید یاد بگیریم و مسلما هنوز مسیری طولانی در پیش روی ما قرار دارد.
درک ما از علوم رایانه تا چه میزان به درک ما از مغز وابسته است؟
بیشتر دستاوردهای ما در زمینهی هوش مصنوعی، براساس دانشی است که ما در دهه ۶۰ درباره مغز فراگرفتیم. ما در حال حاضر مقدار زیادی از این دانش را کسب کردهایم و بخش اعظم این دانش در معماری رایانه گنجانیده شده است.
آلفاگو (AlphaGo) برنامهای که قهرمان بازی Go را شکست داد، تنها یک مدلسازی از قشر مغز محسوب نمیشود؛ بلکه همچنین مدلی از بخشی از مغز بهنام هستههای قاعدهای است که برای ایجاد یک توالی از تصمیمات برای رسیدن به یک هدف، نقشی مهم دارد. الگوریتمی بهنام تفاوتهای زمانی نیز وجود دارد که در دههی ۸۰ توسط ریچارد ساتون توسعه یافت؛ چنانچه این الگوریتم بههمراه یادگیری عمیق مورد استفاده قرار گیرد، میتوان شاهد عملکردهای پیچیدهای بود که پیش از این دیده نشده است.
بهمرور که درمورد معماری مغز یاد میگیریم و در کنار آن میآموزیم که چطور میتوان این معماری را با سیستم مصنوعی ادغام کرد، قابلیتهای بیشتری بهدست خواهیم آورد تا از نقطهای که هم اکنون در آن هستیم، فراتر برویم.
آیا هوش مصنوعی نیز میتواند بر علم اعصاب تأثیرگذار باشد؟
این دو بهموازات یکدیگر پیش میروند. پیشرفتهای عظیمی در فناوری عصبی بهوجود آمده است که از ثبت یک نورون در یک بازهی زمانی به ثبت هزاران نورون درهمان زمان رسیده است و این اتفاق برای بسیاری از قسمتهای مغز بهطور همزمان رخ میدهد؛ اتفاقی که دنیای کاملاً جدیدی را به روی ما خواهد گشود.
پیش از این نیز اشاره شد که بین هوش مصنوعی و هوش انسانی همگرایی وجود دارد. همانطور که ما بیشتر و بیشتر درمورد نحوهی کار مغز یاد میگیریم، این دانش ما دوباره در عرصهی هوش مصنوعی بازتاب مییابد. اما در عین حال، آنها در حال ایجاد یک نظریهی کامل از یادگیری هستند که میتواند برای درک مغز بهکار گرفته شود و به ما این امکان را میدهد که هزاران نورون و چگونه کارکرد آنها را تجزیهوتحلیل کنیم. پس میتوان گفت که یک حلقهی بازخورد بین علوم اعصاب و هوش مصنوعی وجود دارد؛ بازخوردی که شاید حتی از اهمیت و جذابیت بهمراتب بالاتری نسبت به دستاوردهای دیگر برخوردار باشد.
کتاب شما بسیاری از کاربردهای مختلف یادگیری عمیق، از خودروهای خودران گرفته تا مسائل حوزه تجارت را مورد بحث قرار میدهد. آیا بخش خاصی از این کتاب هست که به نظر خودتان، جذابیت بالاتری داشته باشد؟
یکی از کاربردهای مورد توجه من، شبکههای خصمانهی مولد (GANS) است. با استفاده از شبکههای عصبی سنتی، شما با دادن یک ورودی، یک خروجی خواهید گرفت. شبکههای خصمانهی مولد، به شما قابلیت استخراج خروجی را بدون داشتن ورودی خواهند داد.
من هم در مورد کاربرد این شبکهها در تولید ویدئوهای جعلی شنیدهام. آنها واقعاً چیزهای جدیدی خلق میکنند که به نظر واقعی میآیند، این طور نیست؟
آنها بهنوعی فعالیت درونی ایجاد میکنند. این همان روشی است که مغز ما طبق آن عمل میکند. شما میتوانید به بیرون نگاه کنید و چیزی را ببینید، سپس میتوانید چشمهای خود را ببندید و چیزهایی را تصور کنید که در آنجا نیستند. شما تصوراتی بصری دارید، ایدههایی دارید که زمانی که ذهنتان آزاد است، به سراغ شما میآیند. دلیل آن این است که مغز انسان، مولد است. حالا این نوع جدید از شبکهها میتوانند الگوهای جدیدی را خلق کنند که پیش از این وجود نداشتهاند. بنابراین شما میتوانید بهعنوان مثال، صدها تصویر از خودرو را به آن بدهید و آن شبکه یک ساختار داخلی ایجاد کند که قابلیت تولید تصاویر جدیدی از خودرو را داشته باشد؛ خودروهایی که هرگز وجود نداشتهاند؛ ولی باز هم مشابه خودروهای واقعی هستند.
نمونهای از تصاویر خلق شده توسط یادگیری عمیق
اگر بخواهیم به آن روی سکه نگاه کنیم، فکر میکنید در مورد چه ایدههایی ممکن است اغراق شده باشد؟
هیچکس نمیتواند پیشبینی کند که معرفی این فناوری جدید چه تأثیری در آینده دارد. البته موارد اغراقآمیز هم وجود دارند. ما مسائل واقعاً دشواری را حل نکردهایم. ما هوش فراگیر نداریم، اما مردم میگویند که رباتها در همین حوالی هستند و بهزودی جایگزین ما خواهند شد. این اظهارات در حالی است که رباتها بسیار عقبتر از هوش مصنوعی هستند؛ چرا که بدن باید بسیار پیچیدهتر از مغز باشد تا بتواند تکثیر شود.
اجازه بدهید تنها نگاهی به یکی از پیشرفتهای تکنولوژیکی داشته باشیم: لیزر. این ابزار در حدود ۵۰ سال پیش اختراع شد و آن زمان، فضایی بهاندازهی یک اتاق را اشغال میکرد. برای رسیدن از آن دستگاهی با آن ابعاد تا وسیلهای به کوچکی یک نشانگر لیزری که امروزه در سخنرانیها از آن استفاده میشود، نیاز به ۵۰ سال تجاریسازی فناوری بود. این فناوری باید بهاندازهای پیشرفت میکرد که اینگونه کوچک شود و بتوان با تنها ۵ دلار آن را خرید.
همین قضیه درمورد فناوریهایی مانند خودروهای خودران نیز رخ خواهد داد. انتظار نمیرود که این فناوری یک سال یا حتی تا ۱۰ سال آینده، فراگیر شود. ممکن است این روند ۵۰ سال طول بکشد؛ اما نکته این است که در طول این مسیر، شاهد پیشرفتی روزافزون خواهیم بود که منجر به انعطافپذیرتر شدن، ایمنتر شدن و سازگارتر شدن این فناوری با سازوکار فعلی شبکهی حملونقل خواهد شد. مشکل این اظهارات اغراقآمیز در این است که مردم در مورد مقیاس زمانی، اشتباه میکنند. آنها انتظار دارند که خیلی زود، تغییراتی خیلی بزرگ روی دهد؛ اما باید دانست که هر اتفاقی در زمان مقتضی خود رخ خواهد داد.