نگاهی به استفاده یوتیوب از هوش مصنوعی برای متعادلسازی ویدیوهای نامناسب
بر کسی پوشیده نیست که یوتیوب در سال گذشتهی میلادی قصد متعادل کردن ویدیوهای پلتفرمش را داشت. بارها شایع شد که شرکت یوتیوب نمیتواند از پس محتوای نامناسب بربیاید؛ مخصوصا درقبال ویدیوهایی که هدفشان کودکان بودند. کارکنان یوتیوب بهطور مستقیم مسئولیت از بین بردن و جلوگیری از آپلود ویدیوهای با مضامین جنسی و خشونتآمیز را بر عهده گرفتند. همچنین پیمانکاران از هوش مصنوعی برای شناسایی محتوای نامناسب استفاده کردند. با این حال شاید ارائهی کارکرد ترک مکانیکی، بتواند عملکرد ابزار یادگیری ماشینی یوتیوب را در سطوح اولیه به ما نشان دهد.
ترک مکانیکی (امترک) یا مکانیکال ترک، یک بازار زیرمجموعهی آمازون است که در آن نهادها و پژوهشگران آکادمیک، برای اجرا و انجام خدمات کوچک به نام وظایف هوش انسانی (HIT) به پیمانکاران و کارکنان پول پرداخت میکنند. هزینه معمولا کمتر از ۱ دلار است. کارکنان امترک با تکمیل وظایفی همچون شناسایی اشیاء یک تصویر، نوشتن درمورد یک فایل صوتی یا کمک به آموزش یک الگوریتم، به عملکرد بهتر اینترنت کمک میکنند.
کارکنان امترک بهطور مستقیم درمورد متعادل کردن محتویات تصمیمگیری نمیکنند؛ ولی بهطور روتین به آموزش ابزار یادگیری ماشینی یوتیوب در تمامی راهها کمک میکنند. ابزار یادگیری ماشینی، کاری فراتر از یافتن ویدیوهای نامناسب انجام میدهد. کارکنان همچنین به سایر بخشهای سیستم یوتیوب مانند الگوریتم توصیهگر (پیشنهادی) کمک میکنند.
راشل لاپلانت، یکی از کارکنان امترک که اطلاعاتش را با پایگاه خبری وایرد به اشتراک گذاشت، میگوید:
یوتیوب و گوگل سالها است که وظایفی بر عهدهی ترک مکانیکی گذاشتهاند. وظایف طیف بسیار متنوعی دارند؛ از جمله تگ کردن نوع محتوا، جستجوی محتویات مربوطبه بزرگسالان، مشخص کردن محتویاتی که بوی تئوری توطئه میدهند، مشخص کردن اینکه آیا عناوین مناسب هستند یا خیر و شناسایی اینکه آیا ویدیو از حساب کاربری ویوو است یا خیر.
طبق گفتهی لاپلانت، وظایف آنها اغلب اوقات تغییر میکند. مثلا گاهی اوقات وظایف آنها بهطور مستقیم مربوط به شناسایی محتوای توهینآمیز است؛ البته کار آنها بعضی اوقات تنها در تعیین مناسب بودن ویدیو برای مخاطب خاص مثلا کودکان خلاصه میشود. او گفت:
برخی از کارکنان، این عمل را برای تصمیمگیری در مورد پولی شدن یا نشدن یک کانال در نظر میگیرند.
تماشا کنید و یاد بگیرید
وظیفهی متعادل کردن محتوای خاصی (که لاپلانت در ۱۴ مارس بهازای ۱۰ سنت آنها را انجام داد) که با پایگاه وایرد به اشتراک گذاشته شد، کاملا یک هدف واضح داشت. البته جاهایی وجود دارد که ابهاماتی در اذهان کارکنان به وجود میآورد. کار پیشنهادی در مورد پنجرهای در یک فرآیند غیر قابل دیدن است: از یک تفسیر انسانی درمورد ویدیو چگونه میتوان برای کمک کردن به ساخت الگوریتم یادگیری ماشینی استفاده کرد؟ حتی الگوریتمهای یادگیری ماشینی داخل خود یوتیوب هم تنها ویدیوها را علامت میزنند و مشخص کردن اینکه چه موردی دستورالعملها و قوانین جامعهی یوتیوب را خدشهدار میکند، یک وظیفهی انسانی است.
ابزار یادگیری ماشینی که کارکنان به آموزش دیدن آنها کمک میکنند، کاری فراتراز یافتن ویدیوهای نامناسب انجام میدهند
HTI از کارکنان امترک تماشای یک ویدیو را میخواهد. بعد از تماشای ویدیو توسط کارکنان، آنها باید به سؤالاتی درمورد آن ویدیو، بهصورت پر کردن گزینهها جواب دهند. HTI همچنین از کارکنان میخواهد بهعنوان و توضیح و توصیف ویدیو توجه کنند. کارکنان باید مقداری از ویدیو را تماشا کنند تا بتوانند در قضاوتشان پیرامون در مورد مطمئن باشند. HTI تماشای ویدیو با سرعت ۱.۵ برابر را به کارکنان پیشنهاد میکند تا این روند را سریعتر انجام دهند. سؤالات پرسیدهشده از کارکنان مواردی از قبیل زبان ویدیو (خشن و بیادب) و دیالوگ بزرگسالان (توهینآمیز یا بحثبرانگیز) را شامل میشود.
بخشی از HTI خواستار تشخیص تفاوت بین تصاویر (واقعی یا ساختگی) مصرف مواد مخدر و همچنین استفادهی تصادفی یا طنزآمیز از داروهای معمولی است. این وظیفه فهرستی از داروهای مخرب یا غیر مخرب ندارد و تنها هروئین را جزو داروهای مخرب بهحساب میآورد. در آخر کارکنان باید دربارهی اینکه آیا ویدیو مناسب کودکان است یا خیر، قضاوت کنند.
کارکنان برای اینکه حقوقشان با حقوق کار فدرال (۷.۲۵ دلار در ساعت) برابری کند، باید در هر ساعت ۷۲.۵ وظیفهی محوله را انجام دهند. بهعبارت دیگر آنها باید وظایفشان را بسیار سریع انجام دهند تا به حقوق کار معمولی برسند. با اینکه برخی از سؤالات پرسیدهشده ازطرف یوتیوب بسیار سرراست و راحت هستند (مثلا آیا در این فایل صوتی، آواز خواندن وجود دارد؟)، اکثر آنها کمی پیچیدگی دارند و کار آموزش هوش مصنوعی را سخت میکنند. یک ویدیوی ساده از گربه، کارکنان را دچار مشکل نمیکند؛ ولی تشخیص سخنان پیچیدهی سیاسی درمورد مسائلی مثل سقط جنین واقعا کار سخت و پیچیدهای است.
هدف دقیق وظیفه و مسئولیتهای خاص لاپلانت مشخص نیست و میتواند تنها متعادل کردن محتوا یا سایر موازین باشد و یوتیوب هم از نظر دادن درمورد چنین وظیفهی خاصی امتناع میکند. لینک ویدیوی مشمول مسئولیت، به صفحهای غیر قابل دسترس ختم میشود. ویدیو که در فاصله زمانی سپتامبر ۲۰۱۶ تا مارس ۲۰۱۸، توسط ماشین بایگانی ویبک ۵۶ بار ضبط شده است، طبق اسکرینشاتهای اولیه، اصلا وجود ندارد. لاپلانت هم اصلا آن کلیپ را به یاد نمیآورد. او میگوید:
هیچ ویدیوی خاصی را به یاد ندارم؛ ولی به نظر میرسد آپلودهای افراد مختلف، کلیپهایی از تلویزیون یا سینما و فیلم، تبلیغات و بازیهای ویدیویی بخشهایی از این ویدیو را تشکیل میدهند. ویدیو دارای یک ژانر یا نوع خاص نبود.
یاوران انسانی
یوتیوب در ماه دسامبر سال گذشته میلادی متعهد به افزایش نیروی کار متعادلکننده به ۱۰ هزار نفر در سال ۲۰۱۸ شد. کارکنان امترک جزو ۱۰ هزار نفر محسوب نمیشدند؛ چون کار آنها متعادل کردن نبود، بلکه کمک به آموزش هوش مصنوعی برای انجام چنین فرآیندهایی درآینده بود. لاپلانت میگوید:
من انتظار دارم حتی اگر یوتیوب تنها برای آموزش الگوریتمهای یادگیری ماشینی از کارکنان امترک استفاده کند، برخی از این آموزشها صرف آموزش الگوریتمها برای کمتر کردن دخالت انسانی بشود. بنابراین اگر احتمالا ما متعادلسازی محتوای زنده را روی امترک انجام ندهیم، هنوز میتوانیم با آموزش سیستمهای اتوماتیک متعادلسازی محتوا، در چنین کاری سهیم باشیم.
سارا تی.رابرت، پژوهشگر درزمینهی متعادلسازی محتوا در دانشگاه کالیفرنیا، استفادهی پلتفرمهایی مثل یوتیوب از سایتهای کاری کوچک همانند ترک مکانیکی برای تکمیل فعالیتهای ثانویه و بلندمدت مثل آموزش الگوریتمها را امری رایج میداند.
... شکی در این مسئله نیست و افرادی مثل لاپلانت و دیگران که تجارب طولانیمدت کار روی سایتهای کاری کوچک را دارند، توجه ویژهای به چنین مواردی دارند.
یوتیوب نیاز مبرمی به ابزار هوش مصنوعی تحت آموزش لاپلانت و سایر کارکنان امترک دارد؛ چراکه درچند ماه گذشته چندین بار در کنترل و بازرسی محتوای خود با شکست روبرو شده است. یوتیوب در سال جاری با مشکل آپلود ویدیوی خودکشی یک فرد توسط یکی از افراد مشهور، روبرو شد. انتقادات زیادی از این ماجرا گریبانگیر یوتیوب شد؛ تا اینکه خود شخص آن ویدیو را پاک کرد. انتقادات از یوتیوب به دلیل اجازهی دادن به نشر تئوری توطئه درمورد تیراندازی در پارکلند بود. این ماجرا مربوط به گروه سفیدپوست تندرویی بود که با ۵ قتل دیگر مرتبط بودند.
پاسخهای کارکنان امترک به سؤالات یوتیوب کمکی نمیکند و میتواند مغرضانه باشد
بحث در مورد چگونگی اصلاح یوتیوب، سیستمها و افراد فعلی را که به بهبود یوتیوب کمک میکنند در بر نمیگیرد. بخشی از این افراد، کارکنان امترک هستند که به آموزش جدیدترین ابزار یادگیری ماشینی یوتیوب کمک میکنند. این ابزار روزی در تشخیص دقیق و سریع محتوای نامناسب کمک شایانی به پلتفرم یوتیوب خواهد کرد.
طبق گفتهی یوتیوب، الگوریتمها در حال حاضر ۹۸ درصد ویدیوهای افراطی را شناسایی میکنند؛ البته بازهم اصلاحکنندههای انسانی این ویدیوها را بازبینی میکنند. احتمالا الگوریتمها در آینده در متعادلسازی محتوا پا را فراتر خواهند گذاشت. اما در حال حاضر هوش مصنوعی آنقدر قوی نیست که در مورد اینکه کدام ویدیو بماند و کدام حذف شود، تصمیمات جزئی بگیرد. البته دلیل این امر واضح است؛ پایه و اساس فناوری هوش مصنوعی یوتیوب به تصمیمات فوری کارکنان امترک بستگی دارد. تلاش برای کپی کردن قضاوت انسانی در هوش مصنوعی کار آسانی نیست و پاسخ کارکنان امترک به سؤالات یوتیوب تنها بر اساس دیدگاه آنها گرفته میشود و نمیتواند کمکی به جریان کلی بکند. الگوریتمها حتی اگر با بهترین نیت ساخته شده باشند، بازهم هرگز کاملا خنثی و بیطرف نخواهند بود؛ چراکه ساختهی دست انسان هستند. گاهی اوقات حتی الگوریتمها هم نتیجهی کار افرادی کمحقوق هستند که ویدیوها را باسرعت ۱.۵ برابر تماشا میکنند.