دانشمندان درصدد بهرهگیری از موشها برای مقابله با دیپ فیک هستند
احتمالا تاکنون همهی شما دربرابر دیپفیک و عواقب خطرناک ناشی این فناوری چیزهایی شنیدهاید؛ قابلیتی خارقالعاده ازسوی یادگیری ماشین برای تولید فایلهای ویدئویی و صوتی از افراد که بهگونهای طراحی شده است که تا حد امکان طبیعی جلوه کند. در پی درک خطرات بالقوه ناشی از این فناوری، بسیاری از پژوهشگران در تلاش هستند تا بتوانند روشهایی بهتر را برای کشف صحت اصالت محصولات صوتی و تصویری بیابند.
هماینک در مؤسسهی علوم اعصاب دانشگاه اورگون، یکی از عجیبترین ایدهها برای مقابله با دیپفیک در حال بررسی است. یک گروه پژوهشی در تلاش هستند به موشها آموزش دهند تا بتوانند بینظمیهای موجود در یک سخنرانی دیپفیک را تشخیص دهند؛ قابلیتی که بهنظر میرسد حیوانات واقعا در آن تبحر ویژهای دارند. امید میرود که این پژوهشها بتواند درنهایت بهیاری رسانههایی نظیر یوتیوب و فیسبوک بیاید تا بهکمک هم بتوان محتوای جعلی را پیش از انتشار در فضای آنلاین شناسایی و پاکسازی کرد. البته باید بدانید که شرکتها واقعا نیازی ندارند برای تشخیص این نوع محتواها، عملا موشها را بهاستخدام خود درآورند. جاناتان ساندرز، یکی از پژوهشگران پروژه میگوید:
با اینکه بهنظر من، داشتن یک اتاق پر از موش برای تشخیص صداهای جعلی، ایدهای قابلستایش است؛ ولی من فکر میکنم بنابر دلایل واضحی، عملی نخواهد بود. هدف ما این است که درسهای لازم را درمورد نحوهی کار از این حیوانات فراگیریم و سپس آن را در یک رایانه بهکار گیریم.
پژوهشگران امیدوار هستند موشها بتوانند بینظمیهای درون اصوات محتوای دیپفیک را بسیار بهتر از انسانها تشخیص دهند.
طبقهبندی به شیوهی موشها
ساندرز و تیمش به موشها آموزش دادهاند تا بتوانند یک مجموعهی کوچک از اصوات را که بهمنظور تشخیص یک واژه از واژههای دیگر بهکار میروند، درک کنند. او توضیح میدهد:
ما به موشها آموزش دادیم تا بتوانند تفاوت میان آوای «باه» (buh) و «گاه» (guh) را در میان متون و حروف صدادار مختلف تشخیص دهند. آنها اکنون تفاوت میان «بو»، «بیه» و «باه» را میدانند؛ همان توانایی که ما بهصورت طبیعی در اختیار داریم. و از آنجاکه آنها میتوانند از پس مسئلهی واقعا پیچیدهای مانند دستهبندی اصوات گوناگون برآیند، فکر میکنیم ممکن است بتوان موشها را بهگونهای آموزش داد که سخنرانی واقعی و جعلی را نیز از یکدیگر تشخیص دهند.
هر زمان که موشها بتوانند یک صوت را بهدرستی تشخیص دهند، پاداش دریافت میکنند؛ موضوعی که بنابر تجربهی فعلی، در ۸۰ درصد از موارد مصداق دارد. البته این روش هنوز کامل و بینقص نیستِ ولی استفادهاز آن، در کنار روشهای فعلی برای تشخیص دیپفیک میتواند اطلاعات ارزشمندی ارائه دهد.
اشتباهات و عدم اعتمادپذیری
بیشتر محتواهای دیپفیک که امروزه با آن مواجه هستیم، چندان واقعی طراحی نمیشوند. این محتواها بیشتر با هدف شوخی و استهزاء بهکار میروند تا جعل هویت. نمونهای از این موارد مربوطبه ویدئوی دیپفیکی از مارک زاکربرگ است که بیپرده درمورد دزدیدن دادههای کاربران سخن میگوید. اما این باعث نمیشود که بگوییم در آینده هم قرار نیست کار به موضوع جعل هویت کشیده شود. این تهدیدها همین امسال نیز تبدیل به یکی از موضوعات مهم در دو کنفرانس مهم دنیای هک (با نامهای Black Hat و Def Con) شدهاند. متیو پرایس، از اعضای شرکت امنیت سایبری Zerofox میگوید:
از دیدگاه هزینههای پردازش ابری، آموزش یک سیستم دیپفیک خوب، چیزی در حدود ۱۰۰ الی ۵۰۰ دلار هزینه در بردارد.
View this post on Instagram‘Imagine this...’ (2019) Mark Zuckerberg reveals the truth about Facebook and who really owns the future... see more @sheffdocfest VDR technology by @cannyai #spectreknows #privacy #democracy #surveillancecapitalism #dataism #deepfake #deepfakes #contemporaryartwork #digitalart #generativeart #newmediaart #codeart #markzuckerberg #artivism #contemporaryartA post shared by Bill Posters (@bill_posters_uk) on Jun 7, 2019 at 7:15am PDT
پرایس درمورد جدیدترین روشهای ساخت دیپفیک و همچنین آخرین فناوریها برای تشخیص آنها صحبت میکند. او در خلال سخنرانی خود، توضیح میدهد که چگونه میتوان از الگوریتمها برای تشخیص حرکات غیرطبیعی سر یا نورپردازی متناقض استفاده کرد. یکی از مدارکی که معمولا در دیپفیکهای بدون کیفیت دیده میشود، این است که اشخاص در آن معمولا پلک نمیزنند.
یکی از مشخصههای فعلی دیپفیکهای بدون کیفیت این است که اشخاص در آن پلک نمیزنند
اما این روشها همگی براساس ضعفهای فناوری فعلی یا اشتباهاتی بنا شدهاند که سازندگان چنین ویدئوهایی مرتکب میشوند. مسلما قرار نیست این نوع مشکلات تا ابد وجود داشته باشند و بالاخره روزی فناوری راهی برای خلق بینقصترین ویدئوهای جعلی خواهد یافت. پرایس میگوید:
احتمالا در انتخابات سال ۲۰۲۰، با دیپفیکهای فراوانی مواجه خواهیم شد. اما من فکر میکنم همانطور که این فناوری به پیشرفت خود ادامه میدهد و کار برای تشخیص محتوای جعلی سخت و سختتر میشود، احتمال میرود که کاربرد آن در عملیات نفوذ بهخصوص موضوع انتخابات بیشتر خواهد شد.
این نگرانی ازسوی گروهی از سیاستمداران ردهبالای آمریکایی مطرح شده است که دیپفیک را بهعنوان موجی تازه از تلاشها در جهت اشاعهی اخبار غلط در میان رایدهندگان آمریکایی میبینند. مارکو رابیو، سناتور جمهوریخواه آمریکایی طی سخنانی در اویل سال جاری میلادی گفت:
دشمنان آمریکا پیشتر باکمک تصاویر جعلی تلاش کرده بودند بذر نارضایتی و تفرقه را در میان ما بکارند. حال تصور کنید که با کمک ویدئو بتوانند برگههای دزدیدهشدهی آرا، نظرات غیراخلاقی رهبران سیاسی و حتی کشتار مردم بیگناه را در جنگهای خارجی جعل کنند.
جعلی اما بیارزش
در این میان کسانی نیز هستند که می گویند درمورد تهدید ناشیاز دیپفیک بیشاز حد اغراق شده است. بروس اشنیر، متخصص امنیت سایبری از دانشکدهی هاروارد کندی بر این باور است که تلاشها پیرامون تشخیص دیپفیک کاملا از مسیر اصلی خود خارج شده است. او میگوید:
مسئله، کیفیت محتوای جعلی نیست؛ بلکه مسئله این است که ما به منابع خبری مشروع نیز اعتماد نداریم و همهچیز را تنها بهخاطر هویت اجتماعی بهاشتراک میگذاریم.
سرعت پخش ویدئوی مربوطبه نانسی پلوسی ۲۵ درصد کاهش یافته بود.
اشنیر به یک ویدئوی پریازدید درمورد یکی از اعضای دموکرات کنگره بهنام نانسی پلوسی اشاره دارد که در آن صدای او بهگونهای تغییر یافته است که به شنونده این حس القا شود که شخص سخنران احتمالا تحتتأثیر مشروبات الکلی بوده است. با اینکه جعلیبودن کلیپ یادشده بهسرعت افشا شد، اما این افشاگری اهمیت چندانی نداشت. این ویدئو بیش از یک میلیون بار دیده شد. اشنیر میگوید:
این ویدئو نه یک دیپفیک، بلکه یک جعل کمارزش بود. تا وقتی که مردم این ویدئوها را نه از دیدگاه «واقعیبودن»؛ بلکه از دیدگاه «تطابق با جهانبینی خود» تماشا کنند، به انتشار و اشاعهی آن ادامه میدهند. چراکه شخصیت آنها اینگونه است.
درواقع، یکی از دیدگاههای پرطرفدار میان متخصصان این است که درنهایت مباحثات پیرامون دیپفیک ممکن است از خود دیپفیک نیز آثار ویرانگرتری بهدنبال داشته باشد. شاید ترس ما از فناوری باعث شود که روزی یک سیاستمدار حتی هواداران خود را مجاب کند که یک موضوع کاملا واقعی نیز چیزی بیش از یک دیپفیک نبوده است.