از پیشرفتهای هوش مصنوعی در تقلید رفتارهای انسانی باید ترسید؟
اگر از طرفداران پروپاقرص فناوریهای انقلابی بوده باشید، پس احتمالا میدانید که تاکنون چندین و چند بار از خطرات مربوطبه پیشرفت خارجازکنترل هوش مصنوعی صحبت به میان آمده و از دانشمندانی نظیر استیون هاوکینگ تا سیاستمدارانی چون هنری کیسینجر همگی از آیندهای تاریک سخن گفتهاند که با فرارسیدن «نقطهی تکینگی فناوری» برای بشر رقم خواهد خورد. ایدهای که در پس این پیشگوییها دیده میشود آن است که با آغاز خلاقیت در سیستمهای هوش مصنوعی، آنها قادر خواهند چیزهای بزرگی خلق کنند که ممکن است برای خود ما کمی ترسناک جلوه کند. برای مثال، یک برنامهی هوش مصنوعی که اجازه میدهد کاربران بتوانند همراهبا یوهان سباستیان باخ در دنیای مجازی آهنگسازی کنند؛ بدینصورت که کاربران میتوانند با واردکردن نُتهای خود به برنامه، هارمونیهایی متناسب بهسبک باخ دریافت کنند.
این برنامه توسط گوگل اداره میشود و به خاطر نوآوری خارقالعاده و جنبهی سرگرمی خود، تحسین زیادی را برانگیخته است. اما در روی دیگر سکه، انتقاداتی را نیز متوجه خود کرده و نگرانیها را در مورد خطرات هوش مصنوعی افزایش داده است.
اما آنچه که در واقعیت با آن مواجه هستیم، فراتر از نگرانی در اینباره است که آیا الگوریتمها روزی میتوانند یک موسیقی یا هنر خلق کنند یا خیر. دراینمیان، برخی از نگرانیها کماهمیتتر جلوه میکنند، درحالیکه ممکن است واقعا هم این طور نباشد؛ نظیر ملاحظاتی که میگویند سیستم هوش مصنوعی گوگل درحال شکستن قوانین بنیادین تصنیف موسیقی است. حقیقت آن است که تلاشها درجهت وادار کردن کامپیوترها به تقلید رفتارهای انسانی میتواند کمی گیجکننده و بالقوه آسیبرسان باشد.
فناوریهای جعل هویت
برنامهی گوگل با تجزیهوتحلیل نُتهای موجود در ۳۰۶ قطعه از آثار هنری باخ توانسته هارمونی پنهان در این ملودیها و نتها را کشف و شناسایی کند. از آنجا که باخ در تصنیفهای خود از قوانین سختگیرانهای تبعیت میکرد، این برنامه توانست بهطور موثری این قوانین را فرا گیرد و اکنون میتواند آنها را درمورد نُتهای ارائهشده ازسوی کاربران نیز اعمال کند.
با اینکه اپلیکیشن باخ بهخودیخود یک محصول جدید است؛ اما فناوری زیربنایی آن پیشازاین نیز وجود داشته است. مدتهای مدیدی است که ما الگوریتمهایی دراختیار داریم که برای تشخیص الگوها آموزش میبینند و براساس توابع احتمال تصمیمگیری میکنند. برخی از این الگوریتمها بهقدری پیچیده هستند که بسیاری از افراد حتی نمیتوانند درک کنند که روند تصمیمگیری یا تولید نتیجه در آنها بهکلی چگونه رخ میدهد.
سیستمهای هوش مصنوعی بینقص نیستند؛ بسیاری از آنها به دادههایی تکیه دارند که شاخص مناسبی از کل جمعیت نیست یا تحتتاثیر سوگیریهای عمدی و تعصبات انسانی قرار دارند. بدتر آنکه حتی بهدرستی روشن نیست که درصورت بروز خطاها یا ایجاد مشکلات حادتر ازسوی این نوع سیستمها، باید تقصیر را متوجه چه فرد یا گروهی دانست.
در حال حاضر، فناوریهای هوش مصنوعی به اندازهای پیشرفت کردهاند که میتوانند سبک نوشتاری یا گفتاری افراد و حتی حالات چهره آنان را بهخوبی تقلید کنند.
این دستاورد چندان هم بد نیست؛ کمااینکه یک هوش مصنوعی نسبتا ساده با قابلیتی نظیر پیشبینی کلمات پرکاربرد توانست به استیون هاوکینگ کمک کند ارتباط مؤثرتری را با افراد جامعه برقرار کند.
برنامههای پیچیدهتری که صداهای انسانی را تقلید میکنند، میتوانند به افراد دارای معلولیتهای تکلمی کمک کنند؛ اما ازسوی دیگر، میتوانند برای فریبدادن شنوندگان نیز بهکار روند. برای مثال، سازندگان یک برنامهی تقلید صدا بهنام Lyrebird، ویدئوی مربوطبه یک مکالمهی شبیهسازیشده میان باراک اوباما، دونالد ترامپ و هیلاری کلینتون منتشر کردهاند که در نگاه اول بسیار واقعی به نظر میرسد، درحالیکه چنین مکالمهای هرگز روی نداده است.
از خوب تا بد
در فوریهی ۲۰۱۹، شرکت غیرانتفاعی OpenAI برنامهای رایانهای نوشت که قادر به تولید متونی ساختگی است که عملا از متون نوشتهشده توسط انسان قابلتشخیص نیست. این برنامه میتواند بهراحتی یک سخنرانی بهسبک جاناف.کندی، دیالوگی از تالکین در ارباب حلقهها یا انشای یک دانشآموز درمورد جنگ داخلی آمریکا بنویسد.
متون تولیدشده توسط نرمافزار OpenAI بهگونهای واقعی و اغواکننده بوده است که شرکت تصمیم گرفته خود برنامه را در اختیار عموم قرار ندهد. تکنولوژیهای مشابهی نیز وجود دارند که میتوانند عکسها و فیلمها را با کیفیتی مثالزدنی شبیهسازی کنند.
برای نمونه، در اوایل سال ۲۰۱۸، جوردت پیل، فیلمساز آمریکایی تصمیم گرفت فیلمی بسازد که در آن اوباما، رئیسجمهور سابق ایالاتمتحده آمریکا سخنانی را درمورد خطرات هوش مصنوعی ایراد میکند و در آن اذعان میکند آنچه که در این فیلم گفته میشود، اوباما واقعا بهزبان نیاورده است.
در اوایل سال ۲۰۱۹، نیز تصاویری جعلی از پیکر عریان یکی از نمایندگان جمهوریخواه ایالات متحده جنجال آفرید. در ادامه نیز انتظار میرود که ویدوئوهای ساختگی که با فناوری deepfakes شناخته میشوند، بهطور فزایندهای در فعالیتهای انتخاباتی مورداستفاده قرار گیرند.
کار تا آنجا پیش رفته که برخی از اعضای کنگره شروع به بررسی این مسئله در آستانهی انتخابات ۲۰۲۰ کردهاند. وزارت دفاع ایالاتمتحده نیز ارائهی آموزشهایی درمورد نحوهی تشخیص ویدئو و نوارهای صوتی جعلی را در دستور کار قرار داده است.
سازمانهای خبری مانند رویترز شروع به آموزش روزنامهنگاران برای کمک به شناسایی دیپفیکس کردهاند. اما بهنظر میآید هنوز هم نگرانیهای مهمی وجود دارد: با درنظرگرفتن سرعت بیحدوحصر پیشرفت این فناوری، ممکن است فرصت کافی را برای فراگیری این شیوههای تشخیصی در اختیار بسیاری از کاربران نباشد.
با درنظرگرفتن سرعت پیشرفت فناوری، ممکن است فرصت کافی برای فراگیری شیوههای تشخیصی در اختیار کاربران نباشد
برای مثال، همینطور که این روزها مردم کمکم از وجود دیپفیکس اطلاع مییابند، هوش مصنوعی نیز بیکار ننشسته و درحال توسعهی فناوریهای جدیدی برای فریبدادن مردم است. همین حالا نیز برنامههایی وجود دارند که میتوانند چهرههای تقلبی و اثر انگشت دیجیتالی جعلی ایجاد کنند که بهطرز مؤثری میتواند در جعل هویت افراد در بخشهایی نظیر سوابق سازمانی یا دولتی مورد استفاده واقع شود.
ماشینها به یادگیری ادامه میدهند
در حال حاضر، هنوز حجم اشتباهات بالقوه در این فناوریها آنقدر است که مردم بتوانند این محتواهای دیجیتالی جعلی را تشخیص دهند. همانطور که آهنگساز ماشینی باخ گاهی اشتباهاتی مرتکب میشود که یک فرد متخصص میتواند آنها را تشخیص دهد، برنامهی تولید متن OpenAI نیز گاهی عباراتی مانند «آتشسوزی در آب» را خلق میکند که هیچ مفهومی را نمیرساند.
بااینحال، توسعهدهندگان روی آثار خود کار میکنند و این اشتباهها روزبهروز نادرتر خواهند شد. فناوریهای هوش مصنوعی رشد خواهند کرد و یاد خواهند گرفت. عملکرد بهبود یافتهی این سیستمها، ظرفیت ایجاد بسیاری از مزایای اجتماعی از جمله مراقبتهای بهداشتی بهتر را در پی دارد و هوش مصنوعی میتواند به فرایند دموکراتیزهکردن خدمات پزشکی کمک شایانی کند.
فرصتدادن به پژوهشگران و شرکتها برای کشف توانمندیهای مثبت سیستمهای هوش مصنوعی، بهمعنای باز شدن عرصه برای توسعهی روشهای پیشرفتهتر فریب و دیگر مشکلات اجتماعی نیز خواهد بود. از آن سو، اعمال محدودیتهای شدیدتر روی تحقیقات هوش مصنوعی میتواند چنین پیشرفتهایی را بهکلی مهار کند. آنگونه که تاریخ فناوری به ما میگوید، فرصتدادن به فناوریهای سودمند برای رشد و شکوفایی همراه مخاطراتی بههمراه داشته و خواهد داشت. بااینحال، هنوز ما کاملا نمیدانیم که هوش مصنوعی قرار است از چه روشهای دیگری ما را تهدید کند؛ شاید این سوءاستفاده تنها محدود به خلق آثار هنری غیراصیل و غیردقیق باشد یا خلق محتوایی آنقدر متقاعدکننده که میلیونها نفر را در سراسر جهان فریب دهد.