دردسرهای هوش مصنوعی؛ کلاهبرداری‌های مبتنی‌بر هوش مصنوعی و روش‌های مقابله با آن‌ها

جمعه ۲ شهریور ۱۴۰۳ - ۱۲:۳۰
مطالعه 7 دقیقه
هوش مصنوعی / Artificial Inteligence
هوش مصنوعی در کنار مزایایی که برای ما به‌همراه آورده، دردسرهایی هم به‌دنبال داشته و ما را در معرض کلاهبرداری‌های متعددی قرار داده است.
تبلیغات

هوش مصنوعی برای کمک به انجام کارهایی مانند نوشتن ایمیل، ساخت آثار هنری یا حتی فریب‌دادن افراد ساده‌لوح دردسترس ما قرار دارد. باتوجه‌به فرصت فریب مردم توسط این فناوری، آشنایی با روش‌های کلاهبرداری مبتنی‌بر هوش مصنوعی و روش‌های مقابله با آن، حتماً خیال شما را از بابت گرفتارنشدن در دام افراد شیاد راحت خواهد کرد.

در سال‌های اخیر نه‌تنها شاهد افزایش چشمگیر کیفیت رسانه‌های تولیدشده توسط هوش مصنوعی بوده‌ایم؛ بلکه به‌وضوح دیده‌ایم که این رسانه‌ها بسیار ساده و ارزان نیز تولید شده‌اند. در واقع ابزاری که به یک هنرمند کمک می‌کند تا هیولاها و فضاپیماهای فانتزی خلق کند یا یادگیری زبان را برای افراد غیرانگلیسی‌زبان راحت‌تر می‌کند، می‌تواند برای اهداف مخرب هم استفاده شود.

نیازی نیست با شنیدن نام کلاهبردی‌های مبتنی‌بر هوش مصنوعی، به سناریوهای عجیب‌وغریب و تخیلی فکر کنید. این نوع کلاهبرداری‌ها همان کلاهبرداری‌های قدیمی و آشنا هستند که به‌لطف هوش مصنوعی ساده‌تر، ارزان‌تر و قانع‌کننده‌تر از قبل شده‌اند. لیستی که در ادامه به شما معرفی می‌کنیم، کامل نیست و فقط به معرفی واضح‌ترین کلاهبرداری‌هایی می‌پردازد که هوش مصنوعی به تقویت آن‌ها منجر شده است.

شبیه‌سازی صدای اعضای خانواده و دوستان

شبیه‌سازی صدا موضوعی است که از ده‌ها سال پیش با آن آشنا هستیم؛ اما این روزها پیشرفت تکنولوژی باعث شده است تا بتوانیم تنها با دراختیار داشتن چند ثانیه از صدای یک شخص، صدای او را شبیه‌سازی کنیم. این یعنی هر شخصی مانند خواننده‌ها، سیاست‌مداران و گزارشگران که صدایشان به‌صورت عمومی در جامعه پخش شده ممکن است روزی قربانی تکنولوژی شبیه‌سازی صدا شوند.

متاسفانه کلاهبرداران می‌توانند از قابلیت‌های هوش مصنوعی برای شبیه‌سازی صدای دوستان یا اعضای خانواده‌تان استفاده کنند و به‌راحتی آن‌ها را فریب دهند؛ به‌عنوان مثال ممکن است پیامی با صدای شما برای یکی از اعضای خانواده یا دوستانتان ارسال شود که درخواست مقداری پول کند و آن‌ها هم بدون هیچ تردیدی مبلغ درخواستی را به شماره‌ حسابی که برایشان ارسال شده واریز کنند. یکی از پرسروصداترین کلاهبرداری‌هایی که به این شیوه انجام شد، با استفاده از صدای جو بایدن اتفاق افتاد. عوامل پشت پرده‌ی این کلاهبرداری خیلی زود دستگیر شدند؛ اما به‌طور حتم این تجربه باعث خواهد شد تا کلاهبرداران در آینده احتیاط بیشتری کنند و با رعایت همه‌ی جوانب دست به چنین عملی بزنند.

مقابله با کلاهبرداری به شیوه شبیه‌سازی صدا توسط هوش مصنوعی

قبل از هرچیزی باید این را به شما بگوییم که فکر تشخیص صدای جعلی از صدای واقعی را از سرتان بیرون کنید؛ چون تکنولوژی هرروز درحال پیشرفت است و این صداها هر روز به‌قدری باکیفیت‌تر و طبیعی‌تر از قبل می‌شوند که تشخیص فیک‌بودن آن‌ها برای افراد متخصص نیز دشوار است. هر پیام یا درخواستی را که با شماره یا ایمیل ناشناس برایتان ارسال شد، مشکوک تلقی کنید و سپس از راه‌های ارتباطی همیشگی با آن فرد تماس بگیرید تا مطمئن شوید که این درخواست از طرف او ارسال شده یا جعلی است.

فیشینگ و اسپم شخصی‌سازی‌شده با ایمیل یا ارسال پیام

فیشینگ

این روزها هوش مصنوعی مولد متن، امکان ارسال ایمیل‌های انبوه سفارشی‌شده را برای هر فردی فراهم آورده است. از سوی دیگر باتوجه‌به اینکه نقض داده‌ها به‌طور مرتب در سراسر جهان اتفاق می‌افتد، بسیاری از داده‌های شما در دسترس کلاهبرداران قرار دارد. شناسایی ایمیل‌های اسپم قدیمی که به‌روشی ناشیانه ساخته می‌شدند کار چندان سختی نبود؛ اما تکنولوژی‌های جدید، این ایمیل‌ها را بسیار باورپذیرتر از گذشته کرده‌اند.

درحال‌حاضر کلاهبرداران به‌راحتی می‌توانند با دسترسی به داده‌هایی مانند عادت‌های خرید شما یا مکان‌هایی که به‌تازگی در آن‌ها حضور داشته‌اید، ایمیل‌هایی ارسال کنند که جای هیچ شک و تردیدی را برایتان باقی نگذارند. اگر روزی ایمیل یا پیامی از طرف یک فروشگاه آشنا دریافت کنید که در آن شما را با اسم کوچک خطاب می‌کنند و درباره‌ی تخفیف‌خوردن کالایی که مدت‌ها قصد خرید آن را داشتید صحبت می‌کنند، به احتمال قوی باور خواهید کرد که این پیام واقعی است؛ چراکه مدل زبانی بزرگ (LLM) هوش مصنوعی ساخت ایمیل‌ها یا پیام‌های اسپم را بسیار دقیق و باورپذیر انجام می‌دهد.

بهترین راه مقابله با فیشینگ

هوشیاری، بهترین سلاح شما برای مقابله با ایمیل‌های اسپم ساخته‌شده توسط هوش مصنوعی است؛ البته نباید انتظار داشته باشید که بتوانید متن نوشته‌شده توسط هوش مصنوعی را از متن نوشته‌شده توسط انسان تشخیص دهید. فراموش نکنید که تنها افراد کمی قادر به انجام چنین کاری هستند و حتی مدل دیگری از هوش مصنوعی هم به‌ندرت می‌تواند اینکار را انجام دهد.

چالش‌ اساسی در زمینه‌ی فیشینگ با ایمیل‌ها و پیام‌های اسپم این است که چنین پیام‌هایی شما را ترغیب می‌کنند تا روی لینک ارسال‌شده کلیک کنید؛ بنابراین اگر به هویت ارسال‌کننده یا جعلی‌بودن پیام مشکوک هستید، هرگز آن را باز نکنید. در این مواقع می‌توانید از فردی که دانش کافی را در این زمینه دارد کمک بگیرید.

هشدار به کاربران آیفون؛ مراقب حملات فیشینگ جدید باشید
هشدار به کاربران آیفون؛ مراقب حملات فیشینگ جدید باشید
مطالعه '2

جعل هویت

باتوجه‌به نقض داده‌های متعددی که در چند سال اخیر رخ داده‌ است می‌توان گفت که مقدار زیادی از اطلاعات شخصی ما در دارک‌ وب درحال چرخش هستند. اگر از روش‌های امنیتی آنلاین مانند تغییر رمز عبور یا احراز هویت چندعاملی استفاده می‌کنید، خطر گرفتارشدن در دام کلاهبرداران را به‌میزان چشمگیری کاهش داده‌اید؛ اما بد نیست بدانید که هوش مصنوعی مولد می‌تواند تهدید جدی و جدیدی را در این زمینه برای شما ایجاد کند.

باوجود حجم بالایی از اطلاعات شخصی افراد در فضای آنلاین و حتی کلیپ‌های صوتی چند ثانیه از آن‌ها، ایجاد یک شخصیت ساختگی که شبیه فرد مورد نظر صحبت می‌کند و به بسیاری از اطلاعات ضروری برای تأیید هویت نیز دسترسی دارد، کار چندان سختی نیست. متاسفانه این روزها حتی راه‌هایی برای دور‌زدن روش‌های پیشرفته‌ی احراز هویت مانند سلفی‌گرفتن هم وجود دارد.

خطر اصلی در مورد جعل هویت با استفاده از هوش مصنوعی، سهولت انجام گسترده‌ و مکرر این‌کار توسط کلاهبرداران است. تا همین چند وقت پیش جعل هویت برای کلاهبرداری کاری پرهزینه و زمان‌بر بود و به‌همین دلیل نیز فقط به افراد بسیار ثروتمند محدود می‌شد؛ اما امروزه با صرف هزینه و زمان کم می‌توان هزاران هویت جعلی ساخت و افراد بسیاری را با کمک این هویت‌ها فریب داد. اگر تنها تعداد کمی از این حملات هم نتیجه‌بخش باشند، صرف هزینه برای برنامه‌ریزی و انجام آن‌ها را توجیه خواهند کرد.

اقدامات پیشگیرانه برای جلوگیری از کلاهبرداری به روش جعل هویت

همان‌طور که گفتیم بسیاری از داده‌های شما در دارک وب در دسترس کلاهبرداران هستند و نمی‌توانید آب رفته را به جوی برگردانید؛ اما برای بالابردن میزان امنیت خود و کاهش خطر گرفتارشدن در دام کلاهبرداران، ابتدا باید مطمئن شوید که تمام حساب‌های شما از امنیت کافی برخوردار هستند و افراد سوءاستفاده‌گر به‌راحتی نمی‌توانند به آن‌ها دسترسی پیدا کنند.

مهم‌ترین قدمی که می‌توانید برای مقابله با کلاهبردارانی که هویت شما را جعل می‌کنند بردارید، استفاده از احراز هویت چندعاملی است؛ روشی که در آن هرگونه فعالیت جدید در حساب شما به تلفن همراه‌تان ارسال می‌شود و ورودهای مشکوک یا تلاش برای تغییر رمز عبور را می‌توانید در ایمیل خود ببینید. به‌خاطر داشته باشید که هرگونه پیام هشداری را که در این زمینه برایتان ارسال می‌شود جدی بگیرید؛ به‌خصوص اگر تعداد این پیام‌ها بالا است و به‌طور مرتب برای شما ارسال می‌شود.

هوش مصنوعی، دیپ‌فیک و باج‌گیری

دیپ‌فیک

شاید ترسناک‌ترین شکل کلاهبرداری جدید با کمک هوش مصنوعی، امکان باج‌گیری از افراد با استفاده از تصاویر دیپ‌فیک آن‌ها یا عزیزانشان باشد که به‌لطف مدل‌های تصویر باز ساخته می‌شوند. این روزها افراد علاقه‌مند به جنبه‌های خاصی از تولید تصاویر پیشرفته، علاوه‌بر ایجاد فرایند رندرکردن بدن‌های برهنه، قادر هستند تا هر چهره‌ای را به چنین بدن‌هایی بچسبانند.

دیپ‌فیک یک مشکل بسیار جدی است و کلاهبرداران با دسترسی آسان به ابزارهای ویرایش تصاویر به‌راحتی می‌توانند تصاویر خصوصی دیگران را دستکاری و از آن‌ها اخاذی کنند. افراد سوءاستفاده‌گر به‌سادگی می‌توانند با استفاده از تصاویر خصوصی دیگران که به هردلیلی در فضای عمومی پخش شده‌اند، از این افراد سوءاستفاده کنند. باج‌گیری با تصاویر ساختگی، علاوه‌بر آسیب‌ مالی برای افراد، آسیب‌های روحی و روانی بسیار زیادی را نیز برای قربانیان این نوع کلاهبرداری به‌همراه دارد.

هوش مصنوعی امکان اخاذی با دیپ‌فیک را بسیار ساده‌تر کرده است و کلاهبرداران می‌توانند حتی درصورت نداشتن تصاویر خصوصی دیگران هم به‌راحتی صورت آن‌ها را به بدن‌های برهنه بچسبانند. نتایج به‌دست‌آمده از دیپ‌فیک همیشه مطلوب نیستند؛ اما حتی اگر این تصاویر از کیفیت لازم برخوردار نباشند یا تار باشند به‌راحتی می‌توانند افراد معمولی را فریب دهند. فریب آسان افراد با دیپ‌فیک دقیقا همان چیزی است که کلاهبرداران برای ترساندن افراد و اخاذی از آن‌ها نیاز دارند و متاسفانه در چنین مواردی اخاذی تا مدت‌ها ادامه دارد و به یک‌بار محدود نمی‌شود.

کلاهبرداری با دیپ فیک؛ مدیرعامل جعلی، ۲۵٫۶ میلیون دلار سرقت کرد
کلاهبرداری با دیپ فیک؛ مدیرعامل جعلی، ۲۵٫۶ میلیون دلار سرقت کرد
مطالعه '2

راه‌های پیشگیری از اخاذی با استفاده از تصاویر دیپ‌فیک

دنیایی که به سمت آن حرکت می‌کنیم دنیایی است که در آن امکان ساخت تصاویر جعلی برهنه از هر شخصی وجود دارد؛ حقیقتی که بسیار ترسناک و منزجرکننده است و متاسفانه هیچ‌ راهی برای فرار از آن نداریم. هیچ‌کس جز افراد شیاد از چنین وضعیتی راضی نیست؛ اما چند نکته‌ی مهم و مثبت برای قربانیان وجود دارد که می‌تواند برای آن‌ها مفید باشد. تصاویر دیپ‌فیک شباهت بسیار زیادی به تصاویر واقعی دارند؛ ولی درست‌ مانند سایر هوش مصنوعی‌های مولد فقط چیزی را می‌دانند که برای آن آموزش دیده‌اند. به‌عبارت بهتر تصاویر جعلی هیچ نشانه‌ی متمایزکننده‌ای ندارند و احتمالا از برخی جهات اشتباهاتی در آن‌ها دیده می‌شود.

تهدید مواجهه با اخاذی با استفاده از تصاویر دیپ‌فیک هرگز به‌طور کامل از بین نخواهد رفت؛ اما راه‌های قانونی برای حذف تصاویر جعلی منتشرشده در فضاهای مختلف هرروز درحال افزایش است. به‌طور حتم با رشد فزاینده‌ی این روش اخاذی، روش‌های قانونی مقابله با آن هم افزایش خواهد یافت.

آیا شما یا آشنایانتان تاکنون درمعرض هر یک از کلاهبرداری‌های گفته‌شده در این مقاله قرار گرفته‌اید؟ به‌نظرتان چه قوانینی برای مقابله با کلاهبرداری توسط هوش‌ مصنوعی باید در جامعه وضع شوند؟

تبلیغات
داغ‌ترین مطالب روز
تبلیغات

نظرات