دردسرهای هوش مصنوعی؛ کلاهبرداریهای مبتنیبر هوش مصنوعی و روشهای مقابله با آنها
هوش مصنوعی برای کمک به انجام کارهایی مانند نوشتن ایمیل، ساخت آثار هنری یا حتی فریبدادن افراد سادهلوح دردسترس ما قرار دارد. باتوجهبه فرصت فریب مردم توسط این فناوری، آشنایی با روشهای کلاهبرداری مبتنیبر هوش مصنوعی و روشهای مقابله با آن، حتماً خیال شما را از بابت گرفتارنشدن در دام افراد شیاد راحت خواهد کرد.
در سالهای اخیر نهتنها شاهد افزایش چشمگیر کیفیت رسانههای تولیدشده توسط هوش مصنوعی بودهایم؛ بلکه بهوضوح دیدهایم که این رسانهها بسیار ساده و ارزان نیز تولید شدهاند. در واقع ابزاری که به یک هنرمند کمک میکند تا هیولاها و فضاپیماهای فانتزی خلق کند یا یادگیری زبان را برای افراد غیرانگلیسیزبان راحتتر میکند، میتواند برای اهداف مخرب هم استفاده شود.
نیازی نیست با شنیدن نام کلاهبردیهای مبتنیبر هوش مصنوعی، به سناریوهای عجیبوغریب و تخیلی فکر کنید. این نوع کلاهبرداریها همان کلاهبرداریهای قدیمی و آشنا هستند که بهلطف هوش مصنوعی سادهتر، ارزانتر و قانعکنندهتر از قبل شدهاند. لیستی که در ادامه به شما معرفی میکنیم، کامل نیست و فقط به معرفی واضحترین کلاهبرداریهایی میپردازد که هوش مصنوعی به تقویت آنها منجر شده است.
- شبیهسازی صدای اعضای خانواده و دوستان
- مقابله با کلاهبرداری به شیوه شبیهسازی صدا توسط هوش مصنوعی
- فیشینگ و اسپم شخصیسازیشده با ایمیل یا ارسال پیام
- بهترین راه مقابله با فیشینگ
- جعل هویت
- اقدامات پیشگیرانه برای جلوگیری از کلاهبرداری به روش جعل هویت
- هوش مصنوعی، دیپفیک و باجگیری
- راههای پیشگیری از اخاذی با استفاده از تصاویر دیپفیک
شبیهسازی صدای اعضای خانواده و دوستان
شبیهسازی صدا موضوعی است که از دهها سال پیش با آن آشنا هستیم؛ اما این روزها پیشرفت تکنولوژی باعث شده است تا بتوانیم تنها با دراختیار داشتن چند ثانیه از صدای یک شخص، صدای او را شبیهسازی کنیم. این یعنی هر شخصی مانند خوانندهها، سیاستمداران و گزارشگران که صدایشان بهصورت عمومی در جامعه پخش شده ممکن است روزی قربانی تکنولوژی شبیهسازی صدا شوند.
متاسفانه کلاهبرداران میتوانند از قابلیتهای هوش مصنوعی برای شبیهسازی صدای دوستان یا اعضای خانوادهتان استفاده کنند و بهراحتی آنها را فریب دهند؛ بهعنوان مثال ممکن است پیامی با صدای شما برای یکی از اعضای خانواده یا دوستانتان ارسال شود که درخواست مقداری پول کند و آنها هم بدون هیچ تردیدی مبلغ درخواستی را به شماره حسابی که برایشان ارسال شده واریز کنند. یکی از پرسروصداترین کلاهبرداریهایی که به این شیوه انجام شد، با استفاده از صدای جو بایدن اتفاق افتاد. عوامل پشت پردهی این کلاهبرداری خیلی زود دستگیر شدند؛ اما بهطور حتم این تجربه باعث خواهد شد تا کلاهبرداران در آینده احتیاط بیشتری کنند و با رعایت همهی جوانب دست به چنین عملی بزنند.
مقابله با کلاهبرداری به شیوه شبیهسازی صدا توسط هوش مصنوعی
قبل از هرچیزی باید این را به شما بگوییم که فکر تشخیص صدای جعلی از صدای واقعی را از سرتان بیرون کنید؛ چون تکنولوژی هرروز درحال پیشرفت است و این صداها هر روز بهقدری باکیفیتتر و طبیعیتر از قبل میشوند که تشخیص فیکبودن آنها برای افراد متخصص نیز دشوار است. هر پیام یا درخواستی را که با شماره یا ایمیل ناشناس برایتان ارسال شد، مشکوک تلقی کنید و سپس از راههای ارتباطی همیشگی با آن فرد تماس بگیرید تا مطمئن شوید که این درخواست از طرف او ارسال شده یا جعلی است.
فیشینگ و اسپم شخصیسازیشده با ایمیل یا ارسال پیام
این روزها هوش مصنوعی مولد متن، امکان ارسال ایمیلهای انبوه سفارشیشده را برای هر فردی فراهم آورده است. از سوی دیگر باتوجهبه اینکه نقض دادهها بهطور مرتب در سراسر جهان اتفاق میافتد، بسیاری از دادههای شما در دسترس کلاهبرداران قرار دارد. شناسایی ایمیلهای اسپم قدیمی که بهروشی ناشیانه ساخته میشدند کار چندان سختی نبود؛ اما تکنولوژیهای جدید، این ایمیلها را بسیار باورپذیرتر از گذشته کردهاند.
درحالحاضر کلاهبرداران بهراحتی میتوانند با دسترسی به دادههایی مانند عادتهای خرید شما یا مکانهایی که بهتازگی در آنها حضور داشتهاید، ایمیلهایی ارسال کنند که جای هیچ شک و تردیدی را برایتان باقی نگذارند. اگر روزی ایمیل یا پیامی از طرف یک فروشگاه آشنا دریافت کنید که در آن شما را با اسم کوچک خطاب میکنند و دربارهی تخفیفخوردن کالایی که مدتها قصد خرید آن را داشتید صحبت میکنند، به احتمال قوی باور خواهید کرد که این پیام واقعی است؛ چراکه مدل زبانی بزرگ (LLM) هوش مصنوعی ساخت ایمیلها یا پیامهای اسپم را بسیار دقیق و باورپذیر انجام میدهد.
بهترین راه مقابله با فیشینگ
هوشیاری، بهترین سلاح شما برای مقابله با ایمیلهای اسپم ساختهشده توسط هوش مصنوعی است؛ البته نباید انتظار داشته باشید که بتوانید متن نوشتهشده توسط هوش مصنوعی را از متن نوشتهشده توسط انسان تشخیص دهید. فراموش نکنید که تنها افراد کمی قادر به انجام چنین کاری هستند و حتی مدل دیگری از هوش مصنوعی هم بهندرت میتواند اینکار را انجام دهد.
چالش اساسی در زمینهی فیشینگ با ایمیلها و پیامهای اسپم این است که چنین پیامهایی شما را ترغیب میکنند تا روی لینک ارسالشده کلیک کنید؛ بنابراین اگر به هویت ارسالکننده یا جعلیبودن پیام مشکوک هستید، هرگز آن را باز نکنید. در این مواقع میتوانید از فردی که دانش کافی را در این زمینه دارد کمک بگیرید.
جعل هویت
باتوجهبه نقض دادههای متعددی که در چند سال اخیر رخ داده است میتوان گفت که مقدار زیادی از اطلاعات شخصی ما در دارک وب درحال چرخش هستند. اگر از روشهای امنیتی آنلاین مانند تغییر رمز عبور یا احراز هویت چندعاملی استفاده میکنید، خطر گرفتارشدن در دام کلاهبرداران را بهمیزان چشمگیری کاهش دادهاید؛ اما بد نیست بدانید که هوش مصنوعی مولد میتواند تهدید جدی و جدیدی را در این زمینه برای شما ایجاد کند.
باوجود حجم بالایی از اطلاعات شخصی افراد در فضای آنلاین و حتی کلیپهای صوتی چند ثانیه از آنها، ایجاد یک شخصیت ساختگی که شبیه فرد مورد نظر صحبت میکند و به بسیاری از اطلاعات ضروری برای تأیید هویت نیز دسترسی دارد، کار چندان سختی نیست. متاسفانه این روزها حتی راههایی برای دورزدن روشهای پیشرفتهی احراز هویت مانند سلفیگرفتن هم وجود دارد.
خطر اصلی در مورد جعل هویت با استفاده از هوش مصنوعی، سهولت انجام گسترده و مکرر اینکار توسط کلاهبرداران است. تا همین چند وقت پیش جعل هویت برای کلاهبرداری کاری پرهزینه و زمانبر بود و بههمین دلیل نیز فقط به افراد بسیار ثروتمند محدود میشد؛ اما امروزه با صرف هزینه و زمان کم میتوان هزاران هویت جعلی ساخت و افراد بسیاری را با کمک این هویتها فریب داد. اگر تنها تعداد کمی از این حملات هم نتیجهبخش باشند، صرف هزینه برای برنامهریزی و انجام آنها را توجیه خواهند کرد.
اقدامات پیشگیرانه برای جلوگیری از کلاهبرداری به روش جعل هویت
همانطور که گفتیم بسیاری از دادههای شما در دارک وب در دسترس کلاهبرداران هستند و نمیتوانید آب رفته را به جوی برگردانید؛ اما برای بالابردن میزان امنیت خود و کاهش خطر گرفتارشدن در دام کلاهبرداران، ابتدا باید مطمئن شوید که تمام حسابهای شما از امنیت کافی برخوردار هستند و افراد سوءاستفادهگر بهراحتی نمیتوانند به آنها دسترسی پیدا کنند.
مهمترین قدمی که میتوانید برای مقابله با کلاهبردارانی که هویت شما را جعل میکنند بردارید، استفاده از احراز هویت چندعاملی است؛ روشی که در آن هرگونه فعالیت جدید در حساب شما به تلفن همراهتان ارسال میشود و ورودهای مشکوک یا تلاش برای تغییر رمز عبور را میتوانید در ایمیل خود ببینید. بهخاطر داشته باشید که هرگونه پیام هشداری را که در این زمینه برایتان ارسال میشود جدی بگیرید؛ بهخصوص اگر تعداد این پیامها بالا است و بهطور مرتب برای شما ارسال میشود.
هوش مصنوعی، دیپفیک و باجگیری
شاید ترسناکترین شکل کلاهبرداری جدید با کمک هوش مصنوعی، امکان باجگیری از افراد با استفاده از تصاویر دیپفیک آنها یا عزیزانشان باشد که بهلطف مدلهای تصویر باز ساخته میشوند. این روزها افراد علاقهمند به جنبههای خاصی از تولید تصاویر پیشرفته، علاوهبر ایجاد فرایند رندرکردن بدنهای برهنه، قادر هستند تا هر چهرهای را به چنین بدنهایی بچسبانند.
دیپفیک یک مشکل بسیار جدی است و کلاهبرداران با دسترسی آسان به ابزارهای ویرایش تصاویر بهراحتی میتوانند تصاویر خصوصی دیگران را دستکاری و از آنها اخاذی کنند. افراد سوءاستفادهگر بهسادگی میتوانند با استفاده از تصاویر خصوصی دیگران که به هردلیلی در فضای عمومی پخش شدهاند، از این افراد سوءاستفاده کنند. باجگیری با تصاویر ساختگی، علاوهبر آسیب مالی برای افراد، آسیبهای روحی و روانی بسیار زیادی را نیز برای قربانیان این نوع کلاهبرداری بههمراه دارد.
هوش مصنوعی امکان اخاذی با دیپفیک را بسیار سادهتر کرده است و کلاهبرداران میتوانند حتی درصورت نداشتن تصاویر خصوصی دیگران هم بهراحتی صورت آنها را به بدنهای برهنه بچسبانند. نتایج بهدستآمده از دیپفیک همیشه مطلوب نیستند؛ اما حتی اگر این تصاویر از کیفیت لازم برخوردار نباشند یا تار باشند بهراحتی میتوانند افراد معمولی را فریب دهند. فریب آسان افراد با دیپفیک دقیقا همان چیزی است که کلاهبرداران برای ترساندن افراد و اخاذی از آنها نیاز دارند و متاسفانه در چنین مواردی اخاذی تا مدتها ادامه دارد و به یکبار محدود نمیشود.
راههای پیشگیری از اخاذی با استفاده از تصاویر دیپفیک
دنیایی که به سمت آن حرکت میکنیم دنیایی است که در آن امکان ساخت تصاویر جعلی برهنه از هر شخصی وجود دارد؛ حقیقتی که بسیار ترسناک و منزجرکننده است و متاسفانه هیچ راهی برای فرار از آن نداریم. هیچکس جز افراد شیاد از چنین وضعیتی راضی نیست؛ اما چند نکتهی مهم و مثبت برای قربانیان وجود دارد که میتواند برای آنها مفید باشد. تصاویر دیپفیک شباهت بسیار زیادی به تصاویر واقعی دارند؛ ولی درست مانند سایر هوش مصنوعیهای مولد فقط چیزی را میدانند که برای آن آموزش دیدهاند. بهعبارت بهتر تصاویر جعلی هیچ نشانهی متمایزکنندهای ندارند و احتمالا از برخی جهات اشتباهاتی در آنها دیده میشود.
تهدید مواجهه با اخاذی با استفاده از تصاویر دیپفیک هرگز بهطور کامل از بین نخواهد رفت؛ اما راههای قانونی برای حذف تصاویر جعلی منتشرشده در فضاهای مختلف هرروز درحال افزایش است. بهطور حتم با رشد فزایندهی این روش اخاذی، روشهای قانونی مقابله با آن هم افزایش خواهد یافت.
آیا شما یا آشنایانتان تاکنون درمعرض هر یک از کلاهبرداریهای گفتهشده در این مقاله قرار گرفتهاید؟ بهنظرتان چه قوانینی برای مقابله با کلاهبرداری توسط هوش مصنوعی باید در جامعه وضع شوند؟
نظرات