ادعای OpenAI: هکرهای چینی و ایرانی در حملات سایبری و فیشینگ از ChatGPT و مدل‌های زبانی استفاده می‌کنند

یک‌شنبه ۲۲ مهر ۱۴۰۳ - ۱۳:۳۵
مطالعه 2 دقیقه
هکر با هودی مشکی
OpenAI در گزارشی جدید ادعا می‌کند هکرهای چینی و ایرانی از ChatGPT برای طراحی حملات سایبری استفاده می‌کنند.
تبلیغات

OpenAI وقوع بیش از ۲۰ حمله‌ی سایبری را تأیید کرده است که همگی توسط ChatGPT طراحی شده‌اند. گزارش OpenAI نشان می‌دهد که هوش مصنوعی مولد برای اجرای حملات فیشینگ هدفمند، رفع باگ و توسعه‌ی بدافزار و سایر فعالیت‌های مخرب مورد استفاده قرار می‌گیرد.

گزارش جدید OpenAI، دو حمله‌ی سایبری را تأیید می‌کند که با بهره‌گیری از مدل‌های زبانی بزرگ و ChatGPT انجام شده‌اند. یکی از حملات، شرکت Cisco Talos را هدف قرار داد؛ حمله‌ای که توسط هکرهای چینی اجرا و در آن از روش فیشینگ هدفمند موسوم‌ به SweetSpecter استفاده شد که شامل یک فایل فشرده‌ی زیپ حاوی محتوای مخرب می‌شود.

در صورت دانلود و بازکردن فایل، زنجیره‌ای از ویروس‌ها در سیستم کاربر ایجاد می‌شود. OpenAI کشف کرده که بدافزار SweetSpecter با استفاده از چندین حساب کاربری در ChatGPT و به منظور توسعه‌ی اسکریپت‌ها و شناسایی آسیب‌پذیری‌ها در سیستم‌، با بهره‌گیری از ابزارهای یادگیری ماشین طراحی شده است.

طبق ادعای OpenAI، دومین حمله‌ی سایبری توسط گروهی هکری مستقر در ایران انجام شد. این گروه با بهره‌گیری از ChatGPT، آسیب‌پذیری‌های سیستم‌عامل macOS را شناسایی و اقدام به سرقت رمزعبور کاربران کرد. در حمله‌ی سوم، گروه هکری دیگری با استفاده از ChatGPT، بدافزاری برای سیستم‌عامل اندروید توسعه داد که قادر است لیست مخاطبین، سوابق تماس و تاریخچه‌ی مرورگر را سرقت، موقعیت دقیق دستگاه را شناسایی و به فایل‌های موجود در دستگاه‌های آلوده دسترسی پیدا کند.

تمامی حملات سایبری مذکور، با بهره‌گیری از روش‌های موجود توسعه‌ی بدافزار انجام شده‌اند و بر اساس گزارش‌ها هیچ مدرکی مبنی‌بر ایجاد بدافزارهای نوین و پیچیده توسط ChatGPT یافت نشده است.

چنین حملاتی نشان می‌دهند که فریب‌دادن سیستم‌های هوش مصنوعی برای تولید ابزارهای مخرب بسیار ساده است و هکرها به‌راحتی می‌توانند از این قابلیت سوءاستفاده کنند؛ اقدامی که چالش جدیدی را در حوزه‌ی امنیت سایبری ایجاد می‌کند، چرا که هر فردی با دانش فنی لازم می‌تواند ChatGPT را به سمت تولید محتوای مخرب سوق دهد. محققان امنیت سایبری به‌طور مداوم در تلاش‌اند تا آسیب‌پذیری‌های موجود را شناسایی و برطرف کنند.

خالق ChatGPT می‌گوید با هدف جلوگیری از سوءاستفاده از هوش مصنوعی، به بهبود و ارتقای مستمر مدل‌های خود ادامه خواهد داد. در همین راستا، OpenAI با تیم‌های داخلی ایمنی و امنیت همکاری نزدیکی برقرار خواهد کرد و متعهد شده است که یافته‌های تحقیقاتی خود را با سایر فعالان صنعت و جامعه‌ی علمی به اشتراک بگذارد و از وقوع چنین رویدادهای نامطلوبی جلوگیری کند.

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات