انتقاد واتساپ و برخی صاحبنظران از قابلیتهای امنیت کودک اپل
اپل اخیرا از پیادهسازی ابزارهای جدیدی در سرویسهایش خبر داده است که میتواند با اسکن تصاویر ذخیرهشده در آیکلاد موارد سوءاستفاده جنسی از کودکان (CSAM) را تشخیص دهد و آنها را از گزند سوءاستفادههای احتمالی دور نگه دارد. بااینحال، ابزارهای مذکور نگرانیهایی برای کاربران و سازمانهای حفظ حریم خصوصی ایجاد کرده و بهنوعی قابلیتهای مفید آنها را به حاشیه کشانده شده است. حال عدهای از صاحبنظران دنیای تکنولوژی از این طرح اپل انتقاد کردهاند و مدعی هستند این شرکت سیاست نادرستی را در پیش گرفته است که میتواند تبعات حریم خصوصی ناخوشایندی را بهدنبال داشته باشد. در این مقاله، قصد داریم به تعدادی از این انتقادها اشاره کنیم.
بهگفته ویل کَسکارت، سرپرست واتساپ، این پیامرسان اقدامات جدید اپل برای ایمنی کودکان را بهمنظور جلوگیری از گسترش تصاویر کودکآزاری بهکار نمیگیرد. وی با ارسال توییت ادعا میکند نرمافزاری که اپل ساخته است، میتواند تمام عکسهای خصوصی گوشی هوشمند کاربران را اسکن کند. کَسکارت معتقد است اپل در تلاش برای بهبود واکنش خود به موارد سوءاستفاده جنسی از کودکان، راه اشتباهی در پیش گرفته است.
مهمترین ویژگی امنیتی جدید اپل شامل گرفتن هش تصاویر بارگذاریشده در آیکلاد و مقایسه آنها با پایگاه دادهای است که حاوی هش تصاویر CSAM ازپیش شناختهشده است. این فرایند به اپل اجازه میدهد دادههای کاربر را رمزگذاری کند و تجزیهوتحلیل را روی دستگاه انجام دهد و درعینحال، تصاویر منتشرشده از کودکآزاری را سریعا به مراجع ذیصلاح گزارش دهد.
یکی دیگر از نکات استراتژی ایمنی کودکان اپل شامل هشدار اختیاری به والدین است. این هشدار زمانی به والدین ارسال میشود که فرزندشان با سنی کمتر از ۱۳ سال، عکسهایی با محتوای جنسی ارسال یا مشاهده کند. بااینحال، بهنظر میرسد افراد نگران پیامد استفاده از این سیستمها هستند. ویل کَسکارت دراینباره میگوید:
اطلاعاتی که اپل دیروز منتشر کرد، خواندم و نگران هستم. فکر میکنم این رویکرد اشتباه و عقبماندگی برای حریم خصوصی مردم در سراسر جهان است. مردم پرسیدهاند آیا این سیستم را برای واتساپ اتخاذ میکنیم یا خیر و ما پاسخمان کاملا منفی است.
کَسکارت رویکرد اپل را بسیار نگرانکننده مینامد و میگوید این ابزارها به دولتهای دارای ایدههای متفاوت و نپذیرفتنی از نوع تصاویر اجازه میدهد درخواست کنند که اپل تصاویر غیر CSAM را به پایگاههای دادهای اضافه کند که تصاویر را با آنها مقایسه میکند. وی خاطرنشان میکند سیستم واتساپ برای مبارزه با استثمار کودکان که تا حدی از گزارشهای کاربران استفاده میکند، رمزگذاری مانند اپل را حفظ میکند و ظاهرا این شرکت تاکنون بیش از ۴۰۰ هزار مورد سوءاستفاده از کودکان را در سال ۲۰۲۰ به مرکز ملی کودکان مفقود و استثمارشده گزارش دهد.
فیسبوک، شرکت مادر واتساپ، نیز از اپل انتقاد و ویژگیهای جدید را برای حریم خصوصی نگرانکننده توصیف کرده است. این در حالی است که فیسبوک مدتها است که به نقض حریم خصوصی کاربران در کانون توجه سازمانهای نظارتی قرار دارد و اخیرا بههمیندلیل با اپل در جدال بوده است. برای یادآوری، اپل جولای ۲۰۲۰ (تیر ۱۳۹۹) قابلیت جنجالی ATT را رونمایی و آن را در iOS 14.5 منتشر کرد؛ قابلیتی که درحقیقت دلیل اصلی جدال اپل با فیسبوک و سایر شرکتهای تبلیغاتی محسوب میشود. ATT تغییری نسبتا ساده، اما مهم است که قبل از ردیابی کاربران در برنامهها و وبسایتها، باید ابتدا از آنها اجازه گرفته شود.
اگرچه گروههای حقوق دیجیتالی و حریم خصوصی این ویژگی را ستودهاند، شرکتهای وابسته به تبلیغات همچون فیسبوک بهشدت با آن مخالف هستند. فیسبوک برای مقابله با قابلیت یادشده، کمپینی علیه آن بهراه انداخت و کارزار تبلیغاتی خود را تمامصفحه و با ادعای آسیبدیدن مشاغل کوچک، در روزنامههای مهم ایالات متحده آمریکا آغاز کرد. درواقع، تنها فیسبوک و واتساپ نیستند که از ویژگیهای ایمنی کودک اپل انتقاد کردهاند؛ بلکه بسیاری از اشخاص سرشناس این حوزه با این سایت اپل مخالف هستند.
متیو گرین، دانشیار دانشگاه جان هاپکینز، قبل از اعلام عمومی این ویژگی، آن را فاش کرده بود. وی معتقد است این ابزارها به اپل اجازه میدهد تصاویر موجود در آیفون کاربران را با عکسهایی که با یک هش ادراکی خاص مطابقت دارند، اسکن کند و درصورت ظاهرشدن موارد مشکوک، آنها را به سرورهایش گزارش دهد. وی معتقد است اپل اگر این هش ادراکی خاص را به خواست دولتها یا افراد ظالم تغییر دهد، میتواند عواقب بدی را بهدنبال داشته باشد.
دراینمیان، بنیاد مرزهای الکترونیکی (EFF) در بیانیهای برنامه اپل را بهباد انتقاد گرفت و ابزارهای جدید را در پشتی کاملا مستند و دقیق و با محدودیت نامید. بیانیه مطبوعاتی EFF بر چگونگی سوءاستفاده دولت از اقدامات ایمنی کودکان اپل و کاهش حریم خصوصی کاربران معطوف است و بیان میکند تنها چیزی که اپل برای گسترش درِ پشتی در دست ساختش نیاز خواهد داشت، توسعه پارامترهای یادگیری ماشین برای جستوجوی انواع دیگر محتوا یا تغییر در اولویتبندی برای اسکن سایر حسابها است. این مشکل کوچکی نیست؛ بلکه سیستمی کاملا ساخته شده است که برای ایجاد تغییرات فقط انتظار فشار خارجی را میکشد.
بنیاد مرزهای الکترونیکی گزارش میدهد اعلانهای تصاویر جنسی آیمسیج در صورتی به والدین ارسال نمیشود که کودک بین ۱۳ تا ۱۷ سال داشته باشد؛ اما ظاهرا این موضوع در اسناد پشتیبانی اپل ذکر نشده است. راس اندرسون، پروفسور مهندسی امنیت میگوید: «این ایدهای کاملا وحشتناک است؛ زیرا به نظارت گسترده بر گوشیهای هوشمند و لپتاپها و سایر وسایل الکترونیکی منجر میشود.»
برایانا وو، سیاستمدار، این سیستم را بدترین ایده در تاریخ اپل توصیف میکند و معتقد است اعتبار اپل را در زمینه حفظ حریم خصوصی از بین میبرد و راه را برای سوءاستفاده دولتها باز میکند. تیم سوینی، مدیرعامل اپیک گیمز، نیز از اپل انتقاد کرد و گفت این شرکت دادههای همه را بهطور پیشفرض در آیکلاد جارو میکند. او تأکید میکند بهزودی جزئیات بیشتری درباره سیستم ایمنی کودک اپل بهاشتراک خواهد گذاشت.
باتوجهبه آنچه گفته شد، بهنظر میرسد عده زیادی مخالف ارائه ویژگیهای جدید ایمنی کودک هستند. بااینحال، این طرح موافقانی نیز دارد. برای مثال، اشتون کوچر، یکی از حامیان مقابله با قاچاق جنسی کودکان، کار اپل را گام بزرگ روبهجلویی برای تلاش بهمنظور ازبینبردن CSAM توصیف میکند. کوچر میگوید: «به حریم خصوصی، ازجمله برای کودکانی اعتقاد دارم که با سوءاستفاده جنسی مواجه میشوند و فیلمها و تصاویرشان بدون رضایت در فضای آنلاین پخش میشود. تلاشهای اعلامشده اپل گامی بزرگ در مبارزه برای حذف CSAM از اینترنت است.»
جان کلارک، مدیرعامل و رئیس مرکز ملی کودکان مفقود و استثمارشده، یکی دیگر از موافقان سیاستهای اپل است و در پشتیبانی از قابلیتهای جدید کوپرتینوییها میگویند:
[ما] در مرکز ملی کودکان مفقود و استثمارشده میدانیم که مبارزه با این جنایات دلخراش درصورتی امکانپذیر است که قاطعانه در تعهد خود به حمایت از کودکان پایبند باشیم. درواقع، فقط میتوانیم این کار را انجام دهیم؛ زیرا در سوی دیگر ماجرا، شرکای فناوری نظیر اپل قرار دارند که میتوانند با اقداماتشان در بهبود شرایط بسیار تأثیرگذار باشند. واقعیت این است که حریم خصوصی و حفاظت از کودکان میتوانند همزمان وجود داشته باشند. از [ویژگیهای امنیتی] اپل استقبال میکنیم و مشتاقانه منتظر همکاری باهم هستیم تا این جهان را به مکانی امن برای کودکان تبدیل کنیم.
باتوجهبه انتقادها، شاید فکر کرده باشید اپل نخستین شرکتی است که از این ابزار برای ایمنی کودکان استفاده میکند؛ اما جالب است بدانید اسکن تصاویر منطبق با CSAM امری معمول در سایر شرکتهای فناوری محسوب میشود. برای مثال، گوگل از سال ۲۰۰۸ صندوق ورودی کاربران جیمیل (Gmail) را با تصاویر شناختهشده CSAM اسکن میکند. برخی از این اسکنها حتی به دستگیری افراد کودکآزار منجر شده است. همچنین، گوگل برای نشانهگذاری و حذف CSAM از نتایج جستوجو کار میکند.
مایکروسافت نیز در اصل سیستمی را توسعه داده است که سازمان کودکان مفقود و استثمارشده (NCMEC) از آن استفاده میکند. سیستم PhotoDNA ردموندییها برای اسکن هشهای تصویر و تشخیص CSAM حتی درصورت تغییر در تصاویر استفاده میشود. فیسبوک از سال ۲۰۱۱ در حال استفاده از قابلیت مذکور است و توییتر نیز در سال ۲۰۱۳ آن را پذیرفت. افزونبراین، دراپباکس و تقریبا تمامی مخزن فایلهای اینترنتی از آن استفاده میکنند. درواقع، اعتراض به معرفی سیستم مشابه نادیدهگرفتن زمینه است؛ درحالیکه از اپل درباره حریم خصوصی انتقاد و این نوع اسکن CSAM در بین شرکتهای اینترنتی متداول محسوب میشود.
برای مطالعه تمام مقالات مرتبط با اپل به این صفحه مراجعه کنید.
نظرات