Private Cloud Compute؛ ابتکار اپل برای امنیت هوش مصنوعی
اپل خیلی دیر به رقابت هوش مصنوعی پیوست؛ آنقدر دیر که این تصور ایجاد شد که کوپرتینونشینها از هوش مصنوعی یا دستکم از هیاهوی آن بیزارند؛ تصوری که پربیراه نیست. اپل در رویداد WWDC 2024 فقط سهبار از عبارت «هوش مصنوعی» استفاده کرد (مقایسه کنید با ۱۲۱ بار گوگل در مراسم I/O امسال) و در موارد دیگر، برای اشاره به قابلیتهای هوش مصنوعی که حالا در سرتاسر اکوسیستم اپل جا خوش کردهاند، اصطلاح «هوش اپل» (Apple Intelligence) را به کار برد.
اپل مدعی است هوش مصنوعی آنها امنترین هوش مصنوعی دنیا است
ازنظر بسیاری، ازجمله سامسونگ، «هوش اپل» صرفا نوعی بازی زیرکانه با کلمات برای شرکتی است که میداند در حوزهی هوش مصنوعی از رقبا عقب مانده، اما نمیخواهد این حس عقبماندگی را در ذهن کاربرانش تداعی کند. اما از نظر خود اپل، هوش مصنوعی این شرکت تفاوت بنیادینی با سایر شرکتها ازجمله OpenAI و گوگل دارد و به همین خاطر نیازمند نامگذاری متفاوتی بوده است. اپل مدعی است هوش مصنوعی آنها امنترین هوش مصنوعی دنیا است.
اما منظور اپل از هوش مصنوعی امن چیست و آیا اصلا میشود به این ادعا اطمینان کرد؟ تقریبا هیچیک از قابلیتهای هوش مصنوعی اپل جدید و تکاندهنده نبودند و کاربران قبلا مشابه آنها را در محصولات مایکروسافت، اوپنایآی، گوگل و سامسونگ تجربه کرده بودند. آیا اپل صرفا دنبال راهی برای متمایز کردن خود از رقبا است یا واقعا چیزی به نام هوش مصنوعی امن با حفاظت صددرصدی از اطلاعات کاربر وجود دارد؟
«رایانش ابری خصوصی»؛ ابتکار اپل برای حفظ امنیت پردازشهای ابری
اپل در مطلب بلندبالایی باعنوان «رایانش ابری خصوصی: مرزی جدید برای حفظ حریم خصوصی هوش مصنوعی در فضای ابری» به توضیح سیستمی بهنام «Private Cloud Compute» میپردازد و معتقد است PCC با تیکه بر تراشهی اختصاصی اپل و سیستمعاملی که با تمرکز بر حریم شخصی طراحی شده، «پیشرفتهترین معماری امنیتی است که تاکنون برای محاسبات هوش مصنوعی ابری در مقیاس بزرگ» به کار گرفته شده است.
اپل اینتلیجنس سیستم هوش مصنوعی است که مدلهای مولد قدرتمندی را به آیفون، آیپد و مک میآورد. برای ویژگیهای پیشرفتهای که نیاز به پردازش دادههای پیچیده با مدلهای زبانی بزرگتر دارد، ما سیستم «رایانش ابری خصوصی» (PCC) را ایجاد کردهایم؛ سیستم هوش ابری انقلابی که بهطورویژه برای پردازش هوش مصنوعی بهروشی امن و خصوصی طراحی شده است. PCC برای اولین بار امنیت و حریم خصوصی برتر دستگاههای اپل را به فضای ابری میآورد تا مطمئن شود دادههای شخصی کاربر جز برای او، برای هیچ کسی حتی اپل دردسترس نیست.
دغدغههای حریم خصوصی هوش مصنوعی
اجرای مدلهای مبتنیبر هوش مصنوعی به قدرت پردازش فوقالعادهای نیاز دارد که از پس اکثر گوشیهای هوشمند یا رایانههای شخصی برنمیآید. برای حل این مشکل، بسیاری از شرکتهای هوش مصنوعی، مدلهای خود را بهجای دیوایسهای کمتوان کاربران، در سرورهای ابری قدرتمند خود اجرا میکنند؛ به همین دلیل است که میتوانید حتی در ضعیفترین کامپیوتر، از کوپایلت مایکروسافت بخواهید درخواستهای متنیتان را در عرض چند ثانیه به تصاویر هوش مصنوعی تبدیل کند. اما نکتهی منفی ماجرا این است که حالا مایکروسافت به درخواستهایی که برای کوپایلت میفرستید، دسترسی کامل دارد.
البته مایکروسافت برای اینکه بتواند مشکل حریم شخصی پردازشهای هوش مصنوعی را تاحدودی حل کند، از «کوپایلت پلاس پیسی» رونمایی کرد؛ نسل جدیدی از کامپیوترهای مجهزبه تراشههای قدرتمند که میتوانند بسیاری از درخواستهای هوش مصنوعی را بهطور محلی و بینیاز از سرورهای ابری پردازش کنند.
اجرای مدلهای هوش مصنوعی به قدرت پردازش فوقالعادهای نیاز دارد
از آن سو، دستگاههای جدید اپل ازجمله سری آیفون ۱۵ پرو و مکها و آیپدهای مجهز به تراشههای سری M بهاندازهای قدرتمند هستند که بسیاری از درخواستهای هوش مصنوعی را روی خود دستگاه پردازش کنند تا بدینترتیب، خیال کاربران بابت امنیت اطلاعاتشان راحت باشد.
اما تراشههای اپل و حتی تراشههای جدید اسنپدراگون ایکس الیت بهکاررفته در پیسیهای «کوپایلت پلاس» نمیتوانند از پس پردازش تمام درخواستهای هوش مصنوعی برآیند و گاهی لازم است اطلاعات کاربر به سرورهای ابری فرستاده شود. دراینحالت، غولهای دنیای فناوری به این درخواستها دسترسی دارند و حتی ممکن است آنها در سرورهای خود ذخیره کرده یا برای آموزش مدلهای هوش مصنوعی به کار ببرند؛ بااینحال، اپل مدعی است سیستمی که برای پردازش درخواستهای هوش مصنوعی در سرور ابری توسعه داده بهطرز چشمگیری با روش شرکتهای دیگر ازجمله OpenAI و گوگل متفاوت است.
تضمینهای حریم خصوصی اپل
کریگ فدریگی، قائممقام ارشد تیم مهندسی نرمافزار اپل که نظارت بر توسعهی iOS و macOS را برعهده دارد، در مصاحبهی جدیدی با FastCompany به این نکته اشاره کرد که سرویسهای هوش مصنوعی و چتباتها سیاستهای متفاوتی را در پردازش داده دنبال میکنند و برخی از ضمانتهایی که برای محافظت از اطلاعات کاربر ارائه میدهند، محدودیتهای زیادی دارد.
ما میخواستیم استاندارد کاملاً متفاوتی را (برای امنیت هوش مصنوعی) تعریف کنیم. برای همین، این استاندارد را بهعنوان اصلی بنیادی و شرط لازم برای ارائهی قابلیتهای هوش مصنوعی در نظر گرفتیم، بهشکلی که اطلاعات شخصی شما کاملاً متعلق به خودتان باقی بماند و تحت کنترل شما باشد. و هیچ کس، حتی اپل، هیچگونه دسترسی به آن اطلاعات نخواهد داشت، حتی اگر درخواستهای کاربر در دیتاسنترهای ما در پردازش شوند.
اما اپل چطور میخواهد امنیت اطلاعاتی را که در سرورهای ابری این شرکت پردازش میشوند، تضمین کند؟
اپل میگوید زمانیکه کاربر درخواستی را برای پردازش ارسال میکند، اپل اینتلیجنس تشخیص میدهد که آیا این درخواست میتواند روی دستگاه پردازش شود یا خیر. اگر به ظرفیت محاسباتی بیشتری نیاز باشد، درخواست به سرور ابری PCC فرستاده میشود. بهگفتهی اپل، اطلاعات کاربر پس از پردازش، در این سرور ذخیره نمیشود، بهطور رمزنگاریشده از بین میرود و برای اپل قابلدسترسی نیست.
اپل در ادامه توضیح میدهد که سرورهای مبتنیبر تراشههای اختصاصی اپل که سنگبنای PCC را فراهم میکنند، «امنیت ابری بی سابقهای» را ارائه میدهند:
- این امنیت با Secure Enclave آغاز میشود که از کلیدهای رمزنگاری مهم در سرور محافظت میکند، درست به همان شکل که از اطلاعات کاربران در آیفون محافظت میکند.
- مرحلهی بعدی، Secure Boot است که درست مانند iOS، مطمئن میشود سیستمعامل درحال اجرا در سرور، امضاشده و موردتایید اپل است.
- در مرحلهی سوم، Trusted Execution Monitor مطمئن میشود که فقط کدهای امضاشده و موردتایید اجرا میشوند و Attestation (گواهی ایمنی) به دستگاه کاربر امکان میدهد هویت و پیکربندی خوشهی رایانش ابری خصوصی را قبل از ارسال درخواست، به روشی امن تایید کند.
- و در آخر، برای تایید وعدهی حریم خصوصی اپل، کارشناسان مستقل اجازه دارند کدی را که در سرورهای PCC در حال اجرا است، بررسی کنند.
اپل در پست دیگری میگوید «رایانش ابری خصوصی» را با درنظر گرفتن اصول زیر توسعه داده است تا «امنیت و حریم خصوصی اطلاعات کاربران» را تضمین کند:
۱. پردازش بدون وضعیت؛ PCC از دادههای شخصی کاربران فقط برای انجام درخواستهای آنها استفاده میکند و این دادهها را پس از پردازش، ذخیره نمیکند و اطمینان میدهد که این دادهها هرگز برای هیچ کس دیگر، حتی کارکنان اپل، قابلدسترسی نخواهند بود.
۲. تضمینهای قابلاجرا؛ تمام مولفههایی که به امنیت و حریم خصوصی PCC کمک میکنند، باید از لحاظ فنی قابلاجرا و تجزیهوتحلیل باشند و به مولفههای خارجی مانند متعادلکنندههای بار که ترافیک شبکه را بین چندین سرور تقسیم میکنند و ممکن است هنگام اشکالزدایی، اطلاعات کاربر را به خطر بیندازند، متکی نباشند.
۳. عدم دسترسی ممتاز؛ PCC نباید دارای رابطهای ممتازی باشد که به کارکنان اپل اجازه دهد تضمینهای حریم خصوصی را در شرایط خاص دور بزنند؛ حتی اگر این شرایط مربوط به رفع مشکلات جدی باشد.
۴. غیرقابل هدفگیری؛ مهاجم نباید بتواند بدون بهخطر انداختن کل سیستم، کاربر بهخصوصی را در PCC هدف قرار دهد؛ بدینترتیب، مهاجمان حرفهای که دنبال دسترسی به اطلاعات شخصی کاربر بهخصوصی هستند، بهسختی میتوانند هویت خود را پنهان کنند.
۵. شفافیت قابلتایید؛ پژوهشگران امنیتی باید بتوانند با درجهی بالایی از اطمینان، تضمینهای حریم خصوصی و امنیت PCC را با ادعاهای مطرحشدهی شرکت مقایسه کنند و تایید کنند که نرمافزار درحال اجرا در محیط PCC دقیقا همانی است که آنها بررسی کردهاند.
اپل تاکید دارد که این اصول سختگیرانه برای ارائهی بالاترین حد از امنیت و حفظ حریم خصوصی خدمات ابری طراحی شدهاند.
پس ChatGPT چطور؟
اپل تلاش کرده است امنیت اطلاعات کاربر را برای برخی از درخواستها فراهم کند، اما نه تمام آنها. درخواستهایی که روی دستگاه پردازش میشوند و آنهایی که برای پردازش به PCC فرستاده میشوند، بهگفتهی اپل از امنیت بالایی برخوردارند، چون در سرورهای اپل ذخیره نمیشوند و کارکنان اپل به آنها دسترسی ندارند؛ اما چتبات ChatGPT که قرار است اواخر ۲۰۲۴ در سطح سیستمعامل و در قالب بهروزرسانیهای جدید به آیفون، آیپد و مک بیاید، بخشی از «اپل اینتلیجنس» نیست و از سیاستهای سختگیرانهی اپل در حفظ حریم خصوصی کاربران پیروی نمیکند.
درواقع، اپل اینتلیجنس بهطور انحصاری فقط مدلهای زبانی و هوش مصنوعی اپل را شامل میشود و ChatGPT مبتنیبر مدل GPT-4o به شرکت OpenAI تعلق دارد. اوپنایآی برخلاف اپل سیستمی مشابه PCC برای پردازش خصوصی درخواستها ندارد و بهاحتمال زیاد این درخواستها در سرورهای شرکت ذخیره میشوند و حتی ممکن است برای آموزش مدلهای زبانی به کار روند.
ChatGPT بخشی از «اپل اینتلیجنس» نیست و راهکار حریم خصوصی اپل را ندارد
اپل میتوانست کلا از ChatGPT چشمپوشی کند و به همان مدلهای هوش مصنوعی کوچک خودش اکتفا کند؛ اما این شرکت خوب میداند سیری بهتنهایی نمیتواند از پس پاسخ به تمام درخواستهای کاربران برآید و در حوزهی چتباتها هنوز هیچ محصولی به پای ChatGPT نرسیده است.
فدریگی در مصاحبهای اذعان کرد که «مدلهای زبانی بزرگ قابلیتهای جالبی دارند که به کار برخی از کاربران میآید. ما به این نتیجه رسیدیم که ادغام این مدلها با تجربههای خودمان میتواند دسترسی کاربران به این قابلیتها را بسیار راحتتر از قبل کند.»
راهحل اپل برای حفظ حریم خصوصی کاربران هنگام استفاده از ChatGPT ساده است؛ هربار که درخواستی قرار است برای پردازش به چتجیپیتی فرستاده شود، کاربر ابتدا باید این اجازه را به سیری بدهد. بدینترتیب، کاربر آگاهانه مسئولیت ذخیرهشدن اطلاعاتش در سرورهای OpenAI را میپذیرد.
چقدر میتوان به ادعاهای اپل اطمینان کرد؟
اپل کسبوکارش را بر پایهی حفظ حریم شخصی کاربر بنا نهاده و برخلاف غولهای فناوری دیگر ازجمله گوگل، از فروش دادههای کاربران پول به جیب نمیزند؛ برای همین میتوان تاحدی مطمئن بود که درخواستهای هوش مصنوعی کاربران برای اپل ارزش مادی نداشته باشد. بهگفتهی یکی از تحلیلگران شرکت دادهی IDC، «اگر نتوانیم به اپل درخصوص امنیت دادهها اعتماد کنیم، پس به چه شرکت دیگری میتوانیم اعتماد کنیم؟»
در مورد PCC، اپل به پژوهشگران امنیتی مستقل اجازه میدهد به سرور اپل اینتلیجنس دسترسی داشته باشند تا از نزدیک، ادعاهای امنیتی و حریم خصوصی اپل را بررسی و تایید کنند. این تدابیر امنیتی، سطحی از اعتماد و اطمینان را به نمایش میگذارد که پیشتر در حوزهی هوش مصنوعی بیسابقه بوده است.
صحت ادعای اپل نه فقط برای کاربران، بلکه برای حفظ اعتبار خود شرکت حیاتی است
اگر دلیل عقبماندن اپل از رقابت هوش مصنوعی بحث حریم شخصی باشد که میتواند آسیب جدی به مدل کسبوکار اپل وارد کند، تاحدودی منطقی است که فکر کنیم صحت ادعای اپل نه فقط برای کاربران، بلکه برای حفظ اعتبار خود شرکت حیاتی است. اپل سالها است با رمزنگاری سرتاسری دادههای کاربران، کسبوکار خود را از رقبا متمایز کرده و بعید است اجازه دهد هوش مصنوعی یکشبه تمام این زحمات را به باد دهد.
البته این بدینمعنا نیست که اپل در حفظ اطلاعات کاربران هرگز دچار اشتباه یا کوتاهی نمیشود؛ همین چند وقت پیش باگ نگرانکننده iOS 17.5 عکسهای قدیمی و حذفشده را به گوشی برمیگرداند؛ اپل این مشکل را با آپدیت بعدی حل کرد، اما هیچگاه توضیح نداد چطور عکسهایی که قرار بوده از سرورهای ابری شرکت پاک شده باشند، هنوز وجود دارند.
بااینحال، باید منتظر نتیجهگیری تحلیلگران از میزان امنیت سرور اختصاصی اپل ماند. علاوهبراین، درمورد PCC هنوز جای سوال باقی است. اپل به کاربر اجازه میدهد جلوی پردازش درخواستش توسط ChatGPT را بگیرد، اما آیا این اجازه برای پردازش درخواست در سرور خصوصی اپل نیز وجود خواهد داشت؟ اگر کاربر به هر دلیل نخواهد درخواستش حتی در سرور امن اپل پردازش شود، آیا میتواند جلوی این کار را بگیرد؟ اپل هنوز در این باره توضیحی ارائه نداده است.
درنهایت، حتی اگر هنگام خواندن این مطلب چشمهایتان خسته شد، آگاهی از دغدغههای حریم خصوصی مرتبطبا هوش مصنوعی ارزشش را دارد؛ چراکه طبق پیشبینیهای IDC، گوشیهای مجهز به هوش مصنوعی در سال ۲۰۲۴ به ۱۷۰ میلیون واحد خواهند رسید و پیسیهای هوش مصنوعی حدود ۶۰درصد از کل پیسیهای فروختهشده در سال ۲۰۲۷ را تشکیل خواهند داد.
هوش مصنوعی، چه خوشمان بیاد چه نه، بخش جداییناپذیری از دستگاههای نسل بعدی و زندگی روزمرهی ما خواهد بود؛ و اپل نیز این موضوع را با سنجیدن تمام جوانب خوب و بد آن درک کرده است.
نظرات